融入规则信息的神经机器翻译
发布时间:2021-10-21 13:50
为了将统计机器翻译技术中的规则信息引入到端到端的神经网络模型中,提出了一种将规则信息转化为近似等价的序列信息的方法.在此基础上,提出了两种融入规则信息的神经机器翻译模型,并在基于注意力机制的循环神经网络(RNN)模型上进行了验证.相对于未融入规则信息的基准模型在美国国家标准与技术研究院(NIST)评测集上的评测结果,上述两种模型的双语互译评估(BLEU)值均有所提高.实验表明,将规则等外部知识融入到神经机器翻译系统中是提升模型翻译质量的一种有效途径.
【文章来源】:厦门大学学报(自然科学版). 2020,59(02)北大核心CSCD
【文章页数】:7 页
【部分图文】:
不同句长的翻译质量比较
本研究采用的基线模型为基于注意力机制的RNN模型,其模型结构如图1所示.基于注意力机制的RNN模型的编码器由一个前向RNN和一个后向RNN组成,并对源句子的单词序列x=(x1,x2,…,xT)从两个方向分别编码,然后再对得到的中间向量进行拼接得到hj,进而得到源句子的隐藏层表示h=(h1,h2,…,hT).
翻译推导树与还原树
【参考文献】:
期刊论文
[1]机器翻译研究新进展[J]. 刘群. 当代语言学. 2009(02)
本文编号:3449108
【文章来源】:厦门大学学报(自然科学版). 2020,59(02)北大核心CSCD
【文章页数】:7 页
【部分图文】:
不同句长的翻译质量比较
本研究采用的基线模型为基于注意力机制的RNN模型,其模型结构如图1所示.基于注意力机制的RNN模型的编码器由一个前向RNN和一个后向RNN组成,并对源句子的单词序列x=(x1,x2,…,xT)从两个方向分别编码,然后再对得到的中间向量进行拼接得到hj,进而得到源句子的隐藏层表示h=(h1,h2,…,hT).
翻译推导树与还原树
【参考文献】:
期刊论文
[1]机器翻译研究新进展[J]. 刘群. 当代语言学. 2009(02)
本文编号:3449108
本文链接:https://www.wllwen.com/wenyilunwen/hanyulw/3449108.html