面向神经机器翻译的数据缩减方法研究
【文章页数】:72 页
【学位级别】:硕士
【部分图文】:
图2-1基于注意力机制的神经机器翻译模型架构图??
ecurrent?Neural?Network,?RNN?)构成的Seq2Seq模型、基于卷积神经网络??(Convolutional?Neural?Network,?CNN)构建的?Seq2Seq?模型|2|丨以及完全基?j?自注意??力机制(Self-attention?Me....
图2-3?VDPWI模型框架图??(1)?Bi-LSTMs?N络(Bidirectional?Long?Short-Temi?Memory?Networks)丨38-391:??LSTM是循环祌经N络的-种变休,吋以捕获1T1?
?sit?cats^<0^^?Cats?sit?on?the?mat??rJ|k?|??、丫,’?2.?Pairwise?Word??z,—?\?Interaction?Modeling??simCube??t??On?the?mat?there?sit?cats?Cats?si....
图3-ly不同规模的数据下的BLEU值变化??为/解决模型在大规模数据上训练成本过高的问题和数据冗余问题,多种数据选??
神经机器翻译的数据缩减方法研宄?第--章基于句子向量的静态数据选择方法??第三章基于句子向量的静态数据选择方法??3.1引言??随着越来越多的可获取的双语平行数据,机器翻译的质量得到了很大的提升。但??是由于计算机的内存、处理能力以及速度方面的限制,导致翻译模型在大规模数据上??....
图3-3句子向量的分布图??22??
第二章基于句子向量的静态数据选择方法?面向神经机器翻译的数据缩减方法研究??语义相近的两个句子在语义向量空间中更加接近彼此。??本文使用Le和Mikolov?(2014)?[28]提出的PV-DM模型来训练句子向量,该模型??同时考虑了句子的语义和语法信息。图3-3给出了?PV-....
本文编号:4053241
本文链接:https://www.wllwen.com/kejilunwen/shengwushengchang/4053241.html