基于深度强化学习的在线社交网络多模态的安全内容搜索研究
发布时间:2021-10-15 16:48
迅速发展的社交网络在积累了大量数据的同时,也实时产生着可观的增量数据。一方面,社交网络大数据的独特数据特征导致传统信息搜索算法已经难以满足用户的需求。另一方面,社交网络信息的数据多样性对社交网络大数据获取与处理提出了更高的要求。在此背景下,提高在线社交网络搜索算法的准确性与搜索方式的高效性已经成为了研究热点。本文完成的主要工作如下:(1)提出了一种基于E-RSCNN(Extraction-Reinforcement Search Convolution Neural Network)的数据感知与抽取算法。采用了基于深度卷积神经网络的社交网络内容筛选,完成了对安全内容的感知与抽取。将安全内容短文本与微博文档集合分别定义为微博搜索的查询与候选集,根据微博文档的文本与图像特征进行分析,获得了微博文档相关评价。(2)提出了基于深度学习的社交网络多模态内容映射与识别方法(M-RSCNN)算法。该算法结合微博内容中包含的原始图像信息,对文本特征进行修正融合,从而获得内容一致语义空间。将微博短文本与图片信息、时间信息、空间信息组合成的微博文档集合,输入到训练完毕的卷积神经网络模型中,在卷积计算和池化...
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:74 页
【学位级别】:硕士
【部分图文】:
图1-1总体结构框架图??分析社交网络安全内容中的包含的时空特征,加以提取并构建时空信息表达??集合
深度学习神经网络作为神经网络的一种演化,与传统神经网络相比,相同之??处在于具体每层均由多个独立神经元组成的平台构成。不同之处在于,“深度”??表示相比于传统神经网络,拥有更多的神经网络层数,如图2-1所示。??|输入层;?,?隐层?i?丨输出层;??!??j?!?」_?I?!??图2-1深度学习神经网络示意图??前向反馈网络的训练过程可以分为两个阶段,向前传播与向后传播。关键点??在于设计准确的深度学习神经网络的输入、输出格式与合理的维度转换方式。输??入为感知获取的信息,将每个词的由神经网络训练产生的词向量组成为矩阵,输??出为输入内容的特征向量。经过深度学习网络的训练,产生的文档特征向量能够??捕捉到更加潜在的语义表达,使输入信息可以在同一语义空间下进行表述,从而??完成特征的提取。??10??
112*128?28*28*512?14*14*512??I?卷积运算I?|最大56*128?28*28*512?7*7*512??U最大池化¥算?卷积运算V???ir56*256?28*28*512?全连接层??|?——?I?Y??卷积运算??*输出??图2-2?VGG16模型卷积架构图??经网络与长短时记忆网络??入的网络的另一种主要形式是循环,代表为循环神经网络ork,?RNN)。循环神经网络的引入是为了解决有序输入数记忆性的问题。为了解决输入数据为有序的数据,循环作为输入,也将之前感知到的结果应作为输入。常见
本文编号:3438301
【文章来源】:北京邮电大学北京市 211工程院校 教育部直属院校
【文章页数】:74 页
【学位级别】:硕士
【部分图文】:
图1-1总体结构框架图??分析社交网络安全内容中的包含的时空特征,加以提取并构建时空信息表达??集合
深度学习神经网络作为神经网络的一种演化,与传统神经网络相比,相同之??处在于具体每层均由多个独立神经元组成的平台构成。不同之处在于,“深度”??表示相比于传统神经网络,拥有更多的神经网络层数,如图2-1所示。??|输入层;?,?隐层?i?丨输出层;??!??j?!?」_?I?!??图2-1深度学习神经网络示意图??前向反馈网络的训练过程可以分为两个阶段,向前传播与向后传播。关键点??在于设计准确的深度学习神经网络的输入、输出格式与合理的维度转换方式。输??入为感知获取的信息,将每个词的由神经网络训练产生的词向量组成为矩阵,输??出为输入内容的特征向量。经过深度学习网络的训练,产生的文档特征向量能够??捕捉到更加潜在的语义表达,使输入信息可以在同一语义空间下进行表述,从而??完成特征的提取。??10??
112*128?28*28*512?14*14*512??I?卷积运算I?|最大56*128?28*28*512?7*7*512??U最大池化¥算?卷积运算V???ir56*256?28*28*512?全连接层??|?——?I?Y??卷积运算??*输出??图2-2?VGG16模型卷积架构图??经网络与长短时记忆网络??入的网络的另一种主要形式是循环,代表为循环神经网络ork,?RNN)。循环神经网络的引入是为了解决有序输入数记忆性的问题。为了解决输入数据为有序的数据,循环作为输入,也将之前感知到的结果应作为输入。常见
本文编号:3438301
本文链接:https://www.wllwen.com/shekelunwen/shehuibaozhanglunwen/3438301.html