面向用户移动性的预测方法与资源管理技术研究
发布时间:2022-01-02 23:06
为了可持续性地支持爆炸性增长的业务总量和多样化的业务需求,如何优化网络控制机制、提升网络资源利用率成为了重中之重。然而,日益增多的移动用户将会加剧无线业务的动态变化,使网络资源管理变得更加困难。已有研究表明,用户移动具有一定程度的可预测性,如何预测并利用用户移动行为来改进无线网络的设计、提升网络资源利用率已成为新的研究热点。近年来大数据和人工智能技术的发展为移动性预测和网络优化控制提供了新的途径。本文基于深度学习技术对移动轨迹预测问题进行了深入的研究,并利用移动性预测来优化蜂窝网中的移动性管理机制。考虑不同的应用场景,本文将轨迹预测问题拆分为个性化轨迹预测和大众化轨迹预测。对于个性化轨迹预测,提出了基于长短期记忆(Long Short Memory,LSTM)的个性化轨迹预测模型,利用LSTM强大的时序分析能力从用户的大量历史轨迹中学习其移动模式。不同空间颗粒度的预测结果证明了所提出模型的有效性。对于大众化轨迹预测,提出了基于Seq2Seq(Sequence to Sequence)的大众化轨迹预测模型,从而实现在特定区域内的多用户多步轨迹预测。在真实数据集上的实验结果表明,该模型不仅...
【文章来源】:浙江大学浙江省 211工程院校 985工程院校 教育部直属院校
【文章页数】:91 页
【学位级别】:硕士
【部分图文】:
LSTM结构示意图
浙江大学硕士学位论文 第 2 章 相关理论 -1tanh( [ , ])t t t th W r h x (2.9) 最后更新门tz 控制需要从前一时刻的隐藏状态t-1h 中遗忘多少信息,需要加入多少当前时刻的候选隐藏状态th,最后得到输出的隐藏状态: -1(1 )t t t t th z h z h (2.10)
浙江大学硕士学位论文第2章相关理论14解码器利用这个全局表征来初始化其LSTM网络的初始状态,然后通过迭代一步一步地估计输出序列,每一时间步的输出表示对下一时间步的预测结果。通常解码器部分被设计为自回归模型,即前一时间步的输出会作为下一时间步的输入。图2.3Seq2Seq结构示意图由于Seq2Seq结构不限制输入和输出的序列长度,因此应用范围非常广泛,比如机器翻译、问答系统、文本摘要等,并且取得了比单纯的LSTM更好的效果。2.2.4注意力机制在Seq2Seq结构中,编码器把所有的输入序列都编码成一个统一的语义特征,解码器利用这个统一的语义特征进行解码。然而,解码器在解码过程的不同阶段对输入序列中的重点关注位置往往是不同的,这一现象在机器翻译问题中尤为常见。因此,在基本的Seq2Seq结构中,解码器很难聚焦到输入序列中正确的位置,使其在单独使用时难以发挥最大功效。注意力(Attention)机制对这一点做了改进,它会在解码过程的不同阶段利用不同的语义特征进行解码,具体来说,在第t步解码时,它会给输入序列的不同时间步赋予不同的权值,然后计算输入序列每一步隐藏状态的加权和作为第t步解码时所需的语义特征。值得注意的是,权值的大小并不是预定义的,而是与
本文编号:3565061
【文章来源】:浙江大学浙江省 211工程院校 985工程院校 教育部直属院校
【文章页数】:91 页
【学位级别】:硕士
【部分图文】:
LSTM结构示意图
浙江大学硕士学位论文 第 2 章 相关理论 -1tanh( [ , ])t t t th W r h x (2.9) 最后更新门tz 控制需要从前一时刻的隐藏状态t-1h 中遗忘多少信息,需要加入多少当前时刻的候选隐藏状态th,最后得到输出的隐藏状态: -1(1 )t t t t th z h z h (2.10)
浙江大学硕士学位论文第2章相关理论14解码器利用这个全局表征来初始化其LSTM网络的初始状态,然后通过迭代一步一步地估计输出序列,每一时间步的输出表示对下一时间步的预测结果。通常解码器部分被设计为自回归模型,即前一时间步的输出会作为下一时间步的输入。图2.3Seq2Seq结构示意图由于Seq2Seq结构不限制输入和输出的序列长度,因此应用范围非常广泛,比如机器翻译、问答系统、文本摘要等,并且取得了比单纯的LSTM更好的效果。2.2.4注意力机制在Seq2Seq结构中,编码器把所有的输入序列都编码成一个统一的语义特征,解码器利用这个统一的语义特征进行解码。然而,解码器在解码过程的不同阶段对输入序列中的重点关注位置往往是不同的,这一现象在机器翻译问题中尤为常见。因此,在基本的Seq2Seq结构中,解码器很难聚焦到输入序列中正确的位置,使其在单独使用时难以发挥最大功效。注意力(Attention)机制对这一点做了改进,它会在解码过程的不同阶段利用不同的语义特征进行解码,具体来说,在第t步解码时,它会给输入序列的不同时间步赋予不同的权值,然后计算输入序列每一步隐藏状态的加权和作为第t步解码时所需的语义特征。值得注意的是,权值的大小并不是预定义的,而是与
本文编号:3565061
本文链接:https://www.wllwen.com/guanlilunwen/lindaojc/3565061.html