基于知识表示学习的公共计算机课程管理研究
发布时间:2025-05-08 05:14
为解决假负例和零损失问题,将Transformer网络结构用于提取知识库中的实体描述信息,用带有约束性的自注意力机制寻找最能表达实体意义的表示子空间以增强实体的表示能力,引入对抗生成网络思想生成负样本,提升了知识表示能力。该方法在公共计算机课程知识图谱的构建中,清楚描绘了课程知识点间的内在关系,对于指导课程设置与进度安排,引导学生学习具有十分重要的意义。
【文章页数】:6 页
【部分图文】:
本文编号:4044376
【文章页数】:6 页
【部分图文】:
图1 Encoder组件
Transformer是一种encoder-decoder结构,encoder结构负责抽取带有描述信息的实体表示。一个transformer的encoder部分包含6个encoder组件,每个encoder组件由输入层、multi-headattention层、全连接层构成,结....
图2 TBTS模型架构图
笔者设计了一种基于Transformer的文本监督表示学习模型,将带有实体描述和三元组结构的两种实体表示相结合,形成实体的最终表示,而关系表示在这两种情况下是共享的。TBTS模型结构如图2所示。分别定义三元组结构信息的打分函数(采用TransE)和实体描述信息的打分函数。最终得....
图3 对抗生成负样本模型架构
在训练过程中,传统的负样本生成策略采用伯努利采样[6],这种方法容易出现如下问题:1)负样本实际上是一个真实存在于知识库中的真样本,这样的负样本会导致模型的训练出现偏差,即假负例;2)负样本与实际相差过大,模型可轻易分辨出该负样本,导致模型训练效率不佳,即零损失。因此笔者采用了对....
本文编号:4044376
本文链接:https://www.wllwen.com/kejilunwen/jisuanjikexuelunwen/4044376.html
上一篇:一种基于模拟退火的动态部分可重构系统划分-调度联合优化算法
下一篇:没有了
下一篇:没有了