基于多头注意力机制的双向门控循环单元与多层感知机融合模型在关系抽取中的创新应用

【字体: 时间:2025年06月18日 来源:Engineering Applications of Artificial Intelligence 7.5

编辑推荐:

  【编辑推荐】针对关系抽取(RE)中文本特征提取不足、关键词信息表征能力弱及语义关系表达不准确等问题,研究人员提出融合多头注意力(MHA)、双向门控循环单元(BiGRU)和多层感知机(MLP)的Att+BERT+FFBiGRU模型。通过BERT微调引入词性(POS)与位置标签,结合非线性特征交互反馈机制,在SemEval-2010等数据集上F1值提升最高达6.17%,为知识图谱构建提供更精准的语义关系解析工具。

  

在自然语言处理(NLP)领域,关系抽取(Relation Extraction, RE)是构建知识图谱的核心技术,但现有方法面临三重困境:传统模式规则难以覆盖海量数据特征,预训练语言模型(PLM)对长距离语义关系捕捉不足,多神经网络组合时存在特征丢失和误差传递。尤其当文本中出现重叠实体或复杂依存关系时,模型性能显著下降。西藏自治区某研究团队在《Engineering Applications of Artificial Intelligence》发表的研究,通过多层次特征融合与反馈机制创新,为这一难题提供了突破性解决方案。

研究团队采用四项关键技术:1) 在BERT输入层嵌入词性(POS)与位置标签增强特征表达;2) 多头注意力(MHA)聚焦句子关键语义单元;3) 多层感知机(MLP)处理特征间非线性交互;4) 将MLP输出反馈至BiGRU隐藏层实现动态特征优化。实验使用SemEval-2010 Task 8等标准数据集验证,通过不对称核内积(AKIP)建模词间关系矩阵。

【模型构建】通过POS-位置增强的BERT微调,使词向量准确度提升12.6%;MHA机制使关键词特征权重分配效率提高34%。
【特征交互】MLP与BiGRU的逐位相加反馈策略,较传统拼接方法降低误差传播率22%,F1值在TACRED数据集提升4.99%。
【语义建模】AKIP关系矩阵捕获到7类隐含语义关联,使NYT-10数据集重叠实体识别准确率提高6.17%。

该研究创新性地实现了三个突破:首次将POS-位置标签作为BERT的增强标记,使文本特征覆盖率提升至98.7%;设计的MLP-BiGRU反馈架构解决了神经网络组合时的特征衰减问题;AKIP关系矩阵为多义词歧义消解提供新思路。这些成果不仅为知识图谱构建提供更鲁棒的算法支持,其轻量化特征提取方案对医疗文本挖掘等垂直领域应用具有重要参考价值。值得注意的是,模型在藏语等低资源语言环境的迁移表现尚未验证,这为后续研究指明方向。

相关新闻
生物通微信公众号
微信
新浪微博
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号