探索基于图的Transformer编码器在资源匮乏的神经机器翻译中的应用

《ACM Transactions on Asian and Low-Resource Language Information Processing》:Exploring Graph-based Transformer Encoder for Low-Resource Neural Machine Translation

【字体: 时间:2025年11月10日 来源:ACM Transactions on Asian and Low-Resource Language Information Processing

编辑推荐:

  低资源场景下,通过图神经网络编码UCCA结构优化Transformer翻译模型,在英语-越南语/法语/捷克语数据集上BLEU提升0.33-0.41,参数量减少47%,增强结构感知能力。

  

摘要

Transformer常用于神经机器翻译(NMT)中,但在资源匮乏的环境中存在过参数化的问题。这意味着单纯增加模型参数并不能显著提升性能。在这项研究中,我们提出了一种基于图的方法,在略微增加参数数量的同时,显著优于扩展后的Transformer模型。我们通过使用图神经网络(Graph Neural Networks)对通用概念认知注释(Universal Conceptual Cognitive Annotation,简称UCCA)进行编码,将UCCA的语言特征融入到词嵌入中,从而提升了NMT系统的性能。由于词嵌入的能力和信息量得到了增强,因此系统表现得到了提升。实验结果表明,所提出的方法在英语-越南语/法语/捷克语数据集上的BLEU评分分别比扩展后的Transformer模型提高了0.4、0.41和0.33分。此外,与扩展后的Transformer相比,该方法还减少了47%的参数数量。对错误模式的深入分析表明,所提出的方法为翻译系统提供了结构上的理解能力。我们的代码可在此处获取:https://github.com/nqbinh17/UCCA_GNN。
相关新闻
生物通微信公众号
微信
新浪微博
  • 搜索
  • 国际
  • 国内
  • 人物
  • 产业
  • 热点
  • 科普
  • 急聘职位
  • 高薪职位

知名企业招聘

热点排行

    今日动态 | 人才市场 | 新技术专栏 | 中国科学人 | 云展台 | BioHot | 云讲堂直播 | 会展中心 | 特价专栏 | 技术快讯 | 免费试用

    版权所有 生物通

    Copyright© eBiotrade.com, All Rights Reserved

    联系信箱:

    粤ICP备09063491号