线上期刊服务咨询,发表咨询:400-808-1701 订阅咨询:400-808-1721

ALICE:一种面向中文科技文本分析的预训练语言表征模型

王英杰; 谢彬; 李宁波 计算机工程 2020年第02期

摘要:深度学习模型应用于自然语言处理任务时依赖大型、高质量的人工标注数据集。为降低深度学习模型对大型数据集的依赖,提出一种基于BERT的中文科技自然语言处理预训练模型ALICE。通过对遮罩语言模型进行改进并将其与命名实体级遮罩相结合,改善基础模型在下游任务中的表现,使其学习到的语言表征更贴合中文的语言特性。实验结果表明,与BERT模型相比,ALICE模型对于中文科技文本的分类准确率和命名实体识别的F1值分别提高1.2%和0.8%。

关键词:预训练模型迁移学习bert模型文本分类命名实体识别

单位:中国电子科技集团公司第三十二研究所; 上海201808

注:因版权方要求,不能公开全文,如需全文,请咨询杂志社

计算机工程

北大期刊

¥640.00

关注 31人评论|1人关注