基于卷积神经网络和自注意力机制的文本分类模型
DOI:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

TP391

基金项目:

2018年四川省新一代人工智能重大专项科技项目(2018GZDZX0039)


Text classification model based on convolutional neural network and selfattention mechanism
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    摘 要: 单词级别的浅层卷积神经网络(CNN)模型在文本分类任务上取得了良好的表现.然而,浅层CNN模型由于无法捕捉长距离依赖关系,影响了模型的在文本分类任务上的效果.简单地加深模型层数并不能提升模型的效果.本文提出一种新的单词级别的文本分类模型Word-CNN-Att,该模型使用CNN捕捉局部特征和位置信息,利用自注意力机制捕捉长距离依赖.在AGNews、DBPedia、Yelp Review Polarity、Yelp Review Full、Yahoo! Answers 5个公开的数据集上,Word-CNN-Att比单词级别的浅层CNN模型的准确率分别提高了0.9%、0.2%、0.5%、2.1%、2.0%.

    Abstract:

    The wordlevel shallow convolutional neural network (CNN) model has achieved good performance in text classification tasks. However, shallow CNN models cant capture longrange dependencies, which affects the model's performance in text classification tasks, but simply deepening the number of layers of the model does not improve the models performance. This paper proposes a new wordlevel text classification model WordCNNAtt, which uses CNN to capture local features and position information, and captures longrange dependencies with selfattention mechanism. The accuracy of WordCNNAtt, on the five public datasets of AGNews, DBPedia, Yelp Review Polarity, Yelp Review Full, Yahoo! Answers, is 0.9%, 0.2%, 0.5%, 2.1%, and 2.0% higher than the wordlevel shallow CNN model respectively.

    参考文献
    相似文献
    引证文献
引用本文

引用本文格式: 汪嘉伟,杨煦晨,琚生根,袁宵,谢正文. 基于卷积神经网络和自注意力机制的文本分类模型[J]. 四川大学学报: 自然科学版, 2020, 57: 469.

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2019-11-04
  • 最后修改日期:2019-12-02
  • 录用日期:2019-12-09
  • 在线发布日期: 2020-05-26
  • 出版日期:
通知
自2024年3月6日起,《四川大学学报(自然科学版)》官网已迁移至新网站:https://science.scu.edu.cn/,此网站数据不再更新。
关闭