面向文本分类的BERT-CNN模型

被引:2
|
作者
秦全 [1 ]
易军凯 [1 ]
机构
[1] 北京信息科技大学自动化学院
关键词
文本分类; BERT模型; 卷积神经网络; 词向量;
D O I
10.16508/j.cnki.11-5866/n.2023.02.010
中图分类号
TP391.1 [文字信息处理]; TP183 [人工神经网络与计算];
学科分类号
081104 ; 0812 ; 081203 ; 0835 ; 1405 ;
摘要
在深度学习中,Word2Vec、Glove和Fasttext等已成为在文本分类任务中获取词表示的主要方式,但其词向量都是静态表示的,无法充分提取语义信息。为了解决此问题,提高文本分类的精度,提出了BERT(bidirectional encoder representations from transformers)模型与卷积神经网络(convolutional neural networks, CNN)模型相结合的BERT-CNN模型。首先利用BERT中的自注意力机制获取词与词之间的语义关系,然后通过CNN提取文本特征,最后通过全连接层进行二分类。实验结果表明,在文本分类研究中,相比于Word2Vec-CNN和Glove-CNN,BERT-CNN在准确率上分别提升了10.07%和7.07%,效果有显著的提高。
引用
收藏
页码:69 / 74
页数:6
相关论文
共 9 条
  • [1] 基于神经网络的敏感文档检测
    沈麒宁
    [J]. 计算机与数字工程, 2022, (05) : 1089 - 1092
  • [2] 基于BERT模型的中文短文本分类算法
    段丹丹
    唐加山
    温勇
    袁克海
    [J]. 计算机工程, 2021, 47 (01) : 79 - 86
  • [3] 融合知识图谱与注意力机制的短文本分类模型
    丁辰晖
    夏鸿斌
    刘渊
    [J]. 计算机工程, 2021, 47 (01) : 94 - 100
  • [4] 基于LS-SO算法的情感文本分类方法
    姚艳秋
    郑雅雯
    吕妍欣
    [J]. 吉林大学学报(理学版), 2019, 57 (02) : 375 - 379
  • [5] 基于注意力机制的概念化句嵌入研究
    王亚珅
    黄河燕
    冯冲
    周强
    [J]. 自动化学报, 2020, 46 (07) : 1390 - 1400
  • [6] Research on Multi-label Text Classification Method Based on tALBERT-CNN
    Liu, Wenfu
    Pang, Jianmin
    Li, Nan
    Zhou, Xin
    Yue, Feng
    [J]. INTERNATIONAL JOURNAL OF COMPUTATIONAL INTELLIGENCE SYSTEMS, 2021, 14 (01)
  • [7] A gating context-aware text classification model with BERT and graph convolutional networks
    Gao, Weiqi
    Huang, Hao
    [J]. JOURNAL OF INTELLIGENT & FUZZY SYSTEMS, 2021, 40 (03) : 4331 - 4343
  • [8] M. B. Revanasiddappa,B. S. Harish.A Novel Text Representation Model to Categorize Text Documents using Convolution Neural Network[J].International Journal of Intelligent Systems and Applications(IJISA),2019
  • [9] Tomas Mikolov,Kai Chen 0010,Greg Corrado,Jeffrey Dean.Efficient Estimation of Word Representations in Vector Space[J].CoRR,2013