自然语言处理新范式:基于预训练模型的方法

被引:13
|
作者
车万翔 [1 ]
刘挺 [1 ]
机构
[1] 哈尔滨工业大学
关键词
人工智能; 自然语言处理; 预训练语言模型; 同质化;
D O I
暂无
中图分类号
TP391.1 [文字信息处理];
学科分类号
081203 ; 0835 ;
摘要
以BERT和GPT为代表的、基于超大规模文本数据的预训练语言模型能够充分利用大模型、大数据和大计算,使几乎所有自然语言处理任务性能都得到显著提升,在一些数据集上达到甚至超过人类水平,已成为自然语言处理的新范式。认为未来自然语言处理,乃至整个人工智能领域,将沿着“同质化”和“规模化”的道路继续前进,并将融入多模态数据、具身行为数据、社会交互数据等更多的“知识”源,从而为实现真正的通用人工智能铺平道路。
引用
收藏
页码:3 / 9
页数:7
相关论文
共 3 条
  • [1] Pre-trained models for natural language processing: A survey.[J].QIU XiPeng;SUN TianXiang;XU YiGe;SHAO YunFan;DAI Ning;HUANG XuanJing;.Science China(Technological Sciences).2020, 10
  • [2] Efficient Estimation of Word Representations in Vector Space.[J].Tomas Mikolov;Kai Chen 0010;Greg Corrado;Jeffrey Dean.CoRR.2013,
  • [3] A Neural Probabilistic Language Model..[J].Yoshua Bengio;Réjean Ducharme;Pascal Vincent;Christian Janvin.Journal of Machine Learning Research.2003,