搜索

ERNIE1-2


发布时间: 2022-11-24 18:30:07    浏览次数:69 次

ERNIE1.0

ERNIE: Enhanced Representation through Knowledge Integration提出了三种级别的masking:(1)word piece级别的mask,与bert相同;(2)phrase level masking ,对句子中的短语进行mask;(3)entity level masking,对实体词进行mask,如人名、地名、机构名

ERNIE1.0 image-20220225164353370

增加DLM(Dialogue Language Model) task:(1)输入的句子是QRQ、QRR、QQR等形式。其中Q是提问,R是回答;(2)引入了dialog embedding组合,即Q、R分别表示一个向量,类似于segment embedding;(3)增加了判断这个多伦对话真假的任务

image-20220225164642957

ERNIE2.0

ERNIE 2.0: A Continual Pre-Training Framework for Language Understanding主要提出了模型的人持续学习:Continual Pre-training(即在预训连的过程中加入更多的下游任务进行学习)和Continual Fine-tuning

  • 在训练新任务时,将旧任务混在其中,这样可以防止模型在学习了新任务后,在旧任务上性能大幅变差

  • 模型训练过程中,自动为每个任务分配N个训练轮次,可一个提高模型持续学习的效率(具体做法是:以先前训练好的模型参数作为初始化,再以当前任务进行训练)

  • 模型输入:segment embedding + token embedding + position embedding + task embedding

  • 构建的语言模型任务归为三大类

    • 字层级的任务(word-aware pretraining task):字母大小写预测、预测一个词是否会多次出现在文、
    • 句结构层级的任务(structure-aware pretraining task):句子排序(把一篇文章随机分为m份,预测当前句属于那一份)、判断句子是否相邻、
    • 语义层级的任务(semantic-aware pretraining task):判断问题与标题是否相关等

    image-20220225175759206

免责声明 ERNIE1-2,资源类别:文本, 浏览次数:69 次, 文件大小:-- , 由本站蜘蛛搜索收录2022-11-24 06:30:07。此页面由程序自动采集,只作交流和学习使用,本站不储存任何资源文件,如有侵权内容请联系我们举报删除, 感谢您对本站的支持。 原文链接:https://www.cnblogs.com/teanon/p/15937255.html