EN

EVA:大规模中文预训练对话模型

14.png

大规模预训练方法已经在构建开放域对话系统方面展现出了非凡的性能。然而目前的工作主要集中在展示和评价现有对话模型的性能,忽视了构建一个更加强大的类人对话模型所要面临的关键问题,尤其是在中文领域。我们针对这些关键问题进行了广泛的实验,包括数据质量控制、模型结构设计、训练方法和解码策略等。基于上述研究,我们提出了一个包含28亿参数的大规模预训练语言模型EVA2.0,并将其开源。据我们所知,EVA是目前规模最大的开源中文对话模型。

文本正文
复制文本
媒体联络
media@baai.ac.cn