2)2017年到2020年,以谷歌Bert为代表的双向预训练+Fine Tuning(微调)的Transformer模型横空出世成为了人工智能的主流方向。谷歌团队人员发表的《Attention is all you need》论文开创了Transformer模型,重新统一了自然语言模型(NLP)的研究范式。这类模型以预训练的方式学习语言学特征,大幅简化了过去NLP繁琐的研究种类。Transformer作为特征提取器效果好于CNN、LSTM模型等,让AI首次能在语言任务的部分场景中追平人类。
目前小公司虽然没有能力研发底层的大语言模型,但其可以通过微调的形式服务垂直领域的需求。我们认为OpenAI三月份在ChatGPT中推出的插件接口是为了接入小公司的微调成果的一次尝试:第三方厂商将可以自有的数据源及部分算法作为ChatGPT之上的插件,ChatGPT可以调用插件中的外部API接口来获得信息。插件提供者使用 OpenAPI 标准编写 API ,然后这个API会被编译成一个prompt向 ChatGPT 解释如何使用 API 来增强其答案。当用户选择对应插件后,如果 ChatGPT 认为应该从 API 获取信息,它将发出请求并在尝试回应之前将信息添加到上下文中。通过插件接口这一模式简化了小公司对大语言模型微调的难度,并丰富了基于大语言模型之上的环境生态。同时通过复杂问题分解、链接外部知识amp;工具等增强语言模型方式,亦能有效解决现有大语言模型在问答可靠性、信息及时性等方面的固有缺陷。