8月23日凌晨,OpenAI在官网宣布,推出GPT-3.5 Turbo微调功能并更新API,使企业、开发人员可以使用自己的数据,结合业务用例构建专属ChatGPT。GPT-4的微调功能将于今年秋天推出。

OpenAI表示,从早期测试数据来看,GPT-3.5 Turbo 的微调版本在某些特定任务上,其性能可以匹配甚至超越GPT-4 的基本功能。(详细说明文档:https://platform.openai.com/docs/guides/fine-tuning)

微调功能是目前企业应用大语言模型的主要方法,例如,法律领域的Spellbook、律商联讯、Litera、Casetext等,他们通过自己积累的海量法律数据在GPT-4模型上进行微调、预训练构建法律领域的专属ChatGPT,使其回答的内容更加聚焦、安全、准确。


【资料图】

自GPT-3.5 Turbo发布以来,开发人员和企业希望能够开发自定义大模型,为用户创造独特、差异化的产品体验。现在,OpenAI终于开放了此功能,使得人人都能打造独一无二的专属ChatGPT。

什么是微调

大语言模型的微调(Fine-tuning)是一种在预训练模型的基础上,对特定任务进行深度训练的方法。

微调的基本思想是,先在大规模文本数据上预训练一个大型的语言模型,例如,GPT-3.5,然后,使用特定任务的数据集(如法律、医疗),进一步对模型进行训练,以适应特定的任务。在这个过程中,模型的参数会进行微小的调整,使其在特定业务场景上的性能更好。

例如,如果我们有一个预训练的GPT3.5模型,想让它在法律业务上的表现更好、更专业,可以用海量法律数据集对模型进行微调。

经过微调,模型学习到如何更好地解读、生成和预测法律问题。

微调用例

根据OpenAI的官方微调说明文档,列出了以下常见用例:

推荐内容