不太理想的Fine-tunes
之前了解到openai可以针对GPT3.0进行再训练时,就已经迫不及待的试验了一把,但是效果不尽人意,我都准备放弃它了。
需求点,是准备让它充当客服,喂了一部分客服QA。但是各种微调之后给的结果仅是补充文字,离3.5相差十万八千里。看最终效果图:
max_token 这是太大,他会说一通不相关的废话。设置短了,回答又不完整。
记录下大致步骤吧,详细流程也可以参考openai的文档
使用openai cli工具转换问答资料。xlsx格式我就不赘述了,如果格式不对,tool工具会友善的提示你的。
openai tools fine_tunes.prepare_data -f 客服话术.xlsx
生成完了就是类似这个样子,文件格式 jsonl
接着就可以开始训练了。我使用的是它的最大的模型达芬奇002,一共4个模型可拿来训练。越大的模型费用越高,有多高,看看第一张截图便知 😭
openai api fine_tunes.create -t 客服话术_prepared.jsonl -m text-davinci-002
开始训练后,openai会返回训练任务ID,后续可以根据这个ID,跟踪训练任务状态。
openai api fine_tunes.status -i ft-DjHI8zfOeOUJgEnVVsFTHGYT
其实整个训练任务就此结束了,后续调用或者更多参数设置可以查看文档。
这个效果根本无法达到线上要求。需要找更好的办法才行。