LLaMA:7B参数目的Baby版ChatGPT窥探

[复制链接]
查看745 | 回复0 | 2023-8-23 11:48:37 | 显示全部楼层 |阅读模式
最近metaAI“不小心”泄露了自身的大语言模子LLaMA,本着好奇的心敏捷下载了LLaMA的权重,来试玩一下这个baby版的ChatGPT,为什么称作是baby版,是由于该权重还没有像ChatGPT那般Finetune过。
LLaMA各参数版本与GPT-3的性能对好比下:

本文将使用7B的参数权重,尽大概的造一些能让baby版的LLaMA读懂的prompt,天生一些结果与ChatGPT举行对比,并在一张A100GPU上推理“窥探”:
代码天生

prompts:[“The code for converting pdf into pictures using python is as follows:”]
**LLaMA结果:**差点意思

ChatGPT结果:

公式表明

prompts:[“The meaning of F=ma is”]
LLaMA结果:

ChatGPT结果:

续写

prompts:[“On a dark and windy night,”]
LLaMA结果:

ChatGPT结果:

写故事

prompts:[“The story of an alchemist”]
LLaMA结果:

差点意思,换个提示:Prompt: [‘The story of the alchemist is’]

ChatGPT结果:

QA

prompts:[“There are seven steps to install anaconda3 under windows:”]
**LLaMA结果:**凌驾了输出 长度,但能看到有这本领

ChatGPT结果:
言语明确

prompts:[“There is a sentence, “China’s economic aggregate is the second largest in the world”. In this sentence, “China” is an organizational entity. Then the sentence, “America’s economic aggregate is the first in the world”, the organizational entity in this sentence is”]
**LLaMA结果:**能明确到,就是有点啰嗦了…

ChatGPT结果:

总结

本文通过造一些prompt开端窥探了7B版本的LLaMA,所天生的结果比力依靠于prompt的质量,有资源可以实验65B参数目的版本。

来源:https://blog.csdn.net/yjh_SE007/article/details/129418434
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则