前不久,Meta前脚发布完开源大语言模型LLaMA,
随后就被网友“泄漏”,直接放了一个磁力链接下载链接。
然而那些手头没有顶级显卡的朋友们,就只能看看而已了
但是 Georgi Gerganov 开源了一个项目llama.cpp
ggerganov/llama.cpp: Port of Facebook’s LLaMA model in C/C++ (github.com)
次项目的牛逼之处就是没有GPU也能跑LLaMA模型
大大降低的使用成本,本文就是时间如何在我的 mac m1 pro 上面跑起来这个模型
llama.cpp:提供了一种模型量化和在本地CPU上部署方式