Large Language Model (LLM) 即大规模语言模型,是一种基于深度学习的自然语言处理惩罚模型,它可以或许学习到自然语言的语法和语义,从而可以天生人类可读的文本。
LLM 通常基于神经网络模型,使用大规模的语料库进行训练,好比使用互联网上的海量文本数据。这些模型通常拥有数十亿到数万亿个参数,可以或许处理惩罚各种自然语言处理惩罚任务,如自然语言天生、文本分类、文本择要、呆板翻译、语音识别等。
开源中文 LLM
ChatGLM-6B —— 双语对话语言模型
ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,并针对中文进行了优化。该模型基于 General Language Model (GLM) 架构,具有 62 亿参数。连合模型量化技能,用户可以在斲丧级的显卡上进行本地摆设(INT4 量化级别下最低只需 6GB 显存)。
MOSS —— 支持中英双语的对话大语言模型