ChatGLM
面向中英文对话优化的开源大语言模型,支持高效本地部署。
ChatGLM 是由清华大学与智谱 AI 共同开发的开源双语对话 AI 模型,基于 General Language Model (GLM) 架构,拥有 62 亿参数,训练数据涵盖约 1 万亿中英文 tokens。该模型支持自然流畅的人机对话与问答,尤其针对中文理解进行了优化。ChatGLM 应用有监督微调、人类反馈强化学习及模型量化等先进技术,可在仅需 6GB 显存的消费级 GPU 上高效本地部署。最新版本支持最长 32K tokens 上下文,并提升了推理与代码生成能力。ChatGLM 完全开源,注册后可免费用于学术研究和商业用途,是中国 AI 生态中具有竞争力和可用性的选择。