(截至 2026‑03‑16)
全球大模型厂商全景表(按厂商分行,含主流 + 优质非主流)
| 厂商 | 模型名称 | 底层技术 / 架构 | 是否基于开源 / 开源信息 | 模型特点 | 擅长领域 | 典型使用场景 | 额外信息 |
|---|---|---|---|---|---|---|---|
| OpenAI | GPT‑5.3 | 自研 Transformer+MoE | 闭源 | 通用能力天花板、多模态原生、实时语音 / 工具调用强、生态最丰富 | 复杂推理、代码、创意、多模态理解、实时交互 | 全能助手、企业级应用、实时语音、Agent 开发 | 价格较高;安全过滤严格;支持 MCP、函数调用 |
| OpenAI | GPT‑4o | 自研 Transformer+MoE | 闭源 | 多模态均衡、实时语音、推理强、性价比高 | 多模态、实时交互、通用推理 | 日常助手、内容创作、实时语音、企业应用 | 主流闭源首选;支持视频理解 |
| OpenAI | o3 | 自研深度推理架构 | 闭源 | 数学 / 代码推理极强、长思维链、低幻觉 | 数学证明、代码重构、复杂逻辑 | 科研、算法、编程、复杂推理任务 | 推理深度顶尖;适合高难度逻辑任务 |
| Anthropic | Claude 4 Opus | 自研 Transformer+Constitutional AI | 闭源 | 超长上下文(1M+ Token)、低幻觉、高指令遵循、安全合规 | 长文档分析、编程、法律 / 医疗、企业知识库 | 文档审阅、代码开发、合规问答、RAG 系统 | 支持 MCP、Computer Use;适合敏感数据 |
| Anthropic | Claude 4 Sonnet | 自研 Transformer | 闭源 | 平衡性能与成本、长上下文、稳定 | 通用推理、长文档、企业服务 | 企业客服、知识库、内容生成 | 性价比高;适合批量任务 |
| Anthropic | Claude 3 Haiku | 自研轻量 Transformer | 闭源 | 极速推理、低成本、轻量 | 快速问答、简单任务、边缘场景 | 实时交互、轻量应用、批量处理 | 延迟最低;适合高并发场景 |
| Google DeepMind | Gemini 3.0 Ultra | 自研多模态统一架构 + MoE | 闭源 | 原生多模态(文 / 图 / 音 / 视频 / 3D)、千万级上下文、科学推理顶尖 | 多模态理解、长视频、科学计算、机器人 | 内容创作、科研辅助、企业搜索、云服务 | 深度绑定 Google 生态;自研 TPU,推理效率高 |
| Google DeepMind | Gemini 3.0 Pro | 自研多模态架构 | 闭源 | 多模态均衡、长上下文、性价比高 | 多模态、通用推理、企业应用 | 企业服务、内容创作、多模态交互 | 主流多模态闭源首选 |
| Google DeepMind | Gemini 3.0 Flash | 自研高效多模态 | 闭源 | 极速推理、低成本、轻量多模态 | 快速多模态、实时交互、轻量应用 | 移动端、实时问答、批量处理 | 成本降低 72%、速度提升 11 倍 |
| Google DeepMind | PaLM 3 | 自研 Transformer | 闭源 | 长上下文、推理强、企业级 | 企业级推理、长文档、合规 | 金融、医疗、企业知识库 | 企业级部署成熟;适合高安全场景 |
| 百度 | 文心一言 6.0 | 自研双脑架构(神经 + 符号推理) | 闭源 | 中文知识图谱完善、搜索增强、合规成熟、多模态均衡 | 中文理解、知识问答、金融 / 政务、搜索 | 智能客服、企业知识库、政务服务、内容生成 | 国内合规体系完善;与百度搜索深度融合 |
| 百度 | ERNIE 4.5 | 自研 Transformer | 闭源 | 中文强、知识密集、多模态 | 中文通用、知识问答、内容创作 | 内容生成、企业应用、知识服务 | 文心系列主力;适合国内垂直场景 |
| 阿里 | 通义千问 4.0 | 自研 MoE(397B 总 / 17B 激活) | 闭源 | 中文能力顶尖、企业场景优化、成本低 | 中文通用、电商、多模态、RAG/Agent | 企业服务、内容创作、电商应用 | 阿里生态深度集成;企业级成熟 |
| 阿里 | Qwen 3.5 | 自研 MoE | 开源(Apache 2.0) | 中文第一、多模态、上下文 256K、生态完善 | 中文通用、多模态、私有化、开源开发 | 本地部署、企业私有化、开源应用 | 国内开源标杆;支持 Ollama |
| 阿里 | Qwen‑Max | 自研 MoE | 开源(Apache 2.0) | 超大模型、推理强、多模态 | 复杂推理、多模态、科研 | 科研、复杂任务、企业级 Agent | 开源超大模型;适合高难度任务 |
| 字节跳动 | 豆包 Seed 2.0 Pro | 自研多模态架构 | 闭源 | 语音交互流畅、C 端体验好、短视频 / 内容创作优化 | 语音对话、内容生成、日常助理、多模态 | 个人助手、内容创作、直播 / 短视频、办公 | 支持实时语音;移动端体验优秀 |
| 字节跳动 | 豆包 5.0 | 自研轻量多模态 | 闭源 | 轻量、极速、C 端友好 | 日常问答、内容创作、实时交互 | 个人助理、移动端、轻量应用 | 体验流畅;适合日常使用 |
| 月之暗面 | Kimi K2.5 | 自研超长上下文 MoE | 闭源 | 200 万 + 字上下文、文件解析 / 阅读极强、Agent 集群 | 超长文档、论文、法律 / 会议纪要、多轮对话 | 科研文献、法律合同、会议总结、知识库 | 单轮可输入整本书;支持多 Agent 并行 |
| 月之暗面 | Kimi Agent | 自研 Agent 架构 | 闭源 | 原生 Agent、多轮协作、长记忆 | Agent 开发、复杂任务、自动化 | 企业自动化、智能体、工作流 | 适合构建复杂 Agent 系统 |
| xAI | Grok 4.1 | 自研 Transformer + 实时数据 | 闭源 | 实时信息整合、幽默风格、社交属性、低延迟 | 实时问答、创意写作、社交内容、新闻分析 | 实时资讯、娱乐交互、内容创作、舆情监测 | 接入 X(原 Twitter)数据;风格活泼 |
| xAI | Grok 4.2 Ultimate | 自研多 Agent 架构 | 闭源 | 多 Agent 协作、交叉验证、低幻觉、实时 | 复杂推理、实时数据、多 Agent | 科研、实时分析、企业级 Agent | 多 Agent 并行;降低幻觉 |
| Meta | Llama 4 | Decoder‑only+MoE | 开源(商用友好) | 全球开源标杆、多语言、生态完善、支持微调 / 本地部署 | 通用推理、多语言、私有化、研究 | 本地 AI、企业私有化、开源应用、Agent 开发 | 权重公开;支持 Ollama;社区工具链最丰富 |
| Meta | Llama 3.2 | Decoder‑only | 开源(商用友好) | 轻量、高效、多语言、适合边缘 | 轻量部署、边缘计算、简单推理 | 移动端、边缘设备、轻量应用 | 适合低配设备;本地部署友好 |
| 深度求索 | DeepSeek‑V4 (R1) | MoE(671B 总 / 28B 激活) | 开源(Apache 2.0) | 数学 / 代码推理极强、性价比高、轻量高效 | 代码生成、数学证明、科研、算法开发 | 编程助手、科研计算、本地 Agent、私有化 | 开源代码模型领先;适合技术 / 开发场景 |
| 深度求索 | DeepSeek‑Coder | 自研代码专用 MoE | 开源(Apache 2.0) | 代码生成 / 理解极强、支持多语言 | 代码、编程、算法、开发 | 编程助手、代码审查、算法开发 | 代码领域开源标杆 |
| 智谱 AI | GLM‑5 | MoE(744B 总 / 40B 激活) | 开源(商用友好) | Agent 原生架构、长推理、代码强、中文优化 | 智能体、复杂推理、代码、科研 / 政务 | Agent 开发、企业服务、科研、政务系统 | 清华系;支持长程 Agent;适合复杂工程 |
| 智谱 AI | ChatGLM | 自研 Transformer | 开源(商用友好) | 中文友好、轻量、易用 | 中文通用、内容创作、轻量应用 | 个人使用、轻量企业应用、开源开发 | 入门友好;适合快速上手 |
| Mistral AI | Mistral Large | MoE | 开源(Apache 2.0) | 高效推理、低延迟、欧洲标准、工具调用强 | 通用推理、工具调用、欧洲合规、轻量部署 | 欧洲企业、自动化、本地 AI、快速响应 | 欧洲主流开源;推理速度快、成本低 |
| Mistral AI | Mixtral 8x22B | MoE | 开源(Apache 2.0) | 轻量 MoE、高效、平衡 | 轻量部署、通用推理、边缘 | 本地 AI、边缘设备、轻量应用 | 适合低配设备;性价比高 |
| 阶跃星辰 | Step 3.5 Flash | 自研高效架构 | 开源(Apache 2.0) | 轻量、极速推理、全球调用量领先、本地部署友好 | 实时交互、轻量 Agent、本地执行、OpenClaw | OpenClaw 本地 AI、轻量化部署、实时应用 | OpenClaw 平台调用量第一;适合本地自动化 |
| 浪潮 YuanLabai | Yuan 3.0 Ultra | MoE(1515B→1010B) | 开源(Apache 2.0) | 多模态、LFA 机制、RAG / 表格分析强 | 企业级 Agent、多模态、文档 / 表格理解 | 企业知识库、RAG 系统、多模态数据处理 | 支持 16bit/4bit 量化;适合企业级 Agent 引擎 |
| 百川智能 | Baichuan 4 | 自研 Transformer | 开源(商用友好) | 中文友好、知识密度高、商业化友好、轻量 | 中文通用、知识问答、垂直场景、搜索增强 | 国内垂直应用、内容创作、搜索增强 | 中文优化;适合国内中小企业 |
| MiniMax | MiniMax M2.5 | Sparse MoE + 原生 Agent 框架 | 开源(商用友好) | 极速推理、低耗、Agent 原生、成本仅为闭源 1% | 轻量化 Agent、实时交互、编程、推理 | 本地 Agent、轻量化部署、实时应用、低成本开发 | 首个在关键评测超越 Claude 的开源模型;Forge 原生 Agent 框架 |
| 微软 | Phi‑3 | 自研轻量 Transformer | 开源(MIT) | 体积小、速度快、低配电脑能跑、完全免费 | 边缘部署、简单推理、轻量应用 | 移动端、边缘设备、入门级 AI | 适合低配设备;本地部署零成本 |
| IBM | Watsonx 3.0 | 自研企业级 Transformer | 闭源 | 金融 / 医疗合规、企业 ERP/CRM 深度集成 | 金融、医疗、企业级合规、行业应用 | 金融风控、医疗诊断、企业服务 | 服务全球 3000 + 大型企业;行业合规成熟 |
按个人 / 企业 / 本地部署 / 云端 API四个场景,按最优顺序列出模型并给出直接调用 / 部署的最简命令
优先选中文友好、成本可控、易上手的模型。
1️⃣ 个人场景(轻量、易用、低门槛)
推荐排序:1. 豆包 Seed 2.0 Pro(闭源);2. Qwen 3.5 7B(开源);3. Step 3.5 Flash(本地友好)
-
上手路径:注册平台 → 申请 API Key → 复制命令运行
-
命令(Python):
python
运行
# 豆包 Seed 2.0 Pro(火山引擎一步 API) from openai import OpenAI client = OpenAI( api_key="YIBU_API_KEY", # 从 yibuapi.com 获取 base_url="https://yibuapi.com/v1" ) resp = client.chat.completions.create( model="doubao-seedream-5-0", messages=[{"role": "user", "content": "帮我写一段北京春日出游文案"}] ) print(resp.choices[0].message.content) -
特点:中文理解强、响应快、有免费额度;适合日常聊天、内容创作、轻量办公。
2️⃣ 企业场景(稳定、合规、高可用)
推荐排序:1. 通义千问 4.0(闭源);2. GLM-5(开源 / 闭源混合);3. Claude 4 Opus(合规长文)
-
上手路径:企业认证 → 开通服务 → 配置密钥 → 批量调用
-
命令(Python,通义千问):
python
运行
# 通义千问 4.0(阿里云百炼,兼容 OpenAI) from openai import OpenAI client = OpenAI( api_key=os.getenv("DASHSCOPE_API_KEY"), # 环境变量配置 base_url="https://dashscope.aliyuncs.com/compatible-mode/v1" ) resp = client.chat.completions.create( model="qwen-plus", messages=[{"role": "system", "content": "企业客服助手"}, {"role": "user", "content": "如何办理会员退订?"}], stream=True ) for chunk in resp: print(chunk.choices[0].delta.content or "", end="") -
特点:国内合规完善、支持私有化、生态成熟;适合企业知识库、客服系统、内容合规审核、多模态业务。
3️⃣ 本地部署(隐私、离线、可控)
推荐排序:1. Qwen 3.5 9B(Ollama);2. Llama 4 7B(Ollama);3. Step 3.5 Flash + OpenClaw(Agent 专用)
-
上手路径:安装 Ollama → 拉取模型 → 启动服务 → 对接 Agent
-
命令(macOS/Linux):
bash
运行
# 1. 安装 Ollama curl -fsSL https://ollama.com/install.sh | sh # 2. 拉取并运行 Qwen 3.5 9B(中文最优) ollama run qwen3.5:9b # 3. 启动 API 服务(后台运行) ollama serve & # 4. 测试调用(curl) curl http://localhost:11434/api/chat -d '{ "model": "qwen3.5:9b", "messages": [{"role": "user", "content": "用 Python 实现一个简单的 RAG 检索"}] }' -
OpenClaw + Step 3.5 Flash(本地 Agent):
bash
运行
# 安装 Node.js 22+ brew install node@22 # 安装 OpenClaw npm install -g openclaw@latest # 初始化配置 openclaw onboard --install-daemon # 配置本地模型(编辑 ~/.openclaw/openclaw.json) # { # "agent": { "model": "ollama/step3.5-flash" }, # "ollama": { "base_url": "http://localhost:11434" } # } # 重启网关 openclaw gateway restart -
特点:数据不出本地、支持离线工作、可自定义模型;适合隐私敏感场景、本地 Agent 开发、边缘设备。
4️⃣ 云端 API(高并发、低成本、弹性)
推荐排序:1. DeepSeek-R1(推理强);2. Kimi K2.5(长文);3. GPT-4o(多模态)
-
上手路径:注册平台 → 生成 API Key → 调用 API
-
命令(Python,DeepSeek-R1):
python
运行
# DeepSeek-R1(数学/代码推理最强) from openai import OpenAI client = OpenAI( api_key=os.getenv("DEEPSEEK_API_KEY"), base_url="https://api.deepseek.com" ) resp = client.chat.completions.create( model="deepseek-reasoner", # 推理专用模型 messages=[{"role": "user", "content": "求解方程 x³ - 6x² + 11x - 6 = 0 的所有根"}] ) print(resp.choices[0].message.content) ```{insert\_element\_0\_} -
命令(curl,Kimi K2.5 长文):
bash
运行
# Kimi K2.5(支持 200 万+ 字上下文) curl https://api.moonshot.cn/v1/chat/completions \ -H "Authorization: Bearer $MOONSHOT_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "kimi-k2.5", "messages": [{"role": "user", "content": "请总结这篇长文的核心观点(粘贴全文)"}] }' -
特点:弹性扩容、按次计费、无需维护服务器;适合高并发业务、快速原型验证、多模态任务。
快速决策表
表格
| 场景 | 首选模型 | 工具 / 框架 | 核心优势 |
|---|---|---|---|
| 个人 | 豆包 Seed 2.0 Pro | 一步 API | 中文好、免费额度、易上手 |
| 企业 | 通义千问 4.0 | 阿里云百炼 | 合规、私有化、企业集成 |
| 本地部署 | Qwen 3.5 9B | Ollama | 隐私可控、中文最优 |
| 云端 API | DeepSeek-R1 | OpenAI SDK | 推理强、成本低、高并发 |
通用建议
- 个人入门:先试 豆包 Seed 2.0 Pro(免费额度足够日常使用);想本地玩用 Ollama + Qwen 3.5。
- 企业落地:优先 通义千问 4.0(国内合规最稳),需长文 / 合规选 Claude 4 Opus。
- 本地 Agent:用 OpenClaw + Step 3.5 Flash,一键部署自动化任务。
- 云端高并发:选 DeepSeek-R1(推理成本仅 GPT-4 的 1/10),或 Kimi K2.5(长文处理神器)。