豆包大模型是基于 Transformer 架构 的混合专家(MoE)大语言模型(LLM),定位为多模态人工智能(AI)基础设施。其核心能力覆盖 自然语言理解与生成、代码创作、数学推理、语音处理、图像生成与分析 及 复杂任务自动化,适用于企业级服务、科研、教育及工业场景。