Mixture of Experts
Mixture of Experts(MoE)
Mixture of Experts(MoE)とは、一つの巨大なAIモデルの中に、特定の分野が得意な複数の小さなサブモデル(専門家)を用意し、質問内容に応じて担当する専門家を切り替えて処理する仕組み。
最終更新: 2026/1/28
由来・語源
(記述募集中)
使用例
(記述募集中)
関連用語
- 関連:
Mixture of Experts(MoE)
Mixture of Experts(MoE)とは、一つの巨大なAIモデルの中に、特定の分野が得意な複数の小さなサブモデル(専門家)を用意し、質問内容に応じて担当する専門家を切り替えて処理する仕組み。
(記述募集中)
(記述募集中)