Pedia

Mixture of Experts

Mixture of Experts(MoE)

Mixture of Experts(MoE)とは、一つの巨大なAIモデルの中に、特定の分野が得意な複数の小さなサブモデル(専門家)を用意し、質問内容に応じて担当する専門家を切り替えて処理する仕組み。

最終更新: 2026/1/28

由来・語源

(記述募集中)

使用例

(記述募集中)

関連用語

  • 関連:
TOP / 検索 Amazonで探す