Pedia

勾配降下法

こうばいこうかほう

Gradient Descent

類語・同義語: 最急降下法

勾配降下法とは、機械学習において、モデルの予測誤差(損失関数)を最小化するためのパラメータを見つける最適化アルゴリズムである。関数の形状を山や谷に見立て、現在の地点から最も急な下り坂(勾配)の方向に少しずつパラメータを更新していくことで、最も低い場所(最適解)を目指す。AI学習の根幹をなす技術であり、確率的勾配降下法(SGD)やAdamなどの改良版が広く使われている。

最終更新: 2026/1/18

由来・語源

勾配(Gradient)に沿って降下(Descent)することから。

使用例

ディープラーニングの学習が収束しない場合、勾配降下法の学習率(Learning Rate)を調整する必要がある。

関連用語

  • 同義語: 最急降下法
  • 関連: バックプロパゲーション, 損失関数, Adam
TOP / 検索 Amazonで探す