勾配降下法
こうばいこうかほう
Gradient Descent
類語・同義語: 最急降下法
勾配降下法とは、機械学習において、モデルの予測誤差(損失関数)を最小化するためのパラメータを見つける最適化アルゴリズムである。関数の形状を山や谷に見立て、現在の地点から最も急な下り坂(勾配)の方向に少しずつパラメータを更新していくことで、最も低い場所(最適解)を目指す。AI学習の根幹をなす技術であり、確率的勾配降下法(SGD)やAdamなどの改良版が広く使われている。
最終更新: 2026/1/18
由来・語源
勾配(Gradient)に沿って降下(Descent)することから。
使用例
ディープラーニングの学習が収束しない場合、勾配降下法の学習率(Learning Rate)を調整する必要がある。
関連用語
- 同義語: 最急降下法
- 関連: バックプロパゲーション, 損失関数, Adam