Pedia

データポイズニング

でーたぽいずにんぐ

Data Poisoning

類語・同義語: 学習データ汚染攻撃

データポイズニングとは、AIの学習データセットに悪意のある誤ったデータ(毒)を意図的に混入させることで、AIの学習モデルを汚染し、誤動作や精度の低下を引き起こさせる攻撃手法である。例えば、マルウェアを「安全」と分類させるような偽データを学習させ、セキュリティ検知をすり抜けるといった攻撃が考えられる。一度モデルが学習してしまうと修正が困難であるため、学習データの収集段階での厳格な品質管理(サニタイズ)が防御の鍵となる。

最終更新: 2026/1/18

由来・語源

AIの「食料」であるデータに「毒(Poison)」を入れることから。

使用例

オープンソースからデータを収集する際は、データポイズニング攻撃を受けていないか検証が必要だ。

関連用語

  • 同義語: 学習データ汚染攻撃
  • 関連: アドバーサリアル攻撃, 機械学習セキュリティ, サプライチェーン攻撃
TOP / 検索 Amazonで探す