Pedia

ハルシネーション(幻覚)

はるしねーしょん

意味

ハルシネーション(Hallucination:幻覚)とは、生成AIや大規模言語モデル(LLM)が、事実とは全く異なる嘘の情報や、存在しない架空の情報を、あたかも真実であるかのようにもっともらしく出力してしまう現象のことである。 AIは学習した膨大なデータの中から、確率的に「次に続く最も自然な単語」...

概要

生成AI(ChatGPTなど)が、事実とは異なる嘘の情報を、あたかも真実であるかのように自信満々に答えてしまう現象。 AIが見ていない幻覚(Hallucination)を見ているように見えることから名付けられました。

なぜ起きるか

現在のAI(大規模言語モデル)は、「事実を知っている」わけではなく、「文脈的に次にくる単語を確率的に予測している」だけだからです。 「桃太郎の家来は?」と聞かれると、「犬、猿、キジ」と答える確率が高いですが、マイナーな歴史上の人物について聞かれると、ネット上の断片的な情報をそれっぽく繋ぎ合わせて、「架空の経歴」を作り上げてしまうことがあります。

対策

RAG(検索拡張生成)といって、AIに答える前に信頼できるデータベースを検索させ、その結果に基づいて答えさせる技術などで改善が進んでいます。

TOP / 検索 Amazonで探す