用語集: ハルシネーション

ハルシネーション(はるしねーしょん)

作成日: 2023年12月28日(木)

更新日: 2023年12月31日(日)

アサインメント用語集は、デジタル領域の初学者をメインに簡易な用語の理解と一般的な説明を併記した学習コンテンツです。

ラフな解説

事実に基づかないもっともらしい”嘘”のことだったはずだったのだけれど、それが単純にプロンプトとしての指示が悪いのではないかと思えるもの。うまく結果が出力されなかったときに、それっぽいことを言おうと思ったら「ハルシネーションですかね?」みたいな雰囲気を出せると乗り切れる可能性がなくもない?

確実に解答を引き出すわけではないあたりに、まだAIに完全に委託していくことが難しいとされる部分でもあり、人間の手が離れない部分かつ人間が学習してAIの出力をチェックしなくてはいけない理由となるとことである。

といってもAIを否定することにはならないし、個々人の生産性を上げるものであるのは間違いないので、個々人皆々様AIと戦うとかではなくAIと共存するためのスキルとか考えないといけないので厳しい世の中です。

解説

英語として

「幻覚」がこれにあたり、本人は現実のものと信じているが現実には存在してない視覚、聴覚、嗅覚、味覚、触覚のこと、となる。

生成系AIでのハルシネーション

事実にもとづかない誤った出力という意味で使われいている。

AI hallucination is a phenomenon wherein a large language model (LLM)—often a generative AI chatbot or computer vision tool—perceives patterns or objects that are nonexistent or imperceptible to human observers, creating outputs that are nonsensical or altogether inaccurate.

訳 by DeepL)AIの幻覚とは、大規模な言語モデル(LLM)(多くの場合、生成AIチャットボットやコンピュータビジョンツール)が、人間の観察者には存在しない、あるいは知覚できないパターンやオブジェクトを知覚し、無意味な、あるいはまったく不正確な出力を作成する現象である。

What are AI hallucinations? https://www.ibm.com/topics/ai-hallucinations

生成系AIでのハルシネーションは、オーバーフィッティング、学習データの偏り/不正確さ、モデルの複雑さなど、さまざまな要因によって発生しうる。これは単純に生成系AIのミスということもあるが、今後AIに依存するシステム(広義の意味で)を利用していくうえで重大なリスクであったり、新しいサイバー攻撃にもつながるなど注視すべき事象である。

これらのリスクに対して、データの精度を上げるなどもあるが使用目的や出力内容に制限を設けるなど、AIの領域を広げすぎず限定的に設定・利用することで回避するなどが現在考えられいていることである。

上部に戻るボタン