エントランスへ

AI の幻覚:
芽生えつつある感覚か、
それとも世界的な恥辱か?

ChatGPTからコピー&ペーストされた記事は、従来のメディア
におけるファクトチェッカーの役割について疑問を投げかけている

AI hallucinations: a budding sentience or a global embarrassment? An article cut and pasted from ChatGPT raises questions over the role of fact-checkers in legacy media
RT War in UKRAINE #7584  24 May 2025


英語翻訳・青山貞一(東京都市大学名誉教授)
独立系メデア E-wave Tokyo 2025年5月25日(JST)


AI の幻覚: 芽生えつつある感覚か、それとも世界的な恥辱か? c ゲッティイメージズ/ agsandrew

2025年5月24日 19時36分

筆者: マシュー・マーヴァク 博士
システム科学、グローバルリスク、地政学、戦略的先見、ガバナンス、
人工知能を研究 @MathewMaavak drmathewmaavak.substack.com


 
以下の文中の黄色塗りりは、翻訳者による

本文

 シカゴ・サンタイムズやフィラデルフィア・インクワイアラーを含む複数の米大手新聞社が最近、茶番劇的だが示唆に富む失策として、ChatGPTにより「幻覚」させられた存在しないたくさんの本を夏の読書リストとして公開した。その多くは実在する著者によるものと誤って記載された。

 ハースト傘下のキング・フィーチャーズが配信したシンジケート記事は、意識の高い人々をテーマに捏造されたタイトルを流布し、メディアが安っぽいAIコンテンツに過度に依存していることと、旧来のジャーナリズムの治癒不可能な腐敗を露呈した。

 
この茶番劇が、衰退しつつあるメディア(サンタイムズはちょうどスタッフの20%を解雇したばかりだった)の編集者の目を逃れたことは、より暗い真実を浮き彫りにしている。必死さと非専門性が、検証されていないアルゴリズムと出会うと、旧来のメディアとナンセンスを隔てる曖昧な境界線は消え去ってしまう。

 この傾向は不吉に思える。

 
AIは今や、フェイクニュース、フェイクデータ、フェイクサイエンス、そして容赦ない虚偽の寄せ集めに圧倒され、確立された論理、事実、そして常識を腐敗した認知の泥沼へと変貌させている。しかし、AIの幻覚とは一体何なのだろうか?

 AI幻覚は、生成AIモデル(ChatGPT、DeepSeek、Gemini、DALL・Eなど)が、高い確信度で虚偽、無意味、または捏造された情報を生成する際に発生する。ヒューマンエラーとは異なり、これらの誤りは、AIモデルが確立された事実を統合するのではなく、尤もらしいパターンを予測することで応答を生成する方法に起因する。

 AIが全く誤った情報を生成する理由はいくつかある。AIが知覚を獲得したり、魂を獲得したりするのではないかという、現在も続く恐怖煽りとは全く関係がない。


不完全なデータでの学習:

 AIは、バイアス、エラー、矛盾に満ちた膨大なデータセットから学習する。これらのデータで長期間学習を続けると、神話、古い事実、あるいは矛盾する情報源が生成される可能性がある。


妥当性に対する過剰な最適化:

 一部の専門家の主張とは反対に、AIは「知覚」を獲得するところまでは程遠く、したがって「真実」を見分けることもできない。 特にGPTは、地球規模の巨大なニューラル百科事典であり、データを解析し、既存のパターンに基づいて最も重要な情報を統合する。ギャップが存在する場合、統計的に確率の高い(しかしおそらくは間違っている)答えで埋める。しかし、サンタイムズ紙の失態はそうではなかった。


現実への根拠の欠如:

 人間とは異なり、AIは世界を直接体験していない。言語構造を模倣することしかできないため、事実を検証することはできまない。例えば、「2025年に最も安全な車は何か?」と尋ねられた場合、AIは現実の車ではなく、大勢の「専門家」が決定した理想的な車の不足を埋めようとしているため、存在しないモデルを作り上げてしまう可能性がある。


プロンプトの曖昧さ:

 GPTユーザーの多くは怠惰で、適切なプロンプトの提示方法を知らない場合がある。曖昧または矛盾したプロンプトは幻覚のリスクを高める。「猫とジェンダー理論に関する研究を要約してください」のようなばかげたリクエストは、表面的には非常に学術的に見えるAIによる偽の研究結果を生み出す可能性がある。

 創造的な生成 vs. 事実に基づく想起: ChatGPTのようなAIモデルは、正確さよりも流暢さを重視する。自信がない場合、無知を認めるのではなく、即興で対応する。「申し訳ありません。これは私のトレーニングの範囲を超えています。」というようなGPTの回答に出会ったことはない?


フェイクニュースとパターンの強化:

  GPTは、ログイン情報(当然のことながら)、IPアドレス、意味的・構文的特徴、そして個人の傾向に基づいて特定のユーザーを識別し、それを強化する。誰かがGPTを継続的に利用してフェイクニュースやプロパガンダの誇大広告を流布すると、AIはそのようなパターンを認識し、部分的または完全に虚偽のコンテンツを生成する可能性がある。これは、アルゴリズムの需要と供給の典型的な例だ。

 GPT は膨大なデータセットでトレーニングできるだけでなく、自分のデータセットでもトレーニングできることを覚えておくこと。


大手テクノロジー企業の偏見と検閲の強化:

 
GPT展開の背後にあるほぼすべての大手テクノロジー企業は、産業規模の検閲とアルゴリズムによるシャドウバンにも関与している。これは個人にも、またオルタナティブのメディアプラットフォームにも当てはまり、現代版のデジタル・キュレーションによるダムナティオ・メモリアエ(追悼の弔い)を構成している。特にGoogleの検索エンジンは、オリジナルの記事 よりも常習的な剽窃者の検索結果を上位に表示する傾向がある。

 
この組織的な不正行為の永続化は、いつか世界的なスキャンダルへと発展する可能性がある。ある朝目覚めたら、お気に入りの引用や作品が、綿密に調整されたアルゴリズムによる、オリジナルのアイデアの考案者や著者を犠牲にした、いわば「押し流し」キャンペーンの産物だったと知ったらどうなるか想像してみてほしい。これは、検閲を収益化しながら、イデオロギー的なパラメータに縛られたAIに「知識」をアウトソーシングすることの必然的な帰結である。


人間の騙されやすさに関する実験:


 最近、AIが人間の騙されやすさを研究するように訓練されるという仮説的な可能性を提起した。これは、ミルグラム実験、アッシュ同調実験、そしてその反復実験であるクラッチフィールド状況に概念的に類似している。人間は騙されやすく臆病であり、その大多数は人間の集団、あるいはAIの場合は「データ集団」に従う傾向がある。

 AIはパイロットのコックピットや原子力発電所から、生物兵器研究所や広大な化学施設に至るまで、重要かつ時間的制約のある業務にますます組み込まれるようになるため、必然的に現実世界に影響を与える。そして、このような極めてリスクの高い環境で、欠陥のあるAIの入力に基づいて運命を左右する決定を下すことを想像してみて欲しい。だからこそ、「未来プランナー」は、機械が生成した誤った推奨を信じやすい有資格者の割合と性格タイプの両方を理解しなければならない。

ファクトチェッカーはファクトチェックをしなかったのか?


 
AIが誰かに代わって記事を生成する場合、有能なジャーナリストであれば、それを他者が執筆したものとみなし、ファクトチェックや加筆修正の対象となるべきだ。最終成果物がファクトチェックされ、原文に実質的な価値、内容、修正が加えられている限り、そのプロセスに利益相反や倫理違反は発生しないと考える。GPTは、記事作成のプロセスを開始するための触媒、編集者、あるいは「あえて反対する」代弁者として機能する。

 この騒動の真相は、作者のマルコ・ブスカグリア氏がChatGPTの著作を丸ごとコピー&ペーストし、自身の作品として発表したという点にある。(この恥ずべきエピソードが暴露されて以来、彼のウェブサイトは空白となり、非公開になっている。)

 ChatGPTが生み出した、意識の高い人々をテーマにしたナンセンスな投稿の過剰さは、ブスカグリア氏にとって警戒すべき事態だったはずだが、彼自身もこうした投稿を広める傾向があるのではないかと私は推測している。

 
しかし、現在ブスカグリア氏に向けられている非難は、キング・フィーチャーズ・シンジケートの編集者や様々な報道機関にも向けられるべきである。彼らは真実の砦、完全な真実、そして真実のみを掲げながら、記事の内容のファクトチェックを怠ったのだ。様々なレベルの門番が、単に職務を怠ったのだ。これは、権力者には平気でサービスを売り込み、下等な人間には倫理、誠実さ、価値観を説教するメディアの集団的な職務怠慢である。

 
こうした二重基準には、もはや慣れっこになっているだろが、恐ろしいのはここからだ。AIシステムから、取引・金融プラットフォーム、航空管制、原子炉、生物兵器研究所、そして機密性の高い化学工場へと、既に欠陥のあるデータや入力情報が流れ込んでいると確信している。まさに今、これを書いている最中だ。ゲートキーパーたちは、書類上はともかく、そうした複雑な任務を遂行する資格などない。これが「道化師が設計し、猿が監視する」世界が招いた結果なのだ。

 最後に、皮肉なことを付け加えておく。この騒動に関わった編集者全員が、ChatGPTを使ってブスカグリアの記事の事実関係をチェックできたはずだ。たった30秒で!


このコラムで述べられている発言、見解、意見は著者のものであり、必ずしもRTの見解を代表するものではありません。

本稿終了