誰もがAIに頼る時代に…

私はChatGPTに課金して、一日数十回質問などするヘビーユーザーです。

ほかにもGeminiとかClaudeとか、ちょっと質問するだけで答えてくれる。ほんとに便利です。

 

でもその一方で…

めちゃくちゃ自信満々に、まったくのウソを言ってくることもあります。

これはAIの「ハルシネーション(hallucination)」と呼ばれる現象です。

なぜこんなことが起こるのかはいくつか理由があります。ざっくり言うと、AIは「意味を理解している」わけじゃなくて、「それっぽく見える答え」を作ってるだけなんです。つまり文章としての正しさ・自然さ・美しさを優先しているのです。

たとえば・・・

●意味ではなく、言葉のつながりで文章をつくっている→ 正しいかどうかじゃなく、「よくある言い回し」を選んでるだけ。

●学習した情報がごちゃ混ぜ(正確な情報もウソ情報も)→ ネットの中身そのままなので、間違った内容も拾ってしまう。

●質問があいまいでも、とりあえず答えてくる→ 「一番おいしい食べ物は?」って聞かれたら、「寿司です」って言う。理由は特にない。

●古い情報をそのまま言ってくることもある→ アップデートされてない情報もあるので、今とはズレることがある。

 

さらには外れ値の問題があります。

AIは大量のデータから学習してますが、その中には変な例やウソ、すごく珍しい情報も混ざってます。こういうものは「外れ値」と呼ばれて、AIにとってはかなり扱いにくい存在です。

つまり、「たまたま変な情報を拾ってしまう」ことがあるんです。

 

じゃあ、AIの間違いを防ぐには?

完全に防ぐことはできませんが、かなり減らす方法はあります。

●複数のAIでダブルチェック→ 別のAIにも同じ質問をしてみる。答えがズレてたら要注意!

●RAGという仕組みを使う→ AIが「自分の記憶」だけで答えるんじゃなく、ネットや資料を調べてから答える仕組み。
(ChatGPT+Web検索や、Copilotがこれに近いです)

●人間が最後にチェックする→ 教育や医療など、ミスできない分野では必須です。「AIが言ってるから正しい」とは限らない!

●AIに“自信のなさ”を表現させる→ 「これは70%の確率です」みたいに、正確さを示す研究も進んでいます。

 

ここまで書いておいて、こんな結論なのですが。

結局、大事なのは“人の判断力”。

これからの時代に必要なのは、「正しい情報を見抜く目」と「そのまま信じない力」。

 

AIが高度化すればするほど、私たちの目が濁っていれば間違いは見つけられない。

視力が下がった状態で、砂漠に落ちたダイヤモンドを探し出せ、と言われてもできません。

 

少なくとも視力は下げてはいけないのです。

本当にこれでいいのかな?この人は何を言いたいのかな?こういうことが予測されるけど?

(まるで国語の読解授業ですね)

 

AIはとても便利な道具です。

でも、便利なものほど「考える力」が試される時代になってきました。

ちゃんと調べること。本当にそうかな?って疑うこと。人の言葉を、自分の頭で読みとろうとすること。

…結局、地味だけど「よく勉強すること」がいちばん大事なのかもしれません。

それはテストの点のためだけじゃなくて、自分で未来を選ぶ力を育てるために。

AIがどれだけ賢くなっても、「考えることを手放さない人」が、いちばん強いと思います。

そんなことを頭の中に置きながら授業していきたいものです。