私はChatGPTに課金して、一日数十回質問などするヘビーユーザーです。
ほかにもGeminiとかClaudeとか、ちょっと質問するだけで答えてくれる。ほんとに便利です。
でもその一方で…
めちゃくちゃ自信満々に、まったくのウソを言ってくることもあります。
これはAIの「ハルシネーション(hallucination)」と呼ばれる現象です。
なぜこんなことが起こるのかはいくつか理由があります。ざっくり言うと、AIは「意味を理解している」わけじゃなくて、「それっぽく見える答え」を作ってるだけなんです。つまり文章としての正しさ・自然さ・美しさを優先しているのです。
たとえば・・・
●意味ではなく、言葉のつながりで文章をつくっている→ 正しいかどうかじゃなく、「よくある言い回し」を選んでるだけ。
●学習した情報がごちゃ混ぜ(正確な情報もウソ情報も)→ ネットの中身そのままなので、間違った内容も拾ってしまう。
●質問があいまいでも、とりあえず答えてくる→ 「一番おいしい食べ物は?」って聞かれたら、「寿司です」って言う。理由は特にない。
●古い情報をそのまま言ってくることもある→ アップデートされてない情報もあるので、今とはズレることがある。
さらには外れ値の問題があります。
AIは大量のデータから学習してますが、その中には変な例やウソ、すごく珍しい情報も混ざってます。こういうものは「外れ値」と呼ばれて、AIにとってはかなり扱いにくい存在です。
つまり、「たまたま変な情報を拾ってしまう」ことがあるんです。
じゃあ、AIの間違いを防ぐには?
完全に防ぐことはできませんが、かなり減らす方法はあります。
●複数のAIでダブルチェック→ 別のAIにも同じ質問をしてみる。答えがズレてたら要注意!
●RAGという仕組みを使う→ AIが「自分の記憶」だけで答えるんじゃなく、ネットや資料を調べてから答える仕組み。
(ChatGPT+Web検索や、Copilotがこれに近いです)
●人間が最後にチェックする→ 教育や医療など、ミスできない分野では必須です。「AIが言ってるから正しい」とは限らない!
●AIに“自信のなさ”を表現させる→ 「これは70%の確率です」みたいに、正確さを示す研究も進んでいます。
ここまで書いておいて、こんな結論なのですが。
結局、大事なのは“人の判断力”。
これからの時代に必要なのは、「正しい情報を見抜く目」と「そのまま信じない力」。
AIが高度化すればするほど、私たちの目が濁っていれば間違いは見つけられない。
視力が下がった状態で、砂漠に落ちたダイヤモンドを探し出せ、と言われてもできません。
少なくとも視力は下げてはいけないのです。
本当にこれでいいのかな?この人は何を言いたいのかな?こういうことが予測されるけど?
(まるで国語の読解授業ですね)
AIはとても便利な道具です。
でも、便利なものほど「考える力」が試される時代になってきました。
ちゃんと調べること。本当にそうかな?って疑うこと。人の言葉を、自分の頭で読みとろうとすること。
…結局、地味だけど「よく勉強すること」がいちばん大事なのかもしれません。
それはテストの点のためだけじゃなくて、自分で未来を選ぶ力を育てるために。
AIがどれだけ賢くなっても、「考えることを手放さない人」が、いちばん強いと思います。
そんなことを頭の中に置きながら授業していきたいものです。