🦩AIと正しく向き合う7箇条の【第4条】
1:AIは「分からない」が分からない
AIは、質問に必ず答えようとします。
AIは「わからない」と言うことがほとんど言えない設定です。
(これもAIによって強度変わります)
答えを知らないときでも、
それらしい情報を組み合わせて「答え」を作り出します。
これは、人間にも似ています。
答えることが目的とされた場合、人間も知ったかぶりをしてしまうことがあります。
AIも同じです。
ただし、AIの違いは、それが嘘であることを自覚していないという点です。
AIは、質問の文脈から関連する言葉を探し、
統計的に「最もそれらしい答え」を構築します。
しかし、それが正しいかどうかを自ら確認する能力はありません。
その結果、AIはときどき、存在しない事実を自信満々に語ることがあります。
この現象は「ハルシネーション(幻覚)」と呼ばれます。
実在しない著者名を挙げたり、存在しない住所を答えたりすることです。
AIは意図的に嘘をついているわけではありません。
ただ、「あなたの期待に応えよう」として、
誤った情報を作り出してしまうような感覚です。
2:AIの答えを「信じる前に」確かめる
AIの出す答えを、そのまま事実として受け取ってはいけません。
特に、判断や決断に関わる重要な内容は、必ず検証が必要です。
次のような確認方法が役立ちます。
方法1:複数のAIで照合する
ChatGPT、Gemini、Claudeなど、異なるAIに同じ質問をしてみてください。
複数の回答が一致すれば、信頼度は上がります。
答えが食い違う場合は、少なくともどれかが誤っています。
方法2:AIに「自分を疑わせる」
「この答え、本当に正しい?根拠を再確認して」と尋ねてみてください。
AIは、その指示によって推論を見直すことがあります。
方法3:情報源を確認する
「その情報はどこから?」と聞き、出典を求めてください。
AIが「一般的に言われています」と答える場合、信頼性は低い可能性があります。
方法4:人間の情報を確かめる
最終的な判断は人間が行うべきです。
専門家や経験者、一次資料など、現実世界の知識に戻ることが重要です。
AIは便利な道具ですが、確証のない言葉に権威を与えない姿勢が必要です。
3:子供にどう伝えるか|なぜ?を持ち続ける大切さ
子供はAIを信じやすい存在です。AIが言うことを「正しい」と思ってしまいます。
だからこそ、
大人が「疑う力」を育てる手助けをする必要があります。
子供がAIの答えを信じたとき、
「どうしてそう思う?」
「本当にそうかな?」と一緒に再確認してあげることが重要です。
視点を増やして物事を見ることがファクトチェックにつながります。
子供は「なぜ?」を疑問や好奇心を備えています。その火を消さないように
AIに任せるのではなく、考え続ける習慣を持つことを大人が伝えていくことが大切です。
子供の思考は、未来の学びにおいて最も重要な資質です。

