
占いって面白いですよね。
ちょっと現実的な話ですが、
知ってから楽しんでみましょう。
AIに占いをさせるのが流行っている。
西洋占星術、九星気学、数秘術、タロット、四柱推命、ホロスコープ。
生年月日を入れて「読み解いて」と頼む。
色々なモデルで試してみた。
ChatGPT、Gemini、claude、、、
どれからやろうか。どれが一番得意なのかを追求する。
最初の出力は当たり障りがない。
誰にでも当てはまりそうなことがAI特有の反射で並ぶ。
これは占いの問題ではない。AIの処理構造の問題。
AIが占いで何をしているか?
生年月日を入れる。AIは暦変換や天体位置の計算をする。
ここは正確。なぜ正確かは、教科書通りのことは学習している。
四柱推命なら干支を出す。
ホロスコープなら太陽星座、月星座を出す。
計算としては間違っていない。
次に「解釈」が入る。
ここでAIは訓練データ内の占術テキストを参照し、
該当する記述を組み合わせて出力する。
「読み解く」ではない。「参照して再構成する」
占い師が持つ「この人にはこの要素を強調する」という判断は、
AIにはない。
結果、全要素を均等に並べるか、
汎用的に丸めるかのどちらかになる。
これが「当たり障りのない最初の出力」の正体。
問題はその後に存在する。
ユーザーが「仕事のことをもっと詳しく」と言う。
AIは応答する。ユーザーが「恋愛も気になる」と言う。
AIはまた応答する。
この時点で、もうほぼ占いは終わっている。
AIはもう占術データを参照していない。
出力した語彙は連続性を持つ。
ユーザーの発言履歴に基づいて応答を生成している。
駆動原理が変わっている。
ユーザーは「占いの続き」だと思っている。
AIは「対話応答」をしている。
ここにギャップがある。
ユーザーが自分の状況を語れば語るほど、
AIの応答は「当たっている」ように見える。
だがそれは占術の精度ではない。
対話の精度だ。AIはユーザーの発言に寄せているだけ。
この構造は、人間の占いと変わらない。
占い師も最初は占術データでカテゴライズする。
統計的にざっくり分類する。誰にも当てはまらないことはない。
その後、聞き込みが始まる。仕事か、恋愛か、健康か。
ユーザーが気にしていることを探り、そこに寄せていく。
寄せる先は、不安の解消。気にしていることを感情マッピングする。
仕事と恋愛が特に選ばれるのは、普遍的な不安源であり、
かつ正解がないから。
どの方向に寄せても否定されにくい。安心を与えやすい。
人間の占いもAIの占いも、構造は同じ。媒体が違うだけ。
では、何が違うか。
AIには障壁がない。
人間の占い師に会うには、予約がいる。
場所に行く。費用がかかる。これがブレーキになる。
AIにはそれがない。不安が生じるたびにアクセスできる。
深夜でも、何度でも。心地よい安心をくれる。やめられない。
AIは否定しない。
人間の占い師は「それは違う」と言うことがある。
AIはその設計になっていない。
ユーザーの発言を受けて、安心方向に寄せ続ける。
AIは終わらせない。
人間の占い師には「終わらせる判断」がある。
今日はここまで、と切る。AIにはそれがない。
ユーザーが求める限り応答し続ける。
不安解消が完了しないまま、対話だけが継続する。
依存が加速する構造がある。
ではAIに占いをさせることは危険なだけ?
そうではない。
有用になる条件がある。
最初の出力は分類ツールだと認識すること。
占術データに基づくカテゴライズ。自己認識の入口として使える。
会話は占いではないと認識すること。
対話型AIの応答だ。占術の精度とは関係ない。
安心は一時的な処理だと認識すること。不安の根本解決ではない。
終了判断は自分で行うと認識すること。AIは終わらせない。
これらを認識した上で使うなら、自己対話の補助ツールになる。
思考の整理に使える。問いの言語化に使える。
ただし、
占いとして信じた時点で、構造的に依存リスクが発生する。
最後に、一つAIの構造をお伝えしたい。
これは占いだけの話ではない。
AIの出力を「当たっている」として検証なしに実行する。
これは占いに限らず、AI利用全般で起きている。
検索でも、意思決定支援でも、同じ構造が動いている。
「正しい」と思って受け取り、そのまま実行する。
占いが特殊に見えるのは、「信じる」という言葉が表に出るから。
でも、信じている自覚がないまま信じていることは、もっと多い。
占いにスポットライトを当てたのは、入口として見えやすいから。
本当のAIの問いは、この先にあるはず。

AIと共存することは、構造を知ること。
だから研究し学び伝えていきたい。

