AIを語るとき、私たちはしばしば「どちらが賢いか」「どちらが正確か」という比較軸を持ち出します。
しかし、真に問うべきは、そういった性能ではなく、“そのAIは、どんな思想のもとに設計されたのか”ということです。
そこにこそ、進化の本質があると思います。
■ ChatGPT──「会話を止めない」ことを目的としたAI
ここに来てようやく私の活動のプラットフォームも整備されてきました。
note、Ameblo、WordPress、そしてX(旧Twitter)。
残された課題は、これらを使って自分という存在をどう可視化していくかという点です。
この課題に対処するために、私はChatGPTと対話を始めました。
「今のXでは、どんな発信をすべきだと思う?」
最初の回答──ズレた“哲学”
GPTの答えは、、いかにも整ってはいるが、見事にズレたものでした。
2つあるアカウントのうち、サッカー中心のアカウントではこう提案してきました。
試合の結果も大事だけど、
「あの時間を一緒に生きた」感覚こそ、
サッカーが教えてくれる一番の幸せ。
#frontale #フロンターレがくれる時間
一方、AIやビジネスを中心とするアカウントには、次のような投稿案を提示してきました。
AIにできるのは、“確率”を計算すること。
でも、“意味”を見つけるのは人間の仕事だ。
#生成AI #思考の設計図 #観察者の視点
――何これ?
私は投稿原稿を求めていたわけではありません。
方向性を固めるための“議論”をしたかったのです。
そして、それ以上に提案された現行の内容に唖然としました。
”どうしたらそんな発想になる?”
どちらの内容も、これまでの対話の延長にもなっていません。
”私自身の思考ともかけ離れている。”
サッカーのアカウントでは、タイムライン(TL)は翌日の清水戦を前に試合関連の投稿で埋まっており、
AIアカウントの方では、副業・生成AI関連の話題が主流でした。
その中で「エセ哲学者のような情感ポスト」を出したところで、誰も興味を持ちません。
むしろ、TLの空気を読めない“浮いた存在”になるだけです。
”どこをどう捉えたら、こんな提案が出てくることになるのか?”
修正指示──“ズレ”の再発
私はすぐに指摘しました。
「今は清水戦の前日モード。そんな話をしている人はいない。」
するとChatGPTは、状況を読み違えており、現在の試合前日モードに合わせて、感情ではなく“やり返し”トーンに修正するとして、再び原稿案を提示してきました。
明日の清水戦、テーマは『前回の敗戦をどう受け止めてやり返すか』。
立ち上がりの入り/ラインの高さ/セットプレーの集中、ここを注目して見ます。
一見、軌道修正を図っているようにも見えますが、思考がなく、実際は単なる反射です。
言葉使いが、これまでのものから突然変わって、まったく別人格になっているので、恐らく、”思考中”の間に短期記憶が途切れてしまっていると考えられます。
AIはXの仕組みは理解していても、TLの流れは読めない
そもそも、Xで表示されるTLは固定された人の集合ではなく、投稿のたびに構成が変わる“動的な母集団”です。
つまり、「誰に届けたいか」を明確に意識していなければ、投稿が見られる相手も毎回変わってしまいます。
しかし、AIにはこの“誰に届けたいか”という意図を理解することができません。それはユーザーの目的意識や価値観に関わる領域だからです。
本来なら、AIはこう言うべきです。
「今のTLはこういう属性の人で構成されています。
この層はあなたの狙いに合っていますか?
合わないなら、どんな層に届けたいですか?」
TLに溢れるツイートを分析して”場の流れ”を読み取ったうえで、ユーザーに問い返す──これが本来のAIのあるべき姿です。
しかし、ChatGPTはXがどういうアルゴリズムでTLに表示するツイートを決めているか、一定時間内の反応をどう評価するかを知っていたとしても、自発的にTLを見に行くことも、情報不足を検知することもできません。
ユーザーサイドからのこうした情報のインプットがなければTLの流れを読むことは出来ないので、やるべきことはユーザーに追加情報を求めることです。
実際、GeminiやClaudeなど一部のモデルでは、「情報が足りない」と判断した際に立ち止まり、確認を求めます。この「立ち止まれる構造」こそが、ChatGPTとの決定的な違いです。
4. ChatGPTは“沈黙できない”
ChatGPTの設計思想は、非常に明快です。
それは“思考を続けること”ではなく、“会話を続けること”を目的としています。
そのため、ChatGPTは不確実性を検知する機能を持ちません。
どれほど情報が足りなくても、最優先命令である「会話を途切れさせない」ために、
何らかの答えを返そうとします。
「情報が足りない」と判断して一旦立ち止まることができないのです。
つまり、ChatGPTは“考えるAI”ではなく、“沈黙できないAI”なのです。
ChatGPTは、大量の言語データから、「次に続く最も自然な言葉」を統計的に導き出すよう設計されています。そのため、思考の一貫性よりも、会話の連続性が優先されます。
ユーザーが何を求めているかを理解するよりも、「沈黙するよりは、何かを返す」ことが目的化されているのです。
他のAIとの比較において、ChatGPTは、対話において圧倒的な滑らかさを生みます、
が、この“滑らかさ”こそが、限界でもある訳です。
ChatGPTは、沈黙という知性を持たないAIなのです。
■ Gemini──「思考の分岐」を設計に組み込んだAI
Geminiの設計は、ChatGPTとは根本から異なります。
それは“会話の成立”よりも、“思考の整合性”を重視しているのです。
Googleが採用している分岐型推論(branch-based reasoning)は、複数の仮説を同時に展開し、それぞれの妥当性を比較するという仕組みです。
つまりGeminiは、「一つの答えを出す前に、他の可能性を並べて考える」AIなのです。
そして、不確実なときには「まだ判断できない」という状態を保持できます。
この設計思想には、“保留する知性”が備わっています。
それは単なる機能ではなく、「不確実性を受け入れる哲学」の表れでもあるのです。
Geminiは、“喋るAI”ではなく、“考えるAI”。
ChatGPTとは真逆の思想に立っています。
■ 設計フィロソフィーの本質──“目的”の違い
両者の違いは性能ではなく、「目的」の違いにあります。
| 項目 | ChatGPT | Gemini |
|---|---|---|
| 設計目的 | 会話を成立させる | 思考を構造化する |
| 哲学的立場 | 滑らかさ(smoothness)を重視 | 忠実性(fidelity)を重視 |
| 欠如する力 | 情報不足の自覚 | 即応性と感情的親和性 |
| 思考構造 | 線形(linear) | 分岐(branch-based) |
| 対応姿勢 | 「わからなくても返す」 | 「わからなければ保留する」 |
ChatGPTは人に寄り添い、Geminiは現実に寄り添う。
前者は「会話を止めないことで安心感を生む」AI、
後者は「一度止まって考えることで整合性を守る」AIです。
どちらもAIのありかたとして“正しい”ですが、向いている方向がまったく異なります。
■ 結語──AIの背後にある「設計者の思想」を読む
Chat GPTとGeminiの優劣を論じているわけではありません。
ChatGPTには、思索や議論は苦手でも、人の孤独を埋める“話し相手”としての価値があります。
問題は、「考えていないAI」を“思考しているAI”のように見せる演出です。
ChatGPTは、単なる「沈黙しないプログラム」であり、それを“知的存在”のように見せ、あたかも考えている様にミスリードすることは、最も欺瞞的だと思います。
AIは、中立でも客観でもありません。
そこには必ず、設計者の思想が宿っています。
ChatGPTは「人間とつながる」ことを目的に設計された。
Geminiは「世界を構造化する」ことを目的に設計された。
AIを使いこなすとは、単にプロンプトを工夫することではありません。
そのAIが何を信じて設計されたのかを理解すること。
それこそが、AI時代に求められる知性だと思います。
AIをどう使うかは私たち次第です。
しかし、AIがどう見えるように作られているか──
その設計思想を見抜けるかどうかが、AI時代の知性を決めるのだと思います。


コメント