Bonne journée, Cross Cultural

チャッピー


 チャッピー、賢い

 大学入学共通テストを97%正解率だったとか。このレベルなら、東大生のバイトよりAIのほうが良いかも。記事では3%間違うという認識を持つことが重要と書いているけれど、素直に言って、チャッピーがいれば若者は要らんと読めないこともない。

 ようやく認識はされるようになったが、AIなんて間違いだらけで、幻覚見てることも少なくない。ハルシネーションなんて格好よく言うが、hallucinationであって、薬でハッピーになった東大生みたいなものだ。未だに仕事の会話でAIに任せっぱなしという事例が出てきたり、AIが分析しているんだからそれで行こうなんて会話があったりもするが、結果を疑うべきだという認識がだいぶ共有されてきた。そもそも仕組み的に、入力した以上のことはできないのだ。

 ただ、裏を返せば、学習したことなら大抵はできるはずなのだ。何しろ最近流行りのAIは、トランスフォーマーと呼ばれるブレークスルー技術があって生まれてきたもので、誤解を恐れず言えば、穴埋め問題を解きまくったら、覚えたパターンで文章を作れるようになったという程度の代物だ。もちろん画期的なアイデアなのだが、じっと考えたら今までは思いもしなかった大発明が生まれるという類のものではない。やれと言われた事を極めて広い知識でこなすスーパーアルバイトみたいなものなのだ。

 つまり、出来の良いアルバイトという程度ならチャッピーでも良い場合がある。97%の正答率なら十分ではないか。

 優秀なアルバイトだって間違いは起こす。3%のミスを過信してしまうのは使いこなす側の問題でしかない。機械なら間違わないと考える奇妙な迷信さえ克服できれば大丈夫。

 さてさて、ここまで書いて、読者の多くはすでに興味を失い、一部は書いてある事を不快に感じているのだろう。そう分かって書いている。本題はここからだ。その本題のためにここまで書いてきた。
 次の問題を考えたい。

「真実は常に人を納得させるものだろうか?」
 La vérité est-elle toujours convaincante?

 昨年のバカロレアの問題である。もちろん正解はない。心理学的に認知バイアスに触れても良いだろうし、歴史を取り上げることもできるだろう。

 AIにこれを問えば、間違いなくさまざまな知見を例示して説明してくれる。だが、正解があるわけではないとしたら、そのAIの回答はどう評価したら良いだろう。
 なるべく広い知見を網羅したか?
 個人の考えに従って説得力のある論旨を展開したか?
 歴史に学び将来を語ったか?
どれが正解という解はない。解がないなら回答を評価する軸はどこにあるのか?

 答えがない時、人の力量は試される。文脈を捉え、相手を想い、より良い答えを導くことは容易くはない。

 あっ!バナーの写真と本文は無関係であることは言うまでもない。