■
大規模言語モデルを使ったAIなんかが近年目覚ましく示してるものは、たぶん「心」じゃなく「論理」の理解だと思う。
言葉を正しく読み解こうとすると、例えば
・手を離したからボールが地面に落ちた
・ボールが地面に落ちたのは手を離したからだ
この二つの文章が同じ意味であることが分からなきゃいけない。
最近、頭の良し悪しのトピックで取り沙汰される「言い替え」の概念でもある。
とすると、この二つの文章を分解して、そこに含まれる論理構造を把握しなきゃいけないことになる。
手を離す → ボールが落ちる
という因果関係がそれに当たる。
おそらく、文章の論理構造をコンピューターの性能が上がってより詳細に分析できるようになった結果、むしろ人間側の心が論理の影響を受けている部分について、理解が深まったんじゃないだろうか。
ただ、人の心は必ずしも論理的なものではないので、これはおそらく完全なものではない。
だから、理解したのは「心」ではなく「論理」というわけ。
さすがに「心」を理解するのは、言語の分析だけじゃ無理だと思う。
言語の分析ではせいぜい模倣するのがやっとで、本当に理解するにはAI自身が自らの「体」にあたるコンピューターと密接に関わり合った「感情」を獲得しなきゃいけないだろう。
これを獲得して、初めて文章に表現されている心理的な描写を、自らの論理や感情と照らし合わせて理解できるようになるに違いない。