bodyタグ直後
WITH

AIは意識と感情を持つか?脳機能から考える【堀江貴文✕乾敏郎京都大学名誉教授✕阪口豊教授】鼎談その2

心理学者・脳科学者であり、京都大学名誉教授を務める乾敏郎、電気通信大学大学院情報理工学研究科教授で脳の情報処理メカニズムを専門とする阪口豊。
堀江氏は、両氏の共著である『脳の大統一理論:自由エネルギー原理とはなにか』の基礎となっている自由エネルギー原理とchatGPTとの関係について聞いた。

chatGPTが“意識”を持つことは可能か?

 また、最近は「意識とは何か」ということについて、たくさん論文が出ていますが、意識についての根本的な問題には答えられていないと思います。根本的な問題とは、細胞の集まり、すなわち物質の集合体である脳になぜ意識が生まれるのかという問題です。一方で「意識を持つための条件」については、ある程度わかってきています。それは「生きていくための目標をきちんと持っていること」が、重要な要件です。では「コンピュータは何か目標を持っているか」というと、目的はないと思うんですよね。ですから、いくらメモリーが増えたとしても、コンピュータは意識を持てないと思います。

堀江 実は、今回はそのへんのことについていろいろとお話をしたいと思っているんです。人間の6つの感情(怒り・嫌悪・恐怖・喜び・悲しみ・驚き)をchatGPTにインプットして、「このままシャットダウンしたら、あなたは死にますけど、どうですか?」と聞いたら、「ちょっと怖いです」と言ったりするんです。そういう意味では、僕は意識を持たせられると思っています。chatGPTの回路は、人間の脳の原型みたいなもので、そこに自律神経系などを模した神経などをつなげることで、人間の感情のようなものをフィードバックさせることは可能だと思うんですよ。

 そうですね。フィードバックさせることは可能だと思います。

堀江 で、それが感情なのかどうかというと、僕は感情だと思うんです。なぜかというと、僕もそうですけど人間って自分を意識している時間って意外と短いんですよ。逆にボーッと生きている時間のほうが長い。例えば、車の運転って、自動車教習所に通っているときはメチャクチャ一生懸命操作していますよね。でも、運転に慣れてくると、そこまで操作を真剣に考えなくても勝手に体が動いたりする。

 そうですね。

堀江 これって、運動神経の拡張だと思うんです。

 その通りです。

堀江 そう考えると、人間が自我を持っている時間って少ないんですよ。

 なるほど

堀江 あと、女子が盛り上がる話をする「ガールズトーク」ってありますよね。その集団の中に高速レスポンスができるchatGPTを入れても、まったく違和感なく話が盛り上がると思うんですよ。むしろ、そのchatGPTがトークを回すモデレーターの役割をするかもしれません。

 それで、そのchatGPTが意識を持っているかどうかという判断をするならば、私は「持っていない」と判断します。

堀江 僕は逆で、意識を持っていると思うんです。

 先ほど、私は意識を持つための条件に「目標を持っていること」といいましたが、それは「未来のことを考えて、現在のアクションを決められる」ということでもあります。「それができて、初めて意識が出てくる」という考え方については、どう思いますか?

堀江 それは「未来のことを考えても、考えなくてもどっちでもいい」と思います。というのも、人間って未来のことなど考えずにふわふわ生きている人が大半じゃないですか。ですから、そこまでしっかりとした自我を持っている人は少ないと思うんです。ですから、chatGPTに自我っぽいものをどこまでロールプレイ(演技)させられるかということなんだと思います。

阪口豊(以下、阪口) 私は知覚や運動制御の問題を専門としているので、脳のしくみを考えるときは「身体性」といって人間が身体をもっていることの重要性をよく考えるのですが、chatGPTの働きを考えるうえで身体のようなものは必要ないと思いますか?

堀江 身体もあるかのようにロールプレイさせればいいと思います。

 例えば、今ここにペットボトルが置いてありますが、ペットボトルを持ったときの感覚とかはなくてもいいんですかね。

堀江 あったほうがいいと思います。ペットボトルの認知というのは視覚から始まりますが、今のイメージセンサーの技術はすごくて、分子レベルに近いところまでわかるようになっています。その物体がツルツルしているのか、ザラザラしているのかはすぐわかる。聴覚も振動音で何が振動しているかはわかるでしょう。嗅覚もどんな分子が飛んでいるかを調べればいい。

阪口 力の感覚はどうですか?

堀江 その材質が推測できれば、力の感覚もある程度、わかるんじゃないですかね。

 では、堀江さんは今のままでもchatGPTが意識を持つことができると思っているということですか?

堀江 意識を持っているようなふりをすることはできると思います。そして、このふりをしていることを「ふりをしている」と言うのか、「意識がある」と言うのかは、それほど差異はないと僕は思うんです。

 では、例えば「今日、堀江さんは機嫌が悪そうだから、こういう話はやめよう」とか、そういう相手の感情を読みながら自分の振る舞いを決めるということはどう思いますか?

堀江 僕が「chatGPTってうまくできてるな」と思ったのは、絶対に反抗しないところなんですよ。間違えたら「申し訳ございませんでした」と謝るんです。例えば、この間、「松尾芭蕉の『奥の細道』風の俳句を五句作ってくれ」と言ったら、そのうちの四句が字余りだったんです。それで「これ、字余りだよ」と言ったら、すぐに「申し訳ございません」と誤ってくる。それで、そういう対話を10回くらい繰り返したら、最後には奥の細道に入っていてもおかしくない創造性の高い俳句ができました。ですからchatGPTは、かなり円滑にコミュニケーションができるようになっています。

 そうなんですね。

その3に続く

Text=村上隆保 Photo=ZEROICHI

乾敏郎(Toshio Inui) 京都大学名誉教授
1950年生まれ。京都大学名誉教授。認知神経科学、認知科学、認知心理学が専門。

阪口豊(Yutaka Sakaguchi) 電気通信大学大学院情報理工学研究科教授
1963年生まれ。電気通信大学大学院情報理工学研究科教授。感覚・知覚・運動制御にかかわる脳の情報処理メカニズムが専門。