2023年06月08日

ChatGPTが「個別に対応できない」という理由



The reason ChatGPT "can't be personalized" is because they don't have the user's personal information, and even if we do teach it, they quickly forget about it.
But companies like Google, Amazom, and Meta have quite a bit of personal information, so if we develop an LLM that works with them, I think this would be a very good language teacher.
ChatGPTが「個別に対応できない」という理由は、ユーザーの個人情報を持っていない上に、教えてもすぐ忘れてしまうからです。
でも、Google、Amazom、Metaのような企業は個人情報をかなり持っているので、それと連携したLLMを開発したら、これは語学教師としてもすごく優秀なものになるんじゃないかと思います。


冒険家の皆さん、今日もラクダに揺られて灼熱の砂漠を横断していますか?

さて、今日はちょっと気になっていることを共有したいと思います。それはなぜChatGPTが「個別対応が難しい」と言うのかということです。僕はこれがずっと気になっていたんですよ。

ChatGPTに、「あなたは、先生の代わりになれますか?」と尋ねてみると、「個別対応が難しいから、それは無理です」と必ず返事がくるんですよね。でも、僕から見ると、質問を投げかければ、その問いに対してきちんと答えてくれるじゃないですか。それって、個別対応じゃないの?と、ずっと違和感を覚えていました。

一斉授業だと、質問する時間も限られてしまうし、クラスの学習者が20人や30人もいると、全員の質問に答えるのは無理な話ですよね。僕だって、オンラインではありますが、100人もの参加者をまとめて対象にすることがあるんですが、そんな状況では、個々に対応するなんて到底無理です、人間の僕では。

それに対して、一人一台のスマホかパソコンでChatGPTに質問すれば、必ずきちんと答えてくれる。これって、なんだか個別対応しているように見えないですか?100人とかの大勢を相手にする僕より、よっぽど個別的な対応じゃないの?って、僕はずっと思っていたんですよ。

だけど、最近ようやくその違和感の理由がわかったんです。なるほど、そういうことだったのかと。皆さんの中には、「それ、今さら?」と思う人もいるかもしれませんが、僕は本当に最近理解したばかりなんです。それについて今日は話をしてみたいと思います。

話を始める前に、この違和感の原因を探るきっかけとなった出来事があったんです。それは、昨日読んだ一冊の本のこと。その本のタイトルは「アニメ療法」(https://amzn.to/3OUHbyp)で、サブタイトルには「心をケアするエンターテイメント」と書いてありました。

この本を書いたのはパントー・フランチェスコさんという方で、去年の12月14日に出版されたようです。出版社は光文社というところです。この本に、AIに関連する部分がちょっと出てきます。

著者のパントさんはイタリア出身の方で、アニメが好きで日本に来て、精神科医として働いています。だから、こういうメンタルな療法などに関しては全くの素人である僕とは違って、精神医学についてきちんと専門的な知識を持っています。

その方がこの本の中でAIについて触れている部分がいくつかあって、それを以下に引用してみたいと思います。

「C デジタル化する社会においては遠隔での心のサポートが必須となる。その際、架空の存在(AI) も効果的である
D 条件を満たせば、生身の人間関係だけでなく架空上の関係もある程度心の支えになりうる」

「AIがコントロールするキャラクターとやりとりすることで、カウンセリングと同義の体験を再現することもできるだろう。」

「20 世紀初頭、フロイトの時代において精神科の患者はふわふわのソファに仰向けとなり、目を閉じて自己の内面を語った。現代は、クリニックまで足を運ばずともパソコン画面を挟んでカウンセラーと相談できる。それがもう一歩前進すれば、キャラクターがカウンセラーのような役割を果たす日も来るだろう。」


さて、前にも書いたとおり、この本が出版されたのは2022年の12月14日です。そして、ChatGPTが一般ユーザーに公開されたのが直前の11月だったんですね。印刷にかける時間なども考えると、この本の原稿が完成したのは、ChatGPTが登場する前だったと考えるのが普通でしょう。つまり、ChatGPTが来た後に書かれたものではなく、まだChatGPTが未知の存在だった頃に書かれていたというわけです。そう思うと、また違った見方ができるかもしれませんね。

次に話すことは、専門家としてのパントーさんの考えではなく、素人の僕の個人的な考えなので、その点をご了承ください。しかし、ChatGPTが世に出る前に、精神科の専門医がAIによるカウンセリングを予言していたとすると、その後に出たChatGPTというツールを使えば、困っている人たちが何かの癒やしを得たり、心の問題を解決に近づけることができる可能性は必ずしも皆無ではないと言えるのではないでしょうか。

僕は語学の教師として活動しているので、その視点からもChatGPTの可能性を感じています。ただ、語学教育の面でも、そしておそらくはメンタルなカウンセリングでも、大きな問題として、ChatGPTはユーザーの情報を記憶してくれないということが挙げられます。

これに気づいたのは、この本を読んだからです。セラピストが相手を全く知らない状態で相談に乗るのは難しいでしょうし、クライアントが毎回同じことを説明するのも大変でしょう。

そこで、もしChatGPTのようなAIが過去の会話を全て記憶して、それを使ってカウンセリングができるとしたら、それは画期的なことではないでしょうか。

そんな風に思って、この本を読んだあとに僕も試しにやってみたんです。大規模言語モデル、例えばChatGPTやGoogle Bardなどに、僕の年齢や名前、それから住んでいる場所などを教えてみました。でも、びっくりすることに、翌日にはその情報を全く覚えてないんですよね。それを見て、ChatGPTやGoogle Bardといった人工知能が、ユーザーの情報を何も知らずに回答しているんだと、初めてちゃんと認識しました。

それで話は最初に戻るんですが、そういうことを頭に入れると、このChatGPTを使い始めた頃、僕が「あなたは言葉の先生の代わりになると思いますか?」と尋ねた時の、その答えがよみがえってきました。最初にも言ってましたけど、ChatGPTは「私は言語モデルで、一人一人に特化した対応はできませんから、先生になるのは難しいです。先生の代わりになることもできません」と答えたんですよね。それは、まさしく、ユーザー一人一人の情報を全く覚えていないからなんです。

だから、学習者Aが一つの質問をしたら、学習者Bが同じ質問をしたとしても、学習者Aにはこう答え、学習者Bにはこう答える、といった区別はしないんです。同じ質問が来れば、同じ答えをします。これが、ChatGPTが「個別対応はできない」と言っていた意味で、僕もようやく理解できた感じです。

しかし、僕が最初に言ったように、普通の一斉授業では、一人の教師が100人もの学習者を見ることがありますよね。その場合、一人一人の質問に答えるのは、本当に難しい。だから、個人面談なんてものが必要になるわけです。

それを思うと、ChatGPTが答える内容は、とても一般的なものです。誰が質問しても、同じように答えます。でも、一斉授業でQ&Aもできないような状況に比べれば、ChatGPTの方が、はるかに良いと思いますよ。

だけど、考えてみてほしいんです。ChatGPTではなく、人間の家庭教師って、教える相手との関係がしっかり築けるんですよね。例えば僕が家庭教師だったとすると、教えている生徒が何に苦手意識を持っているか、どんな話し方や教え方がピッタリなのか、それを知ることができるんです。だから、これだけを考えると、今の一斉授業の先生よりは、ChatGPTの方が良いと思うんですけど、でも、正直に言って、相手の情報を覚えていられる人間の家庭教師にはまだかなわないですよね。

ただ、これはあくまで現時点での話。例えば、ChatGPTは、個人情報を持っていない会社、OpenAIが運営していますよね。だから、彼らはそれらの個人情報に基づいたサービスを提供することはありませんが、一方で、Google Bardなんかは、Googleが運営しているので、利用者の個人情報をたくさん持っているわけです。Metaも、AmazonのAlexaも、これと似たようなサービスを作っていますし、こちらが何を買ったか、どんなものを好むかなど、全部知っているわけです。

これらの個人情報を大規模言語モデル(LLM)という人工知能と連携させれば、どれだけ素晴らしいサービスができるか想像してみてください。例えば、僕が「これからスペイン語を勉強したいんですけど、どうしたらいいと思いますか?」と聞くと、私が映画が好きなのを知っていれば、「あなたは映画が好きだから、このスペイン語の映画を見て勉強するのはどうでしょう?」とアドバイスをくれるかもしれません。また、あるフレーズについて質問すれば、「それはあなたが何月何日に見たこの映画のセリフにも出てきますよ」とか教えてくれるかもしれません。

ただ、これは現時点ではまだ実現していないことです。でもGoogleアシスタントとかは既に、こうした個人情報をもとにさまざまなことを教えてくれていますよね。例えば、「もう飛行機に乗る時間ですよ」なんて教えてくれるわけですから。もし Googleアシスタントが Google Bardと連携して、こんなサービスを提供してくれたら、本当に素晴らしい語学教師になるんじゃないかと、僕は期待しています。

そして冒険は続く。

【ブログ更新情報のメールでのお知らせ】
「むらログ」更新情報のメール通知を希望される方は、こちらでご登録ください。
https://groups.google.com/g/muralog/about

【参考資料】
この記事の音声版
https://listen.style/p/muracas/5qyjjyla

アニメ療法(セラピー)〜心をケアするエンターテインメント〜 (光文社新書) Kindle版
パントー・フランチェスコ (著)
https://amzn.to/3OUHbyp
posted by 村上吉文 at 00:15 | TrackBack(0) | 人工知能と日本語教師 | このエントリーをはてなブックマークに追加

この記事へのトラックバック