再びChatGPTについて
前回ChatGPTのお話をしてから一ヶ月、その間にGPT4という新しいバージョンが発表されたり、Googleや百度も独自の対話型AIを発表するなどChatGPTをめぐる話題には事欠きません。
こうしたAIの飛躍的な発展に対しては、素晴らしい技術革新であると手放しで称賛する声がある一方で、人間に対し取り返しのつかない負の影響をもたらすのではと懸念し、明確な基準を設定するまではいったん開発をストップするべきだという声がAIの専門の一部からも上がっています。自分自身もいろいろと考えてみると、先月お話させていただいた内容では問題点も含め十分にお伝えできていないことがあると感じました。そこで、しつこいようですがもう一回だけChatGPTのお話をさせていただこうと思います。
はじめに話の中で使う言葉の説明をしておきます。
それは言語学者のソシュールが提唱したシニフィアンとシニフィエという概念です。
ソシュールは言葉にはシニフィアン(意味するもの)とシニフィエ(意味されるもの)という2つの側面があるといいます。「りんご」という言葉を例に取ると「りんご」という文字や発音された音声がシニフィアン(意味するもの)に当たります。いわば言葉の記号としての側面です。これに対し、ある人が「りんご」という文字を読んだり発音された音声を聞いたときに想起されるイメージあるいは概念のようなものがシニフィエ(意味されるもの)です。たぶん皆さんも「りんご」という記号に接したときに、形とか色とか匂いとか、あるいはもっと漠然としたものかもしれませんが、何らかのイメージが思い浮かぶのではないでしょうか。そのように感覚的に想起されるものがシニフィエなのです。
このシニフィエはあくまで個人の中に惹き起こされるものですから「このシニフィアンにはこういうシニフィエが対応する」という客観的な「定義」のようなものがあるわけではありません。ですから同じ「りんご」というシニフィアンに対しても人によって想起するシニフィエは異なることが考えられます。
ただ自分の発した言葉の意味が相手に正しく伝わるためには他者のシニフィエと自分のシニフィエが大きくズレていないことが必要なはずです。
でもそれはどうやったら確かめられるのでしょうか?
先述したようにシニフィエには客観的な「定義」がないので両者を比べる「基準」のようなものはありません。ですからこれらを比べるためには実際に会話をしながら少しづつ手探りで比較していくしかないのです。もし意図が伝わりにくかったり、何か違和感があったりすれば少しずつ修正していき、互いに同じようなシニフィエが想起されているという確信が得られるまでそれを続けていくしかありません。
ただ一つの言語圏の中では長い歴史の中ですでに「共通了解」のようなものが形成されているし、生まれてきた子どもたちは「すでに成立している対話」に参加することで言語を習得していくので実際には個々のシニフィエが大きくズレることは滅多にありません。そのおかげで私たちはシニフィエのことなど意識することなく会話が出来ているわけです。
以上がシニフィアンとシニフィエの説明でした。
話をAIにもどします。
AIにとっての言葉とはどんなものでしょうか?
AIの本体はコンピューター上に構築されたニューラルネットワークであり、少なくとも今のところは感覚器官のようなものは持っていません。ですからAIがシニフィアンによってなにかを想起するということはあり得ません。つまりAIにとっての言葉にはシニフィエは存在しないのです。
そしてシニフィエが存在しないということはAIは言葉の意味を理解して対話をしているのではないということになります。
それではAIは何をしているのか?
前回にもお話しましたが、AIは実際に使われている言葉の膨大なデータをもとに言葉(シニフィアン)どうしの関係を徹底的に学習しているのです。その結果ある一連の言葉(シニフィアン)が与えられると、その次に来る確率が高い言葉(シニフィアン)が「わかる」ようになっているのです。もちろん実際の対話型AIではより自然な対話が成り立つように様々な工夫がなされていると思うし、たぶんそのことに開発者たちはにシノギを削っているわけですが、原理的にやっていることはそれだけのはずです。
実は少し前まで自分は「意味を理解していないAIには限界があるのでは」と考えていました。
ところが実際にChatGPTと「対話」してみて感じたのは「シニフィアンの解析だけでここまでのことができるのか」という驚きであり、改めて言語というシステムの持つ力を痛感しました。
そしてよくよく考えてみると私達が話したり、考えたりするときももしかするとシニフィアンのほうが先行しているのかもしれないとの思いに至りました。言語を習得する過程で脳の中にネットワークが形成され対話や思考の中でまずシニフィアンが想起されているのではないかということです。もちろん私達は人間なので同時にシニフィエも想起され、その意味に違和感があれば立ち止まることができますが、脳内のシステムがすぐにシニフィアンの方を想起させるからこそ、ここまでの速度で会話をしたり、考えたりできるのではないかと思うのです。イメージとしてはシニフィエという重たい「実体」と切り離されたシニフィアンの軽快なシステムが会話や思考にスピードをもたらしているといった感じです。
その軽快なシステムを純化して取り出したのが対話型AIだとすれば人間以上のスピードで文章を生成するのも当たり前のことなのかもしれませんし、学習がより深化すればもっともっと使いやすくなっていくのではと思います。この「雑感」もAIに趣旨だけ説明すれば一瞬で完成する日も近いかもしれません。
一方で対話型AIについては拭い去れない懸念があることも事実です。
先述したように対話型AIは実際に言葉がどのように使われているかを学習することで能力を高めていきます。そのためよく使われている言葉に関しては着実に学習も深まり精度が上がっていきます。反面あまり使われていない言葉に関しては学習が進まず間違った使い方をすることも多くあるのです。
よく「ChatGPTは平然と嘘をつく」と言われますが、あまり使われていない言葉が絡んでいる質問をすれば間違った答えを返すのは当然なのです。
これを避けるためには質問を工夫して対象とする範囲を言及されている頻度が高いものに制限すればいいのです。ただこうするとChatGPTの回答はソツがないけど面白みのないものになりがちです。もしそれが嫌ならやはり回答を人間が丁寧にチェックしていくしかありません。
問題は誰もがこうした使い方をするわけではないということです。
ChatGPTはすでに公開されており誰でも無料で使うことが出来ます。使用者の中には言及頻度の低い分野について質問する人も当然いて間違った回答も数多く引き出されているのではと思います。そしてそれがネット上に流布していくことも間違いありません。そうなるとChatGPTの回答は一見もっともらしいのでファクトチェックがかなり困難になるのではないでしょうか。
そして更に恐ろしいのはそうした間違いを含むソースを対話型AIが学んでしまえば、間違った方向に学習が深化し更に拡大してしまうことです。そしてそれを子どもたちが学んでしまうことを考えると人間の言語システムはかなりのダメージを負ってしまうかもしれません。イメージとしてはシニフィエから切り離されたシニフィアンの暴走といったところです。
ChatGPTの開発者は学習ソースをしっかり管理しているので今の所こうした危険性はないのですが、学習ソースを自分で探してくるような別の対話型AIが作られ公開されてしまうことも十分に考えられます。
その意味でAIの開発には何らかの「基準」を導入すべきであり、専門家たちの真摯な議論を期待したいところです。
こうしたAIの飛躍的な発展に対しては、素晴らしい技術革新であると手放しで称賛する声がある一方で、人間に対し取り返しのつかない負の影響をもたらすのではと懸念し、明確な基準を設定するまではいったん開発をストップするべきだという声がAIの専門の一部からも上がっています。自分自身もいろいろと考えてみると、先月お話させていただいた内容では問題点も含め十分にお伝えできていないことがあると感じました。そこで、しつこいようですがもう一回だけChatGPTのお話をさせていただこうと思います。
はじめに話の中で使う言葉の説明をしておきます。
それは言語学者のソシュールが提唱したシニフィアンとシニフィエという概念です。
ソシュールは言葉にはシニフィアン(意味するもの)とシニフィエ(意味されるもの)という2つの側面があるといいます。「りんご」という言葉を例に取ると「りんご」という文字や発音された音声がシニフィアン(意味するもの)に当たります。いわば言葉の記号としての側面です。これに対し、ある人が「りんご」という文字を読んだり発音された音声を聞いたときに想起されるイメージあるいは概念のようなものがシニフィエ(意味されるもの)です。たぶん皆さんも「りんご」という記号に接したときに、形とか色とか匂いとか、あるいはもっと漠然としたものかもしれませんが、何らかのイメージが思い浮かぶのではないでしょうか。そのように感覚的に想起されるものがシニフィエなのです。
このシニフィエはあくまで個人の中に惹き起こされるものですから「このシニフィアンにはこういうシニフィエが対応する」という客観的な「定義」のようなものがあるわけではありません。ですから同じ「りんご」というシニフィアンに対しても人によって想起するシニフィエは異なることが考えられます。
ただ自分の発した言葉の意味が相手に正しく伝わるためには他者のシニフィエと自分のシニフィエが大きくズレていないことが必要なはずです。
でもそれはどうやったら確かめられるのでしょうか?
先述したようにシニフィエには客観的な「定義」がないので両者を比べる「基準」のようなものはありません。ですからこれらを比べるためには実際に会話をしながら少しづつ手探りで比較していくしかないのです。もし意図が伝わりにくかったり、何か違和感があったりすれば少しずつ修正していき、互いに同じようなシニフィエが想起されているという確信が得られるまでそれを続けていくしかありません。
ただ一つの言語圏の中では長い歴史の中ですでに「共通了解」のようなものが形成されているし、生まれてきた子どもたちは「すでに成立している対話」に参加することで言語を習得していくので実際には個々のシニフィエが大きくズレることは滅多にありません。そのおかげで私たちはシニフィエのことなど意識することなく会話が出来ているわけです。
以上がシニフィアンとシニフィエの説明でした。
話をAIにもどします。
AIにとっての言葉とはどんなものでしょうか?
AIの本体はコンピューター上に構築されたニューラルネットワークであり、少なくとも今のところは感覚器官のようなものは持っていません。ですからAIがシニフィアンによってなにかを想起するということはあり得ません。つまりAIにとっての言葉にはシニフィエは存在しないのです。
そしてシニフィエが存在しないということはAIは言葉の意味を理解して対話をしているのではないということになります。
それではAIは何をしているのか?
前回にもお話しましたが、AIは実際に使われている言葉の膨大なデータをもとに言葉(シニフィアン)どうしの関係を徹底的に学習しているのです。その結果ある一連の言葉(シニフィアン)が与えられると、その次に来る確率が高い言葉(シニフィアン)が「わかる」ようになっているのです。もちろん実際の対話型AIではより自然な対話が成り立つように様々な工夫がなされていると思うし、たぶんそのことに開発者たちはにシノギを削っているわけですが、原理的にやっていることはそれだけのはずです。
実は少し前まで自分は「意味を理解していないAIには限界があるのでは」と考えていました。
ところが実際にChatGPTと「対話」してみて感じたのは「シニフィアンの解析だけでここまでのことができるのか」という驚きであり、改めて言語というシステムの持つ力を痛感しました。
そしてよくよく考えてみると私達が話したり、考えたりするときももしかするとシニフィアンのほうが先行しているのかもしれないとの思いに至りました。言語を習得する過程で脳の中にネットワークが形成され対話や思考の中でまずシニフィアンが想起されているのではないかということです。もちろん私達は人間なので同時にシニフィエも想起され、その意味に違和感があれば立ち止まることができますが、脳内のシステムがすぐにシニフィアンの方を想起させるからこそ、ここまでの速度で会話をしたり、考えたりできるのではないかと思うのです。イメージとしてはシニフィエという重たい「実体」と切り離されたシニフィアンの軽快なシステムが会話や思考にスピードをもたらしているといった感じです。
その軽快なシステムを純化して取り出したのが対話型AIだとすれば人間以上のスピードで文章を生成するのも当たり前のことなのかもしれませんし、学習がより深化すればもっともっと使いやすくなっていくのではと思います。この「雑感」もAIに趣旨だけ説明すれば一瞬で完成する日も近いかもしれません。
一方で対話型AIについては拭い去れない懸念があることも事実です。
先述したように対話型AIは実際に言葉がどのように使われているかを学習することで能力を高めていきます。そのためよく使われている言葉に関しては着実に学習も深まり精度が上がっていきます。反面あまり使われていない言葉に関しては学習が進まず間違った使い方をすることも多くあるのです。
よく「ChatGPTは平然と嘘をつく」と言われますが、あまり使われていない言葉が絡んでいる質問をすれば間違った答えを返すのは当然なのです。
これを避けるためには質問を工夫して対象とする範囲を言及されている頻度が高いものに制限すればいいのです。ただこうするとChatGPTの回答はソツがないけど面白みのないものになりがちです。もしそれが嫌ならやはり回答を人間が丁寧にチェックしていくしかありません。
問題は誰もがこうした使い方をするわけではないということです。
ChatGPTはすでに公開されており誰でも無料で使うことが出来ます。使用者の中には言及頻度の低い分野について質問する人も当然いて間違った回答も数多く引き出されているのではと思います。そしてそれがネット上に流布していくことも間違いありません。そうなるとChatGPTの回答は一見もっともらしいのでファクトチェックがかなり困難になるのではないでしょうか。
そして更に恐ろしいのはそうした間違いを含むソースを対話型AIが学んでしまえば、間違った方向に学習が深化し更に拡大してしまうことです。そしてそれを子どもたちが学んでしまうことを考えると人間の言語システムはかなりのダメージを負ってしまうかもしれません。イメージとしてはシニフィエから切り離されたシニフィアンの暴走といったところです。
ChatGPTの開発者は学習ソースをしっかり管理しているので今の所こうした危険性はないのですが、学習ソースを自分で探してくるような別の対話型AIが作られ公開されてしまうことも十分に考えられます。
その意味でAIの開発には何らかの「基準」を導入すべきであり、専門家たちの真摯な議論を期待したいところです。