技術ノート 特徴 Google の LaMDA AI とは何ですか? Google のエンジニアはなぜ LaMDA AI に感情があると信じているのでしょうか?

Google の LaMDA AI とは何ですか? Google のエンジニアはなぜ LaMDA AI に感情があると信じているのでしょうか?

Googleの上級エンジニアは、同社の LaMDA AI が知覚力を備えていると主張した。これを憂慮すべきと思うか興奮させるかは別として、これは非常に大胆な主張であり、たとえそれが完全に真実だったとしても証明するのはおそらく難しいでしょう。

LaMDAとは何ですか?

LaMDA は、Language Model for Dialog Application の略称です。言い換えれば、これは自然な対話を生成するために特別に設計された 機械学習 言語モデルです。機械学習手法を使用すると、コンピューターはデータ内のパターンと関係を発見できます。したがって、たとえば、 GPT-3 (別の最先端システム) などの機械学習アルゴリズムをシェイクスピアのすべての作品で「トレーニング」し、シェイクスピアのように読める新しいオリジナルのテキストを生成させることができます。

Sundar Pichai (Google の CEO) が Yahoo Finance のインタビュー で説明したように、LaMDA は対話に特化してトレーニングされているため、他とは異なるシステムです。その目的は、Google のシステムに、ユーザーと人間のような自由な対話を行える機能を提供することです。

言い換えれば、Google 製品に特定のことを求める人は、考え方や話し方を変える必要はありません。彼らは、他の人と対話するのと同じ方法でコンピュータ システムと対話できます。

現在のすべての機械学習モデルの内部では、実際には洗練された数学的および統計的モデルです。データ内で発見した基礎的なパターンに基づいてアルゴリズムを生成します。十分な高品質のデータを彼らに与えると、それらのアルゴリズムは、これまで人間や他の自然知性だけが可能であったことを驚くほど効果的に実行できるようになります。

Google の LaMDA AI とは何ですか? Google のエンジニアはなぜ LaMDA AI に感情があると信じているのでしょうか?

なぜ Google のエンジニアは LaMDA に知覚力があると信じているのでしょうか?

問題のエンジニアはブレイク・ルモイン氏で、彼はなぜLaMDAに知覚力があるのか​​についての主張の一環として、彼自身とLaMDAとの インタビュー を公開した。ルモインは何ヶ月もかけてソフトウェアと会話し、複雑な質問をして質問しましたが、その複雑で適切な応答が感覚を持った存在以外の産物であるとは信じがたいと感じました。

Lemoine がなぜこのように感じているのかを理解したい人は、LaMDA の回答を自分で読んで、なぜこれが非常に説得力のある立場をとるのかを理解するのが最善です。 LaMDA の応答は非常に人間らしいので、人間が会話型 AI と真剣な関係を築く物語である スパイク ジョーンズの Her に登場する架空のパーソナル アシスタント AI を思い出させます。

LaMDA に関する Lemoine の主張に重みがあるかどうかはさておき、LaMDA の設計目的全体が、自然で信頼できる自由な対話を生成することであることは注目に値します。その意味で、彼の信念は、Google が信頼できる対話を生み出すという点で目覚ましい成功を収めたことを示しています。 AI システムが人間に自分が知覚力があると信じ込ませるとしたら、それはまさにそのように設計されたものである可能性が最も高くなります。

問題は、多くの科学的および哲学的な理由から、知覚力があるという主張は実際には検証可能ではない(または少なくとも実行可能または倫理的に検証可能ではない)ことです。その理由を理解するには、「感覚」が何を意味するのかを簡単に見てみる必要があります。

Google の LaMDA AI とは何ですか? Google のエンジニアはなぜ LaMDA AI に感情があると信じているのでしょうか?

センティエンスとは何ですか?

「感覚」という言葉は本質的に、何か(猫、人間、または魔法のじゅうたん)が感じる能力を持っていることを意味します。 「センチメンタル」または「センチメント」と同じ語源を共有します。感覚とは、単に何かが感知する能力を持っているという意味ではありません。サーモスタットは、温度を伝える能力があるにもかかわらず、ほぼ確実に感覚を持ちません。代わりに、感覚とは感情の主観的な経験に関するものであり、それはそもそも「主体」が存在することを意味します。

ここで意味論に囚われるのは危険です。なぜなら、ルモワンヌは「感覚」という言葉を、「知性」、「知性」、「意識」などの別個の概念と同じ意味で使用している可能性があるからです。したがって、議論のために、ここで最も慈善的な解釈は、ラムダが自己認識の存在であり、物事を感じ、信念を持ち、その他の方法で私たちが通常生き物であると考える方法で物事を経験することができる自己認識の存在であると考えているということです。

追加の記事 で、Lemoine は、LaMDA が何を「望んで」、「信じている」のかについて述べています。これは、彼の見解における「感覚」が厳密な辞書の定義以上の意味を持っているという考えを裏付けています。

Google の LaMDA AI とは何ですか? Google のエンジニアはなぜ LaMDA AI に感情があると信じているのでしょうか?

私たちはそもそも感覚と意識を理解していません

ここで重要なのは、知覚、意識、知性、そしてそれらの属性を持つ実体であることが何を意味するかについて、私たちは比較的ほとんどわかっていないということです。やや皮肉なことに、機械学習テクノロジーは、最終的には私たちの心とその中に存在する脳に関する謎の一部を解明するのに役立つかもしれません。

今のところ、哲学者や科学者は 意識の「ブラックボックス」 を少しずつ削り取っていますが、それは依然として、部分の合計以上のものの結果であるように見えます。意識は「創発」的なものであるように見えます。これは多くの異なる神経サブシステムの相互作用から生成される「幽霊」であり、そのどれか 1 つが単独で知覚を持っているようには見えません。

同様に、 DALL-E 2 画像生成システム などの高度な AI は、相互にフィードして最終製品を作成する、より単純な機械学習モデルで構成されています。単純なシステムの相互作用から生じる複雑さというテーマは、AI の世界ではよく遭遇するテーマであり、各サブコンポーネントがどのように機能するかについてはよく理解しているかもしれませんが、最終的な結果は通常、まったく予測できません。

Google の LaMDA AI とは何ですか? Google のエンジニアはなぜ LaMDA AI に感情があると信じているのでしょうか?

AI で感覚を認識することもできるでしょうか?

議論のために言っておきますが、AI が実際に言葉の本当の意味で感覚を持っているとしたら、私たちはそれを知ることができるでしょうか? LaMDA は人間の対話のパターンを模倣し、予測するように設計されているため、人間が人間のような知性と関連付けるものを引き起こすという点では、このデッキは非常に充実しています。しかし、人間以外の霊長類やイルカ、タコ、ゾウなどの動物を、たとえ大局的に見れば事実上私たちの兄弟であるにもかかわらず、知覚を持っていると考えるまでには長い時間がかかりました。

知覚を持った AI は、あまりにも異質なため、目の前に AI を見ているとは気づかないかもしれません。知覚が出現するための閾値条件が何であるかがわからないため、これは特に可能性が高いです。データと AI サブシステムを適切な方法で適切に組み合わせることで、感覚を持ったものとみなされるものが突然誕生する可能性があることは想像に難くありませんが、それは私たちが理解できるもののようには見えないため、気づかれない可能性があります。

アヒルに見えたら…

機械における知覚の主張に関する最後の大きな問題は、人間を含む他のあらゆるものの知覚に関する主張と同じ問題です。哲学的には、あなたが対話する人々の中に実際に感覚があるかどうかはわかりません。これは古典的な 哲学的ゾンビ問題 であり、知覚や何らかの意識経験が欠如していることを除けば、人間とまったく区別がつかない架空の存在についての思考実験です。

しかし、アラン・チューリングの有名なテストが示唆したように、AI が「本当に」考えたり感じたりしているかどうかは問題ではありません。重要なのは、違いが分からないほど思考や感情の様子を模倣できるかどうかです。誰に尋ねるかによっては、 LaMDA はすでにチューリングテストに合格しているため 、Lemoine のテスト不可能な主張が議論の余地を生む可能性があります。

「 Google の LaMDA AI とは何ですか? Google のエンジニアはなぜ LaMDA AI に感情があると信じているのでしょうか?」に関するベスト動画選定!

【ゆっくり解説】AI、弁護士を雇う。LaMDAについて語るぜ!【第二部】
270.AIに意識が宿ったかを見抜く5つのポイント GoogleのLaMDA(ラムダ)は本当に意識があるのか #ロボマインド・プロジェクト