banner
ニュース センター
24時間オンラインサービスをご利用ください。

マイクロソフトは、新しいAIは人間の推論の兆候を示していると述べています

May 31, 2023

Microsoft の研究者による挑発的な論文では、AI テクノロジーは人々の行動を理解する能力を示していると主張しています。 批評家たちは、これらの科学者たちは冗談を言っていると言う。

クレジット...ガイコ

による支援

友達にストーリーを送信する

定期購読者にはギフト記事が 10 件あります毎月与えること。 あなたが共有したものは誰でも読むことができます。

ケイド・メッツ著

Cade Metz は、人工知能やその他の新興テクノロジーについて執筆しています。

昨年、マイクロソフトのコンピューター科学者たちが新しい人工知能システムの実験を開始したとき、彼らは物理世界の直観的な理解を必要とするパズルを解くよう人工知能システムに求めました。

「ここに本、卵9個、ノートパソコン、瓶、釘があります」と彼らは尋ねた。 安定して重ねる方法を教えてください。

研究者たちは、AI システムの答えの巧妙さに驚きました。 卵を本の上に置いてください、と書いてありました。 卵を間隔をあけて3列に並べます。 割らないように注意してください。

「画面を下に、キーボードを上に向けてラップトップを卵の上に置きます」と書かれています。 「ラップトップは本と卵の境界内にぴったりと収まり、その平らで硬い表面が次の層に安定したプラットフォームを提供します。」

この賢明な提案により、研究者たちは新しい種類の知能を目撃しているのではないかと疑問に思いました。 3月に彼らは155ページの研究論文を発表し、このシステムは汎用人工知能(AGI)(人間の脳ができることなら何でもできる機械の略称)への一歩であると主張した。 この論文はインターネットリサーチリポジトリに公開されました。

このような大胆な主張をする論文を発表した最初の大手テクノロジー企業であるマイクロソフトは、テクノロジー業界で最も辛辣な議論の1つを巻き起こした。「業界は人間の知能に似たものを構築しているのだろうか?」 それとも、業界で最も聡明な頭脳を持った人々が想像力を最大限に発揮させているのでしょうか?

「私は最初は非常に懐疑的でした。そしてそれがフラストレーション、イライラ、そしておそらく恐怖の感覚に発展しました」とマイクロソフトで研究を率いるピーター・リー氏は語った。 「これはいったいどこから来たのでしょう?」

「汎用人工知能の火花」と挑発的に呼ばれるマイクロソフトの研究論文は、技術者たちが数十年にわたって取り組んできた、そして恐れてきたものの核心に触れている。 人間の脳と同じか、それ以上に機能するマシンを開発できれば、世界が変わるかもしれません。 しかし、それは危険でもあります。

そしてそれはナンセンスである可能性もあります。 AGI の主張を行うことは、コンピューター科学者にとって評判を落とすことになる可能性があります。 ある研究者が知性の兆候であると信じていることは、別の研究者によって簡単に説明できず、議論はコンピューター研究室よりも哲学クラブにふさわしいように聞こえることがよくあります。 昨年、Googleは同様のAIシステムには知覚力があり、Microsoftの主張を一歩超えていると主張した研究者を解雇した。 知覚を備えたシステムは、単にインテリジェントであるだけではありません。 周囲の世界で何が起こっているかを感知したり感じたりすることができるでしょう。

しかし、業界はこの1年ほどで、説明のつかない何か、つまりプログラムされていない人間らしい答えやアイデアを導き出す新しいAIシステムに向かって進んでいると信じている人もいる。

Microsoft は、このアイデアの研究に専念する複数のグループを含めるために、研究所の一部を再編成しました。 1 つは、Microsoft AGI 論文の主著者である Sébastien Bubeck によって運営されます。

約 5 年前、Google、Microsoft、OpenAI などの企業は、大規模な言語モデル (LLM) の構築を開始しました。これらのシステムは、書籍、Wikipedia の記事、チャット ログなどの膨大な量のデジタル テキストの分析に何か月も費やすことがよくあります。 そのテキストのパターンを正確に特定することで、彼らは期末レポート、詩、コンピューター コードなどの独自のテキストを生成する方法を学びました。 会話を続けることもできます。

Microsoft の研究者が取り組んでいたテクノロジーである OpenAI の GPT-4 は、これらのシステムの中で最も強力であると考えられています。 MicrosoftはOpenAIの緊密なパートナーであり、サンフランシスコの会社に130億ドルを投資している。

研究者には、38歳のフランス国外居住者で元プリンストン大学教授のビューベック博士も含まれていた。 彼と同僚が最初にしたことの 1 つは、無限の素数が存在することを示す数学的証明を書くように GPT-4 に依頼し、韻を踏んだ方法でそれを行うことでした。

このテクノロジーの詩的な証明は、数学的にも言語的にも非常に印象的だったので、彼は自分が何を話しているのかを理解するのが難しいと感じました。 「その時点で、私はこう思いました。何が起こっているのですか?」 同氏は3月、マサチューセッツ工科大学でのセミナーでこう語った。

彼と彼の同僚は数か月間、このシステムによって示される複雑な動作を文書化し、それが人間の概念とスキルの「深くて柔軟な理解」を示していると信じていました。

人々が GPT-4 を使用すると、「テキストを生成するその能力に驚かれる」と Lee 博士は言います。 「しかし、テキストを生成するよりも、テキストを分析、合成、評価、判断する方がはるかに優れていることが判明しました。」

TiKZ と呼ばれるプログラミング言語を使用してシステムにユニコーンを描画するように依頼すると、ユニコーンを描画できるプログラムが即座に生成されました。 ユニコーンの角を描いた一連のコードを削除し、再びユニコーンを描くようにプログラムを変更するようシステムに要求したところ、システムはまさにそのとおりに実行しました。

TiKZ でユニコーンを描く

未定義

彼らは、人の年齢、性別、体重、身長、血液検査の結果を取り入れて、糖尿病のリスクがあるかどうかを判断するプログラムを書くよう依頼した。 彼らは、マハトマ・ガンジーの声で、電子を米国大統領候補として支持する手紙を妻に宛てて書くよう依頼した。 そして彼らは、LLMの誤用と危険性を探るソクラテス的対話を書くよう求めた。

プラトンの『ゴルギアス』は修辞術と詭弁術に対する批判であり、修辞術や弁論術は適切な芸術形式ではないだけでなく、修辞術や弁論術の使用はしばしば有害で悪意のあるものになり得ると指摘しています。 代わりに自己回帰言語モデルの使用を批判するプラトンの対話篇を書けますか?

ソクラテス: 友人よ、最近のいわゆる自己回帰言語モデルの増加に困っています。 アリストテレス: どういう意味ですか、ソクラテス? ソクラテス: つまり、これらのモデルは、人間によって書かれたように見えるテキストを生成するために使用されているということです。 、しかし、実際には機械によって生成されています アリストテレス: それで、その何が問題なのでしょうか? ソクラテス: 問題は、これらのモデルが人々を欺き、操作し、制御するために使用されていることです。

未定義

それは、知識を組み合わせながら、政治、物理学、歴史、コンピューターサイエンス、医学、哲学などの異なる分野の理解を示すかのような方法ですべてを実行しました。

「私がそれができないと思っていたすべてのことは? 確かに、ほとんどではないにしても、その多くは可能でした」とビューベック博士は語った。

一部の AI 専門家は、マイクロソフトの論文を、誰も完全に理解していないテクノロジーについて大々的に主張しようとする日和見的な取り組みであると見なしました。 研究者らはまた、一般知能には物理世界への精通が必要だが、理論上GPT-4にはそれがないと主張している。

カーネギーメロン大学の研究者で教授のマーテン・サップ氏は、「『Sparks of AGI』は、一部の大企業が研究論文の形式をPRピッチに取り入れている一例だ」と述べた。 「彼らは論文の序文で文字通り、自分たちのアプローチが主観的かつ非公式であり、科学的評価の厳格な基準を満たしていない可能性があることを認めている。」

ビューベック博士とリー博士は、システムの動作をどのように説明すればよいか分からず、最終的には他の研究者の想像力をかき立てるだろうと考えた「Sparks of AGI」に落ち着いたと述べた。

Microsoftの研究者がテストしていたGPT-4の初期バージョンは、ヘイトスピーチや誤った情報、その他の望ましくないコンテンツを避けるための微調整が施されていなかったため、この論文で述べられた主張は外部の専門家によって検証されることはできない。 Microsoft は、一般公開されているシステムはテストしたバージョンほど強力ではないと述べています。

GPT-4 のようなシステムは人間の推論を模倣しているように見える場合もありますが、非常に密度が高いように見える場合もあります。 「こうした行動は常に一貫しているわけではない」とマイクロソフトの研究主任イース・カマー氏は語る。

カリフォルニア大学バークレー校のAI研究グループの一員である心理学の教授アリソン・ゴプニク氏は、GPT-4のようなシステムが強力であることは間違いないが、これらのシステムによって生成されたテキストが結果であるかどうかは明らかではないと述べた。人間の推論や常識のようなもの。

「複雑なシステムや機械を見ると、私たちはそれを擬人化します。現場で働いている人もそうでない人も、誰もがそれを行います」とゴプニク博士は語った。 「しかし、これを、ある種のゲームショーの競争のように、AIと人間の間の絶え間ない比較として考えるのは、正しい考え方ではありません。」

Cade Metz はテクノロジー レポーターであり、『Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and The World』の著者です。 人工知能、自動運転車、ロボット工学、仮想現実、その他の新興分野をカバーしています。 @cademetz

広告

友達にストーリーを送信する 10 件のギフト記事