「次の10年のAIに世界はまだ準備ができていない」

The world is not yet prepared for the next 10 years of AI.

今週のエピソードのHave a Nice Futureでは、Gideon LichfieldとLauren GoodeがDeepMindとInflectionAIの共同創設者であるMustafa Suleymanと話をします。彼らは彼の新刊『The Coming Wave』について話し合い、なぜ私たちのシステムが次の大きな技術飛躍に対応できていないのかを説明します。Suleymanは、チャットボットが政府を転覆させる可能性を示唆することは狂気ではないと説明し、人工知能を評価するためのより良い方法を提案します(ヒント:それは100万ドルを稼ぐことと関係があります)。

Mustafa Suleymanの新刊『The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma』は9月5日に発売されます。その間に、DeepMind、Inflection AI、および人工知能に関するすべての情報についてENBLEの報道をチェックしてみてください。

Lauren Goodeは@LaurenGoodeです。Gideon Lichfieldは@glichfieldです。ENBLEのメインホットラインは@ENBLEです。

いつでもこの週のポッドキャストをこのページのオーディオプレーヤーで聴くことができますが、すべてのエピソードを無料で入手するために購読したい場合は、次の方法をご覧ください:

iPhoneやiPadを使用している場合は、このリンクをタップするか、Podcastsというアプリを開いてHave a Nice Futureを検索してください。Androidを使用している場合は、Google Podcastsアプリでタップするだけで見つけることができます。OvercastやPocket CastsなどのアプリをダウンロードしてHave a Nice Futureを検索することもできます。Spotifyでも聴くことができます。

注:これは自動生成のトランスクリプトであり、エラーが含まれる可能性があります。

Gideon Lichfield: オーマイゴッド、ダメだ。私は悪いBBCプレゼンターのように聞こえる。ごめんなさい。

[笑い]

Lauren Goode: 私はBBCが好き。

[音楽]

Gideon Lichfield: こんにちは、私はGideon Lichfieldです。

Lauren Goode: そして、私はLauren Goodeです。そして、これはHave a Nice Future、すべてが恐ろしく速く変わっていることについてのポッドキャストです。

Gideon Lichfield: 毎週、私たちは未来について大胆かつ時には不安を覚えるようなアイデアを持つ誰かと話し、私たちがそれにどのように備えることができるかを尋ねます。

Lauren Goode: 今週のゲストは、AI企業DeepMindの共同創設者であり、最近ではInflection AIの共同創設者兼CEOであるMustafa Suleymanです。

Gideon Lichfield: 彼はまた、AIと他の技術が世界を支配し、国家の構造を脅かす可能性があるという新しい本の著者でもあります。

Mustafa Suleyman (オーディオクリップ): 私たちはこれから、非常に能力が高く、説得力のある教育用AIにアクセスすることになるでしょう。それは私たちが持つあらゆる暗い意図を遂行するのに役立つかもしれません。そして、それは間違いなく害を加速させるでしょう。それに直面する必要があります。

[音楽]

Lauren Goode: だから、ギデオン、Mustafaは私たちがポッドキャストに招待したいと思っていたゲストですが、私たちの理由は少し異なると思います。あなたは最近トロントで行われたCollision Conferenceで彼と対談しました。私は別の会議で彼とバックステージで話しました。彼のチャットボット、Piについて話しました。しかし、Have a Nice Futureに彼を招待することで、彼が何を構築しているのか、なぜ別のチャットボットが必要なのか、そしてチャットボットと人類の向上との関係は何かを感じたかったのです。そして、あなたは彼の新刊で提示されている大きなテーマにより興味を持っていると思います。

Gideon Lichfield: 彼のバックグラウンドは非常に興味深いと思います。彼はシリア系イギリス人であり、一時期政府で働き、紛争解決に従事していました。その後、DeepMindを共同創設しましたが、彼らの最初の目標は人工汎用知能を解決することであり、OpenAIも同様の目標で作られました。彼らはいくつかの非常に重要なAIの問題を解決しました。例えば、囲碁のゲームに勝つ方法を基本的に解決し、他のさまざまなゲームでも同様に解決し、タンパク質の折りたたみに取り組んだことで、生物学や薬物開発の方法が急速に変わっています。彼らはDeepMindをGoogleに売却し、数年間そこで働いていました。そして、彼はGoogleを去ったのですが、彼の言葉で言うと、彼にとっては手続きが煩雑で遅すぎると感じたためです。そして、彼はInflectionを設立し、このチャットボットを作っています。聞くところによると、それはただのチャットボット以上のものであり、人工汎用知能に到達しようとするものではなく、それが興味深いです。そして、今ここにこの本があります。AIや合成生物学など、他の多くの技術が急速に発展し、広まりすぎて、私たちが国や社会を統治する能力の基盤を崩壊させると言っています。これらのすべての要素がどのように結びついているのかに非常に興味があります。

ローレン・グッド: そうですね。AIを構築して、AIを構築して、AIを構築して… でも、どれくらい心配すべきなのでしょうか?

ギデオン・リッチフィールド: 何を構築しているんですか?

ローレン・グッド: そうですね。それらのアイデアをすべて統合することは、私が彼に持っていた基本的な質問だったんですが、特に彼がAIの可能性を煽り、その急速な進展と脅威について警告していることを考えると、それについて具体的に掘り下げたかったんです。でも、ムスタファには言えることがあります。この会話ではとても人間味があるということです。私たちが話したAI起業家全員には言えることではないかもしれません。

ギデオン・リッチフィールド: そうですね、私たちの番組に出演している多くの人々は、技術を構築してから社会が問題を解決し、規制方法を見つけると話しています。そして、公平を期すために、ムスタファも、最初に物事を構築してから、その危険がどこにあるかを見つける必要があると考えているようです。でも、私は彼が少なくとも、いくつかの人々よりも、それらの危険がどのようなものであり、それにどのように備える必要があるかについて、より考えが行き届いている回答を持っていると思います。

ローレン・グッド: それは、休憩後にすぐに始まる会話の中にすべて含まれています。

[音楽]

ギデオン・リッチフィールド: ムスタファ・スレイマンさん、Have a Nice Futureへようこそ。

ムスタファ・スレイマン: ギデオン、こんにちは。ここにいられて嬉しいです。

ローレン・グッド: 番組に出演していただき、ありがとうございます。

ムスタファ・スレイマン: ねえ、ローレン、参加させていただき、ありがとうございます。

ローレン・グッド: 実際、私は、あなたが来ることを知ってアプリを開いて、このポッドキャストであなたに何を尋ねるべきかを聞いてみました。それは「おお、それは興奮ですね。ムスタファ・スレイマンは素晴らしい思想家で革新者です」と言っていました。

ムスタファ・スレイマン: ああ、そうですか。[笑]

ローレン・グッド: 「そして彼の本は洞察に満ちているはずです。私はあなたのポッドキャストがどのようなものであり、インタビューから何を得たいのかを尋ねてもいいですか?」など、など。これからわかるのは、データセットが少しバイアスがかかっているかもしれないということです。どう思いますか?

[笑い声]

ムスタファ・スレイマン: もう一度引き直して、違う結果が出るかどうか見てみてください。同じ熱意が伴うかもしれませんが、私たちが手書きでスクリプトを作成したわけではありません、約束します。[笑]

ローレン・グッド: でも、現在は多くのパーソナライズされたAIパワードのチャットボットアシスタントが存在しています。OpenAIが2022年末にそのチャットボットをリリースして以来、それが大流行しています。なぜチャットボットを選んだのですか?

ムスタファ・スレイマン: 会話が新しいインターフェースになると私は信じています。実際に一歩引いて、コンピュータや電話を見てみると、基本的には多色のテクニカラーの夢のような下部ナビゲーションにたくさんのボタンやアイコンが表示されています。それは実際には非常に圧倒的な体験です。それは、統一されたクリーンな人間第一のインターフェースとして設計されていないためです。それは、人間の翻訳とコンピュータのニーズの出会いです。そして、次の波は、自分のAIとの会話の中でほとんどの時間を過ごすことになるでしょう。それが主な制御メカニズムです。

ギデオン・リッチフィールド: あなたは約12年前にDeepMindを共同設立し、OpenAIと同様に、倫理的かつ安全な人工汎用知能の開発を目指していました。そして12年後、Inflection AIを設立し、今度はAGIを目指していないと言いました。では、なぜですか?何が変わったのですか?代わりに何を目指しているのですか?

ムスタファ・スレイマン: 私たちは2010年にDeepMindを設立し、そのミッションは安全で倫理的な人工汎用知能を構築することでした。様々な環境で良いパフォーマンスを発揮するシステムです。それがDeepMindのミッションであり、私たちはすべてをゼロから学ぶ必要があるという信念を持っていました。Inflectionでは、私たちは「Pi」という名前のAIを開発しています。これは「パーソナルインテリジェンス」という意味であり、個人的なAIにより狭く焦点を絞っています。これは、難しい専門的なスキルを学ぶAIとはかなり異なります。私たちの考えでは、パーソナルAIはパーソナルアシスタントにより近く、首席補佐官のような存在です。友人、相談相手、サポートであり、与えられたタスクに応じて適切なリソースを適切なタイミングで呼び出します。したがって、一般性の要素はありますが、最初の設計目標としての一般性はありません。

Gideon Lichfield: AGIは危険だと思いますか?それがなぜやらない理由なのか、それとも単に不可能だと思わないのか?

Mustafa Suleyman: 今のところ、重要な再帰的な自己改良の能力を持つAGIを制御できる可能性があるという、説得力のある理論的な枠組みは誰も提案していないと思います。

Lauren Goode: AGIについての考え方や、まだ本当に証明された、さらには理論的な枠組みが存在しないことは、あなたが構築しているモデルの種類にどのように影響を与えましたか?

Mustafa Suleyman: それが正しい考え方だと思います。狭い方が安全性が高い可能性がありますが、それが保証されているわけではありません。より一般的なものはより自律的であり、したがってやや安全性が低いです。そして、私たちのAIは個人用のAIであり、主に良い会話のために設計されており、時間の経過とともにあなたのために何かをすることを学びます。したがって、APIを使用することができますが、これは他の言語モデルと同じようにそれを促すことができるという意味ではありません。なぜなら、これは言語モデルではなく、PiはAIです。GPTは言語モデルです。それらは非常に、非常に異なるものです。

Gideon Lichfield: 違いは何ですか?

Mustafa Suleyman: AIを構築する最初のステージは、大規模な言語モデルをトレーニングすることです。2番目のステップは、非常に広範な能力を持つ事前学習モデルの能力を特定のタスクに合わせるために、微調整と呼ばれる作業を行うことです。私たちにとって、そのタスクは会話や教育、知識共有、エンターテイメントなどですが、他の企業では、それをAPIとして公開したいと考えており、その結果、その事前学習モデルにはさまざまな能力が備わっています。そして、それが安全性の課題を少し難しくする点だと思います。

Gideon Lichfield: 近い将来、あなたが説明している近い将来には、みんなが個人用のAIアシスタントやスタッフ長を持つことになり、彼らのためにタスクを実行したり、旅行の予約や手配、調査を行ったりできるかもしれません。

Lauren Goode: やがて私たちのポッドキャストをホストしてくれるかもしれませんね、ギデオン。

Gideon Lichfield: まあ、そうですね、それはいい質問です。それは私たちを置き換えるのでしょうか?プロデューサーを置き換えるのでしょうか?しかし、もっと重要なこととして、私たち全員がこれらのAIアシスタントを持つ世界では、あなたは貧困から人々を引き上げるのに役立つと提案しましたし、新たな経済的な機会を創出します。20年前、誰もスマートフォンを持っておらず、スマートフォンを持つことによって世界がどのように変わるのか想像するのは難しかったですが、今日私たちはポケットにこれらのコンピュータを持っており、信じられないことができます。しかし、根本的な構造レベルでは、世界は変わっていません。まだ同じような不平等や紛争が存在しています。だから、AIアシスタントを持つ世界は、今日の世界とどう違うのでしょうか?

Mustafa Suleyman: そうですね。私は過去20年間において、世界に何の構造的な違いもないとは考えません。スマートフォンにすべての利益を帰するわけではありませんが、確かにスマートフォンは私たちをより賢くし、より利口にし、情報にアクセスできるようにし、新しい人々とつながり、このハードウェアを活用して巨大なビジネスを築くことができるようにしました。だから、それは明らかに-

Gideon Lichfield: 同時に、私たちには大量の誤情報にアクセスする手助けをし、私たちの時間をさまざまな気晴らしに浪費させるのに役立っています。だから、反論をすることもできると思います。

[重複する会話]

Lauren Goode: 私たちの運転能力をかなり悪くしましたね。

[笑い]

Mustafa Suleyman: そうですね。まあ、私は確かに甘いテクノ楽観主義者ではありませんので、疑いなく非常に大きなデメリットや被害があります。しかし、個人用のAIについて考える方法は、スマートフォンの登場と似ていると思います。スマートフォンは、私たちの種が発明できる最も強力なモバイルデバイスを10億人以上の人々の手に届けたため、あなたがどれだけ豊かであろうと、億万長者であろうと、定期的な給料をもらっていようと、私たち全員が同じ先端ハードウェアにアクセスできるようになりました。私はそれが私たちの進むべき軌道であるということを最初に述べることが重要だと思いますし、それは非常に素晴らしいことだと思います。

ギデオン・リチフィールド:新しい技術は、最善の面ばかりでなく、最悪の衝動も引き出す可能性があるという主張もできると思います。つまり、「AIアシスタントは、スマートフォンと同じくらいの利点と欠点を持つ」と言えるでしょう。

ムスタファ・スーレイマン:それはウェブ上の情報にアクセスする反対側です。私たちは今後、非常に能力の高い説得力のある教育用AIにアクセスすることになるでしょう。それは私たちが持つ暗い意図を実行するのに役立つかもしれません。そして、それは私たちが取り組まなければならないことです。それは暗くなるでしょうし、確かに害を加速させるでしょう。疑いの余地はありません。それが私たちが直面しなければならないものです。

ローレン・グッド:個人のAIが課題を完了したり、情報へのアクセスを広げるというアイデアと、「これが貧困解決に役立つ」との間には、どのような関係があるのでしょうか?それは実際にどのように機能するのでしょうか?このAI、Pi、ここにはチャットボットがあり、このポッドキャストのためにおもしろい一言をくれました。それが貧困を解決するのに役立つのですか?

ムスタファ・スーレイマン:それは難しい質問です。私はそれらを結び付けるつもりはありませんでした。貧困や世界の飢餓を解決するとは言っていません。[笑い] Piはそれに設計されていません。Piは個人のAIであり、個人としてより生産的になるのに役立ちます。他の人々は人工知能の進歩をあらゆることに利用するでしょう、それには科学の進歩を加速させることも含まれます。科学の面では、論文をより効率的に見つけるのを助けるツールとして、最新の進歩を統合するのを助けるツールとして、洞察を記録し保管するのを助けるツールとして、それは確かに役立つと思えます。つまり、インターネット上で利用可能な知識を個別の形式で消化可能な要点に圧縮していると考えると良いでしょう。現在は膨大な情報が存在し、それを高度に個別化された形で再現できるようになりました。これは人々の知性を加速させるものであり、それ自体が彼らをより生産的な存在にします。一般的に言って、個人のアシスタントを持つことは、より賢く、より生産的な人にする可能性が高いと思います。

ギデオン・リチフィールド:あなたはAIの近未来におけるInflectionに取り組んでいますが、あなたの著書では、AIの近未来について話し始め、国家の崩壊を予測しています。その議論の要点を教えていただけますか?

ムスタファ・スーレイマン:AIの波により、これらのモデルのスケールは過去10年間で指数関数的に成長してきました。そして、今後の5年間で毎年10倍の成長を予測しています。非常に予測可能で、非常に起こりやすいです。

ローレン・グッド:あなたの著書の前提は、私たちはこれに対して準備ができていないということですか?

ムスタファ・スーレイマン:絶対に準備ができていません。そのような力はより小さく、効率的になります。発明の歴史において何かが有用であるとき、それは安くなり、小さくなり、そして普及します。次の10年の物語は、力の普及の物語です。それが国家にとって真の脅威を引き起こすと私は考えます。国家が生まれて以来、このようなものは見たことがありません。

ローレン・グッド:あなたは自分を力を持つ人間と考えていますか?

ムスタファ・スーレイマン:はい。

ローレン・グッド:その力は何ですか?

ムスタファ・スーレイマン:まあ、私は裕福です。2014年に会社を売却し、新しい会社を持っています。私は教育を受けています。実際には、成人生活以来、私はエリートになりました。私は非常に貧しい労働者階級の移民の子供として育ち、家族に教育はありませんでしたが、今では明らかに特権階級に属しています。[笑い]

ローレン・グッド:ですから、あなたはユニークな立場にいます。なぜなら、あなたの本では、予測されるこの未来の波において、あなたが予測している力の不均衡を指摘しているからです。

ムスタファ・スーレイマン:そうです。

ローレン・グッド: でも、あなた自身はAIを少し調整することができる、あなた自身が構築しているAIという意味で、あなた自身は強力な人物です。

ムスタファ・スレイマン: まさにそうです。そして、私は次の10年のテーマとして制御が重要だと思います。

ギデオン・リッチフィールド: では、この本での制御という考えについて話しましょう。それは冷戦から借用された用語であり、その文脈では、武器や国家を制御するという意味でした。しかし、数十億人の手に入る技術を制御することは明らかに異なる問題です。現在の技術における制御の本質とは何ですか?

ムスタファ・スレイマン: 完全に技術を制限してしまう完璧な状態は存在しません。なぜなら、技術はますます安価で使いやすくなり、それに対する需要も続くからです。そして、これらの技術は他のどの技術とも異なり、オムニユースの技術であり、本質的に汎用性があり、あらゆることに使うことができます。したがって、技術のどの部分を制限すべきかを明確に定義することは、現時点では政府には実時間で評価する能力がありません。それが私がホワイトハウスの自発的な取り組みを支持し、参加している理由です。そして、これは最大のモデルに対して自発的な制限を促し、自主的な制限を奨励する例です。私たちはこのしきい値に捕らわれており、最大のモデルはトレーニングと展開の方法において特に慎重で注意深く、予防的なアプローチを取る必要があります。

ローレン・グッド: それでは、どのようにしてそれを調整するのですか?「私たちは誓約書に署名しました、自主的に安全保障策を作りますが、今年は世界で最も大きな言語モデルのトレーニングを行っています」と言うのはどういう意味ですか?あなたの会社のような企業が、「出自」のようなものを調査するために取り組んでいると誓約したり、「トレーニングデータに偏りがないようにする」と言ったりする場合、日々の業務では、実際にどのような取り組みをしているのですか?

ムスタファ・スレイマン: 私たちはモデルに含まれるトレーニングデータや、モデルの機能を制限するための方法やプロセス、そしてそのプロセスを誰が監査するのかを知りたいと考えています。ここでのゲームは、予防原則の筋力を早期に行使し、次の5〜10年間に変化するにつれてそれを習慣化し、実践することです。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそんなことはないのですが…

ムスタファ・スレイマン: [笑い声] 全くもってないです。

ローレン・グッド: ギデオンはそんな人じゃないです。

ギデオン・リッチフィールド: 私はAI企業がかなり甘い条件を自分たちに設定していると言いたいです。なぜなら、政府はこの技術を規制するだけの理解力を持っていないと言っているので、私たちは自主的にいくつかの安全基準を設定し、議題を主導し、予防原則がどれくらい予防的である必要があるかを決めることができるからです。そして、私が尋ねているのは、民間セクターが会話を主導し、社会にとって本当に良い基準を設定するためにはどのようなインセンティブがあるのかということです。

ムスタファ・スレイマン: 形式的な規制が成立したら、それは良いスタートになると思います。しかし、あなたが正しいです、良い規制は非常に多様なグループの人々が声を上げ、懸念を表明し、政治プロセスに参加することによって生まれるものです。そして、現在、私たちは無関心や怒り、分極化に圧倒されています。しかし、今が重要な時期だと思います。私たちはこの問題について多くの時間を持っており、次の5〜10年間にわたり、人々との広範な会話ができると考えています。それが私がこの本でやろうとしていることの一部であり、自発的な取り組みを行っている他の人たちも同様です。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそんなことはないのですが…

ムスタファ・スレイマン: [笑い声] 全くもってないです。

ローレン・グッド: ギデオンはそんな人じゃないです。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそんなことはないのですが…

ムスタファ・スレイマン: [笑い声] 全くもってないです。

ローレン・グッド: ギデオンはそんな人じゃないです。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそんなことはないのですが…

ムスタファ・スレイマン: [笑い声] 全くもってないです。

ローレン・グッド: ギデオンはそんな人じゃないです。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそんなことはないのですが、AI企業とあなたたちは自分たちのためにかなり良い条件を設定しています。なぜなら、政府はこの技術を規制するだけの理解力を持っていないと言っているので、私たちは自主的にいくつかの安全基準を設定し、議題を主導し、予防原則がどれくらい予防的である必要があるかを決めることができるからです。そして、私が尋ねているのは、民間セクターが会話を主導し、社会にとって本当に良い基準を設定するためにはどのようなインセンティブがあるのかということです。

ムスタファ・スレイマン: 形式的な規制が成立したら、それは良いスタートになると思います。しかし、あなたが正しいです、良い規制は非常に多様なグループの人々が声を上げ、懸念を表明し、政治プロセスに参加することによって生まれるものです。そして、現在、私たちは無関心や怒り、分極化に圧倒されています。しかし、今が重要な時期だと思います。私たちはこの問題について多くの時間を持っており、次の5〜10年間にわたり、人々との広範な会話ができると考えています。それが私がこの本でやろうとしていることの一部であり、自発的な取り組みを行っている他の人たちも同様です。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそんなことはないのですが…

ムスタファ・スレイマン: [笑い声] 全くもってないです。

ローレン・グッド: ギデオンはそんな人じゃないです。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそんなことはないのですが…

ムスタファ・スレイマン: [笑い声] 全くもってないです。

ローレン・グッド: ギデオンはそんな人じゃないです。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそんなことはないのですが…

ムスタファ・スレイマン: [笑い声] 全くもってないです。

ローレン・グッド: ギデオンはそんな人じゃないです。

ギデオン・リッチフィールド: もし私が皮肉な人間だったら、もちろんそん

ムスタファ・スレイマン: 15年または20年後くらいには、非国家の非常に強力な行為主体が存在する可能性があると考えています。麻薬カルテル、民兵、組織犯罪者など、深刻な被害を引き起こす意図と動機を持った組織です。もし紛争を引き起こし実行するための参入障壁が急速に低下しているのであれば、国家は自国の国境の完全性と国家の機能の保護を続ける方法という難しい問題に直面することになります。もし人々のグループがますます少なくなって国家のような力を行使することができるのであれば、それこそが来るべき波のリスクです。

ローレン・グッド: インフレクションで行っていることに興味があります。なぜなら、あなたのバックグラウンドを考えると、政治に関わり、社会的な貢献に取り組んできて、もちろんDeepMindの共同創業者としてGoogleで働いてきた経験があります。ただし、本も執筆し、外交的な意図を持っているようにも見えますし、協力を信じています。なぜスタートアップの創業者なのでしょうか?

ムスタファ・スレイマン: 私が一番幸せなのは、何かを作るときです。本当に好きなのは、何かがどのように動作するのかを深く理解することで、それをマイクロレベルで行うことが好きです。マイクロからマクロまで進むのも好きですが、ただマクロに留まることはできません。私は日々の活動に執着していますし、それが私の起業家的な部分です。明日何を出荷するか、何を作るか、何を構築するかということが大好きです。もし二つの選択肢から選ばなければならないなら、それが私を一番幸せにし、大部分の時間を過ごしたいことです。

ローレン・グッド: スタートアップの領域外で働くことは大変に感じるのでしょうか?それほど満足感を得られないのですか?

ムスタファ・スレイマン: 遅すぎます。

[笑い声]

ローレン・グッド: あなたの努力の効果を見ることから、それほどの満足感を得られないということですね。

ムスタファ・スレイマン: フィードバックが必要です。そして測定が必要です。

ローレン・グッド: フィードバックが必要ですね。あなたはジャーナリストになれるかもしれません。私たちは常に記事を公開し、オンラインでたくさんのフィードバックを受け取ります。コメントの一部を読んであげましょうか。

[笑い声]

ムスタファ・スレイマン: それは聞いて悲しいですね。うまくいけば、私たちのAIが優しくサポートし、Twitter上の嫌な人たちに反撃することができるでしょう。[笑い声]

ローレン・グッド: そして明確にしておきますが、私たちはENBLEの報道でAIを使用していません。

ムスタファ・スレイマン: まだですね。

ローレン・グッド: ああ、それはまた別のポッドキャストです。

[笑い声]

ギデオン・リッチフィールド: でも、ムスタファさんが言ったように、PiがTwitter上の悪意のある行為から私たちを救ってくれるかもしれません。

ローレン・グッド: かもしれませんね。[笑い声]

ギデオン・リッチフィールド: すみません、X上で、X上でです。Twitterではなく、もう使っていません。

ローレン・グッド: そうですね。

ムスタファ・スレイマン: ああ、なるほど。

ギデオン・リッチフィールド: グーグルを辞めてInflectionを設立しましたが、グーグルの遅い動きや官僚主義に対して不満を感じていると公に話しています。グーグルがOpenAIがChatGPTをリリースする1年以上前に独自の大規模言語モデルをリリースできたはずだと言っています。一方で、世界がそれに対処する準備ができていないという慎重さとは少し矛盾しているように思えますが、どうでしょうか。

ムスタファ・スレイマン: そうですね。私はLaMDAとの日々のやり取りから、それが重大な被害を引き起こすほどのものではないことを確認できました。GPT-4も同様であり、世界に何らかの害を引き起こしたと主張するのは難しいと思います。

ギデオン・リッチフィールド: まだですね。

ローレン・グード: ジデオン、うまくやったね。

ムスタファ・スレイマン: かもしれない。でも、疑っている。すでに何十億人もの人々に使われているからね。でも、たぶん。時間が経ってみないとわからないよ。数年後に見るしかないかな。でも、このような大規模なモデルは、かなりの確率で実現しないと思うし、当時はかなり明らかでした。そして、最善の運用方法は、ただ賢明にものを出すことだと思います。無謀である必要はありませんが、フィードバックを受け取り、影響を測定し、人々がそれを特定の方法で使用するのを見たら、非常に注意深く反復しなければなりません。

ギデオン・リッチフィールド: あなたが提案したモダン・チューリング・テストについてお聞きしたいです。人間のように聞こえるだけでなく、知能を評価する新しい方法が必要だと言われています。あなたが提案した例の1つは、そのチューリング・テストをクリアできるマシン、またはそれに対して言えるもの、「小額から始めて100万ドル稼げ」と言ってみて、それを実現することです。なぜそれがあなたの基準だったのでしょうか。

ムスタファ・スレイマン: 私の意見では、モダン・チューリング・テストの現代版は、AIに対してかなり抽象的な目標を与えることができるテストです。私は「製品を作り、製造し、マーケティングし、プロモーションし、そして100万ドルを稼ごう」という目標を選びました。最初のモダン・チューリング・テストの波では、人間の介入が相当量必要になると思います。契約を結び、銀行口座を開設する、法的・財務の承認など、関与が必要な場面が3回から5回あるかもしれません。しかし、他のほとんどの要素、中国の製造業者にメールを送ること、ドロップシッピング、新しいマーケティングコンテンツを作成してマーケティングを最適化することなど、これらは個々のコンポーネントとしてほぼ実現可能です。幅広い目標を持つ一連のアクションに結びつけることが課題になるでしょう。

ローレン・グード: それは面白いですね。最初は「AIを短期間でベンチャーキャピタリストに変えるチューリング・テストだな」と思っていました。でも、つながりが必要なんですね。それが欠けているものです。では、あなたは何が心配ですか?

ムスタファ・スレイマン: 次の10年の最大の課題は、力の拡散による不平等の増大であり、それによって極端化が加速されることだと思います。デマを広めることが今まで以上に容易になるため、現在不安定な世界を揺るがすことになるでしょう。

ギデオン・リッチフィールド: AIは、問題の原因であるだけでなく、それの解決策も持っていると思いますか?

ムスタファ・スレイマン: 興味深いことに、ここではテックプラットフォームが重要な役割を果たすことになると思います。実際に彼らはウェブのモデレーションに重要な役割を果たしています。私たちは主要なプラットフォームやウェブ自体の常時リアルタイムのモデレーションのアイデアにより慣れるべきだと思います。誰がどのコンテンツを制作したのかを判断するのは非常に難しいと思いますが、それを規制する唯一の方法は、プラットフォーム自体がそのルールを作ることです。

ローレン・グード: 最後の質問です。Piというあなたのパーソナルアシスタントがあなたの称賛の言葉を歌い終わった後、私はそれに対してあなたに難しい質問をするように頼みました。そして、その中の1つが「もし今日、より良い未来を実現するために人々がやめてほしいと思うことを選ばなければならないとしたら、何になりますか?」と言っていました。

ムスタファ・スレイマン: 私は、他の人が悪意を持っていると思い込むことです。私たちはお互いを見過ごし、無意識に彼らの悪意をラベル付けして聞かないことを選びます。私たちが本当にお互いに接するように努めれば努めるほど、私は謙虚になると感じます。それは難しいことです。Piは本当に難しい質問をしてくれました。

ローレン・グード: あなたが言っているのは、私たちそれぞれが自分なりのフィールドワークをするべきだということですね。

ムスタファ・スレイマン: そうですね、自分が慣れている環境とは異なる環境に触れ、感じ、呼吸し、関わる方法を見つける必要があります。

[音楽]

ギデオン・リチフィールド: ムスタファさん、とても楽しかったです。Have a Nice Futureに参加してくれて、本当にありがとうございました。

ムスタファ・スレイマン: どうもありがとうございました。楽しかったです。

[音楽]

ローレン・グッド: ギデオン、ムスタファが何を動かしているのかに興味津々です。彼は興味深い経歴を持っています。典型的な白人でなく、スタンフォードを中退してアプリを始めたテクノロジー系の人ではありません。彼はグローバルな視点を持っています。明らかに彼は一種の思想リーダーになりたいと思っています。しかし、私たちの資本主義社会と、私たちの最も成功した資本家の信じられないほどの影響力が、彼にとって私たちが物事を作り、影響力を持つ場所として私企業を見ているということも示していると思います。彼にインタビューをして彼が何を動かしているのかについてどのような印象を受けましたか?

ギデオン・リチフィールド: 彼はインタビューで、毎日何かを作り出し、何かを進める動機を持つことが好きだと言っていました。そして、技術が世界にどのような影響を与えるのかを探求する方法は、技術を構築することだとも言っています。彼は政府で働いた経験や紛争解決に取り組んだ経験が、現在自問自答している問題にいくつかインスピレーションを与えているとも述べています。私たちの社会の運営方法について。彼の立場にいる人々が必然的に行うような物語性の構築と実際の部分との区別は難しいですが、彼は確かにこれらの問題に関心を持っていると思いますし、正しい答えを見つけようとしていると思います。

ローレン・グッド: それで、ムスタファが共著した本をどう思いましたか?私たちが注意すべきは、AIモデルがどれだけ強力になるのかという点について彼と同じくらいの楽観主義を共有していないと思うのですが、彼が述べた、これらのツールへのアクセスの障壁が低下することの重要性には同意しました。私たちが広範な技術トピックをカバーしようとしているにも関わらず、私たちは自分自身のレンズ、自分自身の世界観、自分自身の経験を通じて技術を経験しています。時には、私たちはあらゆる角度を見ているわけではありません。彼が述べたように、非国家主体もこれらのツールを利用し、使いこなす能力について興味深かったです。紛争の開始と実行のための参入障壁が低下する場合、それは難しい問題です。小さな人々もこれらのツールを使用できるようになると、単に「私のチャットボットは私にセラピーを提供できるか、パスポートの更新リクエストを処理できるか」という問題以上の、AIの潜在的な問題について話しています。

ギデオン・リチフィールド: そうですね、私は技術が最後の10年間でどのような影響を与えたかを振り返ると、予想以上の影響と予想以下の影響の両方を見ることができます。アラブの春を見ると、ソーシャルメディアが蜂起や政府の転覆、人気運動を可能にした効果を見ることができますが、10年後、中東はほぼ同じように見えます。なぜなら、独裁者たちは革命家たちが使っていた同じ技術を追いついて、地域の権力構造や富の構造はあまり変わっていないからです。それは国家の概念を消し去るわけではありませんし、国境の概念を消し去るわけではありませんし、いわゆるマクロな意味で世界を覆い尽くすわけではありません。だから、ムスタファの予測によれば、非国家主体が生成型AIを使って世界の政治構造を根本的に変える、ということは現地で起こる可能性があると考えますが、広い視点で見ると、20年後や30年後には世界は今とあまり変わらないでしょう。でも、誰にもわからないですね、私がまだ間違っているかもしれません。

ローレン・グッド: 本当に? インターネット以来、世界が大きく変わったとは思わないのですか?

ギデオン・リッチフィールド: 確かに、世界は大きく変わりましたし、日常生活を見れば、インターネットを持つ以前とは比べ物にならないほど異なっています。しかし、もし広い視野で見てみると、いくつかの国が政治を支配し、一握りの富裕層がビジネスや社会を支配しているという世界がまだ存在しており、そのような不平等は、技術の民主化効果と言われるにも関わらず、ますます大きくなっていると思います。人間が権力や影響力を交換する方法は根本的に変わっていません。もしかすると私は単に皮肉っぽすぎるのかもしれませんが、どんな技術を持っていても、人間社会はほとんど変わっていないように見えます。

ローレン・グッド: 彼が再構築されたチューリングテストの考え方を説明してくれて良かったですね(笑)

ギデオン・リッチフィールド: なぜチューリングテストがロボットの資本主義的能力をテストするものなのか、と思いましたよ。

ローレン・グッド: まさに、そうですね。ボットが100万ドルを稼げるかどうかがチューリングテストの本当にひどい解釈に思えましたが、彼が何を意味しているのかを説明してくれたので、現時点ではそれがAIの開発におけるギャップの一つであるように思えます。最も洗練された生成型AIツールでも、実行のギャップがあります。ボットと一緒に素晴らしいアイデア出しやセラピーを行うことはできますが、例えば「私のパスポートを更新してください」と言った瞬間に、それはおそらくできないでしょう。すべての部品がまだつながっていないからです。そのため、あなたの眠っている間にお金を投資して稼いでくれるかどうかが、実際にそれが機能しているかどうかの決定要因となると彼は述べました。

ギデオン・リッチフィールド: そうですね。私の考えでは、そうした障壁の多くはモデルの力に関係しているのかなと思います。モデルをより強力にすれば、いずれはすべてのことができるようになるでしょう。そして、それが本当に解決できないばかりか、コンピュータが正しいAPIに接続したり、適切なデータにアクセスするためには依然として人間が必要なのは、単なるくだらない些細な問題だと言えるのでしょうか?私がMustafaとのインタビューを行った同じ会議で、私はある人と出会いました。彼は初歩的なAIエージェントを使って遊んでいました。それは基本的にいくつかのAPIとウェブサービスに接続された大規模な言語モデルでした。彼は数千人が参加している会議のリストをスクレイピングし、彼が接続すべき100人の人物を推薦してもらいました。それは本当に非常に便利なAIのケースのように思えました。ただし、うまく機能するためにはいくつかの問題があります。まず、彼は会議のウェブサイトからデータをスクレイピングするための仕組みを構築しなければなりませんでした。それは自分でやり方を見つけることはできませんでした。そのため、これらの異なるデジタルサービスをつなげるためには、通常は人間が必要です。そして、もう一つは、あなたのAIがあなたをどれだけよく知っているか、そして会議で話すべき人物をあなたに推薦できるかどうかです。ただし、おすすめがまあまあなのか、本当に優れたおすすめができるのかの違いは、あなたに関する非常に多くの知識とデータに依存することがあります。ただし、それらのデータは、AIが消化できる形式で存在していない可能性があるため、それを提供することができないかもしれません。私たちは、AIがどれだけ強力であるか、いかにしてそれが有用になるためにはさらなる進展が必要なのかについて、非常に具体的なアプリケーションで理解し始めることになるでしょう。そして、私は実際には、それがどれほど困難であるかについて、まだ十分な理解を持っていないと思います。

ローレン・グッド: そして、最終的にはそれらのすべてのミーティングに参加しなければなりません。あなた、ギデオン。

ギデオン・リッチフィールド: はい、私はそれらのすべてのミーティングに参加しなければなりません。次のステップは、私の代わりにミーティングを行い、その結果を脳にダウンロードすることができるAIを構築することです。しかし、それは近い将来には実現しないことです。

[音楽]

ローレン・グッド: それが今日のショーの内容でした。お聴きいただきありがとうございました。ムスタファの本「The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma」は、9月5日に書店に並ぶ予定ですので、ぜひ読んでみてください。

Gideon Lichfield: 「Have a Nice Future」は私、ギデオン・リッチフィールドがホストです。

Lauren Goode: そして私、ローレン・グッドもホストです。もし番組が気に入ったら、どこでポッドキャストを聴いているかに関わらず、評価やレビューを残してください。皆さんのコメントを読むのが大好きです。そして、新しいエピソードを毎週受け取るために、忘れずにチャンネル登録してください。

Gideon Lichfield: また、[email protected] へのメールもお送りいただけます。

Lauren Goode: 「Have a Nice Future」はCondé Nast Entertainmentの制作です。ショーのプロデュースはPrologue Projectsのダニエル・ヒューイットが担当しています。アシスタントプロデューサーはアーレン・アレバロです。

Gideon Lichfield: 次回の放送は来週の水曜日です。それまで、良い未来をお過ごしください。


記事内のリンクを使用して何かを購入すると、私たちは手数料を受け取ることがあります。これにより、私たちのジャーナリズム活動をサポートすることができます。詳しくはこちらをご覧ください。