AI:適切な理由に怖い

人工知能(AI)は、私たちが解き放つ獣の見出し、誇大広告、そして驚きさえも掴みました。核またはバイオテクノロジーであっても、すべての強力なテクノロジーは善悪に使用でき、AIにも同じことが言えます。 Elon MuskやStephen Hawkingなどからの大衆の言説の多くは、大君主のAIが間違っているというディストピア的ビジョンのようなSFを反映していますが(確かに議論する価値のあるシナリオ)、AIに関しては差し迫った脅威があります。 AIが制御不能になったり仕事を引き継いだりするずっと前から、はるかに大きな危険が潜んでいます。AIは、政府や悪役が利己的なアジェンダをより良いものに押し付けるために使用します。

背景については、テクノロジーの楽観主義者であり、さらなる発展の支持を表明しないものとして、2014年にAIが引き起こす可能性のある社会の大規模な混乱について書きました。目に見えないほどですが、私の意見では、所得格差と社会的流動性に関するはるかに重要な指標です。さらに重要なことは、この時間は、生産性ツールが常に雇用を増やすという通常のエコノミストの自明とは異なる理由を論じた。 AIを使用すると、スキルや教育レベルに関係なく、現在の仕事の大部分が転職する可能性があります。前回の産業革命では、米国の雇用の大部分から2%未満になった1900年から2000年の農業と、現在米国の雇用の20%未満である産業の仕事でこれを見てきました。今回は、スキルの低い仕事だけでは変位が起こらない可能性があります。トラック運転手、農場労働者、レストランの食品調理者は、放射線科医や腫瘍医よりもリスクが低いかもしれません。医師や機械技術者などの熟練した仕事が追い出された場合、教育は雇用成長の解決策ではないかもしれません(他の多くの理由で良いです)。この革命では、機械は、以前はできなかったタスクを複製することができます。知的推論ときめ細かい運動スキルを必要とするタスクです。このため、感情労働は機械が人間レベルで複製できないスキルの最後の砦であり続ける可能性があり、医学校はヒポクラテスではなく対人スキルと感情スキルを強調して教えることに移行すべきだと私が主張した理由の1つです推論。

私たちは核戦争を心配していますが、国家間の経済戦争はさらに脅威にさらされています。ゴールドマン・サックスのような評論家は、国際主義を支持しています。なぜなら、それは彼らの利益に十分に貢献し、すべてによって公平に扱われれば正しいことだからです。私の見解では、間違った答えは経済ナショナリズムですが、正しい答えは単なる平等な場をはるかに超えています。トランプマニアは、中国の平等な競技場の感情からある程度正しく生じるかもしれませんが、AIがこれらの経済戦争の要因である場合、問題は指数関数的に悪化する可能性があります。経済戦争のこの問題は、AIによって指数関数的に増幅される可能性があります。中国、米国、ブラジル、ルワンダ、ヨルダンなどの国民国家の間では、この技術に投資する資本と意欲に基づいて、この経済戦争を遂行する能力は非常に不平等です。独自のデバイスに任された最も軽度の影響として、AIテクノロジーは世界の富を数カ国にさらに集中させ、開発、富、および格差に対する非常に異なる国際的アプローチの必要性を「引き起こします」。

特にこの変革はAIを開発する企業に多大な利益をもたらし、労働は資本に比べて切り下げられるため、この格差問題に取り組む必要性について書きました。幸いなことに、このように豊富にあるため、格差やその他の社会問題に対処する手段があります。残念ながら、私たちは人間の動機のような、必ず生じるであろうすべての社会的問題に対処することはできません。資本主義は民主主義の許可によるものであり、民主主義には格差を是正するツールが必要です。ティーパーティーに注意してください。発展途上のハリケーンがあなたの道を進んでいるのを見たことはありません。私は、このAIによる所得格差の影響が10年以上も重要になり、準備する時間を与えてくれると思う。したがって、この必要な対話が開始され、ロボット税やユニバーサルベーシックインカムなどのソリューションのアイデアにつながりましたが、これは貴重なツールになる可能性がありますが、格差はAIが引き起こす最悪の問題とはほど遠いため、これらのより差し迫った脅威について議論する必要があります。

昨年だけでも、世界は、テクノロジーを使用する悪役の干渉によって揺れ動く現代社会の基盤の一部を見てきました。ロシアの干渉によって脅かされている政治システムの整合性と、Equifaxハックやバングラデシュ銀行強盗(犯罪者が1億ドルを盗んだ)のような事件によって脅かされているグローバルな金融システムを直接見てきました。特に評価や検証ができない場合、悪党や犯罪組織がAIを使用してサイバー攻撃の事件を劇的にエスカレートします。この遷移は、破壊力の観点から、風がハリケーンになったとき、または波が津波になったときに見えるものに似ています。 OpenAIのUniverseプラットフォームなどのトレーニングを受けたAIエージェントが、数千のオンラインWeb環境をナビゲートすることを学習し、アジェンダを押すように調整されているとします。これは、世論の概念を破壊するような方法で、インテリジェントなボットトロールのバッタをウェブ上に放つ可能性があります。または、次の進化したLyrebird.aiからのボットの電話隊が、議員や上院議員の電話回線を有害なポリシー変更の要求で悩ませる独特の声で想像してください。この危険は、ロボットが乗っ取るという考えとは異なり、次の10年で現実になる可能性が高いです。

この技術はすでに今日の独裁主義国のレーダーにあります。たとえば、プーチン大統領は、AIリーダーが世界を支配する方法について話しました。さらに、中国は国家として、この強力な新しいAIテクノロジーを非常に鋭く獲得することに焦点を合わせています。通常のビジネス競争を超えた専門知識の蓄積と、ここでの非常に多額の資金調達が大きな関心事です。これは、ヒロシマ攻撃が行われたときに核能力を持つ唯一の国である米国と同等またはそれよりも悪い可能性があります。私たちの日本の反対者が応答することはほとんどありませんでした。この経済戦争兵器が核爆弾のようにバイナリであるかどうかを言うのは難しいが、それは大きく、少数の手に集中し、ほとんど検証可能性の対象ではない。その大きな増幅の可能性を考えると、秘密の努力は大きな力の不平等を引き起こす可能性があります。

Google、Facebook、大学などの西部のAI開発の主要な関係者が、この技術をより広く共有するために、科学技術ジャーナルで科学技術のアプローチと結果を公開する一般的にオープンなポリシーを採用していることに気づいた場合、問題は悪化します。個々の州の関係者がそれを行わず、もしそうでないとしたら、米国からの技術の一方通行の流れがあるでしょう。世界の特定の地域でのAI開発には、データに対する/データに対するポリシーのため、さらに大きな利点があります。 Andrew Ng(中国の大企業Baiduに雇われ、自分のアイデアを育てるまでAIの取り組みをリードするスタンフォード大学の教授)が言ったように、「データはAIエンジンのロケット燃料です」。そのため、AIの進歩は最近熱狂的ですが、データプライバシーと偶発的な事故が「国家安全保障」の観点からそれほど重要でない場合、はるかに高速になります。これにより、データプライバシーと一方向の技術移転は無視され、中国やロシアはこの世代の宇宙競争で大きな優位性を持っています。

AIは、今日議論されている経済、ビジネス、または競争の問題以上のものです。資本効率を経済効率のツールとして再考する必要があります。なぜなら、効率はそれほど重要ではないか、少なくとも格差はより重要だからですが、その考慮は何十年も先のことかもしれません。今後10年間の最大の懸念は、AIが今日のサイバーセキュリティ問題を劇的に悪化させ、核技術よりも検証不可能になることです。中国のような民族主義国家とプーチンのような悪党独裁者は、秘密の力を大いに増幅するでしょう。私たちは、社会として、オープンな進歩やプライバシーなど、他の国々と「追いつく」ために、社会のセーフガードを放棄することをいとわないと思います。ここで何ができるかについていくつか考えていますが、これは明らかな解決策がない複雑な問題です。米国のAI企業の非NATO投資家への資金提供を制限するかもしれませんか?たぶん、米国政府やNATOに国家安全保障のために独自のAI技術に投資してもらうのでしょうか? AIホワイトハットフォース?量子コンピューティングのようなブラックスワンの開発における努力の増加?成長するにつれて、新しいAIテクノロジーのリスク、バイアス、欠点に対する社会や政府からのリスク回避、忍耐、反発が減りますか?私たちが何をしているにせよ、明らかなことは、もっと多くの対話、議論、そして対策資金の増加が必要だということです。不確実性とwhatifsに悩まされるディストピアの可能性についてのヒステリーを生成する代わりに、当面の危険の当面の波に注目する必要があります。ここでリスクを負わないことが、意図せずに最大のリスクになる可能性があります。