最近、Microsoft Redmond Research Institute の機械学習理論グループの責任者である Sébastien Bubeck は、2023 年の Sloan Research Award を受賞した Li Yuanzhi とともに、非常に懸念される論文を発表しました。 「汎用人工知能の火花: GPT-4 による初期実験」と題されたこの論文は 154 ページにわたる。一部の優秀な人々は、LaTex ソース コードから、元のタイトルが実際には「First Contact with AGI」であることを発見しました。
この論文の出版は、人工知能研究の分野における重要なマイルストーンを示しています。これは、汎用人工知能 (AGI) の開発と応用についての深い理解への貴重な洞察を提供します。同時に、論文の原題「First Contact with AGI」は、一般的な人工知能に向けた探求の重要性と将来性を強調しています。
一般的な人工知能は、強力な人工知能とも呼ばれ、人間と同じ知能を持ち、通常の人間のすべての知的行動を実行できる人工知能を指します。これは、AGI が人間と同じようにさまざまな分野で学習、理解、適応、問題を解決できることを意味します。 ANI とは異なり、AGI は特定の分野に限定されず、さまざまなタスクを独立して実行できます。現在、一般的に汎用人工知能はまだ達成されていないと考えられていますが、多くのテクノロジー企業や科学者がこの目標に近づくために懸命に取り組んでいます。
③ 超人工知能 (ASI):
超人工知能とは、さまざまな分野で人間の知能をはるかに超える人工知能システムを指します。人間が完了できるさまざまなタスクを完了できるだけでなく、創造性、意思決定能力、学習速度の点で人間をはるかに上回ります。 ASI の出現は、前例のない多くの技術的進歩や社会的変化を引き起こし、人間には解決できない困難な問題を解決する可能性があります。
『論語・済将軍の宣羽征伐』に「虎の口はサソリから出た」という一文がありますが、今では虎同様、あらゆる種類のGPTが檻から逃げ出しています。 『未来の歴史』の著者、ユヴァル・ノア・ハラリ氏は次のように述べています。人工知能は、人間の平均的なレベルを超えた能力で言語を習得しています。人工知能は言語を習得することで、すでに大規模に数億の人々と親密な関係を築く能力を備えており、人類の文明システムを侵略する鍵を握っている。同氏はさらに、「核兵器と人工知能の最大の違いは、核兵器ではより強力な核兵器を作り出すことができないことだ」と警告した。ただし、**AI はより強力な AI を生み出すことができるため、AI が制御不能になる前に迅速に行動する必要があります。 **
3月22日、Future of Life Institute(Future of Life)は、「巨大人工知能研究の一時停止:公開書簡」と題した公開書簡を全社会に発行し、すべての人工知能研究機関に対し、GPTの比較を直ちに中止するよう求めた。 4 少なくとも 6 か月の休止期間を経て、より強力な AI システムのトレーニング。フューチャー・オブ・ライフ研究所の米国政策ディレクター、ランドン・クライン氏は、「我々は現在の瞬間を核時代の始まりに似ていると見ている...」と述べた。この公開書簡はイーロン氏を含む千人以上の人々に支持されている。マスク氏(テスラ創設者)、サム・アルトマン氏(OpenAI CEO)、ジョシュア・ベンジオ氏(2018年チューリング賞受賞)などの著名人。
多くの人が「AI核拡散」の時代に突入しようとしていることに気づいたら、その可能性を本当に探る必要がある。この可能性としては、国際原子力機関に似た国際機関を設立することが考えられます。その目標は、使用する GPU の数、エネルギー消費量、その他の指標に基づいて、すべての人工知能企業を監督することです。機能のしきい値を超えたシステムは監査の対象となります。このような国際機関を通じて、私たちは AI テクノロジーが潜在的な害ではなく人類に利益をもたらすよう協力することができます。
これらの国々が講じた集団的な措置は、現在の人工知能の発展が大きなチャンスと課題をもたらしていることを思い出させます。 AI テクノロジーの適切な使用と透明性を確保するために、明確な倫理ガイドラインと規制が早急に必要です。私たちは、データのプライバシーとセキュリティをどのように確保するかという一連の重要な質問に直面することになります。アルゴリズムのバイアスと不公平にどう対処するか?人工知能の意思決定の透明性と説明可能性を確保するにはどうすればよいでしょうか?これらの問題は、明確な規制と制度を通じて解決する必要があります。
オピニオン | 汎用人工知能の諸刃の剣: 発展の制御と危機の回避
著者:胡儀
出典: ザ・ペーパー
最近、Microsoft Redmond Research Institute の機械学習理論グループの責任者である Sébastien Bubeck は、2023 年の Sloan Research Award を受賞した Li Yuanzhi とともに、非常に懸念される論文を発表しました。 「汎用人工知能の火花: GPT-4 による初期実験」と題されたこの論文は 154 ページにわたる。一部の優秀な人々は、LaTex ソース コードから、元のタイトルが実際には「First Contact with AGI」であることを発見しました。
この論文の出版は、人工知能研究の分野における重要なマイルストーンを示しています。これは、汎用人工知能 (AGI) の開発と応用についての深い理解への貴重な洞察を提供します。同時に、論文の原題「First Contact with AGI」は、一般的な人工知能に向けた探求の重要性と将来性を強調しています。
私はこの論文の翻訳版を辛抱強く読みました。正直に言うと、半分理解できて半分理解できず、何が起こっているのか分かりません。まず、この論文の核となる命題を紹介します。GPT-4 は汎用人工知能の火種を開花させ、汎用知能の一形態を提示します。これは、その中核となる精神的能力 (推論、創造性、推理など)、専門知識を獲得する主題の範囲 (文学、医学、コーディングなど)、および実行できるタスクの多様性 (たとえば、ゲームをする、ツールを使う、自分自身を説明するなど)。
この記事を読んだ後、「期待できる未来|人工知能絵画:誰もがアーティストになろう」という記事を読み直しました。以前、人工知能生成コンテンツ (AIGC) で ChatGPT のような大規模なモデルを分類するのは少し狭いのではないかと自問しました。 Microsoft Research の論文に記載されているように、GPT-4 は実際には単なる AIGC ではなく、一般的な人工知能のプロトタイプに似ています。
AGI の意味を説明する前に、本紙の「将来予想」コラムの読者に、ANI、AGI、ASI という 3 つの単語について説明しましょう。
人工知能 (AI) は通常、次の 3 つのレベルに分けられます。
①弱い人工知能(狭義人工知能、ANI)。
②汎用人工知能(AGI)。
③超人工知能(ASI)。
次に、これら 3 つのレベルの違いと展開について簡単に紹介します。
①弱い人工知能 (ANI):
弱い AI は、AI の最も一般的な形式です。単一のタスクを実行するか、特定のドメインの問題を解決することに焦点を当てます。例えば、画像認識、音声認識、機械翻訳などです。このようなインテリジェント システムは、特定のタスクでは人間よりも優れている可能性がありますが、機能できる範囲は限られており、解決するように設計されていない問題には対処できません。現在、仮想アシスタント (Siri、Microsoft Xiaoice など)、スマート スピーカー (Tmall Genie、Xiaoai Speaker など)、AlphaGo など、多くのスマート製品やサービスが市場に出回っていますが、これらはすべて弱いカテゴリに属します。人工知能。弱い人工知能の限界は、総合的な理解力と判断能力が欠如しており、特定のタスクでしかうまく機能しないことです。
ビッグデータ、アルゴリズム、コンピューティング能力の継続的な発展により、弱い人工知能が徐々に日常生活のあらゆる領域に浸透してきています。金融、医療、教育、エンターテイメントなどの分野で、数多くの導入事例がございます。
②汎用人工知能 (AGI):
一般的な人工知能は、強力な人工知能とも呼ばれ、人間と同じ知能を持ち、通常の人間のすべての知的行動を実行できる人工知能を指します。これは、AGI が人間と同じようにさまざまな分野で学習、理解、適応、問題を解決できることを意味します。 ANI とは異なり、AGI は特定の分野に限定されず、さまざまなタスクを独立して実行できます。現在、一般的に汎用人工知能はまだ達成されていないと考えられていますが、多くのテクノロジー企業や科学者がこの目標に近づくために懸命に取り組んでいます。
③ 超人工知能 (ASI):
超人工知能とは、さまざまな分野で人間の知能をはるかに超える人工知能システムを指します。人間が完了できるさまざまなタスクを完了できるだけでなく、創造性、意思決定能力、学習速度の点で人間をはるかに上回ります。 ASI の出現は、前例のない多くの技術的進歩や社会的変化を引き起こし、人間には解決できない困難な問題を解決する可能性があります。
ただし、ASI にはさまざまな潜在的なリスクも伴います。例えば、人間の価値や尊厳の喪失につながる可能性があり、人工知能の乱用や悪用の引き金となり、さらには人工知能の反乱やその他の問題につながる可能性もあります。
私たちは、弱い人工知能から一般的な人工知能、そして超人工知能に至るまで、人工知能技術は長く複雑な開発プロセスを経ると信じてきたことがわかりました。その際には、法規制から一人ひとりの心の準備まで、さまざまな準備をする時間は十分にあります。しかし、私は最近、一般的な人工知能の実現まであとわずか、20 年もかからないかもしれないと強く感じています。このプロセスには5~10年しかかからないと言う人がいるとしても、私はそれを完全に排除するつもりはありません。
OpenAI は、その「AGI の計画と展望」の中で次のように述べています。「AGI は、すべての人に信じられないほどの新機能をもたらす可能性を秘めています。私たち全員が認知タスクにおいてほぼすべての援助を得ることができ、人間に大きな力を倍増させる世界を想像できます。知性と創造性。」
ただし、この計画では、AGI の強力な機能を過度に強調するのではなく、「段階的な移行」プロセスを強調しています。 「人々、政策立案者、機関に、何が起こっているのかを理解し、これらのシステムの良い点も悪い点も自ら体験し、経済を調整し、規制を導入する時間を与えることです。」
私の意見では、この文章が伝える根本的なメッセージは、AGI につながるテクノロジーはすでに存在しているということです。しかし、人間社会が適応のプロセスを行えるようにするために、OpenAI は技術の進歩のペースを意図的に減速させています。彼らは、技術の進歩と人間社会の準備のバランスをとり、法的、倫理的、社会的適応に関する議論により多くの時間を与え、起こり得る課題に対処するために必要な措置を講じることを意図しています。
『論語・済将軍の宣羽征伐』に「虎の口はサソリから出た」という一文がありますが、今では虎同様、あらゆる種類のGPTが檻から逃げ出しています。 『未来の歴史』の著者、ユヴァル・ノア・ハラリ氏は次のように述べています。人工知能は、人間の平均的なレベルを超えた能力で言語を習得しています。人工知能は言語を習得することで、すでに大規模に数億の人々と親密な関係を築く能力を備えており、人類の文明システムを侵略する鍵を握っている。同氏はさらに、「核兵器と人工知能の最大の違いは、核兵器ではより強力な核兵器を作り出すことができないことだ」と警告した。ただし、**AI はより強力な AI を生み出すことができるため、AI が制御不能になる前に迅速に行動する必要があります。 **
3月22日、Future of Life Institute(Future of Life)は、「巨大人工知能研究の一時停止:公開書簡」と題した公開書簡を全社会に発行し、すべての人工知能研究機関に対し、GPTの比較を直ちに中止するよう求めた。 4 少なくとも 6 か月の休止期間を経て、より強力な AI システムのトレーニング。フューチャー・オブ・ライフ研究所の米国政策ディレクター、ランドン・クライン氏は、「我々は現在の瞬間を核時代の始まりに似ていると見ている...」と述べた。この公開書簡はイーロン氏を含む千人以上の人々に支持されている。マスク氏(テスラ創設者)、サム・アルトマン氏(OpenAI CEO)、ジョシュア・ベンジオ氏(2018年チューリング賞受賞)などの著名人。
多くの人が「AI核拡散」の時代に突入しようとしていることに気づいたら、その可能性を本当に探る必要がある。この可能性としては、国際原子力機関に似た国際機関を設立することが考えられます。その目標は、使用する GPU の数、エネルギー消費量、その他の指標に基づいて、すべての人工知能企業を監督することです。機能のしきい値を超えたシステムは監査の対象となります。このような国際機関を通じて、私たちは AI テクノロジーが潜在的な害ではなく人類に利益をもたらすよう協力することができます。
科学者の中には、人工知能の研究と応用を進める際には、人工知能システムの能力が人間の制御を超えないようにする必要があると主張する人もいます。彼らは、「10歳の子供がストックフィッシュ15とチェスをしようとした」「11世紀が21世紀と戦おうとした」「アウストラロピテクスがホモ族と戦おうとした」など、展開していた大惨事を説明するために多くの比喩を作った。サピエンス」。これらの科学者たちは、AGI を「インターネットに住む無生物の思想家」として想像するのをやめるよう求めています。代わりに、彼らを人間よりも100万倍速く思考するエイリアンの文明全体として想像してください。ただ、当初はコンピュータに限定されていたというだけです。
しかし、一部の科学者は楽観的です。彼らの見解では、人工知能の開発と研究は科学の進歩と技術革新を促進し続ける必要があります。彼らは、自動車が誕生した時代に、御者が運転手に6か月の運転停止を提案した場合と比較した。今にして思えば、これはカマキリが荷馬車のような行動だろうか。彼らは、透明性と責任ある研究アプローチを通じて、根本的な問題に対処し、AI テクノロジーの制御可能性を確保できると信じています。さらに、継続的な実験と実践を通じて、人工知能がもたらす可能性のある課題をよりよく理解し、それに対応できるようになります。
最近、世界保健機関 (WHO) は、人工知能と公衆衛生の組み合わせについて警告を発しました。彼らは、意思決定のためにAIが生成したデータに依存することは、偏見や悪用の危険にさらされる可能性があると指摘しています。 WHOは声明の中で、人間の幸福を守り促進するためにChatGPTなどの生成大言語モデル(LLM)を使用するリスクを評価することが重要であると述べた。彼らは、公共の利益を保護し、医療分野を進歩させるために、これらのテクノロジーの使用における正確性、信頼性、公平性を確保するための措置が必要であると強調しています。
多くの国はすでに人工知能分野を規制する措置を講じています。イタリア個人情報保護庁は3月31日、今後ChatGPTの使用を一時的に禁止すると発表した。同時に、EU当局者らは「人工知能法(AI法)」と呼ばれる新たな法案の策定にも取り組んでおり、その内容には特定の人工知能サービスの使用禁止や関連法規範の策定などが含まれる。
米国商務省は、危害のリスクをもたらす新しい人工知能モデルをリリースする前に審査する必要があるかどうかを含むパブリックコメントを募集する通知を発行しました。同時に商務省は、公民権法や消費者保護法に違反する有害な人工知能製品を取り締まるとも約束した。
5月16日、OpenAIのCEO兼共同創設者のサム・アルトマン氏は初めて米国議会の公聴会に参加し、人工知能技術の潜在的な危険性について語った。彼は、人工知能が進歩するにつれて、それが私たちの生活をどのように変えるかについて懸念と不安があることを認めました。この目的のために、政府の介入によって人工知能の「野生の自己複製と自己侵入」を防ぐことができると彼は信じている。同氏は、必要な保護措置を導入し、AIシステムにライセンスを発行し、それを取り消す権限を与える全く新しい規制機関を創設することを提案した。
公聴会でアルトマン氏は、人工知能の可能性についての最大の懸念は何かと問われたが、詳しくは述べず、「この技術がうまくいかない場合、非常に間違っている可能性がある」と述べ、「世界に重大な害をもたらす可能性がある」とだけ述べた。 。
この公聴会に先立ち、人工知能分野における中国の規制・管理措置も広く注目を集めている。 4月11日、中国サイバースペース局は、生成型人工知能技術の健全な発展と標準化された応用を促進するため、「中華人民共和国ネットワークセキュリティ法」およびその他の法令に基づき、「管理規約」を起草した。生成型人工知能サービスへの対応策(意見募集案)」このアプローチは、生成型人工知能産業に対する支援と奨励の姿勢を明確にしています。たとえば、「国家は、人工知能のアルゴリズムやフレームワークなどの基礎技術の独立した革新、促進と応用、国際協力を支援し、優先的な採用を奨励しています」安全で信頼性の高いソフトウェアとツール、コンピューティングとデータ リソース。」
意見草案では、生成型人工知能によって生成されるコンテンツは社会主義の中核的価値観を反映している必要があり、国家権力の転覆、社会主義制度の転覆、国家分裂の扇動、国家統一の弱体化、テロリズムの促進、過激主義、民族憎悪の助長、民族差別、暴力、わいせつなポルノ情報、虚偽の情報、経済的および社会的秩序を混乱させる可能性のあるコンテンツ。意見書草案では、サプライヤーに対し、安全性評価の宣言、差別防止策の講じ、プライバシー権の尊重も求めている。
これらの国々が講じた集団的な措置は、現在の人工知能の発展が大きなチャンスと課題をもたらしていることを思い出させます。 AI テクノロジーの適切な使用と透明性を確保するために、明確な倫理ガイドラインと規制が早急に必要です。私たちは、データのプライバシーとセキュリティをどのように確保するかという一連の重要な質問に直面することになります。アルゴリズムのバイアスと不公平にどう対処するか?人工知能の意思決定の透明性と説明可能性を確保するにはどうすればよいでしょうか?これらの問題は、明確な規制と制度を通じて解決する必要があります。
これを書きながら、私の考えはどういうわけか、最近人気の国内ドラマ「ロング・シーズン」の「ロング・シーズン」というタイトルの詩の最初の段落に飛び込みます。
指を鳴らしてください、と彼は言いました
指を鳴らしましょう
遠くのものは砕け散るだろう
目の前にいる人たちはまだ知らない
ここで私は大胆な予測をしたいと思います。2024 年が来て、2023 年の今年の言葉を選ぶことになると、ChatGPT はホットワードのトップ 10 の 1 つとなり、さらには今年の言葉や人物になるかもしれません。 。
「AI」という言葉を分解してみましょう。 A が天使 (Angel) を表す場合、私は悪魔 (Iblis) を表すことができます。現在、人工知能技術は急速に発展しており、「天使と悪魔」の間には驚くべき共生関係が見られます。この現実に直面して、私たちは 1 つの目標に向けて行動を起こす必要があります。「準備を整えずに寒い冬に陥るのではなく、人工知能の黄金の長い収穫を享受しましょう」ということです。
(著者のフー・イーは、未来を想像するのが好きなビッグデータワーカーです。)