2023年10月26日、英国のスナク首相はロンドンで人工知能(AI)に関する講演を行った。 同氏は、各国政府は人工知能がもたらすリスクを真剣に受け止めるべきだと述べた。 (ピーター・ニコルズ/PISCINE/AFP)
英国のリシ・スナック首相は10月26日、ロンドンで人工知能(AI)に関する講演を行った。 同氏はまず、AIは医療などの分野で大きな可能性を秘めており、失明を診断するだけでなく、心臓病、脳卒中、パーキンソン病を予測することもできると主張した。
しかし、スナク氏はAIの問題について国民に深刻な警告を発した。 同氏は、「人間がAIの制御を完全に失う可能性があり、そうなれば極めて深刻な結果が生じるだろう。なぜなら、他の技術の波と同様、AIは新たな知識をもたらすだろうが、同時に新たな危機や新たな恐怖ももたらすからだ」と語った。
同氏はまた、「テロリストや犯罪組織はAIを利用して強力な生物兵器や化学兵器を製造し、サイバー攻撃を実行し、虚偽の情報を広め、詐欺を犯し、さらには児童の性的虐待を行う可能性がある」とも述べた。
しかし、政府がAIを適切に規制し、管理している限り、AIは人々に危険をもたらすことはないとスナク氏は信じている。 同氏は、「現在、政府は人々の安全を守るために新たなAI規制タスクフォースを設立するために1億ポンドを投資している。 »
スナク氏は「AIには国境がない。 英国で開催される「第1回グローバルAIセキュリティサミット」には、より多くの国、ハイテク企業の代表、市民社会が出席し、AIによってもたらされるリスクを管理し、リリースまでAIシステムの安全性を確保する方法を共同で議論する予定だ。
さらに、英国政府は10月25日に「AIの能力とリスク」報告書を発表し、今後18か月(2025年)以内にハッカー、詐欺師、テロリストがAIを利用して罪のない被害者をより安価かつ簡単に攻撃できるようになるだろうと述べている。
人間は意思決定において AI への依存を強めています
悪意を持った人々が AI を利用して悪いことをすることを心配するだけでなく、人間は AI への依存についても心配しています。 多くの人が、テニスの試合での決定、裁判所やオンライン購入および倉庫システムの管轄権、国家的および科学的研究の重要な決定などの問題を処理するために、多くの重要な決定と制御権を AI に委ねています。
この自信は英国首相のスピーチからも伺えます。 その際、スナク氏は英国政府がAI研究や政務用の量子コンピューターの購入に約25億ポンドを投資したと言及した。 その理由は、AI は人間の生活上の問題に対して 100 万もの異なる解決策を提供でき、この量子コンピューターは世界最速のスーパーコンピューターよりも数億倍高速であるためです。
科学者を含む多くの人々は、人間が無制限にAIの開発と依存を続ければ、人間が対処できない状況に陥る可能性があると懸念しており、データ会社プロフュージョンの最高経営責任者(CEO)であるナタリー・クランプ氏も懸念を表明した。 AIについて。
彼女は AI が完全ではないと信じています。 将来的には、映画『ターミネーター』などに見られるような破滅的な状況が人類に起こり、人類は排除の対象とされる可能性が非常に高いです。 現在、AI の短期的な危険は軍事用途にあります。AI はドローンやロボットを遠隔操作できますが、人間に危害を加える行為を行う可能性があるからです。
実際、米国が開発した無人戦闘機F-16やイスラエル兵士が装備する「スマートシューター」、ロシア・ウクライナ紛争で使用されたAIドローンなど、クランプ氏が語った内容はすでに現実となっている。 戦場。 さらに、6月のAIシミュレーションテスト中に、米空軍は、敵施設を破壊する任務を負ったAIドローンが、オペレーターの任務中止の命令を拒否しただけでなく、任務を完了するためにオペレーターを「殺害」したことを発見した。
想像を超えるAIの能力
多くのハイテク企業は、「クラウド コンピューティング」、「大規模データベース」、より強力な「GPU チップ」を組み合わせて、より強力な AI を開発することを望んでいますが、人々は、これによって AI が自分自身を認識したり、深刻な誤動作を引き起こす可能性があると懸念しています。 そして問題点。 、これは取り返しのつかない結果につながります。
米国の有名なノースウェスタン大学の研究チームは、高効率ロボットを自動的に設計する AI の能力に関する論文を 10 月初旬に米国科学アカデミー紀要に発表しました。 このAIは人を怖がらせるほどの「設計能力」を持っており、巨大なデータベースやスーパーコンピュータを使わずに軽量なパソコン上で動作するだけで済みます。
研究チームによると、ユーザーが「平らな面を歩けるロボットを設計して」などの簡単な指示を与えれば、AIはわずか数分でニーズを満たすロボットを設計できるという。 人間や古いAIは訓練と開発に多くの時間を必要とするため、この能力を簡単に獲得することはできません。
これに関して、日本のハイテク企業の徳森翔社長は10月28日、大紀元に対し次のように語った。可能性。 「人間にはどうすることもできない状況。予期せぬ事態が人間の制御を超え、未知の方向へ向かうことは非常に危険です。」
MITの物理学者でAIの専門家でもあるマックス・テグマーク氏は、人間はドードーのような「下等な」種を絶滅させることができると繰り返し述べている。 もし、人間よりも強力で知的な、人間よりも知的な「種」の人工知能が出現したら、その時点で人類の50%が同じ運命を経験することになるでしょう。
スナク氏の演説で言及された生物兵器や化学兵器の製造に使用されるAI技術は、有毒な神経剤を見つけるためにテロリストによって簡単に操作される可能性がある。 以前、英国の薬学者ショーン・イーキンスは、ドキュメンタリー「Unknown: Killer Robots」で、AIが一晩で4万台以上の新しいロボットと極めて致死性の高い化学兵器の分子をどのように作成(計算)できるかを説明した。
世界中の政府がAIによって引き起こされる問題に注目し始めています
AIについて懸念しているのは英国首相だけではない。国連のアントニオ・グテーレス事務総長と日本の岸田文雄首相も10月に同様の懸念を表明した。 彼らは、将来的に AI によってもたらされるリスクと課題に対処するために、新しい AI ルールと対応グループを作成したいと考えています。
彼らを不安にさせる主な理由は、下心を持つ一部の人々が生成 AI を悪用し、大量の偽の画像やメッセージをオンラインに投稿したり、詐欺を働いたりするため、社会に広範な混乱をもたらす可能性があるためです。
オーギュトル氏は10月26日のAIの発展とリスクに関する記者会見で、AIは進歩をもたらす可能性がある一方で、悪意のある目的に利用され、民主主義社会の結束や安定性を弱める可能性があると述べた。 同氏は、AIの急速な発展によってもたらされるリスクと利益に対処するため、AIに関する国連諮問機関の創設を発表した。 同組織は30カ国から39人を選出したが、そのほとんどが大手テクノロジー企業のエンジニアや教授だった。
日本の岸田文雄首相も10月9日に懸念を表明した。 同氏は、生成AIが誤った情報をもたらし、社会混乱を引き起こし、社会経済を脅かすという十分な証拠があると述べた。 このため、政府には「促進」と「規制」のバランスをとることが求められている。
この目的のために、同氏はG7が開発者向けの標準的な生成AIポリシーを開発したと発表した。 このポリシーでは、人工知能の透明性を確保するために、開発者にシステム機能とリスク情報を開示することが求められます。 将来的には、インターネット上の情報の元の発行者を識別するデジタル技術「オリジネーター ファイル (OP)」によって補完される予定です。 一方、日本のIT体制を強化するための「AI基盤技術開発」の新たな施策が10月末に策定される。
今回岸田文雄氏が発表した規制は、日本新聞協会、日本雑誌協会、日本写真著作権協会、日本書籍出版協会の共同でAIに立ち向かう法改正の要請に応えたものと言える。そして8月17日にはAIの悪用を制限する。 可能。
現在、米国はAI技術をより適切に管理するための法案を準備している。 テスラのイーロン・マスク最高経営責任者(CEO)は9月に国会議事堂での非公開会合で上院議員や記者らに対し、AIは社会全体に「文明的リスク」をもたらしており、断固として対応する必要があると語った。 エラーは「重大」です。
デセンシャン氏は、「AIに関する国際的な規制を策定する時期が来た。AIはツールではあるが、その使用は人間の倫理に依存する。したがって、AIが人間の管理から逃れる前に、その使用を規制する必要がある」と述べた。 おそらく標準を開発するのに最適な時期でしょう。
しかし、日本のコンピュータ技術者清原仁氏は10月28日、大紀元に対し、「政府の部門や組織が策定した現在の政策は、実際の問題を解決するのは難しいかもしれない。なぜなら、法律が悪人を実際に制限するのは難しいからである」と語った。 AI を完成させるプロセスには、高い代償が必要になる場合があります。 AIを止めるか、人々の道徳水準を改善しない限り、根本的な問題は効果的に解決されません。
(この記事にはWang Jiayi記者とZhang Zhongyuan記者が寄稿しました)
編集長: リアン・シュファ#
ソーシャルメディア狂信者になりたい。 生涯の思想家。 献身的なベーコンオタク。 腹立たしいほど謙虚なテレビファン。」