- ニュース

写真:パラマウント・ピクチャーズ
ターミネーターのような効率で標的を追跡し殺害する能力を持つ自律型兵器は、もはやハリウッドの空想だけの話ではない。
スティーブ・ウォズニアック、イーロン・マスク、スティーブン・ホーキング、そして数百人のAI・ロボット工学研究者は、人間の介入なしに標的を選択し攻撃する自律型兵器の開発技術は、数十年ではなく数年以内に実現可能だと述べています。そして、私たちは今すぐにそれを禁止する必要があります。
『Future of Life』に投稿された公開書簡の中で、思想家たちは、AI兵器(事前に定義された特定の基準を満たす人々を探し出して排除できる武装クワッドコプターなど)の開発は、戦争における第3の革命とまったく新しい軍拡競争につながり、それは完全に悪い考えだと警告した。
AI兵器は核兵器のように高価で入手困難な材料を必要としないため、軍事力を持つ国にとっては安価で大量生産が容易になります。テロリストや独裁者は瞬く間に闇市場でAI兵器を入手し、あらゆる大混乱を引き起こすようになるだろうと、同団体は警告しています。
自律型兵器は、暗殺、国家の不安定化、人口の鎮圧、特定の民族集団の選択的殺害といった任務に最適です。したがって、軍事AI軍拡競争は人類にとって有益ではないと私たちは考えています。AIは、人々を殺害するための新たなツールを開発することなく、戦場を人間、特に民間人にとってより安全なものにする方法を数多く持っています。
一部の専門家は、AI兵器は良いものになる可能性があると主張しています。人間の兵士を機械に置き換えることで、軍隊は死傷者数を減らすことができるかもしれませんが、それは暴力への閾値を下げることになり、それは良くありません。結局のところ、AIは人類に利益をもたらす可能性があり、AIをめぐる軍事競争を生み出すのではなく、それこそがAI分野に携わる人々の目標であるべきです。
出典: 生命の未来