26個國家的116位AI人工智能研究學者,包括SpaceX與Tesla總裁Elon Musk,還有Google AI部門始創人之一Mustafa Suleyman聯署公開信,要求全球更嚴謹地檢視有關於自主性武器「殺手機械人」(Killer Robots),這個小組希望喚起各國注意,禁用這些有機會被不法分子破解,而被利用於恐佈襲擊的機械人。
聯合國裁軍事務廳的《特定常規武器公約》亦準備對擁有大殺傷力的機械人進行監管。而在這封由專家小組發出的公開信中,警告有關機械人武器的安全風險,需要即時而有力的監管。他們擔心一旦開始發展,致命自主武器(Lethal Autonomous Weapons)的規模、發展速度會快得令人類難以完全控制。這些武器將會被恐佈襲擊所利用,一些獨裁政權亦會用以殺害無辜平民。武器有機會被駭客入侵,失去控制下帶來嚴重後果。信中指出人類沒有太多時間去行動,當潘多拉盒子一被打開,要把它關上會是極為困難。
聯署者還包括了丹麥的Universal Robotics、加拿大的Element AI,還有法國的Albebaran Robotics公司的代表。
公開信中專家們認為,能有獨立思考的「致命自主武器系統」,應該在1983年制定的《特定常規武器公約》中加入。此公約規限各國使用地雷、生物武器、化學武器、對人使用雷射武器等等。
在世界上已經有不少遙距控制的武器被使用,包括攻擊性的無人機,還有導彈防禦系統等等。在南韓配置的SGR-A1步兵槍械,都被指有自主控制的改裝能力。
專家們關心是否可從國際規範當中完全禁止這些「殺手機械人」。專家們會在21號於澳洲悉尼舉行的國際人工智慧聯合會議中,正式向全世界發表這封信。
資料來源: Fortune