KHAKREZ, AFGHANISTAN - JULY 08: U.S. Army Specialist Nathaniel Anselmo from Churchtown, Pennsylvania with Task Force Thor Route Clearance Patrol, 23rd Engineering Company, Airborne makes repairs to a remote contolled robot called "Talon" before departing on a route clearance mission July 8, 2010 in Khakrez, Afghanistan. The U.S. Army route clearance unit uses specialized equipment to seek out improvised explosive devices (IED) on roads throughout Afghanistan to prevent military patrols and civilians from being hit by the homemade roadside bombs that have injured and killed hundreds of NATO troops and locals. (Photo by Justin Sullivan/Getty Images)
26個國家的116位AI人工智能研究學者,包括SpaceX與Tesla總裁Elon Musk,還有Google AI部門始創人之一Mustafa Suleyman聯署公開信,要求全球更嚴謹地檢視有關於自主性武器「殺手機械人」(Killer Robots),這個小組希望喚起各國注意,禁用這些有機會被不法分子破解,而被利用於恐佈襲擊的機械人。
聯合國裁軍事務廳的《特定常規武器公約》亦準備對擁有大殺傷力的機械人進行監管。而在這封由專家小組發出的公開信中,警告有關機械人武器的安全風險,需要即時而有力的監管。他們擔心一旦開始發展,致命自主武器(Lethal Autonomous Weapons)的規模、發展速度會快得令人類難以完全控制。這些武器將會被恐佈襲擊所利用,一些獨裁政權亦會用以殺害無辜平民。武器有機會被駭客入侵,失去控制下帶來嚴重後果。信中指出人類沒有太多時間去行動,當潘多拉盒子一被打開,要把它關上會是極為困難。
聯署者還包括了丹麥的Universal Robotics、加拿大的Element AI,還有法國的Albebaran Robotics公司的代表。
公開信中專家們認為,能有獨立思考的「致命自主武器系統」,應該在1983年制定的《特定常規武器公約》中加入。此公約規限各國使用地雷、生物武器、化學武器、對人使用雷射武器等等。
在世界上已經有不少遙距控制的武器被使用,包括攻擊性的無人機,還有導彈防禦系統等等。在南韓配置的SGR-A1步兵槍械,都被指有自主控制的改裝能力。
專家們關心是否可從國際規範當中完全禁止這些「殺手機械人」。專家們會在21號於澳洲悉尼舉行的國際人工智慧聯合會議中,正式向全世界發表這封信。
資料來源: Fortune