越來越強大的 AI 科技帶來的隱憂不容忽視,如果遭到濫用,則有機會造成毀滅性的風險。OpenAI 有見及此,也成立了一個團隊,專門評估和防範相關的問題,確保 AI 科技不會帶來災難。
OpenAI 宣佈成立的團隊名為「Preparedness(備戰)」,由麻省理工學院的可部署機器學習中心 Center for Deployable Machine Learning) 主任 Aleksander Madry 領導。團隊的主要任務包括追蹤、預測,以及防範未來 AI 系統可能帶來的危險,特別是這些系統在網絡安全範疇的潛在威脅。OpenAI 在說明中提及了不同的風險類別,當中更包括有化學、生物、輻射和核威脅等可怕的危機。
同時,OpenAI 也舉辦挑戰賽邀請開發者社群提交風險研究提案,獲選的開發者不只可以獲得獎金,還有機會加入 Preparedness 團隊。這活動要求參與者思考如果惡意使用者獲得對 OpenAI 某些先進模型不受限制的存取,可能會發生的最壞情況。OpenAI 強調,隨著 AI 模型的能力不斷提升,對全人類的潛在益處增加同時,也帶來了嚴重的風險。因此,他們正在積極發展策略和基礎設施,以確保能夠安全地控制和部署這些高級 AI 系統。
來源:OpenAI