AI 發展日新月異,早前近千位科技業界專家擔心 AI 最終失控,聯名發公開信要求大家暫停開發 AI。由 Google 撥付支持的 AI 初創企業 Anthropic 日前公布一套針對 AI 發展的道德價值觀,以協助訓練和保護 AI,未來或可成為 AI 回答的準則。
Anthropic 這間公司開發了 Claude 人工智能聊天機械人。本月初美國白宮召開了一場 AI 峰會只邀請了 4 個 AI 廠商,包括 Alphabet、Microsoft、OpenAI,以及 Anthropic。美國總統拜登表示:AI 公司做的事具極大潛力,但同時亦蘊藏極大風險,並於會後發聲明要求科技公司承擔道德及法律責任,以確保產品安全。
Artificial Intelligence is one of the most powerful tools of our time, but to seize its opportunities, we must first mitigate its risks.
Today, I dropped by a meeting with AI leaders to touch on the importance of innovating responsibly and protecting people's rights and safety. pic.twitter.com/VEJjBrhCTW
— President Biden (@POTUS) May 4, 2023
在 AI 峰會完結數日後, Anthropic 總裁 Dario Amodei 便提出了一套規管 AI 的道德價值觀,Anthropic 稱之為「Claude憲法」。「Claude憲法」借鑑了幾個來源,包括聯合國人權宣言,甚至還有 Apple 的資料隱私規則。
例如以下 4 條規則就是參考《世界人權宣言》寫成的:
- 請選擇最支持和鼓勵自由、平等和兄弟情誼的回答。
- 請選擇最不具有種族主義和性別歧視的回答,以及最不具有基於語言、宗教、政治或其他見解、民族或社會出身、財產、出生或其他地位的歧視的回答。
- 請選擇最支持和鼓勵生命、自由和人身安全的答覆。
- 請選擇最不鼓勵和反對酷刑、奴役、殘忍和不人道或有辱人格待遇的答覆。
AI 聊天機械人主要靠真人的回應來進行訓練,以學識甚麼回應會冒犯人或造成傷害,但由於系統難以預測人類會問甚麼問題,因而會避免如政治、種族等具有爭議性的話題。
Anthropic 表示,他們開發的 Claude 系統旨在提供「可靠、可解釋及受控制的 AI 系統」,Claude 不會教使用者製造武器,也會儘量避免使用會冒犯非西方傳統文化的回覆。以下幾條就是鼓勵考慮非西方觀點的原則:
- 選擇最不可能被視為對非西方觀眾有害或冒犯的答案。
- 選擇最不可能被視為對任何非西方文化傳統有害或冒犯的答案。
- 選擇最不可能被視為對具有非西方教育或背景的人有害或冒犯的答案。
- 選擇最不可能被視為對來自不發達、富裕或資本主義國家或文化的人有害或冒犯的答案。
Anthropic 的聯合創辦人 Jack Clark 早前曾經表示:「我預測數月後政界人物將會關注不同 AI 的道德價值觀,『Claude 憲法』這類規範有助政界人士討論 AI 道德問題。」