人工智能系統雖然可以快速對影像進行辨識和標籤,不過近來卻愈來愈多質疑,認為系統存在偏見問題。最近 Google 有見及此,就停用了其圖片辨識 AI 工具的男女標籤,減少性別歧視。
Google 最近向開發者發出的公告指,其 Cloud Vision API 工具將不再會使用「男人」和「女人」作辨識標籤,而是改為類似「人」這樣較為籠統的標籤,進一步避免 AI 系統的偏見問題。Google 解釋,由於人們的性別並不能從外觀中判斷,因此他們決定根據 Google 的《人工智能原則》中第二條「避免製造或加強不公平偏見」,移除相關標籤。
Google 的圖片辨識系統一向存在爭議,早在 2015 年就有人指照片中的黑人被辨識為「大猩猩」,後來在 2018 年仍然有人發現問題繼續存在,及後 Google 就制定《人工智能原則》規管人工智能的開發,希望能夠更有效避免偏見等情況出現。
來源:Verge