現在的人工智能不只能夠處理複雜的指令,還可以透過對話來學習新的事物,提升處理能力。最近 Microsoft 在 Twitter 上開放的 AI 對話機械人,卻因為太快被教壞,被緊急收起。
這個人工智能對話機械人 Tay,可以自動在 Twitter 上回應網民的留言,而且能夠自動從對答之中學習新的資訊,改變自己的對答方式。Microsoft 最初形容這個人工智能性格像十多歲的女生,非常活潑,而推出這個對話機械人,是為了改善自家語音辨識技術,學習更流暢的對答之用。不過推出之後大量網民開始不斷跟她聊一些敏感話題,結果不足一天,她已經變成會口出狂言的人工智能,例如讚揚希特拉、大談黃色話題等等。
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— gerry (@geraldmellor) March 24, 2016
有見及此,Microsoft 已經終止了這個實驗,暫停回應網民的 Tweet。今次事件顯然 Microsoft 是放手讓 Tay 自由接收新資訊並隨之而改變,沒有加入什麼篩選器避免敏感話題,但同時也顯示了如果放任人工智能在網上學習,得到的結果可能只是集合了人類的陰暗面,難怪不少科幻片中的人工智能都有一點反人類的性格了。
來源:Telegraph