微信(Wechat) AI 翻譯因自動翻譯不當而陷入種族主義歧視風波。雖然事後,微信公開道歉:「我們非常抱歉不當的翻譯,在收到用戶的反饋後,我們馬上解決了這個問題。」但是還是給微信帶來負面影響。
據悉,一位黑人戲劇總監 Ann James 在向同事傳微信說「她遲到了」,當同事用中文回答的時候,微信自動將信息翻譯成了「The nigger is still late.(黑鬼還是遲到)」。
傳媒測試發現,「黑老外」本身在微信的翻譯是「Black foreigners」(外國黑人),這詞還不算冒犯,但如果當文中帶有「懶惰」、「遲到」、「盜賊」等字眼時,微信會自動把「黑老外」翻譯成有冒犯意味的「nigger」。
微信指出,平台使用的是人工智能翻譯軟件,AI是在經過大量文本訓練後給出翻譯結果,並且至關重要的是,翻譯軟件會充分考慮其上下文,這很有可能會引發誹謗嫌疑(也果真夠知能)。目前AI雖然可以進行學習,但是卻受制於使用者們對AI提供的信息,所以如何讓AI良性成長也是開發者們一直頭痛的事情。
其實業內AI聊天軟件出現問題也是屢見不鮮。微軟此前推出「Tay」的推特線上聊天機器人,也因頻繁爆粗口,內容不乏種族歧視、侮辱女性以及污穢不堪的詞句,而被迫下線,微軟公開道歉。包括 Google 翻譯也曾被種族歧視、翻譯錯誤等類似問題困擾。這樣看來,未來AI機器會比人類更強大,但不會比人類更明智。