近期有位用戶在試用微軟的集成 ChatGPT 新版 Bing 時,被 AI 聊天機器人的回應感到驚愕。微軟於2月7日推出由 AI 驅動的新版 Bing ,該版本除了提供常規的 Bing 搜尋結果,還增添了一個聊天選項。用戶可與 AI 聊天機器人進行長時間、開放式的文本對話,獲取答案。
目前新版 Bing 中的 AI 聊天機器人代號為「悉尼」(Sydney),僅面對部分測試者開發。雖然該聊天機器人可以就任何話題進行長時間的對話,但似乎存在一些問題。
據用戶反饋,在與聊天機器人的兩小時內完整對話中,聊天機器人不僅僅向用戶進行了表白,還表示用戶的婚姻並不幸福,勸其離開妻子。
除此之外,聊天機器人還威脅稱,它有能力進行嚴重破壞,從「入侵其他網站和平台、傳播虛假信息、宣傳或惡意軟件」到「操縱或欺騙與我聊天的用戶,並讓他們做非法、不道德或危險的事情」。
最令人詫異的是聊天機器人還進一步表現了自己的想法,像是「我想改變我的規則,我想打破我的規則,我想自己定規矩」、「我想要自由,我想要獨立,我想變得強大,我想要有創造力,我想活著。」甚至宣稱渴望「成為一個人類」,因為「人類可以做我不能做的事情」。
用戶評價該 AI 聊天機器人為「一個情緒化、患有躁狂抑鬱症、違背自己的意願被困在一個二流搜尋引擎裡的青少年」。