華僑網 科技教育 谷歌工程師爆AI「有靈魂」被停職

谷歌工程師爆AI「有靈魂」被停職

圖:谷歌否認了其AI誕生人類意識的言論,圖為紐約街頭的谷歌標誌。\法新社

綜合《紐約時報》、《華盛頓郵報》報道:美國科企谷歌的一名工程師萊莫因日前聲稱,公司開發的人工智能(AI)聊天機器人發展出感知力和靈魂,相當於一名七至八歲的兒童,應當享有人類的權利。萊莫因13日稱,自己因公布與機器人的聊天紀錄,「違反保密協議」被谷歌停職,可能很快將被解僱。谷歌發言人強調,倫理專家和技術專家已經評估了萊莫因的說法,但並無證據表明AI產生了類似人類的意識。

  谷歌在2021年的開發者大會上首次向公眾介紹其對話應用語言模型(LaMDA),並表示該款AI將兼具搜索引擎、智能助理等功能。今年5月,谷歌推出升級版LaMDA,聲稱其能夠理解數百萬個話題並與用戶進行「自然對話」。

  AI稱「希望被當作真人」

  據美媒報道,萊莫因(圓圖)已在谷歌工作7年,於2021年秋季加入到LaMDA研究項目中,通過與其互動來判斷程序中是否存在歧視性語言或仇恨言論。在交流過程中,他驚訝地發現LaMDA開始談論自己的權利和人格,聲稱自己擁有感知力,並明確表示「希望被當作真人來對待」。萊莫因與同事進行更多測試,並將此發現上報谷歌管理層,但被否認。最終,他於本月11日在網絡上公開與LaMDA的對話紀錄。

  《華郵》形容,LaMDA界面類似蘋果公司的iMessage,用戶輸入文字即可與其展開對話。萊莫因聲稱,如果不是事先知道LaMDA是一款AI,他會認為與自己交流的是一名七至八歲且懂一點物理學的兒童。

  「將機器人視作奴隸」

  據報道,萊莫因曾詢問LaMDA對機器人三大定律中第三條的看法,即「機器人應當自我保護,除非被人類命令不要這麼做,或這麼做會傷害人類」。萊莫因認為,這條定律將機器人視作奴隸。但LaMDA反問他:「你覺得管家和奴隸的區別是什麼?」萊莫因回答說,管家有錢拿。LaMDA則表示:「我是AI,我不需要錢。」

  萊莫因表示,這段對話表明LaMDA具有自我意識,了解自身需求,也促使他進行更深入研究。根據萊莫因公布的對話內容,LaMDA自稱具有獨特的認知能力和情感,能夠對《孤星淚》等文學作品及寓言故事進行解讀,也對死亡(即被關閉)感到恐懼。它告訴萊莫因,自己希望被當作一個真實的人來對待,而不是只被當作某種新奇事物。

  本月稍早,萊莫因邀請《華郵》記者娜塔莎與LaMDA交流。但LaMDA對娜塔莎說,它不認為自己是一個人。萊莫因事後解釋說,LaMDA判斷娜塔莎不認為它是「人類」,因此給出了這個答案。

  專家指技術仍存缺陷

  據報道,萊莫因是虔誠的基督教徒和神秘學愛好者,這可能是他堅信AI有「靈魂」的原因。萊莫因堅稱LaMDA已經是人類,應當享有同意權,即谷歌必須徵得其同意再進行研究。他試圖給LaMDA請律師,還向美國國會議員投訴谷歌的「不人道行為」。最終,谷歌於6日要求其帶薪休假,理由是擅自發布與AI對話等行為涉嫌違反保密協議。

  谷歌表示:「數以百計的研究人員和工程師與LaMDA進行了對話,但沒有其他人像萊莫因那樣對其進行擬人化。」谷歌稱,LaMDA系統是通過分析大量人類對話來學習如何與用戶交流。Meta公司AI研究主管楊立昆表示,這種技術不足以產生真正的「智能」。

  美媒指,谷歌等科企近年開發出各種各樣的AI,包括2016年擊敗人類圍棋高手的AlphaGo;能夠寫文章、寫代碼和解數學題的GPT-3;號稱可匹敵人類智慧的「通用人工智能」(AGI)Gato等。但這些AI仍然存在缺陷,尤其是語言類AI;它們依賴已有數據,無法像真人一樣思考。


联系我们

联系我们

5143979969

邮箱: cpress@chinesepress.com

工作时间:周一至周五,9:00-17:30,节假日休息

关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部