凱瑟琳索貝克( Catherine Thorbecke),CNN 商業頻道
2022 年 8 月 20 日更新 2122 GMT
在 1960 年代,一個名為 Eliza 的前所未有的計算機程序試圖模擬與治療師交談的體驗。在當時的一篇研究論文中進行的一次交流中,一個人透露,她的男朋友稱她“大部分時間都很沮喪”。伊麗莎的回答是:“我很遺憾聽到你很沮喪。”
Eliza 被廣泛描述為第一個聊天機器人,但它不像今天的類似服務那樣通用。該程序依賴于自然語言理解,對關鍵詞做出反應,然后基本上將對話返回給用戶。盡管如此,正如創造 Eliza 的麻省理工學院計算機科學家 Joseph Weizenbaum 在 1966 年的一篇研究論文中所寫的那樣,“有些科目很難說服 ELIZA(及其目前的腳本)不是人類。”
根據他在 2008 年麻省理工學院的訃告,對 Weizenbaum 來說,這一事實令人擔憂。那些與 Eliza 互動的人愿意敞開心扉接受它,即使知道這是一個計算機程序。魏岑鮑姆在 1966 年寫道:“ELIZA 表明,創造和維持理解的錯覺是多么容易,因此也許是值得信賴的判斷。”“其中潛伏著某種危險。” 他在職業生涯的最后時刻警告不要給機器過多的責任,并成為對人工智能的嚴厲、哲學批評。
近 60 年后,市場上充斥著來自科技公司、銀行、航空公司等不同質量和用例的聊天機器人。在許多方面,Weizenbaum 的故事預示了這項技術仍然存在的炒作和困惑。程序與人類“聊天”的能力繼續讓一些公眾感到困惑,造成機器更接近人類的錯誤感覺。
今年夏天早些時候,在一位谷歌工程師聲稱這家科技巨頭的人工智能聊天機器人LaMDA 是“有感覺的”之后,這在媒體報道的浪潮中得到了體現。根據華盛頓郵報的報道,這位工程師表示,在與聊天機器人討論宗教和人格之后,他被說服了。報告。他的說法在人工智能界受到了廣泛批評。
甚至在此之前,我們與人工智能和機器的復雜關系在《她》或《機械姬》等好萊塢電影的情節中就已經很明顯了,更不用說與那些堅持對語音助手說“謝謝”的人進行無害的辯論了,比如Alexa 或 Siri。
Eliza 被廣泛描述為第一個聊天機器人,但不像今天的類似服務那樣多才多藝。它對關鍵詞做出反應,然后基本上將對話返回給用戶。
當代聊天機器人在不能按預期工作時也能引起用戶強烈的情緒反應或者當他們變得如此擅長模仿他們接受過的有缺陷的人類語言時,他們開始吐出種族主義和煽動性的評論。例如,Meta 的新聊天機器人本月沒過多久就在與用戶的對話中大肆發表不真實的政治評論和反猶太言論,從而引發了一些爭議。
即便如此,這項技術的支持者認為它可以簡化客戶服務工作并提高更廣泛行業的效率。這項技術支撐著我們許多人每天使用的數字助理來播放音樂、訂購送貨或檢查家庭作業的事實。有些人還為這些聊天機器人提供了案例,為孤獨、年老或孤立的人提供了安慰。至少有一家初創公司甚至將其用作一種工具,通過根據上傳的聊天創建計算機生成的死去親屬的版本,從而使死去的親人看起來還活著。
與此同時,其他人警告說,人工智能驅動的聊天機器人背后的技術仍然比一些人希望的要有限得多。人工智能研究員、紐約大學名譽教授加里馬庫斯說:“這些技術非常擅長偽裝人類,聽起來像人類,但它們并不深入。” “他們是模仿者,這些系統,但他們是非常膚淺的模仿者。他們并不真正理解他們在說什么。”
盡管如此,隨著這些服務擴展到我們生活的更多角落,并且隨著公司采取措施使這些工具更加個性化,我們與它們的關系也可能只會變得更加復雜。
聊天機器人的演變
Sanjeev P. Khudanpur 記得在研究生院時與 Eliza 聊天。盡管它在科技行業具有歷史意義,但他說很快就看到了它的局限性。
它只能令人信服地模仿文本對話大約十幾次來回,然后“你意識到,不,它并不聰明,它只是試圖以一種或另一種方式延長對話,”該領域的專家 Khudanpur 說。信息論方法在人類語言技術中的應用,約翰霍普金斯大學教授。
2005 年 5 月,Eliza 的發明者 Joseph Weizenbaum 坐在德國帕德博恩計算機博物館的電腦桌面前
另一個早期的聊天機器人由斯坦福大學的精神病學家 Kenneth Colby 于 1971 年開發,并命名為“Parry”,因為它旨在模仿偏執型精神分裂癥患者。(《紐約時報》2001 年的 Colby訃告中包含了一段豐富多彩的聊天,研究人員將 Eliza 和 Parry 帶到了一起。)
然而,在這些工具之后的幾十年里,“與計算機對話”的想法發生了轉變。Khudanpur 說這是“因為事實證明這個問題非常非常困難”。相反,重點轉向“以目標為導向的對話”,他說。
要了解差異,請考慮您現在與 Alexa 或 Siri 的對話。通常,您會向這些數字助理尋求購買機票、查看天氣或播放歌曲的幫助。這是面向目標的對話,隨著計算機科學家試圖從計算機掃描人類語言的能力中收集有用的信息,它成為學術和行業研究的主要焦點。
雖然他們使用與早期社交聊天機器人類似的技術,但 Khudanpur 說,“你真的不能稱它們為聊天機器人。你可以稱它們為語音助手,或者只是幫助你執行特定任務的數字助手。”
他補充說,在互聯網被廣泛采用之前,這項技術經歷了長達數十年的“停滯”。“重大突破可能發生在這個千年,”Khudanpur 說。“隨著成功使用計算機化代理執行日常任務的公司的興起。”
隨著 Alexa 等智能揚聲器的興起,人們與機器聊天變得更加普遍。
Khudanpur 說:“當他們的包丟失時,人們總是很沮喪,處理他們的人類代理人總是因為所有的消極情緒而感到壓力很大,所以他們說,‘讓我們把它交給電腦吧’。” “你可以對著電腦大喊大叫,它只想知道‘你有你的標簽號碼,這樣我就可以告訴你你的包在哪里嗎?’”
例如,2008 年,阿拉斯加航空公司推出了“Jenn”,這是一款幫助旅行者的數字助理。作為我們傾向于將這些工具人性化的一個標志,《紐約時報》對該服務的早期評論指出:“Jenn 并不討厭。在網站上,她被描繪成一個微笑的年輕黑發女郎。她的聲音有適當的“
社交聊天機器人和社會問題
在 2000 年代初期,研究人員開始重新審視社交聊天機器人的開發,這種機器人可以與人類進行廣泛的對話。這些聊天機器人經常接受來自互聯網的大量數據的訓練,并且已經學會了非常好地模仿人類的說話方式但它們也冒著與互聯網最糟糕的部分相呼應的風險。
例如,在 2015 年,微軟對一個名為 Tay 的人工智能聊天機器人的公開實驗在不到 24 小時內就崩潰并燒毀了。Tay 被設計成像青少年一樣說話,但很快就開始發表種族主義和仇恨言論,以至于微軟將其關閉。(該公司表示,人類也采取了協調一致的努力來誘騙 Tay 發表某些冒犯性的言論。)
微軟當時表示:“你與 Tay 聊天的次數越多,她就越聰明,因此對你的體驗可以更加個性化。”
其他發布公共聊天機器人的科技巨頭將重復這種說法,包括本月早些時候發布的 Meta 的 BlenderBot3。Meta聊天機器人錯誤地聲稱唐納德特朗普仍然是總統,并且“肯定有很多證據”表明選舉被盜,以及其他有爭議的言論。
BlenderBot3 也自稱不僅僅是一個機器人。在一次對話中,它聲稱“我現在還活著并且有意識的事實使我成為人類。”
Meta 的新聊天機器人 BlenderBot3 向用戶解釋了為什么它實際上是人類。然而,沒過多久,聊天機器人就通過發表煽動性言論引發了爭議。
盡管自 Eliza 以來取得了所有進步,以及訓練這些語言處理程序的大量新數據,紐約大學教授馬庫斯說:“我不清楚你是否真的可以構建一個可靠且安全的聊天機器人。”
他引用了 2015 年Facebook 的一個名為“M”的項目,這是一個自動個人助理,應該是該公司對 Siri 和 Alexa 等服務的基于文本的答案點一份浪漫的晚餐,讓音樂家為你演奏,送花這遠遠超出了 Siri 的能力,”馬庫斯說。相反,該服務在 2018 年因運行不佳而被關閉。
另一方面,Khudanpur 仍然對其潛在用例持樂觀態度。“我對人工智能將如何在個人層面賦予人類權力有完整的愿景,”他說。“想象一下,如果我的機器人可以閱讀我所在領域的所有科學文章,那么我就不必全部閱讀,我只需思考、提問并進行對話,”他說。“換句話說,我將擁有另一個自我,擁有互補的超級大國。”