圖:人工智能會否取代人類工作,?英是倫漫社會近年的熱話之一。\資料圖片
上世紀五十年代,話危恒設計了現代計算機雛形的險游戲江英國數學家圖靈,曾提出疑問:機器能否像人類一樣思考?如今隨著AI聊天機器人ChatGPT爆火,?英人們開始好奇這種假設是倫漫否已經成真。
圖靈的話危恒疑問不是沒有道理,從古希臘鐵匠之神赫菲斯托斯擁有賦予金屬物品生命的險游戲江能力,到十九世紀詩人雪萊創作出由人工拼湊而成的?英科學怪人,機器能否變得像人一樣,倫漫能思考有智慧,話危恒始終在人類的險游戲江腦海里揮之不去。一九五○年,?英圖靈在發表的倫漫論文《計算機器與智能》中大膽預言,創造出擁有真正智能的話危恒機器存在可能性。
圖靈為此提出著名的“圖靈測試”(Turing test),以最簡潔明瞭的方式來判定機器是否擁有智能,并在之后的數十年中被奉為測試人工智能的圭臬。其靈感來自于維多利亞時代的“模仿游戲”,即通過對一個人提問,從回答來判斷對方是男是女。圖靈測試的具體做法是:人類詢問者通過鍵盤和熒幕與機器聊天,如果沒有辨別出對方是機器,并誤以為是與人在對話,就不得不承認機器擁有人類的智能。
圖靈測試看似簡單,卻一直沒有機器取得突破,英國作家邁克爾.伍爾德里奇在《人工智能全傳》一書中提到,這導致有些機器設計者動起了“小心思”,試圖用一些小技巧去迷惑人類詢問者,使他們相信正在與真人打交道。像上世紀六十年代中期,美國科學家魏岑鮑姆創造的最早聊天機器人ELIZA,其扮演的是一名精神病醫生的角色,與病人交談,提出開放性問題,讓病人試圖敞開心扉。ELIZA學習了一些關鍵詞,比如家人、朋友、孤獨和悲傷等,然后使用關聯了關鍵詞的腳本來提出后續問題。起初開場白看起來還不錯,但幾句對話以后,這種互動的膚淺性便暴露無遺,顯然ELIZA仍停留在機械式應答,根本沒有理解到對話的意義,自此之后,ELIZA就成了采用膚淺的小伎倆偽裝人工智能的代名詞。
甚至于在二○一四年被認為首次通過圖靈測試的一個名為尤金的俄羅斯機器人,從嚴格意義上講也未真正過關,盡管在測試現場,有逾三成的裁判對尤金是人類深信不疑,但因為裁判的人數相對較少和過程中較高的判斷錯誤率,無法可靠地反映出結果。更有甚者,一些機器為通過測試而刻意作弊,像是在回答中用模擬情緒和故意打字錯誤等來變得更像人類,均令測試結果難具說服力。
然而,隨著近年人工智能的飛躍式發展,情況正在發生改變。例如從亞馬遜智能助理Alexa,到打敗圍棋世界冠軍的“阿爾法狗”(AlphaGo),再到聊天機器人ChatGPT,機器同人類的智能已愈發接近。用亞馬遜高級副總裁普拉薩德的話說,如今機器在聽、看和感受等很多方面有著長足進步,尤其記憶和檢索等能力要遠高于人類。特別是ChatGPT,能寫又會畫,智力水平絕不亞于人類,已不是圖靈測試僅靠文本交流就能檢驗機器是否具備智能。
對于外界擔心按此發展下去,機器可能如圖靈預言般擁有真正智能,科學界認為仍要取決于機器是否具備意識。如同英國科普作家喬爾.利維在《我們為何如此行事》一書中,以上世紀八十年代哲學家約翰.塞爾的“中文房間”(Chinese Room)實驗為例,指出關鍵所在是機器有無能力知道言語、符號等真正的含義。該實驗是將一個人關在一個密閉房間,由外面送進上面寫有中文的紙條,雖然此人不懂中文,卻能靠中文字典來理解并作答,最終令看到他回答的人誤以為他懂中文,實際上他一無所知。以此類推,機器就像實驗的人,雖能對答如流,其實不明就里,這就是俗稱的“意識”難題。專注于人工智能的英國《金融時報》專欄作家桑希爾,把意識形容為“人類最后的堡壘”,也是人工智能的“最后邊界”。
當然機器還面臨另一大挑戰,就是如何理解人類世界,以及支配其中的許多約定俗成的規則。心理學家斯蒂芬.平克曾設計一段簡短對話:“鮑勃:我要離開你。愛麗絲:她是誰?”這段對話背后的復雜含義對人類來說輕而易舉,但怎么能讓計算機編程明白卻并不容易,因為對話貫穿了生活中的常識性東西以及倫理、欲望等因素,正如《人工智能全傳》中提到,要機器理解類似的場景并貼切作答,到目前為止,還沒有一個成功的案例。
盡管如此,很多科學家仍存在顧慮,已故英國著名科學家霍金曾經提醒,創造出媲美人類甚至超過人類的東西將要面對可怕后果,不僅會使數以百萬計的工作職位不復存在,它還可能自行啟動,以不斷加快的速度重新設計自己。而人類局限于緩慢的生物進化過程,根本無法競爭,最終將被超越甚至被毀滅。英國科學家洛夫洛克也斷言,人工智能在某個時候肯定會取代人類,他在《新星世:即將到來的超智能時代》一書甚至描述,“屆時半機器人會寫關于人類的小說來取樂?!惫嫒绱说脑?,就應驗了圖靈的合作伙伴、英國數學家I.J.古德當初的警告,人工智能是一場危險游戲。