今年的圖靈獎歪玲,與你的隱私息息相關(guān)
圖靈測試是人工智能的標(biāo)準(zhǔn)嗎雀彼?圖靈本人可沒這么說
圖靈本意并非如此...一篇文章澄清人們對圖靈以及「人工智能」的誤解
編者按:本文經(jīng)「賽先生」公眾號授權(quán)發(fā)布滋将,作者王培(美國天普大學(xué)計算機與信息科學(xué)系副教授)捏悬,他在本文中指出:人們將圖靈提出的「圖靈測試」作為人工智能的標(biāo)準(zhǔn)或定義屑彻,并將圖靈稱為「人工智能之父」是一種誤解验庙,并從多個角度對這一誤解以及人工智能的概念進行了澄清。
隨著人工智能成為熱門話題社牲,「圖靈」(Alan M. Turing粪薛,1912.6.23~1954.6.7)這個名字也逐漸廣為人知。一個常見的說法是把他提出的「圖靈測試」作為人工智能的標(biāo)準(zhǔn)或定義搏恤,并以此為由稱他為「人工智能之父」违寿。我下面要反駁這種說法,理由是:
(1)這個說法不符合人工智能的史實熟空;
(2)把圖靈測試作為人工智能的定義是不恰當(dāng)?shù)模?/p>
(3)其實圖靈本人并不是這個意思陨界。
我無意貶低圖靈對人工智能的重大貢獻,只是試圖澄清一些誤解痛阻,并指出這些誤解在當(dāng)前人工智能討論中所造成的問題菌瘪。我不希望這些問題被錯誤地算在圖靈名下。
圖靈和人工智能到底是什么關(guān)系阱当?
圖靈大概是最早認識到「計算機」除了完成數(shù)值計算之外還能從事其它智力活動的人之一俏扩,并且是第一個對此進行了系統(tǒng)思考和深入分析的。有證據(jù)表明弊添,他早在 1941 年就開始考慮在計算機上實現(xiàn)「智能」(或者說「思維」录淡,在此次討論中這兩個詞差別不大)的可能性了,并在 1948 年寫了以「智能機器」為題的報告油坝,盡管他最廣為人知的有關(guān)著述是在 1950 年發(fā)表的《計算機器與智能》[1]嫉戚。
在這篇歷史文獻中,圖靈開宗明義地要大家考慮機器是否能思維的問題澈圈。為了避免「思維」一詞在解釋上的混亂彬檀,他主張只要計算機在語言行為(對話)上和人沒有明顯差別,就應(yīng)該算是「能思維」或「有智能」了瞬女。這就是后來所稱的「圖靈測試」窍帝。他認為可以編制一個「兒童」程序,然后對其進行教育以達到成人的智力水平诽偷。圖靈自己在 1948 年曾和朋友合作設(shè)計過一個國際象棋程序坤学,但在他 1954 年去世之前沒能把他關(guān)于智能機器的設(shè)想充分展開疯坤。
「人工智能」作為一個研究領(lǐng)域,公認是在1956 年夏的達特茅斯會議上形成的深浮。這個只有十來個人參加的會議不但給這個領(lǐng)域取了名压怠,而且涌現(xiàn)了其主要奠基人:麥卡錫、明斯基飞苇、紐維爾刑峡、司馬賀。這四個人玄柠,以及他們分別在斯坦福突梦、麻省理工、卡內(nèi)基梅隆建立的研究中心羽利,主導(dǎo)了這個領(lǐng)域前幾十年的研究方向宫患。他們遠比圖靈更有資格被稱為「人工智能之父」挑围,而圖靈更適合被稱為「先行者」松申。
比名號更重要的是:這幾位對智能的理解和圖靈有重要的差別。他們當(dāng)中沒有一個是以「通過圖靈測試」作為自己研究工作的目標(biāo)的围来,并且都或明或暗地對這個測試表示過不以為然匾浪。在達特茅斯會議的計劃書中皇帮,人工智能問題被說成讓計算機的行為符合人們對智能行為的認識。以此為起點蛋辈,主流人工智能一直是以「讓計算機解決那些人腦能解決的問題」為工作定義和劃界標(biāo)準(zhǔn)的属拾,而并不要求系統(tǒng)的具體行為和人不可區(qū)分。以計算機圍棋為例冷溶,「把棋下好」和「把棋下的和人下的一樣」是兩個不同的研究目標(biāo)渐白。出于這種考慮,在主流人工智能文獻中提到圖靈測試時逞频,一般都是只承認其歷史價值纯衍,而否認其對研究工作的現(xiàn)實指導(dǎo)意義的。就在不久前苗胀,世界上最大的人工智能協(xié)會 AAAI 的機關(guān)刊物《人工智能雜志》的 2016 春季號還出了一期尳笾睿刊來討論圖靈測試的各種替代方案。
以通過圖靈測試為目標(biāo)的對話程序一般稱為「chatbot」 基协。這個詞和機器人(robot)一詞相近歌亲,故常被譯作「聊天機器人」,但其實應(yīng)當(dāng)譯作「聊天程序」堡掏,因為它們都是專用軟件应结,而非專用硬件。這類工作在歷史上長期被大部分人工智能研究者視為旁門左道或嘩眾取寵泉唁,其中最著名的例子的是魏增鮑姆在 1966 年編寫的「伊莉莎」(ELIZA)鹅龄。這個程序只憑一些簡單的花招就使得很多使用者相信他們是在和一個人對話,以至于后來產(chǎn)生了「伊莉莎效應(yīng)」這個概念亭畜,專指一個計算機系統(tǒng)的使用者和觀察者以擬人化的思路解釋系統(tǒng)的行為扮休,因此賦予了該系統(tǒng)許多它本來根本不具有的品質(zhì)。這種現(xiàn)象在對「AlphaGo」的評論中又一次得到了充分展現(xiàn)拴鸵。
近來玷坠,主要拜深度學(xué)習(xí)所賜,聊天程序的研發(fā)終于被接納成了主流人工智能的一部分劲藐,而圖靈測試在這個領(lǐng)域中自然是一個恰當(dāng)?shù)臉?biāo)準(zhǔn)八堡。但盡管如此,這個標(biāo)準(zhǔn)也不能推廣到人工智能的其它子領(lǐng)域聘芜。因此兄渺,至今以通過圖靈測試為目標(biāo)的工作仍只占人工智能領(lǐng)域中很小的一部分。
圖靈測試哪里不對了?
反對圖靈測試的意見來自若干不同的方向汰现。
主流人工智能既然是以「解決那些人腦能解決的問題」為目標(biāo)挂谍,自然是要「解題能力」越高越好,而不在乎「解題行為」是否和人一樣瞎饲。如果對某個問題有更適合計算機的解決辦法口叙,那為什么還一定要像人腦那樣做呢?圖靈已經(jīng)預(yù)料到嗅战,要通過他的測試妄田,計算機要會裝傻和撒謊才行,因為在某些方面(如算數(shù))能力太強就不像人了驮捍。《人工智能雜志》屝瓮ィ刊所提到的替代圖靈測試的主要理由也是它往往鼓勵系統(tǒng)采用欺騙手段,而非真正展現(xiàn)其認知能力厌漂。
香農(nóng)(對萨醒,就是創(chuàng)建信息論那位)和麥卡錫在1956 年的一篇文章中提出圖靈測試的缺點是:「在原則上」它可以通過查一張列出所有問題和相應(yīng)答案的清單來做到,因此和我們關(guān)于思維的直觀不符苇倡。具有諷刺意味的是富纸,隨著計算機硬件的發(fā)展,現(xiàn)在的一些「智能系統(tǒng)」的確是按這個「原則」構(gòu)建的旨椒。哲學(xué)家塞爾的「中文屋」思想試驗也是假定一個計算機可以用這個平淡無奇的辦法通過圖靈測試晓褪,而他以此論證真正的(強)人工智能不可能實現(xiàn)。
我自己的研究目標(biāo)既非再現(xiàn)人類行為拔莱,也非達到或超越人類問題求解能力碗降,而是讓計算機遵循人所體現(xiàn)的信息加工原則。我認為這個原則就是「在知識和資源不足時適應(yīng)環(huán)境」(詳見《人工智能:何為『智』塘秦?》這篇文章)讼渊,而其它具體的「思維規(guī)律」都是建立在這個基礎(chǔ)上的。根據(jù)這個原則尊剔,一個智能系統(tǒng)的行為(輸出)依賴于它的經(jīng)驗(輸入)爪幻。由于一個人工智能系統(tǒng)不會有和人類完全相同的經(jīng)驗,它就不會有和人類完全相同的行為赋兵,即使其輸入-輸出關(guān)系和人的基本一樣笔咽。因此,我的系統(tǒng)不是以通過圖靈測試為目標(biāo)的霹期。比如說叶组,它對一個問題的回答取決于系統(tǒng)自身對此問題知道些什么,而不是一個普通人對此問題知道些什么历造。
圖靈錯了嗎?
在這個問題上最令人哭笑不得的一點是:圖靈從來沒有建議過把他的測試作為「思維」或「智能」的定義甩十。
盡管圖靈的文章《計算機器與智能》被廣泛引用,但很多人可能只看了他開頭介紹「模仿游戲」(即后來被稱為「圖靈測試」)的那一部分吭产。我這么說是因為他的下面一段話很少被提到:
「難道機器不會做某些應(yīng)該被說成思維但和人所做的很不同的事嗎侣监?這是個很有力的反對意見,但我們至少可以說臣淤,如果能夠成功地玩模仿游戲的機器可以被構(gòu)造出來橄霉,我們無需為這種反對意見而煩惱∫亟」
這段話說的很明白:圖靈把通過他的測試作為「能思維」的充分條件姓蜂,而非充分必要條件(也就是定義)。這就是說和人行為一樣必是能思維医吊,但和人行為不同也未必就不算思維钱慢。在 1952 年參加 BBC 的一個廣播節(jié)目時,圖靈明確表示他沒有試圖給「思維」下一個定義卿堂,而只是想在人腦諸多性質(zhì)之間「劃一條線」束莫,來區(qū)分那些智能機器需要具有的和那些不需要具有的[2]懒棉。
既然圖靈沒有給「思維」或「智能」下定義,而人工智能的領(lǐng)軍人物們也沒有接受這個測試览绿,那「圖靈測試是人工智能的定義」是誰說的呢策严?這大致是一些對人工智能半懂不懂的人士的貢獻,而好萊塢也難逃其咎挟裂。一旦這個簡單易懂的說法傳播開來享钞,大概誰也拿它沒有辦法了揍诽,更不要說圖靈英年早逝诀蓉,沒機會反復(fù)辟謠了。
綜上所述暑脆,在主流人工智能歷史上渠啤,圖靈測試從未被接受為標(biāo)準(zhǔn)或定義,而圖靈也不是人工智能主流研究規(guī)范的奠基人添吗,盡管他的觀點的確對很多人產(chǎn)生了不同程度的影響沥曹。圖靈測試的弊端是「和人的行為完全一樣」不應(yīng)被當(dāng)作「智能」的必要條件。雖然實際上圖靈從來也沒有這個意思碟联,他的文章的確給了不少人這種誤解妓美。
盡管如此,我仍認為圖靈對人工智能做出了巨大的貢獻鲤孵。這體現(xiàn)在下列方面:
- 他是最早明確指出「思維」和「智能」可能在計算機上實現(xiàn)的人壶栋,并且清醒地看出智能機器不會和人在一切方面都相同。比如在《計算機器與智能》中普监,他認為一個智能機器可能沒有腿或眼贵试,這就是說一個靠輪子運動和靠聲納感覺的機器人完全可能有智能。與此相反凯正,至今仍有不少人以為真正實現(xiàn)人工智能的唯一辦法是全面地毙玻、忠實地復(fù)制人的一切。盡管圖靈測試把這條線畫的離人太近廊散,但總是一個有意義的開端桑滩。
- 在《計算機器與智能》中,他分析并駁斥了 9 種對思維機器的反對意見允睹。從那時(1950)至今运准,對人工智能的反對意見層出不窮,但細細看來都不出他的預(yù)料擂找,只是具體表述「與時俱進」了而已戳吝。盡管圖靈當(dāng)年的反駁沒有徹底解決問題,他的預(yù)見性仍令人驚嘆贯涎。就沖這一點听哭,他的文章就沒有過時。
- 他認為我們應(yīng)當(dāng)設(shè)計一個通用學(xué)習(xí)系統(tǒng),并通過教育使其擁有各種具體技能陆盘。與此相反普筹,主流人工智能系統(tǒng)的能力仍主要來自于初始設(shè)計,即使目前的「機器學(xué)習(xí)」也僅限于某種特定的學(xué)習(xí)過程(詳見《計算機會有超人的智能嗎隘马?》)太防。如果他沒有那么早去世,人工智能可能會有一條不同于達特茅斯諸君所引領(lǐng)的路線酸员。
在我看來蜒车,圖靈的主要局限是沒有看到軀體和經(jīng)驗對概念和信念的重要影響。一個沒有腿和眼的機器人完全可以有智能幔嗦,但是不會有和人類完全相同的思想酿愧,因此也就不會有和人類完全相同的行為,即使我們只關(guān)注其語言行為也是如此邀泉。如果這個系統(tǒng)的智力足夠高嬉挡,它的確可能靠對人類的知識通過圖靈測試(所以這個測試可以作為智能的充分條件),但這不應(yīng)該是我們說它有智能的唯一依據(jù)汇恤。
和我們有什么關(guān)系嗎?
以上分析的目的不僅僅是澄清歷史事實庞钢,更是要據(jù)此評說目前的狀況。
把圖靈測試作為人工智能的標(biāo)準(zhǔn)或定義直接導(dǎo)致了對這一領(lǐng)域成果評價的片面化因谎、膚淺化基括、娛樂化。既然一個計算機系統(tǒng)不可能在所有方面同等水平地和人相像蓝角,那么聚焦于其外在行為的似人程度就意味著忽略其內(nèi)在機制的似人程度阱穗。在最近的新聞和討論中不難發(fā)現(xiàn)這一傾向的種種表現(xiàn):
- 以聊天程序的蒙人水平來評價其智力,
- 以人的智商標(biāo)準(zhǔn)來評估計算機智力發(fā)展水平使鹅,
- 以高考成績來衡量計算機智能揪阶,
- 以在作曲或繪畫上「以假亂真」的本事來體現(xiàn)人工智能的創(chuàng)造力,
- 以似人的「面部表情」或「肢體動作」來表現(xiàn)機器的「感情」患朱。
這些工作不能說毫無意義鲁僚,但仍是主要靠伊莉莎效應(yīng)來贏得承認,即靠觀眾想「只有聰明人能這么做裁厅,現(xiàn)在這個計算機做到了冰沙,所以它一定聰明」,而完全忽略這些行為在計算機中的產(chǎn)生機制执虹,尤其是它們和系統(tǒng)設(shè)計拓挥、以往經(jīng)歷、當(dāng)前情境等因素的關(guān)系袋励。比如說侥啤,盡管有理由認為一個人工智能系統(tǒng)可能有情感機制和審美能力(詳情以后再說)当叭,那也不意味著它注定會「美我們之所美」、「愛我們之所愛」盖灸。賈府上的焦大是不愛林妹妹的蚁鳖,但這不說明他沒有愛憎。實際上如果他表現(xiàn)出愛她赁炎,那反而不是真感情了醉箕。既然賈寶玉的情感和審美標(biāo)準(zhǔn)不能推廣到其他人,有什么理由認為人類的情感和審美標(biāo)準(zhǔn)可以推廣到其他智能物種呢徙垫?
一個領(lǐng)域的成果評價標(biāo)準(zhǔn)如果是不合適的讥裤,后果會很嚴(yán)重。不但研發(fā)工作會被誤導(dǎo)松邪,公眾的期望也會落空坞琴,而且會錯過真正有價值的方向哨查。在人工智能領(lǐng)域中逗抑,這仍然是個大問題。
參考文獻
- [1] Alan Turing, Computing Machinery and Intelligence, Mind 49: 433-460, 1950
- [2] Alan Turing, Richard Braithwaite, Geoffrey Jefferson, Max Newman, Can Automatic Calculating Machines Be Said To Think? A broadcast discussion on BBC Third Programme, January 14, 1952