前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇人工智能帶來的思考范文,相信會為您的寫作帶來幫助,發現更多的寫作思路和靈感。
人工智能,英文縮寫為AI。它是研究、開發用于模擬、延伸和擴展人的智能的理論、方法、技術及應用系統的一門新的技術科學。
人工智能是計算機科學的一個分支,它企圖了解智能的實質,并生產出一種新的能以人類智能相似的方式做出反應的智能機器,該領域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統等。人工智能從誕生以來,理論和技術日益成熟,應用領域也不斷擴大,可以設想,未來人工智能帶來的科技產品,將會是人類智慧的“容器”。人工智能可以對人的意識、思維的信息過程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過人的智能。
人工智能是一門極富挑戰性的科學,從事這項工作的人必須懂得計算機知識,心理學和哲學。人工智能是包括十分廣泛的科學,它由不同的領域組成,人工智能研究的一個主要目標是使機器能夠勝任一些通常需要人類智能才能完成的復雜工作。
(來源:文章屋網 )
關鍵詞:人工智能;異化;規范;生態文明觀
中圖分類號:TP18
文獻標識碼:A
一、人工智能技術的發展及其影響
人工智能技術研究開始于20世紀50年代中期,距今僅有60年的發展歷程,但是其迅猛的發展速度,廣泛的研究領域以及對人類產生的深遠影響等令人驚嘆。調查顯示,77.45%的人認為現實生活中人工智能技術的影響較大,并且86.27%的人認為人工智能技術的發展對人類的影響利大于弊;認為人工智能技術對人類生活影響很小且弊大于利的人權占很小一部分。人工智能技術的發展和應用直接關系到人類社會生活,并且發揮著重要的作用。人工智能技術的發展方向和領域等由人類掌控著,所以人類應該盡可能地把人工智能技術的弊處降到最低以便更好地為人類造福。2016年3月份,圍棋人工智能AlphaGo與韓國棋手李世h對弈,最終比分4∶1,人類慘敗。4月份,中國科學技術大學正式了一款名為“佳佳”的機器人,據了解,機器人“佳佳”初步具備了人機對話理解、面部微表情、口型及軀體動作匹配、大范圍動態環境自主定位導航和云服務等功能。而在這次正式亮相之前,“佳佳”就擔綱主持了2016“首屆全球華人機器人春晚”和“誰是棋王”半Q賽。人工智能技術確實給人類帶來了諸多的便利,給人類生產生活帶來便利;但是,人工智能技術的快速發展超乎人類的預測,引起了人類的恐慌和擔憂。百度CEO李彥宏稱,人工智能是“披著羊皮的狼”。毋庸置疑,科學技術是一把雙刃劍,當人類醉心于科學技術所帶來的福利中時,更應當注意其帶來的負面作用。人類發明和創造科學技術最終是為了造福人類,而非受到科技的異化。
隨著科技的發展,人工智能技術越來越成熟,在此整體趨勢之下,不同的人群對人工智能技術的不斷成熟與應用有著不同的看法。調查結果顯示,在關于機器人會不會擁有人類的思維甚至超過人類的問題方面,27.45%的人認為機器人會擁有人類的思維和超過人類;而56.86%的人認為機器人不會擁有人類的思維和超過人類,小部分人對此不是很清楚。由于受到人工智能技術迅猛發展的沖擊,如機器人保姆、AlphaGo圍棋等智能產品對人類發展帶來的威脅,一部分人仍然對人工智能技術的發展擔憂甚至認為終有一天機器人將代替人類、征服人類、控制人類。但是,大部分的人在機器人是否能夠超過人類方面,保持樂觀積極的態度,認為機器人永遠不會擁有人類的思維并且超越人類,因為人類是技術的主導者,人類掌握著技術的發展方向,技術終究是為了人類服務。這一看法肯定了人類的無止境的創新,然而,在人類醉心于技術創新的同時,應意識到某些創新確實超出了人類的預料,如AlphaGo與李世h圍棋人機大戰就是人類在技術面前失敗的慘痛教訓。因此,面對科技對人類的異化,人類要時刻保持警惕,適時地總結“技術異化”的緣由和解決對策。
二、人工智能技術發展面臨的問題及其原因
隨著技術的革新,人工智能技術的應用越來越廣泛,與人們的日常生活聯系也愈加密切。從智能手機的普及到自動駕駛汽車的研制成功,再到生產、建設、醫療等領域人工智能技術的應用,都表明了人工智能技術正悄無聲息地改變著我們生活方式。誠然,人工智能技術使我們的生活更加豐富多彩,給我們帶來了極大便利,但與此同時,人工智能技術也給社會帶來了一系列不可忽視的問題:人工智能技術在社會生產領域的應用對勞動市場造成沖擊;人工智能系統在收集、統計用戶數據過程中個人隱私及信息安全方面的隱患;人類對人工智能產品的依賴引發的身心健康問題;人工智能引起的責任認定問題等。斯蒂芬?霍金在接受BBC采訪時表示,“制造能夠思考的機器無疑是對人類自身存在的巨大威脅。當人工智能發展完全,就是人類的末日。”表示同樣擔憂的還有特斯拉的創始人馬斯克,他曾直言,“借助人工智能,我們將召喚出惡魔。在所有的故事里出現的拿著五芒星和圣水的家伙都確信他能夠控制住惡魔,但事實上根本不行。”不可否認,人工智能技術是把雙刃劍,有利亦有弊,爭議從來就沒有停止過,而最不容忽視的莫過于人工智能技術引發的一系列倫理困境,關于人工智能的倫理問題成了重中之重。
調查發現,47.55%的人認為人工智能所引發的倫理問題是因為人性的思考,占比較大;而22.55%的人認為是由于人們價值觀念的改變;29.9%的人認為是利益分化與失衡以及一些其他的原因導致的。由此可以看出導致人工智能倫理困境的原因是多方面的。主要總結為以下幾個方面。
第一,從技術層面來看,人工智能技術在現階段仍然有很大的局限性。人工智能是對人腦的模仿,但人腦和機器還是存在本質區別的,人腦勝于人工智能的地方,就是具有邏輯思維、概念的抽象、辯證思維和形象思維。人工智能雖能進行大量的模仿,但由于不具備形象思維和邏輯思維,僅能放大人的悟性活動中的演繹方法,不可能真正具有智能,這決定了機器不能進行學習、思維、創造。此外,智能機器人也不具備情感智能,它們根本無法去判斷自己行為的對錯,也無法自動停止自己的某項行為,所以如果人工智能技術一旦被不法分子利用,后果不堪設想。可見,由于人工智能自身技術上的局限性導致的倫理問題已經影響到其未來發展。
第二,從規制層面來看,倫理規制的缺失和監督管理制度的不完善是導致倫理問題產生的重要原因。科技的發展目標是為人類謀求幸福,但我們必須認識到,無論是在科技的應用還是發展過程中總是存在一些難以控制的因素,倘若沒有相應的倫理原則和倫理規制加以約束,后果難以想象。在目前人工智能領域,缺乏一套成體系的關于人工智能技術產品的從設計、研究、驗收到投入使用的監督管理方案,也沒有一個國際公認的權威性的規范及引導人工智能技術的發展及運用的組織或機構。現有的監督體制遠遠滯后于人工智能技術的發展速度,無法匹配技術發展的需要。缺乏相關監管制度的約束,人工智能技術就不可避免會被濫用,從而危害社會。
第三,從社會層面來看,公眾對人工智能技術的誤解也是原因之一。人工智能作為一門發展迅猛的新興學科,屬于人類研究領域的前沿。公眾對人工智能技術的了解十分有限,調查顯示,對人工智能技術只是了解水平較低的人較多,占62.75%,以致部分人在對人工智能技術沒有真實了解的情況下,在接觸到人工智能技術的負面新聞后就夸大其詞,人云亦云,最終導致群眾的恐慌心理,從而使得更多不了解人工智能技術的人開始害怕甚至排斥人工智能技術。我們必須清楚,人工智能是人腦的產物,雖然機器在某些領域會戰勝人,但它們不具備主觀能動性和創造思維,也不具備面對未知環境的反應能力,綜合能力上,人工智能是無法超越人腦智能的。在李世h對弈AlphaGo的曠世之戰中,盡管人工智能贏了棋,但人類贏得了未來。
三、人工智能技術的發展轉向
人工智能技術的發展已經深入到人類社會生活的方方面面,其最終發展目標是為人類服務。但是,科學技術是把雙刃劍,它在造福人類的同時,不可避免地會給人類帶來災難,因此,人類應該趨利避害,使人工智能和科學技術最大化地為人類服務。這就要求人類必須從主客體兩個角度出發,為人工智能技術的健康發展找出路。
1.技術層面
(1)加強各個國家人工智能的對話交流與合作。人工智能自20世紀50年代被提出以來,尤其是近六十年來發展迅速,取得了許多豐碩的成果。如Deep Blue在國際象棋中擊敗了Garry Kasparov; Watson 戰勝了Jeopardy的常勝冠軍;AlphaGo 打敗了頂尖圍棋棋手李世h。從表面上看,人工智能取得了很大的進步,但深究這些人工智能戰勝人類的案例,我們發現這些成功都是有限的,這些機器人的智能范圍狹窄。造成這一現象的很大一部分原因就在于國際間人工智能技術的對話交流與合作還不夠積極,所以加強各個國家人工智能的對話和交流迫在眉睫,同時也勢在必行。
(2)跨學科交流,擺脫單一學科的局限性。從事人工智能這項工作的人必須懂得計算機知識、心理學和哲學。歷史的經驗告訴我們,一項科學要想走得長遠就必須有正確的意識形態領域的指導思想的介入。在人工智能這項技術中,有些科學家們可能只關注經濟利益而沒有引進相應的倫理評價體系,最終使得技術預測不到位,沒有哲學的介入,等真正出現問題時就晚了。所以要加強科學家與哲學家的溝通交流,令科學家能更多地思考倫理問題,提高哲學素養,在人工智能技術中融入更多的哲學思想,保證人工智能技術能朝著正確、健康方向發展。
(3)人工智能技術的發展,要與生態文明觀相結合。在人工智能技術發展中,要注入更多的生態思想,這關系人民福祉、關乎民族未來的長遠大計。在人工智能發展中,若是產生資源過度消耗、環境破壞、生態污染等全球性的環境問題時,人類必須制止并進行調整。人工智能技術要想發展得更好,前景更加明亮,前途更為平坦,就必須保持與生態文明觀一致,與人類自身利益一致,為人類造福。
2.人類自身層面
(1)增強科學家道德責任感。科學技術本身并沒有善惡性,而研發的科學家或是使用者有善惡性。人工智能將向何處發展,往往與研發人工智能的科學家息息相關。科學家應打破“個體化原理”,要融入社會中去,關注社會道德倫理問題,承擔起道德責任,為自己、他人、社會負責,多去思考自己研發的技術可能帶來的后果,并盡可能去避免,多多進行思考,嚴格履行科學家的道德責任。
(2)提高公眾文化素養。調查發現,對人工智能技術了解水平較低的人較多,占62.75%;而非常了解的人較少,占4.41%;另外,對人工智能技術了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人對人工智能技術都能有所了解,但都不是很深入,而且仍有部分人對人工智能技術絲毫不了解,所以,人工智能技術對于個體的影響是比較微小的,其發展還沒有深入到個人的日常生活中。特別是在一些關于人工智能的科幻電影的渲染,可能使那些對于人工智能技術并不了解或是一知半解的人產生偏見。在日常生活中,人工智能給人類帶來了極大的便利。通過提高公眾的文化素養,使公眾正確認識人工智能技術,將是緩解甚至是解決人工智能技術某些倫理問題的重要途徑之一。
(3)加大監督力度。人類需要通過建立一個完善的監督系統引導人工智能技術的發展。對于每項新的人工智能技術產品從產生到使用的各個環節,都要做好監督工作,以此來減少人工智能技術的負面影響,緩解甚至減少人工智能技術的倫理問題。
3.道德法律用
(1)通過立法規范人工智能技術的發展。調查發現,90.69%的人認為有必要對人工智能技術所引發的科技倫理問題實行法治,由此可以看出,要想保證科技的良好健康發展,必須要建立健全相關法律條例。然而我國在這一方面的法律還存在很大的漏洞,相關法律條文滯后于人工智能的發展,并未頒布一套完整的關于人工智能的法律體系。沒有規矩不成方圓,在人工智能領域亦是如此。我們都無法預測將來人工智能將發展到何種地步,這時就需要人類預先加以適當的限制,利用法律法規加以正確引導,使其朝安全、為人類造福的方向發展。
(2)構建人工智能技術倫理準則并確立最高發展原則。要構建以為人類造福為最終目的的倫理準則。人工智能技術的倫理問題已經給人類造成了很多負面影響,而要防止其帶來更多負面影響,構建合適的人工智能技術倫理準則勢在必行。
此外,要確立以人為本的最高發展原則 。一切科學技術的發展都應把人的發展作為出發點。人工智能的發展也是如此,要將以人為本、為人類服務為出發點,并作為最高發展原則。
四、結語
科學技術是把雙刃劍,人類只有消除人工智能技術的潛在威脅,發揮人工智能技術最大化效用,避免倫理困境重演,才能實現人機交互的良性發展,實現人工智能與人類的良性互動。
參考文獻:
[1]王文杰,葉世偉.人工智能原理與應用[M].北京:人民郵電出版社,2004.
[2]甘紹平.人權倫理學[M].北京:中國發展出版社,2009.
[3]楊懷中.現代科技倫理學概論:高科技倫理研究[M].武漢:湖北人民出版社,2004.
[4]王志良.人工情感[M].北京:機械工業出版社,2009.
[5]鄒 蕾,張先鋒.人工智能及其發展應用[J].信息網絡安全,2012(2).
[6]王 毅.基于仿人機器人的人機交互與合作研究[D].北京:北京科技大學,2015.
[7]田金萍.人工智能發展綜述[J].科技廣場,2007(1).
[8]郝勇勝.對人工智能研究的哲學反思[D].太原:太原科技大學,2012.
[9]龔 園.關于人工智能的哲學思考[D].武漢:武漢科技大學,2010.
在某種程度上,支持者與反對者之間的區別就是時間期限。比如,未來學家、發明家雷蒙德?庫茲韋爾就認為20年智能就能研發出真正接近人類智力水平的人工智能。而我認為這個過程起碼現在,幾乎不到一個月就有一款最新的人工智能產品問世,而我們在開發人類大腦的道路上已經停滯不前了人工智能的威脅格力?馬庫斯/ 文 李雨蒙/ 譯需要20 年,尤其要考慮到創造常識(正常思維)的困難,發明人工智能的挑戰,還有軟件技術,都比庫茲韋爾預測的要困難得多。
然而,從今往后的一個世紀里,沒有人會在意人工智能的發展需要多久,只會關心將會出現哪些先進的人工智能。或許在這個世紀末,人工智能就會變得比人類更加智慧――不僅可以解決國際象棋、瑣碎小事等等,基本可以處理所有的事物,無論從數學、工廠還是科學和醫藥。還剩下一小部分創造類工作留給人類,比如演員,作家或是其他創意類工作。最終的電腦系統可以完成自我編程,獲取大量的最新信息。我們這些“碳基生物”的模糊印象,他們能夠在分分鐘就分析處理完成,也不需要長時間的睡眠或休息。
對于支持者來說,人工智能的未來充滿希望。庫茲韋爾就曾撰文發表自己一個大膽的設想,就是人類與智能機器結合,將人類的靈魂上傳到人工智能中,使我們的靈魂永生;彼得?迪亞芒蒂斯則認為人工智能是開啟“富裕時代”,擁有富足食物、水源、消費工具的重要因素。不過,反對者像埃里克?布林約爾松和我很擔憂機器人職業化和人工智能帶來的隱患,即使不去考慮高級人工智能對勞動力市場的影響,功能強大的智能機器也會威脅人類的生活,與人類爭奪有限的資源。
大多數人把這種擔心看作是科幻小說里的蠢話――像《終結者》和《黑客帝國》這類。在一定程度上,我們需要未來很長一段時間做好打算,我們要擔心小行星會撞地球,化石燃料產量下降,全球變暖等問題,而不用擔心機器人問題。可是,詹姆斯?巴雷特的黑暗系新書《我們的最終發明:人工智能和人類時代的終結》,描述了一種嚴峻的情況,我們至少應該有所思考。
如果機器最終取代了人類――正如在人工智能領域工作的人所堅信的那樣,真正的問題在于價值觀:我們如何把價值觀輸入機器中,當它們的價值觀與我們的價值觀發生了很大的沖突時,我們該如何和這些機器協商呢?牛津的哲學家尼克?博斯特羅認為:我們不能樂觀地假設,超級智能一定會分享人類的智慧和智能發展形成的價值觀――對科學的求知欲,對他人的關心和仁慈,精神啟發和沉思,克制物質占有欲,高雅的文化品位,對感受簡單生活的快樂,謙虛無私等等。或許通過專門的訓練,能夠創造出擁有這些價值觀的超級智能,或是珍惜人類財富和高尚道德的超級智能,或是設計者想要它擁有一些復雜目標的智能。這是可能的――可能從技術上說更簡單――打造一個能夠把最終價值都放在計算圓周率小數上的超級智能。
英國控制論學者凱文?沃里克曾問道:“當機器不在我們人類所處的思維次元中思考時,你如何跟它理論,如何與它做交易,如何能明白它的想法?”
如果說巴雷特黑暗系理論有漏洞的話,那就是他未經思考就提出的假設:如果機器人聰明到可以下棋,那它可能也會“想要制造宇宙飛船”――在任何足夠復雜,有目標驅動的系統中都是天生具有自我保護和獲取資源的本能。現在大部分機器都非常先進,比如,IBM公司的深藍系列電腦,但是目前它們還沒有顯示出想要獲得資源的興趣。
可是,在我們感到沾沾自喜,確定無需擔心時,別忘了有一點非常重要:我們要意識到隨著機器越來越聰明,它們的目標也是會變化的。一旦電腦能夠有效地重新給自己編程,成功地提升自己的性能,達到所謂的“技術奇點”或“智能爆炸”,那么我們就不能忽視機器在與人類搶奪資源和自我保護的較量中會有勝過人類的風險。
在巴雷特書中,最鮮明的觀點之一是來源于著名的系列人工智能企業家丹尼?希利斯,他把即將到來的轉變比作生物進化史上最重大的轉變之一:“我們現在達到的高度就像是一個單細胞有機體轉變為多細胞有機體的高度。我們是變形蟲,我們不清楚自己在創造的到底是個什么東西。”
伊藤:原本科幻小說的人工智能已經成為改變我們生活的現實,您何時感受到人工智能真的離我們很近的呢?
奧巴馬:總體來看,人工智能已經從各個方面滲透進我們的生活,只是我們還沒有太注意到,這部分是因為我們所認知的人工智能方式是被大眾文化所粉飾過的。這就是區別所在。我們通常在科幻小說中所見到的都是普通的人工智能。現在的電腦已經超越人腦變得越來越聰明,最終人類將變得不再全部都有用處,甚至它們正在麻醉我們,讓人類陷入肥胖和愉快或是黑客帝國的世界中。
值得思考的是,這確實擴展了我們的想象力,使人類開始思考選擇和自由意志的問題,實際上也對發展專業人工智能,進行精確計算和解決日益復雜的工作起到了重要的作用。如今,我們生活中的各個方面都能夠看到專業人工智能的身影,無論從醫療、交通到分布式發電,它都能確保創造更加高效的經濟。如果利用得當,它將為世界創造巨大的經濟繁榮和機遇。但同時接下來我們要談談人工智能不利的方面,比如加劇不平等、壓低薪酬等等。
伊藤:我認為人工智能問題已經遠遠超出了一個普通電腦的科學問題。重要的是,每個人都需要了解人工智能的行為方式。在媒體實驗里,我們常用到“擴展智能”這一術語,因為問題在于我們該如何對人工智能建立社會價值觀?
奧巴馬:我們用無人駕駛汽車舉例。當機器可以進行多項快速決定時,就能夠徹底地降低交通事故,徹底提高交通網絡效率,有助于解決導致地球溫室效應的二氧化碳排放問題。但是,人類將會在無人駕駛汽車上附加怎樣的價值?接下來我們需要做出一系列的選擇,比如老生常談的問題:汽車自動駕駛,如果你急轉彎避免撞到行人,你就會撞墻自殺。這是一個道德決定,而由誰來制定這個規則?
伊藤:在我們探討人工智能的道德問題時,政府將扮演什么角色?
奧巴馬:在我看來,在人工智能的早期發展階段,監管框架應當百花齊放。政府要盡量少地進行干預,更多地投資于科研,確保基礎研究和應用研究之間的轉化。隨著技術的開發和成熟,我們要考慮如何將其納入現有監管框架中。這是個更難的問題,而政府需要更多參與。我們并不總是要讓新技術去適應現存監管框架,而是確保監管符合更廣泛的價值。否則我們可能會發現,某些人群將因此處于不利地位。
伊藤:人工智能發展出新型軍備競賽的過程中是否存在風險?
奧巴馬:毫無疑問的是,我們需要圍繞著網絡安全建立國際準則、協議和檢驗,特別是對初期的人工智能領域。而其中較有趣的問題是攻防之間的界限還比較模糊。而政府之間互相的不信任更加劇了難度。
為什么我們與人工智能愛好者召開多次會議?其中一個原因之前我們并沒有談到過,就是我們真的需要徹底想清楚人工智能帶來的經濟意義。因為現在大多數人并不會花時間擔憂那些稀罕物――他們只關心“機器會不會取代我的工作?”對此,我還是非常樂觀的,歷史證明,當人類吸收新科技時,總能發現創造出新型的工作,我們生活的總體標準也隨之上升。高技術人員在這些領域表現出色,通過衡量自身才能,與機器互動,擴展知識范圍、銷售額度以及產品和服務。低收入、低技能的人群將變得越來越多余,他們的工作或許不會被取代,但是工資會被極大縮減。如果想成功轉型過渡,我們必須對如何管理轉型進行社會性的對話。
實際上,還沒有直觀感受到哪些工作將被替代。不過我愿意打賭,如果你有一臺懂得醫療系統的電腦,你將非常擅于診斷病情,所以相對于醫生,護士或藥劑師不太可能被替換,因為他們的工作并不是很高薪。那些專業技術較強的工作,比如律師或審計員或許會消失。反而許多服務業、藝術和那些計算機難以適應的職業將很難被取代。
伊藤:如埃隆。馬斯克、NickBostrom所說,人工智能的潛力已經超越了人類對它們的理解能力。當我們推動人工智能向前發展,我們該如何應對這樣的擔憂?
奧巴馬:這不僅僅影響到我們自身,而是全人類的大事。首先,我認為更加直觀的是,這在專業人工智能方面是可解決的問題,當然我們必須留心它的動向。如果我們擁有一臺可以下圍棋的電腦,這是蘊含千變萬化的一種游戲。當人工智能開發出一套算法,很可能讓你在紐交所實現利益最大化。如果一個人或組織首先獲得這種算法,他們就可以迅速地打壓股市,或至少引起金融市場誠信的混亂。
當出現一種算法,“圍棋能夠破譯核密碼并且算出如何發射導彈”,如果這是人工智能唯一的功能,如果它是自學并且真正高效的運算,就會給我們造成極大的麻煩。
伊藤:您是一個《星際迷航》迷。它是如何影響您對未來的想象的呢?
但即便象棋下不過、圍棋下不過、力氣也比不過,機器依然并不能取代人類。
人工智能會說“愛你”,但它不會真的愛你,它像一面鏡子,照耀的是人類的善與惡,美與丑,愛與恨。楊瀾說,一想到未來手機、空調都在搜集她的數據,這種裸奔的感覺讓她不寒而栗。
楊瀾又說,科幻片中的人機大戰是天方夜譚。
不出意外,柯潔輸了。
關于那個在第一局比賽結尾露出的笑容,柯潔的解釋是:當然是苦笑了,因為我很早就知道我要輸了。而搜狗總裁王小川點評比賽時則更加直接:我們的關注點不是機器能否贏,而是機器用什么姿勢贏。所有人在這一回輸贏問題上達成了共識。
資本與市場宣稱,這已經是人工智能的時代了。
4月末,我們帶著一個普通人對人工智能的疑問,與過去一年內探訪了30多個人工智能研究機構及實驗室的楊瀾深談。當時,她就預判道:AlphaGo還會贏。
果然,可以算得上波瀾不驚,天才少年柯潔的完敗遠并不如去年李世石的失敗那樣讓世人震驚。
楊瀾說:她還記得,1997年,當IBM的電腦深藍戰勝了國際象棋冠軍卡斯帕洛夫的時候,她曾經在一個節目中斷言,這樣的事情在圍棋領域是絕對不可能發生的。
因為蘊含著古老東方智慧的圍棋變化萬千,它的布局走法可能性多達10的172次方,比宇宙中的原子數量還多。不止楊瀾,圍棋專家和人工智能領域的專家,當時也紛紛斷言:機器要在圍棋比賽中戰勝人類,至少還要一百年。
但是只用了不到20年的時間,機器就做到了。數次人機大戰,機器都無可辯駁地完勝了人類,甚至表現出了創造力和直覺這些人類最引以為傲的特質。當AlphaGo去年走出讓人汗毛倒豎的那一步棋之后,當時比賽的解說員稱,再管它叫電腦程序已經不合適了,你完全能感覺到人工智能的“智能”的存在。
什么是人工智能?它們和人類是什么關系?世界上最頂尖的人工智能實驗室里都在發生什么?為什么很多名人都讓人們警惕人工智能?人機共生,人類準備好了嗎?
對人工智能做了深度探訪的楊瀾一一給出了回答。 楊瀾在成為工業文明遺跡的倫敦舊碼頭上思緒萬千
Q=《北京青年》周刊
A=楊瀾
相較人工智能,人的可貴之處恰恰在于我們不完美
Q:你在去年春節前就啟動了這個專題片的策劃,那時AlphaGo還沒贏李世石呢,為什么這么有先見之明?
A:是,我團隊都在說“楊瀾姐你太超前了”。我的確對人工智能特感興趣,人工智能不只是一個新的技術,它會影響到人類的生產、生活,以及人和人之間的相處模式和這個社會的運行模式。我只是隱隱約約地覺得它的影響要深遠得多,而且這一次的規模會來得很大。同時在我身邊像李開復、張亞勤這些老友,在說到自己的一些研究和投資的方向的時候,也在不停地說到人工智能。讓我覺得這件事情非常了得,卻很少有人能說明白。
那我就覺得其實觀眾也會有同樣的興趣和同樣的迷惑,以一個媒體人的嗅覺,我覺得應該去探索這件事兒。
Q:你們花了非常大的工夫,做了到目前為止最全面也最有深度探索人工智能的紀錄片,我想知道這個過程中你有什么獨特的發現和結論?
A:有很多有意思的發現。
人的智能有很多局限性,比如我們經常健忘,然后我們三分之一的生命是在睡眠中度過的,還會做各種各樣奇怪的夢,從純產出的角度,我們肯定不像人工智能一樣可以24小時在那計算和下棋。還有,我們的頭腦不是用來處理大數據的,我們不可能同時做50萬人的人臉識別,我能認清楚我身邊這兩百個人已經很不錯了。我們人類有這么多的局限,那我們的可貴之處在哪里呢?其實這個可貴之處恰恰在于我們不完美。
正如采訪中麻省理工學院的一個教授對我說的,“會忘記是人的高級智慧的體現”,如果我們什么都記得住,我們一進了這個屋子,“啪啪”眼睛一拍照,把@個屋子哪有灰塵哪有小蟲子等所有細節都記住,我們就不可能把自己有限的能力集中到我們需要去創造、需要去抓住核心的東西上。
所以人類不用妄自菲薄,不要以為一個機器在圍棋上不可戰勝了,它就在各個方面都超越了人的智慧,人的智慧是有它的獨一無二之處的。
Q:走訪世界各地做了這么多功課,有沒有哪些場景讓你受到震撼?
A:我覺得這種震撼既有你看到的東西,也有你可以想象的東西。
當我到了倫敦的舊碼頭,作為工業文明的遺跡,那邊有很多遺留下來的舊的大庫房,庫房之間有很多鐵的天橋。這個當年是多么宏偉,那種蒸汽騰騰,你都可以想象到倫敦的霧天的那樣的場景,但是今天,靜謐極了,已經成為一個純粹的歷史遺跡了。
于是你會想到工業革命當時在英國,把幾百萬的農民變成了工人,讓他們進入了城市。其實每次大的技術革命和工業革命發生的時候,就會產生劇烈的社會矛盾,我覺得很震撼的就是:那接下來的這一次技術革命,又會帶來怎樣的社會沖擊?
Q:李開復先生說,“人工智能將會給傳統行業帶來血腥的顛覆”,“十年之內,50%的工作會被AI取代”, 你怎么看?
A:我更愿意說成是未來十年,50%的工作都會受到沖擊和影響。受沖擊和被取代不是一個概念,至于是不是“50%的人都要失業”,我認為需要商榷。
但是有些行業肯定會受到比較大的影響。比如卡車司機這個職業,他們有可能在十年之內,真的失去他們的工作,那他們該去哪里?甚至如果將來都是無人駕駛的話,我們都不需要擁有私家車,就像今天的共享單車一樣,將來汽車也是共享的,那會對現在的汽車制造業產生多大的影響?
還有,如果說蒸汽機替代了人的肌肉的話,那么這一次的人工智能會替代掉很多簡單的白領工作,人的腦力工作也被取代了。比如說律師的助理,可能就是一個人工智能,它可以幫助你查到所有需要的案例和卷宗。比如醫生的助理、讀片師,人工智能已經可以掌握到一千萬個關于肺癌的影像資料,就不需要一個老專家在那兒看半天,還有一定的失誤率。還有記者,如果你只是做一個五個W的報道,那現在的人工智能已經在幫你做了。所以這一次的影響更深遠,涉及到的人會更多。
Q:無人駕駛使卡車司機失去工作的場景,你覺得在十年之內真的會出現嗎?
A:我認為在十年之內,無人駕駛是最容易實現的改變。你可以想象,在一些發達國家或是像中國一樣的高速公路非常發達的國家,負責運輸的司機可能真的不需要了。也許某些場合還需要有一個人把手放在方向盤上,隨時準備著人機切換,但是從理論上講,起碼不需要現在這么多司機了。
我們不排除外星人進攻地球的可能性,但是不是現在就要馬上建立一套防御系統呢?
Q:在片子中我們看到,科學界對人工智能的認知也不盡相同,甚至還有核心觀點分歧,是這樣嗎?
A:對。我會發現,人工智能這個領域的科學家,往往都是抱有比較樂觀的態度。他們認為人工智能不過是自動化的一個新階段而已,最終還是可以被人類所控制的。
但是,周邊學科的科學家和社會公眾,似乎對于人工智能的憂慮更多一些。也可能是因為我們看了不少科幻小說和科幻電影,所以就總會假想,如果機器有了人類不可控的能力怎么辦?
斯坦福大學有一位人工智能的專家卡普蘭教授,他說,其實人對于未知的,但是又很有力量的東西,總是心懷恐懼的。卡普蘭教授比喻,這就像一個人在爬樹,然后你就會擔心他要是爬到月亮上了該怎么辦呢?
Q:你自己更傾向于那種觀點?
A:我更傾向于:我們眼前有足夠多的事情需要去做。與其去擔心一個所謂的智能機器將來會統治我們,不如好好來考慮一下隨著人工智能的發展,我們的交通規則是否需要改變,失業的人如何能夠維持一家庭的生計,還有由于大數據的發展所帶來的我們的隱私問題到底該怎么保護?我覺得眼前的這些事情,已經足夠我們煩惱了。
就像我采訪哥倫比亞大學諾貝爾獎的獲得者、著名的腦科學專家埃里克,他是研究人的學習能力、人的神經系統的。他說“I worry more about Trump”,他說我更擔心的是川普的問題,而不是未來的一個機器……這就像說,我們不能夠排除外星人來到地球的可能性,但我們現在是不是要馬上建立一個專門為了防御外星人入侵的防御系統呢?
Q:所以你是偏向于更樂觀,也更務實的態度?
A:我不代表樂觀,我覺得技術永遠是一把雙刃劍。
人類其實可以仰望星空,讓自己的想象力無邊地馳騁,但是人工智能將要帶來的沖擊已經在敲門了,我們還是應該首先來應對目前就已經要發生的改變。而且技術的革命和科技的發展,在人類的歷史上,從來沒有因為人主觀的樂觀或者悲觀,就停止腳步。從來沒有!
Q:科幻片中說的那種人機大戰是天方夜譚嗎?
A:我認為是天方夜譚!在科幻電影里,是機器人一伙,人類一伙,兩方產生了不可避免的沖突。但在現實生活中更可能出現的情況是,一群人帶著自己的機器,和另外一群人帶著他們的機器,所產生的沖突。所以最終要協調的,還是人的利益沖突,而不是說機器突然有了整體的自我意識,決定要把人給顛覆了。這個我認為只是科幻的場景。
Q:那么你覺得機器人可以具有人的價值觀和思維方式嗎?
A:我認為它們可以因為被輸入的游戲規則而展現出某種人類表達的特質。比如說它被輸入了“在某種情況下就要說我愛你”,但這并不意味著它感受到了愛;或者說它可以下一千萬盤棋,但它不會像一個人那樣,真正地享受下棋的過程。
實際上,我們現在只能證明,人工智能在一些需要處理大數據的垂直的領域具有超快的學習能力,但并沒有證據表明它們會形成自我意識。
Q:所以你如何看待柯潔5月份將與AlphaGo進行的終極人機大戰?(本刊記者采訪楊瀾時比賽還未進行)
A:雖然從我的判斷上來說,它還是會戰勝柯潔的,但是從另外一個角度來說,明明知道面對AlphaGo勝率并不高,柯潔還是愿意接受這個挑戰,我覺得這就是體現了人類的智慧。而且,即便它能夠戰勝世界上所有的圍棋高手,So what?
中國現在應該開始為迎接人工智能的時代做制度安排
Q:你認為,人工智能最有可能從什么領域進入到常規的日常生活?
A:我想到的是三個方面,一是無人車,就是無人駕駛,它可能會改變我們的出行方式。
第二個,在中國的場景下,就是醫療。因為中國的醫療資源實在分布得太不均衡,醫療能力實際上是集中在一些大城市的頂級專家的手里。但是因為中國人口基數大,醫療數據庫也非常龐大,所以如果能夠借用人工智能,就可以給那些鄉鎮級、社區級的醫生提供非常好的診斷服務。
第三個方面,如果你要問李開復先生,他可能會說金融了,但是實際上中國在高頻交易這些方面還是有限制的。比如股票,如果它用高于人零點幾秒的能力下單的話,它就不得了了,但是它也會擾亂整個市場的秩序。
但我覺得,在法律援助這個方面其實是可以考量的,其實現在律師的很大一部分工作是在搜索和查詢相關案例和相關法律條例,以及其他類似案件的判決情況。如果有了人工智能的幫助,可能以后基礎的法律咨詢就不需要請那么昂貴的律師了。
Q:這次的采訪涉及全球,你感覺人工智能領域,中美之間的差距大不大?
A:其實中美兩國在人工智能領域都是屬于第一方陣的,在技術發展的水平上,我覺得各有優勢。
的確在原創核心技術的突破方面,還是美國的實驗室能力相對要強。但中國是一個大數據的王國,而所謂的機器學習,實際上是大數據學習,這是我們的天然優勢。美國在這方面的資源遠不如中國。
Q:中國之前的發展受益于所謂的人口紅利,在人工智能時代到來的時候,這會不會成為劣勢呢?
A:我認為不能簡單地說是優勢還是劣勢。因為中國巨大的人口規模,會使中在大數據采集和人工智能的應用層面,具有得天獨厚的優勢。
但另一方面,過去幾十年我們依賴低的勞動力成本和出口所帶來的制造業的繁榮,也必然要進入一個新的階段。如果你不能提升品牌的價值和品質,那么勞動力這個優勢,其實正在迅速失去。
那如果很多藍領要失業了,那這些藍領應該怎樣安排?會給社會帶來什么樣的不安定因素?這都是應該去面對的。
Q:你會有這樣的擔心嗎?
A:我覺得現在就應該做制度安排,這個事情其實是說來就會來的。你現在去東莞看看,很多流水線都是無人工廠了,工人被機器人取代就是眼下正在發生的事情。所以我覺得像特朗普還在跟美國失業的藍領工人說“我們要把工作從中國人的手里奪回來的時候”,我心里一陣冷笑,其實拿回美國也只是給機器人做而已,因為這是一場巨大的技術革命,它已經不是從什么人手里奪回來一份工作而已。
所以我覺得像中國這樣的制造業大國應該開始做一些制度的安排,來更好地應對隨之而來的比如失業問題,再培訓問題,和稅收的問題。
人工智能必然會帶來倫理問題,而且已經就在眼前了
Q:斯坦福大學的李飛飛教授多次提到人工智能帶來的倫理問題,你是什么觀點?
A:人工智能一定會產生倫理問題,而且涉及很多層面。比如微軟做了一款人工智能情感機器人“小冰”,當時放在網絡上進行測試的時候,就有很多人故意教它說臟話,教它說一些種族主義和充滿暴力的話,那么這個人工智能就像我們說鸚鵡“嘴臟了”一樣學會了。其實人工智能就像一面鏡子,它照耀的是人類的善與惡,美與丑。
還有像自動駕駛,如果出現一個兩難的局面,它究竟應該犧牲車上的一個人,還是犧牲路邊的很多人,甚至包括孩子?你要把這個選擇權交給一個機器嗎?如果你交給了機器的話,那么誰又會出錢買一輛將要犧牲自己的車呢?這是一個極致的問題,卻不能說它不存在。
還有隱私問題,它其實也是一個倫理和道德范疇的事情。比如商業機構在多大程度上可以使用我的消費行為數據?我在多大程度上愿意暴露我的私生活?在什么樣的環境不允許裝這個數據采集器?我覺得這些其實就在眼前了。
Q:這么多的倫理問題又應該怎么解決呢?
A:我覺得這是我們需要面對的問題,但不是無解的問題。就像當年從馬車變成了汽車,才有了紅綠燈和人行道。社會的治理方式和制度的安排,一直都是跟著技術的發展而不斷調整和改變的。
Q:前面說到人口紅利和大數據采集,但是這其實也面臨一個信息安全的問題。事實上我們今天的消費行為甚至個人資訊已經是透明的。
A:這一點我就覺得挺恐怖的,將來絕不僅僅是某些明星和名人的隱私,而是我們每個人的隱私、我們的消費習慣是不是能夠得到足夠的保護?因為我不想將來我得到的每一個推送,其實都是人工智能很有心機、很有套路地推送的。你還以為是你自己的要求,其實是別人對你的行為的預測。
并且我覺得中國當下應該開始研究隱私方面的法律保護了,可以說中國是攝像頭最多的國家,從人臉識別到人工智能的使用,能夠讓像G20峰會這樣的大型會議在開辦之前,可以非常高效地抓到在這個城市潛伏的嫌疑犯,因為他們哪怕是一個側面(被捕捉)都可以被認出來。
技術進步在推動社會發展的同時,法規和制度建設上的配套一定要跟上。
在我有生之年,我的工作不可能被人工智能替代
Q:你目前的生活跟人工智能的關聯度高嗎?
A:我主要是用手機,我們家還沒有用掃地機器人。包括我現在,到睡覺的時候我都希望把手機徹底關掉,或者把它放到另外一個房間去充電。但是一想到未來的手機也好,空調也好,都在搜集我的數據,我就感到不寒而栗,好像有一種裸奔的感覺。所以我覺得未來可能我會比較有意識地把我的工作環境和我的臥室分開,雖然可能分開了也沒啥用……
Q:你覺得自己的生活需要跟機器人隔離開嗎?
A:那不會。如果是在工作的場景下,我可能很需要一個人工智能的助理,來幫我安排一些瑣碎和需要數據處理方面的事情。比如我做采訪之前做功課,需要好幾個研究員或編輯來做案頭的工作,其實將來可以讓語音搜索和圖像搜索幫助完成很多工作,所以我覺得它還是會為我的工作和生活帶來很大的便利的。
Q:你覺得你的工作會被人工智能替代嗎?
A:不會,我認為在我的有生之年,我的工作不會被取代。因為我不僅僅是在做一個簡單的播報的工作,背后還有很多綜合性的思考。我覺得機器在短期內,沒法取代我的工作。
關于人工智能的“權威碰撞”
許多年前有一本小說,書名是《海底兩萬里》。這部幻想作品中的人,發明了一艘使用核動力的潛水艇。如今這早已經成為尋常的現實了。
某種意義上,我們已經進入了前人所預言的時代。
硅谷流行這樣一句話:預測未來的最好方式就是創造它。
人類創造了機器,機器又改變了人類。
2016年5月,一輛特斯拉汽車在美國佛羅里達州與一輛拖車相撞,駕駛員喪生。事故原因是處在自動駕駛模式的汽車沒能在明亮的天空下發現拖車的白色車身。
特斯拉汽車“自動駕駛”是一項輔助功能,每一次自動駕駛啟動時,車輛都會提醒駕駛員“請始終握住方向盤,準備隨時接管”。
放開方向盤,意味著人類將一部分掌控權交給了機器。
這也帶來了更多的法律和倫理問題:
例如誰來為交通事故負責?
當汽車成為智能的移動空間萬一有黑客入侵,誰來保證乘客的安全呢?
機器也將面臨人類的道德困境:
在f不得已的情況下,自動駕駛汽車到底該優先保護車內的乘客,還是路邊的人群呢?
如果選擇后者,誰又會愿意購買一輛會犧牲自己的汽車呢?
英國著名物理學家史蒂芬?霍金多次公開表示對人工智能的擔憂,他認為:“對于人類來說,強大的人工智能的出現可能是最美妙的事,也可能是最糟糕的事,我們真的不知道結局會怎樣。”
特斯拉汽車公司掌門人伊隆?馬斯克甚至宣稱:隨著人工智能的發展,我們將召喚出惡魔。
馬文?明斯基是人工智能的先驅之一,他有個著名的說法“如果我們走運的話,機器或許會把我們當寵物養著。”
但是,更多人工智能專家的觀點是:
現在擔心邪惡的智能機器人奴役人類,就像擔心火星上人口過剩。――百度前首席科學家吳恩達
在整個人類歷史上,其實只有兩次大事件是從根本上改變了人類生存狀態,一次是工業革命,一次是農業革命。這一次的智能革命是堪比這兩次革命的重大事件,可能更為重要。而且,要快速的多。――牛津大學人類未來研究院院長尼克?博斯特羅姆
人工智能會改變人類社會。因為作為一個那么強大的科技,它不光是針對情感、或意圖,它也是對智能本身,對有知覺的存在本身的一個挑戰。這是一個很好的哲學社會話題。――斯坦福大學人工智能實驗室主任李飛飛