前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇人工智能的倫理思考范文,相信會為您的寫作帶來幫助,發現更多的寫作思路和靈感。
關鍵詞:人工智能影視教育課堂在場價值觀
人工智能技術作為社會媒介化發展的特殊產物,不僅能夠建構起智能媒介化的信息社會,更能深入到傳媒研究領域,引導影視傳媒研究朝著“互聯網+教育”的方向發展。當前影視傳媒教育正面臨重要的轉型階段,如何通過媒介信息技術調整現有的理論學習模式和教學培養目標,已經成為影視教育進行改革創新的突破口?;谌斯ぶ悄転榻逃畔⒒瘞淼臋C遇和挑戰,影視教育正致力于從“刀切教育”邁向“精準教育”,從“課堂缺席”轉為“課堂在場”,從人才培養模式到教育信息平臺搭建,都在不斷強化智能教育培養,力求為影視傳媒教育的智能化改革和實踐提供決策依據。
一、影視教育智能化發展的應用價值
智能化影視傳媒研究是教育信息化極為重要的應用場景,人工智能技術不僅拓寬了影視傳媒教育的研究方向,同時也在技術手段、渠道搭建、傳媒倫理等層面發揮著重要作用。
1.消除數據鴻溝,發揮智能傳媒教育技術賦能和知識平權的雙重功能。影視傳媒研究是以實踐為基礎的理論性教學,以培養創新型和復合型人才為教育目標。教育學者是影視文化傳播的驅動者,因個體間存在傳播技能、信息儲備和交往行為方面的差異,造成影視傳媒教育具有嚴重的知識鴻溝。在影視研究學者步入算法教育的重要階段,智能教育平臺可通過讀取人的反饋改變原有的教學模式,調整每一位受教育者的天賦類型。與此同時,教育學者能夠充分利用算法技術和人工智能手段,獲取定制化的影視資源和學習條件,以技術邏輯引導學習流程,用分析框架提高教學模式的理論性和可操作性,通過強化教與學的變革場景,激活文化創作的想象力和邏輯性思維,使科技創新在理性與感性、理論與實踐的引導作用下,從一般的理論教學形成智能媒介化的信息教學模式,從單向傳授轉變為雙向互動的學習教育模式。
2.拓寬學習渠道,推動教育形態從理論課堂到智能媒體教育課堂的變革。人工智能技術與影視教育教學的深度融合,正引發起一場新的教學革命。從教育手段和學習途徑上來看,原有的課堂教學已無法滿足理論和實踐的雙重需求,大數據催生出的智能化影視教育,在虛擬世界和現實世界間搭建起新的算法課堂,利用人工神經網絡簡化理論教學的概念,又通過具有超強運算能力和通訊能力的技術手段協助實踐操作。例如,人工智能照相機作為輔助型的教學工具,被運用于智慧課堂的攝影實踐教學中,借助云端技術和物聯網連接遠程數據中心,可以幫助不懂攝影技術的學習新手盡快了解電影拍攝的理論框架和基本技能,推動教學場景從應用性教學到智慧型課堂的氛圍建構。人工智能與影視教學的跨界融合,成為智能傳媒教育進行顛覆式創新的重要表現形式,教育形態正逐漸從智慧課堂過渡到智慧校園,從傳統的理論范式過渡到智慧媒體的應用型范式,幫助構建起新的學科話語體系。
3.重視傳媒倫理,推動智能化影視傳媒教育價值觀和技術性的生成。人工智能是以追求效益為初心的理性工具,在技能研發階段尚未對倫理規范提出強制要求,技術倫理向來是人工智能難以逾越的一道鴻溝;影視傳媒教育則是以培養學生的倫理觀和價值觀為出發點,重視以道德審美為核心的理性意識。智能化傳媒教育將信息技術和影視教學進行結合,使得理性工具得以同理性意識深度融合,人文關懷建立在技術作用之上,這既是培養受教育者核心價值觀的時代需要,亦是強化人工智能技術倫理的有效途徑。人工智能時代,強調智能化影視傳媒教育技術性和價值觀的生成,與其說是建立在影視教育應用場景上的技術倫理規范,不如說是借信息技術完成對傳媒倫理和受教育者價值觀的理性建構,讓人工智能發展緊密聯系意識形態和倫理道德問題,加深技術手段和教育學習的彼此作用,從而獲得傳媒教學在倫理層面的共識。隨著傳媒影響力的逐步擴大,以內容為載體的影視教學活動意味著要擔負起更重要的教學責任,學科研究核心價值觀的建設必須以注重傳媒倫理和技術倫理為教學基礎,重新建構現有的倫理道德觀念,為人工智能技術注入價值觀的活的靈魂。
二、影視教育智能化發展的風險問題
人工智能技術的迅速發展,賦予影視傳媒教育極大的應用價值,與此同時也面臨著潛在的風險問題。
1.灌輸式教育仍占據主流,智能化影視教學陷入價值認知困境。在人工智能技術出現以前,理論+實踐的教學策略已經成為一種固定的形態存在于傳統影視教學工作中,受教育者根據統一的培養目標規劃自己的學習方式,包括影視創作及影視理論等相關課程都按照相同的培養模式進行。由于教育主體對人工智能的認知存在兩極分化的現象,過往只能夠通灌輸式對學生進行強制教育,智能化影視教學則是處于小范圍內的實踐和創新。對影視教育而言,理論與實踐是學習的內容,繼承與創新才是研究的實質。明確人工智能教育的價值認知,從灌輸教育逐步邁向定制化教育,為高校的人才培養提供重要的智力支持,應當是影視教育智能化轉型發展的著力點。
2.智能教育應用場景缺乏思考,其深度和廣度有待進一步挖掘。當前,智慧課堂、智慧校園的出現奠定了智能傳媒教育的基本雛形,依靠大數據、物聯網等信息技術支撐的智能傳媒教育,在平臺搭建層面已出現顯著性成果,但對應用場景的深度和廣度挖掘還存在明顯問題。影視教育智能化應當以追求個性化和定制化教育為目標,崇尚的是終身學習的教學理念,不應當將人工智能技術僅局限于傳統的教學課堂,除了要從“線下”走向“線上”,還需要考慮到以人機交互為主要形態的教學應用場景,挖掘人工智能教育更多的應用情境和展現方式,從而對影視課堂的理論與實踐教學價值提供合理的在場性證明。
3.專業壁壘依然存在,智能化教學成果馬太效應極為明顯。智能教育世界要求培養更加多元化的應用型人才,但人工智能的馬太效應逐漸滲透到影視傳媒教育工作中,也會導致教學成果受到出現嚴重的失衡現象,難以滿足高校對人才培養的多元化需求。作為藝術研究的影視教學活動,其科學精神和創新實踐同樣重要。尤其在媒介融合背景下,要想推進受教育者從“影視學者”逐漸過渡到“影視作者”,人工智能不僅需要滿足師生的定制化教學任務,還應當破除專業和行業的壁壘,對其相關聯的學科和傳媒領域進行合作,才能夠改變當前智能化影視教育在教學模式上面臨的不足,不斷為社會輸送更多的應用型人才。
三、影視教育智能化發展的轉型實踐
面對智能傳媒教育的風險與挑戰,影視專業更應當立足于自身的教育發展特色,從人才培養模式、應用場景建設、教育資源整合等方面,推進影視教育智能化發展的轉型實踐。
1.從“灌輸教育”走向“精準教育”,創建新的人才培養模式。智能傳媒教育范式的自主性建構,應當立足于對傳統教學效率和人才培養模式的顛覆?;诋斍坝耙晜髅街悄芑l展在人才培養模式層面的不足,其轉型實踐需要從受教育者的個性化需求出發,在師生、家長和社會的通力合作下,創建新的人才培養模式,利用碎片化學習完成系統化的學習過程,逐漸從“灌輸式教育”走向“精準化教育”。例如,人工智能時代對影視學生的培養更趨向于“以個人為導向的系統化學習”,通過前期對受教育者的大數據整理,對每一位同學的邏輯性、想象力、創造性和溝通能力等進行分析,從影視理論和影視創作兩大方向出發對受教育者形成定制化的學生畫像,并提供針對性的智慧作業,幫助教師采集學生的學習情況,從而實現規范化的信息管理??梢灶A見的是,智能傳媒時代,“互聯網+教育”學習模式的生成,在推動知識平權化等方面發揮重要價值,成為影視教育智能化追求的重要轉型路徑。
2.從“課堂缺席”走向“課堂在場”,打造新的傳媒教育平臺。人工智能不僅要改變傳統的人才培養模式,同樣也應當提供更加多元化的學習應用場景。過去的影視研究多局限于單一的課堂場景,采用課上理論和課下實踐的方式進行授課,完成影視教學的閉環。人工智能時代,影視傳媒教育應當調整原有的受教育模式,通過搭建合理的人工智能應用平臺,可以巧妙地將課堂場景與智能技術結合起來,為受教育者提供更加多樣性的教學應用場景,從而實現成長課堂的“在場共生”。例如,人工智能可以帶動影視制作的推陳出新,通過搭建智慧超媒體系統,將電影屏幕從影院搬到校園,自動生成無窮界面。與此同時,影視傳媒的智能化還可以幫助教師自動生成電影梗概,將理論性教學轉變為可視化形象,使電影理論同定制化的影像人物之間建立匹配關聯,讓教育場景從線下逐步延伸到線上,為影視研究提供重要的云服務。
3.從“媒教分離”走向“共建合作”,實現產研學的自主對接。影視教育智能化發展的最終目的是為了尋求理論與實踐的融和,幫助構建起傳媒教育和傳媒業界的良性生態關系。傳媒教育智能化也可以全面提高受教育者的學習效率和工作效率,通過優化教育資源,帶動影視內容的高質量生產、影視人才的高質量創作。因此,從“媒教分離”走向“共建合作”,引導產研學的自主對接也成為了影視教育智能化轉型實踐的有效探索。未來的影視傳媒發展,能夠抓取海量資源建構獨立的影像景觀模型,為機器人參加藝考創造可能性,并且也可以緊抓電影內容的智能化生產,從前期的電影腳本自動化寫作到后期的虛擬演員個性化定制,系統均可以對劇本創作、電影拍攝等課程進行精準化評估,從中篩選出符合影視公司要求的作品,進入后續的市場化操作。
什么是算法?
算法是指由計算機執行的一系列獨立的指令和動作。從初始狀態和初始輸入開始,這些指令描述了完整的計算步驟――通過一系列有限的、確切的指令,產生并輸出答案和數據,最終止于結束狀態。
人工智能的算法是一套利用機器智能解決問題的復雜手段。過去,我們給計算機下達規則式的指令來解決問題;現在,我們只要告訴計算機想解決的問題,它就可以自行選擇算法來解決問題――這便是人工智能帶來的根本性變革。
人工智能最重要的是學習能力,即根據機器以往的經驗來不斷優化算法。第一次人工智能的浪潮始于上世紀70年代,當時的人工智能算法采用的是符號邏輯推理規則,以實現知識表征。由于缺乏自我學習能力,那時的人工智能無法解決新領域中出現的問題。第二代人工智能雖然在學習和感知能力上表現更佳,但由于當時的機器學習模型不具備大量吸收訓練數據的能力,與人類的水平仍有很大差距。
算法的發展
大約在10年前,深層與結構化機器學習,或稱為深度學習的新范式,讓人工智能算法的智能程度越來越高。傳統的機器學習方法讓電腦學習的“知識”,要由人來設計并輸入,因為需要掌握大量的專業知識,導致特征工程成為機器學習的瓶頸。深度學習打破了這一瓶頸,通過多層結構算法,機器對數據集的“特征”進行篩選和提取,通過反復訓練,最終獲得了提取抽象概念的能力。
隨著神經網絡研究的深入,計算機視覺和聽覺等讓人工智能技術再次迎來發展的拐點,計算機的算法也越來越精進。未來,計算機對自然語言的應用還將大幅提高,電腦可以聽懂、讀懂人類平常所用的語言,而不僅僅是機器指令。這樣,存在于互聯網和局域網中的海量信息,都可以成為深度學習的素材。
關鍵詞:人工智能;犯罪主體;刑罰
新事物的發展會對社會原有規范產生沖擊,因此社會規范需要不斷調整來應對這些問題。人工智能的出現對傳統社會規范特別是刑法犯罪主體認定、罪名設置等提出了深刻地挑戰。[1]面對這些刑法應該如何應對值得我們深入思考。
一、人工智能對刑法傳統制度的沖擊
人工智能大致可分為弱人工智能、強人工智能和超人工智能階段。超人工智能在當下來看太過科幻化,我們暫且不在本文中討論。弱人工智能具有超強的運算和學習能力,但只能在人類設定的算法程序下實施著特定動作;而強人工智能除了具備弱人工智能的優點外還可能像人類一樣擁有自主意識。
(一)弱人工智能對刑法的影響
1.弱人工智能對犯罪主體認定的沖擊。無人駕駛汽車造成的交通案件是人工智能對犯罪主體認定提出挑戰的典型代表。無人駕駛技術參與的交通肇事與一般交通肇事在本質上是一樣的,唯一的爭論焦點就在于人工智能可否成為交通事故的責任者。在現行刑法領域內,犯罪都是“人”在實施的,這里的“人”指的是自然人和法人,從目前的刑法條文來看人工智能不是犯罪構成要件中的“人”。[2]無人駕駛汽車可以完全由人工智能來操作,那么在“人”退居幕后的情況下交通肇事的行為是由誰實施的呢?刑法學上刑事主體的歸責原則是“無行為無犯罪”,如今人工智能仍只是被視為高科技產品,違反交通法規并不是它的“本意”。既然其沒有支配行為的意志,將其認定為犯罪主體在目前來看是不合適的。
2.弱人工智能對罪名設置的影響。弱人工智能在現階段仍被視為工具,它在特定程序的控制下“聽命”于人類,這使其很容易被不懷好意之徒利用而成為“得力”的犯罪工具,但是由于人工智能的類人化特點使其與傳統的犯罪工具相比大相徑庭,例如有人利用人工智能進行在現階段應該如何定罪呢?我們發現現行刑法并沒有針對這種行為的罪名設置,根據罪刑法定原則無法對其定罪。
(二)強人工智能對刑法的影響
1.人工智能對主體責任判斷的沖擊。強人工智能可能像人類一樣擁有自主意識而被賦予主體資格獨立承擔刑事責任,而刑事責任的承擔需要分析積極因素和消極因素兩個方面,積極因素包括罪過(故意、過失)、目的等,消極因素包括責任阻卻事由等,所以說刑事責任的判斷是需要分析主體的主觀意識的。而主觀意識往往是不可觀的,在傳統犯罪中我們可以通過客觀行為判斷出主體的主觀意識;而強人工智能體的算法邏輯和人類的思維邏輯可能是完全不同的,也就是說我們無法通過客觀行為來判斷它的主觀意識,那么在這種情況下我們該如何判斷人工智能的主觀意識呢?
2.人工智能對刑罰制度的影響。人工智能從本質上來講是由特定程序控制的計算機。鑒于人工智能心智和形體可分離的特殊性,一旦被賦予刑事主體資格,在人工智能觸犯刑法時要規制的是控制它行為的特定程序,而不是該程序的外在載體即計算機。因此我們對人工智能適用刑罰時,重點是如何限制其程序的自由或者剝奪其程序的生命等。簡單的切斷電源、斷開網絡或者單純地限制人工智能形體的自由,并不能達到規制人工智能的目的,因為人工智能的程序是由預先輸入的命令語句所決定的,以上措施可使人工智能體暫時無法工作但是其內在特定程序并未改變,在接通電源和網絡或者解除對其自由地限制后很難保證其不會犯同樣的罪行。
二、人工智能時代刑法的制度重構
(一)刑法對弱人工智能階段所產生問題的回應
1.刑法關于弱人工智能對犯罪主體認定帶來的沖擊的回應
以無人駕駛汽車造成的交通肇事案件為例,按照“無行為無犯罪”的傳統刑法規則原則來看,似乎傳統意義上的肇事者已經“難覓蹤跡”了。[3]筆者認為,可以從如下方面來應對人工智能對犯罪主體認定帶來的沖擊:
(1)以交通肇事罪追究無人駕駛汽車使用者的責任。在無人駕駛汽車的行駛中,雖然無人駕駛汽車主要靠車內智能駕駛儀來實現車輛的行駛,但這并不是說免除了使用者的一切注意義務,特別是車輛在情況復雜的道路上行駛時,使用者更要盡到注意義務,若是由于使用者未盡到注意義務造成重大交通事故,則可以交通肇事罪追究無人駕駛汽車使用者的責任。
(2)以產品犯罪追究無人駕駛汽車生產者和銷售者的責任。在現階段無人駕駛汽車仍被當做產品來看待,那么無人駕駛汽車的生產者和銷售者就要為此承擔一定程度的產品質量保證責任,如果不是由于現有技術瓶頸,而是無人駕駛汽車存在質量問題導致重大交通事故的發生,則可以生產銷售偽劣產品罪等產品犯罪來追究生產者和銷售者的責任。[4]
(3)由社會保險來承擔責任。如果說該事故是由于當下技術瓶頸等非人為因素造成的,是社會發展所帶來的風險。[5]那么此時可以選擇由社會保險來承擔這份責任。
2.刑法關于弱人工智能對罪名設置影響的回應。針對可能有人利用人工智能犯罪而法無明文規定的情況,在罪名設置方面有增設新的罪名或者對傳統刑法罪名進行修正兩種方案。增設新的罪名如“濫用人工智能罪”等口袋罪名,在人工智能的外延尚未徹底界定清楚的情況下貿然增設口袋罪會顯得過于寬泛而無法準確定罪量刑。鑒于此筆者認為可以對傳統刑法罪名作出針對性修改使其可以囊括該種類型的犯罪行為,這樣就可以達到制裁此類犯罪維護社會秩序的目的。
(二)刑法對強人工智能階段所產生問題的回應
1.強人工智能階段刑法對人工智能主體責任判斷的回應。上文中我們提到由于人工智能的特殊性我們可能無法通過傳統方式分析出它的主觀意識。[6]對于此筆者認為,既然人工智能是由算法程序控制的,我們不妨通過探究算法邏輯并摸索出算法程序的特點,進而通過分析人工智能的算法程序來判斷它的主觀意識,最終得出其應當承擔的刑事責任。
2.強人工智能階段刑法對人工智能刑罰制度的回應。由于人工智能體的特殊性,現行刑罰制度無法對其直接適用,因此我們需要創造出針對人工智能程序的特有刑罰。比如我們可以考慮通過更高級別的命令語句修改或者重新編寫其程序,以此降低或者終止它的學習和運算能力,這樣就可以達到規制人工智能程序的目的。
結語
人工智能已全面參與到我們的生產生活之中,并對我們的現行社會規范產生了深刻的影響,刑法作為人類社會穩定的重要調節器受到了人工智能的多方面挑戰。因此刑法需要做出針對性的改變,盡量減少人工智能對人類社會造成的消極影響并讓其更好的服務于人類的當下與未來。
參考文獻
[1] 王軍:《人工智能的倫理問題:挑戰與應對》,載《倫理學研究》2018年第4期。
[2] 何麗:《基于人工智能視域下的法律主體研究》,載《政法學刊》2018年第3期。
[3] 譚釗:《淺談無人駕駛汽車的前景和面臨的挑戰》,載《東方法學》2017年第8期。
[4] 林偉杰:《產品質量法釋義》,中國民藝出版社2006年4月版。
[5] 林偉:《關于預防人工智能反叛的初步探討》,載《機器人技術與應用》2017年第4期。
摘要
人工智能時代,網絡空間安全威脅全面泛化,如何利用人工智能思想和技術應對各類安全威脅,是國內外產業界共同努力的方向。本報告從風險演進和技術邏輯的角度,將網絡空間安全分為網絡系統安全、網絡內容安全和物理網絡系統安全三大領域;在此基礎上,本報告借鑒 Gartner 公司的 ASA 自適應安全架構模型,從預測、防御、檢測、響應四個維度,提出人工智能技術在網絡空間安全領域的具體應用模式。與此同時,本報告結合國內外企業最佳實踐,詳細闡釋人工智能賦能網絡空間安全(AI+安全)的最新進展。最后,本報告提出,人工智能安全將成為人工智能產業發展最大藍海,人工智能的本體安全決定安全應用的發展進程,「人工+「智能將長期主導安全實踐,人工智能技術路線豐富將改善安全困境,網絡空間安全將驅動人工智能國際合作。
目 錄
第一章 人工智能技術的發展沿革
(一) 人工智能技術的關鍵階段
(二) 人工智能技術的驅動因素
(三) 人工智能技術的典型代表
(四) 人工智能技術的廣泛應用
第二章 網絡空間安全的內涵與態勢
(一) 網絡空間安全的內涵
(二) 人工智能時代網絡空間安全發展態勢
1、網絡空間安全威脅趨向智能2、網絡空間安全邊界開放擴張3、網絡空間安全人力面臨不足4、網絡空間安全防御趨向主動
第三章 人工智能在網絡空間安全領域的應用模式
(一) AI+安全的應用優勢
(二) AI+安全的產業格局
(三) AI+安全的實現模式
1、人工智能應用于網絡系統安全2、人工智能應用于網絡內容安全3、人工智能應用于物理網絡系統安全
第四章 人工智能在網絡空間安全領域的應用案例
網絡系統安全篇
(一)病毒及惡意代碼檢測與防御
(二)網絡入侵檢測與防御
第三章 人工智能在網絡空間安全領域的應用模式
人工智能技術日趨成熟,人工智能在網絡空間安全領域的應用(簡稱 AI+安全)不僅能夠全面提高網絡空間各類威脅的響應和應對速度,而且能夠全面提高風險防范的預見性和準確性。因此,人工智能技術已經被全面應用于網絡空間安全領域,在應對智能時代人類各類安全難題中發揮著巨大潛力。
(一)AI+安全的應用優勢
人們應對和解決安全威脅,從感知和意識到不安全的狀態開始,通過經驗知識加以分析,針對威脅形態做出決策,選擇最優的行動脫離不安全狀態。類人的人工智能,正是令機器學會從認識物理世界到自主決策的過程,其內在邏輯是通過數據輸入理解世界,或通過傳感器感知環境,然后運用模式識別實現數據的分類、聚類、回歸等分析,并據此做出最優的決策推薦。
當人工智能運用到安全領域,機器自動化和機器學習技術能有效且高效地幫助人類預測、感知和識別安全風險,快速檢測定位危險來源,分析安全問題產生的原因和危害方式,綜合智慧大腦的知識庫判斷并選擇最優策略,采取緩解措施或抵抗威脅,甚至提供進一步緩解和修復的建議。這個過程不僅將人們從繁重、耗時、復雜的任務中解放出來,且面對不斷變化的風險環境、異常的攻擊威脅形態比人更快、更準確,綜合分析的靈活性和效率也更高。
因此,人工智能的「思考和行動邏輯與安全防護的邏輯從本質上是自洽的,網絡空間安全天然是人工智能技術大顯身手的領域。
(1)基于大數據分析的高效威脅識別:大數據為機器學習和深度學習算法提供源源動能,使人工智能保持良好的自我學習能力,升級的安全分析引擎,具有動態適應各種不確定環境的能力,有助于更好地針對大量模糊、非線性、異構數據做出因地制宜的聚合、分類、序列化等分析處理,甚至實現了對行為及動因的分析,大幅提升檢測、識別已知和未知網絡空間安全威脅的效率,升級精準度和自動化程度。
(2)基于深度學習的精準關聯分析:人工智能的深度學習算法在發掘海量數據中的復雜關聯方面表現突出,擅長綜合定量分析相關安全性,有助于全面感知內外部安全威脅。人工智能技術對各種網絡安全要素和百千級維度的安全風險數據進行歸并融合、關聯分析,再經過深度學習的綜合理解、評估后對安全威脅的發展趨勢做出預測,還能夠自主設立安全基線達到精細度量網絡安全性的效果,從而構建立體、動態、精準和自適應的網絡安全威脅態勢感知體系。
(3)基于自主優化的快速應急響應:人工智能展現出強大的學習、思考和進化能力,能夠從容應對未知、變化、激增的攻擊行為,并結合當前威脅情報和現有安全策略形成適應性極高的安全智慧,主動快速選擇調整安全防護策略,并付諸實施,最終幫助構建全面感知、適應協同、智能防護、優化演進的主動安全防御體系。
(4)基于進化賦能的良善廣域治理:隨著網絡空間內涵外延的不斷擴展,人類面臨的安全威脅無論從數量、來源、形態、程度和修復性上都在超出原本行之有效的分工和應對能力,有可能處于失控邊緣,人工智能對人的最高智慧的極限探索,也將拓展網絡治理的理念和方式,實現安全治理的突破性創新。人工智能不僅能解決當下的安全難題,而通過在安全場景的深化應用和檢驗,發現人工智能的缺陷和不足,為下一階段的人工智能發展和應用奠定基礎,指明方向,推動人工智能技術的持續變革及其更廣域的賦能。
(二)AI+安全的產業格局
人工智能以其獨特的優勢正在各類安全場景中形成多種多樣的解決方案。從可觀察的市場指標來看,近幾年來人工智能安全市場迅速成長, 公司在 2018 年的研究表明,在網絡安全中人工智能應用場景增多,同時地域覆蓋范圍擴大,將進一步擴大技術在安全領域的應用,因此人工智能技術在安全市場內將快速發展,預計到 2024 年,可用在安全中的人工智能技術市場規模將超過 350 億美元,在 2017-2024 年之間年復合增長率(CAGR)可達 31%。
MarketsandMarkets 公司在 2018 年 1 月的《安全市場中人工智能》報告則認為,2016 年 AI 安全市場規模就已達 29.9 億美元、2017 年更是達到 39.2 億美元,預測在 2025 年將達到 348.1 億美元,年復合增長率為 31.38%。而愛爾蘭的 Research and Markets 公司在 2018 年 4 月份了專門的市場研究報告,認為到 2023 年人工智能在安全領域應用的市場規模將達 182 億美元,年復合增長率為 34.5%。由于機器學習對付網絡犯罪較為有效,因此機器學習作為單一技術將占領最大的一塊市場,到 2023 年其市場規模預計可達 60 億美元。
除了傳統安全公司致力于人工智能安全,大型互聯網企業也在積極開展人工智能安全實踐,如 Google、Facebook、Amazon、騰訊、阿里巴巴等均在圍繞自身業務積極布局人工智能安全應用。
(三)AI+安全的實現模式
人工智能是以計算機科學為基礎的綜合交叉學科,涉及技術領域眾多、應用范疇廣泛,其知識、技術體系實際與整個科學體系的演化和發展密切相關。因此,如何根據各類場景安全需求的變化,進行 AI 技術的系統化配置尤為關鍵。
本報告采用 Gartner 公司 2014 年提出的自適應安全架構(ASA,Adaptive SecurityArchitecture)來分析安全場景中人工智能技術的應用需求,此架構重在持續監控和行為分析,統合安全中預測、防御、檢測、響應四層面,直觀的采用四象限圖來進行安全建模。其中「預測指檢測安全威脅行動的能力;「防御表示現有預防攻擊的產品和流程;「檢測用以發現、監測、確認及遏制攻擊行為的手段;「響應用來描述調查、修復問題的能力。
本報告將 AI+安全的實現模式按照階段進行分類和總結,識別各領域的外在和潛在的安全需求,采用 ASA 分析應用場景的安全需求及技術要求,結合算法和模型的多維度分析, 尋找 AI+安全實現模式與適應條件,揭示技術如何響應和滿足安全需求,促進業務系統實現持續的自我進化、自我調整,最終動態適應網絡空間不斷變化的各類安全威脅。
1、人工智能應用于網絡系統安全
人工智能技術較早應用于網絡系統安全領域,從機器學習、專家系統以及過程自動化等到如今的深度學習,越來越多的人工智能技術被證實能有效增強網絡系統安全防御:
機器學習 (ML, Machine Learning):在安全中使用機器學習技術可增強系統的預測能力,動態防御攻擊,提升安全事件響應能力。專家系統(ES, Expert System):可用于安全事件發生時為人提供決策輔助或部分自主決策。過程自動化 (AT, Automation ):在安全領域中應用較為普遍,代替或協助人類進行檢測或修復,尤其是安全事件的審計、取證,有不可替代的作用。深度學習(DL, Deep Learning):在安全領域中應用非常廣泛,如探測與防御、威脅情報感知,結合其他技術的發展取得極高的成就。
如圖 3 所示,通過分析人工智能技術應用于網絡系統安全,在四個層面均可有效提升安全效能:
預測:基于無監督學習、可持續訓練的機器學習技術,可以提前研判網絡威脅,用專家系統、機器學習和過程自動化技術來進行風險評估并建立安全基線,可以讓系統固若金湯。
防御:發現系統潛在風險或漏洞后,可采用過程自動化技術進行加固。安全事件發生時,機器學習還能通過模擬來誘導攻擊者,保護更有價值的數字資產,避免系統遭受攻擊。
檢測:組合機器學習、專家系統等工具連續監控流量,可以識別攻擊模式,實現實時、無人參與的網絡分析,洞察系統的安全態勢,動態靈活調整系統安全策略,讓系統適應不斷變化的安全環境。
響應:系統可及時將威脅分析和分類,實現自動或有人介入響應,為后續恢復正常并審計事件提供幫助和指引。
因此人工智能技術應用于網絡系統安全,正在改變當前安全態勢,可讓系統彈性應對日益細化的網絡攻擊。在安全領域使用人工智能技術也會帶來一些新問題,不僅有人工智能技術用于網絡攻擊等伴生問題,還有如隱私保護等道德倫理問題,因此還需要多種措施保證其合理應用。總而言之,利用機器的智慧和力量來支持和保障網絡系統安全行之有效。
2、人工智能應用于網絡內容安全
人工智能技術可被應用于網絡內容安全領域,參與網絡文本內容檢測與分類、視頻和圖片內容識別、語音內容檢測等事務,切實高效地協助人類進行內容分類和管理。面對包括視頻、圖片、文字等實時海量的信息內容,人工方式開展網絡內容治理已經捉襟見肘,人工智能技術在網絡內容治理層面已然不可替代。
在網絡內容安全領域所應用的人工智能技術如下:
自然語言處理(NLP, Natural Language Processing):可用于理解文字、語音等人類創造的內容,在內容安全領域不可或缺。圖像處理(IP, Image Processing):對圖像進行分析,進行內容的識別和分類,在內容安全中常用于不良信息處理。視頻分析技術 (VA, Video Analysis):對目標行為的視頻進行分析,識別出視頻中活動的目標及相應的內涵,用于不良信息識別。
如圖 4 所示,通過分析人工智能技術應用于網絡內容安全,在四個層面均可有效提升安全效能:
預防階段:內容安全最重要的是合規性,由于各領域的監管法律/政策的側重點不同而有所區別且動態變化。在預防階段,可使用深度學習和自然語言處理進行相關法律法規條文的理解和解讀,并設定內容安全基線,再由深度學習工具進行場景預測和風險評估,并及時將結果向網絡內容管理人員報告。
防御階段:應用深度學習等工具可完善系統,防范潛在安全事件的發生。
檢測階段:自然語言、圖像、視頻分析等智能工具能快速識別內容,動態比對安全基線,及時將分析結果交付給人類伙伴進行后續處置,除此之外,基于內容分析的情感人工智能也已逐步應用于輿情預警,取得不俗成果。
響應階段:在后續調查或留存審計資料階段,過程自動化同樣不可或缺。
3、人工智能應用于物理網絡系統安全
隨著物聯網、工業互聯網、5G 等技術的成熟,網絡空間發生深刻變化,人、物、物理空間通過各類系統實現無縫連接,由于涉及的領域眾多同時接入的設備數量巨大,傳感器網絡所產生的數據可能是高頻低密度數據,人工已經難以應對,采用人工智能勢在必行。但由于應用場景極為復雜多樣,可供應用的人工智能技術將更加廣泛,并會驅動人工智能技術自身新發展。
情緒識別(ER, Emotion Recognition):不僅可用圖像處理或音頻數據獲得人類的情緒狀態,還可以通過文本分析、心率、腦電波等方式感知人類的情緒狀態,在物理網絡中將應用較為普遍,通過識別人類的情緒狀態從而可與周邊環境的互動更為安全。AI 建模(DT, Digital Twin/AI Modeling):通過軟件來溝通物理系統與數字世界。生物特征識別 (BO, Biometrics):可通過獲取和分析人體的生理和行為特征來實現人類唯一身份的智能和自動鑒別,包括人臉識別、虹膜識別、指紋識別、掌紋識別等技術。虛擬 (VA, Virtual Agents):這類具有人類行為和思考特征的智能程序,協助人類識別安全風險因素,讓人類在物理網絡世界中更安全。
AI生長
人工智能新近的發展似乎顯得太快,超出了人們的預期和適應能力。2014年6月7日,正好是阿蘭?圖靈逝世60周年紀念日,聊天程序“尤金?古斯特曼”有爭議地通過了圖靈測試。此后宣稱通過圖靈測試的計算機頻頻出現。人們普遍相信,計算機模仿人類談話而不被察覺,徹底實現的一天即使現在還沒有到來,也為時不遠了。
神經元網絡理論、控制、深度學習和大數據的進步在不同側面加強了人工智能,使它在一些特定的任務上打敗了人類。特斯拉的聯合創始人、CEO馬斯克說,計算機比人更適合開車,“當所有的車都知道自己該怎么開的時候,讓人來操控兩噸重的致命機械太危險了”。理智上我們不得不贊同他,但情感上似乎難以接受――世界的方向盤是否也和汽車的方向盤一樣,從此交到了計算機的手里?計算機冷笑一聲:“當然是我們來控制世界,連方向盤都不需要?!?/p>
波普(K. R. Popper)的話在耳邊響起――客觀知識的世界,是人類創造的,卻是自主的,也會具有創造性。盡管他是在50年前(確切地說是1967年)說這番話的,此刻我們面對人工智能這一存在,“細思恐極”。
強人工智能――會自主行動的機器人,會學習、自我改進、像生物一樣進化的機器人是迫在眉睫的現實嗎?對人工智能的擔心究竟只是精神自虐,還是伴隨著符合事實與邏輯的預測?如果是前者,不需要AI恐懼的人可以松一口氣,如果是后者,早早想出應對之策才行。
兩種恐懼
分析起來,AI恐懼無非兩種,可以稱為“AI的客觀后果恐懼”和“AI的主觀意圖恐懼”。在兩種恐懼之前還有一種失落,因為機器比人能干,未來的電腦可能比人還聰明,人之為人的部分榮譽感被剝奪了。但這種失落很快就能適應,人們早有經驗――起重機比人力氣大,望遠鏡比人看得遠,計算器比人算得快,飛機還會飛呢。超越人能力局限的東西很多很多,只要它們被人掌握著,就不僅僅是對人能力的超越,而且是對人能力的延伸,能力再大也不用害怕。電腦真比人聰明了,就算有點失落,只要它們為我們所用,聽我們安排,總歸好處多多。況且“聰明”定義模糊,解微分方程,下棋,電腦都比人厲害,是不是就比人聰明了呢?也不能簡單地下結論。
在客觀后果一側,討論的比較多的是就業問題,擔心機器人或者軟件把人的工作崗位一批一批地搶走。工業生產不用說,流水線工人是最先被機器人替代的,無人工廠不是什么科幻,而是既成事實。之后是服務業,有餐館嘗試用小型無人機上菜,也有機器快遞小哥,各種智能機器發明出來之后,大量留給人的服務崗位就會消失。如果你現在是倉庫管理員,或者坐在高速公路入口發卡,趕緊準備下一份工作吧。之后是企業中層,啟用各種交流軟件和自動工作流程軟件,企業內部上傳下達的事情少了,啟用商業智能軟件,輔助決策的參謀崗位也少了。之后是創造性工作,包括媒體工作,做主持人、做研究員、做建筑師,虛擬角色和軟件勝任愉快,連寫文章、作曲、畫畫、導致失業不是人工智能負面后果的全部,擔心還包括健康問題、非對稱戰爭等等。家里有了機器人服務員,人們衣來伸手飯來張口,只用當一個沙發土豆就可以了。大量無人飛機和機器士兵,改變了戰場的倫理――優勢一方沒有面對活人敵手的心理壓力,打起仗來點點鼠標,像打游戲;劣勢一方面抵御機器的進攻,連敵人的面都見不著,憤怒的情緒可能導向更多恐怖極端手段,把戰火引向敵方非軍事人員。
這些對人工智能改變社會的推測大體合乎邏輯,但并不帶來太大的困擾。人工智能造成的負面后果會被它帶來的好處抵消,人們相信積極影響遠遠大于消極影響,畢竟危險的、繁重的和乏味的工作由機器人來承擔更合適。
在主觀意圖一側,AI恐懼的程度會高出幾個級別。人們擔心的是機器產生壓迫人、奴役人、消滅人的意圖和行動。盡管這種擔心非常嚴肅,也不見得是杞人憂天,但此刻還不到真正需要恐懼的時候。就像看電影不能代替學物理一樣,面對AI發抖也不能代替冷靜的分析。確實沒有論據證明,只有生物才能產生意識,因此假設機器可能產生意識在科學上是“合法”的,但反過來,證實機器可能產生意識這個假設的論據,現在也還沒有出現。何必被一種可能性有多大都不知道的想法嚇破膽呢?除非你喜歡這種恐懼感,就像喜歡看鬼片一樣。
以“壞”自保
最近有三個“牛人”聊到這個話題。2016年4月,《三體》作者、科幻作家劉慈欣,百度首席科學家吳恩達,對話“未來人工智能20年”。梁冬主持對話,扮演對人工智能的發展憂心忡忡的人。按照“AI的客觀后果恐懼”和“AI的主觀意圖恐懼”分類法梳理三個人的觀點,先說主觀意圖一側。吳恩達的意見用一句歌詞就概括了,“一千年以后……”,他的意思是機器表現得像人一樣,成為有意識的物種,還早著呢,究竟會不會也不知道,何必擔心?梁冬說,模仿鳥造飛機不成功,人類造出飛行機器其實用了和生物界不同的方案,因此造出思考機器也不必了解人腦,對人腦的無知根本不是人工智能的發展障礙。吳恩達和劉慈欣都表示同意。三位一致認為,如果機器真成了物種,那也是人類的孩子,一開始會模仿父母(即人類)的行為,如果機器變成了壞孩子,人類也沒別人可埋怨。劉慈欣說,他特別“相信”人的“壞”,足以防范一個機器物種傷害人類自己。