首頁>國企·民企>深·觀察深·觀察
當人工智能成為“矛”,“盾”在哪里?
這是一份AI人對AI人發(fā)出的警告。
近日,OpenAI等14大知名機構聯(lián)名發(fā)布了一份關于惡意使用人工智能的報告。該報告從技術角度出發(fā),指出了未來5年內人工智能被濫用的風險。
危險和騙術正在升級。
某安全管理系統(tǒng)的管理員在瀏覽網站,一則模型火車的廣告吸引了她。她點開還下載了一個小冊子。此時,攻擊開始了。小冊子一旦被打開,黑客就能窺視她的電腦,獲得安全管理系統(tǒng)的用戶名和密碼。
至于管理員看到的廣告,則是黑客根據其個人興趣,結合人工智能精心設計的“陷阱”。
雖然這是報告中給出的假設性案例,但這個操作,一點都不令人意外。
用人工智能搞破壞真不是科幻
報告名為《惡意使用人工智能:預警、防止和緩解》,它由26位作者共同完成,其中不乏人工智能技術研究者。
報告將濫用人工智能的威脅分為了物理安全、數(shù)字安全和政治安全三類。在物理安全方面,不法分子可以入侵網絡系統(tǒng),將無人機或者其他無人設備變成攻擊的武器;在數(shù)字安全方面,人工智能可以被用來自動執(zhí)行網絡攻擊,它也能合成人類的指紋或聲紋騙過識別系統(tǒng);在政治安全方面,人工智能可以用來進行監(jiān)視、煽動和欺騙,引發(fā)公眾恐慌和社會動蕩。
這些都不是危言聳聽,甚至已有實例。
2017年,浙江警方破獲了一起利用人工智能犯罪、侵犯公民個人信息案。專業(yè)黑客用深度學習技術訓練機器,讓機器能夠自主操作,批量識別驗證碼?!昂芏虝r間就能識別上千上萬個驗證碼?!碑敃r的辦案民警介紹。
北京郵電大學人機交互與認知工程實驗室主任劉偉曾見識過一家人工智能公司的“聲音合成”技術,A說的話完全可以套上B的聲音,“一般人識別不出來”。劉偉說,這些技術一旦被別有用心的人利用,“世界可能就亂套了”。
要打技術攻防戰(zhàn),也要制度來規(guī)范
怎么辦?
一方面是升級技術。當攻擊方用上了導彈大炮,防御方就不能只用“小米加步槍”。中國社科院文化法制研究中心研究員劉明說,技術帶來的問題,有時也可以用技術發(fā)展來解決。人工智能是一種工具,工具的發(fā)展也許不會從根本上改變行為的性質,但會改變行為的模式和行為后果的烈度。“如果意識到自己所在行業(yè)存在人工智能帶來的威脅,自身加強防范就很重要?!?/p>
劉偉也表示,如果有一種技術能將聲音模仿得惟妙惟肖,就會有另一種技術來識別這聲音來自李鬼還是李逵。“這可能是一場無止境的技術攻防戰(zhàn)?!?/p>
另一方面,則需要制度。
“人工智能本身沒有倫理問題,最終還是制造者、使用者、傳播者們(人)的倫理問題。”劉偉追溯“倫理”一詞起源,它來自希臘文的“ethos”,是風俗和習慣的意思。東西方其實有不同的倫理觀,在劉偉看來,西方研究“人與物”的關系,東方則喜歡談“人與人”的關系。倫理具有情境性,還有文化依賴性?!叭斯ぶ悄軅惱硌芯恳紤]交互主體-人類的思維與認知方式,要弄清楚人的倫理中可以進行結構化處理的部分,再讓機器形成所謂的倫理?!?/p>
除了倫理框架,也需要規(guī)范甚至是法律。
“當技術即將作用于現(xiàn)實生活,一些危險已經可以預測,從法學家的角度來看,此時我們來討論問題如何解決、責任如何分配是比較合適的?!眲⒚饕矃⒓舆^多次有關自動駕駛規(guī)范的研討會。自動駕駛已在大規(guī)模應用前夕,因此其規(guī)則研討就需要提上議事日程。但這種規(guī)則的制定也無法一蹴而就,還需根據實踐中出現(xiàn)的真問題再度進行調整?!半S著技術的發(fā)展,對應的法律規(guī)范調整的靈活度會比以前更大,調整速度會更快?!眲⒚髡f。
劉偉認為,人工智能發(fā)展規(guī)范的制定,必須要有人文社科學者的參與。他主張不同學科、不同領域的人加強交流。政府、民間組織、科研機構和企業(yè)都可以搭建這樣的橋梁,為各行各業(yè)的人提供討論的平臺。畢竟,人工智能將要影響的,可能是所有人。
(科技日報北京2月25日電)
編輯:劉小源
關鍵詞:技術 安全 報告