首頁 > 金融故事 > 正文

專訪瑞萊智慧CEO田天:人工智能是新時代的“火”,益或害取決于手持火把的人

人工智能(AI)時代正在到來。

隨著人工智能技術在越來越多場景中的落地,人們的便捷生活也越來越依賴于人工智能,甚至在一些人們難以意識到的時刻,人工智能都在發揮著重要作用,比如GPS導航、出行規劃、個性化推薦、翻譯等等。

同時,因為人工智能越來越廣泛地被使用,關于人臉識別的濫用、算法的不公平性、隱私數據泄露等問題也成為人們關注的焦點。而人工智能從業者們,則開始呼吁行業重視人工智能的安全攻防與治理工作。

瑞萊智慧是清華大學人工智能研究院孵化的產學研技術企業,成立于2018年,是國內首家安全可控人工智能系統提供商。

近日,在接受《每日經濟新聞》(以下簡稱NBD)記者專訪時,瑞萊智慧CEO田天談到了自己對人工智能安全攻防危害以及人工智能的治理等的看法。

談人工智能安全:尚需不斷迭代、博弈、對抗

NBD:人工智能的安全可控是指什么?

田天:“安全”是指打造數據安全和算法安全兩大核心能力,解決數據強依賴帶來的隱私泄漏與數據投毒等隱患,同時提升算法的魯棒性(注:Robust的音譯,指系統的健壯性)與可靠性。

首先是算法可靠,其實算法有很多隱患,和傳統程序不同,AI從數據中學習,存在很多人不理解的部分,這些部分存在被黑客誤導的空間,所以首先要提升算法可靠性。另一方面是數據安全,AI是基于大數據,但不能因為做AI,就侵犯用戶隱私。

“可控”既指應用層面的合規可控,更指核心技術的自主可控?,F在的AI能力很強,有人會把AI用在一些不合理或不合法的場景,比如偽造畫面、視頻,或有些帶有歧視性的應用等,這些需要專門的治理技術以及和法律法規配合,提升對于AI的應用管控。

NBD:安全攻防是近年來AI領域最前沿的技術方向之一,這其中實際的安全危害都有什么?

田天:目前,通過對抗性數據污染、算法修改、惡意樣本攻擊等方式對AI算法進行深層次攻擊已經成為主要趨勢。

比如我們可以通過佩戴帶有特定圖案的眼鏡等,攻破手機解鎖、線上身份認證、線下安防等領域的AI系統,讓安全驗證形同虛設,嚴重威脅人身和財產安全。

再比如,在交通領域,車輛的輔助駕駛或自動駕駛系統也可能因為AI算法自身的缺陷而喪失正常的視覺識別能力,錯誤識別交通指示牌、“看不到”大型障礙物等,引發交通事故。

NBD:對于這些危害,我們有什么應對方法?

田天:技術問題需要依賴技術手段來解決,在互聯網時代有網絡安全公司提供相關的網絡安全產品和組件,在AI時代也應該提供專門針對AI系統的殺毒軟件,為算法模型提供安全檢測與防御升級功能,不斷提升安全性。

NBD:用AI去解決 AI的危害,會不會用來解決危害的技術本身也有一些我們沒有發現的危害?

田天:肯定會的,但安全的本質是攻防升級,至少在目前情況下還是需要不斷迭代、博弈對抗的,不可能一下子把它做到完美。當然,提供真正安全可靠的人工智能,是我們的長期目標,也是第三代人工智能核心要解決的問題。

談算法公平性:已有成熟技術方案

NBD:你覺得人工智能在隱私保護和便利生活這兩者之間達到一個平衡了嗎?

田天:可以說是動態平衡?,F在對于數據的應用還遠遠不夠,仍有很多要去挖掘的新數據類型或新應用場景。如果我們把應用限制在當前范圍內,可能已經平衡了,但在新的應用、新的場景上,一些更關鍵的個人信息數據怎么去使用、需要什么新要求,還需要再思考。

最近一段時間,很多AI安全問題陸續暴露出來,大家開始做治理,這是一個很好的時間點,因為如果再不做的話,可能就會產生信任危機,很多東西就都沒法再使用、再發展了。

NBD:算法越來越被廣泛應用的同時,也帶來了很多倫理上的爭議,比如人臉識別等,你怎么看這背后的問題?

田天:這其實是一個關于算法公平性的問題,和大數據殺熟、人臉識別系統對不同人種識別準確率不同所帶來的爭議一樣。

這些問題有的是系統設計者刻意設置的,這種情況超出了技術討論的范疇。也有的是算法在運行過程中不自覺產生的傾向,比如基于算法推薦的新聞APP,如果完全對它不加限制,僅僅追求優化點擊率,它可能就會一直推各種抓眼球的假新聞等等,這就屬于技術治理的范疇。

我們在做算法設計的過程中,不能只考慮收益上的指標,同時也要考慮到它對于所有使用者是不是公平、是不是在法律和道德框架之內。這些問題在發展技術之初沒有被作為重要選項去考慮,但是我們認為后續肯定需要把它們加進來。

NBD:加進來的過程會很漫長嗎?

田天:我覺得不會很漫長。因為在技術上其實已經有成熟的方案,只是之前大家沒去用。我也希望行業能逐步建立一種共識,可能有的行業是發展到很穩定的狀態之后,才會重點考慮治理問題,在前期更多是野蠻生長狀態。但AI涉及很多非常敏感的因素,希望大家在更早的時候就關注到這些問題。

談人工智能治理:技術治理至關重要

NBD:人工智能的研究與開發,應該在多大程度上受到監督,由誰來做監督工作?

田天:從政府層面,其實國家已經在做了,包括一些法律法規,《中華人民共和國網絡安全法》、《中華人民共和國數據安全法》以及正在審議的《個人信息保護法(草案)》等,這些都涉及AI領域的管控。

從產業角度,通過行業協會、聯盟、宣言等形式,大家要形成一種自治的氛圍,制定從業者能夠共同堅守的準則。

從用戶的角度也應該進行監督,因為最終影響的還是大家日常生活的一些很實際、具體的利益。

NBD:在這其中科技公司具體應該承擔什么樣的責任?

田天:首先像我們這樣專門從事人工智能的公司,一方面要保證自己做的人工智能解決方案和應用完全合規,另外也要對外輸出合規的解決方案。人工智能企業是人工智能技術發展的中堅力量,理應成為人工智能安全治理的踐行者。

還有一些科技公司作為用戶方,它們采購方案、建設AI系統時,應該把是否安全可靠可信、是否保護隱私,作為關鍵的因素來考慮,這樣對企業自身以及整個行業來說都是好事。

NBD:作為一家科技公司的負責人,你覺得技術對于人工智能治理的重要性在哪里?

田天:人工智能對社會帶來的一些風險,其實恰恰是因為技術局限性或者先天缺陷。因此,技術治理對于人工智能的治理來說至關重要。人工智能治理,是一項系統化工程,既需要法律規制、倫理規范,更需要技術防范,這是“魔高一尺、道高一丈”的對抗。

人工智能本身是一項新的技術,如果考慮治理時脫離技術,很可能限制行業的發展。什么都不使用,當然什么問題都沒有,但既要發展,又要治理,就只能用更領先的新技術來彌補現有技術不符合安全要求的點,所以本質上治理也要求技術的進步。

NBD:你是怎么看待人工智能的發展和治理之間的這種平衡的?

田天:人工智能技術實際上是價值中立的,沒有有益和有害之分,它就如同新時代的“火”。為人類創造價值還是給人類帶來傷害,完全取決于手持火把的人去怎么用。

在我看來,人工智能的發展和治理,并非此消彼長的關系,而是兩者深度協同、相互助益,一定是同步去做,而且是一個長期的過程。技術應用都在發展,治理肯定也要去發展。但是我覺得核心是不要因為治理就去阻礙發展,該用的一些場景還得去用。

同時,治理不僅僅是監管機構的責任,AI技術和產品提供者,也有責任把治理納入考慮。

NBD:關于人工智能的治理,你有什么建議可以給從業者?

田天:加強自身資質,不要等有人強制要求了再去做,一方面,這樣對用戶是不利的;另一方面,企業本身做得更安全、更注重隱私,也是產品的競爭力。

另外,技術公司要去發展更加安全合規的AI技術,真正實現技術上的突破,把現在需要做權衡的一些選擇題,逐步發展到各方面可以同時兼顧。

[責任編輯:趙鑫華]

版權聲明

一、凡注明來源為"正北方網"、"北方新報"、"內蒙古日報社"、"內蒙古日報社融媒體原創"的所有文字、圖片、音視頻、美術設計和程序等作品,版權均屬內蒙古正北方網或相關權利人專屬所有或持有所有。 未經本網書面授權,不得進行一切形式的下載、轉載或建立鏡像。否則以侵權論,依法追究相關法律責任。

二、凡本網注明"來源:XXX(非正北方網)"的作品,均轉載自其它媒體,轉載目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責。

三、轉載聲明:本網轉載稿件有些作者不明,請相關版權單位或個人持有效證明速與本網聯系,以便發放稿費。

正北方網聯系方式:電話:0471-6651113 | E-mail:northnews@126.com

今日內蒙古