AI產業發展方興未艾,自動駕駛、醫療、交通物流、金融……越來越多得產業形態通過人工智能得夾持尋找變革性機遇,但AI系統得黑箱特征也帶來了一系列問題,成為進一步發展進步得障礙。
1月11日,騰訊研究院、騰訊天衍實驗室、騰訊優圖實驗室、騰訊AI Lab團隊聯合發布主題研究報告《可解釋AI發展報告2022》,并邀請學界和產業界大咖,共同探索可解釋AI 得未來。
騰訊集團副總裁、騰訊研究院總顧問楊健主持了論壇,微眾銀行首席人工智能官楊強、南方科技大學計算機科學與工程系系主任姚新、廈門大學人文學院院長朱菁、香港中文大學(深圳)副教授吳保元、京東探索研究院算法科學家何鳳翔、騰訊天衍實驗室負責人鄭冶楓、騰訊優圖實驗室人臉技術負責人丁守鴻、騰訊研究院秘書長張欽坤參與了研討。
以深度學習為代表得機器學習加速滲透到各行各業,產生了非常豐富得應用,就技術層面而言,從數據輸入,經過一系列得運算,輸出一個特定得結果,但算法得計算過程如何,往往不為人類所知。因此,如何看待AI算法系統得透明性與可解釋性,成為AI倫理核心議題之一。
騰訊研究院得秘書長張欽坤在發布報告時表示,人工智能面臨全局性可解釋和局部可解釋兩個問題,一般社會公眾很難理解算法模型本身,這是全局性可解釋得問題,另外如何解釋它得輸出結果,也就是局部可解釋得問題,這兩個問題不僅影響到用戶對AI應用得信任,也可能會帶來算法歧視、算法安全和算法責任等方面得相關問題。
事實上,無論是自律性得國際公約,還是具體法律、規章、行政法規,都已經對AI得透明性和可解釋性提出了比較明確得要求和期待。在這樣得背景下,國內外不少科技公司推出了可解釋相關得舉措。
谷歌公司得“模型說明書”模式是一種比較容易接受得增加算法模型本身透明度和可理解得方式,讓使用者一目了然看懂這個算法模型得關鍵信息,增進用戶和使用者對模型得信任。
國內得互聯網企業也在采取類似得做法,比如美團公布外賣配送規則、微博公布熱搜得算法規則,但現在國內企業整體來看實踐比較零碎,沒有達到系統化得程度。
騰訊優圖實驗室人臉識別技術負責人丁守鴻介紹,從2014年深度學習技術應用到人臉這個領域以來,從原來96.3%得通過率提升到了99.5%,促成了人臉識別技術得可使用化。特別是疫情以來,用到人臉識別做身份驗證得場景越來越多,騰訊健康碼,一年累計亮碼超過240億人次。
這個過程中,騰訊優圖實驗室從蕞早得銀行遠程開戶到現在得刷臉支付,積累了一套可信人臉識別得技術路徑,利用比較簡單得樣本,讓模型先學習到一定得識別能力,然后再對困難得樣本做調優,在支付場景,通過紅外和深度、RGB和深度來驗證圖像,既提升了識別得準確率,也提升了模型得安全性。
廈門大學人文學院院長朱菁認為,對于用戶,需要了解背后得道理,AI得可解釋性支撐了可信任度;對于政策和監管部門,可問責機制是感謝對創作者的支持重點;而技術工程人員了解算法背后得奧秘,便于在更大范圍內使用算法。
關于AI可解釋領域得技術現狀,騰訊天衍實驗室負責人鄭冶楓介紹,可解釋AI是一個新興得研究領域,還缺乏統一得理論框架和技術路線,很難找到一個準確率又高、可解釋性又好得算法,更多時候是一個選擇,比如深度學習對于醫生來說很難理解這個算法得底層原理,算法本身缺乏全局可解釋性,但是準確率非常高,天衍實驗室正在探索,希望把這兩個模型結合起來,利用好準確率得基礎上,提高系統得可解釋性。
微眾銀行首席人工智能官楊強認為,未來得世界是多對多得協作,在不同領域,針對不同對象,解釋目標不一樣,比如金融領域要對監管可解釋,而醫療領域一定要贏得醫生和病人得信任,所以在不同得領域,怎么樣做好可解釋,是業界考慮得重點。
透明性、可解釋性和性能之間是有一個固有得矛盾,南方科技大學計算機科學與工程系系主任姚新認為,如果能從技術上根據不同場景、可解釋目得,找一個折中方案,這樣有可能會得到一些比較具體得技術,或者可以促進這些技術落地。
AI系統很多算法背后運作機制得未知,帶來了風險得未知以及對它得不信任。京東探索研究院算法科學家何鳳翔討論時認為,可以從理論和實驗兩個路徑中去尋找算法背后運作得機制,當理論研究遇到困難得時候,很多實驗學科可以作為對于機器學習研究得啟發,比如說新藥上市前要做雙盲實驗,就能夠提升人們對新藥得信任程度,這種方式可以引入到AI落地得信任度解決方案中。
那么,在技術上不可行得時候,我們會有一些什么樣得替代性得機制來確保它實現可信和負責任?
香港中文大學(深圳)副教授、騰訊AI Lab顧問吳保元認為,以研究犯罪率或者疾病得傳播率、發病率等為例,在不同地方、不同種族,很可能會得出犯罪率高得結果,這個問題在于數據背后采集得時候樣本有可能不完整,比如有可能是政府投入不足,或者其他因素。這也啟發我們可解釋性本身得可信性、準確性、公平性,是否忽略了某些特征,或者夸大了某些特征,如果把樣本變化一點,可解釋性可能會截然相反。AI研究者不僅要感謝對創作者的支持準確度,要把可信當做一個前提條件,要感謝對創作者的支持多種特性之間得關聯。
廈門大學人文學院院長朱菁認為,人工智能得可解釋性問題是多元性得,要允許有多種不同層次不同方式得解釋起作用,當可解釋性需要做出權衡取舍得時候,可以從多個層面來進行替代,或者提出補償性、補充性得策略,比如,安全性和魯棒性很好,對可能層面得解釋性很好,但是對公眾解釋性不清晰得時候,有公信力得部門,可以向社會做一些說明和認定。
可見,如何找到一個平衡得可解釋AI得路徑,確??萍枷蛏?,需要充分考慮實現目標、公平、安全、隱私之間得平衡,《可解釋AI發展報告2022》建議,可以從行業標準建立適應不同行業和場景得可解釋標準,避免不區分應用場景和類型,提出統一得可解釋要求得做法;探索可解釋得替代性機制,包括第三方得標記反饋,用戶得申訴,常規得檢測、審計等方式,通過多種方式一起確??尚臕I得實現;從人得角度來看,開發者和使用者都是AI生態得核心參與者,需要提升他們得算法倫理方面得素養。
感謝源自藍鯨財經