3月4日,全國人大代表雷軍公布了其準備的“2025兩會建議”,。其中一條,,是關于加強“AI換臉擬聲”違法侵權重災區(qū)治理。
隨著人工智能被廣泛應用,,隨之而來的安全問題也愈發(fā)凸顯,。記者收集了四大安全問題——人工智能合成、人臉識別,、尋醫(yī)問藥,、著作權,請中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專業(yè)委員會(以下簡稱“專委會”)三位專家委員韓蒙,、周楊,、王曉梅解答。

拿著“AI診斷”尋醫(yī)問藥,?精準判斷還得靠人
“患者拿著DeepSeek來看病,,還質(zhì)疑我過度檢查……”越來越多的患者拿著AI給出的診斷,與醫(yī)生爭論,。
“患者用DeepSeek尋醫(yī)問藥,,不能說完全不對,但不能只依賴于它的判斷,。” 杭州醫(yī)策科技有限公司創(chuàng)始人王曉梅告訴記者,,目前像DeepSeek、ChatGPT都屬于人工智能的大語言模型產(chǎn)品,,幫助人機實現(xiàn)語言和文字的交互,。這類產(chǎn)品可以觸達所有公共數(shù)據(jù)。在醫(yī)學方面,,它們可以觸達公開的醫(yī)典,、論文等。然后,,基于這些給患者一個回答,。“這個回答是通識性的。”各個專業(yè)領域還有高質(zhì)量私域數(shù)據(jù),,醫(yī)學上比如影像,、病理、基因等,,它觸達不到,。
而且,醫(yī)學上有很多非語言,、非文本的數(shù)據(jù),,比如每個人都很熟悉的醫(yī)學影像,。“需要多模態(tài)大模型,用文本,、圖像,、視頻、音頻等多模態(tài)信息聯(lián)合訓練,。”王曉梅說,,患者去醫(yī)院看病,醫(yī)生會依據(jù)病情進行相關檢查,,得到血液,、生化、影像,、病理,、基因等檢測報告(數(shù)據(jù)),再依據(jù)報告給出診療方案,。“要達到對疾病的精準判斷,,確保安全性和有效性,就需要有醫(yī)療器械注冊證加持的診療級人工智能產(chǎn)品,。”
近來,也有越來越多的醫(yī)院在應用人工智能技術,。醫(yī)策科技的病理人工智能輔助診斷系統(tǒng)就是診療級人工智能產(chǎn)品,,在獲批當?shù)厮幈O(jiān)局頒發(fā)的醫(yī)療器械注冊證后,已在國內(nèi)外多家醫(yī)療機構部署應用,,輔助醫(yī)生判讀達幾百萬例病理報告,。“中國每百萬人的病理醫(yī)生數(shù)量僅為1.5人,AI在病理分析上的應用,,可以大大減輕病理醫(yī)生不足這個壓力,。”
用AI生成別人的臉和聲音?可以置入隱式標識
最近,,雷軍,、劉曉慶、劉德華,、張文宏等名人,,紛紛被人工智能技術換臉擬聲合成視頻。這類視頻以假亂真,,很容易“欺騙”受眾,。
北京市競天公誠律師事務所合伙人周楊告訴記者,這類用AI合成的名人音視頻,,會侵犯名人的肖像和聲譽,,還存在散布虛假,、不良信息的風險。
她舉例:“DeepSeek爆火之后,,《黑神話:悟空》制作人馮驥發(fā)文盛贊,。很快,一條DeepSeek創(chuàng)始人梁文峰的回應,,引發(fā)朋友圈廣泛轉載,。最后,多個知名大V聲稱梁文峰的回應為AI偽造,。”
AIGC(人工智能生成內(nèi)容)與過去影響網(wǎng)絡空間安全的內(nèi)容一樣,,都會出現(xiàn)虛假和不良信息,但更加難以甄別,,更容易導致不良影響和后果,。《互聯(lián)網(wǎng)信息服務管理辦法》明確規(guī)定了網(wǎng)絡發(fā)布信息“九不準”?!毒W(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》還有“十一不得”,。國家互聯(lián)網(wǎng)信息辦公室還發(fā)布了《人工智能生成合成內(nèi)容標識辦法(征求意見稿)》,與全國網(wǎng)絡安全標準委員會發(fā)布的《網(wǎng)絡安全技術 人工智能生成合成內(nèi)容標識方法》強制性國家標準(征求意見稿)配套使用,,要求對人工智能生成合成內(nèi)容進行標識,,規(guī)范AIGC在網(wǎng)絡空間中的流通安全。
此外,,還有合成普通人音視頻,、對其親友實施詐騙的行為,未成年人和中老年尤其容易被針對,。周楊表示,,《網(wǎng)絡信息內(nèi)容生態(tài)治理規(guī)定》《生成式人工智能服務管理暫行辦法》《未成年人網(wǎng)絡保護辦法》均有關于弱勢群體的專門規(guī)定。
浙江大學研究員韓蒙表示,,AI合成偽造和AI標識,,存在相互博弈的關系。在技術上,,可以對AIGC進行標識,。“標識有顯式的,比如現(xiàn)在大家在視頻網(wǎng)站上看到的水印,。隨著技術升級,,包括我們團隊在內(nèi),一些國內(nèi)團隊也對隱式標識展開研究,。”當利用AI生成作品時,,隱式標識會被藏在作品中,肉眼是看不見的,。但通過檢測手段,,標識可以顯現(xiàn),。
戴著頭套騙過人臉識別?依賴場景分級應對
網(wǎng)絡上有聲稱“可以攻破人臉識別系統(tǒng)”的硅膠頭套售賣,。
周楊介紹,,利用硅膠頭套導致人臉識別系統(tǒng)識別通過,本質(zhì)上是一種對人臉識別技術及系統(tǒng)的攻擊行為,,考驗的是人臉識別技術和系統(tǒng)的安全性問題,。關于人臉識別技術的應用安全,國家網(wǎng)信辦曾發(fā)布《人臉識別技術應用安全管理規(guī)定(試行)(征求意見稿)》,,從應用層安全,、技術層安全、數(shù)據(jù)層安全等多個層面規(guī)定了人臉識別技術的提供方和應用方應當承擔的相關責任,。
“我們都希望人臉識別系統(tǒng)既輕松又精確,,我們戴個帽子、口罩,,換個發(fā)型,,它都能把我們識別出來。”但是,,韓蒙介紹,,AI模型在人臉識別泛化性和精準性方面,一直像蹺蹺板,,“不可能提供完美泛化性的同時,,又提供完美精準性。”
對此,,在使用場景上進行分級分類是個相對不錯的應對方案。比如:上班打卡等場景,,可以對精確性要求低一點,;金融轉賬等高度安全需求場景,精確性要求必須高,。“所以,,現(xiàn)在有活體識別技術,讓你張張嘴,、眨眨眼等,。”
央視曾用硅膠頭套做過測試,結果顯示頭部廠商的增強版人臉核實身份技術,,能準確識別和有效攔截攻擊,。
用AI幫著自己搞“創(chuàng)作”?獨創(chuàng)才是作品靈魂
近日,,武漢東湖新技術開發(fā)區(qū)人民法院科學城法庭審結一起“AI生成圖被侵權”的著作權糾紛案,。AIGC創(chuàng)作者王某,,將盜用其圖片作品的某公司訴至法院。法院認為該公司應當承擔停止侵權和賠償損失的侵權責任,,賠償王某經(jīng)濟損失及合理開支4000元,。
“AIGC的出現(xiàn)模糊了創(chuàng)作的主體邊界。”承辦法官表示,,AIGC是否構成作品需要個案判斷,,核心在于作者的智力投入是否達到獨創(chuàng)性標準,以及生成作品是否高度呈現(xiàn)了作者的獨創(chuàng)性表達,。
周楊也認為,,如果創(chuàng)作者只是給AI提供幾個簡單的關鍵詞,那很難認定其有作品的著作權,。“有獨立的邏輯,,不斷地創(chuàng)作、調(diào)整,、篩選,,有大量的個人特色和智力付出在作品里,才能具備產(chǎn)生著作權這一保護人類智力創(chuàng)作權利的條件,。”
大學生利用AI來完成論文撰寫,,周楊認為,把AI當成一種先進生產(chǎn)力工具無可厚非,。但仍應遵循法律法規(guī)的規(guī)定,,不得輸出包含大量抄襲、改編等侵犯他人知識產(chǎn)權的作品,,而應當加入自身的觀點,、思考、創(chuàng)造力,,形成真正有保護價值的論文,。此外,AI模型在訓練時,,也應當考慮此類倫理問題,,加強訓練數(shù)據(jù)的管理和輸出物的標識,在輸出物合法合規(guī)且合乎倫理道德方面進行技術控制,。
對于AI的管控,,目前我國已經(jīng)從輸入端(訓練數(shù)據(jù)),模型端(模型安全,、倫理安全等)以及輸出端(生成物內(nèi)容安全)等方面進行了部署,,并制定了相關落地細則和標準。“AI本質(zhì)上是工具,怎么用,、用來干什么,,最終仍將取決于一個人自身的道德、目標與決策,。”
觀點:像治理生態(tài)一樣治理AI
中國網(wǎng)絡空間安全協(xié)會人工智能安全治理專業(yè)委員會成立于2023年10月,,成員單位近100家,涵蓋國內(nèi)AI領域頭部產(chǎn),、學,、研、用機構,,以及AI安全治理的200多位高級別專家,。
作為專委會人工智能生態(tài)治理工作組組長,韓蒙倡導將人工智能當作一個生態(tài)系統(tǒng)來治理,,“就像河道治理,,為了讓它更健康地發(fā)展,疏而不是堵,。”對人工智能安全的關注,,含義豐富,涉及模型本身(技術環(huán)節(jié)),、產(chǎn)品(DeepSeek等),、場景(學習、支付等),、產(chǎn)業(yè)(醫(yī)療,、汽車等)。“整個人工智能的生態(tài)聯(lián)動在一起,,需要不同的學界,、產(chǎn)業(yè)界共同參與治理,確保人工智能按照規(guī)則和秩序,,健康可持續(xù)發(fā)展,。”
來源:北京日報客戶端
記者:孫毅
流程編輯:u070
如遇作品內(nèi)容、版權等問題,,請在相關文章刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系。版權侵權聯(lián)系電話:010-85202353
未登錄
全部評論
0條