AI智能體,或?qū)⒊蔀?025年的關(guān)鍵詞之一,國內(nèi)外廠商激戰(zhàn)正酣,探索其能為千行百業(yè)帶來的變化。但對數(shù)據(jù)安全的憂慮也浮出水面。有多少交互的工作內(nèi)容會(huì)上傳?用戶數(shù)據(jù)會(huì)不會(huì)云上“裸奔”?
記者發(fā)現(xiàn),目前用戶在個(gè)人數(shù)據(jù)隱私方面的授權(quán)甚為被動(dòng),多名業(yè)內(nèi)安全專家呼吁,期盼大模型出臺(tái)強(qiáng)制性合規(guī)標(biāo)準(zhǔn),落實(shí)隱私安全要求。
AI智能體今年或?qū)⒁?guī)模化就業(yè)
“我相信2025年人們將會(huì)看到第一批AI智能體加入勞動(dòng)力大軍,從根本上改變各公司產(chǎn)出的東西。”日前,Open AI CEO山姆·奧爾特曼發(fā)布的一篇博客,引發(fā)業(yè)界對AI智能體的再度關(guān)注。英偉達(dá)CEO黃仁勛近日也表示,“AI智能體可能是下一個(gè)機(jī)器人產(chǎn)業(yè),蘊(yùn)藏著價(jià)值數(shù)萬億美元的機(jī)會(huì)”。
什么是AI智能體?它和去年如日中天的大模型又有何區(qū)別?業(yè)內(nèi)專家表示,大模型雖然能理解、能問答、能生成,但是“不能直接干活”。只有加上知識(shí)獲取、感知、推理、工具使用以及系統(tǒng)架構(gòu)的能力,變成智能體后才能高效執(zhí)行具體任務(wù)。
記者注意到,近段時(shí)間,國內(nèi)外多個(gè)廠商在這個(gè)賽道中紛紛布局,展開激烈角逐。微軟一口氣發(fā)布了10個(gè)商業(yè)智能體,稱一個(gè)智能體提升的生產(chǎn)力相當(dāng)于增加187名全職員工;Open AI將要發(fā)布新的AI智能體工具,代表人類執(zhí)行預(yù)訂旅行、編碼等任務(wù)。
國內(nèi)企業(yè)也不甘落后。聚焦PPT制作、文書寫作等,科大訊飛一口氣升級了8款辦公智能體;智譜清言最新AI智能體可以實(shí)現(xiàn)自動(dòng)點(diǎn)咖啡、發(fā)紅包;騰訊也透露,微信、QQ、輸入法、瀏覽器等產(chǎn)品都將推出AI智能體。
用戶個(gè)人數(shù)據(jù)或用于“煉”AI
上傳附件,點(diǎn)擊幾個(gè)按鍵,不到2分鐘,一份制作精美的PPT就通過某AI智能體自動(dòng)生成。“這可比過去一頁頁排版輕松多了!”白領(lǐng)小孫感到欣慰的同時(shí),一股擔(dān)憂也在心底浮現(xiàn):“PPT里的敏感財(cái)務(wù)數(shù)據(jù)會(huì)不會(huì)也上云了?”
小孫的擔(dān)憂不是個(gè)例。記者隨機(jī)采訪了10名用戶,有9名用戶在使用AI智能體時(shí),有過對數(shù)據(jù)隱私安全的疑慮:“我的個(gè)人敏感數(shù)據(jù),會(huì)不會(huì)被直接采集,用來訓(xùn)練AI?”
AI智能體的驅(qū)動(dòng)平臺(tái)是大模型。記者查閱了Kimi、豆包、智譜清言、混元、訊飛星火等多個(gè)大模型的隱私條款,發(fā)現(xiàn)多個(gè)平臺(tái)在這些隱私條款中聲明,會(huì)在經(jīng)過安全加密、嚴(yán)格去標(biāo)識(shí)化且無法重新識(shí)別特定個(gè)人的前提下,將用戶向AI輸入的數(shù)據(jù)、發(fā)出的指令以及AI相應(yīng)生成的回復(fù)、用戶對產(chǎn)品的訪問和使用情況進(jìn)行分析并用于模型訓(xùn)練。有平臺(tái)還稱“處理后此類數(shù)據(jù)將不屬于個(gè)人信息范疇,其使用無需另行征得用戶同意。”
用戶是否能明確拒絕大模型平臺(tái)使用其個(gè)人對話進(jìn)行模型訓(xùn)練?記者發(fā)現(xiàn),相比Open AI、谷歌Gemini等國外大模型,目前國內(nèi)多個(gè)大模型并沒有“一鍵關(guān)閉”功能進(jìn)行拒絕授權(quán)的操作。
業(yè)內(nèi)盼望出臺(tái)強(qiáng)制性合規(guī)標(biāo)準(zhǔn)
中國信通院泰爾實(shí)驗(yàn)室信息安全部副主任傅山認(rèn)為,對用戶而言,一條指令,往往會(huì)涉及多個(gè)App智能體產(chǎn)品,過度的數(shù)據(jù)收集會(huì)帶來數(shù)據(jù)濫用、算法偏見、透明度不足等問題。
“對于用戶來說,大模型的隱私安全問題涉及三個(gè)點(diǎn),是否接觸、是否計(jì)算和是否輸出。”奇安信行業(yè)安全研究中心主任裴智勇表示,其中對外輸出是核心點(diǎn),一旦平臺(tái)向不合法的用戶輸出敏感個(gè)人信息,不但可能損害用戶隱私,甚至可能危害國家安全。
“這一問題的解題思路,還是在于對大模型和AI智能體的行業(yè)監(jiān)管。”裴智勇說,可以通過對大模型抓取數(shù)據(jù)和輸出數(shù)據(jù)的流量監(jiān)測,知曉大模型是否讀取了敏感個(gè)人信息,是否輸出了敏感個(gè)人信息,從源頭和終端兩個(gè)層面把控個(gè)人信息的使用,從而及時(shí)發(fā)現(xiàn)問題,化解或減少大模型對于個(gè)人隱私帶來的侵害。
多名業(yè)內(nèi)專家也呼吁,期盼盡快完善大模型強(qiáng)制性合規(guī)標(biāo)準(zhǔn),確保大模型及AI智能體研發(fā)、訓(xùn)練、部署過程的隱私安全要求得到遵守。
AI智能體,或?qū)⒊蔀?025年的關(guān)鍵詞之一,國內(nèi)外廠商激戰(zhàn)正酣,探索其能為千行百業(yè)帶來的變化。但對數(shù)據(jù)安全的憂慮也浮出水面。有多少交互的工作內(nèi)容會(huì)上傳?用戶數(shù)據(jù)會(huì)不會(huì)云上“裸奔”?
記者發(fā)現(xiàn),目前用戶在個(gè)人數(shù)據(jù)隱私方面的授權(quán)甚為被動(dòng),多名業(yè)內(nèi)安全專家呼吁,期盼大模型出臺(tái)強(qiáng)制性合規(guī)標(biāo)準(zhǔn),落實(shí)隱私安全要求。
AI智能體今年或?qū)⒁?guī)模化就業(yè)
“我相信2025年人們將會(huì)看到第一批AI智能體加入勞動(dòng)力大軍,從根本上改變各公司產(chǎn)出的東西。”日前,Open AI CEO山姆·奧爾特曼發(fā)布的一篇博客,引發(fā)業(yè)界對AI智能體的再度關(guān)注。英偉達(dá)CEO黃仁勛近日也表示,“AI智能體可能是下一個(gè)機(jī)器人產(chǎn)業(yè),蘊(yùn)藏著價(jià)值數(shù)萬億美元的機(jī)會(huì)”。
什么是AI智能體?它和去年如日中天的大模型又有何區(qū)別?業(yè)內(nèi)專家表示,大模型雖然能理解、能問答、能生成,但是“不能直接干活”。只有加上知識(shí)獲取、感知、推理、工具使用以及系統(tǒng)架構(gòu)的能力,變成智能體后才能高效執(zhí)行具體任務(wù)。
記者注意到,近段時(shí)間,國內(nèi)外多個(gè)廠商在這個(gè)賽道中紛紛布局,展開激烈角逐。微軟一口氣發(fā)布了10個(gè)商業(yè)智能體,稱一個(gè)智能體提升的生產(chǎn)力相當(dāng)于增加187名全職員工;Open AI將要發(fā)布新的AI智能體工具,代表人類執(zhí)行預(yù)訂旅行、編碼等任務(wù)。
國內(nèi)企業(yè)也不甘落后。聚焦PPT制作、文書寫作等,科大訊飛一口氣升級了8款辦公智能體;智譜清言最新AI智能體可以實(shí)現(xiàn)自動(dòng)點(diǎn)咖啡、發(fā)紅包;騰訊也透露,微信、QQ、輸入法、瀏覽器等產(chǎn)品都將推出AI智能體。
用戶個(gè)人數(shù)據(jù)或用于“煉”AI
上傳附件,點(diǎn)擊幾個(gè)按鍵,不到2分鐘,一份制作精美的PPT就通過某AI智能體自動(dòng)生成。“這可比過去一頁頁排版輕松多了!”白領(lǐng)小孫感到欣慰的同時(shí),一股擔(dān)憂也在心底浮現(xiàn):“PPT里的敏感財(cái)務(wù)數(shù)據(jù)會(huì)不會(huì)也上云了?”
小孫的擔(dān)憂不是個(gè)例。記者隨機(jī)采訪了10名用戶,有9名用戶在使用AI智能體時(shí),有過對數(shù)據(jù)隱私安全的疑慮:“我的個(gè)人敏感數(shù)據(jù),會(huì)不會(huì)被直接采集,用來訓(xùn)練AI?”
AI智能體的驅(qū)動(dòng)平臺(tái)是大模型。記者查閱了Kimi、豆包、智譜清言、混元、訊飛星火等多個(gè)大模型的隱私條款,發(fā)現(xiàn)多個(gè)平臺(tái)在這些隱私條款中聲明,會(huì)在經(jīng)過安全加密、嚴(yán)格去標(biāo)識(shí)化且無法重新識(shí)別特定個(gè)人的前提下,將用戶向AI輸入的數(shù)據(jù)、發(fā)出的指令以及AI相應(yīng)生成的回復(fù)、用戶對產(chǎn)品的訪問和使用情況進(jìn)行分析并用于模型訓(xùn)練。有平臺(tái)還稱“處理后此類數(shù)據(jù)將不屬于個(gè)人信息范疇,其使用無需另行征得用戶同意。”
用戶是否能明確拒絕大模型平臺(tái)使用其個(gè)人對話進(jìn)行模型訓(xùn)練?記者發(fā)現(xiàn),相比Open AI、谷歌Gemini等國外大模型,目前國內(nèi)多個(gè)大模型并沒有“一鍵關(guān)閉”功能進(jìn)行拒絕授權(quán)的操作。
業(yè)內(nèi)盼望出臺(tái)強(qiáng)制性合規(guī)標(biāo)準(zhǔn)
中國信通院泰爾實(shí)驗(yàn)室信息安全部副主任傅山認(rèn)為,對用戶而言,一條指令,往往會(huì)涉及多個(gè)App智能體產(chǎn)品,過度的數(shù)據(jù)收集會(huì)帶來數(shù)據(jù)濫用、算法偏見、透明度不足等問題。
“對于用戶來說,大模型的隱私安全問題涉及三個(gè)點(diǎn),是否接觸、是否計(jì)算和是否輸出。”奇安信行業(yè)安全研究中心主任裴智勇表示,其中對外輸出是核心點(diǎn),一旦平臺(tái)向不合法的用戶輸出敏感個(gè)人信息,不但可能損害用戶隱私,甚至可能危害國家安全。
“這一問題的解題思路,還是在于對大模型和AI智能體的行業(yè)監(jiān)管。”裴智勇說,可以通過對大模型抓取數(shù)據(jù)和輸出數(shù)據(jù)的流量監(jiān)測,知曉大模型是否讀取了敏感個(gè)人信息,是否輸出了敏感個(gè)人信息,從源頭和終端兩個(gè)層面把控個(gè)人信息的使用,從而及時(shí)發(fā)現(xiàn)問題,化解或減少大模型對于個(gè)人隱私帶來的侵害。
多名業(yè)內(nèi)專家也呼吁,期盼盡快完善大模型強(qiáng)制性合規(guī)標(biāo)準(zhǔn),確保大模型及AI智能體研發(fā)、訓(xùn)練、部署過程的隱私安全要求得到遵守。
本文鏈接:http://m.020gz.com.cn/news-2-185-0.htmlAI智能體火爆 用戶擔(dān)心個(gè)人數(shù)據(jù)被用于模型訓(xùn)練 大模型隱私安全亟待行業(yè)監(jiān)管
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻(xiàn),不代表本站觀點(diǎn),本站不承擔(dān)任何法律責(zé)任。天上不會(huì)到餡餅,請大家謹(jǐn)防詐騙!若有侵權(quán)等問題請及時(shí)與本網(wǎng)聯(lián)系,我們將在第一時(shí)間刪除處理。
點(diǎn)擊右上角微信好友
朋友圈
點(diǎn)擊瀏覽器下方“”分享微信好友Safari瀏覽器請點(diǎn)擊“
”按鈕
點(diǎn)擊右上角QQ
點(diǎn)擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點(diǎn)擊“
”按鈕