老人孩子傾斜保護 產業生態多元共治
——人工智能擬人化互動服務將實現多維度規范
222
訂閱已訂閱已收藏
收藏點擊播報本文,約
4月10日,國家網信辦、國家發展改革委、工業和信息化部、公安部、市場監管總局聯合公布《人工智能擬人化互動服務管理暫行辦法》,自2026年7月15日起施行。
從陪護型機器人化身家人陪伴空巢老人嘮家常,到AI傾聽者以溫暖話語疏解青少年成長的煩惱﹔從博物館裡“復活”的歷史人物與游客跨時空對話,到智能語音玩具陪伴孩子度過童年時光……人工智能擬人化互動服務(以下簡稱“擬人化互動服務”)正悄然滲透進我們的日常生活。然而,高度擬人化帶來的情感依賴、認知混淆、隱私泄露等新型風險,也讓規范治理的需求變得日益迫切。
筑牢嚴密防線,化解擬人化風險
辦法精准聚焦擬人化互動服務的特有風險,構筑起三大核心防線。
中國工程院院士、同濟大學黨委書記鄭慶華表示,辦法首先確立了“身份提醒”機制,要求服務提供者通過強制性顯著標識與動態提醒保障用戶知情權。“發現用戶出現過度依賴、沉迷傾向時,應以彈窗等顯著方式提醒用戶互動內容為人工智能服務生成﹔連續使用超過2小時的,須以對話或彈窗提醒注意使用時長。”鄭慶華強調,這不僅是法律義務,更是科技倫理的底線要求。
中國電子標准化研究院副院長范科峰則關注到數據安全與隱私保護的深化要求。辦法規定,除取得用戶單獨同意或法律另有規定外,屬於用戶敏感個人信息的交互數據,不得用於模型訓練。“情感交互數據深度反映用戶心理與人格特質,其保護要求應高於一般個人信息,這是個人信息保護法在該場景下的深化運用。”范科峰強調。
西南政法大學人工智能法學院院長陳亮認為,從訓練數據質量與合法性要求,到算法機制機理審核,再到生成內容的標識與用戶便捷退出機制,辦法覆蓋了數據、算法與交互界面技術全鏈條。“這種‘組合拳’式的治理思路表明,必須通過多要素協同治理,才能系統性降低人工智能的社會化風險。”
此外,辦法還創新引入人工智能沙箱安全服務平台等機制,為行業在安全可控前提下開展探索提供制度空間。對此,鄭慶華評價道:“這彰顯了包容審慎、分類施策的治理思路。”
注重未成年人和老年人權益保護
多位專家提醒,擬人化互動服務對未成年人和老年人來說是一把雙刃劍:既能陪伴解悶,也可能用“完美關系”誘人沉迷——心智尚不成熟的未成年人容易誤入歧途,辨識力減弱、孤獨感更強的老年人同樣防不勝防,更容易被誘導內容或情感操控所傷。
中國網絡空間研究院院長王江提醒,擬人化互動服務在應對老齡化挑戰、緩解孤獨感方面展現出積極價值,但也帶來深度沉迷、威脅生命健康等安全風險。“辦法的出台恰逢其時,是應對人工智能深度社會化應用挑戰的重要探索。”
針對心智未熟的未成年人與認知能力減退的老年人,辦法設置了特殊保護屏障。鄭慶華分析,辦法嚴禁向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系服務﹔向不滿十四周歲未成年人提供其他擬人化互動服務的,應當取得監護人同意﹔向老年人提供服務的,應當加強健康使用指導,以顯著方式提示安全風險。他認為:“這體現了技術發展必須服務於人的心理健康與社會聯結的根本立場。”
陳亮則從企業注意義務的角度進行了分析:“對未成年人,企業須實施模式切換、身份驗証、定期提醒、時長限制等安全措施。對老年人,應提供更醒目的風險提示和更便捷的求助功能。這些特殊群體是技術不對稱中的脆弱方,企業應當更加積極地落實立法的傾斜保護要求。”
凝聚多元合力提供“中國方案”
作為觸及人類情感內核的技術形態,擬人化互動服務的治理正成為國際人工智能治理的焦點議題。
據中國信息通信研究院院長余曉暉介紹,從國際上看,美國已制定《人工智能伴侶模型法》等多部州立法,歐盟在《人工智能法》框架下推進年齡驗証與使用限制。“在此背景下,我國在辦法中提出動態識別、風險干預、人機交互數據保護等創新舉措,是踐行負責任創新理念的新探索。”
鄭慶華呼吁企業主動作為:“應將‘負責任創新’轉化為核心競爭力,尤其需在模型訓練階段加強數據質量管控與安全對齊,從源頭防范價值觀偏差與安全風險。”
鄭慶華表示,同濟大學正在推進人工智能倫理、算法治理與安全測評研究,重點攻堅用戶極端情境識別、情感邊界引導、未成年人身份識別等關鍵技術。“高校與科研機構應加快研制相關國家標准,將辦法要求轉化為可操作、可檢測的標准規范。”鄭慶華建議。
多位專家一致認為,從人機價值對齊的前瞻引領到技術全鏈條的系統規制,從特殊群體的傾斜保護到產業生態的多元共治,辦法的出台為全球應對人機情感交互挑戰貢獻了“中國方案”。
(記者 王美瑩)
分享讓更多人看到
- 評論
- 關注


































第一時間為您推送權威資訊
報道全球 傳播中國
關注人民網,傳播正能量