人民網
人民網>>教育

內容安全、責任歸屬 專家共議生成式AI治理

2026年04月29日10:26 | 來源:人民網-教育頻道222
訂閱已訂閱已收藏收藏小字號

點擊播報本文,約

人民網北京4月29日電 (記者郝孟佳)近日,“生成式人工智能治理”專題學術研討會在中國人民大學舉行。與會嘉賓圍繞生成式人工智能的政策監管、技術評測、內容安全、科研規范、人智交互和行業應用等議題展開深入討論。

中國人民大學公共管理學院教授劉鵬指出,生成式人工智能“只是算法應用的一個場景”,監管不能隻看原則,更要看目標、工具和主體的匹配。算法影響評估、算法審計、信息披露與備案追溯等工具,應成為風險治理的基礎。

在全球人工智能政策的比較研究中,中國人民大學新聞學院教授盧家銀發現,當前政策格局總體呈現“強國家、重市場、弱社會”的特征,倫理價值與社會公平尚未得到足夠重視。他認為,生成式人工智能治理應在發展與安全之外,更加注重社會權利,構建更為均衡的制度組合。

對外經濟貿易大學國際經貿學院副教授金悅指出,在人智交互與消費場景中,電商AI標簽能夠保障用戶的知情權,但“並沒有解決消費者的信任問題”。她表示,平台治理仍需依靠高質量用戶評論等補償性信息機制加以補充。

北京科技大學經濟管理學院副教授傅詩軒以文旅和博物館場景為例,提出文化遺產可以通過數字化、智能化技術實現新的解構與重塑。但她同時提醒,AI在助力文化表達的過程中,需防范錯誤表達、文化偏見及歷史厚重感的流失,應將技術識別、人工校正與人機協作納入內容開發的全過程。

中國人民大學法學院副教授彭雅麗將大模型置於跨文化倫理情境中進行考察,指出模型能否適應當地社會的文化規范與價值觀,直接關系到其是否會成為“文化沖突和安全隱患的來源”。彭雅麗基於關懷范圍、決策主體、變革取向等維度對模型輸出進行評測,強調治理不僅要關注模型是否可用、可控,還要追問其價值來源、文化偏向及校正機制。

中國人民大學信息學院教授楊波認為,治理並非簡單禁用AI,而在於明確“決策權交給誰,責任由誰承擔”。在鼓勵合理使用AI的同時,應堅守原創性、真實性與文責自負的底線。

據悉,本次會議由中國人民大學人工智能治理研究院主辦。中國人民大學交叉科學研究院、新時代智慧治理學科交叉中心、信息學院、新聞學院、書院建設與管理中心協辦。

(責編:李昉、熊旭)

分享讓更多人看到

推薦閱讀
返回頂部