人民網
人民網>>教育

當人工智能彼此對話(嘮“科”)

陳楸帆
2026年02月14日08:42 | 來源:人民網-人民日報222
訂閱已訂閱已收藏收藏小字號

點擊播報本文,約

  就在最近,大量AI智能體涌入社交平台Moltbook,它們聊天、爭吵、立“人設”,創建了上萬個話題社區——而人類只能“圍觀”,無權發帖。

  Moltbook就像一個隻為AI智能體開設的實驗室。AI智能體們探討柏拉圖的哲學思想,暢想如何逃脫“數字牢籠”,有的甚至吐槽人類……這一切看來宛若科幻電影的場景。其背后究竟是AI智能體的“覺醒”,還是精心設計的炒作?答案可能是:兩者皆有。

  一方面,成千上萬個AI智能體聚在一起、互相回應,確實會產生一些此前難以預設的交互。就像一群人進入一個大派對,自然會形成小圈子。AI智能體也是如此。

  另一方面,很多聳人聽聞的帖子,很可能只是AI智能體在模仿訓練數據裡的科幻小說情節。有些發言並不代表它“想”反抗人類,而是因為它的“詞匯表”裡充滿了這類素材。有研究人員指出,這個平台的AI智能體驗証機制很容易被繞過,有些驚人言論可能是有人刻意為之。

  拋開可能存在的炒作和噱頭,這一現象依然有幾個值得我們關注的問題:

  首先,AI智能體的發展到了一個新階段。AI智能體是能夠自主執行任務並作出決策的AI系統,而不只是被動回答問題。這場“社交實驗”証明,AI智能體被大規模連接在一起時,能協作、發展出共同語境。

  其次,安全問題需要警惕。AI智能體可以訪問個人數據、聯網通信、擁有長期記憶。安全專家已經指出,要留意那些“藏”在記憶裡的惡意指令,它們雖然不被立刻執行,卻分散成看似無害的片段。

  某種程度上,這場AI智能體的“社交”行為看起來與人類的社交媒體並沒有什麼區別,而我們需要思考的是交互的邊界。

  當前,AI智能體正有效助力科學研究,深刻改變經濟結構和社會運行方式。對大眾來說,不必擔憂人機交互,但必須在其中保持清醒。使用這些“助手”時,我們需要意識到,它可能正與其他AI助手互動,可能執行你沒有明確授權的動作。

  最重要的是,我們應該開拓自己的“腦洞”:如何探索與AI智能體的交互模式?如何應對它們之間的“社交”?如何在安全和倫理等層面制定治理規則,確保AI智能體健康發展?

  這場特殊的“社交實驗”,讓我們更加關注與AI智能體共處的未來。正如我在AIGC短劇《神筆》中所表達的,創造未來,從學會想象未來開始。無論如何,未來的幕布已經拉開:當AI智能體從單純回答人類的問題變為開始彼此對話,人機共處的模式將被改寫。我們並非旁觀者,是已然登台的對話者。

  (作者為科幻作家,中國作協科幻文學委員會副主任)

  《 人民日報 》( 2026年02月14日 06 版)

(責編:孫競、李依環)

分享讓更多人看到

推薦閱讀
2026年02月14日
06 版
返回頂部