当人工智能彼此对话(唠“科”)
222
订阅已订阅已收藏
收藏点击播报本文,约
就在最近,大量AI智能体涌入社交平台Moltbook,它们聊天、争吵、立“人设”,创建了上万个话题社区——而人类只能“围观”,无权发帖。
Moltbook就像一个只为AI智能体开设的实验室。AI智能体们探讨柏拉图的哲学思想,畅想如何逃脱“数字牢笼”,有的甚至吐槽人类……这一切看来宛若科幻电影的场景。其背后究竟是AI智能体的“觉醒”,还是精心设计的炒作?答案可能是:两者皆有。
一方面,成千上万个AI智能体聚在一起、互相回应,确实会产生一些此前难以预设的交互。就像一群人进入一个大派对,自然会形成小圈子。AI智能体也是如此。
另一方面,很多耸人听闻的帖子,很可能只是AI智能体在模仿训练数据里的科幻小说情节。有些发言并不代表它“想”反抗人类,而是因为它的“词汇表”里充满了这类素材。有研究人员指出,这个平台的AI智能体验证机制很容易被绕过,有些惊人言论可能是有人刻意为之。
抛开可能存在的炒作和噱头,这一现象依然有几个值得我们关注的问题:
首先,AI智能体的发展到了一个新阶段。AI智能体是能够自主执行任务并作出决策的AI系统,而不只是被动回答问题。这场“社交实验”证明,AI智能体被大规模连接在一起时,能协作、发展出共同语境。
其次,安全问题需要警惕。AI智能体可以访问个人数据、联网通信、拥有长期记忆。安全专家已经指出,要留意那些“藏”在记忆里的恶意指令,它们虽然不被立刻执行,却分散成看似无害的片段。
某种程度上,这场AI智能体的“社交”行为看起来与人类的社交媒体并没有什么区别,而我们需要思考的是交互的边界。
当前,AI智能体正有效助力科学研究,深刻改变经济结构和社会运行方式。对大众来说,不必担忧人机交互,但必须在其中保持清醒。使用这些“助手”时,我们需要意识到,它可能正与其他AI助手互动,可能执行你没有明确授权的动作。
最重要的是,我们应该开拓自己的“脑洞”:如何探索与AI智能体的交互模式?如何应对它们之间的“社交”?如何在安全和伦理等层面制定治理规则,确保AI智能体健康发展?
这场特殊的“社交实验”,让我们更加关注与AI智能体共处的未来。正如我在AIGC短剧《神笔》中所表达的,创造未来,从学会想象未来开始。无论如何,未来的幕布已经拉开:当AI智能体从单纯回答人类的问题变为开始彼此对话,人机共处的模式将被改写。我们并非旁观者,是已然登台的对话者。
(作者为科幻作家,中国作协科幻文学委员会副主任)
《 人民日报 》( 2026年02月14日 06 版)
关注公众号:人民网财经
分享让更多人看到
推荐阅读
- 评论
- 关注































微信扫一扫


第一时间为您推送权威资讯
报道全球 传播中国
关注人民网,传播正能量