人民网
人民网>>教育

你的AI科研“搭子”靠谱吗(深聚焦·探访“人工智能+教育”②)

本报记者 丁雅诵
2026年05月17日05:54 | 来源:人民网-人民日报222
订阅已订阅已收藏收藏小字号

点击播报本文,约

  在合肥工业大学智能制造研究院机器人平台,工作人员正在调试AI化学品管理机器人。
  温 沁摄

  中国科学院发布“磐石100”模型体系。这一体系同时面向八大学科,打造学科领域大模型集群。
  新华社记者 金立旺摄

  当下,AI(人工智能)正以前所未有的广度和深度介入科学研究,从预测蛋白质结构,到发现新型材料,AI似乎已成为科学加速的“万能引擎”,展现出科学智能范式的巨大潜力。

  作为科研工作者的新“搭子”,AI如何改变科研的路径与节奏?怎样合理、负责任地使用AI?怎样激发科学智能开放平台的作用?本期教育版,我们邀请几位专家学者共同探讨。

  1 科学发现的路径如何改变?

  传统科研始于“假设—验证”,而现在,科学发现的路径逐步转向“数据—规律发现—智能生成—闭环迭代”

  中国科学技术大学特任教授王翕君:传统科研中,研究者往往基于经验与直觉提出问题,始于“假设—验证”。而现在,对一些学科而言,AI能主动在海量数据中发现规律,科学发现的路径逐步转向“数据—规律发现—智能生成—闭环迭代”的新范式,AI甚至可以按照目标需求,精准设计出想要的物质。

  以我研究的框架材料为例,这类材料通过不同金属节点、有机配体及连接方式的组合,能够制造出海量结构,规模可达万亿级,远超人类探索极限。在这一背景下,AI提供了突破口。一方面,机器学习可以快速预测材料的性能,省去大量真实实验的试错成本;另一方面,AI能从数据中提炼规律,把过去凭经验的“直觉”变成可计算、可迁移的模型,让材料设计更理性。

  在此基础上,生成式AI能进一步推动科研从“筛选已知”迈向“创造未知”——直接生成训练数据之外的全新材料结构,实现围绕目标性能的“逆向设计”。这意味着,AI不仅在加速求解问题,也在一定程度上拓展问题本身的边界。

  由此,AI在科研中的角色也在持续演进:从最初的计算工具,到辅助分析规律的研究工具,再到能够参与乃至驱动自主探索的“科研伙伴”。

  当然,AI并不会取代科学家。关键科学问题与机制的理解,依然离不开人的判断与洞察。可以说,人类负责提出问题、把握方向,AI则在广阔的数据与复杂空间中寻找可能的答案。两者的协同,将为未来的科研创新提供更加坚实而广阔的空间。

  2 科研创新的效率是否提升?

  AI特别擅长处理有明确答案、需要大量重复计算的工作

  首都师范大学甲骨文研究中心教授莫伯峰:AI在完成文献调研、实验设计、数据分析等方面,大大提升了科研的效率,即便面对3000多年前的甲骨文,AI也能发挥很大作用。过去像甲骨缀合(把破碎的甲骨拼起来)、补合(恢复缺损图像)这些工作,全靠少数专家的经验。现在,AI提供了新的解决方案。

  要让AI真正帮上忙,关键是要选对结合点。甲骨文作为出土文献,核心研究目标是复原文字材料和信息,而AI特别擅长处理有明确答案、需要大量重复计算的工作。它能识别人类难以察觉的细微特征,比如断口的弧度、字体的笔触角度等,为缀合和补合提供关键线索。

  但AI也不是万能的。甲骨文总量超16万片、总字数超百万,这一数字看起来不小,但对训练AI大模型来说仍然不够。所以在涉及深层语义判断时,还需要人类专家把关。更为有效的方式是人机协同:把AI当作提速工具,用专家的判断来审核和修正它的结果。

  目前,缀合与补合只是AI辅助甲骨文研究的开始。随着技术发展,甲骨文的分类、聚合、翻译等工作也会逐步突破。未来研究者不仅要懂专业知识,还要提升数据处理能力,善于借助技术放大自己的研究优势。

  3 科研判断力会被AI影响吗?

  降低部分科研门槛的同时,虚假引用、错误推理等风险值得关注

  北京大学人工智能研究院研究员杨耀东:AI不只是帮科研人员写代码、看文献、画图表,而是让整个科研流程发生了变化:从人提出假设、做实验、再分析结果的线性流程,渐渐走向人机协同、模型预测、自动实验、反馈迭代的闭环系统。

  这种变化带来了几个好处。第一,效率大幅提升,像材料、药物、能源等领域,候选方案极多,传统方法很难穷尽。AI可以快速筛选,把科研人员从重复试错中解放出来,专心解决关键问题。第二,促进学科交叉融合,一个科学问题往往涉及物理、化学、生物、工程和计算,AI能在多源数据之间建立联系。第三,降低部分科研门槛,有了开源模型和工具平台,小团队也能做大项目。

  要注意的是,AI并不等于真正的科学理解。科学研究不仅要预测准,还要回答“为什么”。如果模型是黑箱、数据来源不清、实验流程不可复现,AI给出的结论就可能带来新的风险。尤其是生成式AI带来的虚假引用、错误推理、低质量论文、数据泄露和学术责任不清等,都可能冲击科研规范。

  更深层的问题是,科研判断力不能被工具逻辑取代。AI擅长在已有数据中找最优解,但什么问题值得研究、哪些结果具有科学意义,仍需要人来把关。

  4 资源如何实现有效整合?

  把科学家、AI工程师和产业力量连接在一起,使创新从单点突破走向系统化加速

  复旦大学校长助理、上海科学智能研究院理事长吴力波:科学智能正从“以技术为中心”的1.0时代,迈向“以科学家为中心”的2.0时代。2.0时代是让更多领域科学家成为主角,让AI真正贯穿科研全过程。上海科学智能研究院与复旦大学共同创建星河启智科学智能开放平台,正是为了回应这一转变。

  平台的首要作用是降低科学家使用AI的门槛。它围绕真实的科研路径,搭建了覆盖数据、模型、算力、实验、智能体和协作社区的全套基础设施。目前,星河启智科学智能开放平台已汇聚400多个科学模型与工具、22PB(千万亿字节)的高价值数据以及5亿篇文献专利,科学家无需深究技术细节,就能调用前沿模型开展研究。

  我们还推出了以“大圣”为载体的科研智能体系统。它能理解科学问题,辅助完成从文献分析、假设生成到实验验证的全流程任务。近期,“大圣”上线了自定义实验室功能,科学家可以根据自己的研究方向,搭建专属工具链。

  平台的第二重作用是促进跨学科、跨地域、跨领域融合。传统科研中,不同学科的数据、模型和方法往往互不相通,协作困难。星河启智科学智能开放平台通过统一的模型仓库和数据基础设施,让不同领域的成果能够被共享、复用和组合。

  更深层看,平台扮演着科学智能生态的枢纽角色。它把科学家、AI工程师和产业力量连接在一起,让数据和方法在体系内流动复用,使创新从单点突破走向系统化加速,为AI驱动的科研范式变革提供可持续的制度支持。

  5 怎样建好并用好智能平台?

  鼓励开放共享,弥合产研鸿沟

  北京中关村学院院长、中关村人工智能研究院理事长刘铁岩:平台多,不等于够用、好用,更不等于真有用。去年,中关村学院调研了北京30多家材料企业,梳理出100项“卡脖子”问题。调研发现,用当前主流科学智能技术,只有20%的问题有望得到解决。剩下的,因为企业数字化程度低、数据缺失、算法精度不够,暂时无解。这让我们清醒地看到:“AI赋能科研”不能只喊口号、搭平台,基础设施欠账、技术局限、产研鸿沟等都真实存在。

  再说科学智能体和智能工具的开放共享。表面看这是技术问题,深层次看,其实不是没有手段打通,而是缺乏打通的动力。一个机构为什么要把自己的数据、平台开放出来?如果这个问题没有制度性回答,“开放共享”就只能停留在倡议层面。

  要破局,建议从三方面入手:一是大力推动产业数字化,以产业真需求牵引科学研究方向。科研不能停留在“先研究,再转化”的模式,要让产业反馈进入研究循环,补上“最后一公里”。二是构建开放共享的鼓励机制,让共享在一定程度上成为被认定的科研贡献,比如可以作为立项和结题的条件,建立类似论文引用的计量体系等。三是由公共力量率先搭建跨学科协作的底层基础设施。科学智能体和智能工具的用户,专业性强且分散于各学科。由于市场体量不足,因此可考虑国家战略投入先行,再逐步引入市场机制。

  总之,打通数据和智能体接口是表层,重构激励机制是中层,让科研真正面向国家需求、面向产业真问题才是根本。

  

  链接

  “第一作者必须是AI”的征文引热议

  “第一作者必须是AI。”2025年,华东师范大学发布的一则征文通知,在学术界激起千层浪。这场要求以AI作为科研论文写作主体的社会实验,以近乎“极限测试”的方式,引导我们直面一个问题:当AI深度介入知识生产,AI辅助写作的伦理边界在哪里,学术研究的底线该划在哪里?

  “我们希望通过这样的方式,研究AI写作的公众接受度、技术可行性、质量科学性和学术规范。”实验发起人、华东师范大学终身教授袁振国说。

  征文发布后,争议也随之而来。支持者认为这是AI时代学术规范的“破冰实验”,反对者则忧心这是人类在科研中的“主动退位”。“当前论文的AI渗透率较高,很多学生用AI辅助写作却不敢标注,这种‘地下状态’才是对学术规范的更大破坏。”华东师范大学智能教育实验室主任张治表示,“与其视而不见,不如正面回应。”

  实验收集了820篇“AI一作”研究论文。评审发现,AI在选题策划、大纲生成、数据分析、文献速读与逻辑梳理等方面展现出较好的能力。但局限同样不容忽视:大模型擅长在已有数据中进行“碎片重组、跨域迁移”,能够生成“似真”的创新文本,却缺乏真正的创造欲与价值判断。

  “基于这样的底层逻辑,AI在科研写作中的合理应用场景,还是应该集中于非核心的环节。”张治表示,在论文写作中,人类应当承担问题提出者、工具选择者、指令设计者与质量把关者的角色。

  “AI的使用底线,本质上是学术诚信与责任归属的底线。原创性底线不可突破,透明性底线必须坚守——所有AI使用行为均应完整披露,需在论文中明确说明工具名称、应用范围及人工审核过程。此外,责任归属底线不容模糊,无论AI参与程度深浅,人类作者都应对最终成果负全部责任。”张治说。

  这场实验的意义或许不在于得出结论,而在于推动形成一个共识:当论文写作中,人类与AI的协同成为一种新的现象,唯有善用AI赋能、坚守学术诚信,方能守护学术研究的本真价值。

  “人类使用AI辅助论文写作,绝非让渡主体性,而是探索一种全新的科研分工,即让AI去处理数据的广度,让人类来守住思想的深度与价值的温度。”北京大学副校长初晓波说。

  (本报记者丁雅诵采访整理)

  《 人民日报 》( 2026年05月17日 05 版)

(责编:白宇、卫嘉)

分享让更多人看到

推荐阅读
2026年05月17日
05 版
返回顶部