
亚太教育创新
Innovations in Asia-Pacific Education
- 主办单位:未來中國國際出版集團有限公司
- ISSN:3079-3661(P)
- ISSN:3079-9503(O)
- 期刊分类:教育科学
- 出版周期:月刊
- 投稿量:2
- 浏览量:472
相关文章
暂无数据
AIGC背景下高校科研诚信建设的实践路径研究
Research on Practical Paths for Research Integrity Construction in Higher Education Institutions in the Context of AIGC
引言
生成式人工智能(AIGC,Artificial Intelligence Generated Content)是指通过机器学习算法自动生成文本、图像等内容的技术体系,与GenAI(Generative AI)为同义表述,以下统称“AIGC”;AI工具特指学术场景中辅助科研活动的智能系统,包括但不限于大语言模型(如DeepSeek、ChatGPT)、数据处理工具等。AIGC技术的普及将对传统科研诚信建设带来挑战。主要体现在三个维度:一是数据伦理风险,开源大模型的“黑盒效应”导致数据来源合法性难以追溯,在数据采集(复制权)、模型训练(改编权)、内容生成(传播权)等环节均存在侵权风险,违反《负责任研究行为规范指引(2023)》中“使用他人未正式发表的数据必须事先征得数据所有者同意”的要求;二是内容真实性危机,中国科学院科研道德委员会《关于在科研活动中规范使用人工智能技术的诚信提醒》明确指出“反对将人工智能生成的数据作为实验数据”,而当前AIGC工具生成的虚假论文、虚构引用已引发“学术污染”,威胁科学知识体系的可靠性;三是标识规范缺失,根据《人工智能生成合成内容标识办法》要求,AI生成内容需添加“显著的提示标识”,但高校现有监管体系普遍缺乏对AIGC内容的识别与标识机制,导致学术成果溯源困难。
一、国内外科研诚信建设举措
我国已形成以《科研失信行为调查处理规则》(国科发监〔2022〕221号)、《高等学校预防与处理学术不端行为办法》(教育部令第40号)等为基础,《负责任研究行为规范指引(2023)》《人工智能生成合成内容标识办法》(国信办通字〔2025〕2号)及中国科学院《关于在科研活动中规范使用人工智能技术的诚信提醒》为补充的政策体系。《科研失信行为调查处理规则》明确将“弄虚作假、抄袭剽窃”等行为纳入科研失信清单,并强调对新兴技术应用中的科研不端行为“零容忍”;《高等学校预防与处理学术不端行为办法》要求高校建立学术不端行为调查机制,对各类论文、原始数据等关键环节提出明确规范;《负责任研究行为规范指引(2023)》则从研究选题、数据管理(要求数据采集完整可追溯、使用他人未发表数据需征得同意)、成果发表(出版单位应要求作者披露是否使用生成式人工智能,说明软件名称、版本及使用时间等,并对涉及事实和观点引证的辅助生成内容作出具体标注)、成果署名(生成式人工智能不得列为成果共同完成人)等11个方面细化科研行为规范,特别强调“依规合理使用生成式人工智能参与研究实施”;《人工智能生成合成内容标识办法》要求对AI生成的文本、图片等内容添加显式与隐式标识,明确服务提供者与用户的标识义务;《关于在科研活动中规范使用人工智能技术的诚信提醒》进一步要求在注释、致谢等部分声明AI工具的名称、版本、日期及使用过程。各类政策的出台共同构成了科研诚信治理的“四梁八柱”,为高校应对AI时代科研诚信挑战提供政策依据。
国际社会在科研诚信治理中形成了多元模式。联合国教科文组织(UNESCO)《人工智能伦理建议书》提出“人类福祉、自由与平等、民主与法治、环境与生态”等伦理原则,强调AI应用需遵循“透明性、可解释性、问责制”等治理准则。美国通过“科研诚信办公室(ORI)”实施独立第三方调查,强调调查程序的透明化以及申诉机制的完善性,其优势在于避免高校自查可能存在的利益冲突;欧盟《科研领域负责任使用生成式人工智能指南》构建了“伦理审查前置+人类决策主导”的全流程监管框架,要求AI工具开发者、科研机构、资助方共同承担治理责任。伦敦国王学院表示,该校不禁止使用任何类型的AIGC,学生和教职工应具备使用AIGC工具的知识能力;牛津大学和东京大学都要求师生合乎道德地、负责任地使用AIGC;美国的俄亥俄州立大学指出,除非给定课程的教师特别授权使用AIGC工具,否则不应在完成课程作业时使用AIGC;斯坦福大学声明,如果没有课程讲师的明确声明,AIGC的使用应被视为他人的协助。
二、西北某高校科研诚信建设现行制度分析
该校已建立涵盖“预防—查处—惩戒”的科研诚信制度框架:在预防环节,实施论文查重全覆盖(采用知网检测系统);在查处环节,设立学术道德委员会,负责学术不端行为调查;在惩戒环节,依据情节轻重采取通报批评、撤销学位、取消项目申报资格等措施。制度设计基本覆盖传统科研不端行为,但随着科学技术的发展和人工智能的普及,该校在技术监管方面存在一些短板。
其一,AI监管机制存在制度空白:未制定AIGC使用规范,各级单位及职能部门未明确AI使用规范,作者使用DeepSeek、ChatGPT等工具时无需声明。在日常调研中发现,在校研究生使用AI生成论文大纲、生成文献综述、辅助撰写等用途较为普遍,在投稿环节、汇报环节未明确要求陈述AI使用情况,主动说明使用情况的占比极少。江俊鹏等学者对2024年QS世界大学排名前100高校(含麻省理工学院、剑桥大学等顶尖学府)的AIGC学术规范进行分析,已有69所制定AIGC学术规范,其中95.7%的高校采取“不禁止+引导使用”的开放态度,包括明确AI使用声明制度(如斯坦福大学要求标注工具名称及使用比例)、设置检测阈值(如牛津大学采用Turnitin AI检测系统,阈值≤15%)等具体措施。其二,伦理审查体系尚未建立:学校未成立关于AI伦理相关的审查委员会,通过AI辅助完成的科研项目,数据来源、算法评估的评审环节缺失。其三,教育培育体系覆盖不足:科研诚信培训以“学术规范讲座”为主,未针对AIGC、开源模型等新技术开设专门的相关课程。徐军华等学者对147所“双一流”高校的调研进一步揭示,当前AI素养教育普遍存在形式单一、内容侧重工具操作的问题。马莉萍等学者对全国20所高校本科生调查数据表明,学生对AIGC的使用呈现显著分化特征,12.8%的“深度使用者”已将AI广泛应用于高阶思维活动,但仅21.2%的“均衡探索者”和24%的“劳动替代者”具备基础批判性使用能力,凸显教育的必要性。
三、路径优化:三维协同模型
(一)制度优化
构建“国家—校际—院系”三级政策衔接机制:国家层面以《科研失信行为调查处理规则》《高等学校预防与处理学术不端行为办法》等制度为纲领,明确AI科研诚信治理的要求;校际层面建立“科研诚信联盟”,共享AIGC检测标准与案例库;院系层面结合学科属性制定实施细则。具体权责划分如下:教育部负责政策制定与宏观监管,高校学术委员会统筹制度落地,院系伦理小组承担日常审查,需对项目开展“数据来源合法性—算法公平性—成果可解释性”三阶段审查。对标科技部《科研失信行为调查处理规则》第二条,细化“其他科研失信行为”认定标准,建议将“隐瞒AIGC使用”“AI生成造假数据”等纳入学术不端清单。同时,参照《学术出版中AIGC使用边界指南2.0》《人工智能生成合成内容标识办法》,在《研究生学术规范手册》中增设“AI工具使用章节”,明确禁止AI生成模拟数据、伪造参考文献等行为。
建立“声明—审核—追责”全流程管控制度,要求作者提交《AIGC使用声明》,注明工具名称(如DeepSeek/ChatGPT等数据处理、文献分析等工具)、工具版本、使用日期、具体应用场景(如文献综述辅助/数据可视化)、工具版本、使用日期、提示语及人工修改比例,未标注者视为学术不端。AIGC检测阈值高于一定比例的论文要求人工复核,重点核查摘要、数据、结论等关键内容。检测工具仅作为辅助手段,最终判定需结合人工复核,避免单一依赖检测工具导致的隐私泄露与误判风险。对违规使用者,参照《高等学校预防与处理学术不端行为办法》给予撤销论文、纳入诚信档案等惩戒。“强制检测+人工复核”的模式可有效降低AI滥用风险。
针对社会科学(含人文社科)与自然科学的学科特性制定分类标准:社会科学领域采用“有限使用”策略,仅允许使用AI辅助文献梳理和数据可视化,禁止用于生成研究假设、访谈提纲、案例分析等核心内容(如法学研究中的判例解读、经济学模型构建);自然科学领域采用“开放使用+数据溯源”策略,需对AI生成的实验数据进行原始记录比对,设置不低于一定阈值的可重复性,并保留模型使用日志。同时,要求教师在课程大纲中明确AI使用规则,在教学大纲中阐明“是否允许AI辅助写作”“引用格式要求”及“违规后果”等。例如在社会科学中增加出版伦理审查环节,在自然科学中加强数据溯源审查机制,同时要避免“一刀切”的情况,以适应不同“水土特色”。
(二)技术优化
引入区块链技术,实现科研成果(如预印本、实验记录)全生命周期可追溯,为侵权纠纷事件提供佐证,降低此类学术不端风险。同时,同步升级学术不端检测系统,增加数据溯源、理论溯源、文献溯源等功能,构建多模态检测方案。
借鉴深圳福田区“AI数智员工”经验,开发科研诚信风险预警平台。该平台对高频使用AI工具的账号、短期内发表多篇高相似度论文的作者、涉及敏感数据的项目自动标红,触发学术道德委员会介入调查。平台还可实时监测开源模型使用情况,对DeepSeek等低成本工具的异常调用进行预警,同步建立“开源模型使用备案制”,要求研究者提交模型版本、训练数据来源及授权协议(如MIT协议)备案表,防范AI滥用风险。
(三)教育培训优化
针对不同群体设计培训内容:面向科研人员,开展“AIGC科研应用”工作坊,重点讲解《AIGC使用边界指南2.0》标注规范、数据溯源技术及伦理风险规避;面向研究生,开设《科研诚信与AI伦理》必修课。课程采用黄如花等提出的AI素养教育内容框架(含AI认知、AI技能、AI应用、AI伦理四部分),基础层聚焦AI原理及数据安全理论,应用层强调AI工具合规使用,伦理层注重训练数据真实性与生成逻辑可溯性[1];针对“劳动替代者”类型学生强化批判性思维训练,对“深度使用者”增设AI伦理决策案例研讨。面向管理人员,培训AI检测系统操作与风险事件处置的能力。
借鉴现有大学关于“情景模拟教学法”的成功案例,联合图书馆开展“AI伦理月”活动;建立“AI生成论文被拒稿”“数据侵权纠纷”等真实案例库,组织师生扮演作者、编辑、审查专家等角色,通过沉浸式体验并理解AI素养的重要性;建立AI素养教育专题网页,整合在线课程、讲座视频及警示案例库等资源,积极调动师生自觉主动学习动力,守牢AI伦理底线,提高思想认识;编制科研人员AI伦理手册,明确隐私保护、算法偏见规避、责任归属等实操指引。
建立“AI伦理导师认证体系”,联合计算机学院、人文学院开发师资培训课程,内容涵盖AI技术原理、科研伦理案例分析、跨学科教学方法等。每年选派骨干教师参加科研诚信相关培训,引入成熟的“AI伦理教学工作坊”教案,培养具备技术理解力与伦理判断力的双师型队伍。实施“1+N”导师结对计划,1名技术导师(计算机领域)与N名学科导师(如医学、法学)组成教学团队,共同开发《学科AI伦理案例集》,解决单一学科师资知识结构局限问题。
四、总结
本文系统探讨了AIGC技术对高校科研诚信建设带来的挑战,提出“制度—技术—教育”三维协同的科研诚信建设方案。研究发现,数据伦理风险、内容真实性危机和标识规范缺失构成AIGC时代科研诚信的主要威胁,通过优化现有制度体系、部署区块链溯源与AI检测技术、构建分层分类的伦理教育体系,形成治理合力,为AIGC背景下高校科研诚信建设的实践路径提供借鉴。该研究将区块链技术与科研诚信预警机制结合,提出的“开源模型使用备案制”和“AI伦理导师认证体系”为高校应对技术变革提供了新思路。
参考文献:
- [1] 中华人民共和国教育部. 高等学校预防与处理学术不端行为办法(教育部令第40号)[EB/OL]. (2016-06-16)[2026-03-02]. http://www.moe.gov.cn/jyb_xxgk/xxgk/zhengce/guizhang/202112/t20211206_585094.html.
- [2] 联合国教科文组织. 人工智能伦理建议书[R]. 巴黎: 联合国教科文组织,2021.
- [3] 孙平. 国外科研不端行为查处机制的演进及对我国的启示[J]. 中国科学基金,2022,36(02):322-328.
- [4] 欧盟委员会. 科研领域负责任使用生成式人工智能指南[Z].2024-04-08.
- [5] 徐军华, 文杏儿. 数智时代147所“双一流”高校图书馆AI素养教育的探索和对策[J]. 图书馆,2025(07):61-70.
- [6] 黄如花, 石乐怡, 吴应强, 等. 全球视野下我国人工智能素养教育内容框架的构建[J]. 图书情报知识,2024,41(03):27-37.
- [7] 中国科学技术信息研究所. 学术出版中AIGC使用边界指南2.0[Z].2024.
- [8] 徐丽芳, 罗婷,田峥峥, 等. 技术驱动的开放与可信出版:2024年海外科技期刊出版动态研究[J]. 科技与出版,2025(03):35-54.
- [9] 虞晨琳, 张静蓓, 蔡迎春. 高校图书馆AI素养的伦理维度及伦理教育框架:理论与实践探索[J]. 图书馆杂志,2024,43(11):34-49.
- [10] 解贺嘉, 张家烁, 张久珍. 人工智能环境下学术期刊出版伦理规范内容建设研究[J].现代出版,2024(12):55-66. ↩︎
