国际期刊投稿平台
登录 | 注册
当前位置: 首页 > 亚太教育创新 > AIGC背景下高校科研诚信建设的实践路径研究
亚太教育创新

亚太教育创新

Innovations in Asia-Pacific Education

  • 主办单位: 
    未來中國國際出版集團有限公司
  • ISSN: 
    3079-3661(P)
  • ISSN: 
    3079-9503(O)
  • 期刊分类: 
    教育科学
  • 出版周期: 
    月刊
  • 投稿量: 
    2
  • 浏览量: 
    472

相关文章

暂无数据

AIGC背景下高校科研诚信建设的实践路径研究

Research on Practical Paths for Research Integrity Construction in Higher Education Institutions in the Context of AIGC

发布时间:2026-04-16
作者: 任建学,周文瑞 :新疆大学 新疆乌鲁木齐;
摘要: 科研诚信是学术创新的基石,也是高等教育质量的核心保障。随着生成式人工智能(AIGC)、开源大模型等新兴技术的快速发展,传统科研诚信体系面临数据侵权、AI滥用、伦理失范等新挑战。习近平总书记在中央政治局集中学习时强调,知识产权保护工作关系国家治理体系和治理能力现代化,关系高质量发展,关系人民生活幸福,关系国家对外开放大局,关系国家安全。本文通过国内外科研失信治理举措研究、现行制度诊断与路径优化,提出“制度—技术—教育”三维协同的科研诚信建设方案,为新时代高校科研诚信治理提供参考。
Abstract: Research integrity is the cornerstone of academic innovation and a core guarantee of quality in higher education. With the rapid development of emerging technologies such as Generative Artificial Intelligence (AIGC) and open-source large models, traditional research integrity systems are facing new challenges, including data infringement, AI misuse, and ethical misconduct. As emphasized during the study session of the Political Bureau of the CPC Central Committee, intellectual property protection bears critical significance for the modernization of China’s governance system and governance capacity, high-quality development, people’s well-being, the broader landscape of the country’s opening-up, and national security. Through a review of domestic and international governance measures for research misconduct, an assessment of current systems, and path optimization, this paper proposes a three-dimensional collaborative framework—“institution, technology, and education”—for research integrity construction, aiming to provide reference for the governance of research integrity in higher education institutions in the new era.
关键词: 科研诚信;AIGC;高校
Keywords: research integrity; AIGC; higher education institutions

引言

生成式人工智能(AIGC,Artificial Intelligence Generated Content)是指通过机器学习算法自动生成文本、图像等内容的技术体系,与GenAI(Generative AI)为同义表述,以下统称“AIGC”;AI工具特指学术场景中辅助科研活动的智能系统,包括但不限于大语言模型(如DeepSeek、ChatGPT)、数据处理工具等。AIGC技术的普及将对传统科研诚信建设带来挑战。主要体现在三个维度:一是数据伦理风险,开源大模型的“黑盒效应”导致数据来源合法性难以追溯,在数据采集(复制权)、模型训练(改编权)、内容生成(传播权)等环节均存在侵权风险,违反《负责任研究行为规范指引(2023)》中“使用他人未正式发表的数据必须事先征得数据所有者同意”的要求;二是内容真实性危机,中国科学院科研道德委员会《关于在科研活动中规范使用人工智能技术的诚信提醒》明确指出“反对将人工智能生成的数据作为实验数据”,而当前AIGC工具生成的虚假论文、虚构引用已引发“学术污染”,威胁科学知识体系的可靠性;三是标识规范缺失,根据《人工智能生成合成内容标识办法》要求,AI生成内容需添加“显著的提示标识”,但高校现有监管体系普遍缺乏对AIGC内容的识别与标识机制,导致学术成果溯源困难。

一、国内外科研诚信建设举措

我国已形成以《科研失信行为调查处理规则》(国科发监〔2022〕221号)、《高等学校预防与处理学术不端行为办法》(教育部令第40号)等为基础,《负责任研究行为规范指引(2023)》《人工智能生成合成内容标识办法》(国信办通字〔2025〕2号)及中国科学院《关于在科研活动中规范使用人工智能技术的诚信提醒》为补充的政策体系。《科研失信行为调查处理规则》明确将“弄虚作假、抄袭剽窃”等行为纳入科研失信清单,并强调对新兴技术应用中的科研不端行为“零容忍”;《高等学校预防与处理学术不端行为办法》要求高校建立学术不端行为调查机制,对各类论文、原始数据等关键环节提出明确规范;《负责任研究行为规范指引(2023)》则从研究选题、数据管理(要求数据采集完整可追溯、使用他人未发表数据需征得同意)、成果发表(出版单位应要求作者披露是否使用生成式人工智能,说明软件名称、版本及使用时间等,并对涉及事实和观点引证的辅助生成内容作出具体标注)、成果署名(生成式人工智能不得列为成果共同完成人)等11个方面细化科研行为规范,特别强调“依规合理使用生成式人工智能参与研究实施”;《人工智能生成合成内容标识办法》要求对AI生成的文本、图片等内容添加显式与隐式标识,明确服务提供者与用户的标识义务;《关于在科研活动中规范使用人工智能技术的诚信提醒》进一步要求在注释、致谢等部分声明AI工具的名称、版本、日期及使用过程。各类政策的出台共同构成了科研诚信治理的“四梁八柱”,为高校应对AI时代科研诚信挑战提供政策依据。

国际社会在科研诚信治理中形成了多元模式。联合国教科文组织(UNESCO)《人工智能伦理建议书》提出“人类福祉、自由与平等、民主与法治、环境与生态”等伦理原则,强调AI应用需遵循“透明性、可解释性、问责制”等治理准则。美国通过“科研诚信办公室(ORI)”实施独立第三方调查,强调调查程序的透明化以及申诉机制的完善性,其优势在于避免高校自查可能存在的利益冲突;欧盟《科研领域负责任使用生成式人工智能指南》构建了“伦理审查前置+人类决策主导”的全流程监管框架,要求AI工具开发者、科研机构、资助方共同承担治理责任。伦敦国王学院表示,该校不禁止使用任何类型的AIGC,学生和教职工应具备使用AIGC工具的知识能力;牛津大学和东京大学都要求师生合乎道德地、负责任地使用AIGC;美国的俄亥俄州立大学指出,除非给定课程的教师特别授权使用AIGC工具,否则不应在完成课程作业时使用AIGC;斯坦福大学声明,如果没有课程讲师的明确声明,AIGC的使用应被视为他人的协助。

二、西北某高校科研诚信建设现行制度分析

该校已建立涵盖“预防—查处—惩戒”的科研诚信制度框架:在预防环节,实施论文查重全覆盖(采用知网检测系统);在查处环节,设立学术道德委员会,负责学术不端行为调查;在惩戒环节,依据情节轻重采取通报批评、撤销学位、取消项目申报资格等措施。制度设计基本覆盖传统科研不端行为,但随着科学技术的发展和人工智能的普及,该校在技术监管方面存在一些短板。

其一,AI监管机制存在制度空白:未制定AIGC使用规范,各级单位及职能部门未明确AI使用规范,作者使用DeepSeek、ChatGPT等工具时无需声明。在日常调研中发现,在校研究生使用AI生成论文大纲、生成文献综述、辅助撰写等用途较为普遍,在投稿环节、汇报环节未明确要求陈述AI使用情况,主动说明使用情况的占比极少。江俊鹏等学者对2024年QS世界大学排名前100高校(含麻省理工学院、剑桥大学等顶尖学府)的AIGC学术规范进行分析,已有69所制定AIGC学术规范,其中95.7%的高校采取“不禁止+引导使用”的开放态度,包括明确AI使用声明制度(如斯坦福大学要求标注工具名称及使用比例)、设置检测阈值(如牛津大学采用Turnitin AI检测系统,阈值≤15%)等具体措施。其二,伦理审查体系尚未建立:学校未成立关于AI伦理相关的审查委员会,通过AI辅助完成的科研项目,数据来源、算法评估的评审环节缺失。其三,教育培育体系覆盖不足:科研诚信培训以“学术规范讲座”为主,未针对AIGC、开源模型等新技术开设专门的相关课程。徐军华等学者对147所“双一流”高校的调研进一步揭示,当前AI素养教育普遍存在形式单一、内容侧重工具操作的问题。马莉萍等学者对全国20所高校本科生调查数据表明,学生对AIGC的使用呈现显著分化特征,12.8%的“深度使用者”已将AI广泛应用于高阶思维活动,但仅21.2%的“均衡探索者”和24%的“劳动替代者”具备基础批判性使用能力,凸显教育的必要性。

三、路径优化:三维协同模型

(一)制度优化

构建“国家—校际—院系”三级政策衔接机制:国家层面以《科研失信行为调查处理规则》《高等学校预防与处理学术不端行为办法》等制度为纲领,明确AI科研诚信治理的要求;校际层面建立“科研诚信联盟”,共享AIGC检测标准与案例库;院系层面结合学科属性制定实施细则。具体权责划分如下:教育部负责政策制定与宏观监管,高校学术委员会统筹制度落地,院系伦理小组承担日常审查,需对项目开展“数据来源合法性—算法公平性—成果可解释性”三阶段审查。对标科技部《科研失信行为调查处理规则》第二条,细化“其他科研失信行为”认定标准,建议将“隐瞒AIGC使用”“AI生成造假数据”等纳入学术不端清单。同时,参照《学术出版中AIGC使用边界指南2.0》《人工智能生成合成内容标识办法》,在《研究生学术规范手册》中增设“AI工具使用章节”,明确禁止AI生成模拟数据、伪造参考文献等行为。

建立“声明—审核—追责”全流程管控制度,要求作者提交《AIGC使用声明》,注明工具名称(如DeepSeek/ChatGPT等数据处理、文献分析等工具)、工具版本、使用日期、具体应用场景(如文献综述辅助/数据可视化)、工具版本、使用日期、提示语及人工修改比例,未标注者视为学术不端。AIGC检测阈值高于一定比例的论文要求人工复核,重点核查摘要、数据、结论等关键内容。检测工具仅作为辅助手段,最终判定需结合人工复核,避免单一依赖检测工具导致的隐私泄露与误判风险。对违规使用者,参照《高等学校预防与处理学术不端行为办法》给予撤销论文、纳入诚信档案等惩戒。“强制检测+人工复核”的模式可有效降低AI滥用风险。

针对社会科学(含人文社科)与自然科学的学科特性制定分类标准:社会科学领域采用“有限使用”策略,仅允许使用AI辅助文献梳理和数据可视化,禁止用于生成研究假设、访谈提纲、案例分析等核心内容(如法学研究中的判例解读、经济学模型构建);自然科学领域采用“开放使用+数据溯源”策略,需对AI生成的实验数据进行原始记录比对,设置不低于一定阈值的可重复性,并保留模型使用日志。同时,要求教师在课程大纲中明确AI使用规则,在教学大纲中阐明“是否允许AI辅助写作”“引用格式要求”及“违规后果”等。例如在社会科学中增加出版伦理审查环节,在自然科学中加强数据溯源审查机制,同时要避免“一刀切”的情况,以适应不同“水土特色”。

(二)技术优化

引入区块链技术,实现科研成果(如预印本、实验记录)全生命周期可追溯,为侵权纠纷事件提供佐证,降低此类学术不端风险。同时,同步升级学术不端检测系统,增加数据溯源、理论溯源、文献溯源等功能,构建多模态检测方案。

借鉴深圳福田区“AI数智员工”经验,开发科研诚信风险预警平台。该平台对高频使用AI工具的账号、短期内发表多篇高相似度论文的作者、涉及敏感数据的项目自动标红,触发学术道德委员会介入调查。平台还可实时监测开源模型使用情况,对DeepSeek等低成本工具的异常调用进行预警,同步建立“开源模型使用备案制”,要求研究者提交模型版本、训练数据来源及授权协议(如MIT协议)备案表,防范AI滥用风险。

(三)教育培训优化

针对不同群体设计培训内容:面向科研人员,开展“AIGC科研应用”工作坊,重点讲解《AIGC使用边界指南2.0》标注规范、数据溯源技术及伦理风险规避;面向研究生,开设《科研诚信与AI伦理》必修课。课程采用黄如花等提出的AI素养教育内容框架(含AI认知、AI技能、AI应用、AI伦理四部分),基础层聚焦AI原理及数据安全理论,应用层强调AI工具合规使用,伦理层注重训练数据真实性与生成逻辑可溯性[1];针对“劳动替代者”类型学生强化批判性思维训练,对“深度使用者”增设AI伦理决策案例研讨。面向管理人员,培训AI检测系统操作与风险事件处置的能力。

借鉴现有大学关于“情景模拟教学法”的成功案例,联合图书馆开展“AI伦理月”活动;建立“AI生成论文被拒稿”“数据侵权纠纷”等真实案例库,组织师生扮演作者、编辑、审查专家等角色,通过沉浸式体验并理解AI素养的重要性;建立AI素养教育专题网页,整合在线课程、讲座视频及警示案例库等资源,积极调动师生自觉主动学习动力,守牢AI伦理底线,提高思想认识;编制科研人员AI伦理手册,明确隐私保护、算法偏见规避、责任归属等实操指引。

建立“AI伦理导师认证体系”,联合计算机学院、人文学院开发师资培训课程,内容涵盖AI技术原理、科研伦理案例分析、跨学科教学方法等。每年选派骨干教师参加科研诚信相关培训,引入成熟的“AI伦理教学工作坊”教案,培养具备技术理解力与伦理判断力的双师型队伍。实施“1+N”导师结对计划,1名技术导师(计算机领域)与N名学科导师(如医学、法学)组成教学团队,共同开发《学科AI伦理案例集》,解决单一学科师资知识结构局限问题。

四、总结

本文系统探讨了AIGC技术对高校科研诚信建设带来的挑战,提出“制度—技术—教育”三维协同的科研诚信建设方案。研究发现,数据伦理风险、内容真实性危机和标识规范缺失构成AIGC时代科研诚信的主要威胁,通过优化现有制度体系、部署区块链溯源与AI检测技术、构建分层分类的伦理教育体系,形成治理合力,为AIGC背景下高校科研诚信建设的实践路径提供借鉴。该研究将区块链技术与科研诚信预警机制结合,提出的“开源模型使用备案制”和“AI伦理导师认证体系”为高校应对技术变革提供了新思路。

参考文献:

  1. [1] 中华人民共和国教育部. 高等学校预防与处理学术不端行为办法(教育部令第40号)[EB/OL]. (2016-06-16)[2026-03-02]. http://www.moe.gov.cn/jyb_xxgk/xxgk/zhengce/guizhang/202112/t20211206_585094.html.
  2. [2] 联合国教科文组织. 人工智能伦理建议书[R]. 巴黎: 联合国教科文组织,2021.
  3. [3] 孙平. 国外科研不端行为查处机制的演进及对我国的启示[J]. 中国科学基金,2022,36(02):322-328.
  4. [4] 欧盟委员会. 科研领域负责任使用生成式人工智能指南[Z].2024-04-08.
  5. [5] 徐军华, 文杏儿. 数智时代147所“双一流”高校图书馆AI素养教育的探索和对策[J]. 图书馆,2025(07):61-70.
  6. [6] 黄如花, 石乐怡, 吴应强, 等. 全球视野下我国人工智能素养教育内容框架的构建[J]. 图书情报知识,2024,41(03):27-37.
  7. [7] 中国科学技术信息研究所. 学术出版中AIGC使用边界指南2.0[Z].2024.
  8. [8] 徐丽芳, 罗婷,田峥峥, 等. 技术驱动的开放与可信出版:2024年海外科技期刊出版动态研究[J]. 科技与出版,2025(03):35-54.
  9. [9] 虞晨琳, 张静蓓, 蔡迎春. 高校图书馆AI素养的伦理维度及伦理教育框架:理论与实践探索[J]. 图书馆杂志,2024,43(11):34-49.
  10. [10] 解贺嘉, 张家烁, 张久珍. 人工智能环境下学术期刊出版伦理规范内容建设研究[J].现代出版,2024(12):55-66. ↩︎
联系我们
人工客服,稿件咨询
投稿
扫码添加微信
客服
置顶