当前位置: 首页>

光明日报: 抽查用ChatGPT写论文, 该如何看待?

近日,江苏省科技厅监督评估处处长顾俊在做客一档媒体节目时表示,将组织开展科技人员公开发表论文的自查和主动抽查,并开展科技伦理审查,引导科技人员提高诚信意识。顾俊表示,ChatGPT能生成连贯的、有逻辑性文章的特性,提供了便利,但也可能被用来回避论文查重问题,甚至列出虚构的参考文献目录,导致学术不端问题。

这不是一个新问题。几乎从ChatGPT诞生之日起,围绕着其对教育界和科技界可能带来的冲击,争议声就一直没有断过。比起主张“严禁ChatGPT入侵”者,和主张“积极拥抱新技术”者,一个越来越被接受的共识,是需要厘清ChatGPT的应用场景和边界,划定底线、明确规则,最大程度让ChatGPT发挥积极作用、限制其负面影响。以科技人员发表论文为例,虽然这已经不是评价科技工作者学术科研水平的唯一标尺,但仍然是检验学术成果、评价科研成色的重要标准之一,确保论文内容的原创性、创新性和撰写的独立性,仍是不可逾越的红线。

通过自查和不定期抽查,更新学术不端的处理程序与标准,可以从技术手段上强化对已经发表论文的“体检”,判断论文的真伪性、原创性,让科技人员不敢、不能剑走偏锋;开展科技伦理审查,引导科技人员提高诚信意识,则抓住了使用新技术的人员这一核心要素,从思想觉悟上加强教育,让其从内心真正做到远离学术不端。在目前语境下,加强对核心人群的诚信教育和以技术手段完善监督机制,是防止科技人员使用ChatGPT写论文的两个重要方面。

目前,国内外很多大学已经开设了ChatGPT等相关课程,也鼓励学生使用其完成部分作业,但对于使用ChatGPT写论文,无一例外都是持禁止态度。暨南大学《暨南学报(哲学社会科学版)》、《天津师范大学学报(基础教育版)》明确表示,暂不接受ChatGPT等任何大型语言模型工具单独或联合署名的文章。很多顶级学术期刊也是如此,比如《自然》杂志规定:禁止ChatGPT等任何大型语言模型工具成为论文作者,建议使用这些工具的研究人员在稿件中应特别说明使用了AI;《科学》杂志明确表示不接受使用ChatGPT生成的论文,不允许ChatGPT作为论文作者,ChatGPT生成的论文等同于剽窃。

可见,从大学到顶级权威期刊,从针对教育教学人员到所有科技人员,其治理逻辑都是一致的:审慎接受,严格限制使用。无论是从保障论文创新价值上看,还是从维护科研人员的公平竞争上看,抑或从确保科研成果真正服务于社会进步上看,这种严格规范的管理都是应有之义。

虽然目前我国尚未正式出台有关应对ChatGPT带来问题的措施,但并不意味没有相关管理。比如,去年3月,中办、国办印发《关于加强科技伦理治理的意见》,将人工智能作为需要加强科技伦理治理的重点领域之一。今年4月,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》,其中拟规定:提供生成式人工智能产品或服务,应尊重知识产权、商业道德;用于生成式人工智能产品的预训练、优化训练数据,应不含有侵犯知识产权的内容。

尤其值得一提的是,8月28日,学位法草案提请十四届全国人大常委会审议。其中,对学位获得者利用人工智能代写学位论文等行为,明确了相应的法律责任:经学位评定委员会审议决定由学位授予单位撤销学位证书。这传递出的信号再明显不过:以法律威严,坚决捍卫学位论文不被人工智能“入侵”。

在今天,ChatGPT作为一款功能强大、应用广泛的新技术,我们固然不应对其一味排斥和回避,但说到底,它仍是人创造出来的、服务于人类的工具,且它本身是中性的,如何使用取决于我们自身。相信随着时间的推移,相关管理治理的制度措施也会愈发完善,最终让ChatGPT在遵循科技伦理、知识产权和学术严肃权威等各领域各行业规则的基础上,更好发挥优势,服务于人类和社会的发展进步。

本文来自网络,不代表 立场,转载请注明出处。