教授批评了著名杂志:我的文章可能被AI拒绝

我最近非常烦人,由韩国钟南大学的环境科学家兼教授李·西张(Li Sihui Zhang Hongyue)翻译。拒绝完成团队的环境化学的文件。使他更加生气的是,表达拒绝的评论者可能不是一个人,而是AI。洪钦吉非常不安,所以他写了一篇文章,尤其是用于时代的高等教育。人们怀疑,由于AI工具所产生的评论的意见,他的团队的文件被拒绝了。这些指控引起了许多学者在不当干预措施及其在同伴审查中的风险的激烈辩论。 “由于歌曲来自模棱两可和矛盾的评论意见的主题,该期刊的总编辑否认了这些指控“不可能。 “ nd直接刺激了学术完整性以及科学和技术道德的中心问题。r,专业和公平性在与审稿人的压力和高效的压力时,今年早些时候,洪昌金团队向著名的国际环境科学杂志询问了有关“新的环境分析方法中的应用”的文件。成琼在文章中指出,本综述报告中存在重要的异常现象。其次,报告清楚地显示了逻辑矛盾和事实上的错误。有一个剥夺。该报告认为,“化学分析的可重复性并未完全解释”,实际上,该问题在文档的几章中清楚地确定了。修订语言本身也很奇怪。 “评论就像加入模板和关键字一样。”洪昌(Hong Chengjin)发现,该报告是填写的常见和风格评论,例如“更必要的验证”和“缺乏包容性”。更奇怪的是,评论者在代表开始时承认Ort“作者提出的一个问题得到了回答,但没有提供足够的理由,不能鼓励该文章发表。根据他在研究的15年经验,他发表了150篇文章,并担任该杂志的助理编辑,Hong Chengjin在最近几年中逐渐提高了审查的次数,并且在表现上越来越多地提高了一位质疑,并且在质疑中均已提高了一段质疑,并且在一定会上提高了一项质疑。这项审查可以通过AI的一部分或完全由AI产生。那是RE是使用AI的审阅者的可能性很低,并提议重新介绍被审查为新演讲的手稿。换句话说,该团队的三个月审核工作现在已经被消除。洪彻·金坦率地说:“科学研究不应取决于运气。当评论成为基于关键字的机械过程时,学术信托的基石就会崩溃。评论是主观的,而不是AI的独家,但也经常发生匿名评论。e在杂志上。此外,审查中AI的道德限制已成为重点。学生说:“这种关注是没有根据的。斯坦福大学的一项研究表明,超过一半的研究生允许他们使用AI撰写“非必需”文件。我们看到,AI的渗透在整个剧院链中提高了实际风险,整个剧院链中类似的争议并不是孤立的案例。”我们批评了AI的批评。这是“你为什么不吃切碎的肉?”的学术版本,值得注意的是,尽管位置有所不同,但讨论的双方都达成了关于重要问题的共识。如果这次争议引起的审查意见是相关的D对AI工具,低质量的评论已成为一种慢性疾病,在当前的学术出版系统中无法忽视。解决自动审查潜在风险的解决方案是提高透明度和加强责任。同行评审应基于公平,透明度和经验。 "Transparency is considered the key to the reconstruction of trust. Hong Sung-Jin seeks to establish a mechanismor dissemination: Reviewers must declare the scope of the use of AI tools, and magazines must explain the degree of automation of the review process. This position reflects the practice of international magazines. 2024, the parent company of Nature Springer Nature clearly established that AI is allowed with the initial detection, but all the results must be reviewed manually,并通过静止弹簧进行了审查,清楚地建立了在初始检测中允许的AI,但是所有结果都必须与Strett进行审查和审查,并进行了审查,并进行了审查通过静止的严格,正在对初始检测中允许的静止AI进行审查,但是必须对所有结果进行审查和审查,并与Strett进行检查,并进行了严格的摘要,并进行了更多结果。禁止完全相信AI来得出审查结论。收藏家Magdalena船长说:“只要将自己沉浸在阳光下,我们就可以重建我们的信任。”人类机器的技术测试和协调是另一个重要的防御路线。当前,编辑人开始开发AI内容检测系统,但是现有技术仍然具有瓶颈。数据表明,当前主要的当前检测工具(例如Itimencate 2.0)具有15%的非本地英语说话者的误报率。这些工具主要基于用于分析的统计文本特征。他们可以执行初步预测,但是很难准确区分“辅助的文本AI-ai“由AI生成的完整文本”。重要的是要加强手动监督技术限制。麻省理工学院的新闻界建议编辑必须进行实质性评论,签名并假设AI-AI协助的内容的牛皮度。同时,一些杂志正在调查“审查防御措施的公开权利”,这些杂志可以询问有关AI评论的问题,即可疑作者正在触发编辑委员会的仲裁。在这种情况下,捍卫学术信托的斗争已经开始。技术浪潮是不可逆转的,但是正如洪成琼所说:“当评论成为黑色自动化框时,科学信任的基础正在侵蚀。”在效率和严格的游戏中,保证修订的透明度和坚持人类主观性是有害收入。