当AI都无法检测AI  问谁是作者重要吗

编译/庄闵棻

随着人工智慧(AI)技术日益成熟,关於到底「谁是作者」的疑问越来越难以回答,而近日的一项研究,更是揭示了一个在AI生成内容辨识中,难以解决的问题,无论是人类还是AI系统,都无法一致准确地辨别出网路对话中,哪些内容是由AI生成的,这一发现不仅对数位沟通和线上信任带来深远影响,还进一步挑战了人类与AI合作创造的未来方向。

随着人工智慧技术日益成熟,当AI都无法检测AI, 我们更应关注内容的价值和相关性。(图/123RF)

扩展版的图灵测试:人类与AI的错误判断

据报导,研究人员进行了一项基於经典图灵测试(Turing Test)的新实验,他们将人类与AI的对话记录,展示给参与者和AI模型,要求他们辨别发言者的真实身份,而结果令人意外,人类评审在判断对话参与者是否为AI时,表现并不优於随机猜测,更令人惊讶的是,当前如GPT-3.5和GPT-4等先进AI模型,在进行同样的判断时,表现也未见显着提升,而最值得注意的是,这些高度拟人的AI对话者,比起实际的人类,反而更容易被误认为是人类。

更多新闻:深度伪造泛滥成灾    5 招判断真假不被欺骗

AI辨识技术的局限

此外,研究还探讨了多种AI辨识方法,包括统计方法和用AI检测AI,虽然某些方法显示出潜力,但均有明显的局限性。

  • 统计方法:统计手段能辨识部分AI生成的文本模式,但对於更先进的模型则无法稳定检测,因为这些模式随着AI技术的提升变得更加细微。
  • AI检测AI:由AI进行辨识,在结果上优於随机猜测,但仍在识别高阶AI生成内容时频频出错,表明即使训练专门用於此任务的AI,也难以稳定辨识其「同类」。
  • 人类互动者:即使人类在与AI直接互动时表现优於仅依赖文本记录的情况,仍无法稳定地辨别AI参与者,显示了现代AI语言模型的复杂性。

AI辨识的重要性:值得探讨还是无谓追逐?

然而,在一个逐渐被AI整合的世界中,区分人类与AI生成的内容,在许多情境下,可能已经变得不再那麽必要,随着AI逐渐融入我们的数位互动,我们或许更应关注内容的价值和相关性,而非其来源。

但这种观点并非否定在高风险情境中保持透明的重要性,而是建议在日常互动中,执着於区分人类与AI的贡献可能既无必要,甚至反而适得其反,相反的,我们应该更关注如何评估数位内容的品质、伦理和影响,而非执着於谁是作者,这种思维转变或许将促使我们开展更多关於人类与AI协作的讨论,并探索如何最大化其结合潜力以提升我们的数位体验与决策过程。

参考资料:Psychology Today

※探索职场,透视薪资行情,请参考【科技类-职缺百科】帮助你找到最适合的舞台!