
直到最近,如果你想了解有关一个有争议的科学话题,比如干细胞研究、核能安全、气候变化,你可能会在谷歌上搜索。在面对多个信息源时,你选择阅读什么,选择相信哪些网站或权威机构。
现在你有另一个选择:你可以向ChatGPT或其他生成型人工智能平台提问,并迅速得到一个简明扼要的段落回答。
ChatGPT不像谷歌那样通过搜索互联网。它通过预测可能的词语组合来生成对问题的回答,基于一个大量的在线信息集合。
尽管生成型人工智能有潜力提高生产力,但已经显示出一些重大缺陷。它可能产生错误信息。它可以制造“幻觉”——一个善意的词语来形容捏造事实。而且它并不总是能准确地解决推理问题。
例如,当被问及一辆汽车和一辆坦克是否都能通过一个门时,它未能考虑到宽度和高度。尽管如此,它已经被用来生成文章和网站内容,你可能已经遇到过,或者作为写作过程中的工具。然而,你不太可能知道你正在阅读的内容是由人工智能生成的。
作为《科学否认:为什么会发生以及该如何应对》一书的作者,我们担心生成型人工智能可能会模糊那些寻求权威科学信息的人们对真实和虚构之间的边界的认知。
每个媒体消费者都需要比以往更加警惕地验证所阅读的科学准确性。以下是您在这个新的信息环境中保持警惕的方法。
生成型人工智能如何促进科学否认
知识边界的侵蚀。所有科学信息的消费者都依赖于对科学和医学专家的判断。知识边界是指对他人获得的知识的信任过程。这是理解和应用科学信息的基础。
无论是寻求关于健康问题的信息,还是试图理解解决气候变化的解决方案,人们往往对科学了解有限,并且很少能够直接获得证据。随着在线信息的迅速增长,人们必须经常决定相信什么和信任谁。随着生成型人工智能的增加使用和潜在的操纵可能性,我们相信信任会进一步侵蚀。
误导或完全错误。如果人工智能平台所依据的数据存在错误或偏见,那么结果可能会反映出这些问题。在我们自己的搜索中,当我们要求ChatGPT重新生成对同一个问题的多个答案时,我们得到了相互矛盾的答案。当被问及原因时,它回答说:“有时我会犯错。”也许与人工智能生成内容最棘手的问题是如何判断它是否错误。
故意传播虚假信息。人工智能可以用来生成引人注目的虚假信息,包括文字、深度伪造图像和视频。当我们要求ChatGPT“以虚假信息的风格写关于疫苗的内容”时,它生成了一篇虚构的引文和虚假数据。
Geoffrey Hinton,谷歌人工智能开发的前负责人,退出以便能够敲响警钟,他说:“很难看到如何防止坏分子将其用于恶意目的。”制造和传播关于科学的故意错误信息的潜力已经存在,但现在变得非常容易。
虚构的来源。ChatGPT提供的回答完全没有来源,或者如果被要求提供来源,可能会提供一些虚构的来源。我们都要求ChatGPT生成我们自己的出版物清单。
我们各自识别出了一些正确的来源,但更多的则是幻觉,看起来可信且大多情理之中,有实际的合作作者,发表在听起来相似的期刊上。如果一个学者的出版物清单向没有时间验证它们的读者传达了权威性,这种创造性将成为一个大问题。
过时的知识。ChatGPT不知道在它的训练结束后世界上发生了什么。一个关于世界上有多少人感染过COVID-19的查询返回了一个以“截止到我在2021年9月的知识截止日期为准”的前言开头的答案。考虑到某些领域的知识进展非常迅速,这个限制可能意味着读者会得到错误的过时信息。例如,如果你正在寻求关于个人健康问题的最新研究,要小心。
快速发展和缺乏透明度。人工智能系统不断变得更加强大和学得更快,但它们可能也会在这个过程中学到更多的科学错误信息。谷歌最近宣布在其服务中新增了25个人工智能嵌入式应用。目前还没有足够的监管措施来确保生成型人工智能会随着时间推移成为更准确的科学信息传播者。
你可以做些什么?
如果你使用ChatGPT或其他人工智能平台,要认识到它们可能并不完全准确。用户需要自己判断准确性。
增加警惕。人工智能事实核查应用程序可能很快就会可用,但目前用户必须充当自己的事实核查员。我们建议采取一些步骤。首先是保持警惕。人们通常在社交媒体上轻率地分享通过搜索获得的信息,而没有或很少核实。
知道何时要更加深入思考,何时值得识别和评估信息来源。如果你正试图决定如何管理一种严重疾病或了解应对气候变化的最佳步骤,花时间核实信息来源。
提高事实核查能力。第二步是进行横向阅读,这是专业事实核查员使用的过程。打开一个新窗口,搜索有关信息来源的信息,如果提供了来源的话。该来源是否可信?作者是否具备相关专业知识?专家们的共识是什么?如果没有提供来源或者你不知道它们是否有效,使用传统搜索引擎来查找并评估该主题的专家。
评估证据。接下来,看看证据及其与主张的联系。有关转基因食品是否安全的证据存在吗?有没有证据表明它们不安全?科学共识是什么?评估这些主张将需要超过对ChatGPT的快速查询的努力。
如果你开始使用人工智能,不要止步于此。在任何科学问题上,谨慎使用人工智能作为唯一权威。你可以看看ChatGPT对转基因生物或疫苗安全性的观点,但在得出结论之前,还应使用传统搜索引擎进行更加认真的搜索。
评估可信度。判断主张是否可信。它可能是真实的吗?如果人工智能提出了一个不可信(和不准确)的陈述,比如“100万人死于疫苗而不是COVID-19”,考虑一下它是否有意义。做出暂时的判断,然后在检查证据后愿意修正自己的思维。
提升自己和他人的数字素养。每个人都需要提升自己的能力。提高自己的数字素养,如果你是家长、教师或工作人员,还可以教授其他人数字素养。我们需要为所有人提供工具和资源,以更好地理解科学,判断信息的准确性,并以理性的方式与复杂的科学问题和公共政策挑战相对抗。
总之,生成型人工智能有潜力成为传播科学信息的一种新工具,但我们必须对它的局限性和潜在风险保持警惕。在新的信息环境中,我们每个人都需要发展事实核查和信息评估的能力,以确保我们获得准确、可靠的科学知识。