上半年ChatGPT横空出世,人工智能的潜能展现,给许多职业带来了一场关于生存危机的探讨。GPT能够通过律师和工程师资格考试,写的大学论文能不挂科,甚至能够“理解”笑话。它能回答人们的疑问,组织生动的语言,模仿各式各样的语言风格;而大语言模型和图像生成AI结合的技术,能够让丝毫没有受过艺术训练的人,用只言片语“创造”出惊人的艺术图像。
对于知识“加工”和“消费”者而言,大语言模型加上生成式人工智能的能力是巨大的。海量语素数据、深度神经网络和极大的计算力,相当于把所有来自互联网的知识“压平”,再通过人机互动进行“整装”。知识加工变得更加便捷迅速,消费变得更加简明清晰。
针对这一点,技术乐观主义者认为,从今以后机器能够生成的内容,或许不需要大多数人去动脑实现,就如同搜索引擎取代了图书馆的馆藏卡片、计算器取代珠算一般。的确,那些大量重复的文字类工作,或者机械的列举、整理工作,即使AI不介入最终决策,也能够提供相当程度的生产力,辅助人类进行知识的加工和消费。
那么,读书还有用吗?各大高校、研究机构的人员是否可以下班了?
大语言模型和生成式人工智能为将来的知识“生产者”带来了一个绕不过的课题:何为知识?如何生产多样、公正、真实的知识?
人工智能的“学习”能力是惊人的。现有的大语言模型和人工智能的应用,都由机器学习作为其底色。“学习”二字,实质上是用大量的数据训练预测模型,并在预测的准确度以及普适性上找到平衡。这种预测实际上是基于现有知识的语言模型的预测,也是基于现有语言之间的联系。例如输入“红烧”,机器预测“肉”,然后根据更多的输入,例如地点、人、习惯等,给出更加精确的预测,比如“外婆做的红烧牛肉”等。
因此,基于机器学习的人工智能,会把各种维度的数据在更高维度的空间里联系起来,有发现数据之间潜在联系的能力,也会“学到”一些现实中不存在但很可能发生的联系。用在语言模型中,人工智能也能“学到”不同的语言风格,挖掘现有文字中的“精髓”和“问题”。数据越大,模型越成熟,其计算和挖掘能力也越高。
新的知识能在现有知识的联结和新模式中产生,这一点不管是在人还是机器层面都是成立的。然而,现有的知识是否足够,是否充分,是否公平?如果现有知识的基础是不足的甚至是有偏见的,那么在此基础上建立的新知识也会产生偏差。
自机器学习的AI投入大规模应用以来,学者就在不断地揭示这些模型内在的偏见:性别歧视、种族歧视、有违伦理的输出等。开发者用各种补丁和纠偏的方式去弥补,但大部分问题都潜藏于数据生产和训练过程中,而AI的偏见亦是对社会偏见的反映和放大。
如果一个与机器紧密合作的知识生产者,其生产依赖这类“生成”,那么一些来自模型的偏见就会被嵌入更多的新知识中,新知识再被吸收为数据,又进一步加大了模型的偏差。知识生产者在这个过程中必须保持警惕。
AI时代,AI提供的便捷和可延展性,会潜在地让人们更容易忽视没有被数据化、电子化的、非主流的、经验性的知识,从而错过形成新观点、新视角的可能。
往更深层次讲,新知识往往产生于对新材料的挖掘,不同观点、不同视角之间的碰撞,对现有知识的重新解构。大语言模型为知识的展现提供了许多可能,然而其内在的逻辑和架构可能是和这种生产方式相悖的。
笔者在使用ChatGPT的时候遇到过这样一个问题:让它解释一个概念,说得头头是道,然而问起来源,就是“一本正经地胡说八道”,比如列举一本作者从来没写过的书、一篇从来没发表过的论文。领域越是狭窄、专业,“胡说”的可能性越大。
对于知识生产者而言,如何活用人工智能去挖掘现有知识库的模式和联系,但又对机器的“幻视”保持警惕,什么存在、什么存疑,是非常重要的技能。
与AI“对话”,也会变成一个新的技能。如何从技术的底层或者中层入手,去更有效地与机器对话,理解和对抗“幻视”,需要知识生产者和技术从业人员合作。
而对于新知识、新视角、新材料的研究,各个领域独有的结构和诠释在当下依然是十分关键的。大语言模型和生成式AI的预测模式依然是倾向单一、重复的,越是训练材料少的领域,能力就越是有限。想要机器和人的能力的结合,就必须从数据的生产根源上着手,用准确的、多样的、公正的、新颖的数据训练AI模型,建立良性的人机互动模式。
大语言模型和生成式AI的问世给研究人员带来的挑战,仅仅是一个开始。与其探讨“取代”,不如在更加审慎的目光下寻求磨合与发展的可能。
(本文经授权转自腾讯研究院,作者李子系技术社会学博士、哥伦比亚大学医学人文和伦理系博士后研究员,原文有改动)