张军平:以为AI无所不能?其实做AI的“老板”更难 | 教授识局

专家观点
张军平
复育智库

一、第三次热潮!高质量数据推动大模型强化

人工智能的发展历史可以分为4个阶段:1936年图灵提出通用计算机模型“图灵机”,人工智能进入萌芽期。1956年,达特茅斯学院为“AI”命名,人工智能进入初始期。1980年开始,随着专家系统的陆续落地,人工智能从第一次寒冬中慢慢走出来, 进入了成长期。2012年起,Alex和Hinton等提出AlexNet网络,深度学习取得性能突破,GPU得到广泛使用,进入了人工智能发展的第三次热潮。

这一阶段与前三个阶段最大的区别在于工业界发挥了主要作用,推动了人工智能的发展,例如谷歌、盾安、百度等公司都取得了显著成果。人工智能的预测能力在第三次热潮中明显增强,这主要源于三个因素:大数据的形成、GPU性能提升和深度学习的兴起。

发展人工智能可以有两种思路。第一种较为巧妙,通过构思简短的捷径来创造智能系统。第二种较为暴力,将全球所有的知识进行详尽标注,并在此基础上构建大模型,这样就能够迎接高质量数据时代的到来。

自2023年以来,对高质量数据获取的关注度显著提升。因为只有高质量数据,才能有效提升大模型的能力。当人类掌握人工智能以后,几乎无需深入了解其他行业的知识,这也意味着人工智能可以应用于任何行业,从而使其无处不在。例如,在数学领域,华裔数学家陶志轩就尝试了利用人工智能来辅助证明。他认为,在未来的数学研究中,人工智能会引领一场技术革命,数学可能会变成一种编程。

AlphaFold系列模型的出现,对预测蛋白质、DNA、RNA、小分子等的几乎所有生物分子结构和相互作用起到了非常重要的作用。以前科学家依赖于冷冻电镜来预测蛋白质结构,不仅设备极其昂贵且操作复杂,因为蛋白质的动态特性需进行冷冻和放大。随着AlphaFold系列模型的出现,研究者只需提供历史数据,就能快速预测蛋白质功能,从而加快研究进程。

这一阶段标志着人工智能在科学研究中的重大转变。人类的科学研究方法的发展历经了经验、理论、数值计算和机器学习,而现在则是AI For Science(AI4S)也就是第五科学范式。通过大数据、大模型和强大的GPU算力,能够进行快速高效的仿真,筛选出所需的目标,节省了大量时间、金钱和资源。

AI革命带来的变化,包括问题解决趋向人工智能方向、模块化简化研究过程,以及对产业界和学术界的影响。在产业界,简单重复的工作容易被AI取代,可能导致“熄灯工厂”现象,即工厂因高度依赖自动化而减少人力。在学术界,AI的应用缩小了学科间的差距,代码复现与在线文档跟踪变得更加便利,促使各学科如化学、物理等领域普遍学习人工智能。

二、做AI的“老板”?人工智能不是“无所不能”

尽管人类正在面临前所未有的、来自人工智能的全方位竞争和替代,但AI并非十全十美,仍然有许多局限性。要做AI的“老板”,也要面对真实管理者要面临的“用人难题”。

第一是耗能问题。现在的“拼卡”时代,做研究对显卡的需求量很大,而显卡又极为耗能。千分之三的性能提升,就要耗费17810核小时,耗资约1200万美元,因此有种说法叫“穷调参数富买卡”。第二是AI容易出现事实性错误,例如父母能否结婚;又例如要求大模型画一幅起重机,结果却因为使用英文语料拼写为“crane”而生成了一只丹顶鹤。第三是中文语料库问题。包括拼音错误、网络用语、敏感词、门户网站的多样性以及广告太多,令牌的理解方式等。

大模型对未知、未见过的世界的理解能力并不像想象中那么强。大模型的数据是人类的已有知识的变体,超越认知范围后,大模型的理解能力目前依然相对较弱。例如在解决未知数学题能力方面,2025 年美国数学奥林匹克竞赛(USAMO)试题发布后,多个热门模型立即进行了测试,结果令人失望——所有模型都表现欠佳,平均得分不到5%。

在人工智能的另一热门方向具身智能方面,进展也不如想象中迅速。例如今年四月在北京亦庄举办的全球首个人形机器人半程马拉松赛事上,对人形机器人在行走、奔跑、全身协同、具身智能等能力方面进行了全面考验,但比赛过程中发生各种故障的“机器人运动员”不在少数。

三、算法应向善  信息污染正威胁真实数据

人工智能的安全问题同样至关重要,尤其是在各行各业大规模部署DeepSeek之后更加需要重视。

大模型是基于人类反馈进行强化学习,这意味着会学习并记录用户的知识和信息,进而进入训练库和序列库,这就涉及到个人信息的安全性,以及模型是否能够接触到某些敏感信息。我国已有相应的安全法律,规定数据不能轻易出境。

大模型还会模仿用户的情感和偏好,这也可能引发一系列版权问题。例如,网络作者在上传自己创作的文章时,可能会上传大纲,这让大模型可以模仿前文风格,然后生成后续的仿写内容。

更严重的问题是信息污染。用户如果上传了错误信息,就会被错误地学习。现在许多信息已经遭到污染,如果不加以控制,未来在互联网上可能无法获得真实的数据,这对学习和使用互联网都是一种挑战。

诈骗问题也日益严重,例如换声、换脸技术的日益发达,将导致更多诈骗案件的发生。例如国外的一起诈骗案件中,就通过偷换声音的手法诈骗了24万美元。

此外,还有外卖骑手被困于“最优算法”,导致送单过程中过于追求速度而存在安全隐患等问题。近年来,国家已经重视并开始强调算法应该向善的要求

四、“脑补”的人工智能  同质化亟待突破

我们现在越来越习惯工作时,先使用人工智能生成一段粗略的能表达自己想法的文字,再在此基础上进行改进,然后发表。这显然提高了我们的工作效率,但无形中也让我们成为了人工智能的奴隶。

人工智能的现状像“脑补的人工智能”。95%的内容、逻辑走向由人工智能控制的,人类只负责最后的5%点睛之笔,这与自己先进行思考,再找人工智能协助,在策略上完全不同。

只有思考先行,才有可能帮助我们形成独特的视角,而这才是创新的基础。先交给人工智能生成再修改的模式虽然成果也不错,但在目前的大框架下看,有明显的同质化特点,不管哪个模型都是如此。原因很简单,一是高质量数据的混用。以前我们会蒸馏国外公司大模型的数据,现在可能是在相互借鉴。二是提示词的使用。“首先、其次、第三、总而言之”是比较常见的提示词设计框架,随着思维链结构的进一步深化,我们已经能看到更为复杂的思维链表示形式。但不管是哪种情况,它的框架是考虑了与人类思维的一致性进行大量简化而获得的。三是强化学习。强化学习突破了独立同分布的假设,让人工智能可以应付与之前数据分布不同的表达。人工智能的新突破口,必然是小算力也能跑大模型。而大方向看,我们目前走的路仍然是同一条,即从认知层面形成超越人类的AGI。而具身智能相对要更困难,因为它与感知、决策这些高难度问题更相关。

人工智能存在一种“莫拉维克悖论”。即人类觉得复杂的,机器觉得简单;机器觉得复杂的,人类觉得简单。现在大模型的发展,实际上在更为宽泛的智能定义上给了我们一个提醒,人类所谓的智能,究竟是不是复杂的。

从图灵提出人工智能至今,已经过了将近100年,而我们依然无法完全呈现出真正的人类智能。也许,我们需要重新定义真正的智能是什么。思考一下,自然界进化出的本能究竟是不是简单的?为什么我们造出了飞机,却至今没有仿制出一只真正的鸟?

相关专家

张军平

复旦大学计算机科学技术学院教授、博士生导师
中国自动化学会混合智能专委会副主任

更多观点

未找到结果。