首页  >  媒体动态  >  媒体动态详情

AI十人谈①|张钹院士:对大模型本身的学术研究非常迫切、重要

2023-12-31   新京报   阅读量:102

    到现在为止国内的大模型主要集中在垂直领域应用上。而全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了“涌现现象”。

2023年以来,大模型领域持续火爆,各方力量持续入局,在快速推进人工智能时代到来的同时,也显现出各种问题和挑战。

    中国科学院院士、清华大学人工智能研究院名誉院长张钹表示,对大模型本身的学术研究非常迫切、重要。到现在为止国内的大模型主要集中在垂直领域应用上。而全世界对大模型的理论工作原理、所产生的现象都是一头雾水,所有的结论都推导产生了“涌现现象”。“实际上这反映了我们对它一点不清楚。这个问题必须搞清楚,我们才有可能发展出有中国特色的大模型。”张钹表示,对此,有三个方面的问题研究比较重要。

    首先是“大模型为什么能够产生出来非常连贯的、多样化的人类语言?”在他看来,这主要靠三方面的措施,第一是文本的语义表达,也就是把文本里的词、句、段落全变成向量,这给构造一个连续的拓扑空间创造了条件。第二个是转换器,注意力机制可以保证上下文的一致性。最后是下一个词的预测。

    第二个问题是,大模型为什么会产生幻觉?他指出,这个问题涉及ChatGPT跟人类自然语言生成原理的不一样,最根本的区别在于,ChatGPT生成的语言是外部驱动的,而人类的语言是在自己意图的情况下驱动的,所以ChatGPT内容的正确性和合理性是不能保证的。

    “只有经过ALignment(对齐)才能解决这个问题。”张钹指出,之所以能从GPT3.5到GPT4,几个月时间有那么多变化,主要就是“对齐”的功劳。在“对齐”方面,国内做的工作太少。不过他同时也指出,做“对齐”是做治理,治理以后内容的多样性会下降,所以还需要平衡开放和治理的关系。

    张钹把ChatGPT生成的语言称作GPT语言。在他看来,第三个需要研究的问题是,将来努力的方向是什么,是不是把GPT语言完全对齐到人类的自然语言?他认为这个可能性不大。“因为想实现这个目标,你必须让GPT有自我意识。”

    这样(让GPT有自我意识)没有必要。他强调道,因为人工智能追求的是机器智能,希望这个智能和人类的智能不一样,它某些方面比人类有优势,某些方面比人类有缺点,只有这样人类才能和机器和平共处。“目前最重要的是,我们要研究、了解GPT语言,只有彻底了解了它,才能更好地发展它,使用它,或者说从产业角度来讲才可以发展出更健康的人工智能产业。”

    人工智能产业如何做大做强,是目前这一领域从业者遇到的最大问题。张钹分析称,和信息产业相比,人工智能产业的发展过程更曲折。这主要缘于两个原因。一是目前人工智能的软硬件与应用场景、应用领域密切相关。比如,人工智能的“智能芯片”与计算机的芯片完全不同,前者是为特定的算法、领域服务的,不具备计算机硬件的通用性,因此会遇到如何扩大市场的困扰。

    二是人工智能缺乏理论基础,算法和模型都具有很大的缺陷和局限,这也对它的应用领域产生了限制。由于它的方法本身的限制,比如安全性、隐私保护等,使得人工智能的应用领域也受到限制。

    对此,张钹提出了两点意见。首先,人工智能要往各种维度去发展。比如,语音信息处理就不仅是语音或说话人识别,可以扩展到其他应用领域,不仅能用来做身份鉴别,也可以用来诊断疾病,诊断机器的问题或者观察机器的运行等。

    其次,人工智能要有维度上的扩展,这是针对算法本身的局限性。机器学习的方法是运用大数据处理,而大数据的处理方法虽然有很多优点也很实用,但本身并不安全。“我们需要通过对算法缺陷的改进,也就是发展第三代人工智能的思路来扩展它的应用范围。”张钹介绍称,这包括数据与知识的结合、多特征的融合、多种模态的结合以及软硬件的结合等。

    “从传统人工智能到生成式人工智能的变化是剧烈的,这让我们有理由、有底气相信,它会改变这个世界。生成式人工智能一方面能够给企业家带来机会,企业家有使命去利用这个机会发展新产业;另一方面,也给企业家带来责任,企业家在开发、应用大模型时,一定要考虑可能产生的负面影响。”张钹说。

    新京报贝壳财经记者 孙文轩

    编辑 徐超

    校对 付春愔