当前位置 > 散户吧 > 财经要闻 > 宏观经济 > 中科院曾毅:提高人工智能大模型的安全性,并不会影响其求解能力

中科院曾毅:提高人工智能大模型的安全性,并不会影响其求解能力

发布时间:2025-03-27 14:23来源:全球财经散户吧字号:

3月26日,中国科学院自动化研究所人工智能伦理与治理中心主任曾毅在博鳌亚洲论坛2025年年会上表示,DeepSeek的有些进展可能被大家忽略了。比如,它做到了用相对的小数据、相对的小算力但做到了更高的智能表现,这些是如何实现的? 本文来自散户吧WWW.SANHUBA.COM

1 本文来自散户吧WWW.SANHUBA.COM

本文来自散户吧WWW.SANHUBA.COM

此外曾毅还指出,人工智能的发展应用和安全之间的关系不是相互掣肘的关系。“我们现在有很多人工智能的大模型,包括我们国内的人工智能大模型,在认知问题求解能力上与GPT系列是同一水平上的,但是在伦理框架上还有提升空间。”

本文来自散户吧WWW.SANHUBA.COM

曾毅强调,“我们有一个新的研究,证明了当你提升人工智能大模型安全能力的时候,对它求解能力的影响几乎可以忽略。我们尝试了十几个人工智能大模型,可以把它的安全能力提升百分之二三十,对它的问题求解能力的影响几乎可以忽略,这说明安全和发展之间不是掣肘的关系,可以做到人工智能充分安全的情况下,它的能力几乎不受损。” 本文来自散户吧WWW.SANHUBA.COM

以下为发言实录:

本文来自散户吧WWW.SANHUBA.COM

主持人:接下来请曾毅教授给我们讨论一下今天人工智能的前沿进展,有请。 本文来自散户吧WWW.SANHUBA.COM

曾毅:我们去年讨论科学上的进展还有很多问题没有解决,比如去年我们讨论的一个问题就是人工智能发展的两个渠道,符号主义和连接主义,现在来看还没有完全走到一起,但是今年基于生物智能精神网络的推理,我们可以在科学视角下比较深入地将推理能力与人工智能网络的表征编码深度融合,所以我想在工程化应用的背景下来看,符号和连接这两个不同的科学途径真正在工程应用上深度融合的机遇,看上去应该已经到来了。

本文来自散户吧WWW.SANHUBA.COM

其实DeepSeek的有些进展可能被大家忽略了,我觉得也是非常重要的,首先它做到了相对的小数据、相对的小算力但是更高的智能表现,但这些是如何换取的,比如在算法层面,解决一个特定问题时并不需要整个生成式神经网络上更新所有的权重,可以利用一种基于路由的机制去做任务,这样就极大地降低了算力。其实我们人类的大脑当中丘脑就是发挥了路由的机制,遇到问题的时候究竟哪些脑区参与任务,而不是整个大脑同步动起来。这样一个算法并不是完全地受大脑启发的,但是可以说跟我们的生物大脑演化的结果应该是异曲同工的。 本文来自散户吧WWW.SANHUBA.COM

所以我觉得在技术变革的层面,在我看来以前不同的人工智能发展道路达到了前所未有的发展程度。另一方面自然演化的规律与我们计算演化的结果也在深度融合,使得人工智能的发展自然或不自然地受到大自然的启发,我想未来的人工智能的发展,我想人脑毕竟是数亿年演化的结果,人工智能发展过程中不仅仅是在行为尺度达到用户可接受甚至类人水平,在计算机制上进一步受到自然机制的启发,不仅仅受到学习机制的启发,也受到人类发育演化机制的启发,我想这可能是未来人工智能在科学上非常重要的走向。 本文来自散户吧WWW.SANHUBA.COM

刚才杨老师和张亚勤老师都提到安全的问题非常重要,去年我和张亚勤老师讨论是不是应该暂停六个月的人工智能大模型的研究,先把安全护栏做好,很多人都误解了这样的倡议,以为是不要推进人工智能的研究。其实这个倡议告诉大家的是人工智能发展的速度与我们构建安全护栏的速度没跟上,能不能先建立安全护栏,但是去年的博鳌论坛上,全世界的科学家对于如何构建安全护栏是不知道答案的。但是经过了半年多一年的探索,我们有了初步的答案。我要告诉大家人工智能的发展应用和安全之间的关系不是相互掣肘的关系,人工智能的模型在表现上表现最好的仍然是OpenAI和DeepSeek这个系列,但是它的安全属性也是最好的。 本文来自散户吧WWW.SANHUBA.COM

我要说的是人工智能大模型的进展,你的模型能力上来了并不代表着你的安全能力自然的就好,我们现在有很多人工智能的大模型,包括我们国内的人工智能大模型,在认知问题求解能力上与GPT系列是同一水平上的,但是在伦理框架上还有提升空间。我要告诉大家安全和发展之间为什么不是掣肘的关系,我们有一个新的研究,证明了当你提升人工智能大模型安全能力的时候,对它求解能力的影响几乎可以忽略。我们尝试了十几个人工智能大模型,可以把它的安全能力提升百分之二三十,对它的问题求解能力的影响几乎可以忽略,这说明安全和发展之间不是掣肘的关系,可以做到人工智能充分安全的情况下,它的能力几乎不受损。这是有科学证明的,我们的工作发表在了今年人工智能机器学习的顶会上。我们可以把人工智能掰到更安全的方向上,又不需要重新训练它,是对这个模型本身的向量编码的认知。所以我想以前大家说管控人工智能让它更安全会不会影响它的发展,那么现在结论是这样的,我们可以用科学的方式让它更安全,但同时几乎对它的认知能力没有负面影响的。

本文来自散户吧WWW.SANHUBA.COM

主持人:这是特别重要的前沿进展,也就是说我们人工智能的发展和安全不再是矛盾的,是可以一起往前走的。 本文来自散户吧WWW.SANHUBA.COM

(小编:财神)

专家一览机构一览行业一览