当前位置 > 散户吧 > 财经要闻 > 经营管理 > GPU之后,NPU再成标配,手机、PC如何承载AI大模型?

GPU之后,NPU再成标配,手机、PC如何承载AI大模型?

发布时间:2024-03-13 07:40来源:全球财经散户吧字号:

  摘要:AI产品开发者需要先行一步,早一些让用户体验自己的产品,和用户建立连接,培养粘性,从而在竞争中占得先机。

本文来自散户吧WWW.SANHUBA.COM

  2024注定是AI行业热闹非凡的一年。虽然刚刚进入3月份,但是关于AI的新闻已经多次占据了头条。就在上个月,OpenAI了文字生成视频的大模型Sora,其逼真的效果直接清空了在这个细分赛道苦苦耕耘的创业者。几天后,英伟达市值站上2万亿美元,成为了上最快实现从1万亿到2万亿美元市值的企业。正所谓“当你发现金矿,最好的生意不是挖矿而是卖铲子”,英伟达成为了AI时代“备竞赛”的最大赢家。 本文来自散户吧WWW.SANHUBA.COM

  就在大家感叹“世界上只有两种AI,一种叫OpenAI,一种叫其他AI”的时候,沉寂了许久的Anthropic放出王炸,这家由OpenAI前研究副总裁创立的公司,了最新的Claude3模型,各项指标已经全面超越了GPT4。

本文来自散户吧WWW.SANHUBA.COM

  AI行业的风起云涌,也昭示了这个行业还处在一个初级阶段。技术迭代太快,暂时领先的企业可能在一夜之间就被新技术颠覆。一些眼花缭乱的新技术,虽然已经问世,但迟迟不公开或者没有。比如上文提到的Sora,截至,还没有正式向公众开放。 本文来自散户吧WWW.SANHUBA.COM

  生成式AI的研发和本地之间存在鸿沟。目前,大众使用的生成式AI产品往往是在云端而在本地访问(比如ChatGPT网页),但这无法满足所有需求,并且会产生一些隐患。

本文来自散户吧WWW.SANHUBA.COM

  首先,随着大模型越来越复杂,云端和本地之间的传输在有限带宽下变得捉襟见肘,比如一架波音787飞机每秒钟产生5G的数据,如果上传到云端、计算、输出结果再返回,飞机可能已经飞出去几公里了(按照800公里/小时估算)。如果在飞机上使用AI功能但是在云端,这样的传输速度是无法满足要求的。 本文来自散户吧WWW.SANHUBA.COM

  此外,一些用户敏感数据、隐私数据,是否一定要上云?显然放在本地比云端更让用户放心。 本文来自散户吧WWW.SANHUBA.COM

  不论生成式AI多么强大,如何到本地始终是一个无法绕开的问题。这是行业发展的趋势,虽然目前面临一些困难。 本文来自散户吧WWW.SANHUBA.COM

  困难在于,如何把“大模型”装入“小设备”。注意,这里的“大小”是相对而言的。云端计算的背后可能是一个占地几万平方米的计算中心,而本地却要让生成式AI在你的手机上跑起来。手机没有液氮冷却,也没有无穷无尽的电力,该如何AI呢?

本文来自散户吧WWW.SANHUBA.COM

  异构计算,一种可能的解决方案?

本文来自散户吧WWW.SANHUBA.COM

  高通的异构计算AI引擎(以下皆称作高通AI引擎)为行业提供了一种可行的解决方案。即通过CPU、GPU、NPU以及高通传感器中枢和内存子系统的协作,实现了AI和大幅度提升AI体验的目的。 本文来自散户吧WWW.SANHUBA.COM

   本文来自散户吧WWW.SANHUBA.COM

1710207019121032.png

本文来自散户吧WWW.SANHUBA.COM

  图:专门的工业设计让不同计算单元更紧凑 来源:高通

  不同类型的处理器所擅长的工作不同,异构计算的原理就是让“专业的人做专业的事”。CPU擅长顺序控制,适用于需要低延时的应用场景,同时,一些较小的传统模型如卷积神经网络模型(CNN),或一些特定的大语言模型(LLM),CPU处理起来也能得心应手。而GPU更擅长面向高精度格式的并行处理,比如对画质要求非常高的视频、游戏。

本文来自散户吧WWW.SANHUBA.COM

  CPU和GPU出镜率很高,大众已经相当熟悉,而NPU相对而言更像一种新技术。NPU即神经网络处理器,专门为实现低功耗、加速AI推理而打造。当我们在持续使用AI时,需要以低功耗稳定输出高峰值性能,NPU就可以发挥最大优势。

本文来自散户吧WWW.SANHUBA.COM

  举个例子,当用户在玩一款重负载的游戏,此时GPU会被完全占用,或者用户在浏览多个网页,CPU又被完全占用。此时,NPU作为真正的AI专用引擎就会负担起和AI有关的计算,保证用户的AI体验流畅。

本文来自散户吧WWW.SANHUBA.COM

  总结起来说就是,CPU和GPU是通用处理器,为灵活性而设计,易于编程,本职工作是负责操作系统、游戏和其他应用。NPU则为AI而生,AI是它的本职工作,通过牺牲部分易编程特性而实现了更高的峰值性能和能效,一路为用户的AI体验护航。

本文来自散户吧WWW.SANHUBA.COM

  当我们把 CPU、GPU、NPU 以及高通传感器中枢和内存子系统集成在一起,就是异构计算架构。

本文来自散户吧WWW.SANHUBA.COM

  

本文来自散户吧WWW.SANHUBA.COM

1710207027131493.png 本文来自散户吧WWW.SANHUBA.COM

  图:高通AI引擎包括Hexagon NPU、Adreno GPU、高通Oryon或 Kryo CPU、高通传感器中枢和内存子系统 来源:高通

  高通AI引擎整合了高通 Oryon 或 Kryo CPU、 Adreno GPU 、 Hexagon NPU 以及高通传感器中枢和内存子系统。Hexagon NPU作为其中的组件,经过多年的升级迭代,目前已达到业界领先的AI处理水平。以手机平台为例,集成高通 AI 引擎的第三代骁龙 8 支持行业领先的LPDDR5x内存,频率高达4.8GHz,使其能够以非常高速的芯片内存读取速度运行大型语言模型,如百川、Llama 2等,从而实现非常快的token生成速率,为用户带来全新的体验。

本文来自散户吧WWW.SANHUBA.COM

(小编:财神)

专家一览机构一览行业一览