网站首页

产品中心

智能终端处理器 智能云服务器 软件开发环境

新闻中心

关于完美体育

公司概况 核心优势 核心团队 发展历程

联系完美体育

官方微信 官方微博
主页 > 产品中心 > 智能终端处理器

AI大模型时代智能终完美体育端进化论

发布时间:2024-03-29 05:54浏览次数: 来源于:网络

  品打磨,从“AI+产品”(出货量提升)到“产品 AI 化”(量价齐升),有望成为 2-3 年维度的成长主线 年以来,以 ChatGPT 为首的 AIGC 快速普及和渗透,各主芯片、品 牌厂商已在各类智能终端上发布了 AI 相关应用。然目前各类 AI 终端应用仍未达到成熟阶 段,我们认为接下来一年,终端 AI 的发展重在软硬件适配和产品打磨,终端 AI 发展(形 态包括智能手机、PC、IoT 等)仍为长期重点关注方向,预计 2025 年起开启需求周期。

  AI 是AIGC 时代下主流趋势,端侧AI 将承担更多工作负载,建议关注重量级/轻量级AI 产品升级、零部件配套变化以及对终端市场成长带动。我们认为,以 云端作为 AI 大脑(以大算力、高带宽、大存储的芯片为主)处理主要的训练和部分推理任 务,边缘端和终端作为小脑与四肢(如手机 SoC 增加 NPU,主打低功耗、多传感器融合) 处理即时、频繁的用户端推理任务,并具备成本、隐私性双重优势,两者相结合的混合 AI 模式分配并协同处理 AI 工作负载,能够实现更强大、更高效且高度优化的 AI。对于端侧 AI,我们将产品按算力区分为重量级和轻量级:

  AI 产品:算力相对较强,如手 机、PC、机器人、汽车、边缘服务器等;2)轻量级

  AI 产品:IoT 类产品,主要承担数据 入口的抓手功能,不一定强调算力升级,而更多关注传感器、连接类芯片升级。

  量级产品的升级(适应 AI 变化的端侧入口能力的增强:传感器升级,如麦克风、摄像头、 3D sensing、低功耗、传输互联等);3)零部件配套变化

  AI 成为AIGC 规模化扩展的关键。由于千亿参数大模型对计算 基础设施提出了极高的需求,因此无论是训练还是推理,大型复杂模型至今仍在云端部署。 然而 AI 推理的规模远高于 AI 训练,而目前云端推理的成本仍然较高,且将随着日活用户 数量及其使用频率的增加而提升。以生成式 AI 搜索为例,每一次生成式 AI 搜索成本是传 统搜索方法的 10 倍。此外,云端推理还有能耗过大、可靠性和时延影响用户体验、数据 隐私安全难以有效保证等问题,在此背景下,混合 AI 应运而生。混合 AI 是指终端和云端 协同工作,在适当的场景和时间下分配 AI 计算的工作负载,高效利用资源,提供给用户更 好的体验,让 AIGC 向 C 端更快速地规模化扩展。

  AIGC 时代的根基。近年来,大模型参数量爆炸式 增长,根据 OpenAI,从最早的 GPT-1 仅有 1.1 亿参数,到 GPT-4 提升到 1750 亿参数, 产生巨量的训练需求。云端作为大模型各个玩家的主战场,需要巨大的 CAPEX 投入做算 力提升,加快模型的迭代速度。从大模型使用角度,终端由于对功耗限制严格,只有在一 些重量化设备上才能本地化运行一些小参数模型(目前在 100 亿参数以下),现阶段仍然 作为 AIGC 时代的重要数据和流量入口,云端仍为 AIGC 时代为万物赋能 AI 的主力

  随着 AI 快速发展,算力需求激增, 传统云计算架构已经不能满足计算需求。同时,随着数据隐私性和及时响应性愈发重要, 传统云计算架构渐显弊端,边缘计算应运而生。边缘计算将从终端采集到的数据,在靠近 数据源处的算力设备(如在边缘服务器)中直接进行推理计算,无需再将数据传输至云端 数据中心,在优化处理的同时降低成本。从处理能力看,边缘服务器布局于云端与终端之 间,所用模型为云端大模型的垂类模型,能够承担十亿/百亿级别的推理任务。从应用上看, 我们认为边缘端具备成本、隐私性双重优势,且算力持续提升,有望率先落地于智慧安防、 智慧社区/园区、泛商业等 B 端场景,以及对数据安全、私有云有特别需求的大型央国企端。

  应速度更快、随时待命):受制于传输速度、用户需求庞大、算力不足等因素,部分应用 在云端推理会影响用户体验。端侧算力仅为用户所用,且无需等待,大幅提升用户体验。(3)使用成本更低:

  AI 的局限性:大模型终端落地对算力、传输、功耗、散热等环节仍有挑战。我 们认为,终端落地大模型仍有以下问题待解决和提升:(1)算力需求升级:

  (1)AI 大 模型+IoT 是长期趋势,后续终端同质化竞争可能较为严重。

  智能手表、手环、AR/VR 眼 镜以及 AI Pin 等新 IoT 形态,由于产品设计不足以支持本地化大模型运行,AI 功能主要通 过联网云端实现。我们认为,AIGC 渗透率持续提升背景下,AI 大模型+IoT 硬件产品有望 大规模涌现,而产品核心竞争力(AI 大模型性能)仍掌握在大型互联网厂商手中,硬件能 力相对容易满足,因此未来可能出现严重的产品同质化现象。

  核心观点:大型语言模型(Large Language Model,LLM)朝“多模态”、“轻量化” 发展,GPTs 应用商店加速杀手级应用出现。

  2022 年末 ChatGPT 发布标志着 AIGC 时代 来临,随后的一年内各互联网、终端品牌厂商大模型集中落地,行业发展加速。我们认为, 大模型正向“多模态”、“轻量化”趋势发展,OpenAI 也着手打造应用商店激发开发者创 造潜力,加速杀手级应用出现,硬件端如高通、苹果、英特尔、AMD 也已提前布局,为 端侧 AI 爆发式增长做好准备。

  OpenAI 主导的生成式人工智能 AIGC 路径,建立在超大规模的数据学习基础上,基 于模型训练和 RLHF 人类反馈强化学习,可用于文本、图片、代码等多模态信息生成和交 互。

  ChatGPT 的技术根基来自于 2016 发表的 Transformer 模型(由谷歌最先提出),用 通俗的语言来解释,这一模型的工作就是通过分析数据单字间的统计学关联,从而预测句 子中将要出现的下一个词或者空缺的词的概率。通过不断计算空缺单词的概率分布,模型 最终通过统计学的原理生成一个完整的句子。

  回顾 OpenAI 的发展历程,ChatGPT 的成 功并非横空出世,而是经历了超过 7 年、多于三代的技术积累与迭代,并在这一过程中走 出了自己的开创性道路。

  OpenAI 成立于 2015 年,在当时的学术界仍然以深度学习为核心的小模型占据主流:这类模型以 LSTM 及 CNN 模 型作为典型的特征抽取器,根据特定领域标注数据训练,在一些任务上可以达到接近人类 的水准。但是硬件算力不够导致针对其他领域重新训练成本过高,让其通用型任务的完成 情况很差。

  尽管 GPT-2 基准成绩不算优秀,但 Bert 与后续 GPT-2 等模型的推出统一了自然语言模型(NLP)的研究范式(以预训练的方式学习语言学特征, 大幅简化了过 NLP 繁琐的研究种类)。Transformer 作为特征提取器效果好于 CNN、LSTM 等模型,让 AI 首次能在语言任务的部分场景中追平人类。

  (2)大模型参数爆炸式增长,GPT 的自回归+Prompting 方法表现更优。

  产业 界与学术界继续沿着 Transformer 的道路前进,但开始尝试不同于 Bert 的其他 Transformer 架构,通过预训练无监督学习的方法不断增加模型大小成为这一时段的主流。2020 年, OpenAI 发布 1750 亿参数的 GPT-3,较前代参数规模扩大超 100 倍,是当时最大参数的 预训练大模型,其他互联网巨头也不断尝试增加模型体积以获得更好的效果。相比于Bert, GPT-3 的自回归+Prompting 在产品化能力上展现出两个优点:

  谷歌等巨头在这一阶段也意识到 Prompting 方法的重要性,逐渐 开始转向,此后 ChatGPT 的成功印证了这一点。

  3)2023 年开启多模态时代,GPT-4V 多模态能力强化,GPTs 打造应用商店 雏形,推动应用端百花齐放。

  2023 年 3 月,OpenAI 正式推出 GPT-4 多模态大语言模型, 支持图像+文本输入,文本形式输出,相比前两代 GPT-3 和 GPT3.5 分别用于创造 Dall-E 和 ChatGPT,GPT-4 提升了强大的识图能力;文字输入限制提升至 2.5 万字;回答准确性 显著提高;能够生成歌词、创意文本,实现风格变化。2023年6月,OpenAI发布了GPT-4V, 这标志着 AI 多模态能力的重大进展,从处理纯文字到结合图像,GPT-4V 展现了其关键的 突破。

  11 月 6 日,OpenAI 在首次开发者大会 DevDay 上发布了 GPT-4 Turbo(主要更新为将之前截至 2022 年的知识库更新到 2023 年 4 月,以及支持最大 128K Token 的输入);此外,OpenAI 在现有插件开发的基础上升级为 GPTs 插件商店,其类似苹果应用商店, 将 ChatGPT 可以嵌入每一个应用。OpenAI 还提供了专门负责创建插件的 AI 让用户使用 自然语言创建自定义GPT。

  我们认为,GPTs插件商店有望快速推动终端应用爆发式增长, 助力多模态的迭代和渗透。

  其他巨头进展:谷歌、Meta 持续推进“多模态”、“轻量化”进程,形成 OpenAI、 谷歌双巨头+Meta 开源追赶格局;高通在硬件侧提前布局迎接终端 AI 时代来临。

  2023 年 3 月,谷歌推 出 palm-E(5620 亿参数),为目前最大规模的视觉语言多模态模型,其输入包括视觉、连 续状态估计和文本,并可执行包括机器人操作、视觉问题解答在内的具体问题,此外还具 备泛化能力,可以在未训练的情况下推演执行各种任务,同时谷歌宣布其 Workspace 中 的 Gmail 和 Docs 也将集成 AI 助手;2023 年 12 月谷歌推出下一代大模型 Gemini。Gemini为大语言模型集合,支持多种功能,包括聊天机器人、生成原始文本、根据用户的要求总 结文本等,谷歌计划通过其谷歌云的 Vertex AI 服务向企业提供 Gemini 模型。

  头部厂商闭 源模型后,落后一到两个身位的公司(Meta、Amazon、NVIDIA 等)可能会选择开源路 线,寄希望通过社区的力量加速迭代。2023 年 7 月,Meta 发布了其最新开源可商用版本 Llama2 大语言模型(包括 70、130、700 亿参数量)。模型层面的最大亮点在于开源了与 GPT-3.5 相同的 SFT 与 RLHF(人类反馈强化学习)的步骤,成为目前开源类别中最接近 GPT-3.5 的大语言模型。从 Meta 论文中公布的数据指标,Llama2 70B 在部分指标上甚至 追平了 GPT-3.5,大部分指标超过 GPT-3,成为如今性能较为领先的开源模型之一。总体 来看,Meta 的 Llama2 论文向业内拆解了 SFT 以及 RLHF 等的技术过程,并给出可以直 接使用的版本,我们认为这将会统一目前开源领域的研究框架,加速开源模型迭代速度。

  高通是终端 侧 AI 领导者,对 AI 的研究最早可追溯到 2007 年,目前能够为 AI 软硬件进行全栈 AI 研 究和优化。

  1)在软件端,高通软件栈全面支持主流 AI 框架,持续模型优化使其更适合在 端侧运行。

  高通 AI 软件栈全面支持主流 AI框架包括 TensorFlow、PyTorch、ONNX、Keras, 专注于 AI 模型效率研究以提高能效。2023 世界人工智能大会上,高通展示了将 AIGC 模 型 Stable Diffusion 放在搭载骁龙 8 Gen2 的手机上运行,15 秒内执行了 20 步推理,并生 成了一张 512x512 像素的图像,且图像效果与云端处理水平接近。此外,高通还带来了手 机上的 ControlNet 终端侧演示(15 亿参数),只用不到 12 秒即可在移动终端上生成 AI 图 像,无需访问任何云端。

  2)在硬件端,Hexagon NPU 不断演进,已能够支持多模态生 成式 AI 模型,是高通 AI 引擎的关键。完美体育

下一篇:2024年中国完美体育智能终端产业链图谱研究分析(附产业链全景图)
上一篇:智能终端技术与应用专业完美体育毕业后干什么工作(未来就业前景分析)

咨询我们

输入您的疑问及需求发送邮箱给我们