人工智能AI行业深度分析报告怎么写:附行业现状及前景

1、大模型涌现,ChatGPT 引爆 AI 奇点

1.1、ChatGPT 加速人工智能发展奇点来临

2022 年 11 月 OpenAI 发布 ChatGPT 聊天机器人,人工智能发展奇点加速来临。ChatGPT (Chat Generative Pre-trained Transformer)是由美国人工智能公司 OpenAI 开发的用于自 然语言处理的大型预训练语言模型,由人工智能技术驱动的自然语言处理工具,于 2022 年 11 月 30 日发布,是一款全新的聊天机器人模型,可以根据用户的对话输入,产生出与其相 关的回复,能够从文本输入中理解上下文因素,并生成有意义的句子回复,能够回答问题、 承认错误、质疑不正确的前提和拒绝不适当的请求。

ChatGPT 发布后,Open AI 网站访问量爆发式增长。据 SimilarWeb 数据显示,过去 7 个 月,网站 chat.openai.com 访问量快速增长,2023 年 6 月网站访问量达 16 亿次,平均访问 时长约 8 分钟,每次访问页数 4.26 个。从受众群体地区来看,美国、印度、日本、巴西、哥 伦比亚占比前五,分别为 12.12%、7.61%、4.17%、3.32%、3.16%。

 

 

ChatGPT 用户增速创历史新高,发布 5 天用户数突破 100 万,2 个月过亿。2022 年 11 月 30 日,OpenAI 推出 ChatGPT 聊天机器人产品。12 月 5 日,OpenAI 创始人 SamAltman 发推称,ChatGPT 上线仅 5 天,用户数突破 100 万。至 2023 年 1 月末,ChatGPT 用户数 突破 1 亿,距离发布时间仅 2 个月,成为用户数增长x快的消费者应用。 据英伟达在 ITF World 2023 演讲稿统计显示,海外版抖音 TikTok 发布后,大约用时 13 个月 达到月活 1 亿用户;Instagram 用时 26 个月(2 年多)达到月活 1 亿用户;Facebook 用时 42 个月达到月活 1 亿用户。

OpenAI 创始人背景深厚,与微软深度合作。2015 年 12 月,OpenAI 公司在美国旧金山成 立,由人工智能领域的科学家和企业家联合创立的一家非盈利的人工智能研究公司。联 合创始人包括美国创业孵化器 Y Combinator 总裁 Sam Altman(现 CEO)、马斯克(Elon Musk)、全球在线支付平台 PayPal 联合创始人 Peter Thiel、Ilya Sutskever(师从神经网络 之父 Geoffery Hinton,现首席科学家)等; 2019 年 3 月,OpenAI 创立了 OpenAI LP 公司,从非盈利公司转型至有限盈利公司;2019 年 7 月,微软向 OpenAI 注资 10 亿美元,同时微软 Azure 成为 OpenAI 的“”云计算 服务提供商; 2023 年 1 月,微软宣布与 OpenAI 扩大合作关系,其旗下所有产品将全线整合 ChatGP T, 除搜索引擎必应、Office 外,微软还将在云计算平台 Azure 中整合 ChatGPT, 作为 OpenAI 的云提供商,Azure 将为研究、产品和 API 服务中的所有 OpenAI 工作负载提供支持。

ChatGPT 采用基于 GPT-3.5 架构的大型语言模型,引入人类反馈强化学习技术(RLHF)训 练模型。从技术原理看,ChatGPT是基于 GPT-3.5(Generative Pre-trained Transformer 3.5) 架构开发的对话 AI 模型,是 InstructGPT 的兄弟模型,采用“预训练+微调”的模型训练方 式,引入 RLHF 技术对 ChatGPT 进行训练,利用强化学习方法从人类标注者的反馈中学习。 训练过程可分为三个步骤: 1) 训练监督学习模型:首先 ChatGPT 从 prompt 数据库中抽取若干问题并向模型解释强化 学习机制,随后人类标注者撰写期望的输出值,对模型给予特定奖励或惩罚引导教育, x后通过监督学习微调 GPT-3.5 模型; 2) 收集数据并训练奖励模型:从 prompt 数据库中取样,并由人类标注者们对模型输出的多 个结果进行投票,按质量排序,采用排序后的数据结果用于训练奖励模型; 3) 采用近端策略优化(PRO)强化学习微调模型:近端策略优化(Proximal Policy Optimization)是 2017 年 OpenAI 发布的强化学习算法,首先通过监督学习生成初始 PRO 模型,由奖励模型对回答打分后,将反馈结果优化和迭代初始 PRO 模型,通过多 次优化迭代获得质量更高的模型。

RLHF (Reinforcement Learning from Human Feedback) 是通过人类反馈强化学习技术 优化语言模型。将人类的反馈纳入训练过程,为机器提供了一种自然的、人性化的互动学习 过程,以更广泛的视角和更高的效率学习,允许人类直接指导机器,并允许机器掌握明显嵌 入人类经验中的决策要素。

 

 

1.2、大模型XXX备竞赛,开启 AI 未来时刻

人工智能是引领未来的新兴战略性技术,是驱动新一轮科技革命和产业革命的重要力量。 1950 年艾伦·图灵(Alan Turing)提出了著名的“图灵测试”,给出了判定机器是否具有“智 能”的实验方法,即机器是否能够模仿人类思维方式来“生成”内容继而与人交互,人们开 始关注人类智能与机器之间的关系;直至 20 世纪 50 年代中期,由于计算机的出现与发展, 人们开始了具有真正意义的人工智能的研究。随着人工智能越来越多地被应用于内容创作, 人工智能生成内容(Artificial Intelligence Generated Content,AIGC)概念悄然升起。

AIGC 的发展可大致分为三个阶段: 早期萌芽阶段(1950s-1990s):受限于当时的科技水平,AIGC 仅限于小范围实验。在 1956 年的达特茅斯会议上,“人工智能”的概念被首次提出,在之后的十余年内人工智能迎来了 发展的x个小高峰,研究者们纷纷涌入,取得了一批瞩目的成就。 沉淀积累阶段(1990s-2010s):AIGC 从实验性向实用性转变。2006 年,深度学习算法取 得重大突破,同时期图形处理器(GPU)、张量处理器(TPU)等算力设备性能不断提升,互 联网使数据规模快速膨胀并为各类人工智能算法提供了海量训练数据,使人工智能发展取得 了显著的进步,同时受限于算法瓶颈,应用仍然有限,效果有待提升。 快速发展阶段(2010s-至今):生成内容百花齐放,效果逐渐逼真直至人类难以分辨。自 2014 年起,随着以生成式对抗网络(GAN)为代表的深度学习算法的提出和迭代更新,AIGC 迎 来了新时代。

国内外厂商纷纷加入 AI 大模型XXX备竞赛。在 AI 大浪潮下,国内外科技厂商纷纷入局,密集 上线大模型,包括自然语言处理模型、计算机视觉大模型、多模态大模型等多种类型。谷歌、 OpenAI 等国际科技巨头处于领先地位,中国阿里巴巴、华为、百度等公司均推出了自己的 AI 大模型产品。2023 年 3 月百度发布文心一言,4 月华为发布盘古大模型,阿里发布通义 千问大模型,商汤科技公布“日日新 SenseNova”大模型体系,5 月科大讯飞发布星火大模 型,此外多家上市公司也开始布局 AI 大模型领域,积探索索 AI 大模型技术的应用。 从模型参数量来看,模型参数量呈现上升趋势。多模态大模型参数量相对较大,多在千亿 以上,PaLM-E、Visual ChatGPT、GPT-4 的模型参数量分别为 5620,1750 和 1750 亿。国 内大数据模型中,模型参数数量达千亿的模型有文心大模型(2600 亿),盘古 NLP (千亿 )等。

ChatGPT 开启商业变现。当地时间 2023 年 2 月 1 日,美国人工智能公司 OpenA I 推出 ChatGPT 付费订阅版 ChatGPT Plus,每月收费 20 美元。订阅者可在免费服务基础上获得: 1)高峰时段免排队访问;2)更快的相应时间;3)优先使用新功能和优化等权益。2023 年 3 月 1 日,OpenAI 官方宣布正式开放 ChatGPT API。我们认为,付费订阅版 ChatGPT Plus 的推出,标志着 ChatGPT正式商业化,开启产品向商业变现之路。

OpenAI 盈利模式:开放付费 API 接口,提供多种模型。目前 OpenAI 提供 DALL·E、GPT3、Codex、Content filter 的 API 接口,用于执行图像模型、语言模型,每种模型又细分为多 种子模型型号,每种型号有不同的功能和价位。用户可以根据自身业务需求选择对应的模型, API 接口根据模型类型、业务量等指标进行收费。图像模型根据图片分辨率的不同按张数收 费,语言模型基于子模型型号按字符数收费,微调模型则包括训练和使用两部分的价格。 图像模型:基于 DALL·E 实现文本生成图像。通过使用 DALL·E 的 API,可实现 3 种与图 像交互的方法:1)基于文本提示从头开始创建图像;2)基于新文本提示创建对现有图像的 编辑;3)创建现有图像的变体。生成的图像有 256×256、512×512、1024×1024 像素三种规 格,尺寸较小的图像生成速度更快。用户只需简单输入一些文字描述,即可将文字描述的场 景以图片的形式真实展现出来。据 Open AI 官网披露,目前已有 300 万人使用 DALL·E 模 型扩展创造力,加快工作流程。 语言模型:不同功能和价格的语言模型。目前 OpenAI 提供三类语言模型,分别是 GP T-3、 Codex、Content filter。其中 GPT-3 能够理解自然语言提示,并生成自然语言,拥有 1750 亿 个参数;Codex 是 GPT-3 模型的后代,可以理解并生成代码,将自然语言转换成代码,并精 通多种编程语言;Content filter 是检测文本是否敏感或不安全。

Open API 已在多个应用程序中应用,从帮助人们学习新语言到解决复杂分类问题。GitHub Copilot 是一款 AI 编程器,由 OpenAI Codex 语言模型提供支持,帮助开发人员更快地编写 代码;Keeper Tax 是一款帮助独立承包商和自由职业者纳税的 App,由 GPT-3 模型提供支 持,可以实现提取文本并对交易分类;Viable 通过使用 GPT-3 语言模型,帮助公司从客户反 馈中获得见解,智能读取用户评论;Duolingo 使用 GPT-3 语言模型进行语法修正。

GitHub Copilot:AI 编程工具软件,提高开发效率。2021 年 6 月 29 日,微软与 OpenA I 共 同推出了一款 AI 编程工具 GitHub Copilot,2022 年 6 月 22 日,Copilot 正式上线,定价每 月 10 美元或每年 100 美元,对学生用户和流行开源项目的维护者免费提供。GitHub Copilot 由 OpenAI Codex 提供支持,这是一个由 OpenAI 创建的生成预训练语言模型,可以根据上 文提示为程序员自动编写下文代码。使开发人员更快地编写代码,专注于业务逻辑而不是样 板,提高工作效率。

 

 

Keeper Tax:AI 税务软件。通过定制版 GPT-3 模型来识别账单上的各种数据,以帮助用户 找到可以免税的费用,连接银行自动发现隐藏的税收减免,通过搜索交易历史,发现容易错 过的可抵扣税款的业务支出和其他税收减免。据 Keeper Tax 官网披露,Keeper 用户平均每 年发现价值 1249 美元的额外税务冲销,目前 Keeper 已帮助超过 50000 名灵活雇员和创意 经济工作者发现了价值 7000 万美元的税务冲销。

Viable:AI 企业分析应用软件。Viable是x家使用人工智能研究分析初创公司,运用OpenAI 的 GPT-3 语言模型,可以帮助公司从客户反馈中获得见解,智能读取用户评论,衡量其产品 市场适合度。Viable 推出 3 款产品,对于初创企业,仅需了解几个关键数据来源的定性数据, 每月收费 600 美元,每月x多 2000 个数据点;对于成长型企业,希望通过客户反馈迭代产 品等,每月收费 1000 美元,每月x多 5000 个数据点;对于成熟企业,获得定制报告与测 量,利用数据训练 AI,可选择定制服务。

Duolingo:AI 语言学习工具软件。Duolingo 是一款语言学习工具软件,提供 40 多种语言课 程,包括英语、日语、韩语、法语、粤语等大众语言,也包括威尔士语、纳瓦荷语等小语种 和濒危语言。Duolingo 使用 OpenAI 的 GPT-3 进行语法修正。

推出 ChatGPT Plugins 插件功能,拓宽场景边界。当地时间 2023 年 3 月 23 日,OpenAI 推出ChatGPT Plugins 插件功能,宣布ChatGPT中初步实现对插件的支持。ChatGPT Plugins 插件专门为大语言模型设计,以安全为核心原则,能够帮助 ChatGPT 访问x新的信息,运 行计算,以及使用第三方服务,能够使 ChatGPT 参与开发者定义的 API 互动,增强 ChatGP T 的能力,拓宽场景边界。

2、算力质变,英伟达打造 AI 时代引擎

2.1、算力需求指数增长,加速计算深度变革

算力是设备通过处理数据,实现特定结果输出的计算能力。算力实现的核心是 CPU、GPU、 FPGA、ASIC 等各类计算芯片,并由计算机、服务器、高性能计算集群和各类智能终端等承 载,海量数据处理和各种数字化应用都离不开算力的加工和计算算力数值越大代表综合计算 能力越强,常用的计量单位是每秒执行的浮点数运算次数(Flops,1EFlops=10^18Flops)。 据信通院测算,1EFlops 约为 5 台天河 2A 超计算机,或者 25 万台主流双路服务器,或者 200 万台主流笔记本的算力输出。 算力可分为基础算力、智能算力和超算算力三部分,分别提供基础通用计算、人工智能计算 和科学工程计算。其中,基础通用算力主要基于 CPU 芯片的服务器所提供的计算能力;智 能算力主要是基于 GPU、FPGA、ASIC 等芯片的加速计算平台提供人工智能训练和推理的 计算能力;超算算力主要是基于超计算机等高性能计算集群所提供的计算能力。

算力需求指数增长,大模型参数指数增长。经过大规模预训练的大模型,能够在各种任 务中达到更高的准确性、降低应用的开发门槛、增强模型泛化能力等。随着海量数据的持续 积累、人工智能算力多样化与算法的突破,大模型参数规模呈现指数增长,先后经历了预 训练模型、大规模预训练模型、超大规模预训练模型三个阶段,参数量实现百万亿突破。 与此同时,算力需求也呈现指数增长。从行业分布上看,大模型的应用领域逐步从学术拓 展至产业,2010 年后产业界对大模型的应用与算力需求显著增长,成为主导力量。

 

 

AI 期刊XXX与开源项目快速增长。ChatGPT引发了新一轮的 AI 浪潮,越来越多的研究机构 与公司加大对 AI 的研发投入。据斯坦福大学发布的《2023 年 AI 指数报告》统计,人工智能 XXX的总数自 2010 年呈现翻倍增长,从 2010 年的 20 万篇增长到 2021 年的近 50 万 篇(49601),模式识别、机器学习和计算机视觉是人工智能领域研究的热门话题,从XXX分 布看,中国保持领先地位,2021 年占比为 39.8%,其次是欧盟和英国(15.1%)与美国(10% )。 AI 开源项目方面,据 GitHub 统计,自 2011 年以来人工智能相关的 GitHub 项目稳步增长, 从 2011 年的 1536 个增长至 2022 年 34.79 万个,从XXX分布看,2022 年印度软件开发人 员占比 24.2%,其次是欧盟和英国(17.3%)与美国(14%)。

全球算力规模不断增长。据 IDC 统计,2020 年全球算力总规模达到 429EFlops,同比增长 39%,其中基础算力规模(FP322,FP32 为单精度浮点数,采用 32 位二进制来表达一个数 字,常用于多媒体和图形处理计算)为 313EFlops3,智能算力规模(换算为 FP32)为 107EFlops4,超算算力规模(换算为 FP32)为 9EFlops5。据 IDC 预测,未来五年全球算力 规模将以超过 50%的速度增长,到 2025 年整体规模将达到 3300Eflops。 全球主要XXX和地区纷纷加快算力布局。算力水平方面,据 IDC 统计 2021 年美国、中国、 欧洲、日本在全球算力规模中的份额分别为 36%、31%、11%和 6%。

中国智能算力规模持续扩大。据IDC统计与预测,2021年中国智能算力规模达155.2EFLOPS , 2022 年智能算力规模将达到 268.0 EFLOPS,预计到 2026 年智能算力规模将进入每秒十万 亿亿次浮点计算(ZFLOPS)别,达到 1271.4EFLOPS。

全球企业持续增加对 AI 的投资。伴随数字经济的持续发展,为满足企业内部发展需求和外 部市场需求,企业一直大力投资数字化转型相关技术。据 IDC 统计,全球企业在包括软件、 硬件和服务在内的人工智能(AI)市场的技术投资从 2019 年的 612.4 亿美元增长至 2021 年 的 924 亿美元,有望到 2025 年突破 2000 亿美元,增幅高于企业数字化转型(DX)支出整 体增幅。

全球人工智能芯片搭载率将持续增长,低能耗为大势所趋。算力是实现 AI 产业化的核心力 量,AI 产业技术不断提升,产业商业化应用加速落地,推动全球人工智能芯片市场高速增长, 据 IDC 预测,至 2025 年全球人工智能芯片市场规模将达 726 亿美元。人工智能算力规模的 快速增长将刺激更大的人工智能芯片需求,未来 18 个月,人工智能服务器 GPU、AS IC 和 FPGA 的芯片搭载率均会上升。目前中国市场主要以 GPU 为主,实现数据中心计算加速, 市场占有率达 89%,GPU 芯片多用于图形图像处理、复杂的数学计算等场景。此外 AS IC, FPGA,NPU 等非 GPU 芯片市场占有率超过 10%,其中,NPU 较以往具有明显增长,NPU 芯片设计逻辑相对简单,常用于边侧和端侧的模型推理。

 

 

2.2、英伟达 AI 时代卖水人,打造发展引擎

AI 的 iPhone 时刻。2023 年 3 月 21 日,英伟达举行了 GTC 2023(GPU Technology Conoference)主题演讲,CEO 黄仁勋表示“我们正处于 AI 的 iPhone 时刻”。在会上黄 仁勋介绍了英伟达在 AI 领域的x新进展,包括全新的量子计算系统、云服务平台、视觉图像 系统等,并发布了四款 AI 推理芯片、三个大模型云服务、超计算机,以及针对场景优化的 应用 100 个、更新功能的工业元宇宙 Omniverse。计算技术发展日新月异,曲速引擎是加速 计算,动力来源是 AI,随着计算量的激增,生成式 AI 使得企业需重新思考其商业模式与产 品。目前英伟达生态系统涵盖 400 万开发者、4 万家公司、1.4 万家初创公司。

加速计算和人工智能将重塑计算机行业,新计算时代临界点正到来。2023 年 5 月 29 日,英 伟达 CEO 黄仁勋在 Computex 2023 上发表主题演讲,表示“加速计算已经带来了全新的计 算时代”,在 AI 发展中 GPU 担任的运算器角色变得愈发重要,加速计算有望成为关键引擎。

英伟达推出超计算机 DGX GH200,E AI 超算。2023 年 5 月,在 COMPUTE X 大会上 英伟达推出超计算机DGX GH200,DGX GH200通过 NVLink 互连技术及 NVLink Switch System,将 256 个 Grace Hopper 超晶片连接成一个超大型、1-Exaflop、144TB GPU 的 巨型模型,用于驱动生成式人工智能、推荐系统和数据分析,为巨型人工智能模型提供线性 可扩展性,谷歌云、Meta 和微软将会是首批使用 DGX GH200 的公司。同时 NVIDIA 的 G race Hopper 超晶片已开始量产。

英伟达推出全新 Spectrum-X 加速以太网平台。2023 年 5 月 29 日,NVIDIA 推出 NV IDIA Spectrum-X 网络平台,该平台是一个加速网络平台,用以提高基于以太网 AI 云的性能与效 率。Spectrum-X将 NVIDIA Spectrum-4 以太网交换机与 NVIDIA BlueField-3 DPU 紧密结 合,取得 1.7 倍整体 AI 性能和能效提升,同时可在多租户环境中提供一致、可预测的性能, Spectrum-X还提供 NVIDIA 加速软件和软件开发套件(SDK),使开发人员能够构建软件定 义的云原生 AI 应用。

英伟达发布多款加速库助力加速计算。加速库是加速计算的核心,通过加速库连接应用,再 连接至各行各业,形成网络中的网络。经过 30 年的开发,已有数千款应用被英伟达的库加 速,涉及科学和工业多个领域。目前 NVIDIA GPU 兼容 CUDA,为开发者提供了庞大的安装 基础和广泛的覆盖范围,吸引了众多终端用户。同时英伟达建立了加速计算的良性循环,涵 盖了 300 个加速库和 400 个 AI 模型。

英伟达在 2023 年 GTC 大会重点介绍了几款加速库:

cuQuantum 量子加速库:用于量子电路仿真的加速库。cuQuantum 由英伟达与 Quantum Machines 合作开发,将 NVIDIA GPU 连接到量子计算机以快的速度进行纠 错,对量子计算机进行加速,可供研究人员推进量子编程模型,系统架构和算法。

cuOpt 运筹规划加速库:运筹学优化 API。NVIDIA cuOpt 使用进化算法和加速计算每 秒分析 300 亿次动作,打破了世界纪录。cuOpt 可以优化物流,每年有 4000 亿个包裹 被投递到 3770 亿个站点。德勤、Capgemini,Softserve、埃森哲和 Quantiphi 正在使用 NVIDIA cuOpt 来帮助客户优化运营。

CV-CUDA 视频处理加速库:用于计算机视觉的云规模加速库。CV-CUDA 包括 30 个计 算机视觉算子,可用于检测、分割和分类,VPF 是一个 Python 视频编解码加速库,腾 讯使用 CV CUDA 和 VPF 每天处理 30 万个视频,Microsoft 使用 CV CUDA 和 VPF 来 处理视觉搜索。

Parabricks 医疗加速库:用于云端或仪器设备内的端到端基因组分析的 AI 加速库。 NVIDIA Parabricks 将会在 PacBio、OxfordNanopore、Ultima,Singular、BioNano 和 Nanostring 的第四代 NVIDIA 加速基因组学设备上运行。

cuLitho 计算光刻加速库:通过计算技术大幅优化芯片制造流程。cuLitho 历时 4 年,利 用 GPU 技术实现计算光刻,可以使传统光刻技术提速 40 倍以上,为 2m 及更先进芯片 的生产提供助力。如果在 GPU 上运行 cuLitho,只需 8 小时即可处理完一个掩膜板。台 积电可通过在500个DGX H100系统上使用cuLitho 加速,将功率从35MW 降至 5MW, 从而替代用于计算光刻的 4 万台 CPU 服务器。

 

 

推出 DGX AI Cloud 云服务,重塑大模型格局,加速 AI 生态发展。英伟达宣布推出 NVIDIA DGX Cloud,这是一项 AI 超计算服务,能让企业立即访问为生成式 AI 和其他突破性应用 程序训练高模型所需的基础设施和软件。企业可按月租用 DGX Cloud 集群,每月租金为 3.7 万美元,通过浏览器立即访问英伟达的 DGX AI 超计算机和 AI 软件,为生成式 A I 和其 他开创性应用训练先进模型,可快速轻松地扩展大型多节点训练工作负载的开发,而无需等 待通常需求量很大的加速计算资源。 此外,英伟达还成立了 NVIDIA AI Foundations,为有专门要求的客户构建和改进相关 A I 模 型训练,从而降低 AI 数据的生成时间和提升客户的工作效率。 NVIDIA AI Foundations 包括语言、视觉和生物模型制作服务。其中语言模型 NVIDIA Nemo 用于构建定制的语言文本转文本;视觉模型 PICASSO 用于视觉语言模型制作;生物学模型 BioNeMo 可帮助研究人员使用专有数据创建、微调和提供自定义模型。 英伟达将与甲骨文、微软和谷歌等云服务提供商合作,托管 DGX Cloud 基础设施。

推出 GPU 推理平台,为 AIGC 设计专用算力。英伟达推出全新 GPU 推理平台,4 种配置分 别用于加速 AI 视频、图像生成、大型语言模型部署和推荐系统,为不同种类的 AIG C 产业提 供了对应的硬件产品。 L4:针对 AI 视频设计的通用 GPU,可提供比 CPU 高 120 倍的 AI 视频性能,能效提高 99%; L40:用于图像生成,针对图形和 AI 支持的 2D、视频和 3D 图像生成进行了优化,推理 性能是英伟达x受欢迎的云推理 GPU T4 的 10 倍; H100NVL:针对 ChatGPT 等大型语言模型的大规模部署,配备双 GPU NVLink,将两 张拥有 94 GB HBM3 显存的 PCle H100 GPU 拼接在一起,可处理拥有 1750 亿参数的 GPT-3 大模型; Grace Hooper:适用于推荐系统和大型语言模型的 AI 数据库,图推荐模型、向量数据 库和图神经网络的理想选择,通过 900GB/s 的高速一致性芯片到芯片接口连接英伟达 Grace CPU 和 Hopper GPU。

胖树网络架构成为人工智能数据中心的重要需求之一。NVIDIA DGX SuperPOD 是 NVIDIA 推出的一个分布式集群的参考架构,x新一代是基于 NVIDIA DGXA100 和 NVIDIA HDR 200Gb/s ConnectX-6 HCAs 组建,旨在帮助 AI 研究人员快速搭建一套强大、灵活、高效的 系统。DGX SuperPOD 采用模块化的设计,支持不同规模大小的设计,一个标准的 SuperP OD 由 140 台 DGX A100 和三层 Infiniband 交换机通过胖树结构全互联起来。每台 DGXA 100 配 有 8 个 200Gb/s 的高速计算网,并配有 2 个 200Gb/s 的高速存储网,采用计算和存储网络 分离的方案。人工智能数据中心内部数据流量较大,高速率、低延时的要求推动胖树架构在 数据中心网络中部署。

光连接向高速率、大密度方向发展。大语言模型带来超大算力需求拉动通信基础设施建设与 扩容,光模块作为数据传输的基础部件,是实现光电转换的核心部件,网络带宽需求增加, 推动以太网交换机和光学器件进步,交换机之间连接需要高端光模块来完成,交换芯片的技 术演进推动光模块更新换代,交换芯片向大容量、高速率、低功耗方向发展,光模块随之迭 代升。

3、中文模型奋起直追,办公生产力率先变革

3.1、中文模型奋起直追,更强中文理解

大模型可大致分为基础大模型、行业大模型、场景模型三类。 基础大模型:可在多个领域和任务上通用的大模型。利用大算力、使用海量数据与大参数的 深度学习算法,在大规模无标注数据上进行训练,以寻找特征并发现规律,进而形成强大泛 化能力,可在不进行微调或少量微调的情况下完成多场景任务。 行业大模型:针对特定行业或领域的大模型。通常使用行业相关的数据进行预训练或微调, 以提高在该领域的性能和准确度。 场景模型:针对特定任务或场景的大模型。通常使用任务相关的数据进行预训练或微调,以 提高在该任务上的性能和效果。

百度发布“文心一言”大模型,更强中文理解与跨模态能力。2023 年 3 月 16 日,百度召开 发布会发布大语言模型、生成式 AI 产品“文心一言”,百度创始人、董事长兼首席执行官李 彦宏展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成五个使 用场景中的综合能力。百度智能云面向企业客户开放文心一言 API 接口调用服务。 2023 年 3 月 27 日,百度推出企业大模型服务平台“文心千帆”,基于文心一言底层模型 (Ernie Bot)数据管理、自动化模型定制微调以及推理服务云端部署一站式大模型定制服务, 并提供可快速使用的文心一言企业推理云服务,助力各行业的生成式 AI 应用需求落地。

文心一言:知识增强大语言模型,基于飞桨深度学习平台和文心知识增强大模型。文心一言 大模型持续从海量数据和大规模知识中融合学习具备知识增强、检索增强和对话增强的技术 特色。百度同时具备人工智能四层能力,在应用层、模型层、框架层、芯片层进行全栈布局。 从昆仑芯片、飞桨深度学习平台、文心大模型到应用,百度在技术栈的各层都有领先业界的 关键自研技术,实现了层与层反馈,端到端优化,大幅提升效率。

 

 

文心大模型:基于 BERT 结构,多范式的统一预训练模式,支持长文本语言模型建模。2019 年 3 月,百度发布并开源了中国首个知识增强的语言模型文心 ERNIE 1.0,百度围绕各场景, 在 NLP、CV、跨模态、生物计算等领域形成完善的大模型生态,已历经四代,2022 年发布 的 ERNE3.0 TITAN 参数量达到 2600 亿,相对 GPT-3 的参数量提升 50%。

超大规模预训练数据集。在ERNIE 3.0中,百度提出了一个多范式统一的大规模预训练框架, 基于该框架,ERNIE 3.0 融合了自回归网络和自编码网络,同时由于大规模知识图谱类数据 的引入,使得模型能够在理解任务、生成任务、零样本学习任务和常识推理任务上均获取优 秀的表现。ERNIE 3.0 在 14 种类型共计 45 个自然语言理解数据集上取得了 SOTA 的结果, 在 9 个自然语言生成任务上取得了 SOTA 的效果,在 18 个数据集上刷新了 zero-shot 的 SOTA 效果。

创新型算法,更好的中文理解能力,全面的模型尺寸,覆盖不同场景需求。百度创新性地将 大数据预训练与多源丰富知识相结合,通过持续学习技术,不断吸收海量文本数据中词汇、 结构、语义等方面的新知识,实现模型效果不断进化。 文心大模型引入知识图谱,通过知识内化(语义学习和数据构造)和知识外用(知识推理和 提示构建),将数据与知识融合,使得学习效率更高、可解释性更好,突破了多源异构数据 难以统一表示和学习瓶颈。针对不同的场景需求,百度发布不同的模型尺寸,拓宽了人工智 能技术落地场景的覆盖广度。

大模型体系化,预置丰富模型。不同场景对模型的需求会有一定的差异化,所以在通用模型 的基础上需增加不同特质,对此百度增加了两类模型: 1、 任务大模型,主要面向特定任务,比如语音搜索、图文搜索、图象理解等; 2、 行业大模型,针对特定行业进行知识增强后的大模型。

飞浆(PaddlePaddle):源于产业实践的开源深度学习平台。百度于 2013 年成立深度学习 实验室,并推出自主研发的深度学习平台,即PaddlePaddle 前身;2016 年8月,PaddlePaddle 正式开源,对标谷歌 TensorFlow,是中国首个开源开放的深度学习框架。目前 PaddlePaddle 集深度学习核心框架、基础模型库、端到端开发套件、工具组件和服务平台于一体,是全面 开源开放、技术领先、功能完备的产业深度学习平台。目前飞桨已广泛应用于工业、农业、 服务业等。

文心一格:AI 艺术与创意辅助平台。文心一格是百度推出的 AI 作画产品。依托飞桨、文心 大模型的技术创新,只需输入文字描述,即能生成各种风格的精美画作。可为画师、设计师 等视觉内容创作者启发灵感,辅助艺术创作,也能为媒体、作者等文字内容创作者提供高质 量、高效率的配图。

文心百中:产业搜索系统。文心百中是百度推出的由大模型驱动的产业搜索系统。依托 百度文心大模型,以简框架,代替传统搜索引擎复杂的构建及维护成本,可低成本接入各 类企业和开发者应用,并凭借数据驱动的优化模式可实现行业优化效率及应用效果。

商汤科技推出“日日新大模型”体系。2023 年 4 月 10 日,在商汤技术交流日活动上,商汤 科技董事长兼首席执行官徐立宣布推出大模型体系“商汤日日新大模型”,包括自然语言生 成、文生图、感知模型标注、以及模型研发功能。

商汤 SenseChat 2.0 大语言模型能力全面升。2023 年 7 月 7 日,商汤科技董事长兼 CEO 徐立在第六届世界人工智能大会(WAIC 2023)推出商汤商量 SenseChat 2.0 版本,实现大 语言模型全面升,突破了长度限制,并推出不同参数量的模型版本,可挺好适配移动端、 云端等不同终端及场景的应用需求,降低部署成本。 与此同时,商汤秒画 SenseMirage 3.0 文生图大模型亦全面升,模型参数从 2023 年 4 月 的 10 亿提升至 7 月的 70 亿,可实现专业摄影的图片细节刻画。

华为云正式发布盘古大模型 3.0,面向行业的大模型系列。2023 年 7 月 7 日,华为开发者大 会 2023 在东莞召开,华为常务董事、华为云 CEO 张平安正式发布了华为云盘古大模型 3.0, 首次明确定位“为行业而生”。盘古大模型 3.0 分为 L0 基础大模型、L1 行业大模型、L2 场 景模型三层架构,将重塑千行百业。盘古大模型强调在细分场景的落地应用,主要解决商业 环境中低成本大规模定制的问题,用 AI 赋能千行百业。 在煤矿领域,盘古矿山大模型已经在全国 8 个矿井规模使用,一个大模型可以覆盖煤矿的采、 掘、机、运、通、洗选等业务流程下的 1000 多个细分场景,让更多煤矿工人能够在地面上 作业,大地减少安全事故;

在气象领域,原来预测一个台风未来 10 天的路径,需要在 3000 台服务器的高性能计算机集 群上花费 5 小时进行仿真,现在基于预训练的盘古气象大模型,10 秒内就可以获得更精确的 预测结果,速度比传统数值预报提速 10000 倍以上。7 月 6 日,该研究成果登上国际顶学 术期刊《自然》杂志; 在交通运输行业,盘古铁路大模型能精准识别现网运行的 67 种货车、430 多种故障,综合准 确性高达 99.8%。通过盘古铁路大模型的 “慧眼”,无故障图片的筛除率为 95%,实现效 率提升。

盘古大模型在性能、深度、架构及数据增强方面均进行了升。华为拥有算力、框架、平台 全栈核心技术,盘古大模型实现了以鲲鹏和昇腾为基础的 AI 算力云平台,以及异构计算架构 CANN、全场景 AI 框架昇思 MindSpore、AI 开发生产线 ModelArts 的全栈自主创新。单集 群 2000P Flops 算力、千卡训练 30 天长稳率达到 90%的昇腾 AI 云服务在华为云的乌兰察 布和贵安 AI 算力中心同时上线。

3.2、生产力工具革新,释放创造力

微软发布 Microsoft 365 Copilot,提升工作效率,革新工作方式。2023 年 3 月 16 日,微 软发布了集成了 GPT4 功能的 Microsoft 365 Copilot,提供了包括文字和图片内容生成,归 纳,数据分析、辅助决策等一系列新功能。Copilot 一款基于 GPT-4 和 Microsoft Graph 的 AI 办公助手,为用户提供了一种全新的工作方式。Copilot 通过两种方式集成至 Microsoft 365 中,x种是嵌入至 Microsoft 365 应用程序中,如 Word、Excel、PowerPoint、Outlook、 Teams 等,第二种是邮件、联系人、在线会议等软件数据接入大语言模型,借助Power Platform 中的 Copilot,将重复的工作流程自动化,解锁生产力。

Microsoft 365 Copilot 技术原理:LLM+Microsoft Graph+Microsoft 365 Apps。Microsoft 365 Copilot 由“Copilot 系统”提供支持,利用了三种基础技术: Microsoft 365 应用:即 Word、Excel、PowerPoint、Outlook、Teams 等; Microsoft Graph:是 Microsoft 365 中通往数据和智能的网关,它提供统一的可编程 模型,可用于访问 Microsoft 365、Windows 10 和企业移动性 + 安全性中的海量数据, 相当于数据传输的通道,连结大模型和 Microsoft 365 应用; Ÿ 大型语言模型 LLM:使用大量数据训练的深度学习模型,可以生成自然语言文本或理解 语言文本的含义。 用户输入指令后,Copilot 将该指令信息发送到 Microsoft Graph,进行上下文检索和修正提 升,并将修正后的信息发送到 GPT-4,之后将回复传回 Microsoft Graph,完成安全和合规性 检查后,x终传回到 Microsoft 365 应用。 Copilot 能扫描 Microsoft Graph 中存储的电邮、会议、聊天内容和日历中标注的日期和事件 等所有数据,根据这些内容作出回应。这些数据可以帮助支持 Copilot 的大语言模型改进回 答,让回答更具体、对用户个人更有针对性。

 

 

Word:通过 Copilot 可实现文稿的快速生成和修改。 帮助用户写作、编辑、摘要和创作文档,能让用户集中精力发挥创造力,快速撰写具有 说服力的提案;可以根据简单的笔记和其他内部文件草拟提案,生成初稿,并按照用户的需求调整格式、 插入图片和提取视觉素材; 可以生成摘要和提供建议以改进文档。

Excel:通过 Copilot 可实现海量数据可视化,帮助用户分析和探索数据。 用户可以让 Copilot 找出关键趋势、提出跟进问题,并将数据可视化; Copilot 还能创建简单的假设模型,并将操作过程逐步分解,以便用户进行修改。

PowerPoint:通过 Copilot 可基于文稿生成幻灯片,通过便捷指令调用编辑功能。 可将 Word 文档转换为演示文稿,亦可将 PowerPoint 转换为 Word 文档; 用户只需给出简短的指示,Copilot 即能迅速完成幻灯片制作,让用户进行审查; 能为文字过多幻灯片添加动画效果,以实现专业设计效果; 可以为所有幻灯片生成演讲者备注,帮助用户成为更出色的演讲者。

Outlook:通过 Copilot 辅助整理、归纳、起草电子邮件。 可自动管理和回复邮件,用户可通过简单命令指引对邮件进行分类、总结、提取和回复 等操作; 可根据收件人或主题生成合适的语气或建议,帮助用户节省处理邮件时间。

Teams:通过 Copilot 总结会议要点、追踪待办事项。 可帮助用户参与和组织会议,提供即将进行的会议信息、相关项目更新、组织变化等; 可让用户跟踪会议,从而解决时间冲突问题; 会议结束后,可总结用户的内容,包括共享的内容、概括笔记和与用户或其他被提 及的待办事项,并在 Teams 中发出通知; 用户可向 Copilot 提出澄清问题以获取详细的回答和有用的背景信息。

Business Chat:通过 Copilot 实现全局信息视角下的交互式回答。 Business Chat 融合了大模型能力、Microsoft365 应用和用户在日历、邮件、聊天、文 档、会议、联系人中的数据,能够基于全局信息视角给予综合性答复; 能够与用户进行商业相关的对话,根据用户的日常活动生成提醒和状态更新,让用户随 时了解工作进展。

微软发布 Microsoft Security Copilot,进入网络安全领域。2023 年 3 月 28 日,微软宣布 推出人工智能产品 Microsoft Security Copilot,将 AI 技术应用于网络安全领域,为安全专业 人员提供一个有效工具。 Security Copilot 可深度集成到微软的产品和工作流程中,Security Copilot 与微软的三大安 全产品 Microsoft Sentinel、Microsoft Defender、Microsoft Intune 进行了集成,提供事件安 全、应用程序防护、云端到本地等多维度防护。此外开创了交互式防护体验,用户可以通过 自然语言询问安全事件响应、威胁追踪和安全报告,帮助企业、个人用户缓解诸多网络安全 业务痛点。

Microsoft Security Copilot 的主要功能: 1、简化安全流程复杂性:用户借助 Security Copilot 可实现“分钟”自动网络安全事件评 估和响应,通过基于自然语言的调查,提供关键的分步指导,可以汇总所有安全、调查事件, 简化安全流程,让用户直观地看到x重要的安全信息,并对其做出安全防护对策; 2、深度分析、优先排序:Security Copilot 发现安全问题后,会借助微软网络安全威胁库 深度分析攻击行为,并预测黑客下一步的行动以及抵御方法; 3、回答专业的网络安全知识:Security Copilot 通过专业的网络安全数据训练,可为用户提 供专业、详细的网络安全知识,例如,介绍攻击病毒的历史,如何日常防护设备、数据资产 等,为制定防护计划提供帮助; 4、自我学习能力:Security Copilot 具备自我学习能力,用户的每一次反馈都将加速 Security Copilot 对安全事件响应、网络攻击的分析效率和准确率。

Microsoft Security Copilot 技术原理:GPT-4+Microsoft 安全专用模型。 Security Copilot 是将 OpenAI 大语言模型 GPT-4 与 Microsoft 的安全特定模型相结合所开发 出的生成式 AI 安全产品,在 Microsoft Azure 的超大规模基础架构上运行。Security Copilot 结合了微软拥有的 65 万亿个网络安全威胁的安全模型库,通过收集到的信号让专业的安全 研究人员追踪威胁,大提升了安全范围。

接受自然语言输入,协助安全研究人员提升能力。Security Copilot 接受自然语言输入,大幅 降低使用门槛,安全研究人员可以通过输入文本来要求它提供特定漏洞的摘要,或者通过输 入文件、URL 或代码片段来完成分析。Security copilot 可以实时分析进攻威胁、处理大量信 息、生成解决方案,并以可视化的形式输出。以勒索软件为例,以往仅了解勒索软件事件就 要花费大量的时间,而解决相应事件需花费更多时间。Security Copilot 可以在几秒内获取重 要信息、分析进攻数据,并展示可视化图像、安全事件过程及相应的解决方案。大大提升了 安全威胁分析及处理的效率。

 

免责声明

    版权声明:本文内容由网友上传(或整理自网络),原作者已无法考证,版权归原作者所有。省心文案网免费发布仅供学习参考,其观点不代表本站立场,本站不承担任何法律责任!

相关文章

在线客服

扫码一对一人工服务