联系我们
发送留言
二维码

TOP

返回顶部
合作咨询
  • 姓名

  • 邮件

  • 手机号码

  • 公司名

  • 联系留言

联系我们
  • 总部地址

    广州市黄埔区瑞吉二街京广协同创新中心45号楼6-9层

  • 电子邮箱

    trusme@trusme.com.cn

  • 联系电话

    400-855-2725 / 020-38638003

  • 传真号码

    020-38637770

当前位置  :   解决方案  >   人工智能    
AIGC应用场景硬件解决方案
行业描述

AIGC(AI-Generated Content),指基于生成对抗网络GAN、大型预训练模型等AI技术,自主生成创造新的文本,图像、音乐、视频、3D交互内容(如虚拟化身、虚拟物品、虚拟环境)等各种形式的内容和数据。目前,AIGC主要应用于 文字生成 音频生成 图像生成 视频生成 跨模态生成(文生图) 虚拟人生成等技术场景,赋能社交媒休、游戏、广告、建筑、编码、平面设计、产品设计、营销销售等各个需要人类知识创造的行业。

2022年11月30日,OpenAI公司发布集代码创作、文本撰写、翻译等功能于一体的聊天机器人模型ChatGPT,发布一周内用户量超过百万,两个月用户数突破一亿,创历史记录。微软、谷歌、百度、字节、阿里、腾讯等国内外主流厂家迅速布局,不断夯实通用大模型,打造产业模型,助力AI大模型产业化。生成式AI将是未来几年最重要的生产力工具,并深刻改变各个产业环节,围绕生成式AI,无论是训练还是推理端,算力需求都将有望爆发式增长。



大模型算力需求评估

基础模型(基于大规模数据集和大规模算力训练的大型预训练模型)是AIGC产业生态体系的关键AI算力底座。以ChatGPT为例,其根基还是在通用基础大模型底座GPT-3上,训练超大基础模型需要强大的GPU算力作为支撑,ChatGPT三大算力需求场景包括预训练、Finetune及日常运营。




ChatGPT基于Transformer架构,进行语言模型预训练,预训练阶段单次算力需求取决于模型参数量,以GPT-3为例,以GPT-3模型为例,随着模型朝更大体量的方向演进,参数量从GPT-3 Small的1.25亿个增长到GPT-3 175B的1746亿个,一次训练所需的计算量从2.6PFlop/s-day增至3640PFlop/s-day,换算成GPU,则是需要800张A100的计算卡;报告推算,2023年-2027年,全球大模型训练端峰值算力需求量的年复合增长率有望达到78.0%,2023年全球大模型训练端所需全部算力换算成的A100芯片总量可能超过200万张。


解决方案介绍

信维GPU解决方案助力构建AI大模型GPU集群


组建训练集群的服务器大多使用搭载专用GPU模组的标准8卡机型,信维采用XXX+XXX(华勤P6220+GPU BOX)的组合解决方案,可广泛用于互联网用户的大模型训练集群部署。基于Intel Whitley平台,最多可以提供80个CPU核心,可最大程度满足训练集群的CPU算力需求。


超强算力:4U空间内搭载全新NVLink技术连接的SXM4 A800 GPU模组,GPU通信带宽及性能较上一代翻倍,GPU之间的通信互联带宽可达400GB/s,算力超群,支撑大模型计算底座。


- 高速互联:8块HHHL插槽可配备200G网卡设备实现高性能、低时延的互联网络部署,搭建高速AI集群,完成海量的并发在线数据处理;机器支持8个2.5寸 U.2 NVME 硬盘位,可用于存储预训练数据集,通过PCIe Switch将NVMe SSD里的数据直接读取到GPU显存里。


- 灵活部署:超短的机箱尺寸,可以适配多变的机房环境;前后维护兼容设计,满足不同用户的运维需求;独立的BOX机箱管理,为用户带来便捷的BOX运维体验;可灵活适配全新Gen4链路的各平台计算节点。


客户收益

以ChatGPT为代表的AIGC已经成为当下互联网行业的风口,当前,部分行业顶尖的AIGC公司已进行商业化落地,但应用场景、行业处于起步阶段,内容生产效率仍有待提高,主要原因是整体技术仍处在快速成长中。随着关键技术与基础理论不断突破,大算力、大数据、大模型将成为未来重点发展方向,带动自然语言处理、翻译模型、生成算法和数据集等细分要素持续提升,推动产出的内容细节、类型更丰富、质量更高。以ChatGPT为例,其新一代模型GPT-4预计已于近期发布,GPT-4的训练数据量、token数、模型参数量将有所提升,从而提高模型规模,降低训练成本和使用门槛的同时,有望完全通过图灵测试达到人类智慧水平,AIGC将迎来快速发展阶段。