山东001在线

 找回密码
 立即注册
搜索
查看: 147|回复: 0

新闻转载Chatgpt带来算力芯片投资机会展望2023/4/1 23:12:30

[复制链接]
  • TA的每日心情
    奋斗
    2023-7-4 00:19
  • 签到天数: 348 天

    [LV.8]以坛为家I

    发表于 2023-4-1 23:13:14 | 显示全部楼层 |阅读模式

    一、AIGC引发内容生成范式革命,云端算法向大模型多模态演进gpt4付费的最新消息可以到我们平台网站了解一下,也可以咨询客服人员进行详细的解答!https://www.kuannao.com

    人工智能落地应用不断增加,AIGC引发范式革命

    云端推理占比逐步提升,AI落地应用数量增加。随着数字经济、元宇宙等概念逐渐兴起,各行业对人工智能开发的需求日益提升, 人工智能进入大规模落地应用的关键时期。2022年在云端部署的算力里,推理占算力已经达到了58.5%,训练占算力只有41.5%,预 计到2026年,推理占到62.2%,训练占37.8%。一般来讲,应用完成推理之后就可以进行部署,而云端推理占比逐步提升说明,AI落 地应用数量正在不断增加,人工智能模型将逐步进入广泛投产模式。


    AIGC是人工智能成熟度的分水岭,引发范式革命。AI模型可大致分为决策式AI和生成式AI两类,决策式AI根据已有数据进行分析、 判断、预测,已经被广泛应用;生成式AI学习归纳已有数据后进行演绎,基于历史进行模仿式、缝合式创作,生成了全新的内容,也 能解决判别问题。从决策到生成,AI技术与应用迎来跨越发展。内容生产模式从专业生成内容(PGC)和用户生成内容(UGC)逐渐 过渡向AIGC阶段,标志着人类第二次脑力效率的飞跃。

    ChatGPT是AIGC的开山之作,成为人工智能里程碑式产品

    ChatGPT是OpenAI推出的自然语言处理类(NLP)AIGC应用。Chatgpt横空出世,成为AIGC的开山之作。ChatGPT是美国OpenAI研 发的聊天机器人程序,于2022年11月30日发布,是一款人工智能技术驱动的自然语言处理工具,能够通过理解和学习人类的语言来进 行对话,还能根据聊天的上下文进行互动,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文等任务。

    ChatGPT成为人工智能技术在速发展过程中的里程碑式产品。ChatGPT一经推出便速获得了全球用户前所未有的广泛参与与认可 ,推出两个月后月活跃用户规模达到 1 亿人,远超过 Facebook、抖音等成为了过去以来增长速度比较的消费者应用程序。ChatGPT 被 视为标志性人工智能生产力工具,甚至被视为第四次工业革命开始的标志。

    GPT架构速迭代,参数量与训练数据量提升带来性能飞跃

    ChatGPT是基于GPT架构开发的对话AI模型,参数量与训练数据量的提升带来性能飞跃。OpenAI早在2022年就已经推出首代生成 式预训练语言模型GPT(Generative Pre-trained Transformer),可用于生成文章、代码、机器翻译、问答等各类内容,此后GPT模型 速迭代,并且伴随着参数量的爆炸式增长,从GPT到GPT-3,参数量达到了1750亿,增长了近1500倍,预训练数据量更是从5GB提升到 了45TB, 2023年3月推出的多模态大模型GPT-4参数量甚至预测达到100万亿。而随着参数量和预训练数据量的提升,模型的性能现 了飞跃式提升。

    GPT-3.5采用海量参数预训练,大模型成为AI发展新范式

    ChatGPT是基于GPT-3.5微调得到的大型语言模型。GPT-3.5采用深度学习transformer模型,对大规模数据进行预训练,相比于一般的 语言模型,参数量大幅提升至1750亿,所需要的算力呈指数级增长。根据OpenAI,GPT-3.5在AzureAI超算基础设施(由V100GPU组成 的高宽带集群)上进行训练,总算力消耗约3640PF-days(即每秒一千万亿次计算,运行3640个整日)。

    大模型训练性能突出,各大科技厂商积极布局。预训练大模型基于“预训练+精调”等新开发范式具有良好的通用性和泛化性,可通 过零样本、小样本学习获得领先效果,大幅加速人工智能大规模产业化进程。自2022年起,的大模型数量骤增,仅2022年到2022 年,大模型数量就从2个增至21个,和美国量级同等,大幅领先于其他。可以预见,以谷歌的BERT、OpenAI的GPT和百度的 文心一言为代表的大模型,未来将成为智能化升级中可大规模复用的重要基础设施。

    GPT-4性能升级,多模态加速迈向通用人工智能

    多模态大模型GPT-4震撼发布,性能现大幅提升。3月15日,GPT-4正式发布,多模态大模型进化更进一步,其不仅在语言处理能力 上提高,如文字输入限制提升至2.5万字,并能够生成歌词、创意文本、现风格变化,还具备对图像的理解和分析能力,能基于图片 进行总结和回答问题。在各种专业和学术基准测试中已做到人类水平的表现,如SAT拿下700分,GRE几乎满分,模拟律师考试GPT4 分数占前10%,GPT-3仅为倒数10%。 GPT-4的出现标志着当前已经从语言模型突破走向多模态模型,应用前景广阔。

    多模态大模型大势所趋,应用场景极大丰富。多模态大模型可整合图像、语音、文本等输入输出方式,现对多种类型和模态数据的 学习、分析及生成,有望极大丰富人机交互场景。可以看到,多模态大模型将充分发挥人工智能创造价值的潜力,赋能各行各业现 降本增效,甚至加速迈向通用人工智能的步伐。

    二、硬件基础设施为发展基石,算力芯片等环节核心受益
    AI要求大规模智能算力,硬件基础设施成为发展基石

    以算力芯片为核心的硬件基础设施是AI发展的基石。算力芯片等硬件基础设施是处理数据“燃料”的“发动机”,只有达到一定水平 的算力性能才能现人工智能的训练和推断以及存储、传输等相关配套功能。人工智能的云端训练和推断计算主要基于AI服务器,对 算力/存力/运力/散热性能要求更高,带动算力芯片、配套硬件、机箱等设施不断升级。

    智能算力规模正在高速增长,算力芯片等硬件基础设施需求旺盛。根据IDC数据,2022年智能算力规模达155.2 每秒百亿亿次 浮点运算(EFLOPS),2022年智能算力规模将达到268.0 EFLOPS,预计到2026年智能算力规模将进入每秒十万亿亿次浮点计算( ZFLOPS)级别,达到1,271.4EFLOPS,2022-2026年复合增长率达52.3%。预计人工智能支出中硬件占比将保持比较大,未来5年将 一直保持65%左右的份额。看好AI大模型训练及推理需求创造的算力芯片等硬件基础设施的增量市场空间。

    算力:CPU不可或缺,CPU+xPU异构方案成为大算力场景标配

    CPU的性能提升已遭遇瓶颈。过去40年间,在指令集简化、核心数增加、制程微缩、架构改进等技术变革的推动下,CPU的性能已经 提升接近5万倍,但不可避免的边际效应递减。在上世纪90年代,CPU性能每年提升52%,性能翻倍只需要1.5年。而从2022年之后, CPU性能每年提升只有3%,需要20年才能性能翻倍。

    CPU在现代计算系统中仍不可或缺,CPU+xPU的异构方案成为大算力场景标配。CPU受制成本功耗难以匹配AI对算力需求的高速增 长,CPU+AI芯片的异构方案应运而生,AI芯片类型包括GPU、FPGA和NPU等。其中,CPU是图灵完备的,可以自主运行,而GPU、 FPGA等芯片都是非图灵完备的,都是作为CPU的加速器而存在,因此其他处理芯片的并行计算系统均为CPU+xPU的异构并行。

    算力:GPU并行计算势明显,充分受益于AI算力需求增长

    GPU削弱控制能力,布局更多计算单元以加强算力。从计算资源占比 角度看,CPU包含大量的控制单元和缓存单元,际运算单元占比较 小。GPU则使用大量的运算单元,少量的控制单元和缓存单元。GPU 的架构使其能够进行规模化并行计算,尤其适合逻辑简单,运算量大 的任务。

    CPU+GPU是目前比较流行的异构计算系统,在HPC、图形图像处理以 及AI训练/推理等场景得到广泛应用。根据IDC数据,2022年AI芯 片市场中,GPU市占率近90%。
    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    QQ|手机版|小黑屋|Archiver|山东001在线 ( ICP11027147 )

    GMT+8, 2026-4-4 11:28 , Processed in 0.039569 second(s), 19 queries , Gzip On.

    Powered by Discuz! X3.4

    © 2001-2023 Discuz! Team.

    快速回复 返回顶部 返回列表