nVIDIA|英伟达探索COPA多芯片GPU模块架构 以满足不断变化的数据需求
当前的深度学习应用,正收到复杂性增长、资源需求多样化、以及现有硬件架构的限制 。不过近日,英伟达研究人员发表了一篇技术文章,概述了该公司对多芯片模块(MCM)的探索 。具体说来是,该团队讲述了“可组合封装”(COPA)GPU 的各项优势,尤其是能够适应各种类型的深度学习工作负载 。
访问购买页面:
京东NVIDIA系列商品汇总
文章图片
资料图(via Nvidia 官网)
得益于固有的功能和优化,图形处理单元(GPU)已成为大量深度学习(DL)研究项目的首选 。但由于传统融合 GPU 解决方案正迅速变得不太实用,研究人员才想到到 COPA-GPU 的理念 。
这些融合 GPU 解决方案依赖于由传统芯片组成的架构,辅以高带宽内存(HBM)、张量核心(NVIDIA)/ 矩阵核心(Matrix Cores)、光线追踪(RT)等专用硬件的结合 。
【nVIDIA|英伟达探索COPA多芯片GPU模块架构 以满足不断变化的数据需求】此类硬件或在某些任务下非常合适,但在面对其它情况时却效率低下 。与当前将所有特定执行组件和缓存组合到一个包中的单片 GPU 设计不同,COPA-GPU 架构具有混合 / 匹配多个硬件块的能力 。
如此一来,它就能够更好地适应当今高性能计算(HPC)只能够呈现的动态工作负载、以及深度学习(DL)环境 。
文章图片
(来自:ACM.org | PDF)
这种整合更多功能和适应多种类型工作负载的能力,可带来更高水平的 GPU 重用 。更重要的是,对于数据科学家们来说,这使得他们更有能力利用现有资源,来突破潜在的界限 。
尽管经常混为一谈,但人工智能(AI)、机器学习(ML)和深度学习的概念,却有着明显的区别 。DL 可视作 AI 和 ML 的子集,主要通过各种过滤器来预测和分类信息,来模拟人脑的信息处理方式 。
作为诸多自动化 AI 功能背后的技术支撑,深度学习可助力其实现各项功能 —— 涵盖从自动驾驶、到监控金融系统的欺诈活动等领域 。
另一方面,MCM 概念已于过去几年被炒得火热(其实可追溯到 70~80 年代的 IBM 气泡内存 / 3081 大型机),且 AMD 等厂商早已将小芯片 / 芯片堆叠技术作为其下一代产品的重要演变 。
推荐阅读
- 新浪科技|哈啰顺风车:三年完单总量3亿 认证车主数量达1800万
- 一财网|28页文件“上书”英国监管机构 英伟达收购Arm进入最后博弈
- 高达|魅族 PANDAER 发布 130W 可视移动电源:全透明外壳,售价 999 元
- 新浪科技|美国百强雇主榜单:英伟达摘得桂冠,Meta下跌36名,Zoom吊车尾
- 斯达|汉威科技:目前能斯达的电子皮肤已有小批量商用
- 市场|刘作虎:一加达成了一个小目标
- 服务|抖音针对快递派送不电联等问题推出“音尊达”服务
- 国家|SA:未来 12 个月打算购买智能手表的消费者比例将达到两位数
- Tech星球|抖音测试快递服务“音尊达”,加码物流配送,布局产地仓 喜马拉雅上线直播App
- 功能|AMD 推出 RSR 后,英伟达发布 DLDSR 深度学习动态超分辨率技术