打开网易新闻 查看精彩图片

历史经验告诉我们:好的工具事半功倍,不好的工具处处添堵。

当AI如火如荼的落地各种场景,很多人蠢蠢欲动的想要学习如何入场这个“风口”,给自己的企业也加点buff,也算是添砖加瓦了。而已经“站在风里”的人们,却仍有不少人踌躇不前——技术是懂,但应用真的难做。究其原因,得到答案无外乎:手慢资源少,复杂投入高。

打开网易新闻 查看精彩图片

AI开发,特别是推动AI进入工业大生产阶段的深度学习技术,的确复杂,烧钱,耗时间,那该怎么办呢?这时,你需要工具,一个高效节省开发时间、支持大规模数据训练、方便你多端多硬件灵活部署的好工具。它要开源开放、成熟完备,并足以支持产业级应用。市面上的深度学习框架已不少,让我们来选选适合你的那一个。

首先,它要自主自研。经验告诉我们,国际形式眼花缭乱、千变万化,一切将底层技术的控制权留给他国的选择都是悲剧,被“釜底抽薪”卡脖子的事儿绝对是每个人,每个企业的痛中之痛。

其次,实践出真知。归根结底AI是一种“要在实践中磨炼,最终服务于实践”的科学商业的综合体。

因此,就深度学习框架这样的工具来讲,成熟完备、易学易用很重要。而决定了框架“成熟可用”的最基础要素就是“场景”——框架好用,场景先行。推出框架的公司有场景吗?场景丰富吗?场景数据量大吗?等等这些因素都是选择框架时需要考虑的事情。

打开网易新闻 查看精彩图片

最后要看部署。如果说商业的本质是创造价值,那么AI开发的本质就是间接创造价值。一切AI开发的目的最终要回归价值,也就是落地执行,即部署。所以找一个方便适配各类硬件的开发工具,在最后一步能省不少事儿。

打开网易新闻 查看精彩图片

一图看懂:用飞桨框架2.0做AI开发是什么体验

就拿被称作国货之光的飞桨框架来说,首先它满足自主自研,没有“包裹外国的框架内核实际做本地汉化”的行为。

其次,在开发上,刚刚升级为2.0正式版的飞桨框架可支持用户使用动态图完成深度学习相关领域全类别的模型算法开发,这标志着飞桨的动态图功能已经成熟完备,是不是很强大!

另外,从官方发布的信息来看,目前飞桨官方算法模型库已达到了270+,涵盖计算机视觉、自然语言处理、语音、推荐等多个领域,基本上已经覆盖了所有产业向主流应用需求。

在训练层面上,飞桨框架2.0在支持万亿规模稀疏参数基础上,也已实现支持千亿规模稠密参数模型训练。简单的来说就是它可以实现超大规模数据和模型的训练,而在针对这种“超大规模”训练时,一台机器效率多低呀而且根本难以“装得下”,那可是千亿万亿级数据量和超大模型。

所以为了高效高质量地实现如“丝般顺滑”的训练体验,飞桨可以支持将参数切分到多张 GPU 卡上训练,从而真正支持不同场景下的千亿规模稠密参数模型训练。

经历了开发,训练,在最后的部署环节上,就相当于视频剪好准备发布。在发布时,横屏还是竖屏,清晰度有怎样要求,大小有怎样的限制等等都跟其载体有关。AI模型部署也一样,不同硬件的适配要求对模型有着诸多限制。

当前包括英特尔、英伟达、ARM等诸多芯片厂商纷纷开展对飞桨的支持。飞桨还跟飞腾、海光、鲲鹏、龙芯、申威等CPU进行深入适配,并结合麒麟、统信、普华操作系统,以及百度昆仑、海光DCU、寒武纪、比特大陆、瑞芯微、高通、英伟达等AI芯片深度融合,与浪潮、中科曙光等服务器厂商合作形成软硬一体的全栈AI基础设施。

截止目前,飞桨已经适配和正在适配的芯片或IP型号达到29种,处于业界领先地位。

全套加速,整得明明白白。当然每个人也要看自己的开发习惯,但通用情况来看,飞桨兼顾易用和性能的模型生产能力还是非常强大的。对于想转行AI,进入这个风口之地的开发者来说,搞定语言后直接用飞桨尝试实操也不失为一个好选择。

感兴趣的朋友可以开始你们的尝试了!