您的位置:计世网 - 热点新闻

英特尔:助推UCloud AI在线服务“火箭发射”

宋辰- 2018.03.28 22:55 0条评论 热点新闻

如果把人工智能比做火箭的话,数据就是火箭的原料,计算能力是引擎,算法是引擎的控制器。” UCloud实验室研发总监叶理灯说。

2016年,AlphaGO让人工智能第三次走进了人们的视野。从1956年开始,人工智能先后出现过三次浪潮。第一波浪潮出现在从1956年-1976年,最核心的是逻辑主义,主要是用机器证明的办法去证明和推理一些知识,这需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对还是错。第二次浪潮从1976年到80年代中期,1986年BP网络刚出来的时候解决了不少问题,大家都认为人工智能是有希望的,后来十几年以后发现神经元网络解决单一问题可以,解决复杂问题不行。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。

这时候就出现了现在的第三次浪潮,而且明显这一波浪潮持续时间足够久,与普通人的距离更近。大家熟知的iPhone手机上的Face ID,就是人工智能在图像识别上最成熟的应用。

这一波其实主要依托于深度学习和深度神经网络,而这正基于算法的发展以及计算力的发展。构建人工智能服务,通常需要大数据收集与处理、AI模型训练、AI模型在线服务三个步骤。大数据的收集与处理需要投入大量计算、存储和网络资源,AI模型训练则需要足够的计算能力,AI模型在线服务是面向终端用户的环节,不仅对计算资源的数量有一定要求,同时对运维、管理等诸多方面都提出了非常高的要求。

“算法需要强大的计算能力做支撑,这几年云计算和芯片的发展给计算能力提供很好的支持,所以人工智能的落地比较容易。”叶理灯说,人工智能要想在更多的场景中实现落地,更少不了的是通过标准化的架构或产品,将人工智能机器学习的门槛降低。比如,谷歌的TensorFlow架构。

在人工智能如火如荼的今天,很多初创企业都选择以AI为契机开拓市场,传统企业也希望借助AI之力实现转型或升级,AI系统的设计、部署和运维都需要巨大、多维度的投入,高效部署AI能力成为摆在众多企业面前的难题。

能否让用户像使用云主机、云存储这些成熟的云产品一样使用AI在线服务?为此,UCloud推出的文曲-人工智能解决方案提供面向AI在线Inference服务的大规模分布式计算平台。通过与英特尔的紧密技术合作,UAI-Inference利用云主机中英特尔至强处理器产品家族的空闲处理能力,将其英特尔AVX能力用于支持和加速AI在线服务;另一方面,利用该处理器产品家族强大的可扩展性进行弹性部署,用低成本获得高性能,降低用户的TCO。

叶理灯表示:“人工智能只是一门技术,不是一个行业。人工智能要落地,就一定要跟行业结合起来,渗透到行业里面去,这才是人工智能的价值所在。”

然而,AI要渗透到行业里,却受阻于每个行业的IT水平参差不齐,应该怎样实现落地的问题。这时,云计算是辅助AI落地的“加速器”,各个行业的计算能力、算法、数据能力都可以通过云计算进行补齐,因为云计算厂商在这些方面都已经很成熟。

在实际任务部署中,UAI-Inference为用户提供了“两步走”的部署模式。首先,向用户提供SDK工具包,内含接口代码框架、代码和数据打包模板以及第三方依赖库描述模板。用户只需根据SDK工具包内的代码框架编写接口代码,准备好相关代码和AI模型以及第三方库列表,就可以通过打包工具一键完成任务的在线部署。

“UCloud是中立的平台,下不碰数据,上不碰应用,因此与做AI应用的公司是没有竞争的。我们专门做了一些更加易用的平台,帮助传统产业减少在AI建设方面的成本。除了云计算的数据处理之外,还有 AI 训练、模型推理等功能辅助AI落地。”叶理灯补充道,“此外,UCloud还会在平台上引入AI算法公司,一起为客户打造AI解决方案。”

叶理灯还介绍,在传统的AI框架以外,UAI-Inference还与英特尔一起,引入了性能更佳的AI框架:面向英特尔架构优化的Caffe框架。这一版本的Caffe框架与传统AI框架相比,针对英特尔硬件平台做了深度优化,在保证兼容性的前提下,极大地提高了性能,同时集成最新版本的英特尔数学核心函数库2017,更高效地利用英特尔AVX-512的处理能力,性能显著提升。

文章评论

关注作者的人