凭借着在GPU领域的深耕,NVIDIA在深度学习和人工智能领域推出了诸多产品,各类超级计算平台和数据处理加速器赫然在列,而Jetson平台便是NVIDIA诸多此类产品中的一员。
被寄予厚望的TX2
据了解,Jetson平台此前已有TK1和TX1两代产品,而且还积累了诸多客户以及应用案例,其中包括思科的电视电话会议系统(人脸识别、智能识别)、法拉赫的工厂自动化(零部件的分拣)、丰田的服务类机器人等。而在国内,也不乏Jetson平台的使用者,其中比较知名的有安防领域的企业海康威视,其摄像头产品中便采用了TX1,此外,京东的送货无人车也是TX1的客户。可见,终端人工智能已经深入到了人类日常生活的诸多方面。
另据NVIDIA官方介绍,TX2所提供的性能是之前版本的2倍,也就是说能够以2倍以上的功效运行,且功率低于7.5瓦。这样的性能可让TX2在终端应用上运行更庞大、更深度的神经网络,让终端设备更加智能化,同时在执行图像分类、导航和语音识别等任务时在更短的时间内达到更高的精度。
正因为TX2的性能提升,目前Jetson的很多客户都在进行平台迁移。李铭表示,目前TX2在向上以及向下兼容两方面都做得比较好,所以以往使用TX1的用户转移到TX2上完全没有转移成本。
为了让这款产品更加具有说服力,NVIDIA官方在TX2发布一个多月后,再一次举办了一场产品解读活动,详解了一些Demo,还特地请来了TX2的代表性客户海康威视的相关负责人以及资深技术专家分享其与Jetson平台结缘的故事以及其在技术上的考量。
具体怎么做?李铭展示了两段视频Demo。
整个数据处理过程遵循:视频流输入-视频解码-使用人工智能的手段识别目标(如车牌、人脸等)并框选-编码、完成本地处理-存储到云端或者显示在监控屏幕上。
李铭表示,以上“AI City”相关Demo的源代码和Pipeline都会打包到Jetpack 3.0中供使用者参考。
此次,NVIDIA请来了海康威视研究院高性能计算部总监王鹏和以及资深技术专家蒋超为Jetson TX2站台。
王鹏表示,此前选择与NVIDIA合作的原因就是看中其在GPU以及深度学习方面能力,而且这些年NVIDIA在这方面的能力提升也非常迅猛。
而在实际效果上,王鹏称,采用了NVIDIA的一套技术解决方案后,“我们引以为傲的产品——1U智能处理服务器“刀锋”的计算性能达到了16T,在1U的空间里它的功耗只有300瓦。而通用的服务器要达到14T左右的性能,它的功耗要达到8000瓦以上……”。所以无论从空间还是电力方面,采用这种高性能芯片,对海康威视整个后端部署的成本实施都有非常大的好处。
资深技术专家蒋超则将自家的室内机器人带到了现场。在他看来,当一个机器人进入家庭或者商用场合时,它必须解决的一个问题是“怎么样走路”。这个问题又衍生出三个核心子问题:机器人是否知道自身所处的空间位置?机器人是否知道路在哪里?机器人能否接收使用者的指令?
最终,当机器人走起来之后,各类传感器会产生相关信息,还有控制指令不断发送给机器人,意味着将形成一个非常复杂的操控网络。在真实的商业场景中,机器人必须当下就能工作。
因此这些复杂的计算必须在终端上完成,“我们必须在端上、离用户最近的地方解决问题,所以我们就需要非常强大的计算平台”,蒋超说。
蒋超还提到,TX2能够支持其产品研发的不仅仅是硬件本身,还有非常好的软件——VisionWorks(包含在Jetpack 3.0当中),该软件其实是在OpenVX这个标准上实现了很多机器视觉的底层操作,还提供编程框架,“我们可以用这些东西去进行快速开发。”
此外,TX2还可以用在SLAM的后端优化上,因为在CPU上运行的一些优化工具,性能会有非常大的限制。