在于北京召开的《麻省理工科技评论》新兴科技峰会EmTech China上,作为亚马逊旗下最赚钱云服务部门 AWS 的核心人物,亚马逊AWS首席科学家Animashree Anandkumar解读我们该如何研究和量化机器学习。

深度学习需要经过多层甚至数百层的处理过程,机器学习也会在不同的GPU,进行跨机器、跨设备处理,这就需要网络技术。

而多域模型能够帮助我们同时处理科学、工程,各种领域方面的应用。亚马逊就一直致力于寻求机器学习多域模型的解决方案,以及多领域的应用如何能够在云上进行计算。

那么亚马逊是如何运作当前的深度学习模式呢?以下为镁客网整理分享的Animashree Anandkumar现场演讲内容:

深度学习有很广泛的运用领域,我们有一些专门的项目会应用到不同的硬件基础设施中。Mxnet就是其中的一个深度学习引擎,这个项目首先由大学里的研究员开发,现在我们正在AWS开发这个引擎。

这个引擎的优点是显而易见的。它建立了一个网络,让编程过程、表述、特征描述、风格都非常灵活、方便,提高了程序员的效率。同时也提供了很好的语言支持,且前后端自动对接,提高了编程的效率。

这个网络有一些固定的数据,相互连接的层级会在输入和输出之间进行连接。在计算顺序方面,他们有一定的序列关系,我们制定了图表来自动进行平行的对比。它还实现了记忆进行自动化,这样在代码运算时也提高了效率。

我们也用多GPU的训练提升效率。一个机器上面会有多个GPU进行数据并行化,可以同时获得大量的数据。中央数据是来自于不同CPU等级上面的网络,数据不断地向下划分,进入各个GPU。

GPU需要进行处理时发现了相似的内容就会进行整合,也增加了我们的效率。GPU可以在Mxnet上面整合运算结果,这样成本也比较低。同时我们也提升了Mxnet的性能。增加了GPU以后,整个输入输出效率也会翻番。这是在AWS基建上运行的,包括B2X和B22X。

所有的服务里面, Mxent的效率最高,达到了91%,包括Resnet和Inception v3和Alexnet。这是有多个GPU的单一基体。在多基体上每一个机器都有16个GPU,组合到一起后,所有的数据经过网络就会影响效率。但我们的效率并没有降低很多,因为Mxnet的打造非常紧密,可以提升效率。所以我们可以进行这种分布式的多机器的训练。这

些现在也可以应用于一些情景的运行以及我们多GPU和CPU的框架之中。我们也希望可以提供这样的技术给我们的消费者,让他们知道我们分布式的训练有非常好的技术包裹,可以帮助我们进行网络压缩以及网络解压,提供好的技术服务。

所有的这些框架,都可以应用于我们的机器学习平台CHMaker。这是多机器学习的一个平台,所有的分布式深度学习框架都可以在这个平台上进行运行,比如说TensorFlow、Mxnet。我们的平台除MxNet之外可以支持所有的框架,我们希望可以给我们的用户更多灵活的选择。

除此之外,DeepLens也是我们最近发布的第一款深度学习的摄像头,可以提供很多的服务,比如语言、语句、计算机视觉等。使用者不需要培训自己的学习模型,完全可以使用我们的服务。我们整个系统都具有很多的解决方案。