多GPU之上的并行化 从工程方面,Facebook一直努力实现在多GPU上并行训练神经网络模型的能力。Facebook致力于最小化并行的开销,同时也使研究人员极易使用,通过数据并行和模型并行模块(fbcunn的一部分)。当研究人员把它们的模型推到这些易于使用的容器,代码自动调度模型在多个GPU上最大化加速。Facebook使用多GPU在ImageNet上训练一个ConvNet的一个例子已经展示了这一点。 fbcunn是什么 这个库包含Facebook用于GPU的高度工程化深度学习模块,以加快深度学习的速度。它插入到Torch7的框架之中,通过luarocks无缝安装,并且与Torch的NN封装完全兼容。 总体来说,Facebook发布了用于Convnets和一般神经网络的快速NN模块:
示例:
fbcunn如何使用
m = nn.DataParallel():add(nn.SpatialConvolution(...)):add(nn.ReLU())-- see, so simple<br>
<p>CONV= nn.SpatialConvolutionCuFFT(...)-- fast spatial convolutions!</p><p>CONV= nn.TemporalConvolutionFB(...)-- fast temporal convolutions!</p>
编后语 极客们说,人工智能是世界的未来,深度学习算法是让机器拥有智能的最佳途径。我们看到,从的相册处理到无人驾驶汽车,深度学习的模型已经在逐步应用。尽管目前的技术成果距离S.W.Hawking和Elon Musk所担忧的“机器政变”还非常遥远,但在硬件加速技术的支撑和开源社区的贡献之下,深度学习算法的普及应用门槛确实大大降低,模式识别、NLP变得更加简单,我们没有理由不加以学习和利用。 因此,2015年,人工智能也将成为CSDN的一大重点内容,我们致力于为大家提供最新鲜、最实用的干货,服务于大家的工作和生活。人工智能最新动态,敬请留意CSDN 官网、CSDN人工智能社区、CSDN云计算微博和CSDN大数据微信的更新。此外,如果您有好的内容、好的意见和建议可以提供,欢迎致邮:zhoujd at csdn dot net。 |