0%

PyTorch 可以通过 torch.nn.DataParallel 直接切分数据并行在单机多卡上,实践证明这个接口并行力度并不尽如人意,主要问题在于数据在 master 上处理然后下发到其他 slaver 上训练,而且由于 GIL 的存在只有计算是并行的。torch.distributed 提供了更好的接口和并行方式,搭配多进程接口 torch.multiprocessing 可以提供更加高效的并行训练。

阅读全文 »

win10 已经使用的越来越顺手,而且越发喜爱在 win10 上工作了,随手记录一下一些使用的体验和配置。

阅读全文 »

ResNet 算是深度学习里程碑之作了,我平时接触也比较多,写一篇文章做一些记录总结。

阅读全文 »

C/C++ 编程中常见的一个概念是内存对齐,这里的对齐简单来讲就是分配的内存地址的起始位置是某个数字的倍数。

阅读全文 »

贝叶斯定理的理解对于概率计算是非常重要,而且日常使用非常常见。

阅读全文 »