新聞中心
本文經(jīng)AI新媒體量子位(公眾號(hào)ID:QbitAI)授權(quán)轉(zhuǎn)載,轉(zhuǎn)載請(qǐng)聯(lián)系出處。

1.8版本中,官方終于加入了對(duì)AMD ROCm的支持,可以方便的在原生環(huán)境下運(yùn)行,不用去配置Docker了。
AMD ROCm只支持Linux操作系統(tǒng)
1.8版本集合了自2020年10月1.7發(fā)布以來(lái)的超過(guò)3000次GitHub提交。
此外,本次更新還有諸多亮點(diǎn):
- 優(yōu)化代碼,更新編譯器
- Python內(nèi)函數(shù)轉(zhuǎn)換
- 增強(qiáng)分布式訓(xùn)練
- 新的移動(dòng)端教程與演示
- 新的性能檢測(cè)工具
相關(guān)的庫(kù)TorchCSPRNG, TorchVision, TorchText和TorchAudio也會(huì)隨之更新。
要注意的是,自1.6起,Pytorch新特性將分為Stable、Beta、Prototype三種版本。其中Prototype不會(huì)包含到穩(wěn)定發(fā)行版中,需要從Nightly版本自行編譯。
Python to Python函數(shù)轉(zhuǎn)換
新增的Beta特性torch.fx可以實(shí)現(xiàn)Python到Python的函數(shù)轉(zhuǎn)換,可以方便的加入任何工作流程。
新的API,向NumPy學(xué)習(xí)!
1.7版本中增加的Beta特性torch.fft已成為正式特性。實(shí)現(xiàn)了與Numpy中的np.fft類似的快速傅立葉變換,還增加了硬件加速支持與自動(dòng)求導(dǎo),以更好的支持科學(xué)計(jì)算。
還增加了Beta版NumPy風(fēng)格的線性代數(shù)模塊torch.linalg,支持Cholesky分解、行列式、特征值等功能。
增強(qiáng)分布式訓(xùn)練
增加了穩(wěn)定的異步錯(cuò)誤與超時(shí)處理,增加NCCL的可靠性。
增加了Beta版的流水線并行功能*(Pipeline Parallelism)*,可將數(shù)據(jù)拆解成更小的塊以提高并行計(jì)算效率。
Pipeline Parallelism使用4個(gè)GPU時(shí)的工作示意圖
增加Beta版的DDP通訊鉤子,用于控制如何在workers之間同步梯度。
另外還有一些Prototype版的分布式訓(xùn)練新特性。
ZeroRedundancyOptimizer:用于減少所有參與進(jìn)程的內(nèi)存占用。
Process Group NCCL Send/Recv:讓用戶可在Python而不是C++上進(jìn)行集合運(yùn)算。
CUDA-support in RPC using TensorPipe:增加對(duì)N卡多卡運(yùn)算的效率。
Remote Module:讓用戶像操作本地模塊一樣操作遠(yuǎn)程模塊。
移動(dòng)端新教程
隨本次更新發(fā)布了圖像分割模型DeepLabV3在安卓和IOS上的詳細(xì)教程。
以及圖像分割、目標(biāo)檢測(cè)、神經(jīng)機(jī)器翻譯等在安卓和IOS上的演示程序,方便大家更快上手。
另外還有PyTorch Mobile Lite Interpreter解釋器,可以減少運(yùn)行時(shí)文件的大小。
性能檢測(cè)工具
增加Beta版的Benchmark utils,用戶可以進(jìn)行精確的性能測(cè)試。
以及Prototype版的FX Graph Mode Quantization,實(shí)現(xiàn)了量化過(guò)程的自動(dòng)化。
網(wǎng)站欄目:PyTorch1.8正式支持AMD,煉丹不必NVIDIA
標(biāo)題網(wǎng)址:http://m.5511xx.com/article/dhoidsp.html


咨詢
建站咨詢
