複数のGPUを用いたDeep Learning メモリ不足の回避方法
10 views (last 30 days)
Show older comments
深層学習を使用した脳腫瘍の 3 次元セグメンテーション をmatlab2020bで動作確認しております。
GPUを2つ積んでいるのでtrainingOptionsの'ExecutionEnvironment'を'multi-gpu'変更しプログラムを動作させると、メモリ不足でエラーがでます。'MiniBatchSize'を8から2に変更すると動作しますが警告文でメモリ不足で動作が遅くなる可能性があるとでます。
'MiniBatchSize'の変更以外にこの問題を解消する方法はありますか?
環境
os:Windows10pro
メモリ:64GB
プロセッサ:Core i9
GPU:GeForce RTX 2070 SUPER
NVIDIAドライバー:バージョン11
0 Comments
Accepted Answer
Kenta
on 25 Sep 2020
こんにちは、patchSize = [132 132 132];のところのパッチサイズを小さくすることがあげられます。また、Unetの層の深さを変えることでもメモリの消費を抑えられます。十分にシンプルな課題であれば層を浅くすると計算時間の短縮や過学習の抑制(場合による)も期待できます。
0 Comments
More Answers (0)
See Also
Categories
Find more on 並列およびクラウドでの深層学習 in Help Center and File Exchange
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!