複数のGPUを用いたDeep Learning メモリ不足の回避方法

10 views (last 30 days)
Takafumi Shiino
Takafumi Shiino on 25 Sep 2020
Answered: Kenta on 25 Sep 2020
深層学習を使用した脳腫瘍の 3 次元セグメンテーション をmatlab2020bで動作確認しております。
GPUを2つ積んでいるのでtrainingOptionsの'ExecutionEnvironment'を'multi-gpu'変更しプログラムを動作させると、メモリ不足でエラーがでます。'MiniBatchSize'を8から2に変更すると動作しますが警告文でメモリ不足で動作が遅くなる可能性があるとでます。
'MiniBatchSize'の変更以外にこの問題を解消する方法はありますか?
環境
os:Windows10pro
メモリ:64GB
プロセッサ:Core i9
GPU:GeForce RTX 2070 SUPER
NVIDIAドライバー:バージョン11

Accepted Answer

Kenta
Kenta on 25 Sep 2020
こんにちは、patchSize = [132 132 132];のところのパッチサイズを小さくすることがあげられます。また、Unetの層の深さを変えることでもメモリの消費を抑えられます。十分にシンプルな課題であれば層を浅くすると計算時間の短縮や過学習の抑制(場合による)も期待できます。

More Answers (0)

Categories

Find more on 並列およびクラウドでの深層学習 in Help Center and File Exchange

Community Treasure Hunt

Find the treasures in MATLAB Central and discover how the community can help you!

Start Hunting!