위와 같이 아래와 같이 TensorFlow를 공용 GPU에서 사용 할 때 메모리 절약 방법
절대적 메모리 uppeor bound 설정
tf.Session
생성 할 때 GPU memory allocation을 지정할 수 있다. 이것을 위해서 tf.GPUOptions
에 config
부분을 아래와 같이 활용 한다.# Assume that you have 12GB of GPU memory and want to allocate ~4GB:
gpu_options = tf.GPUOptions(per_process_gpu_memory_fraction=0.333)
sess = tf.Session(config=tf.ConfigProto(gpu_options=gpu_options))
per_process_gpu_memory_fraction=0.333
으로 설정된 것은 strict하게 upper bound on the amount of GPU memory를 설정한 것이다.탄력적으로 GPU memory 사용 방법
allow_growth
를 True
로 설정하면 필요에 따라 탄력적으로 memory
를 사용하게 된다.config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config, ...)
'AI > TensorFlow, PyTorch, Keras, Scikit' 카테고리의 다른 글
윈도우 GPU tensorflow 설치 및 그래픽카드별 성능 비교 (55) | 2019.05.03 |
---|---|
Jupyter에 conda env. 추가하기 (0) | 2018.08.05 |
TensorFlow GPU 버전 우분투 16.04에 설치 하기 (10) | 2018.07.31 |
Pycharm으로 TensorFlow 원격 빌드하기 (7) | 2018.04.25 |
학습 모델의 재사용 (Transfer Learning) (0) | 2017.12.09 |