728x90
한 번에 처리해야하는 메모리가 커서 발생하는 에러로 batch size를 줄이거나 캐시를 지워주면 된다.
import torch, gc
gc.collect()
torch.cuda.empty_cache()
batch_size = 1000 -> 64
728x90
한 번에 처리해야하는 메모리가 커서 발생하는 에러로 batch size를 줄이거나 캐시를 지워주면 된다.
import torch, gc
gc.collect()
torch.cuda.empty_cache()
batch_size = 1000 -> 64