728x90
실제로 CPU만 사용하고 "fork" 대신 "spawn"을 사용하거나 num_work가 0이 아닐 때 생기는 에러이다.
https://github.com/pytorch/pytorch/issues/5301
self.dataloader = DataLoader(
dataset=self.dataset,
batch_size=self.batchsize,
shuffle=True,
num_workers=self.num_workers,
generator=torch.Generator(device='cuda')
)
num_workers를 0으로 바꿔주니 해결됐다
728x90