-
transformers로 model loading 할 때 gpu vram이 model size 보다 큰데 cuda memory out이 발생할 경우AI 2024. 6. 29. 12:20
AutoModelForCausalLM.from_pretrained('../Meta-Llama-3-8B-Instruct', torch_dtype=torch.bfloat16).to(device)
이렇게 datatype을 직접 지정해 주자. meta-llama-3-8b-instruct 모델의 경우 기본 타입이 bfloat16 이다.
'AI' 카테고리의 다른 글
앞으로 한 동안 추론용 AI 반도체(NPU)가 중요한 이유 (openai의 시각으로 본) (0) 2024.07.05 ubuntu에서 그래픽카드 사용 상황 보는 법 (0) 2024.06.29 우분투에서 anaconda init 후에 자동 activate 막는 법 (0) 2024.06.29 파이썬 버전 여러 개 사용하는 방법 (0) 2024.06.24 isaac sim ddpg solution of cartpole problem (14) 2024.04.16