ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • llama-cpp-python 설치
    카테고리 없음 2025. 2. 10. 12:43

     

     

     

     

    llama-cpp-python은 pip로 install 과정에는 cmake와 visual studio build tools나 mingw로 바이너리를 빌드하는 과정이 있다.

    따라서 빌드를 위한 환경설정에 유의해서 설치해야 한다.

     

    설치 과정

    1. visual studio 설치를 켜고, c++를 사용한 데스크톱 개발에 들어가서 각종 빌드 도구들을 설치해 준다.

     

    2. cuda를 설치한다. cuda를 설치할 때 지원하는 cuda 버전을 확인해야 한다.

     

    2. set "CMAKE_ARGS=-DGGML_CUDA=on" 를 터미널에 입력해서, cuda를 사용하겠다고 명시한다.

     

    3. pip install --upgrade --force-reinstall --no-cache-dir llama-cpp-python 를 실행한다.

    다음과 같이 pre-built wheel을 통한 설치를 진행할 수도 있다.

    pip install llama-cpp-python --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cu124 --upgrade --force-reinstall --no-cache-dir

     

    만약 OSError, 잘 못된 memory 주소 참조 같은 에러가 뜬다면, python 버전을 3.11로 바꿔보길 바란다.
    분명 공식 홈페이지에는 3.12로 잘 된다고 적혀 있지만, 잘 안되는 경우가 있다.

     

    댓글

Designed by Tistory.