Tech Info Log

🚀 DeepSeek 로컬 설치 가이드: AI 모델 실행부터 최적의 하드웨어 설정까지!

TechLogbook 2025. 2. 3. 12:32

DeepSeek 로컬 설치 방법 및 하드웨어 요구사항

1. DeepSeek 소개

DeepSeek은 오픈소스 AI 언어 모델로, 로컬 환경에서 실행하여 개인 정보 보호와 성능 향상을 도모할 수 있습니다. 이를 활용하면 인터넷 연결 없이도 AI 모델을 운영할 수 있어 보안성이 높아지고 응답 속도가 빨라집니다.

이 글에서는 Windows 환경에서 DeepSeek-R1 모델을 설치하고 실행하는 방법각 버전별 하드웨어 최소 요구사항을 정리해보겠습니다.


2. Ollama 설치

DeepSeek을 로컬에서 실행하기 위해서는 Ollama가 필요합니다. Ollama는 대형 언어 모델을 로컬 환경에서 쉽게 실행할 수 있도록 지원하는 오픈소스 도구입니다.

Ollama 설치 방법

  1. Ollama 공식 웹사이트에서 최신 버전을 다운로드합니다.
  2. 다운로드한 설치 파일을 실행하여 설치를 진행합니다.
  3. 설치가 완료되면 명령 프롬프트(cmd)에서 다음 명령어를 입력하여 설치 여부를 확인합니다.
  4. ollama -v

3. DeepSeek 모델 다운로드 및 설치

DeepSeek은 여러 크기의 모델을 제공하며, 하드웨어 성능에 따라 적절한 모델을 선택할 수 있습니다.

모델 다운로드

터미널 또는 명령 프롬프트에서 다음 명령어를 실행하여 원하는 모델을 다운로드합니다.

ollama run deepseek-r1:7b

💡 참고: 처음 실행 시 자동으로 모델을 다운로드하며, 인터넷 속도에 따라 5~10분 정도 소요될 수 있습니다.


4. DeepSeek 버전별 모델 및 하드웨어 최소 요구사항

DeepSeek은 다양한 크기의 모델을 제공하며, 사용자의 하드웨어 사양과 필요에 맞게 선택할 수 있습니다. 아래는 각 모델 버전과 해당 하드웨어 최소 요구사항을 정리한 표입니다.

🖥️ DeepSeek 모델별 하드웨어 요구사항

모델 버전 파라미터 수 최소 RAM 최소 GPU 메모리
7B 7 billion 16GB 8GB
13B 13 billion 32GB 16GB
30B 30 billion 64GB 24GB
65B 65 billion 128GB 40GB

💡 주의사항:

  • RAM: 모델을 실행하기 위해 필요한 시스템 메모리입니다.
  • GPU 메모리: 모델의 효율적인 처리를 위해 필요한 그래픽 카드 메모리입니다.
  • CPU만으로도 실행 가능하지만, 성능 저하가 발생할 수 있으므로 GPU 사용을 권장합니다.

5. DeepSeek 실행 방법

모델 설치 후, 다음 명령어로 DeepSeek을 실행할 수 있습니다.

ollama run deepseek-r1:7b

🔹 대화 시작하기

실행하면 >>> 프롬프트가 나타납니다. 원하는 질문을 입력하면 AI가 응답합니다.

>>> DeepSeek, 오늘 날씨 어때?

🔹 대화 종료하기

세션을 종료하려면 /bye 또는 Ctrl + C를 입력하세요.


6. 추가 도구: GUI 환경에서 DeepSeek 사용하기

터미널 환경이 익숙하지 않다면, Chatbox AI와 같은 GUI 도구를 활용할 수 있습니다.

Chatbox AI 설치 방법

  1. Chatbox AI 공식 웹사이트에서 설치 파일을 다운로드합니다.
  2. 설치 후, ‘로컬 모델 사용’ 옵션을 선택하고 Ollama API를 설정합니다.
  3. 실행할 DeepSeek 모델(deepseek-r1:7b)을 선택한 후 대화를 시작합니다.

💡 GUI 환경을 사용하면 더 직관적으로 DeepSeek을 활용할 수 있습니다!


7. 최적의 성능을 위한 팁

  • 로컬 환경 최적화:
    GPU 가속이 가능한 경우, CUDA 드라이버를 설치하여 성능을 향상시키세요.
    (NVIDIA GPU 사용 시 CUDA 설치 가이드 참고)
  • 추가 모델 설치:
    다양한 모델을 실험하고 싶다면 Ollama에서 다음 명령어를 사용하세요.
  • ollama pull deepseek-r1:13b
  • 디스크 공간 확보:
    모델 크기가 크므로 충분한 저장 공간을 확보하세요. (7B 모델 ≈ 4.7GB)

8. 결론

이제 DeepSeek을 로컬 환경에서 실행할 수 있습니다!
필요한 모델을 선택하고 Ollama를 활용하여 AI 성능을 극대화해 보세요.
더 많은 정보를 원하시면 DeepSeek 공식 사이트 및 Ollama 공식 문서를 참고하세요.

🚀 DeepSeek을 활용하여 나만의 AI 어시스턴트를 구축해 보세요!