Ollama 사용법 가이드: 로컬에서 LLM 모델 쉽게 실행하는 방법

2025.06.18
LLM
#Ollama#로컬 LLM#Mistral#LLM 실행#LLM 가이드

🚀 Ollama를 왜 써야 할까요?

그동안 ChatGPT 같은 대규모 언어 모델들이 AI의 주류를 이끌었지만, 이제는 개인 사용자가 직접 로컬 환경에서 다룰 수 있는 소형 언어 모델(SLM) 의 시대가 열렸습니다. 이러한 변화의 중심에 바로 Ollama라는 강력한 AI 도구가 있습니다.


1. Ollama란?

Ollama는 클라우드 환경에 의존하지 않고, 사용자의 로컬 컴퓨터에서 직접 다양한 최신 언어 모델을 실행할 수 있도록 도와주는 혁신적인 도구입니다. 대표적으로 Gemma3, Llama4, deepseek-r1, qwen3, magistral 등의 인기 있는 오픈소스 모델들을 지원하며, 복잡한 설정 없이 빠르고 쉽게 활용할 수 있습니다. 또한 직관적인 API와 풍부한 모델 라이브러리를 제공해 개발자나 연구자, 데이터 과학자들이 손쉽게 자신들의 프로젝트에 통합할 수 있도록 도와줍니다.


2. Ollama가 제공하는 다양한 장점

  • 안전한 로컬 환경 : 클라우드 서버 없이 개인의 로컬 컴퓨터에서 실행하기 때문에, 사용자의 데이터가 외부로 전송되지 않아 보안이 더욱 강화됩니다.
  • 다양한 최신 모델 지원 : Gemma 3, Llama 4, DeepSeek R1, Qwen 3, Magistral 등 인기 있고 최신의 오픈소스 모델을 사용할 수 있어 폭넓은 AI 활용이 가능합니다.
  • 저사양 환경에서도 가볍게 : 양자화(Quantization) 기술을 지원하여, 고사양의 하드웨어가 없더라도 빠르고 가볍게 모델을 실행할 수 있습니다.
  • 쉽고 편리한 커스터마이징 : 사용자 자신의 필요에 따라 모델을 손쉽게 수정하고 튜닝하여, 원하는 형태로 자유롭게 배포할 수 있습니다.
  • 초보자도 쉽게 접근 가능 : 간단한 명령어와 직관적인 인터페이스로 구성되어 있어, 처음 사용하는 사람이라도 빠르게 적응하여 활용할 수 있습니다.
  • 멀티 OS 지원 : macOS, Windows, Linux 등 다양한 운영체제에서 안정적으로 작동해 어떤 사용자 환경에서도 유연하게 사용할 수 있습니다.

3. 운영체제별 Ollama 설치 방법

Ollama는 macOS, Linux, Windows 등 다양한 운영체제에서 사용할 수 있으며, 각 환경에 맞는 설치 파일을 제공합니다.
공식 사이트에서 운영체제에 맞는 파일을 다운로드한 후, 간단한 절차를 따라 설치할 수 있습니다.

Ollama 실행 예시

출처: Ollama 다운로드 페이지 (클릭시 페이지 이동)

🖥️ MacOS 설치 확인

macOS용 설치 파일을 다운로드한 후 설치를 완료했다면, 다음 단계로 정상적으로 설치되었는지 확인할 수 있습니다.

  1. Command (⌘) + Space 키를 눌러 터미널을 실행합니다.
  2. 아래 명령어를 입력합니다.
ollama --version

정상적으로 설치가 되었다면, Ollama 버전이 출력됩니다.

🐧 Linux 설치 확인

Linux 사용자는 설치 스크립트를 통해 Ollama를 설치할 수 있으며, 설치가 완료되면 아래와 같은 방식으로 정상적으로 설치되었는지 확인할 수 있습니다.

터미널을 열고 아래 명령어를 입력하여 Ollama를 설치합니다.

curl -fsSL https://ollama.com/install.sh | sh

설치가 완료되면, 아래 명령어로 설치 상태를 확인합니다.

ollama --version

정상적으로 설치되었다면, Ollama의 버전 정보가 출력됩니다.

🪟 Windows 설치 확인

Windows용 설치 파일을 다운로드한 후 설치를 완료했다면, 명령 프롬프트(CMD) 또는 PowerShell을 통해 정상적으로 설치되었는지 확인할 수 있습니다.

  1. Windows 키를 누르고 "cmd" 또는 "PowerShell" 을 입력한 후 실행합니다.
  2. 아래 명령어를 입력합니다.
ollama --version

정상적으로 설치되었다면, Ollama의 버전 정보가 출력됩니다.


4. 로컬 실행 예시 (Magistral 모델 설치 및 실행)

Ollama를 활용해 로컬 환경에서 AI 모델을 실행하는 방법을 안내드립니다. Ollama 설치가 완료되었다면, 아래 절차에 따라 모델을 쉽게 실행할 수 있습니다.

이번 예시에서는 Windows 환경에서, Mistral이 오픈소스로 공개한 magistral-small 모델을 실행해보겠습니다.

🔧 실행 순서

  1. 명령 프롬프트(cmd) 또는 Windows PowerShell을 실행합니다.
  2. ollama list 명령어를 입력해 설치된 모델 목록을 확인합니다. (처음 실행이라면 이 단계는 생략해도 됩니다.)
  3. ollama run magistral 명령어를 입력하면 모델이 자동으로 다운로드되고 실행됩니다.
magistral 모델 실행 예시1 magistral 모델 실행 예시2

모델이 실행되면 프롬프트 형태로 입력을 받을 수 있습니다. 아래는 "서울에 대해 설명해줘" 라는 질문을 입력하고, 모델의 응답을 확인한 예시입니다.

magistral 모델 실행 예시3 magistral 모델 실행 예시4

5. 주요 명령어

명령설명
ollama serveOllama 서버 시작
ollama pull [model]모델 설치
ollama run [model]설치된 모델 실행
ollama list설치된 모델 목록 출력
ollama rm [model]특정 모델 삭제
/bye [model]모델 실행 종료
/show info실행 중인 모델 정보 표시
/load, /save모델 불러오기 / 저장
ollama create [model]사용자 정의 모델 생성 (Modelfile 기반)
ollama show [model]모델 메타 정보 확인 (Modelfile 포함)
ollama push [model]사용자 정의 모델을 레지스트리에 업로드
ollama pull [model]:tag특정 태그 버전의 모델 다운로드
ollama run [model] --system시스템 프롬프트를 지정해 모델 실행
ollama run [model] < file외부 파일 내용을 입력으로 실행

※🛠️ 시스템 명령어 (보조 도구)

명령설명
netstat -an | grep 11434Ollama 서버 포트 사용 여부 확인
lsof -i :11434Ollama 포트 사용 중인 프로세스 확인
ps aux | grep ollamaOllama 관련 실행 중 프로세스 확인
kill -9 [PID]Ollama 서버 강제 종료

🎯 마무리

Ollama는 로컬 환경에서 AI 모델을 손쉽게 실행할 수 있도록 도와주는 도구입니다. 클라우드 없이 소형 언어 모델(SLM) 을 직접 실행해보고 싶은 분들께 특히 적합합니다.

복잡한 설정 없이 간단한 명령어만으로 모델을 불러와 실행할 수 있어, 개발자나 연구자에게 실용적인 솔루션이 될 수 있습니다. 오픈소스 모델을 테스트하거나 가볍게 활용해보고 싶은 분들, 또는 개인정보 유출을 우려해 클라우드가 아닌 로컬 환경에서 AI를 다루고 싶은 분들께 추천드립니다.

더 다양한 모델과 기능은 Ollama GitHub 저장소에서 확인할 수 있습니다.


🔗 관련 링크

작성자 : AIMIZING.