Model Context Protocol(MCP)이란? 도구를 통해 LLM을 AI 에이전트로 만드는 기술

2025.06.29
MCP
#MCP#Model Context Protocol#AI 에이전트#AI 자동화#도구 통합#AI 기술 소개

Model Context Protocol(MCP)이란? 도구를 통해 LLM을 AI 에이전트로 만드는 기술


1. MCP 한눈에 보기

Model Context Protocol(MCP) 은 Anthropic이 2024년 11월 26일 공개한 오픈소스 표준 프로토콜입니다.
이 프로토콜의 목표는 LLM(예: Claude) 이 GitHub, Notion, Slack 같은 실제 업무 도구와 직접 통신할 수 있도록 하여, 일종의 “AI용 USB-C” 역할을 수행하게 만드는 것입니다.

핵심 키워드의미
JSON-RPC 2.0메시지 교환 형식·오류 처리·메서드 호출을 정의하는 경량 RPC 규격
ToolLLM이 실행할 수 있는 함수·API·명령 단위 (스키마·권한 포함)
Server외부 시스템과 Tools를 노출하는 MCP 엔드포인트
Client(LLM)Claude·GPT-4o처럼 Tools를 호출해 작업을 수행하는 언어모델

2. 왜 MCP가 필요할까요?

기존에는 LLM을 업무에 활용하려면 “파일 업로드 → 복사 → 붙여넣기”처럼 번거로운 수작업이 필요합니다. MCP는 이런 병목을 해소하고 “연동 한 번 = 모든 도구 사용” 이라는 효율적인 구조를 제공합니다.

  • 컨텍스트 유지 – 한 세션 내에서 여러 툴을 오가며 상태를 공유
  • 도구 다중화 – Slack → GitHub → Postgres로 이어지는 복합 워크플로 구축
  • 코드 중복 제거 – 각 시스템에 맞는 커넥터 대신 MCP 표준 하나면 충분

3. 프로토콜 동작 흐름 (예시)

이 예시는 LLM이 MCP를 통해 GitHub과 연결되어 직접 작업을 수행하는 과정을 보여줍니다.
예를 들어, LLM이 "브랜치를 만들어줘"라고 요청하면, 그 명령은 JSON-RPC 형식으로 MCP 서버에 전달됩니다. MCP 서버는 실제로 GitHub API를 호출해 브랜치를 생성하고, 그 결과(예: 브랜치 주소)를 다시 LLM에게 전달합니다.
이렇게 받은 결과는 LLM이 다음 대화나 이어지는 작업에 활용할 수 있습니다.

🔁 동작 단계 요약

  1. LLM이 Tool 호출을 JSON-RPC 요청으로 전송
  2. MCP 서버가 해당 Tool에 매핑된 외부 API 호출
  3. 결과를 JSON-RPC 응답으로 다시 LLM에게 전달
  4. LLM은 다음 대화나 연속 작업에서 결과(컨텍스트)를 활용

4. JSON-RPC 메시지 (예시)

JSON-RPC는 LLM과 MCP 서버가 서로 대화할 때 사용하는 정해진 형식의 메시지 방식입니다. 쉽게 말해, "컴퓨터끼리 약속된 형식으로 주고받는 편지"라고 생각하면 됩니다.

📨 요청

{
  "jsonrpc": "2.0",
  "id": "34f3d3",
  "method": "create_branch",
  "params": {
    "repo": "aimzing/mcp-demo",
    "base": "main",
    "new_branch": "feature/agent"
  }
}

📩 응답

{
  "jsonrpc": "2.0",
  "id": "34f3d3",
  "result": {
    "branch_url": "https://github.com/***/mcp-demo/"
  }
}


method: MCP 서버에 등록된 하나의 "도구"입니다. 현재 예시에서는 GitHub API의 브랜치 생성 작업을 수행합니다.
params: 선택한 도구(method)를 실행하기 위해 필요한 정보들을 담고 있습니다. 예시에서는 repo, base, new_branch 같은 항목이 포함되어 있으며, 이는 어떤 저장소에서, 어떤 브랜치를 기준으로, 어떤 이름의 새 브랜치를 만들지를 지정합니다.
id: 각 요청을 구분하기 위한 고유한 식별자입니다. MCP 서버와 LLM이 서로를 알아보는 수단입니다.
result: 요청이 성공적으로 처리되었을 경우, 그 결과가 이 항목에 담겨 전달됩니다. 위 예시에서는 새로 생성된 브랜치의 GitHub 주소가 전달됩니다. 요청 처리 중 오류가 발생한 경우에는 error 객체에 관련 정보가 포함되어 반환됩니다.


5. 실제 활용 시나리오

직무요청 예시결과
개발자"새 Release 노트를 마크다운으로 생성 후 PR 올려줘"GitHub API 호출 → release.md 커밋 및 PR 링크 생성
PM"노션의 이번 분기 OKR 페이지 요약해줘"Notion Blocks 읽기 → 요약 텍스트 반환
BizOps"지난달 Google Drive 계약서 PDF를 찾아 계약금 항목 추출해줘"Drive 검색 → PDF OCR → 금액 파싱 후 시트 업데이트

6. 생태계와 채택 현황

🧱 생태계 구성

영역세부 내용
개발 도구MCP Inspector, 다국어 SDK, Docker 템플릿
서버 서비스GitHub, Slack, PostgreSQL 등 20+ 서버 템플릿
온프레미스 인프라BNB Chain의 bnbchain-mcp 등 자체 MCP 서버
실전 통합 예시Smithery – 다양한 도구를 연결하는 GPT용 MCP 서버 허브

✅ 주요 채택 사례

  • Anthropic: MCP 사양 및 Python, TypeScript, Java, C# SDK 오픈소스 공개
  • Block / Apollo: 재무 및 의료 시스템에 MCP 기반 AI 에이전트 도입
  • Zed / Replit / Codeium / Sourcegraph: IDE 내 AI 보조 기능 통합
  • BNB Chain: 블록체인 쿼리 및 트랜잭션을 처리하는 전용 MCP 서버 제공
  • 오픈소스 커뮤니티: GitHub 및 Hugging Face에서 다양한 MCP 클라이언트/서버 구현 확산 중
  • 다양한 LLM 연동: Claude, GPT-4o, Gemini, qwen 등 주요 LLM과의 자연스러운 Tool 호출 연계 지원

7. 보안과 권한 관리

MCP는 LLM이 외부 시스템과 직접 상호작용하며 실제 명령을 실행할 수 있도록 해주는 강력한 구조입니다. 하지만 이와 같은 높은 실행 권한은 곧 보안 취약점의 진입점이 될 수 있기 때문에, MCP를 도입할 때는 반드시 철저한 보안 설계가 함께 이뤄져야 합니다.

위험 유형 (예시)대응 방안
Tool Injection화이트리스트 도구 제한, 입력 필터링
권한 탈취환경변수 보관, Vault 연동, 최소 권한 원칙 적용
데이터 유출보안 라벨, 접근 로그, 이상 행위 탐지 시스템 구축

2025년 4월 보안 보고서에서도 권한 모델토큰 수명 관리가 주요 취약점으로 지적되었습니다.
👉 Microsoft 보안 블로그에서 전체 보고서 보기


8. 앞으로의 전망

앞으로 MCP는 다양한 도구와 AI 모델을 하나의 표준 프로토콜로 연결함으로써 연동 작업을 훨씬 단순화할 수 있습니다. 이 덕분에 여러 시스템 간 호환성이 높아지고, OpenAI의 Function Calling이나 LangChain과 같은 다른 표준 기술들과 경쟁하거나 함께 활용될 가능성도 열려 있습니다.
또한, MCP를 통해 각 도구의 권한을 명확히 통제하고, 데이터 접근 범위를 제한함으로써 보안도 강화될 것입니다.
이미지, 음성, PDF처럼 다양한 형식의 데이터를 처리할 수 있도록 멀티모달 기능도 점점 확장되고 있으며, 기업 내부망에서도 GitLab, Jira 같은 도구들과 연동되어 DevOps 업무를 자동화하는 데 널리 사용될 것으로 기대됩니다.

MCP의 핵심은 “도구 정의 한 번 = 모든 LLM 에이전트에서 재사용” 가능하다는 점입니다.


마무리

MCP는 LLM이 실제 업무에 직접 관여할 수 있도록 돕는 핵심 인프라입니다. 파일 검색, 코드 수정, 데이터 갱신 등 복잡한 작업을 자동화하여 AI가 진정한 ‘일하는 도구’로 거듭나게 만듭니다.

AI 기반 워크플로 자동화, 사내 비서 시스템 등 실용적인 활용을 고민 중이라면 지금이 MCP를 도입해볼 적기입니다. 표준화 흐름은 이미 시작되었고, 초반 설정만 잘 넘기면 그 이후의 생산성은 눈에 띄게 향상될 것입니다.


MCP는 더 이상 반복적인 작업에 시간을 쏟지 않아도 되는 새로운 업무 패러다임을 만듭니다.
지금 바로 실험해보세요. 도구를 연결하고, LLM에게 맡기면 됩니다.
여러분의 워크플로우에 MCP를 더해, 더 빠르고 더 스마트한 AI 자동화를 경험해보세요.

작성자 : AIMIZING.