
시스템 엔지니어링의 비효율을 해결하는 AI 에이전트 Space Agent의 혁신적인 접근을 확인해보세요.
Resources > Insight Report > Webinar
2026.04.24
– Local LLM과 MCP 기반으로 IDE, Git Workflow, AI 협업이 연결되는 Agentic AI 개발 환경 구현 사례를 소개합니다.
최근 몇 년 사이 AI 코딩 도구는 빠르게 발전하고 있습니다. 코드를 생성하고, 오류를 수정하고, 문서를 요약하는 기능은 이제 전문가가 아니더라도 익숙하게 다룰 수 있는 수준이 됐습니다. 하지만 실제 기업 개발 환경에서 중요한 문제는 따로 있습니다. AI가 실제 저장소와 협업 체계 안으로 들어오기 시작했다는 점입니다.
AI를 잘 쓰는 개발자는 질문만 하지 않습니다. 소스코드와 설계 문서, 운영 설정, 테스트 결과까지 AI와 함께 다뤄야 합니다. 최근에는 AI Agent가 저장소를 탐색하고 필요한 파일을 직접 참조하며 작업 흐름을 이어가는 구조도 빠르게 확산되면서, AI는 이제 기업 내부 시스템 일부처럼 동작하고 있습니다.
초기 생성형 AI 도입은 대부분 외부 SaaS 기반 서비스에서 시작됐습니다. 빠르게 사용할 수 있고, 별도 인프라 없이 고성능 모델을 활용할 수 있었기 때문입니다. 하지만 실제 개발 조직에 적용하는 순간, 현실적인 문제가 드러납니다.
기업 개발 환경에는 소스코드, 인증 정보, 내부 문서, 운영 설정, 장애 로그 등 외부로 나가기 어려운 데이터가 많습니다. 최근 AI Agent 구조에서는 이러한 데이터가 더 넓은 범위로 연결됩니다. AI가 작업 수행을 위해 저장소를 읽고, 실행 결과를 참조하고, 여러 시스템을 연결하기 때문입니다.
이 과정에서 접근 제어와 실행 범위가 충분히 관리되지 않으면 내부 데이터가 외부 네트워크를 통해 전달될 가능성이 생깁니다. 특히 폐쇄망이나 Air-Gap 환경에서는 이런 구조 자체가 허용되지 않는 경우도 많습니다. 결국 기업 입장에서는 AI를 어디에서 실행하고 어떤 범위까지 접근하게 할 것인지가 더 중요해집니다.
Local LLM은 이런 문제를 줄이기 위한 가장 현실적인 선택지입니다. 기업 내부 인프라에서 모델을 직접 실행하면 데이터 흐름을 조직 안에서 통제할 수 있습니다. 또한 외부 AI 서비스로 코드와 문서가 전달되지 않도록 관리할 수 있고, 웹 접근이나 외부 연결 범위도 정책에 맞게 제한할 수 있습니다.
Local LLM을 실제 기업 환경에서 운영해보면 가장 먼저 부딪히는 문제는 운영입니다. 모델을 다운로드해 실행하는 것과 여러 팀이 동시에 사용하는 기업용 AI 환경은 전혀 다른 문제입니다. 응답 속도와 GPU 자원 관리, 다중 사용자 처리, 보안 정책, 운영 안정성까지 함께 고려해야 합니다.
이번 웨비나에서는 이러한 환경을 위한 Local LLM 운영 기반으로 Puteron AI를 소개했습니다. Puteron AI는 기업 내부에서 AI를 안정적으로 운영하기 위한 실행 환경으로, Fine-Tuning, RAG, LLM Serving, MCP 연결 같은 요소들을 하나의 흐름 안에서 관리할 수 있도록 설계되어 있습니다.
특히 추론 과정에서 발생하는 KV Cache 활용 구조를 통해 GPU 메모리 부담을 줄이고, 동일한 자원 환경에서도 보다 안정적으로 AI 서비스를 운영할 수 있는 방향을 제시합니다.
이번 웨비나에서 핵심적으로 다룬 부분은 MCP 기반 개발 워크플로우 연결입니다.
실제 개발은 코드 작성만이 아닌 이슈 생성, 브랜치 관리, 커밋, PR, 리뷰, 승인까지 이어지는 흐름 전체가 중요합니다. 문제는 대부분의 AI 도구가 IDE 내부에서만 동작해 개발 과정 전체와는 분리되어 있는 경우가 많다는 것입니다.
이번 세션에서는 CodeCenter IDE와 GitOn을 MCP로 연결해, IDE 안에서 진행하던 작업 흐름이 협업 시스템까지 자연스럽게 이어지는 구조를 소개했습니다. 개발자는 IDE 안에서 작업을 이어가면서 이슈와 연결된 코드 작업을 수행하고, 브랜치를 생성하고, 커밋과 PR 흐름까지 연결할 수 있습니다.
여기에 GitOn AI의 Lite Model과 AI User를 통해, 반복 작업을 줄이는 역할 기반 AI 협업을 시연했습니다.
예제 저장소에는 특정 기능이 정상적으로 동작하지 않는 문제가 있었고, 개발자는 CodeCenter IDE 안에서 자연어로 문제 상황을 입력했습니다. 이후 AI는 MCP를 통해 프로젝트 정보를 확인하고 GitOn에 관련 Issue를 생성했습니다. 작업은 생성된 Issue를 기준으로 Branch를 만들고, CodeCenter IDE 안에서 코드 구조를 분석한 뒤 수정 계획을 세우는 방식으로 이어졌습니다. (슬렉슨 웨비나 타임라인 22:18 ~)
전체적인 데모 흐름은 다음과 같습니다.
기존에는 개발, 이슈 관리, 코드 리뷰, 협업 과정이 서로 분리된 도구 안에서 따로 움직이는 경우가 많았다면, 이번 데모에서는 IDE 안에서 시작된 작업이 자연스럽게 Git 워크플로우와 연결됐습니다.
GitOn AI의 Lite Model은 무거운 추론 작업보다는 빠른 기능 보조에 초점이 맞춰져 있습니다. 실제 개발 환경에서는 복잡한 생성 작업보다 반복적인 탐색과 조회 업무가 훨씬 자주 발생합니다. 특정 함수 위치를 찾거나, 관련 심볼을 확인하거나, PR 설명을 정리하는 작업들입니다. Lite Model은 이런 과정을 단순화하는 데 집중합니다.
예를 들어 자연어 검색에서는 사용자가 일반 문장으로 의도를 입력하면 AI가 이를 GitOn 검색 문법으로 변환합니다. 별도의 쿼리 문법을 기억하지 않아도 원하는 코드나 변경 이력을 빠르게 찾을 수 있습니다.
GitOn AI는 심볼 검색 방식도 지원합니다.
기존 검색은 이름이 일치하는 결과를 나열하는 경우가 많지만, Lite Model은 현재 코드 문맥을 함께 분석합니다. 단순히 동일한 이름의 함수 목록을 보여주는 것이 아니라 지금 작업 중인 코드와 가장 관련성이 높은 심볼을 우선적으로 추천하는 방식입니다.
PR 제목과 설명 작성 역시 비슷한 흐름입니다. 변경 내용을 기반으로 반복적인 정리 작업을 줄이고, 협업 과정에서 필요한 기본 문서를 빠르게 구성할 수 있도록 돕습니다. 전체적으로 Lite Model은 강한 AI보다는, 개발자가 반복적으로 소비하는 시간을 줄이는 방향에 더 가깝다고 볼 수 있습니다.
일반적인 AI 기능이 하나의 범용 모델을 기반으로 동작한다면, AI User는 실제 조직 안의 역할처럼 분리해서 운영할 수 있는 형태입니다. 보안 리뷰 전용 AI, 성능 최적화 리뷰 AI, QA 리뷰 AI처럼 목적별 AI를 따로 구성할 수 있습니다. 각각 다른 시스템 프롬프트와 모델을 연결할 수 있기 때문에 동일한 질문이라도 역할에 따라 다른 기준으로 리뷰가 가능합니다.
예를 들어
Security Reviewer AI
→ 보안 취약점 중심 리뷰
Performance Reviewer AI
→ 성능 최적화 관점 리뷰
QA Reviewer AI
→ 테스트 누락과 예외 케이스 검토
AI User마다 서로 다른 시스템 프롬프트와 모델을 연결할 수 있기 때문에, 하나의 범용 AI가 아니라 역할별 AI 협업 구조로 만들 수 있습니다. 또한 사용자가 AI User를 사용할 수 있는지, 어떤 프로젝트에서 사용할 수 있는지를 지정할 수 있어 조직과 프로젝트 범위에 맞게 운영할 수 있습니다.
GitOn AI의 활용 범위는 코드 이해와 리뷰에만 머무르지 않고, CI/CD 파이프라인 구성이나 실패한 빌드 로그 분석에도 활용될 수 있습니다. 웨비나에서는 자연어로 CI job 생성을 요청하고, 실패한 빌드 로그를 분석해 원인과 수정 방향을 정리하는 흐름을 보여주었습니다.
이번 슬렉슨 웨비나의 핵심은 Local LLM 기반 실행 환경 위에서 AI를 실제 개발 흐름 안으로 어떻게 연결할 수 있는가에 있었습니다.
Puteron AI는 기업 내부에서 Local LLM을 안정적으로 운영하기 위한 기반 역할을 하고, CodeCenter는 현재 저장소와 코드 문맥 위에서 실제 개발 작업이 이루어지는 공간으로 동작합니다. GitOn AI는 그 위에서 협업과 리뷰, CI/CD 흐름까지 이어주는 역할을 담당합니다.
AI는 이제 조직의 개발 시스템 안에서 함께 동작하는 실행 레이어로 이동하고 있습니다. 그 관점에서 이번 웨비나는 엔터프라이즈 개발 환경이 어떤 방향으로 이동하고 있는지를 보여주는 데모에 가까웠습니다.
슬렉슨은 앞으로도 Local LLM, AI 기반 개발 환경, Agentic Workflow, 엔터프라이즈 AI 인프라와 관련된 실무 중심 인사이트를 계속 다룰 예정입니다. AI를 실제 개발 조직 안에서 어떻게 운영하고 연결해야 하는지 고민하고 있다면, 슬렉슨 뉴스레터를 통해 더 많은 사례와 기술 흐름을 확인해보시기 바랍니다.
▶ 관련된 주제를 더 보고 싶다면 아래 블로그를 참고해보세요.

시스템 엔지니어링의 비효율을 해결하는 AI 에이전트 Space Agent의 혁신적인 접근을 확인해보세요.

개인의 생산성을 넘어 조직의 보안과 일관성을 지키는 2026년형 엔터프라이즈 AI 코딩 플랫폼을 비교 분석합니다.

GPU 수가 아닌 데이터 흐름과 구조 최적화로 AI 인프라 성능과 비용 효율을 동시에 개선하는 방법을 소개합니다.

AI 에이전트 경쟁이 본격화되는 가운데 Self-Hosted 아키텍처의 중요성과 CodeCenter의 위치를 살펴봅니다.

개발 과정의 reasoning을 어떻게 팀의 협업 자산으로 만드는지 살펴봅니다.

저장소 구조와 문맥 위에서 질문과 탐색을 이어갈 수 있는 CodeCenter의 Workspace를 소개합니다.
© SLEXN, Inc. All rights reserved.
AI를 적용하는 과정에서 마주하는 현업 관점의 시행착오를 짚어보고, 이를 보완하기 위한 실무 활용 기준과 대응 방식을 제시합니다.