
GPU 수가 아닌 데이터 흐름과 구조 최적화로 AI 인프라 성능과 비용 효율을 동시에 개선하는 방법을 소개합니다.
Resources > Insight Report > Conference
AI는 단순한 코드 완성을 넘어 스스로 문제를 정의하고 SDLC(소프트웨어 개발 수명 주기) 전반을 주도하는 에이전틱 워크플로우로 진입했습니다.
2026.03.26
AI 기술은 이제 단순한 코드 생성 도구를 넘어 실제 개발과 운영 환경 전반에 영향을 미치는 방향으로 빠르게 진화하고 있습니다. 특히 기업 환경에서는 단순한 성능지표 외에도 보안, 비용, 운영 안정성까지 고려해야 하기 때문에 AI를 어떻게 도입하고 활용할 것인지에 대한 고민이 더욱 중요해지고 있습니다.
3월에 진행된 슬렉슨 웨비나 ‘폐쇄망 환경의 Agentic Workflow : AI 인프라 설계부터 자율형 개발 파이프라인까지’에서는 이러한 흐름 속에서 폐쇄망 환경의 AI 인프라 구성부터 Agentic 개발 자동화, 그리고 RAG 기반 지식 활용까지 실제 엔터프라이즈 환경에서 적용 가능한 구조를 단계적으로 제시하였습니다.
웨비나에서는 먼저 Agentic AI의 발전 과정을 짚어 보았습니다.
코딩 영역에서 AI의 역할이 초기에는 단순한 코드 자동완성 수준이었다면, 이후에는 단일 Agent 기반 자율 코딩으로 발전했습니다. 하지만 프로젝트가 복잡해질수록 다음과 같은 한계가 드러났습니다.
이를 해결하기 위해 등장한 구조가 Skills/Hooks를 통한 Multi-Agent 아키텍처입니다.
이 구조는 복잡한 개발 작업일수록 더 높은 안정성과 효율을 제공합니다.
첫번째 세션에서는 Skills와 Hooks의 구조 및 동작 원리를 면밀히 살펴보고 구체적인 활용 예시를 제시하여 Multi Agent의 흐름이 흘러가는 방식에 대해 자세히 살펴보았습니다.
많은 기업들이 AI 도입을 검토하고 있지만, 실제 적용 단계에서는 다음과 같은 고민에 직면하게 됩니다.
웨비나에서는 이러한 부분을 단순히 모델 선택의 문제가 아니라AI를 안정적으로 운영할 수 있는 구조를 어떻게 설계할 것인지의 문제로 정의했습니다.
이러한 문제를 해결하기 위한 접근으로 소개된 것이 Puteron AI 기반 인프라 전략이며, 제한된 GPU 환경에서도 성능을 극대화할 수 있는 방법으로 KV Cache 오프로딩 전략에 대한 내용이 소개되었습니다.
일반적으로는 KV Cache가 GPU vRAM메모리에만 저장되어 사용자 변경이나 세션 종료 시 캐시가 사라지고, 이후에는 동일한 요청이라도 매번 다시 계산해야 하는 구조를 가지게 됩니다.
반면 SSD 기반 오프로딩을 활용하면 KV Cache를 장기적으로 유지할 수 있어 동일 요청에 대해 재계산 없이 빠르게 응답할 수 있으며, TTFT(Time To First Token)와 처리량 개선에도 기여합니다. 이러한 방식은 다중 사용자 환경이나 반복 질의가 많은 RAG, 코딩 어시스턴트 환경에서 효과적으로 활용될 수 있으며, 성능 개선이 단순한 모델 자체가 아니라 캐시 전략과 인프라 구조에도 크게 좌우된다는 점을 보여줍니다.
두 번째 세션의 데모에서는 GitOn과 CodeCenter를 결합한 자율형 개발 파이프라인을 통해 단순한 코드 생성이 아니라, 이슈 해결 전체 과정이 자동화되는 과정을 시연하였습니다.
특히 중요한 점은AI가 바로 코드를 수정하는 것이 아니라 문제를 재현하고 근거를 수집한 뒤 단계적으로 접근한다는 점입니다.
또한 결과는 단순 코드 변경이 아닌 검증 데이터와 분석 결과가 포함된 엔지니어링 리포트 형태로 제공됩니다.
실제 데모에서는 수백만 건의 데이터 환경에서 병목을 정확히 찾아내고,
쿼리 구조 개선을 통해 성능을 크게 향상시키는 결과를 보여주었습니다.
다음으로 소개된 것은 CodeCenter Workspace입니다.
이 세션에서 보여준 것은 문서와 코드, 그리고 작업 맥락을 하나의 흐름으로 연결한다는 점입니다. 기존 개발 환경에서는 문서와 코드를 따로 분석하고 다시 정리하는 과정이 필요했지만 CodeCenter Workspace에서는 이 흐름이 하나로 통합됩니다.
CodeCenter Workspace에서는 PDF, HWP, Excel 등의 사내 문서를 기반으로 질의가 가능합니다.
여기서 중요한 특징은 참조 데이터가 단순 답변용이 아니라 업무 의사결정을 지원하는 지식 활용 방식으로 활용된다는 점입니다
코드베이스를 구조적으로 이해하기 위한 코드 분석 영역에서는 DeepCode RAG가 소개되었습니다. 이 과정은 두 단계로 나뉘어 구성됩니다. 첫 번째 단계인 Deep Analysis에서는 전체 코드베이스의 구조를 분석하고, 아키텍처와 흐름을 시각화하며, 이를 위키 형태로 정리합니다.
두 번째 단계인 Agentic RAG에서는 질문을 기반으로 코드를 탐색하고, 필요한 부분만 점진적으로 분석하며, 각 결과에 대해 라인 단위의 근거를 제공합니다. 이러한 과정을 통해 대규모 코드베이스도 전체에서 시작해 부분으로 좁혀가고, 최종적으로 근거까지 확인하는 흐름으로 이해할 수 있습니다.
이어서 저장소 분석부터 구조 이해, 코드 생성, Git 반영, 재분석, 그리고 추가 질의와 검증까지 이어지는 흐름이 실제로 구현되는 과정을 실제 시연을 통해 보여주었습니다. 이러한 과정이 반복되면서 이해와 구현, 검증이 단절되지 않고 지속적으로 이어지는 개발 루프가 형성됩니다.
결국 CodeCenter Workspace는 단순 도구가 아니라 개발 전 과정을 연결하는 작업 환경으로 작동한다는 것을 데모를 통해 확인할 수 있었습니다.
이번 웨비나는 하나의 중요한 방향성을 제시합니다. AI의 성능 자체보다 중요한 것은 그 성능을 실제 업무에 연결하는 방법 이라는 점입니다.
이러한 요소들이 결합될 때, 비로소 AI는 실험적인 도구를 넘어 실제 엔터프라이즈 환경에서 활용 가능한 생산성 도구로 자리잡게 됩니다.
이번 웨비나는 바로 그 구조를 인프라부터 개발, 그리고 지식 활용까지 하나의 흐름으로 보여주었다는 점에서 의미가 있다고 할 수 있습니다.
▶ 관련된 주제를 더 보고 싶다면 아래 블로그를 참고해보세요.

GPU 수가 아닌 데이터 흐름과 구조 최적화로 AI 인프라 성능과 비용 효율을 동시에 개선하는 방법을 소개합니다.

AI 에이전트 경쟁이 본격화되는 가운데 Self-Hosted 아키텍처의 중요성과 CodeCenter의 위치를 살펴봅니다.

개발 과정의 reasoning을 어떻게 팀의 협업 자산으로 만드는지 살펴봅니다.

저장소 구조와 문맥 위에서 질문과 탐색을 이어갈 수 있는 CodeCenter의 Workspace를 소개합니다.

Agentic SDLC의 핵심은 보안과 운영 환경 속에서 지속 가능하게 활용할 수 있는 자동화 전략을 구축하는 것입니다.

AI 자동화 영역과 인간 개입 지점을 명확히 구분하는 것은 Agentic AI를 운영 가능한 시스템으로 만드는 핵심 판단 기준입니다.
© SLEXN, Inc. All rights reserved.
이번 웨비나에서 로컬 LLM 기반의 보안 중심 AI 환경에서 Multi-LLM 전략과 Git 기반 협업 자동화를 통해, 기업이 통제 가능한 방식으로 AI 개발 생산성을 어떻게 혁신할 수 있는지 살펴보세요.