DO-Solution 2.0 설치 가이드
DO-Solution 2.0은 두 개의 Docker Compose 스택으로 배포됩니다: 일반 서비스를 위한 CPU Stack과 AI 추론 서버를 위한 GPU Stack.
시스템 구성
DO-Solution 2.0은 다음 구성 요소로 이루어집니다:
| No | 구성 요소 | 종류 | GPU 필요 여부 | 배포 스택 |
|---|---|---|---|---|
| 1 | LK Admin | Client | X | CPU Stack |
| 2 | OpenwebUI | Server | X | CPU Stack |
| 3 | Chunking Server | Server | X | CPU Stack |
| 4 | Supabase | Database, Server | X | CPU Stack |
| 5 | Redis | Database | X | CPU Stack |
| 6 | OCR Server | Inference Server | O | GPU Stack |
| 7 | Embedding Server | Inference Server | O | GPU Stack |
| 8 | Reranking Server | Inference Server | O | GPU Stack |
스택 분리 기준
- CPU Stack — GPU가 불필요한 일반 서버 및 데이터베이스 컴포넌트
- GPU Stack — GPU 자원을 사용하는 추론(Inference) 서버 컴포넌트
외부 노출 포트
| 서비스 | 포트 | 설명 |
|---|---|---|
| LK Admin | 3333 | 관리자 패널 |
| OpenWebUI | 3000 | 메인 사용자 인터페이스 |
| Chunking Server | 8001 | 문서 청킹 서비스 |
| Supabase Kong | 8000 | API 게이트웨이 |
| Redis | 6379 | WebSocket 세션 캐시 |
| Embedding Server | 11435 | BGE-M3 임베딩 |
| Reranking Server | 11436 | BGE-Reranker-v2-M3 |
| vLLM Server | 8888 | OCR 백엔드 (chandra-v2) |
| OCR API (nginx) | 80 | OCR API 프록시 |
| LK OCR API | 8504 | OCR/문서 파싱 |
선행 조건
설치를 시작하기 전에 다음이 완료되어 있어야 합니다:
- 환경 설정 매뉴얼 기준의 OS·커널·NVIDIA·Docker·NVIDIA Container Toolkit 설치 완료
- Docker 그룹에 사용자 추가 완료 (
docker명령 sudo 없이 실행 가능) - 솔루션 설치 패키지 폐쇄망 서버로 반입 완료
- Nori Plugin이 설치된 외부 Elasticsearch 사전 구축 및 배포 서버에서 접근 가능
- 배포 서버의 호스트 IP 또는 도메인 확정
설치 순서
- GPU 서버 환경 설정 — GPU 서버에 OS, 드라이버, Docker 설치
- CPU 스택 배포 — 메인 애플리케이션 스택 배포