LLMOps 35
- [LLM 추론 최적화] Day 5: 프로덕션 추론 운영 - 비용·지연·처리량의 균형
- [LLM 추론 최적화] Day 4: 추론 서버 설계 - vLLM, TGI, Triton
- [LLM 추론 최적화] Day 3: KV 캐시와 Continuous Batching
- [LLM 추론 최적화] Day 2: 양자화 - INT8, GPTQ, AWQ
- [LLM 추론 최적화] Day 1: 왜 추론 비용이 문제인가
- [Production RAG] Day 5: RAG 운영 - 인덱스 갱신 전략과 파이프라인 모니터링
- [Production RAG] Day 4: RAG 평가 - Faithfulness, Relevance, Context Recall
- [Production RAG] Day 3: 하이브리드 검색과 리랭킹 - 검색 품질을 높이는 두 전략
- [Production RAG] Day 2: 임베딩 선택과 인덱스 설계 - 모델 비교와 HNSW/IVF 트레이드오프
- [Production RAG] Day 1: 청킹 전략 - 문서를 어떻게 나눌 것인가
- [LLM Agent Patterns] Day 5: 에이전트 운영 - 신뢰성 패턴과 운영 성숙도
- [LLM Agent Patterns] Day 4: 툴 사용 안전성 - 권한 최소화와 Human-in-the-Loop
- [LLM Agent Patterns] Day 3: 에이전트 메모리 시스템 - 단기·장기 메모리 설계
- [LLM Agent Patterns] Day 2: 멀티 에이전트 시스템 - Orchestrator-Worker 패턴
- [LLM Agent Patterns] Day 1: 에이전트 아키텍처 기초 - ReAct와 Plan-and-Execute 패턴
- [LLM Fine-tuning] Day 5: 평가와 배포 - 파인튜닝 모델 검증과 운영 전략
- [LLM Fine-tuning] Day 4: 학습 파이프라인 설계 - 분산 학습과 체크포인트 전략
- [LLM Fine-tuning] Day 3: 데이터셋 큐레이션 - 파인튜닝 데이터 품질 관리
- [LLM Fine-tuning] Day 2: LoRA / QLoRA - 파라미터 효율적 파인튜닝 메커니즘
- [LLM Fine-tuning] Day 1: Fine-tuning vs Prompting - 언제 파인튜닝을 선택하는가
- [LLM Observability] Day 5: 관측성 플랫폼 설계 - 운영 성숙도 로드맵
- [LLM Observability] Day 4: 알람과 이상 탐지 - LLM 응답 품질 저하 신호 감지
- [LLM Observability] Day 3: 분산 추적 - 에이전트 체인과 멀티스텝 RAG 파이프라인 추적
- [LLM Observability] Day 2: LLM 평가(Evaluation) - 오프라인 벤치마크와 온라인 A/B
- [LLM Observability] Day 1: 로그·트레이스·메트릭 - LLM 관측성의 세 축
- [AISec] Day 5: Red Teaming AI - 모델과 파이프라인의 취약점을 테스트하는 법
- [AISec] Day 4: 가드레일(Guardrails) 설계 - 네이티브 필터링과 외부 솔루션 비교
- [AISec] Day 3: 벡터 데이터베이스 보안 - 인덱스 탈취 및 멤버십 추론 공격(Membership Inference)
- [AISec] Day 2: 데이터 유출(Data Leakage) - RAG 파이프라인에서의 PII 탐지 및 차단
- [AISec] Day 1: 프롬프트 인젝션(Prompt Injection)과 간접 인젝션의 메커니즘
- [LLMOps] Day 5: 프로덕션 배포와 모니터링 - 안정적인 RAG 시스템 운영하기
- [LLMOps] Day 4: 검색 최적화와 하이브리드 서치 - 정확도를 높이는 고급 기법
- [LLMOps] Day 3: 임베딩과 벡터 데이터베이스 선택 - 성능과 비용의 Trade-off
- [LLMOps] Day 2: 문서 처리와 청킹 전략 - 검색 품질을 결정하는 첫 단계
- [LLMOps] Day 1: RAG 파이프라인의 이해 - 엔지니어링 관점에서 본 아키텍처