Our Journey to Autoscaling EKS Node Groups for Job Workloads
이 글은 당근 테크 블로그 - Medium 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 요약 정보가 없습니다.
이 글은 당근 테크 블로그 - Medium 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 요약 정보가 없습니다.
이 글은 당근 테크 블로그 - Medium 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 요약 정보가 없습니다.
이 글은 토스 기술 블로그, 토스 테크 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 1분부터 7일까지 슬라이딩 윈도우 Frequency Capping을 세 Flink 앱으로 분리하고 각각의 병목을 해결한 기록을 공유합니다.
서론: 학습이 중간에 죽으면 처음부터 다시 해야 하는가 잘못 설계된 학습 파이프라인은 두 가지 방식으로 실패한다. 메모리 부족으로 학습이 중단되거나, 학습 자체는 완료되지만 결과가 예상과 다를 때 원인을 추적할 수 없다. 두 문제 모두 사전 설계로 막을 수 있다. 1. 메모리 최적화 전략 GPU 메모리는 학습 파이프라인의 가장 큰 제약이다. 1...
이 글은 GeekNews - 개발/기술/스타트업 뉴스 서비스 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 I-DLM은 확산 기반 언어 모델이 AR(Autoregressive) 모델 수준의 품질과 병렬 생성 속도를 동시에 달성한 첫 사례임 Introspe...
이 글은 GeekNews - 개발/기술/스타트업 뉴스 서비스 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 AI 자동화와 LLM 기반 노동이 확산되며, 기술 발전이 오히려 숙련 저하와 부의 집중을 초래할 위험이 커지고 있음 프로그래밍과 창작 활동은 점차 ...
서론: 모델보다 데이터가 먼저다 파인튜닝 실패의 대부분은 모델 선택이나 하이퍼파라미터가 아니라 데이터 품질 문제다. 잘못된 예시 1%가 전체 학습을 오염시킬 수 있고, 중복 데이터는 과적합을 유발한다. “많을수록 좋다”는 직관은 LLM 파인튜닝에서 자주 틀린다. 1. 데이터 형식 선택 1.1 Instruction Tuning (SFT) 가장 일...
이 글은 GeekNews - 개발/기술/스타트업 뉴스 서비스 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 Cloudflare는 100개 이상의 제품과 약 3,000개의 API 작업을 통합 관리할 수 있는 전역 CLI를 개발 중임 새로운 CLI는 기존 W...
이 글은 GeekNews - 개발/기술/스타트업 뉴스 서비스 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 2026년 초 약 100일 동안 국가 및 범죄 조직이 연루된 대규모 사이버 공격이 연속적으로 발생하며, 컴퓨터 보안사에서 전환점으로 평가될 수준의 ...
서론: 70B 모델을 소비자 GPU에서 파인튜닝하는 방법 풀 파인튜닝은 7B 모델에도 수십 GB의 GPU 메모리를 요구한다. PEFT(Parameter-Efficient Fine-Tuning)는 대부분의 가중치를 고정하고 소수의 추가 파라미터만 학습해 이 문제를 해결한다. LoRA와 QLoRA는 현재 가장 널리 쓰이는 PEFT 방법이다. 1. L...