Hye Jin Ryoo

[LLM Fine-tuning] Day 3: 데이터셋 큐레이션 - 파인튜닝 데이터 품질 관리

서론: 모델보다 데이터가 먼저다 파인튜닝 실패의 대부분은 모델 선택이나 하이퍼파라미터가 아니라 데이터 품질 문제다. 잘못된 예시 1%가 전체 학습을 오염시킬 수 있고, 중복 데이터는 과적합을 유발한다. “많을수록 좋다”는 직관은 LLM 파인튜닝에서 자주 틀린다. 1. 데이터 형식 선택 1.1 Instruction Tuning (SFT) 가장 일...

올해의 해킹 타임라인은 미쳤다

이 글은 GeekNews - 개발/기술/스타트업 뉴스 서비스 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 2026년 초 약 100일 동안 국가 및 범죄 조직이 연루된 대규모 사이버 공격이 연속적으로 발생하며, 컴퓨터 보안사에서 전환점으로 평가될 수준의 ...

우리는 99%의 이메일 평판을 가지고 있지만 Gmail은 다르게 판단함

이 글은 GeekNews - 개발/기술/스타트업 뉴스 서비스 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 Font Awesome 팀은 SendGrid에서 99%의 이메일 평판 점수를 유지하지만, Gmail에서는 메일이 스팸함으로 분류되는 문제를 겪고 있...

[LLM Fine-tuning] Day 1: Fine-tuning vs Prompting - 언제 파인튜닝을 선택하는가

서론: 파인튜닝은 항상 정답이 아니다 모델 성능이 기대에 못 미칠 때 파인튜닝으로 바로 향하는 팀이 많다. 하지만 파인튜닝은 비용이 크다. 데이터 큐레이션, 학습 인프라, 평가 파이프라인, 배포·유지보수가 모두 따라온다. 결정 전에 먼저 물어야 한다. “프롬프트 엔지니어링과 RAG로 충분한가?” 1. 문제 해결 계층 성능 개선 방법은 비용이 낮...

447 TB/cm²의 제로 보존 에너지 – 불소그래판 기반 원자 규모 메모리

이 글은 GeekNews - 개발/기술/스타트업 뉴스 서비스 블로그에 게시된 글을 자동으로 가져온 것입니다. 더 자세한 내용과 원문은 아래 링크를 참고해 주세요. ➡️ 원문 보러 가기 원문 요약 불소그래판 단일층의 공유결합 방향성을 이용해 원자 단위 비트 저장을 구현한 비휘발성 메모리 구조 제시 C–F 결합 반전 장벽 4.6~4.8 eV로 ...