AS IS -> TO BE

  • 홈
  • 태그
  • 방명록

GPU 1

7. LLM 양자화(Quantization): 원리부터 코드까지 - GPU 메모리는 왜 4배 줄어들까?

목차 1. LLM 파라미터는 왜 “숫자”일까?2. 양자화(Quantization)3. 양자화 유형4. 코드로 보는 양자화5. 배운 점/느낀 점 Day 14 - 양자화 (Quantization) 1. LLM 파라미터는 왜 “숫자”일까?1) 핵심 요약LLM의 모든 파라미터(weight)는 실수(float) 값보통:학습: float32 / bfloat16추론: float16 / int8 / int4이유:정밀도 vs 메모리/속도 트레이드오프 2) LLM 파라미터는 왜 실수(float)인가?예: (Llama 3 70B → 파라미터 700억 개)LLM 내부에는 여러 개의 파라미터(가중치)가 있다.모든 파라미터는 실수로 저장된다:예시:W = 0.12837b = -0.05392... ✔ 신경망은 모든 계산이 “행렬..

AI 공부 2026.03.22
이전
1
다음
더보기
프로필사진

AS IS -> TO BE

서비스 사용자와 함께 하는 팀원들에게 모두 선한 영향력을 주는 기획자를 꿈꿉니다.

  • 분류 전체보기 (70)
    • 대학생! 핀테크 스타트업 PO가 되다 (22)
    • IT, 스타트업 쟁이의 대기업 취준일기 (13)
    • 바이브코딩 (2)
    • AI 공부 (8)
    • SOPT(IT 연합동아리)- Side projec.. (11)
    • 개발공부 (10)
    • 디자인공부 (2)
    • 기타 일기 (2)

Tag

대기업, 자기소개서, 커리어, 공채, llm, 대학생, GPT, PM, 실상, 진로, 자소서, 스타트업, ai, PO, 핀테크, 소상공인, 취준, 면접왕이형, 서비스기획, 옴스잡스,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30

방문자수Total

  • Today :
  • Yesterday :
LinkedIn Profile Surfit Portfolio

Copyright © AXZ Corp. All rights reserved.

  • 서핏 포트폴리오
  • 링크드인 프로필

티스토리툴바