목차 1. LLM 파라미터는 왜 “숫자”일까?2. 양자화(Quantization)3. 양자화 유형4. 코드로 보는 양자화5. 배운 점/느낀 점 Day 14 - 양자화 (Quantization) 1. LLM 파라미터는 왜 “숫자”일까?1) 핵심 요약LLM의 모든 파라미터(weight)는 실수(float) 값보통:학습: float32 / bfloat16추론: float16 / int8 / int4이유:정밀도 vs 메모리/속도 트레이드오프 2) LLM 파라미터는 왜 실수(float)인가?예: (Llama 3 70B → 파라미터 700억 개)LLM 내부에는 여러 개의 파라미터(가중치)가 있다.모든 파라미터는 실수로 저장된다:예시:W = 0.12837b = -0.05392... ✔ 신경망은 모든 계산이 “행렬..