토니의 연습장
MoE (Mixture of Experts) 본문
https://chatgpt.com/share/69186036-e3d4-8009-b4f6-100009b1e463
ChatGPT - 번역 및 수식 설명
Shared via ChatGPT
chatgpt.com
참고 : https://youtu.be/qpHgHcWxB5I
'AI 일반 > 모델, 아키텍처, 구현' 카테고리의 다른 글
| GPT/Llama 아키텍처 (0) | 2025.09.18 |
|---|---|
| LLM train/eval/generate 간단한 예시 (0) | 2025.09.18 |
| RLHF / DPO (ft. Pretrained -> SFT -> Reward -> Final model) (0) | 2025.09.05 |
| 실무에서의 Embedding 모델 종류 (Text Embedding) (0) | 2025.07.17 |
| Transformer vs LLaMA 모델 비교 (0) | 2025.06.17 |
