토니의 연습장

Transformer 요약 본문

AI 일반/AI 면접 대비 기출문제

Transformer 요약

bellmake 2025. 3. 15. 20:06

 

기존 모델(RNN, LSTM 등)은 앞에서부터 순차적으로 데이터를 처리했는데,
Transformer는 입력 데이터를 한 번에 병렬로 처리할 수 있어서 성능과 효율성이 뛰어남

    • 병렬처리 가능
    • 장거리 문맥 이해 능력 탁월
    • Attention 메커니즘 기반

 

  • Encoder: 입력 문장을 표현(Embedding)을 통해 이해하고 정보를 압축함.
  • Decoder: Encoder에서 압축된 정보를 바탕으로 새로운 문장을 생성함.

*Self-Attention : Multi-Head Attention

 

 

 

 

 

'AI 일반 > AI 면접 대비 기출문제' 카테고리의 다른 글

F1 Score: Precision과 Recall의 조화 평균  (0) 2025.03.12
ML/AI 엔지니어 면접 문항 총정리  (0) 2025.03.12
SGD와 Adam 차이  (1) 2025.03.08
Gradient descent  (0) 2025.03.08