Transformer

정의

Self-Attention 메커니즘 기반의 신경망 아키텍처. 2017년 ‘Attention Is All You Need’ 논문에서 제안. 병렬 처리가 가능하고, 긴 시퀀스의 의존성을 효과적으로 포착한다. LLM의 핵심 아키텍처.

관계

상세

(소스 ingest를 통해 확장)

실무 적용

(소스 ingest를 통해 확장)

미해결 질문

  • (위키 성장과 함께 추가)