Transformer
정의
Self-Attention 메커니즘 기반의 신경망 아키텍처. 2017년 ‘Attention Is All You Need’ 논문에서 제안. 병렬 처리가 가능하고, 긴 시퀀스의 의존성을 효과적으로 포착한다. LLM의 핵심 아키텍처.
관계
- is-a: deep-learning
- enables: llm
상세
(소스 ingest를 통해 확장)
실무 적용
(소스 ingest를 통해 확장)
미해결 질문
- (위키 성장과 함께 추가)
Self-Attention 메커니즘 기반의 신경망 아키텍처. 2017년 ‘Attention Is All You Need’ 논문에서 제안. 병렬 처리가 가능하고, 긴 시퀀스의 의존성을 효과적으로 포착한다. LLM의 핵심 아키텍처.
(소스 ingest를 통해 확장)
(소스 ingest를 통해 확장)