모델/아키텍처중급
BERT
양방향 인코더 표현 · Bidirectional Encoder Representations from Transformers
Google이 개발한 양방향 Transformer 기반 모델
상세 설명
BERT
Google이 2018년 발표한 모델로, NLP 분야에 큰 영향을 미쳤습니다.
특징
- 양방향 학습: 문맥의 양쪽을 모두 고려
- 사전학습 모델: 다양한 작업에 미세조정 가능
- 마스크된 언어 모델: 일부 단어를 가리고 예측
활용
Google 검색 최적화, 감정 분석, 질의 응답 시스템 등
태그
#NLP#Google#분류