고정된 크기의 context vector 사용

1. RNN

 - 시퀀스 데이터 처리에 특화된 신경망

 - 기계 번역, 음성 인식, 챗봇 등에 사용

2. LSTM

 - RNN의 장점을 유지하면서 장기 의존성 문제를 해결

 - 더욱 정확한 시퀀스 모델링 가능

3. Seq2Seq

 

입력 시퀀스 전체에서 전체를 추출

1. Attention

2. Transformer

 - 어텐션 메커니즘을 사용하여 시퀀스 간의 관계를 효율적으로 학습

 - 기계 번역, 텍스트 요약, 질의 응답 등에 사용

3. GPT(transformer 디코더), BERT(tranformer 인코더)

 

 

'기술 공부 끄적끄적 > 인공지능' 카테고리의 다른 글

트레이닝 방법에 따라 나뉘는 CLM, MLM, Seq2Seq  (0) 2024.03.04
토크나이저란  (0) 2024.03.02
언어 모델이란  (0) 2024.03.01

+ Recent posts