어텐션 3

NMT with attention / Neural Machine Translation 설명

정의 Neural Machine Translation with attention 을 의역하면 다음과 같다. Sequence(input)에서 어디에 집중하여 인공신경망을 이용한 번역을 할 것인지의 관점에서 구현된 구조 Seq2Seq Architecture 간단히 Seq2Seq 구조에 대해 정리하자. 기존에 정리해놓았던 글을 인용해왔다. Seq2Seq은 시퀀스(sequence) 데이터를 다루는데 주로 사용된다. 가령, machine translation같은 작업에서 주로 사용되는데 영어를 불어로 바꾼다는 등의 task를 수행하기도 한다. 이를 위해 모델은 입력과 출력 간의 sequence mapping을 학습한다. 이 때 위에서 간단히 언급한 바와 같이 모델은 시간적인 의존성(Temporal dependen..

Time Series Transformer 의미 및 모델

정의 (Definition) "Time Series" + "Transformer" : Transformer 기반 시계열 데이터(Time Series) 예측 모델 HuggingFace에서는 Time Series Transformer를 다음과 같이 정의한다. The Time Series Transformer model is a vanilla encoder-decoder Transformer for time series forecasting. Vanilla encoder-decoder, 혹은 Transformer 에 대한 간략한 이해가 필요해보인다. Vanilla encoder-decoder encoder-decoder 구조 또한 딥러닝(인공신경망) 모델 중 하나이다. 시퀀스 데이터를 입력으로 받아 이를 예측..

Attention / 어텐션이란 무엇인가? (분량 주의)

선행 지식 (Pre-requirement) RNN https://wikidocs.net/22886 - (딥러닝을 이용한 자연어 처리 입문) https://arxiv.org/abs/1808.03314 - (RNN paper) LSTM https://wikidocs.net/22888 - (딥러닝을 이용한 자연어 처리 입문) http://www.bioinf.jku.at/publications/older/2604.pdf - (LSTM paper) seq2seq model https://wikidocs.net/24996 - (딥러닝을 이용한 자연어 처리 입문) https://arxiv.org/abs/1409.3215 - (seq2seq paper) "딥러닝을 이용한 자연어 처리 입문" 이라는 매우 좋은 책에 접근..