Deep Learning/Basic

Gated Recurrent Unit

  • -
728x90
반응형

0. 들어가기에 앞서

본 게시글은 다양한 GRU에 대해 쉽게 이해할 수 있도록 최대한 간략하게 작성한 글입니다.

더욱 자세한 내용을 알고싶다면, 아래의 참고 링크 부분의 링크를 참고 바랍니다.

 

1. 배경 지식

  • LSTM
 

Long Short-Term Memory

0. 배경 지식 RNN Recurrent Neural Network 1. 개념 순차 데이터를 처리하는데 적합한 신경망 machine translation, DNA analysis, voice recognition, motion recognition, sentiment analysis 등에 이용 hidden layer의 neuron에서 출력

alstn59v.tistory.com

 

2. 개념

  • LSTM을 개선한 모델
  • forget gate와 input gate를 합쳐 update gate를 만듬
    • 이전의 정보를 얼마나 이용할지 결정
  • reset gate 추가
    • 이전 hidden state의 정보를 얼마나 잊을지 결정

 

 

참고 링크

https://velog.io/@dong970827/RNN-LSTM-GRU-개념

https://velog.io/@rsj9987/딥러닝-용어정리

728x90
반응형

'Deep Learning > Basic' 카테고리의 다른 글

Triplet Loss  (0) 2023.04.12
Graph Neural Network  (0) 2023.04.12
Long Short-Term Memory  (0) 2023.03.27
Recurrent Neural Network  (0) 2023.03.27
Inductive Bias  (0) 2023.02.13
Contents

포스팅 주소를 복사했습니다

이 글이 도움이 되었다면 공감 부탁드립니다.