Deep Learning/Basic Gated Recurrent Unit - 728x90 반응형 0. 들어가기에 앞서 본 게시글은 다양한 GRU에 대해 쉽게 이해할 수 있도록 최대한 간략하게 작성한 글입니다. 더욱 자세한 내용을 알고싶다면, 아래의 참고 링크 부분의 링크를 참고 바랍니다. 1. 배경 지식 LSTM Long Short-Term Memory 0. 배경 지식 RNN Recurrent Neural Network 1. 개념 순차 데이터를 처리하는데 적합한 신경망 machine translation, DNA analysis, voice recognition, motion recognition, sentiment analysis 등에 이용 hidden layer의 neuron에서 출력 alstn59v.tistory.com 2. 개념 LSTM을 개선한 모델 forget gate와 input gate를 합쳐 update gate를 만듬 이전의 정보를 얼마나 이용할지 결정 reset gate 추가 이전 hidden state의 정보를 얼마나 잊을지 결정 참고 링크 https://velog.io/@dong970827/RNN-LSTM-GRU-개념 https://velog.io/@rsj9987/딥러닝-용어정리 728x90 반응형 공유하기 게시글 관리 Minsu Jo's Development Log 저작자표시 비영리 동일조건 'Deep Learning > Basic' 카테고리의 다른 글 Triplet Loss (0) 2023.04.12 Graph Neural Network (0) 2023.04.12 Long Short-Term Memory (0) 2023.03.27 Recurrent Neural Network (0) 2023.03.27 Inductive Bias (0) 2023.02.13 Contents 당신이 좋아할만한 콘텐츠 Triplet Loss 2023.04.12 Graph Neural Network 2023.04.12 Long Short-Term Memory 2023.03.27 Recurrent Neural Network 2023.03.27 댓글 0 + 이전 댓글 더보기