[pytorch] LSTM 내부구조 이해하기
바닐라 RNN은 길이가 길어지면 맨 앞쪽 내용이 점점 희석되는 단점이 있다. 이런 단점을 해결하기 위해 나온 모델이 LSTM / GRU 모델이다. 두 모델의 성능은 비슷하다고 하지만, GRU가 LSTM보다 연산 수가 적다고 한다. RNN의 원리는 직관적으로 이해가 가능하지만, LSTM 내부 구조는 직관적으로 복잡하기에 어떻게 사용하는지 정도만 알고 갔는데, 내부적으로 어떤 의미가 있는지 나름대로 해석하고 부여하여 정리해보고자 한다. https://wikidocs.net/60762 해당 링크의 설명을 참고하여 나름대로 의미를 부여해 보겠다. LSTM의 내부구조는 위의 그림과 같다. RNN과 다른점은 Cell state라는 것을 가지게 되는데, Cell state는 어떤 어떤 정보를 기억할 지 저장해 놓은 ..
Pytorch
2023. 1. 5. 18:47
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 이미지
- 백준
- 디텍션
- GNN
- 티스토리챌린지
- 깃
- Tree
- YOLOv8
- 도커
- yolov11
- docker
- github
- DeepLearning
- 욜로
- 알고리즘
- 오블완
- 자바
- YOLO
- 어탠션
- V11
- GIT
- 정리
- CNN
- c3k2
- 딥러닝
- 초보자
- python
- 오류
- java
- 뜯어보기
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함