What is Attention?(어텐션 이란?)
딥러닝을 공부하다보면 언젠가 마주칠 수 밖에 없는 기법이 존재한다.그중 하나가 Attemtion이다. Attention의 등장으로 자연어 테스크의 성능이 월등히 올라갔고, 그 영향으로 분야를 가리지 않고 적용하며 모델 성능 개선의 효과를 볼 수 있었다.지금의 chatgpt도 Attention기법이 없었다면 현재 존재하지 않았을 수도 있다. 이렇게 딥러닝에 중대한 영향력을 미치고 있는 해당 기법을 도저히 그냥 넘어갈 순 없다.간단하게라도 살펴보고자 넘어간다.Yolov11에서도 Attention 기법이 적용된 블럭이 있으니 해당 내용은 꼭 한번쯤 보길 권한다. 위 내용이 Attention의 내용 전부다. 물론 논문에서 표현하고자 하는 심오한 내용은 단시간에 알아차리기 힘드니 기본이 되는 내용을 지속적으로 보..
Deep-learning
2024. 11. 17. 17:29
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- YOLOv8
- YOLO
- V11
- 이미지
- 디텍션
- docker
- yolov11
- 정리
- GNN
- 딥러닝
- GIT
- 뜯어보기
- 백준
- 도커
- 어탠션
- 욜로
- DeepLearning
- 티스토리챌린지
- 깃
- 오블완
- 자바
- Tree
- python
- java
- github
- CNN
- 초보자
- c3k2
- 알고리즘
- 오류
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함