안녕하신가. 저번에 VGG16을 이용하여 Transfer-learning 전이 학습을 대~~충 봤다. 그 결과 70~85%가 나오는 기염을 토했다.(학습이 잘 된 모델이라곤 안 했다.) 하지만, 딥러닝에선 정확도 뿐만 아니라 그래프의 모양, loss 또한 살펴볼 필요가 있다. 이 그림을 보자. 이 그림은 learning rate에 따른 loss를 말한다. 즉, 여기서 빨간색의 그림과 유사하게 돼야 어느 정도 잘 학습된 모델이라고 볼 수 있고, 여기서 정확도도 따져 과대적 합(overfitting)인지 과소 적합(underfitting)인지 따져야 하지만... 넘어가자. 복잡하다. 여기선 그냥 loss가 빨간색 선처럼 줄어야 좋다고만 알고 있자. 여기서 저번 VGG16으로만 학습한 그래프를 보면 노란색 선..
저번 만든 CNN의 정확도는 60%대 ... 60%면 그냥 눈 가리고 아이유인지 수지인지 찍는 수준에 불과하다고 생각한다. 적어도 80~90% 정도는 나와야 어느 정도 구분할 줄 안다고 생각할 것이다. 정확도를 개선하기 위해 여러 가지 방법이 있다. 가장 기본적인 방법은 CNN을 더 깊고 넓게 쌓는 것. 하지만, 컴퓨터의 사양이 어느 정도 돼야 할 수 있을 것이고, training 시간도 GPU가 아닌 이상 엄청나게 오래 걸릴 것이다. 하지만 필자는 노트북으로 딥러닝을 하고 있다. 즉, GPU/좋은 성능의 컴퓨터가 아니라는 의미이다. 이런 사람들은 어떻게 해야 할까? 제목에도 써 놓았듯 'VGG16' 모델을 사용하는 것이다. 간단히 'VGG16'을 설명해 보자면.... CNN으로 이미지(고양이, 강아지,..
- Total
- Today
- Yesterday
- docker
- 딥러닝
- GIT
- 어탠션
- python
- YOLO
- CNN
- 도커
- 뜯어보기
- 이미지
- 자바
- 오류
- 백준
- 알고리즘
- GNN
- java
- Tree
- 정리
- 욜로
- 티스토리챌린지
- DeepLearning
- c3k2
- github
- 깃
- 초보자
- V11
- 디텍션
- YOLOv8
- yolov11
- 오블완
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |