딥러닝을 시작하면 가장 처음 접하는 문제가 XOR구분 문제일 것이다. AND/OR는 밑에 그림[1-1]처럼 하나의 선을 통해 구분 할 수 있다고 대부분의 사이트에서 말한다. 직관적으로 봐도 한개로 충분히 나눠질 수 있다고 생각한다. 하지만, [그림1-2]에 XOR을 나누려면 선 두개를 그려 나눌 수 있다고 한다. 이런 언급을 한 뒤 [그림1-2] 오른쪽 그림처럼 hidden layer 한층에 node 2개 생성하고 학습을 통해, XOR의 문제를 풀 수 있다고 한다. 여기서 필자는 궁금증이 생겼다... "그래.. 문제 풀 수 있는건 알겠는데.. 인터넷에 떠돌아 다니는 [그림1-2]처럼 진짜 선을 그려서 구별하는거야?" "그럼 다른거 다 필요없고 파이썬을 통해 시각화 한 것을 보고싶어!" 라는 생각을 하게되..
안녕하신가. 오늘은 Flask, 파이썬으로 웹을 만드는 법을 알아보고자 한다. 대개 파이썬으로 웹을 만들고자 하는 분들은 파이썬으로 무엇인가를 만들고 그것을 다른 사람들에게 보여주기 위해 접한다고 개인적으론 생각한다.(아님 말고...) 필자 또한 딥러닝 프로젝트를 혼자만 보기 아쉬워 Flask를 접하게 되었다. 또 지난번에 말했듯, 이미 파이썬으로 코딩을 마친 상태라 Flask로 웹서버를 구축한다면 이미 작성한 코드를 import하는것으로 쉽게 사용할 수 있을 것이라는 기대감 때문에 Flask를 접하기도 했다.(만약 Java로 서버를 구축한다면... python으로 코딩한 프로그램을 java언어로 바꾸거나 다른 작업을 거쳐야 하기 때문에.. 귀찮음... 할 줄도 모르고...) 자. 서론이 길었다. 바로 ..
왜 heroku는 cv2에서 import가 안되는가....? flask에서 cv2를 import만 해도 오류도 deploy(배포)는 가능하지만, 배포한 사이트를 들어가면, 오류 페이지만 보인다... 나는 cv2를 써야만 하는데 왜 안 되는 건가.. 정말 하루 종일 찾은 끝에 발견한 포스팅... "Deploying your First Opencv Flask Web Application On Heroku" 정말 한줄기 빛 같은 포스팅이었다.. 링크 걸어놓는다. github 코드도 있고 영어 포스팅이지만 따라만 하면 opencv를 heroku에서 오류 없이 사용 가능하다.. https://medium.com/analytics-vidhya/deploying-your-opencv-flask-web-applicat..
안녕하신가. 현재 딥러닝(CNN)을 통해 아이유/수지를 구분하는 모델을 만들고 있는 사람입니다. 필자의 목표는 기존에 아이유/수지 사진을 구분하는 것에서 그쳤지만, 이 모델에 다른 사람들의 사진을 넣는다면 그 사람이 '아이유에 가까운가?' '수지에 가까운가?'를 판단해 줄 수 있는, 서비스 가능한 모델이 될 거라 문득 생각했다. 그러기 위해선 다수의 사람들이 이용할 수 있는 포맷이 필요한데, 가장 흔한 인터넷, 폰이 두 가지가 생각난다. 안드로이드 어플은 배포까지 해 보았지만, 인터넷 웹 사이트는 해보지 않았다. 이참에 웹사이트를 적당히(?) 만들어서 어디서든 접근할 수 있도록 만들어 보고 싶었다. 그러기 위해선 백엔드/ 프런트엔드 부분을 알아야 한다. 프런트 엔드는 HTML / CSS / JavaScr..
지금까지 아이유/수지 대결을 성사시키기 위해 데이터/ 훈련 환경/ 모델까지 거의 모든 것을 준비했다. 이제 남은 건 가장 훌륭한 모델을 뽑아내는 것뿐. 거의 다 왔다. 끝이 보이기 시작한다? 오늘은 딥러닝을 하다 보면 한 번쯤은 볼 수 있는 오버 피팅(Overfitting)을 방지하고 조금이나마 억제하여 훌륭한 모델을 만들 수 있는 방법을 소개하고자 한다. 그럼 여기서 오버 피팅(Overfitting)이란 무엇인가? 간단히 말해 우리가 준비한 훈련 데이터에만 잘 작동하도록 만들어진 모델이다. 다시 말하자면 새로운 이미지를 제공하면 엉뚱하게 예측한다는 소리다. 이 현상을 막기 위해 정규화(L1, L2) / 학습률 조정 / 배치노멀라이즈 / 드롭아웃 / 앙상블 / 데이터 증량 .... 대략 이 정도 있다. ..
안녕하신가. 오늘은 흙수저들도 딥러닝을 할 수 있도록 환경을 만들어 보고자 한다. 여기서 흙수저란 CPU을 사용해서 현재 딥러닝을 학습하는 사람들이라고 생각하면 반드시 따라 해라. 꼭 반드시 해라... 14시간 걸릴 학습을 2~3시간 만에 끝낼 수도 있다. 그러니 반드시 해라. 일단 우리의 인자하신 Google께서 딥러닝을 할 수 있는 환경을 제공해 주신다.(박수) 이름하여 "Colab" 오늘은 Colab을 설정해보기로 하자. 자 일단 다들 구글 아이디가 있다는 전재하에 시작한다. (없다면 회원가입) 1. Google의 '드라이브'로 접속 2. 마우스 우 클릭 후 더 보기 > 연결할 앱 더 보기 클릭 3. google colab 설치 google colab을 검색해서 설치를 진행하시면 오른쪽과 같은 화면..
안녕하신가. 저번에 VGG16을 이용하여 Transfer-learning 전이 학습을 대~~충 봤다. 그 결과 70~85%가 나오는 기염을 토했다.(학습이 잘 된 모델이라곤 안 했다.) 하지만, 딥러닝에선 정확도 뿐만 아니라 그래프의 모양, loss 또한 살펴볼 필요가 있다. 이 그림을 보자. 이 그림은 learning rate에 따른 loss를 말한다. 즉, 여기서 빨간색의 그림과 유사하게 돼야 어느 정도 잘 학습된 모델이라고 볼 수 있고, 여기서 정확도도 따져 과대적 합(overfitting)인지 과소 적합(underfitting)인지 따져야 하지만... 넘어가자. 복잡하다. 여기선 그냥 loss가 빨간색 선처럼 줄어야 좋다고만 알고 있자. 여기서 저번 VGG16으로만 학습한 그래프를 보면 노란색 선..
*주의. 이 글은 Python코드를 기준으로 작성했습니다. 필자는 연예인 사진을 분류하는 딥러닝을 하고 있다. 고로 많은 사진의 연예인 사진이 필요하며, 그 파일의 이름 또한 일정하게 관리해야 하는 경우가 많으므로 이 코드를 찾게 됐다. 분명 필요한 사람들이 있을 것이며 어떻게 사용해야 하는지 또한 설명하고자 한다. import os name ='taeyeon' path = 'C:/Users/sim/Desktop/image/'+ name +'_face/'+name+'_face_close_resize(100x100)_ordered2' file_names = os.listdir(path) i = 0 for file_name in file_names: src = os.path.join(path, file_na..
- Total
- Today
- Yesterday
- 입출력
- 도커
- 입력
- 뜯어보기
- boosting
- GIT
- Tree
- github
- 자바
- 설치
- 깃
- 이미지
- Flask
- docker
- 딥러닝
- CNN
- DeepLearning
- 파이썬
- 삭제
- 오류
- GNN
- gbm
- 계산
- python
- java
- torch
- DT
- 초보자
- 정리
- GPU
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |