1. 그래픽카드 드라이버 설치 1) 그래픽카드 드라이버 설치 여부 확인 nvidia-smi 명령어를 cmd 나 anaconda prompt 에서 입력 그래픽카드 드라이버 설치가 되어있는 경우 : 위와같은 모습을 보여주지 않는다면, 그래픽카드 드라이버 설치가 안되어 있는것. https://www.nvidia.com/Download/index.aspx?lang=kr Download the latest official NVIDIA drivers Download the latest official NVIDIA drivers www.nvidia.com 해당 링크를 통해 자신의 제품명을 입력하여 드라이버 설치를 진행하여 "nvidia-smi"명령어를 다시 실행하여 잘 설치 되었는지 확인. 2. CUDA Toolki..
RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor) should be the same 와 같은 오류가 계속뜬다.. pix2pix 예제를 해보고 있는데 위와 같은 오류가 계속뜬다.. 분명 같은 공간?(cpu or gpu)에 올라가 있지 않아서 그런거 같은데.. 분명 모델, 데이터는 to(device)로 같은 공간에 할당되어 있다.. 그럼 왜 안될까...??? 한참을 살펴보다 보니 전체 모델을 to(device) 한다고 해서 반드시 device로 할당되는건 아닌것 같았다. 이런식으로 모델과, 모든 데이터를 같은 공간에 할당시켜줬지만 해결이 안됐다. 그래서 하나씩 디버깅을 해보기 시작했다. 문제는 모델 내부에..
Cifa10 예제를 하고 있었는데 gpu를 사용하면 cpu보다 시간이 더 오래 걸리는 현상을 발견했다. 이유를 먼저 말하자면, 모델의 파라미터가 너무적기 때문이다. 모델의 파라미터 수가 너무 적으면 연산이 그만큼 적어지고, GPU를 사용하나 CPU를 사용하나 큰 차이가 없게된다. 또, 데이터를 to(device)로 gpu로 보내기때문에 그만큼 +@ 시간이 추가 되어 GPU의 시간이 더 오래 걸릴 수도 있다.. 그러니 혹시 gpu의 속도와 cpu의 속도가 비슷하다고 느껴진다면.. 모델의 복잡도를 한번 살펴보길 바란다.
- Total
- Today
- Yesterday
- 어탠션
- 백준
- YOLOv8
- 티스토리챌린지
- CNN
- 오블완
- 뜯어보기
- 오류
- 이미지
- yolov11
- 자바
- DeepLearning
- 디텍션
- docker
- 딥러닝
- java
- 도커
- GIT
- c3k2
- github
- 알고리즘
- 초보자
- V11
- 욜로
- YOLO
- 깃
- Tree
- 정리
- python
- GNN
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |