.imshow()를 수행하려고 하면 자꾸 커널이 죽는 현상이 발생하고, Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized. 이와같은 메시지를 확인 할 수 있었다. 이미 libiomp5md.dll이 이미 초기화 되어있어서 나는 오류인거같다. 해결책은 간단하다. import os os.environ['KMP_DUPLICATE_LIB_OK']='True' 위와같은 코드를 사용해주면 잘 작동되는 것을 확인할 수 있다. 위 코드는 중복을 허용하여 오류를 해결하는 것이다.
RuntimeError: Input type (torch.cuda.FloatTensor) and weight type (torch.FloatTensor) should be the same 와 같은 오류가 계속뜬다.. pix2pix 예제를 해보고 있는데 위와 같은 오류가 계속뜬다.. 분명 같은 공간?(cpu or gpu)에 올라가 있지 않아서 그런거 같은데.. 분명 모델, 데이터는 to(device)로 같은 공간에 할당되어 있다.. 그럼 왜 안될까...??? 한참을 살펴보다 보니 전체 모델을 to(device) 한다고 해서 반드시 device로 할당되는건 아닌것 같았다. 이런식으로 모델과, 모든 데이터를 같은 공간에 할당시켜줬지만 해결이 안됐다. 그래서 하나씩 디버깅을 해보기 시작했다. 문제는 모델 내부에..
torchtext의 버전이 바뀌면서.. 1년이 지난 지금.. '실전! 파이토치 딥러닝 프로젝트' 책의 모든 자연어 프로젝트가 모두 실행되지 않는다.. 물론 torchtext=0.5.0으로 다운그레이드하여 사용하면 되지만.. 비전이 올라갔는데 그럴순 없었다.. 죽은 코드를 한번 살려보기위해 torchtext를 정리해보고자 한다. * build_vocab_from_iterator > vocab을 만들어주는 함수 iterator(iterable) – 들어가야 하는 형식 min_freq(int) – 최소 빈도수 지정(최소 빈도수를 넘지 못하는 단어는 vocab에 넣지 않음) specials(str) – 스페셜 심볼. ,,와 같은 토큰들을 넣을 수 있음 special_first(bool)– 스페셜 심볼을 voca..
Cifa10 예제를 하고 있었는데 gpu를 사용하면 cpu보다 시간이 더 오래 걸리는 현상을 발견했다. 이유를 먼저 말하자면, 모델의 파라미터가 너무적기 때문이다. 모델의 파라미터 수가 너무 적으면 연산이 그만큼 적어지고, GPU를 사용하나 CPU를 사용하나 큰 차이가 없게된다. 또, 데이터를 to(device)로 gpu로 보내기때문에 그만큼 +@ 시간이 추가 되어 GPU의 시간이 더 오래 걸릴 수도 있다.. 그러니 혹시 gpu의 속도와 cpu의 속도가 비슷하다고 느껴진다면.. 모델의 복잡도를 한번 살펴보길 바란다.
바닐라 RNN은 길이가 길어지면 맨 앞쪽 내용이 점점 희석되는 단점이 있다. 이런 단점을 해결하기 위해 나온 모델이 LSTM / GRU 모델이다. 두 모델의 성능은 비슷하다고 하지만, GRU가 LSTM보다 연산 수가 적다고 한다. RNN의 원리는 직관적으로 이해가 가능하지만, LSTM 내부 구조는 직관적으로 복잡하기에 어떻게 사용하는지 정도만 알고 갔는데, 내부적으로 어떤 의미가 있는지 나름대로 해석하고 부여하여 정리해보고자 한다. https://wikidocs.net/60762 해당 링크의 설명을 참고하여 나름대로 의미를 부여해 보겠다. LSTM의 내부구조는 위의 그림과 같다. RNN과 다른점은 Cell state라는 것을 가지게 되는데, Cell state는 어떤 어떤 정보를 기억할 지 저장해 놓은 ..
딥러닝 분야를 접하면 반드시 접하게 되는 CNN, RNN이 있다. 비전과 자연어의 기본 모델이라, 어떻게 작동이 되는지 처음부터 잘 알아두면 큰 틀의 과정을 잘 이해할 수 있다고 생각된다. 여기서는 RNN에 대해 이야기 해보려고 한다. 어떻게 사용하는지 사용법을 알고싶다면, 빠르게 다른 포스팅을 찾는게 더 좋을 수 있다. 정말 어떻게 계산되는지 설명해보고자 한다. RNN의 이론을 보면 이와같은 이미지를 안볼수가 없다. 대부분 이런 이미지를 통해 RNN이라 설명한다. 하지만, 개인적으로 너무 설명이 생략된 것이 많다고 생각한다. 개인적으로 이런 그림이 보다 직관적이라 생각한다. A,B,C,D는 단어 embedding (vector)이다. 하지만, 보지 못한 것이 하나 있다. 맨 왼쪽 '0' 이라는 노드....
토치를 사용하다 보면 가장 많이 사용하게 되는게 tensor()이다. 그런데, 공부하다 보니 tensor()가 있고, Tensor()가 있는데 이 둘의 차이는 뭘까...?? 두 함수의 차이를 살펴보고 나름대로 정리를 해보려한다. https://stackoverflow.com/questions/51911749/what-is-the-difference-between-torch-tensor-and-torch-tensor What is the difference between torch.tensor and torch.Tensor? Since version 0.4.0, it is possible to use torch.tensor and torch.Tensor What is the difference? What ..
tensor뿐만 아니라 pandas에서 concat을 할때 어떤식으로 진행할지를 결정하게 될때 사용하는게 dim 이라는 파라미터이다. 예제로 봐보자. x,y,z를 stack하는 코드이다. stack을 진행할때, 어떤 차원을 기준으로 stack을 할지 명시해줘야한다. defalut는 0으로 dim = 0이라는 것과 같은 의미이다. dim = 0일때 결과를 살펴보면, 행으로 stack한 것을 볼 수 있다. 반대로, dim= 1 일때를 살펴보면, '열'로 stack을 진행한 것을 볼 수 있다. 추가적으로 설명해보자면, torch.Size([A,B,C,D,E])와 같은 5차원의 tensor가 존재할 경우, A부터 0, B는 1 , C는 2, D는 3, E는 4를 뜻한다. 이걸 알고 원하는 기준으로 stack을 ..
- Total
- Today
- Yesterday
- 욜로
- java
- 어탠션
- 티스토리챌린지
- yolov11
- 딥러닝
- 초보자
- Tree
- 디텍션
- 백준
- c3k2
- 알고리즘
- V11
- 이미지
- 뜯어보기
- GNN
- github
- 오류
- 자바
- 오블완
- 정리
- docker
- 도커
- CNN
- GIT
- YOLOv8
- python
- 깃
- DeepLearning
- YOLO
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |