전체 글 63

[week 3 - day 2] CNN / modern CNN

CNN(Convolutional Neural Network)이란 ? 이미지와 같은 2D 데이터를 처리하기 위한 딥러닝 모델이고, CNN은 Convolutional Layer, Pooling Layer, Fully Connected Layer 등으로 구성되어 있다. Convolutional Layer에서는 이미지같은 입력 데이터를 필터(kernel)와 합성곱 연산을 통해 다양한 feature를 추출하는 것이다. 합성곱 연산은 입력 데이터와 필터를 일정 간격으로 겹쳐가며 곱하고 더하는 연산이다. 이러한 연산을 통해 출력 데이터 크기를 계산할 수 있다. 공식은 위와 같다. 주의할 점은 입력 데이터의 채널 수와 kernel의 채널 수가 같아야 하는 것 ! parameter 개수 공식 : (kernel 가로*세로..

[week 2] 회고

https://yodabe.tistory.com/20 https://yodabe.tistory.com/22 위는 2주차 개념 정리이다 실습 코드가 있어 모두 비공개 처리하였다 ㅠ 이번 주의 성취 : 본격적으로 딥러닝 흐름을 알 수 있었다. 간단한 custom model을 직접 구현해보면서 흐름을 알아가고 많은 함수를 접하게 되었다. 결국 못 풀고 제출^^^^^ 다음 주 목표 : 집에 있으면 나만 공부가 안 되나 ㅜ 집 앞 카페에 가서 억지로라도 집중력을 높이고 있다..! 다음 주 목표(week3)는 아래와 같다. 1. 깃 강의 듣기 2. DL Basic 강의 듣기 + 과제 열심히 하기 3. denseNet 논문 읽기 4. 심화과제 풀기..

[week 1] 회고

으하하 나보다 게으른 사람 있을까 이제서야 적는 1주차 회고이다..! https://yodabe.tistory.com/10 https://yodabe.tistory.com/12 https://yodabe.tistory.com/13 https://yodabe.tistory.com/14 https://yodabe.tistory.com/15 위는 1주차 개념 정리이다. 파이썬과 확률 그리고 경사하강법에 대해서 집중적으로 다뤘다. 이번 주의 성취 :어려운 개념은 없었지만, 확실히 할게 많았다... 부캠의 매운맛을 맛 봤달까... 방학 내내 누워서 하루를 보냈는데, 드디어 갓생을 시작하게 되었다 ~! 문제 및 해결 :딱히 없었다 사실 기억이 나지 않는다.. 이래서 회고는 그 주차에 해야하나보다...반성.. 배운 ..

[48회 SQLD] 시험 회고 + 복기

결과 :개발자모드로 보면 결과 미리 확인할 수 있다는 걸 보고 미리 확인했당 ! 78점으로 합격했다 !!!! 하루 전에 밤새고 30분만 잤는데, 좀 자면서 했어도 됐었겠다 싶지만 높으면 좋은거지 뭐😛 나와 같이 새벽에 공부해줘서 고마버..🙃전날 밤 새서 개념 외워서 갔는데 벼락치기 선빵한 것 같다ㅎㅎㅎㅎ 보통 밤 새도 당일에 시험 시작하면 잠이 깨는데, 시험 도중에도 졸아서 진짜 놀람(계속 졸아서 손 꼬집으면서 품ㅋㅋㅋㅋㅋㅠㅠ) 무튼, 너무 졸려서 그냥 얼른 풀고 마킹만 제대로 체크했는지 확인하고 나왔다.. 앞자리라서 답을 적어올 생각은 못했는데, 나오면서 어떤 분들은 답을 적어서 맞춰보고 계셨다 부럽ㅜ 무튼, 시험 끝나고 친구랑 점심먹구(영지갈비 먹고 싶었는데 일요일은 휴무였.. 안 간지 오래돼서 가고..

기록 2023.03.20

[week 1 - day 5] cnn, rnn

시퀀스 데이터 시퀀스 데이터는 순차적으로 발생한 데이터를 뜻한다. 시퀀스 데이터는 iid를 위반할 수 있다. iid(Independent Identically Distributed) 란, 각각의 샘플이 서로 독립적이고 같은 분포에서 동일하게 생성된 데이터이다. 시퀀스 데이터는 이전 샘플과 현재 샘플 사이에 상관관계가 있을 수 있어 독립적이라고 볼 수 없다. 그렇기에 위반하는 것 같다 !

[week 1 - day 4] 딥러닝 ~ 베이즈 통계학

신경망 신경망은 입력값과 출력값을 연결하는 여러 개의 뉴던(node)로 이루어져 있다. 신경망은 입력층, 은닉층, 출력층으로 계층적 구조로 구성되어 있다. 입력층은 입력 데이터를 받는 부분이고, 출력층은 최종 결과를 내보내는 부분, 은닉층은 보통 여러 층으로 구성되어 있는데, 또한 각 층은 여러 개의 뉴런으로 구성되어 있다. 은닉층에서 활성화 함수를 통해 출력 신호를 계산한다. (활성화 함수 : softmax, 시그모이드, ReLU, tanh 등등등) 결론 : 위와 같이 활성화 함수를 통해 출력된 값이 신경망이 예측한 결과이고, 실제 값과의 차이가 손실 함수(loss function)이다. loss를 최소화하기 위해 가중치(weight)를 조절하는 것이 신경망 학습 과정이다. softmax softmax..

[week 1 - day 3] 경사하강법

경사하강법 미분은 변수의 움직임에 따른 함수값의 변화를 측정하는 것으로 최적화에서 많이 쓰이는 기법 최적화에 어떻게 쓰이는가? 미분은 접선의 기울기를 구할 수 있는데, 이 접선의 기울기를 통해 어떤 방향으로 움직어야 함수 값이 증가하는지 감소하는지를 판단할 수 있다. 미분값을 더하면 함수 값이 증가하는 것, 미분값을 빼면 함수 값이 감소하는 것 ! 이게 바로 경사상승법, 경사하강법이다 그러니깐 경사하강법은 어느 지점에서 상관없이 미분값을 빼가면서 극값을 찾는 과정이라고 할 수 있음 Weight = Weight - lr * 기울기 위 공식처럼 lr(학습률)을 곱해주는데, 학습률이 너무 작으면 수렴하는데(=극값을 찾는데) 너무 오래 걸리고, 크면 발산 가능성이 있다. 변수가 벡터라면 ? 변수가 벡터라면, 손..