인공지능/cs231n4 [cs231n] 5강. Convolutional Neural Networks 이번 5강에서는 Vision Task를 효율적으로 해결하는 네트워크 구조인 Convolutional neural network의 역사와 작동 원리에 대해 알아본다. 지난 시간에 배운 내용은 위 그림과 같다.2개의 퍼셉트론 층을 쌓았다.단순히 선형 변환식을 겹쳐서 쌓아 최종 스코어를 얻었다.이는 명확하게 한계가 있다.각 이미지의 지역적 정보를 활용하지 못할뿐더러 각 입력이 모든 출력에 개입한다는 점이 그렇다.이러한 한계점을 CNN이 해결해준다. CNN의 등장 배경의 역사를 거슬러 올라가면 아주 오래전으로 거슬러 올라간다.(1957년)그러한 배경은 차치하고 CNN 등장에 가장 직접적인 역할을 한 것은 LeCun의 모델이다.위의 왼쪽 그림이 LeCun의 모델의 구조인데 사실 CNN과 거의 똑같다. 다만 스케.. 2024. 6. 19. [cs231n] 4강. Backpropagation and Neural Networks 이번 4강에서는 backpropagation의 작동 원리와 Neural network의 아키텍처에 대해 간략히 알아본다. 지금까지 배운 것은 다음과 같다.이미지에 대한 score를 구하고 이 값을 Loss function에 적용했다.그 후에 Data loss를 구하여 w(파라미터)에 대한 data loss의 기울기를 구했다.이때 gradient descent 방식이 사용되어 최적의 loss를 갖도록 파라미터를 업데이트 했다는 것이다. 위 그림에서 알 수 있듯이 입력 이미지로부터 loss까지 도달하기에 수 많은 weights(model parameter)가 있다.기울기를 구하는 건 알겠는데, layer를 거치면서 생기는 이 많은 weights의 기울기는 어떻게 한번에 구할 수 있을까?이 물음에 .. 2024. 6. 5. [cs231n] 3강. Loss functions and Optimization 3장은 지난 2장에서 살펴본 Linear classifier의 score가 얼마나 잘 산출된 것인지 알아보는 Loss func와이 Loss func를 최소화시키는 parameter들을 얼마나 효율적으로 찾을 것인지 알아보는 optimization에 대한 내용이다. 앞서 우리는 linear classifier로 score를 산출할 수 있었다.(이미지 픽셀값에 가중치 W행렬을 곱하고, bias를 더하여 score를 구했다.) 3개의 이미지에 대한 각 class의 score는 아래의 그림과 같다고 가정하자.이 score의 합이 전체 데이터 셋에 대한 Loss에 기여하도록 해야 한다.이 강의에서는 multiclass SVM loss를 사용하여 예시를 들어준다.SVM loss에 따르면 고양이 이미지에 대한 Los.. 2024. 5. 28. [cs231n] 2장. image classification pipeline cs231n은 stanford univ에서 제공하는 neural network(NN), convolution neural network(CNN) 관련 deep learning 강좌다.이를 공부해 보고 정리해보고자 한다! 1장에서는 이 강좌에 대한 introduction part이다. 이 부분에서 컴퓨터 비전의 역사와 발전 양상을 다루고 있다.내용이 궁금한 사람은 아래의 링크에서 직접 보는 것을 추천한다.https://www.youtube.com/watch?v=vT1JzLTH4G4&list=PLC1qU-LWwrF64f4QKQT-Vg5Wr4qEE1Zxk2장은 computer vision task 중 가장 고전적이면서 근본적인 image classification를 다룬다.이 task에서 고려해야 할 한계점이.. 2024. 5. 24. 이전 1 다음