본문 바로가기
  • 비둘기다
  • 비둘기다
  • 비둘기다

AI21

[Computer Vision] cs231n lecture4 - Backpropagation andNeural Networks part 1 먼저 지난 강의의 내용을 복습하자면 다음과 같습니다. 먼저 문제와 정답 사이의 점수를 scores function을 이용하여 얻어내고, SVM과 같은 손실함수로 위의 점수들의 현황이 얼마나 좋은 상황인지 아닌지를 판별했습니다. 그다음 L이라는 변수를 loss에 대한 combination과 정규화된 값을 이용하여 지정해 줬습니다. 그러면 이제 우리가 찾고자 하는 것은 가장 낮은 손실에 대한 W값입니다. 그러기 위해서는 W에 대한 L의 기울기를 구해야 합니다. 그래서 저번 lecture3에서 gradient descent와 optimization을 보면서 우리가 원하는 최적의 W값을 얻는 법을 배웠습니다. 이번에는 저번에 배운 analytic gradient를 임의의 complex function에 적용하는.. 2023. 5. 12.
[Computer Vision] cs231n lecture2 - Image Classification 이미지란, 숫자로 구성된 3D array로 앞에서 말한 숫자는 0부터 255까지로 이루어져 있습니다. 이미지 데이터를 분석하고 분류하는데 있어서는 여러가지 challenge가 존재합니다. 1. Viewpoint : 어느 시각에서 보느냐에 따라 달라 보이는 것 2. Illumination : 조명(밝기)에 따라 이미지가 달라 보이는 것 3. Deformation : 우리가 일반적으로 알고 있는 모습과는 다른 형태 4. Occlusion : 어딘가에 은폐, 은닉하여 알아보기 힘든 것 5. Background Clutter : 배경에 융화되어 잘 보이지 않는 것 6. Intraclass Variation : 같은 이름으로 분류되지만 그 형태가 다양한 경우 원래는 모델을 만들 때 predict하는 모델 하나만을.. 2023. 4. 5.
[Computer Vision] cs231n lecture3 - Loss Functions and Optimization 일반적으로 손실함수에 대해 이야기를 할 때 여러 개의 x와 y가 있다고 가정합니다. x들은 이미지 분류 사례에서 알고리즘에 대한 입력인 N개의 예입니다. 즉, 이미지들의 실제 픽셀값이 됩니다. 그리고 y들은 알고리즘이 예측하기를 원하는 것입니다. 주로 레이블이나 대상이라고 부릅니다. 손실함수의 경우에는 x와 가중치 행렬 W를 취하고 이를 통해 y를 예측하는 예측함수를 구성하게 됩니다. 이를 이미지 분류에서는 실제 목표 또는 레이블 y와 함께 함수 f에서 나오는 예측 점수를 가져오고, 해당 훈련에 대한 예측이 얼만 나쁜지에 대한 정량적 값을 제공하는 일부 손실함수를 정의합니다. 이제 최종 손실 L은 데이터셋의 N개의 예시 각각에 대해 전체 데이터셋에 대해 합산된 손실값의 평균입니다. ○ 다중 클래스 SVM.. 2023. 3. 24.
[머신러닝, 딥러닝] 합성곱 신경망 (3) CNN 구현하기 이전까지 합성곱 신경망에 등장하는 계층들을 소개하고 이들을 구현해 보았습니다. 그럼 이제 손글씨 숫자를 인식하는 CNN을 조합하여 만들어보겠습니다. 위는 단순한 CNN 네트워크입니다. 먼저 __init__으로 초기화를 하는 부분입니다. class SimpleConvNet: def __init__(self, input_dim=(1, 28, 28), # 압력 데이터터 conv_param={'filter_num': 30, 'filter_size': 5, 'pad': 0, 'stride': 1}, hidden_size=100, output_size=10, weight_init_std=0.01): # 은닉(완전연결), 출력(완전연결), 초기화시 가중치 표준편차차 filter_num = conv_p.. 2023. 3. 1.