728x90 반응형 딥러닝7 [딥러닝] 딥러닝 기반 시각 인식 모델: CNN 구조 및 활용 1. CNN이란?CNN(합성곱 신경망)은 이미지와 같은 공간 데이터를 처리하기에 적합한 구조를 가진 신경망이다. 전통적인 완전 연결층과 달리, CNN은 필터(또는 커널)를 사용해 이미지의 지역적인 특징을 학습한다. 2. CNN의 핵심 연산2.1 Convolution 연산 - 입력 이미지와 필터(커널)를 곱한 후 더해주는 연산. - 특징적인 패턴(엣지, 질감 등)을 감지함. - 수식 예시: O = (N - F + 2P) / S + 1 여기서 N: 입력 크기, F: 필터 크기, P: 패딩, S: 스트라이드 2.2 Padding - 가장자리 정보 손실 방지를 위해 이미지를 0으로 둘러쌈. - 출력 크기를 유지하고, 특징 손실을 줄임. → 예시: 7x7 이미지에 3x3 필터, padding=1 → 출력은 7x7.. 2025. 5. 17. [딥러닝] CNN 구조를 한눈에! 1. CNN이란?이미지 인식에 특화된 딥러닝 모델일반 DNN은 이미지의 공간 구조를 무시하고 1차원으로 펼침→ 위치 정보 손실, 파라미터 수 증가CNN은 위치, 모양, 패턴을 잘 포착함 2. CNN의 생물학적 배경Hubel & Wiesel (1959): 고양이 시각 피질 실험 → 계층 구조로 시각 자극을 처리하는 뉴런 발견Kunihiko Fukushima: Neocognitron 제안Yann LeCun: LeNet-5 → 최초의 CNN 모델 3. CNN 핵심 구조 입력 → Convolution → ReLU → Pooling → Flatten → FC Layer → Softmax 🔹 Convolution 연산필터(커널)를 이미지에 슬라이딩하며 특징 추출실제 CNN에서는 cross-correlation .. 2025. 4. 20. [딥러닝] DNN 학습의 원리와 최적화 전략 1. 신경망 학습의 의미정답(label)은 있지만 규칙은 주어지지 않음 → 신경망이 데이터를 보며 스스로 함수적 관계(mapping)를 학습Neuron(가중치합 + 활성함수) → Layer → Network 2. 최적화란?정답을 수학적으로 계산할 수 없을 때, 근사적으로 최선의 값을 찾는 방법목적함수를 최소화/최대화예: 식단 구성에서 비용 최소화 + 영양소 조건 만족 회귀 = 오차 최소화 / 분류 = 확률 차이 최소화 3. Gradient Descent (경사하강법)손실 함수의 기울기 방향으로 이동하여 최솟값 탐색 4. Backpropagation AlgorithmLoss의 gradient를 출력 → 은닉 → 입력 방향으로 전달Chain rule 이용 → 효율적인 미분 계산으로 가중치 업데이트 5. .. 2025. 4. 20. [딥러닝] 딥러닝 모델은 어떻게 학습되는가? – DNN & CNN 학습 구조 1. Gradient와 Jacobian의 차이항목GradientJacobian정의스칼라 함수의 편미분 벡터벡터 함수의 편미분 행렬형태1차원 벡터2차원 행렬사용DNN의 파라미터 업데이트다층 신경망, 출력 다중인 경우 즉, Gradient는 기울기, Jacobian은 벡터 기울기의 집합 2. Forward & Backward PropagationForward Propagation (순전파): 입력 → 가중치합 → 활성화함수 → 출력 Backward Propagation (역전파): 출력 오류 → 기울기 계산 → 가중치 업데이트 핵심 공식 (오차 역전파):3. 경사하강법 종류 (BGD vs MBGD vs SGD)방식설명단점BGD (Batch)전체 데이터로 한 번 업데이트정확하나 느림SGD (Stochasti.. 2025. 4. 20. 이전 1 2 다음 728x90 반응형