728x90 반응형 맥스풀링(max pooling)1 [딥러닝] 딥러닝 모델은 어떻게 학습되는가? – DNN & CNN 학습 구조 1. Gradient와 Jacobian의 차이항목GradientJacobian정의스칼라 함수의 편미분 벡터벡터 함수의 편미분 행렬형태1차원 벡터2차원 행렬사용DNN의 파라미터 업데이트다층 신경망, 출력 다중인 경우 즉, Gradient는 기울기, Jacobian은 벡터 기울기의 집합 2. Forward & Backward PropagationForward Propagation (순전파): 입력 → 가중치합 → 활성화함수 → 출력 Backward Propagation (역전파): 출력 오류 → 기울기 계산 → 가중치 업데이트 핵심 공식 (오차 역전파):3. 경사하강법 종류 (BGD vs MBGD vs SGD)방식설명단점BGD (Batch)전체 데이터로 한 번 업데이트정확하나 느림SGD (Stochasti.. 2025. 4. 20. 이전 1 다음 728x90 반응형