728x90
반응형
SMALL
[밑시딥1] Chapter4 신경망 학습(2)
·
Books/밑바닥부터 시작하는 딥러닝1
해당 포스팅은 책을 기준으로 하며, 공부 기록 목적으로 작성되었습니다. 기울기모든 변수의 편미분을 벡터로 정리한 것을 기울기라고 한다. 기울기는 다음과 같이 구현할 수 있다.def numerical_gradient(f, x): h = 1e-4 # 0.0001 grad = np.zeros_like(x) # x와 형상이 같고 모든 원소가 0인 배열을 생성 for idx in range(x.size): tmp_val = x[idx] # f(x+h) 계산 x[idx] = tmp_val + h fxh1 = f(x) # f(x-h) 계산 x[idx] = tmp_val - h fxh2 = f(x) g..
[밑시딥1] Chapter4 신경망 학습(1)
·
Books/밑바닥부터 시작하는 딥러닝1
해당 포스팅은 책을 기준으로 하며, 공부 기록 목적으로 작성되었습니다. 학습이란 훈련 데이터로부터 가중치 매개변수의 최적값을 자동으로 획득하는 것을 뜻한다. 손실 함수는 신경망이 학습할 수 있도록 해주는 지표로 손실 함수의 결괏값을 가장 작게 만드는 개중치 매개변수를 찾는 것이 학습의 목표이다. 데이터에서 학습한다! 신경망의 특징은 데이터를 보고 학습할 수 있다는 점이고 학습한다는 것은 가중치 매개변수의 값을 데이터를 보고 자동으로 결정한다는 의미이다. 데이터 주도 학습 기계학습은 데이터에서 답과 패턴을 찾고 데이터로 이야기를 만드는 것이기 때문에 그 중심에는 데이터가 존재한다. 기계학습에서는 사람의 개입을 최소화하고 수집한 데이터로부터 패턴을 찾으려 시도한다. 신경망과 딥러닝은 기존 기계학습에서 사용하..
[밑시딥1] Chapter3 신경망
·
Books/밑바닥부터 시작하는 딥러닝1
해당 포스팅은 책을 기준으로 하며, 공부 기록 목적으로 작성되었습니다. 퍼셉트론은 복잡한 함수도 표현할 수 있다는 장점이 있지만, 가중치를 사람이 수동으로 설정해야 한다는 단점이 있다. 신경망은 가중치 매개변수의 적절한 값을 데이터로부터 자동으로 학습하는 능력이 있어 퍼셉트론의 단점을 해결해 줄 수 있다.퍼셉트론에서 신경망으로아래 그림에서 볼 수 있듯이 가장 왼쪽 줄을 입력층, 맨 오른쪽 줄을 출력층, 중간 줄을 은닉층이라고 한다. 은닉층의 뉴런은 사람 눈에 보이지 않고 '은닉' 되어 있다. 책에서는 입력층, 은닉층, 출력층을 0, 1, 2층이라고 한다.퍼셉트론 복습그림 3-2는 두 신호를 입력받아 y를 출력하는 퍼셉트론이고, 식으로 표현하면 식 3.1이 된다.식에서 나온 편향, b까지 그림에 명시하녀..
728x90
반응형
LIST
성장중 •͈ᴗ•͈
'신경망' 태그의 글 목록