Perceptron
퍼셉트론 학습 규칙, PLA (= percpetron learning rule)
- 출력이 정확하면, 즉 y = hw(x)이면, 가중치들은 변하지 않는다.
- y가 1인데 hw(x)는 0인 경우, 해당 xi가 양수이면 wi를 증가하고 음수이면 감소한다.
- hw(x)가 1을 출력하려면 w * x를 더 크게 만들어야 한다는 뜻
- y가 0인데 hw(x)는 1인 경우에는, 해당 입력 xi가 양수이면 wi를 감소하고, 음수이면 증가한다.
- hw(x)가 0을 출력하려면 w * x를 더 작게 만들어야 한다는 뜻
위의 수식을 통해 더 알아보자면, wi는 각 특성 xi에 곱해지는 가중치이다.
threshold는 신용 승인이나 거부 같은 결정을 내리기 위한 기준값이다.
sign 함수는 결과 값이 0보다 크면 +1을, 0보다 작으면 -1을 반환한다.
Linear Classification (선형 회귀와 분류)
입력이 x이고 출력이 y인 단변량 선형 함수, 즉 직선은 y = w1x + w0의 형태이다.
여기서 w로 표현한 것은 가중치(weight)이다.
가중치들의 벡터는 w = <w0, w1>로 정의한다.
그리고 이들을 가중치로 사용하는 선형(일차) 함수는 다음과 같이 정의한다.
hw(x) = w1x + wo
'3-2 학기 > Artificial Intelligence' 카테고리의 다른 글
[인공지능] Ch17 MDPs II (0) | 2024.12.04 |
---|---|
[인공지능] Ch16 MDPs (0) | 2024.11.27 |
[인공지능] Ch14 Adversarial Search (0) | 2024.11.27 |
[인공지능] Ch13 Informed Search (0) | 2024.11.27 |
[인공지능] Ch12 Search (1) | 2024.11.27 |