본문 바로가기
3-2 학기/Artificial Intelligence

[인공지능] Ch2 Linear Classification

by bona.com 2024. 10. 10.

 

Perceptron

퍼셉트론 학습 규칙, PLA (= percpetron learning rule)

  • 출력이 정확하면, 즉 y = hw(x)이면, 가중치들은 변하지 않는다.
  • y가 1인데 hw(x)는 0인 경우, 해당 xi가 양수이면 wi를 증가하고 음수이면 감소한다.
    • hw(x)가 1을 출력하려면 w * x를 더 크게 만들어야 한다는 뜻
  • y가 0인데 hw(x)는 1인 경우에는, 해당 입력 xi가 양수이면 wi를 감소하고, 음수이면 증가한다. 
    • hw(x)가 0을 출력하려면 w * x를 더 작게 만들어야 한다는 뜻

 

위의 수식을 통해 더 알아보자면, wi는 각 특성 xi에 곱해지는 가중치이다.

threshold는 신용 승인이나 거부 같은 결정을 내리기 위한 기준값이다.

sign 함수는 결과 값이 0보다 크면 +1을, 0보다 작으면 -1을 반환한다. 

 

Linear Classification (선형 회귀와 분류)

입력이 x이고 출력이 y인 단변량 선형 함수, 즉 직선은 y = w1x + w0의 형태이다.

 

여기서 w로 표현한 것은 가중치(weight)이다.

가중치들의 벡터는 w = <w0, w1>로 정의한다.

그리고 이들을 가중치로 사용하는 선형(일차) 함수는 다음과 같이 정의한다.

hw(x) = w1x + wo

 

 

 

'3-2 학기 > Artificial Intelligence' 카테고리의 다른 글

[인공지능] Ch17 MDPs II  (0) 2024.12.04
[인공지능] Ch16 MDPs  (0) 2024.11.27
[인공지능] Ch14 Adversarial Search  (0) 2024.11.27
[인공지능] Ch13 Informed Search  (0) 2024.11.27
[인공지능] Ch12 Search  (1) 2024.11.27