[machine-learning] 지도 학습과 비지도 학습의 차이점은 무엇입니까? [닫은]

인공 지능과 머신 러닝의 관점에서지도 학습과 비지도 학습의 차이점은 무엇입니까? 예를 들어 기본적이고 쉬운 설명을 제공 할 수 있습니까?



답변

이 기본적인 질문을하므로 Machine Learning 자체를 지정하는 것이 좋습니다.

머신 러닝은 데이터 중심의 알고리즘 클래스입니다. 즉 “일반”알고리즘과 달리 “좋은 답변”이 무엇인지 “알려주는”데이터입니다. 예 : 이미지에서 얼굴 감지를위한 가상의 비 기계 학습 알고리즘은 얼굴이 무엇인지 (피부와 같은 디스크, 눈이 예상되는 어두운 영역)를 정의하려고 시도합니다. 머신 러닝 알고리즘은 그러한 코드화 된 정의를 갖지 않지만 “예제로 학습”할 것입니다 : 얼굴과 얼굴이 아닌 여러 이미지를 보여 주면 좋은 알고리즘이 결국에는 보이지 않는지를 배우고 예측할 수 있습니다 이미지는 얼굴입니다.

이 특정 얼굴 감지 예는 감독됩니다 . 즉, 예에 레이블을 지정 해야 하거나 어떤 얼굴이 아닌 얼굴을 명시 적으로 말해야합니다.

에서 자율 당신의 예제가되지 않는 알고리즘 표시 , 당신은 아무 말도하지 않습니다 즉. 물론 이러한 경우 알고리즘 자체는 얼굴을 “발명”할 수 없지만 데이터를 다른 그룹으로 클러스터링 하려고 시도 할 수 있습니다 . 예를 들어 얼굴이 말과는 매우 다른 풍경과 매우 다르다는 것을 구별 할 수 있습니다.

또 다른 답변이 그것을 언급하고 있기 때문에 (잘못된 방식으로) : “중급”형태의 감독, 즉 반 감독 적이고 적극적인 학습이 있습니다. 엄밀히 말하면이 방법은 많은 수의 레이블이 지정된 예제를 피하는 “스마트 한”방법이있는 감독 방법입니다. 적극적인 학습에서 알고리즘 자체는 레이블을 지정할 항목을 결정합니다 (예 : 풍경과 말에 대해 확신 할 수 있지만 고릴라가 실제로 얼굴 그림인지 확인하도록 요청할 수 있음). semi-supervised learning에는 레이블이있는 예제로 시작하여 레이블이없는 많은 데이터에 대해 생각하는 방식을 서로 “알려주는”두 가지 알고리즘이 있습니다. 이 “토론”에서 그들은 배운다.


답변

지도 학습 은 로직에 의사 결정을 내리는 데 도움이되도록 알고리즘에 공급하는 데이터가 “태그”또는 “라벨”된 경우입니다.

예 : 결과를 세분화하기 위해 항목을 스팸으로 플래그 지정해야하는 스팸 필터링을 차단합니다.

비지도 학습 은 원시 데이터 이외의 외부 입력없이 상관 관계를 찾으려고하는 알고리즘 유형입니다.

예 : 데이터 마이닝 클러스터링 알고리즘


답변

지도 학습

훈련 데이터가 대응하는 목표 벡터와 함께 입력 벡터의 예를 포함하는 응용은지도 학습 문제로 알려져있다.

비지도 학습

다른 패턴 인식 문제에서, 훈련 데이터는 대응하는 목표 값이없는 입력 벡터 x 세트로 구성된다. 이러한 비지도 학습 문제의 목표는 데이터 내에서 유사한 예제 그룹을 발견하는 것입니다.

패턴 인식 및 기계 학습 (Bishop, 2006)


답변

지도 학습에서는 입력 x에 예상 결과 y(즉, 입력이 모델이 생성 할 것으로 예상되는 출력 x)가 제공되는데,이를 종종 해당 입력의 “클래스”(또는 “라벨”)라고합니다 x.

비지도 학습에서는 예제의 “클래스” x가 제공되지 않습니다. 따라서 비지도 학습은 레이블이없는 데이터 세트에서 “숨겨진 구조”를 찾는 것으로 생각할 수 있습니다.

지도 학습에 대한 접근법은 다음과 같습니다.

  • 분류 (1R, Naive Bayes, ID3 CART 등 의사 결정 트리 학습 알고리즘 등)

  • 숫자 값 예측

비지도 학습에 대한 접근법은 다음과 같습니다.

  • 클러스터링 (K- 평균, 계층 적 클러스터링)

  • 협회 규칙 학습


답변

예를 들어, 신경망을 훈련시키는 것은 종종지도 학습입니다. 공급하는 지형 벡터에 해당하는 클래스를 네트워크에 알려주는 것입니다.

클러스터링은 비지도 학습입니다. 알고리즘을 통해 샘플을 공통 속성을 공유하는 클래스로 그룹화하는 방법을 결정할 수 있습니다.

비지도 학습의 또 다른 예는 Kohonen의 자체 구성 맵 입니다.


답변

나는 당신에게 예를 말할 수 있습니다.

어느 차량이 자동차이고 어떤 것이 오토바이인지 인식해야한다고 가정하십시오.

에서 감독 이 자동차 나 오토바이를 나타내는 경우 학습의 경우, 사용자의 입력 (교육) 데이터 집합의 각 입력 요소에 대해, 당신의 입력 (교육) 표시 할 데이터 세트의 요구는, 당신은 지정해야합니다.

에서 자율 학습의 경우, 당신은 입력 레이블을하지 않습니다. 감독되지 않은 모델은 유사한 기능 / 속성을 기반으로 입력을 클러스터로 클러스터링합니다. 따라서이 경우 “car”와 같은 레이블이 없습니다.


답변

지도 학습

지도 학습은 올바른 분류가 이미 지정된 데이터 소스에서 데이터 샘플을 학습하는 것을 기반으로합니다. 이러한 기술은 피드 포워드 또는 MLP (MultiLayer Perceptron) 모델에 사용됩니다. 이 MLP에는 세 가지 특징이 있습니다.

  1. 네트워크가 복잡한 문제를 배우고 해결할 수있게하는 네트워크의 입력 또는 출력 레이어의 일부가 아닌 하나 이상의 숨겨진 뉴런 레이어
  2. 뉴런 활동에 반영된 비선형 성은 구별 할 수 있으며
  3. 네트워크의 상호 연결 모델은 높은 수준의 연결성을 나타냅니다.

훈련을 통한 학습과 함께 이러한 특성은 어렵고 다양한 문제를 해결합니다. 감독 된 ANN 모델에서의 교육을 통한 학습은 오류 역 전파 알고리즘이라고도합니다. 오류 수정 학습 알고리즘은 입력-출력 샘플을 기반으로 네트워크를 학습하고 계산 된 출력과 원하는 출력의 차이 인 오류 신호를 찾고 오류의 곱에 비례하는 뉴런의 시냅스 가중치를 조정합니다. 시냅스 무게의 신호와 입력 인스턴스. 이 원칙을 바탕으로 오류 백 전파 학습은 두 단계로 이루어집니다.

포워드 패스 :

여기서 입력 벡터는 네트워크에 표시됩니다. 이 입력 순방향 신호 전파, 네트워크를 통한 신경 세포에 의한 신경 세포는 출력 신호로서 네트워크의 출력단 출현 에 의해 정의 된 신경 세포의 국소 체 유도 출력 층 O (N)는 계산 된 출력 원하는 반응 과 비교하고 해당 뉴런에 대한 오류 를 찾습니다 . 이 과정에서 네트워크의 시냅스 가중치는 동일하게 유지됩니다.y(n) = φ(v(n))v(n)v(n) =Σ w(n)y(n).d(n)e(n)

뒤로 패스 :

해당 레이어의 출력 뉴런에서 시작된 오류 신호는 네트워크를 통해 뒤로 전파됩니다. 이를 통해 각 레이어의 각 뉴런에 대한 로컬 그래디언트를 계산하고 네트워크의 시냅스 가중치가 델타 규칙에 따라 다음과 같이 변경 될 수 있습니다.

Δw(n) = η * δ(n) * y(n).

이 재귀 계산은 네트워크가 수렴 될 때까지 각 입력 패턴에 대해 정방향 통과와 역방향 통과로 계속됩니다.

ANN의지도 학습 패러다임은 효율적이며 분류, 플랜트 제어, 예측, 예측, 로봇 공학 등과 같은 여러 선형 및 비선형 문제에 대한 솔루션을 찾습니다.

비지도 학습

자가 조직 신경망은 비지도 학습 알고리즘을 사용하여 레이블이없는 입력 데이터에서 숨겨진 패턴을 식별합니다. 이 감독되지 않은 것은 잠재적 인 솔루션을 평가하기 위해 오류 신호를 제공하지 않고 정보를 배우고 구성하는 능력을 말합니다. 비지도 학습에서 학습 알고리즘에 대한 지시가 부족하면 알고리즘이 이전에 고려되지 않은 패턴을 되돌아 볼 수 있기 때문에 언젠가 유리할 수 있습니다. SOM (Self-Organizing Maps)의 주요 특징은 다음과 같습니다.

  1. 임의의 차원의 들어오는 신호 패턴을 1 차원 또는 2 차원 맵으로 변환하고이 변환을 적응 적으로 수행합니다.
  2. 네트워크는 행과 열로 배열 된 뉴런으로 구성된 단일 계산 계층으로 피드 포워드 구조를 나타냅니다. 각 표현 단계에서 각 입력 신호는 적절한 컨텍스트에 유지되며
  3. 밀접하게 관련된 정보를 다루는 뉴런은 서로 가깝고 시냅스 연결을 통해 통신합니다.

계산 계층은 계층의 뉴런이 서로 경쟁하여 활성화되기 때문에 경쟁 계층이라고도합니다. 따라서이 학습 알고리즘을 경쟁 알고리즘이라고합니다. SOM의 비지도 알고리즘은 3 단계로 작동합니다.

경쟁 단계 :

x네트워크에 제시된 각 입력 패턴에 대해 시냅스 무게를 가진 내부 제품 w이 계산되고 경쟁 계층의 뉴런은 뉴런과 유클리드 거리의 입력 벡터에 가까운 시냅스 무게 벡터 간의 경쟁을 유도하는 판별 함수를 찾습니다. 대회에서 우승자로 발표됩니다. 그 뉴런을 가장 잘 맞는 뉴런이라고합니다

i.e. x = arg min ║x - w║.

협력 단계 :

이기는 뉴런 h은 협력 뉴런 의 토폴로지 근방 의 중심을 결정합니다 . 이것은 d협력 뉴런들 간의 측면 상호 작용에 의해 수행된다 . 이 토폴로지 지역은 일정 기간 동안 크기를 줄입니다.

적응 단계 :

이기는 뉴런과 그 주변 뉴런은 적절한 시냅스 무게 조정을 통해 입력 패턴과 관련하여 판별 기능의 개별 값을 증가시킬 수 있습니다.

 Δw = ηh(x)(x –w).

훈련 패턴의 반복 된 제시에서, 시냅스 가중치 벡터는 이웃 업데이트로 인해 입력 패턴의 분포를 따르는 경향이 있으므로 ANN은 감독자없이 학습한다.

자가 조직화 모델은 자연적으로 신경 생물학적 행동을 나타내므로 클러스터링, 음성 인식, 텍스처 분할, 벡터 코딩 등과 같은 많은 실제 응용 분야에서 사용됩니다.

참고.