banner
홈페이지 / 블로그 / 로지스틱 회귀 분석: 간단한 가이드
블로그

로지스틱 회귀 분석: 간단한 가이드

Jul 01, 2023Jul 01, 2023

웨이친 추아

따르다

인간되기: 인공지능 매거진

--

듣다

공유하다

데이터 과학 및 기계 학습의 세계에서 로지스틱 회귀는 강력하고 널리 사용되는 알고리즘입니다. 이름에도 불구하고 물류취급이나 물품이동과는 아무런 관련이 없습니다. 대신 분류 작업을 위한 기본 도구로, 항목이 예/아니요, 참/거짓 또는 스팸/스팸 아님과 같은 두 가지 범주 중 하나에 속하는지 예측하는 데 도움이 됩니다. 이번 블로그에서는 로지스틱 회귀의 개념을 분해하여 최대한 간단하게 설명하겠습니다.

로지스틱 회귀는 지도 학습 알고리즘의 한 유형입니다. "회귀"라는 용어는 선형 회귀와 같이 연속 값을 예측하는 데 사용되지 않으므로 오해의 소지가 있을 수 있습니다. 대신 이진 분류 문제를 다룹니다. 즉, 간단히 "예" 또는 "아니요"로 대답할 수 있는 질문에 답합니다.

당신이 대학의 입학사정관이고 시험 점수를 기준으로 학생의 합격 여부를 예측하려고 한다고 가정해 보겠습니다. 로지스틱 회귀는 그러한 예측을 하는 데 도움이 될 수 있습니다!

로지스틱 회귀의 핵심에는 시그모이드 함수가 있습니다. 복잡하게 들릴 수도 있지만 이는 모든 입력을 0과 1 사이의 값으로 압축하는 수학 함수일 뿐입니다.

시그모이드 함수의 공식은 다음과 같습니다.

어디:

시각화해보자:

보시다시피 시그모이드 함수는 z의 큰 양수 값을 1에 가깝게 매핑하고 큰 음수 값을 0에 가깝게 매핑합니다. z = 0일 때, sigmoid(지)정확히 0.5이다.

이제 우리는 시그모이드 함수를 이해했습니다. 하지만 이것이 예측을 하는 데 어떻게 도움이 될까요?

로지스틱 회귀에서는 입력 특성의 선형 결합 결과인 각 데이터 포인트에 점수를 할당합니다. 그런 다음 이 점수를 시그모이드 함수에 전달하여 0과 1 사이의 확률 값을 얻습니다.

수학적으로 점수 z는 다음과 같이 계산됩니다.

어디:

일단 확률 시그모이드(지), 우리는 이를 긍정적인 클래스(예: 입학)에 속하는 데이터 포인트의 가능성으로 해석할 수 있습니다.

로지스틱 회귀는 확률을 제공하므로 해당 확률을 기반으로 결정을 내려야 합니다. 일반적으로 임계값을 0.5로 설정하여 이를 수행합니다. 시그모이드(지) 0.5보다 크거나 같으면 양성 클래스를 예측합니다. 그렇지 않으면 네거티브 클래스를 예측합니다.

요약하면 로지스틱 회귀는 이진 분류 문제에 대한 간단하지만 효과적인 알고리즘입니다. 시그모이드 함수를 사용하여 점수를 확률에 매핑하므로 결과를 쉽게 해석할 수 있습니다.

로지스틱 회귀는 방대하고 흥미로운 기계 학습 분야의 한 부분일 뿐이지만 데이터 과학 여정에서 중요한 구성 요소라는 점을 기억하십시오. 즐겁게 분류하세요!

1. 이진 분류를 위한 로지스틱 회귀: 로지스틱 회귀는 이진 분류 작업에 사용되는 강력한 알고리즘입니다. 이는 항목이 두 범주 중 하나에 속하는지 예측하는 데 도움이 되므로 예/아니요, 참/거짓 또는 스팸/스팸 아님 시나리오에 이상적입니다.

2. 시그모이드 함수: 로지스틱 회귀의 핵심에는 입력 값을 0과 1 사이의 확률로 매핑하는 시그모이드 함수가 있습니다. 이 함수는 입력 특성의 선형 조합을 확률 점수로 변환하는 데 중요합니다.

3. 확률 해석: 다른 회귀 방법과 달리 로지스틱 회귀는 연속 값 대신 확률을 생성합니다. 이러한 확률은 데이터 포인트가 양성 클래스에 속할 가능성을 나타내므로 모델의 예측을 명확하게 이해할 수 있습니다.

4. 임계값 설정: 실제 예측을 하기 위해 임계값이 설정됩니다(보통 0.5). 예측 확률이 임계값보다 크거나 같으면 양성 클래스가 예측됩니다. 그렇지 않으면 네거티브 클래스가 예측됩니다. 임계값을 조정하면 모델의 정밀도와 재현율 균형에 영향을 미칠 수 있습니다.