그래디언트 부스팅 알고리즘은 머신러닝 예측 과제에서 가장 강력하고 인기있는 알고리즘입니다. 하지만 회귀문제뿐 아니라 분류문제에까지 적용되는 원리를 이해하기 쉽지 않고, 그런 기본적인 이해를 바탕으로 간단하게 코드로 구현해보기도 쉽지 않은 것이 사실입니다. 본 세미나에서는 회귀 및 분류 문제에 대한 알고리즘의 원리를 간단히 소개합니다. 그리고 그 원리를 누구나 이해할 수 있는 간단한 코드로 구현합니다. scikit-learn의 Gradient Boosting 구현 결과와 직접 구현한 결과를 비교하며 유효성을 검증하여 알고리즘에 대한 이해를 단단히 다지고자 하는 것이 본 세미나의 목적입니다.
그래디언트 부스팅 알고리즘은 머신러닝 예측 과제에서 가장 강력하고 인기있는 알고리즘입니다. 하지만 회귀문제뿐 아니라 분류문제에까지 적용되는 원리를 이해하기 쉽지 않고, 그런 기본적인 이해를 바탕으로 간단하게 코드로 구현해보기도 쉽지 않은 것이 사실입니다. 본 세미나에서는 회귀 및 분류 문제에 대한 알고리즘의 원리를 간단히 소개합니다. 그리고 그 원리를 누구나 이해할 수 있는 간단한 코드로 구현합니다. scikit-learn의 Gradient Boosting 구현 결과와 직접 구현한 결과를 비교하며 유효성을 검증하여 알고리즘에 대한 이해를 단단히 다지고자 하는 것이 본 세미나의 목적입니다.