Этот алгоритм преподается в качестве вводной главы почти в каждом курсе по машинному обучению, с которым вы сталкиваетесь. Это потому, что этот алгоритм позволяет учащимся удобно визуализировать интуицию, стоящую за ML. Я постараюсь объяснить это как можно проще.

Теперь без лишних слов давайте начнем понимать, что это за алгоритм и как он работает.

SLG — это контролируемый алгоритм машинного обучения, который помогает прогнозировать значения непрерывной переменной, используя информацию из независимой переменной. Например, допустим, у нас есть следующие данные:

Здесь «Вес» (в кг) — это переменная отклика, а «Рост» (в см) — независимая переменная. Мы передадим эти данные в нашу регрессионную модель и попытаемся максимально точно предсказать веса, когда будет предоставлен другой набор данных о высотах.

У меня есть 15 наблюдений в этом наборе данных, и давайте нанесем их на график, чтобы посмотреть, как они выглядят,

LR заключается в том, чтобы провести линию через эти точки таким образом, чтобы минимизировать вертикальные расстояния между каждой точкой и линией, и этот метод называется методом наименьших квадратов. Допустим, что мы нашли идеальную линию для этой цели, под этим мы подразумеваем, что получили наилучшее приближение к заданным данным.

Мы знаем уравнение линии Y=mX+c.

Мы должны найти оптимальную пару (m,c), которая поможет нам наилучшим образом оценить данные. Существует концепция под названием «Градиентный спуск», которая поможет нам достичь этой пары.

       Slope              Intercept
(0.7573397047753085, -25.70117500736426)

Итак, это основная идея простой линейной регрессии. Этот алгоритм просто пытается аппроксимировать взаимосвязь между двумя переменными, предполагая линейную взаимосвязь между ними.

AB