Этот алгоритм преподается в качестве вводной главы почти в каждом курсе по машинному обучению, с которым вы сталкиваетесь. Это потому, что этот алгоритм позволяет учащимся удобно визуализировать интуицию, стоящую за ML. Я постараюсь объяснить это как можно проще.
Теперь без лишних слов давайте начнем понимать, что это за алгоритм и как он работает.
SLG — это контролируемый алгоритм машинного обучения, который помогает прогнозировать значения непрерывной переменной, используя информацию из независимой переменной. Например, допустим, у нас есть следующие данные:
Здесь «Вес» (в кг) — это переменная отклика, а «Рост» (в см) — независимая переменная. Мы передадим эти данные в нашу регрессионную модель и попытаемся максимально точно предсказать веса, когда будет предоставлен другой набор данных о высотах.
У меня есть 15 наблюдений в этом наборе данных, и давайте нанесем их на график, чтобы посмотреть, как они выглядят,
LR заключается в том, чтобы провести линию через эти точки таким образом, чтобы минимизировать вертикальные расстояния между каждой точкой и линией, и этот метод называется методом наименьших квадратов. Допустим, что мы нашли идеальную линию для этой цели, под этим мы подразумеваем, что получили наилучшее приближение к заданным данным.
Мы знаем уравнение линии Y=mX+c.
Мы должны найти оптимальную пару (m,c), которая поможет нам наилучшим образом оценить данные. Существует концепция под названием «Градиентный спуск», которая поможет нам достичь этой пары.
Slope Intercept (0.7573397047753085, -25.70117500736426)
Итак, это основная идея простой линейной регрессии. Этот алгоритм просто пытается аппроксимировать взаимосвязь между двумя переменными, предполагая линейную взаимосвязь между ними.
AB