Публикации по теме 'probability'


Перспектива новичка  — «Изучение науки о данных, машинного обучения и искусственного интеллекта с нуля». часть 2
Введение в статистику и вероятность Определение . Пространство выборки связано с экспериментом, а E – это совокупность всех комбинаций возможностей. Примеры: При подбрасывании монеты выпадает два орла или решки Подбрасывание монеты 3 раза меняет набор возможностей. {ЧЧЧ,ЧЧЧ,ЧЧ,ЧТТ,ЧЧЧ,ЧЧ,ЧЧ,ТТТ} Спросите 10 человек, играют ли они в Apex Legends {0,1,2,3,…,10}. Определение . Событие — это набор возможных результатов. Пример: На данной неделе {пн, вт, ср, чт, пт, сб, вс}..

Модель Бинго теории информации
Учитывая, насколько нелогичным может быть объяснение проблемы Монти Холла, возможно, существуют лучшие способы объяснения концепции получения информации. Прирост информации — это мера снижения неопределенности, возникающая в результате получения новой информации. В теории вероятностей прирост информации обычно используется в контексте деревьев решений и других алгоритмов машинного обучения для оценки полезности различных функций или атрибутов для прогнозирования. В общем, мне нравится..

Что такое теорема Байеса? Как это используется в науке о данных и машинном обучении?
Теорема Байеса — это математическая формула, используемая в теории вероятности и статистике для описания связи между различными событиями. Он назван в честь преподобного Томаса Байеса, английского статистика 18-го века, который впервые описал теорему в своей статье «Опыт решения проблемы в доктрине вероятностей». В самом общем виде теорема Байеса утверждает, что вероятность наступления события (А) равна вероятности наступления другого события (В), умноженной на вероятность наступления..

Понимание вероятностных моделей и аксиом
Основы Понимание вероятностных моделей и аксиом Зачем вообще заботиться о пространстве выборки, событиях и вероятностных показателях? Вы должны усвоить основы, потому что в противном случае причудливые вещи не сработают. — Рэнди Пауш, американский педагог, профессор компьютерных наук. Теория вероятностей — одна из тех основ, которыми нужно овладеть, чтобы преуспеть в области машинного обучения или искусственного интеллекта в целом. Будучи разделом математики, связанным с..

Поиск ожидаемых значений с помощью моделирования Монте-Карло: введение
Учебное пособие по решению распространенных вероятностных головоломок с использованием моделирования Монте-Карло на Python Если вы интересуетесь разгадыванием вероятностных головоломок, велика вероятность, что вы столкнулись с головоломками, которые требуют от вас найти ожидаемое количество попыток, прежде чем вы увидите требуемый результат. Если вы решили достаточно из них, скорее всего, вы знаете, как решать их аналитически. Я надеюсь, что эта статья позволит вам решить те же вопросы с..

Теорема Байеса: кто совершил преступление?
Вы могли столкнуться с примером с красным и синим шаром, пытаясь понять теорему Байеса. Объяснение действительно полезно, но теорема Байеса — это нечто большее, чем просто вычисление P (красный шар | синий шар). В этой статье я пытаюсь объяснить теорему Байеса на простом примере раскрытия тайны убийства! Что такое теорема Байеса? Теорема Байеса описывает вероятность события на основе предварительного знания условий, которые могут быть связаны с событием [1]. Наша цель здесь..

Проектирование системы автодополнения с нуля
Я просматривал свои старые проекты, над которыми работал, когда пытался получить свою первую работу и пробиться в прекрасную область науки о данных и машинного обучения. В частности, я наткнулся на одну из них, которая до сих пор кажется мне жемчужиной и которой я очень горжусь. Целью проблемы было автоматическое завершение, и это был один из первых сквозных проектов Data Science, которые я завершил в подобласти обработки естественного языка. Я использовал несколько основных концепций,..