Публикации по теме 'statistics'
Перспектива новичка — «Изучение науки о данных, машинного обучения и искусственного интеллекта с нуля». часть 2
Введение в статистику и вероятность
Определение . Пространство выборки связано с экспериментом, а E – это совокупность всех комбинаций возможностей.
Примеры:
При подбрасывании монеты выпадает два орла или решки Подбрасывание монеты 3 раза меняет набор возможностей. {ЧЧЧ,ЧЧЧ,ЧЧ,ЧТТ,ЧЧЧ,ЧЧ,ЧЧ,ТТТ} Спросите 10 человек, играют ли они в Apex Legends {0,1,2,3,…,10}.
Определение . Событие — это набор возможных результатов.
Пример:
На данной неделе {пн, вт, ср, чт, пт, сб, вс}..
Методы регуляризации: Ridge, Lasso и Elastic Net
Наука о данных
Методы регуляризации: Ridge, Lasso и Elastic Net
Переоснащение Спасителей в машинном обучении
Обзор переобучения:
Регуляризация — это метод, используемый в машинном обучении для предотвращения переобучения и улучшения способности моделей к обобщению. Это включает в себя добавление штрафного члена к функции потерь во время процесса обучения, что помогает контролировать сложность модели. Добавляя этот штраф, регуляризация препятствует модели подгонке шума и..
Кластеризация, ключ к решению групповых проблем
Введение в кластеризацию
Кластеризация
Кластеризация или кластеризация — это метод группировки данных. По словам Тана, кластеризация 2006 — это процесс группировки данных в какой-либо кластер или группу таким образом, чтобы данные в одном кластере имели максимальное сходство, а данные между кластерами — минимальное сходство.
Кластеризация — это процесс разделения набора объектов данных на часть набора , называемую кластером. Объекты в кластере имеют характеристики сходства между..
Прозрачный интеллект: приподнять завесу над процессом принятия решений ИИ с помощью объяснимого ИИ
Объяснимый ИИ (XAI) — важная и быстро развивающаяся область, цель которой — сделать искусственный интеллект более прозрачным и понятным для людей. С ростом использования ИИ в процессе принятия решений становится все более важным иметь возможность понимать прогнозы и действия систем ИИ и доверять им. В этой статье мы рассмотрим различные методы, используемые в объяснимом ИИ, и обсудим потенциальные последствия этой технологии для широкого круга отраслей.
Одним из ключевых методов,..
Внутри: логистическая регрессия
Теория и интуиция, лежащие в основе логистической регрессии и ее реализация с использованием кода Python
Это часть серии блогов, в которых я буду демонстрировать различные аспекты и теорию алгоритмов машинного обучения с использованием математики и кода. Сюда входит обычная структура моделирования алгоритма и интуитивное понимание того, почему и как он работает, с использованием кода Python.
К концу этого блога вы будете знать:
Как логистическая регрессия работает математически и..
Механизм обучения Hebbian для нейронной сети
Обучение по Хеббу — это тип обучения без учителя, основанный на принципе поведения нейрона в человеческом мозгу. Рассмотрим синаптический вес wkj нейрона с пресинаптическими и постсинаптическими сигналами, обозначенными xj и yk соответственно. Корректировка, примененная к wkj в момент времени n, выражается как
Называется правилом продукта активности.
Относительная сила срабатывания пресинаптических и постсинаптических нейронов увеличивается/уменьшается каждый раз в зависимости от..
Асимметрия и эксцесс: сделать статистику менее скучной с помощью форм и пиков
Асимметрия и Эксцесс — это две меры формы распределения вероятностей. Они обычно используются в статистике для описания характеристик набора данных.
Асимметрия – это мера асимметрии распределения вероятностей. Распределение считается асимметричным, если хвост на одной стороне распределения длиннее или толще, чем хвост на другой стороне. Например, если хвост с правой стороны распределения длиннее, говорят, что распределение имеет положительную асимметрию, а если хвост с левой..