что такое стандартизация данных

Русские Блоги

Стандартизация и нормализация данных

Нормализация характеристик, стандартизованное понимание

Если набор данных стандартизирован, он будет иметь хороший эффект оптимизации для многих алгоритмов машинного обучения (включая градиентный спуск). Если данные не стандартизированы (например, когда функции набора данных различаются на порядок), многие алгоритмы работают плохо.

Сначала поймите разницу между дисперсией, стандартным отклонением и среднеквадратичной ошибкой.

Дисперсия (дисперсия)

Измерьте степень дисперсии (отклонения) случайной величины или набора данных

В теории вероятностей дисперсия используется для измерения степени отклонения между случайной величиной и ее математическим ожиданием (средним).

В статистике сумма квадратов разницы между каждыми данными и их средним значением.

Зачем использовать стандартное отклонение

Согласно вышеизложенному, мы знаем, что дисперсия используется для измерения степени дисперсии (отклонения) случайной величины или набора данных. Формула для стандартного отклонения (также называемая среднеквадратической ошибкой): σ = D ( x ) \sigma = \sqrt σ = D ( x )

Разница между стандартным отклонением (среднеквадратичной ошибкой) и среднеквадратичной ошибкой

Стандартизация и нормализация данных

Стандартизация данных заключается в пропорциональном масштабировании данных для снятия ограничений между данными и преобразовании их в безразмерные данные для облегчения взвешивания и сравнения различных индексных данных. Нормализацию можно назвать своего рода стандартизацией (стандартизация и нормализация данных). Обычно используемые для непрерывных значений, дискретные значения обычно используют labelencoding и onehot для преобразования данных).
Текущие методы стандартизации данных в основном делятся на следующие три типа:

Линейный метод (пороговый метод: метод экстремальных значений и т. Д., Стандартизация, метод удельного веса)
Ломаная линия
Тип кривой

Различные методы стандартизации по-разному влияют на результаты оценки системы, и вы можете попробовать несколько раз во время обучения машинному обучению.

Цель нормализации

Повышена скорость сходимости модели

Повысьте точность модели

Когда дело доходит до модели расчета расстояния, если значение объекта сильно отличается, оно будет доминировать в процессе расчета, а объект с небольшим значением может привести к недостатку информации (изменение значения почти не влияет на окончательный результат расчета. влияний). Следовательно, чтобы модель могла полностью изучить информацию о каждой функции, мы должны стандартизировать данные во время анализа модели. Численная стандартизация в основном включает гомотактическую обработку данных и обработку размерностей данных.

Кохемотаксис данных в основном решает проблемы различной природы. Поскольку индикаторы разной природы не могут быть напрямую добавлены для обработки, они преобразуются в одно и то же состояние распределения (стандартное нормальное распределение), так что все индикаторы имеют одинаковое влияние на план оценки. Правильный результат можно получить, сложив.

Безразмерные данные в основном предназначены для решения проблемы сопоставимости данных. Своевременные данные находятся в одном и том же состоянии распределения. Если операция нормализации данных не выполняется между различными характеристиками, всегда будут преобладать более крупные характеристики.

Следовательно, нормализация предназначена для того, чтобы функции между различными измерениями имели определенную степень численного сравнения, что может значительно повысить точность классификатора.
что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Часто используемые методы и характеристики нормализации данных

(1) Мин-макс нормализация

(2) Метод стандартизации Z-баллов (нормализация с нулевым средним)

метод стандартизации и нормализации sklearn

Мы можем использовать связанные классы, предоставленные в sklearn, для стандартизации набора данных, которые могут преобразовывать функции в один и тот же порядок величины, тем самым устраняя влияние различных порядков величины на алгоритм. Два часто используемых метода:

Интеллектуальная рекомендация

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Используйте шаблон состояния вместо if else

Большинство разработчиков все еще используютif elseСтруктура процесса, виделиjdonизbanqСтатья написана Большим Братом, используяcommand,aopЗамена шаблонаif elseСтруктура процесса. Я не совсем понял эт.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Рыба образования, средняя школа закончила в учебном класс, как найти первую работу.

Self-брат Я девять ноль, теперь занимается разработкой веб-конца Java. Некоторое понимание и восприятие учебных курсов. Учебное заведение является ямой, дорога, что вы уже прошли, только вы знаете, дл.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Синглтон паттерн в питоне

Java Counce Collection

TRUEEWAP основан на реализации красных навигаций. Это отображение отсортировано в соответствии с его природооформленным порядком или отсортировано в соответствии с компаратором, предусмотренным при со.

Вам также может понравиться

1. Связанные классы и методы: java.lang.reflect.Proxy, Прокси предоставляет статические методы для создания динамических прокси-классов и экземпляров. newProxyInstance() Возвращает экземпляр прокси-кл.

Юля: Об изменениях в Array 1.0

Версии до 1.0, например 0.2-0.6, Но теперь 1.0 это сообщит об ошибке. Это использование претерпело серьезные изменения! такие как: Это можно считать серьезным изменением.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

студия Android генерирует статическую библиотеку jni

Android Сяобай, который только что вошел в общество, описывает, как использовать студию Android для создания статической библиотеки jni. 1. Подготовка: Сначала установите ndk, сначала сами Baidu, позж.

Nginx 502 раствор

Общие решения Nginx 502 Bad Gateway следующие: Nginx 502 Ошибка 1: Количество сайтов велико, а количество PHP-CGI мало. Для этой 502 ошибки просто увеличивайте количество процессов PHP-CGI. В частност.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Java вызывает SMS-интерфейс WebService

Источник

Что такое стандартизация данных

В прошлый раз мы говорили о методах NLP в PySpark. Сегодня рассмотрим методы нормализации и стандартизации данных модуля ML библиотеки PySpark. Читайте в нашей статье: применение Normalizer, StandardScaler, MinMaxScaler и MaxAbsScaler для нормализация и стандартизации данных.

Нормализация и стандартизация — методы шкалирования данных

Нормализация (normalization) и стандартизация (standardization) являются методами изменения диапазонов значений – шкалирования. Шкалирование особенно полезно в машинном обучении (Machine Learning), поскольку разные атрибуты могут измеряться в разных диапазонах, или значения одного атрибута варьируются слишком сильно. Например, один атрибут имеет диапазон от 0 до 1, а второй — от 1 до 1000. Для задачи регрессии второй атрибут оказывал бы большое влияние на обучение, хотя не факт, что он является более важным, чем первый. Нормализация и стандартизация отличаются своими подходами:

Нормализация подразумевает изменение диапазонов в данных без изменения формы распределения,

Стандартизация изменяет форму распределения данных (приводится к нормальному распределению).

Обычно достаточно нормализовать данные. Например, в глубоком обучении (Deep Learning) требуется перевести цвета изображений RGB из диапазона 0-255 к диапазону 0-1. А вот стандартизацию стоит применять при использование алгоритмов, которые основываются на измерении расстояний, например, k ближайших соседей или метод опорных векторов (SVM).

Normalizer: применение нормализации к строкам

Normalizer в PySpark необходим для нормализации не атрибутов (столбцов), а записей (строк) путем деления на p-норму [1]. Общая формула выглядит так:

если p=1, то p-норма равна сумме значений каждой строки;

если p=∞, то p-норма равна максимальному значению в каждой строке.

Следующий код на Python демонстрирует результат при p=1:

В случае же p=∞ нормализация в PySpark приводит к другим результатам:

Normalizer можно применять после атрибутивного шкалирования, о которых пойдёт речь дальше.

StandardScaler: приведение к нормальному распределению

StandardScaler в PySpark подразумевает приравнивание среднего значения к нулю и/или приравнивание стандартного отклонения к единице. В отличие от Normalizer применяется к атрибутам, т.е. к столбцам, а не строкам. Данный вид шкалирования стремится привести данные к нормальному распределению.

StandardScaler рассчитывается для каждого атрибута следующим образом:

Следующий код на Python показывает применение StandardScaler в PySpark:

MinMaxScaler: приведение к диапазону [0,1]

MinMaxScaler в PySpark применяется для шкалирования в диапазоне [min,max]. Рассчитывается как

где min и max задаются как минимальное и максимальное допустимое значение, по умолчанию min=0, max=1. Вот так выглядит Python-код для такого вида нормализации:

Результат нормализации данных в PySpark:

MaxAbsScaler: приведение к диапазону [-1,1]

С помощью MaxAbsScaler в PySpark значения атрибутов приводятся к диапазону [-1,1] путем деления на максимальное абсолютное значение каждого атрибута.

В результате нормализации получились следующие значения:

О нормализации и стандартизации в PySpark в рамках подготовки и анализа данных перед обучением алгоритмов Machine Learning вы узнаете на специализированном курсе «Курс Анализ данных с Apache Spark» в нашем лицензированном учебном центре обучения и повышения квалификации разработчиков, менеджеров, архитекторов, инженеров, администраторов, Data Scientist’ов и аналитиков Big Data в Москве.

Источник

Умная нормализация данных

Эта статья появилась по нескольким причинам.

Во-первых, в подавляющем большинстве книг, интернет-ресурсов и уроков по Data Science нюансы, изъяны разных типов нормализации данных и их причины либо не рассматриваются вообще, либо упоминаются лишь мельком и без раскрытия сути.

Во-вторых, имеет место «слепое» использование, например, стандартизации для наборов с большим количеством признаков — “чтобы для всех одинаково”. Особенно у новичков (сам был таким же). На первый взгляд ничего страшного. Но при детальном рассмотрении может выясниться, что какие-то признаки были неосознанно поставлены в привилегированное положение и стали влиять на результат значительно сильнее, чем должны.

И, в-третьих, мне всегда хотелось получить универсальный метод учитывающий проблемные места.

Повторение — мать учения

Нормализация — это преобразование данных к неким безразмерным единицам. Иногда — в рамках заданного диапазона, например, [0..1] или [-1..1]. Иногда — с какими-то заданным свойством, как, например, стандартным отклонением равным 1.

Ключевая цель нормализации — приведение различных данных в самых разных единицах измерения и диапазонах значений к единому виду, который позволит сравнивать их между собой или использовать для расчёта схожести объектов. На практике это необходимо, например, для кластеризации и в некоторых алгоритмах машинного обучения.

Аналитически любая нормализация сводится к формуле

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

где что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных— текущее значение,
что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных— величина смещения значений,
что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных— величина интервала, который будет преобразован к “единице”

По сути всё сводится к тому, что исходный набор значений сперва смещается, а потом масштабируется.

Минимакс (MinMax). Цель — преобразовать исходный набор в диапазон [0..1]. Для него:
что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных= что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных, минимальное значение исходных данных.
что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных= что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данныхчто такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных, т.е. за “единичный” интервал берется исходный диапазон значений.

Стандартизация. Цель — преобразовать исходный набор в новый со средним значением равным 0 и стандартным отклонением равным 1.
что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных= что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных, среднее значение исходных данных.
что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных— равен стандартному отклонению исходного набора.

Для других методов всё аналогично, но со своими особенностями.

В большинстве методов кластеризации или, например, классификации методом ближайших соседей необходимо рассчитывать меру “близости” между различными объектами. Чаще всего в этой роли выступают различные вариации евклидового расстояния.

Представим, что у Вас есть какой-то набор данных с несколькими признаками. Признаки отличаются и по типу распределения, и по диапазону. Чтобы можно было с ними работать, сравнивать, их нужно нормализовать. Причём так, чтобы ни у какого из них не было преимуществ перед другими. По крайней мере, по умолчанию — любые такие предпочтения Вы должны задавать сами и осознанно. Не должно быть ситуации, когда алгоритм втайне от Вас сделал, например, цвет глаз менее важным, чем размер ушей*

* нужно сделать небольшое примечание — здесь речь идёт не о важности признака для, например, результата классификации (это определяется на основе самих данных при обучении модели), а о том, чтобы до начала обучения все признаки были равны по своему возможному влиянию.

Итого, главное условие правильной нормализации — все признаки должны быть равны в возможностях своего влияния.

Шаг 1 — определяем смещение

Чаще всего данные центрируют — т.е. определяют, значение, которое станет новым 0 и “сдвигают” данные относительно него.

Что лучше взять за центр? Некоего «типичного представителя» Ваших данных. Так при использовании стандартизации используется среднее арифметическое значение.

Здесь проявляется проблема № 1 — различные типы распределений не позволяют применять к ним методы, созданные для нормального распределения.

Если Вы спросите любого специалиста по статистике, какое значение лучше всего показывает “типичного представителя” совокупности, то он скажет, что это — медиана, а не среднее арифметическое. Последнее хорошо работает только в случае нормального распределения и совпадает с медианой (алгоритм стандартизации вообще оптимален именно для нормального распределения). А у Вас распределения разных признаков могут (и скорее всего будут) кардинально разные.

Вот, например, различия между медианой и средним арифметическим значением для экспоненциального распределения.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

А вот так выглядят эти различия при добавлении выброса:

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

В отличии от среднего значения медиана практически не чувствительна к выбросам и асимметрии распределения. Поэтому её оптимально использовать как “нулевое” значение при центрировании.

В случае, когда нужно не центрировать, а вписать в заданный диапазон, смещением является минимальное значение данных. К этому вернёмся чуть позже.

Шаг 2 — масштабируем

Мы определили нужные величины смещения для всех признаков. Теперь нужно сделать признаки сравнимыми между собой.

Степень возможного влияния признаков определяется величиной их диапазонов после масштабирования. Если оба признака распределены в одинаковых интервалах, например, [-1..1], то и влиять они могут одинаково. Если же изначально один из признаков лежит в диапазоне [-1..1], а второй — в [-1..100], то очевидно, что изменения второго могут оказывать существенно большее влияние. А значит он будет в привилегированном положении по сравнению с первым.

Стандартное отклонение

Вернёмся к примеру стандартизации. В её случае новый диапазон определяется величиной стандартного отклонения. Чем оно меньше, тем диапазон станет “шире”.

Посмотрим на гипотетические распределения различных признаков с одинаковыми начальными диапазонами (так будет нагляднее):

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Для второго признака (бимодальное распределение) стандартное отклонение будет больше, чем у первого.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

А это значит, что у второго признака новый диапазон после масштабирования (стандартизации) будет “уже”, и его влияние будет меньше по сравнению с первым.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Итог — стандартное отклонение не удовлетворяет начальным требованиям по одинаковому влиянию признаков (величине интервала). Даже не говоря о том, что и наличие выбросов может исказить “истинную” величину стандартного отклонения.

Межквартильный интервал

Другим часто используемым кандидатом является разница между 75-м и 25-м процентилями данных — межквартильный интервал. Т.е. интервал, в котором находятся “центральные” 50% данных набора. Эта величина уже устойчива к выбросам и не зависит от “нормальности” распределения наличия/отсутствия асимметрии.

Но и у неё есть свой серьезный недостаток — если у распределения признака есть значимый “хвост”, то после нормализации с использованием межквартильного интервала он добавит “значимости” этому признаку в сравнении с остальными.

Проблема № 2 — большие “хвосты” распределений признаков.

Пример — два признака с нормальным и экспоненциальным распределениями. Интервалы значений одинаковы

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

После нормализации с использованием межквартильного интервала (для наглядности оба интервала смещены к минимальным значениям равным нулю).

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

В итоге интервал у признака с экспоненциальным распределением из-за большого “хвоста” стал больше. А, следовательно, и сам признак стал “влиятельнее”.

Размах значений

Очевидным решением проблемы межквартильного интервала выглядит просто взять размах значений признака. Т.е. разницу между максимальным и минимальным значениями. В этом случае все новые диапазоны будут одинаковыми — равными 1.

И здесь максимально проявляется, наверное, самая частая проблема в подготовке данных, проблема № 3 — выбросы. Присутствие одного или нескольких аномальных (существенно удалённых) значений за пределами диапазона основных элементов набора может ощутимо повлиять на его среднее арифметическое значение и фиктивно увеличить его размах.

Это, пожалуй, самый наглядный пример из всех. К уже использовавшемуся выше набору из 2-х признаков добавим немного выбросов для одного признака

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

После нормализации по размаху

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Наличие выброса, который вдвое увеличил размах признака, привело к такому же уменьшению значимого интервала его значений после нормализации. Следовательно влияние этого признака уменьшилось.

Работаем с выбросами

Решением проблемы влияния выбросов при использовании размаха является его замена на интервал, в котором будут располагаться “не-выбросы”. И дальше — масштабировать по этому интервалу.

Искать и удалять выбросы вручную — неблагодарное дело, особенно когда количество признаков ощутимо велико. А иногда выбросы и вовсе нельзя удалять, поскольку это приведёт к потере информации об исследуемых объектах. Вдруг, это не ошибка в данных, а некое аномальное явление, которое нужно зафиксировать на будущее, а не отбрасывать без изучения? Такая ситуация может возникнуть при кластеризации.

Пожалуй, самым массово применяемым методом автоматического определения выбросов является межквартильный метод. Его суть заключается в том, что выбросами “назначаются” данные, которые более чем в 1,5 межквартильных диапазонах (IQR) ниже первого квартиля или выше третьего квартиля.*

* — в некоторых случаях (очень большие выборки и др.) вместо 1,5 используют значение 3 — для определения только экстремальных выбросов.

Схематично метод изображен на рисунке снизу.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Вроде бы все отлично — наконец-то есть инструмент, и можно приступать к работе.

Но и здесь есть своя ложка дёгтя. В случае наличия длинных хвостов (как, например, при экспоненциальном распределении) слишком много данных попадают в такие “выбросы” — иногда достигая значений более 7%. Избирательное использование других коэффициентов (3 * IQR) опять приводит к необходимости ручного вмешательства — не для каждого признака есть такая необходимость. Их потребуется по отдельности изучать и подбирать коэффициенты. Т.е. универсальный инструмент опять не получается.

Ещё одной существенной проблемой является то, что этот метод симметричный. Полученный “интервал доверия” (1,5 * IQR) одинаков как для малых, так и для больших значений признака. Если распределение не симметричное, то многие аномалии-выбросы с “короткой” стороны просто будут скрыты этим интервалом.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Скорректированный интервал

Красивое решение этих проблем предложили Миа Хаберт и Елена Вандервирен (Mia Hubert and Ellen Vandervieren) в 2007 г. в статье “An Adjusted Boxplot for Skewed Distributions”.

Их идея заключается в вычислении границ “интервал доверия” с учетом асимметрии распределения, но чтобы для симметричного случая он был равен всё тому же 1,5 * IQR.

Для определения некоего “коэффициента асимметрии” они использовали функцию medcouple (MC), которая определяется так:

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Поиск подходящей формулы для определения границ “интервала доверия” производился с целью сделать долю, приходящуюся на выбросы, не превышающей такую же, как у нормального распределения и 1,5 * IQR — приблизительно 0,7%

В конечном итоге они получили такой результат:

Для что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных= 0$» data-tex=»inline»/>:

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Для что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных:

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Более подробно про этот метод и его эффективность лучше прочитать в самой статье. Найти ее по названию не составляет труда.

Универсальный инструмент

Теперь, объединяя все найденные плюсы и учитывая проблемы, мы получаем оптимальное решение:

Назовем его методом… скорректированного интервала — по названию статьи Mia Hubert и Ellen Vandervieren

Теперь сравним результаты обычных методов с новым. Для примера возьмем уже использовавшиеся выше три распределения с добавлением выбросов.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Сравнивать новый инструмент будем с методами стандартизации, робастной нормализации (межквартильный интервал) и минимакса (MinMax — с помощью размаха).

Ситуация № 1 — данные необходимо центрировать. Это используется в кластеризации и многих методах машинного обучения. Особенно, когда необходимо определять меру “близости” объектов.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Робастная нормализация (по межквартильному интервалу):

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

Преимущество использования метода скорректированного интервала в том, что каждый из признаков равен по своему возможному влиянию — величина интервала, за пределами которого находятся выбросы, одинакова у каждого из них.

Ситуация № 2 — данные необходимо вписать в заданный интервал. Обычно это [0..1]. Это используется, например, при подготовке данных для входов нейронной сети.

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

что такое стандартизация данных. Смотреть фото что такое стандартизация данных. Смотреть картинку что такое стандартизация данных. Картинка про что такое стандартизация данных. Фото что такое стандартизация данных

В этом случае метод скорректированного интервала вписал в нужный диапазон только значения без выбросов. Значения-выбросы, выходящие за границы этого диапазона, в зависимости от постановки задачи можно удалить или принудительно приравнять ближайшей границе нужного диапазона — т.е. 0 или 1.

То, что только “нормальные” данные попадают в единичный диапазон [0..1], а выбросы не удаляются, но пропорционально выносятся за его пределы — это крайне полезное свойство, которое сильно поможет при кластеризации объектов со смешанными признаками, как числовыми, так и категорийными. Подробно об этом я напишу в другой статье.

Напоследок, для возможности пощупать руками этот метод, Вы можете попробовать демонстрационный класс AdjustedScaler из моей библиотеки AdjDataTools.

Он не оптимизирован под работу с очень большим объемом данных и работает только с pandas DataFrame, но для пробы, экспериментов или даже заготовки под что-то более серьезное вполне подойдет. Пробуйте.

Источник

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *