Что такое приведенная погрешность
Погрешности измерения датчиков КИП. Классы точности
Основной качественной характеристикой любого датчика КИП является погрешность измерения контролируемого параметра. Погрешность измерения прибора это величина расхождения между тем, что показал (измерил) датчик КИП и тем, что есть на самом деле. Погрешность измерения для каждого конкретного типа датчика указывается в сопроводительной документации (паспорт, инструкция по эксплуатации, методика поверки), которая поставляется вместе с данным датчиком.
По форме представления погрешности делятся на абсолютную, относительную и приведенную погрешности.
ООП | основная относительная погрешность | |
ОПП | основная приведенная погрешность | |
ОАП | основная абсолютная погрешность |
Абсолютная погрешность – это разница между измеренной датчиком величиной Хизм и действительным значением Хд этой величины.
Действительное значение Хд измеряемой величины это найденное экспериментально значение измеряемой величины максимально близкое к ее истинному значению. Говоря простым языком действительное значение Хд это значение, измеренное эталонным прибором, или сгенерированное калибратором или задатчиком высокого класса точности. Абсолютная погрешность выражается в тех же единицах измерения, что и измеряемая величина (например, в м3/ч, мА, МПа и т.п.). Так как измеренная величина может оказаться как больше, так и меньше ее действительного значения, то погрешность измерения может быть как со знаком плюс (показания прибора завышены), так и со знаком минус (прибор занижает).
Относительная погрешность – это отношение абсолютной погрешности измерения Δ к действительному значению Хд измеряемой величины.
Относительная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.
Приведенная погрешность – это отношение абсолютной погрешности измерения Δ к нормирующему значению Хn, постоянному во всем диапазоне измерения или его части.
Нормирующее значение Хn зависит от типа шкалы датчика КИП:
Приведенная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.
Довольно часто в описании на тот или иной датчик указывается не только диапазон измерения, например, от 0 до 50 мг/м3, но и диапазон показаний, например, от 0 до 100 мг/м3. Приведенная погрешность в этом случае нормируется к концу диапазона измерения, то есть к 50 мг/м3, а в диапазоне показаний от 50 до 100 мг/м3 погрешность измерения датчика не определена вовсе – фактически датчик может показать все что угодно и иметь любую погрешность измерения. Диапазон измерения датчика может быть разбит на несколько измерительных поддиапазонов, для каждого из которых может быть определена своя погрешность как по величине, так и по форме представления. При этом при поверке таких датчиков для каждого поддиапазона могут применяться свои образцовые средства измерения, перечень которых указан в методике поверки на данный прибор.
У некоторых приборов в паспортах вместо погрешности измерения указывают класс точности. К таким приборам относятся механические манометры, показывающие биметаллические термометры, термостаты, указатели расхода, стрелочные амперметры и вольтметры для щитового монтажа и т.п. Класс точности – это обобщенная характеристика средств измерений, определяемая пределами допускаемых основных и дополнительных погрешностей, а также рядом других свойств, влияющих на точность осуществляемых с их помощью измерений. При этом класс точности не является непосредственной характеристикой точности измерений, выполняемых этим прибором, он лишь указывает на возможную инструментальную составляющую погрешности измерения. Класс точности прибора наноситься на его шкалу или корпус по ГОСТ 8.401-80.
Определение погрешности измерения датчиков выполняют, например, при их периодической поверке и калибровке. С помощью различных задатчиков и калибраторов с высокой точностью генерируют определенные значения той или иной физической величины и сличают показания поверяемого датчика с показаниями образцового средства измерения, на которое подается то же самое значение физической величины. Причем погрешность измерения датчика контролируется как при прямом ходе (увеличение измеряемой физической величины от минимума до максимума шкалы), так и при обратном ходе (уменьшение измеряемой величины от максимума до минимума шкалы). Это связано с тем, что из-за упругих свойств чувствительного элемента датчика (мембрана датчика давления), различной интенсивности протекания химических реакций (электрохимический сенсор), тепловой инерции и т.п. показания датчика будут различны в зависимости от того, как меняется воздействующая на датчик физическая величина: уменьшается или увеличивается.
Довольно часто в соответствии с методикой поверки отсчет показаний датчика при поверке нужно выполнять не по его дисплею или шкале, а по величине выходного сигнала, например, по величине выходного тока токового выхода 4…20 мА.
У поверяемого датчика давления со шкалой измерения от 0 до 250 mbar основная относительная погрешность измерения во всем диапазоне измерений равна 5%. Датчик имеет токовый выход 4…20 мА. На датчик калибратором подано давление 125 mbar, при этом его выходной сигнал равен 12,62 мА. Необходимо определить укладываются ли показания датчика в допустимые пределы.
Во-первых, необходимо вычислить каким должен быть выходной ток датчика Iвых.т при давлении Рт = 125 mbar.
Iвых.т = Iш.вых.мин + ((Iш.вых.макс – Iш.вых.мин)/(Рш.макс – Рш.мин))*Рт
где Iвых.т – выходной ток датчика при заданном давлении 125 mbar, мА.
Iш.вых.мин – минимальный выходной ток датчика, мА. Для датчика с выходом 4…20 мА Iш.вых.мин = 4 мА, для датчика с выходом 0…5 или 0…20 мА Iш.вых.мин = 0.
Рш.макс – максимум шкалы датчика давления, mbar. Рш.макс = 250 mbar.
Рш.мин – минимум шкалы датчика давления, mbar. Рш.мин = 0 mbar.
Рт – поданное с калибратора на датчик давление, mbar. Рт = 125 mbar.
Подставив известные значения получим:
То есть при поданном на датчик давлении равном 125 mbar на его токовом выходе должно быть 12 мА. Считаем, в каких пределах может изменяться расчетное значение выходного тока, учитывая, что основная относительная погрешность измерения равна ± 5%.
То есть при поданном на датчик давлении равном 125 mbar на его токовом выходе выходной сигнал должен быть в пределах от 11,40 до 12,60 мА. По условию задачи мы имеем выходной сигнал 12,62 мА, значит наш датчик не уложился в определенную производителем погрешность измерения и требует настройки.
Основная относительная погрешность измерения нашего датчика равна:
Поверка и калибровка приборов КИП должна выполнятся при нормальных условиях окружающей среды по атмосферному давлению, влажности и температуре и при номинальном напряжении питания датчика, так как более высокие или низкие температура и напряжение питания могут привезти к появлению дополнительной погрешности измерения. Условия проведения поверки указываются в методике поверки. Приборы, погрешность измерения которых не уложилась в установленные методикой поверки рамки либо заново регулируют и настраивают, после чего они повторно проходят поверку, либо, если настройка не принесла результатов, например, из-за старения или чрезмерной деформации сенсора, ремонтируются. Если ремонт невозможен то приборы бракуются и выводятся из эксплуатации.
Если все же приборы удалось отремонтировать то они подвергаются уже не периодической, а первичной поверке с выполнением всех изложенных в методике поверки пунктов для данного вида поверки. В некоторых случаях прибор специально подвергают незначительному ремонту (с отметкой в паспорте) так как по методике поверки выполнить первичную поверку оказывается существенно легче и дешевле чем периодическую, из-за различий в наборе образцовых средств измерения, которые используются при периодической и первичной поверках.
Для закрепления и проверки полученных знаний рекомендую выполнить тестовое задание.
level_meter
Уровнеметрия
Приборы и системы измерения уровня
Абсолютная погрешность – это разница между измеренной датчиком величиной Хизм и действительным значением Хд этой величины.
Действительное значение Хд измеряемой величины это найденное экспериментально значение измеряемой величины максимально близкое к ее истинному значению. Говоря простым языком действительное значение Хд это значение, измеренное эталонным прибором, или сгенерированное калибратором или задатчиком высокого класса точности. Абсолютная погрешность выражается в тех же единицах измерения, что и измеряемая величина (например, в м3/ч, мА, МПа и т.п.). Так как измеренная величина может оказаться как больше, так и меньше ее действительного значения, то погрешность измерения может быть как со знаком плюс (показания прибора завышены), так и со знаком минус (прибор занижает).
См.Абсолютная погрешность микрокомпьютерного расходомера скоростемера МКРС
Относительная погрешность – это отношение абсолютной погрешности измерения Δ к действительному значению Хд измеряемой величины.
Относительная погрешность выражается в процентах, либо является безразмерной величиной, а также может принимать как положительные, так и отрицательные значения.
См.Относительная погрешность ультразвукового уровнемера ЭХО-АС-01
Приведенная погрешность – это отношение абсолютной погрешности измерения Δ к нормирующему значению Хn, постоянному во всем диапазоне измерения или его части.
Довольно часто в описании на тот или иной датчик указывается не только диапазон измерения, например, от 0 до 50 мг/м3, но и диапазон показаний, например, от 0 до 100 мг/м3. Приведенная погрешность в этом случае нормируется к концу диапазона измерения, то есть к 50 мг/м3, а в диапазоне показаний от 50 до 100 мг/м3 погрешность измерения датчика не определена вовсе – фактически датчик может показать все что угодно и иметь любую погрешность измерения. Диапазон измерения датчика может быть разбит на несколько измерительных поддиапазонов, для каждого из которых может быть определена своя погрешность как по величине, так и по форме представления. При этом при поверке таких датчиков для каждого поддиапазона могут применяться свои образцовые средства измерения, перечень которых указан в методике поверки на данный прибор.
Погрешность измерений. Классификация
Погрешность средств измерения и результатов измерения.
Погрешности средств измерений – отклонения метрологических свойств или параметров средств измерений от номинальных, влияющие на погрешности результатов измерений (создающие так называемые инструментальные ошибки измерений).
Погрешность результата измерения – отклонение результата измерения от действительного (истинного) значения измеряемой величины.
Инструментальные и методические погрешности.
Методическая погрешность обусловлена несовершенством метода измерений или упрощениями, допущенными при измерениях. Так, она возникает из-за использования приближенных формул при расчете результата или неправильной методики измерений. Выбор ошибочной методики возможен из-за несоответствия (неадекватности) измеряемой физической величины и ее модели.
Причиной методической погрешности может быть не учитываемое взаимное влияние объекта измерений и измерительных приборов или недостаточная точность такого учета. Например, методическая погрешность возникает при измерениях падения напряжения на участке цепи с помощью вольтметра, так как из-за шунтирующего действия вольтметра измеряемое напряжение уменьшается. Механизм взаимного влияния может быть изучен, а погрешности рассчитаны и учтены.
Инструментальная погрешность обусловлена несовершенством применяемых средств измерений. Причинами ее возникновения являются неточности, допущенные при изготовлении и регулировке приборов, изменение параметров элементов конструкции и схемы вследствие старения. В высокочувствительных приборах могут сильно проявляться их внутренние шумы.
Статическая и динамическая погрешности.
Статические и динамические погрешности относятся к погрешностям результата измерений. В большей части приборов статическая и динамическая погрешности оказываются связаны между собой, поскольку соотношение между этими видами погрешностей зависит от характеристик прибора и характерного времени изменения величины.
Систематическая и случайная погрешности.
Систематическая погрешность измерения – составляющая погрешности измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же физической величины. Систематические погрешности являются в общем случае функцией измеряемой величины, влияющих величин (температуры, влажности, напряжения питания и пр.) и времени. В функции измеряемой величины систематические погрешности входят при поверке и аттестации образцовых приборов.
Причинами возникновения систематических составляющих погрешности измерения являются:
Случайной погрешностью называют составляющие погрешности измерений, изменяющиеся случайным образом при повторных измерениях одной и той же величины. Случайные погрешности определяются совместным действием ряда причин: внутренними шумами элементов электронных схем, наводками на входные цепи средств измерений, пульсацией постоянного питающего напряжения, дискретностью счета.
Погрешности адекватности и градуировки.
Погрешность градуировки средства измерений – погрешность действительного значения величины, приписанного той или иной отметке шкалы средства измерений в результате градуировки.
Погрешностью адекватности модели называют погрешность при выборе функциональной зависимости. Характерным примером может служить построение линейной зависимости по данным, которые лучше описываются степенным рядом с малыми нелинейными членами.
Погрешность адекватности относится к измерениям для проверки модели. Если зависимость параметра состояния от уровней входного фактора задана при моделировании объекта достаточно точно, то погрешность адекватности оказывается минимальной. Эта погрешность может зависеть от динамического диапазона измерений, например, если однофакторная зависимость задана при моделировании параболой, то в небольшом диапазоне она будет мало отличаться от экспоненциальной зависимости. Если диапазон измерений увеличить, то погрешность адекватности сильно возрастет.
Абсолютная, относительная и приведенная погрешности.
Абсолютная погрешность – алгебраическая разность между номинальным и действительным значениями измеряемой величины. Абсолютная погрешность измеряется в тех же единицах измерения, что и сама величина, в расчетах её принято обозначать греческой буквой – ∆. На рисунке ниже ∆X и ∆Y – абсолютные погрешности.
Относительная погрешность – отношение абсолютной погрешности к тому значению, которое принимается за истинное. Относительная погрешность является безразмерной величиной, либо измеряется в процентах, в расчетах обозначается буквой – δ.
Приведённая погрешность – погрешность, выраженная отношением абсолютной погрешности средства измерений к условно принятому значению величины, постоянному во всем диапазоне измерений или в части диапазона. Вычисляется по формуле
где Xn – нормирующее значение, которое зависит от типа шкалы измерительного прибора и определяется по его градуировке:
Приведённая погрешность является безразмерной величиной, либо измеряется в процентах.
Аддитивные и мультипликативные погрешности.
Различать аддитивные и мультипликативные погрешности легче всего по полосе погрешностей (см.рис.).
Если абсолютная погрешность не зависит от значения измеряемой величины, то полоса определяется аддитивной погрешностью (а). Иногда аддитивную погрешность называют погрешностью нуля.
Если постоянной величиной является относительная погрешность, то полоса погрешностей меняется в пределах диапазона измерений и погрешность называется мультипликативной (б). Ярким примером аддитивной погрешности является погрешность квантования (оцифровки).
Класс точности измерений зависит от вида погрешностей. Рассмотрим класс точности измерений для аддитивной и мультипликативной погрешностей:
– для аддитивной погрешности:
аддитивная погрешность
где Х – верхний предел шкалы, ∆0 – абсолютная аддитивная погрешность.
– для мультипликативной погрешности:
мультипликативная погрешность
порог чувствительности прибора – это условие определяет порог чувствительности прибора (измерений).
Что такое приведенная погрешность
Всероссийский научно-исследовательский институт
оптико-физических измерений
ПОИСК И НАВИГАЦИЯ
МЫ НА YOUTUBE
Погрешности средств измерений
Основные метрологические термины и определения: по РМГ 29-99 (с изменениями от 04.08.2010) |