Средства измерений можно использовать только тогда, когда известны их метрологические характеристики. Обычно указываются номинальные значения параметров средств измерений и допускаемые отклонения от них. Сведения о метрологических характеристиках приводятся в технической документации на средства измерений или указываются на них самих. Как правило, реальные метрологические характеристики имеют отклонения от их номинальных значений. Поэтому устанавливают границы для отклонений реальных метрологических характеристик от номинальных значений – нормируют их. Нормирование метрологических характеристик средств измерений позволяет избежать произвольного установления их характеристик разработчиками.
C помощью нормируемых метрологических характеристик решаются следующие основные задачи:
- предварительный расчет с их помощью погрешностей результатов технических измерений (до проведения измерений);
- выбор средств измерений по заданным характеристикам их погрешностей.
Нормирование характеристик СИ проводится в соответствии с положениями стандартов. Например, ГОСТ 8.009-84 «ГСИ. Нормируемые метрологические характеристики средств измерений». Соответствие средств измерений установленным для них нормам делает эти средства взаимозаменяемыми.
Одной из важнейших метрологических характеристик СИ является их погрешность, знание которой необходимо для оценивания погрешности измерения.
Необходимо отметить, что погрешность СИ является только одной из составляющих погрешности результата измерений, получаемого с использованием данного СИ. Другими составляющими являются погрешность метода измерений и погрешность оператора, проводящего измерения.
Погрешности средств измерений могут быть обусловлены различными причинами:
- неидеальностью свойств средства измерений, то есть отличием его реальной функции преобразования от номинальной;
- воздействием влияющих величин на свойства средств измерений;
- взаимодействием средства измерений с объектом измерений — изменением значения измеряемой величины вследствие воздействия средства измерения;
- методами обработки измерительной информации, в том числе с помощью средств вычислительной техники.
Погрешности конкретных экземпляров СИ устанавливают только для эталонов, для остальных СИ вся информация об их погрешностях представляет собой те нормы, которые для них установлены. Нормирование погрешностей изложено в Рекомендации 34 МОЗМ «Классы точности средств измерений» и в ГОСТ 8.401-80 «Классы точности средств измерений. Общие требования ».
В основе нормирования погрешностей средств измерений лежат следующие основные положения.
1. В качестве норм указывают пределы допускаемых погрешностей, включающие в себя систематические и случайные составляющие.
Под пределом допускаемой погрешности понимается наибольшее значение погрешности средства измерений, при котором оно еще признается годным к применению. Обычно устанавливают пределы, т.е. зоны, за которую не должна выходить погрешность. Данная норма отражает то положение, что средства измерений можно применять с однократным считыванием показаний.
2. Порознь нормируют все свойства СИ, влияющие на их точность: отдельно нормируют основную погрешность, по отдельности – все дополнительные погрешности и другие свойства, влияющие на точность измерений. При выполнении данного требования обеспечивается максимальная однородность средств измерений одного типа, то есть близкие значения дополнительных погрешностей, обусловленных одними и теми же факторами. Это дает возможность заменять один прибор другим однотипным без возможного увеличения суммарной погрешности.
Пределы допускаемых погрешностей средств измерения применяются как для абсолютной, так и для относительной погрешности.
Пределы допускаемой абсолютной погрешности устанавливают по формуле D = ± а для аддитивной погрешности. Для мультипликативной погрешности они устанавливаются в виде линейной зависимости
D = ± (а + bх),
где х – показание измерительного прибора, а и b – положительные числа, не зависящие от х..
Предел допускаемой относительной погрешности (в относительных единицах) для мультипликативной погрешности устанавливают по формуле
d = D / х = ± c.
Для аддитивной погрешности формула имеет вид:
d = D / х = ±
где хk — конечное значение диапазона измерений прибора; c и d - относительные величины.
Первое слагаемое в этой формуле имеет смысл относительной погрешности при х = хk , второе — характеризует рост относительной погрешности при уменьшении показаний прибора. Пределы допускаемой приведенной погрешности (в процентах) следует устанавливать по формуле
g = 100D / хN = ± р
где хN – нормирующее значение; р - отвлеченное положительное число из ряда 1; 1,5; 2; 2,5; 4; 5; 6, умноженное на 10n ( n = 1, 0, -1, -2 и т.д.)
Нормирующее значение принимается равным: конечному значению шкалы (если 0 находится на краю шкалы), сумме конечных значений шкалы (если 0 внутри шкалы), номинальному значению измеряемой величины, длине шкалы.
Поможем написать любую работу на аналогичную тему