Метрология, классификация погрешностей измерений

Автор работы: Пользователь скрыл имя, 07 Января 2013 в 23:05, контрольная работа

Описание

Точность измерения – это качество измерения, отражающее близость его результатов к истинному значению измеряемой величины.
Систематическая составляющая погрешности измерения − это составляющая погрешности измерения, остающаяся постоянной или же закономерно изменяющаяся при повторных измерениях одной и той же величины.
Случайная составляющая погрешности измерения – это составляющая погрешности измерения, изменяющаяся случайным образом при повторных измерениях одной и той же величины.

Работа состоит из  1 файл

домашка по метрологии.docx

— 168.21 Кб (Скачать документ)

Классификация погрешностей измерений

 

     Абсолютная погрешность измерения – это отклонение результата измерения

от истинного значения измеряемой величины.

    Точность измерения – это качество измерения, отражающее близость его результатов к истинному значению измеряемой величины.

    Систематическая составляющая погрешности измерения − это             составляющая погрешности измерения, остающаяся постоянной или же закономерно изменяющаяся при повторных измерениях одной и той же величины.

    Случайная составляющая погрешности измерения – это составляющая

погрешности измерения, изменяющаяся случайным образом при повторных

измерениях одной и той же величины.

     Объективные погрешности измерений – это составляющие погрешности

измерений, не зависящие от действий оператора.

     Субъективные погрешности измерений – это составляющие погрешности

измерений, зависящие от действий оператора.

     Грубые погрешности – это погрешности, существенно превышающие по

своему значению оправдываемые объективными условиями измерений систе-

матические и случайные погрешности.

     Инструментальные погрешности измерений – составляющая погрешности

измерений, обусловленная погрешностями применяемых средств измерений

(образцовых и рабочих).

     Образцовые средства измерений – это средства, предназначенные для         калибровки, аттестации или поверки других средств измерений и не используемые для проведения «рабочих» измерений.

     Погрешности измерений от воздействия влияющих факторов – это со-

ставляющие погрешности измерений, являющиеся следствием неучтенного

влияния на результаты измерений  внешних факторов, например температуры,

атмосферного давления, влажности  воздуха, напряженности магнитного поля,

вибрации и т. п. При  проведении электрических измерений  такими влияющими

факторами могут быть термоЭДС и контактные сопротивления в измеритель-

ных цепях, полярность измеряемого тока или напряжения и т. д.

      Методические погрешности – это погрешности, обусловленные исполь-

зуемым методом измерений и не зависящие от погрешности самих измеритель-

ных устройств.

     Погрешности считывания – это погрешности, возникающие при считы-

вании показаний со средств измерений. Обычно эти погрешности малы или во-

обще отсутствуют (например, при использовании цифровых приборов).

     Погрешности вычислений – это погрешности, возникающие при подсчетах

конечных результатов  по данным проведенных измерений. Эти  погрешности

могут появиться, например, при проведении косвенных измерений  из-за не-

верных действий оператора.

 

 

Поясняющий рисунок классификацию  погрешностей

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Количественные характеристики погрешностей

 

 

     1. Абсолютная погрешность Δ, представляющая собой разность между

результатом измерения х и истинным значением измеряемой величины x0:

Δ = x–x0.

Абсолютные погрешности  имеют ту же размерность, что и  измеряемая ве-

личина.

     2. Относительная погрешность δ, представляющая собой отношение

абсолютной погрешности  Δ к истинному значению измеряемой величины x0:

                                                   δ= 100%

 

Обычно относительные  погрешности выражаются в процентах, но могут выражаться и в относительных величинах.

     3. Приведенная погрешность средств измерения γ, представляющая со-

бой отношение абсолютной погрешности Δ к нормирующему значению x :

 

                                                 γ = 100%

 

 

      Обычно ХN = Хk, гдеХk – верхний предел шкалы (при этом нулевое значение

прибора должно быть в начале шкалы). Нормирующее значение хN следует устанавливать равным большему из пределов измерений используемого прибора или равным большему из модулей пределов измерений, если нулевое значение находится внутри диапазона измерений.

     Для электроизмерительных приборов нормирующее значение допускает-

ся устанавливать равным сумме модулей пределов измерений.

 

 

Методическая погрешность

 

 

Методическая погрешность- это составляющая погрешности измерения, обусловленная используемым методом  измерения. Отметим, что под методом  измерений понимается совокупность приемов использования принципов  и средств измерений.

    Рассмотрим методическую погрешность на примере измерения электрического тока амперметром с внутренним сопротивлением Ra, включенным (в соответствии с общепринятым «методом измерения») в разрыв исследуемой цепи последовательно с сопротивлением этой цепи.

 

 

 

 

 

 

 

 

 

 

     Оценка методической погрешности может быть проведена следующим образом:

 

 

 

 

 

Где I  - ток в исследуемой цепи «без амперметра»;

      I – ток в цепи при включении амперметра;


      U – напряжение, приложенное к исследуемой цепи;

       R -  сопротивление цепи;

       Ra – внутренние сопротивление амперметра;

     I – абсолютная методическая погрешность измерения;

    - относительная методическая погрешность измерения.

     При правильно организованных измерениях грубые погрешности должны отсутствовать; погрешности субъективные, метода и от влияющих факторов должны быть малыми, чтобы ими можно было пренебречь. В этом случае остаются лишь погрешности средств измерений, которые и определяют погрешности результатов измерений. 

 

 

 

 

Классификация погрешностей средств измерений

 

     Статистические погрешности СИ – это погрешности средств измерений,

возникающие при измерении неизменных во времени величин или устано-

вившихся периодических  процессов. Статические погрешности  детально рас-

смотрены в 4-й главе  настоящего учебного пособия.

     Динамические погрешности – это погрешности средств измерений, воз-

никающие при измерении изменяющихся во времени величин или неустано-

вившихся периодических  процессов. Динамические погрешности  детально рас-

смотрены в 6-й главе  настоящего учебного пособия.

    Систематическая составляющая погрешности измерения − это состав-

ляющая погрешности измерения, остающаяся постоянной или же закономерно

изменяющаяся при повторных измерениях одной и той же величины.

     Случайная составляющая погрешности измерения – это составляющая

погрешности измерения, изменяющаяся случайным образом при повторных

измерениях одной и той же величины.

     Грубые погрешности – это погрешности, существенно превышающие по

своему значению оправдываемые объективными условиями измерений систе-

матические и случайные погрешности.

 

Порядок экспериментальной  оценки статистических погрешностей.

   

      Для определения погрешностей средств измерений необходимо провести

специальные исследования. При этом может быть использована одна из схем,

приведенных на рис. 4.1. В первом случае (рис. 4.1, а) для генерирования зна-

чений x0 может быть использован любой (не образцовый) генератор. Например,

при исследовании вольтметра – любой источник ЭДС, значения которых могли

бы изменяться в необходимых пределах. Измерение значения x0 производится с

помощью образцового средства и исследуемого средства измерений  одновре-

менно. Во втором случае само образцовое средство измерений вы-

ступает в роли генератора сигналов. Например, при исследовании вольтметра –

это источник образцовых ЭДС (образцовый калибратор напряжений); при  ис-

следовании датчиков давления – образцовый грузопоршневой манометр и т. д.

После выбора одной из схем, приведенных на рис. 4.1, проводится выбор

исследуемых точек на шкале  прибора. При этом можно воспользоваться  сле-

дующими правилами:

     1) чем выше класс прибора, тем большее число исследуемых точек не-

обходимо выбрать;

     2) для рабочих измерительных приборов число исследуемых точек

обычно составляет 5–6, а  их число и расположение должно соответствовать

требованиям ГОСТ 8.508–84.

     В каждой из выбранных точек шкалы прибора проводится заданное число

измерений. Если число измерений  не задано, то оно выбирается произвольно,

но не менее 10 [47]. Для повышения  достоверности результатов число

измерений целесообразно  увеличить до 16–20, а в ответственных  случаях – до

50 и более.

    Отметим, что число измерений зависит от принятой доверительной

вероятности P (растет с ростом P) и от допускаемой погрешности среднего

квадратического отклонения ∆σ (растет при уменьшении ∆σ).

Таблица значений n = f(P, ∆ δ) для нормального закона распределения

приведена в государственном стандарте ГОСТ 8.508–84.

При законе распределения  результатов измерений, отличном от нормального,

необходимое число измерений  стандартом не рассматривается.

     Измерения рекомендуется проводить путем постепенного увеличения из-

меряемой величины до предельного  значения для исследуемого устройства с

последующим постепенным  уменьшением ее до минимума. Увеличение и

уменьшение измеряемой величины проводятся столько раз, сколько  измерений

необходимо провести, фиксируя каждый раз показания исследуемого измери-

тельного устройства в  выбранных точках шкалы.

По результатам эксперимента в каждой исследуемой точке оцениваются

значения величин x и σ по следующим формулам:

 

 

 

где х – среднее арифметическое значение;

σ – среднее квадратическое отклонение;

xi – результат i-го изменения;

n – число измерений.

 

    Полученные описанным методом экспериментальные данные и расчетные

значения являются исходными, позволяющими путем соответствующей  обра-

ботки получить необходимые сведения об исследуемом средстве измерений.

 

Класс точности средства измерений

 

 

     Класс точности средства измерений – это обобщенная характеристика

средства измерений, выражаемая пределами его допускаемых основной и до-

полнительных погрешностей, а также другими характеристиками, влияющими

на точность.

     Класс точности дает возможность судить о том, в каких пределах находится

погрешность средств измерений  этого класса, но не является непосредст-

венным показателем погрешности  измерений, выполняемых с помощью  этих

средств.

     Класс точности может выражаться в форме абсолютных Δ, приведенных γ

или относительных δ погрешностей в зависимости от характера изменения по-

грешностей в пределах диапазона измерений, а также  от условий применения и

назначения средств измерений  конкретного вида. 

 

 

 

 

 

Обозначение классов точности средств измерений в виде таблицы

 

 

Стандартный ряд классов  точности

 

    • для пределов допускаемой абсолютной погрешности в единицах измеряемой величины или делениях шкалы;
    • для пределов допускаемой относительной погрешности в виде ряда чисел;
    • для пределов допускаемой приведенной погрешности с тем же рядом.

 

 

Порядок присвоения класса точности средствам измерения

 

         Классы точности присваивают  СИ при их разработке по  результатам государственных приемочных  испытаний. Если СИ предназначены  для измерения одной и той  же физической величины, но в  разных диапазонах, или – для  измерения разных физических  величин, то этим СИ могут  присваиваться разные классы  точности как по диапазонам, так  и по измеряемым физическим  величинам.

Информация о работе Метрология, классификация погрешностей измерений