Систематические и случайные погрешности измерения

Автор работы: Пользователь скрыл имя, 17 Марта 2015 в 11:02, реферат

Краткое описание

Цель любых измерений – получение результата, то есть оценка истинного значения физической величины. Однако какими бы точными и совершенными ни были средства измерений и методы измерений, и как бы тщательно измерения ни выполнялись, их результат всегда отличается от истинного значения измеряемой физической величины, т.е. находится с некоторой погрешностью. Для оценки степени приближения к истинному значению используют положения теории вероятностей. Эта теория дает возможность оценивать вероятностные границы погрешностей, за пределы которых они не выходят. Достоверность (или точность) измерений характеризует степень доверия к полученным результатам измерений.

Прикрепленные файлы: 1 файл

Метрология реферат.doc

— 307.00 Кб (Скачать документ)

 

  1. Метод компенсации погрешности по знаку – выполняются два измерения: и =>

 

  1. Метод рандомизации – перевод систематических погрешностей в случайные: некоторая величина измеряется рядом однотипных приборов с последующей оценкой результата измерений в виде математического ожидания (средние арифметические значения) выполненного ряда наблюдений; т.е. от прибора к прибору метод погрешностей изменяется случайным образом.

 

  1. Метод введения поправок – поправки определяются экспериментально или путем специальных теоретических исследований и задаются в виде формул, таблиц или графиков (например, этот метод хорош при устранении постоянных инструментальных погрешностей, которые можно выявить при поверке прибора).

 

  1. Метод симметричных наблюдений – для выявления и исключения погрешностей, которые являются линейной функцией соответствующего аргумента (амплитуды, напряжения, времени, температуры и пр.). Используются для исключения погрешности, обусловленной, например, постепенным падением напряжения питания. 

Пример: Измеряем xи, результат xi=xi(t). Проводим несколько измерений через Δt:  x1, x2,…x5

t1, t2,…t5

вычисляем   и   (t1 и t5, t2 и t4 симметричны относительно t3). При линейной погрешности средние значения должны быть одинаковыми. Тогда можно записать

 ,

где k=const и из системы уравнений

      находим xи.      


  1. Графический метод – строится график, через точки проводят плавную линию, которая отражает тенденцию результата, если она есть. Если  нет – переменную  погрешность считают практически отсутствующей.

При всех измерениях всегда остаются не исключенные остатки систематических погрешностей.

 

Случайные погрешности

Аналитически случайные погрешности описывают и оценивают с помощью аппарата теории вероятностей и математической статистики.

Рассмотрим некоторые числовые характеристики случайных величин.

  • Математическое ожидание случайной величины – это сумма произведений всех ее возможных значений на их вероятности:

(математическое ожидание как  дискретной так и непрерывной  случайной величины есть неслучайная (постоянная) величина).

Вероятностный смысл математического ожидания: математическое ожидание приблизительно равно (тем точнее, чем больше число испытаний N) среднему арифметическому наблюдаемых значений случайной величины:

(или в интегральном виде )

Х – обозначение случайной величины, xi – возможное значение Х.

  • Для оценки рассеяния возможных значений случайной величины вокруг ее математического ожидания вводится понятие дисперсии – математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

  • Средним квадратическим отклонением случайной величины x называется квадратный корень из дисперсии:

размерность среднего квадратического отклонения совпадает с размерностью самой случайной величины, поэтому в метрологии обычно используется , а не D(x), которая имеет размерность квадрата случайной величины.

 

Для характеристики частоты появления различных значений случайной величины X (в нашем случае – погрешности прибора или результата измерения с учетом и ее систематической составляющей) теория вероятностей предполагает пользоваться указанием закона распределения вероятностей различных значений этой величины.

 

Различают два вида законов: интегральный и дифференциальный.

Интегральным законом или функцией распределения вероятностей F(x) случайной величины х называется функция, значение которой  для любого х  является вероятностью события, заключающегося в том, что случайная величина Х принимает значение, меньше х, т.е.

Это неубывающая функция х, изменяющаяся так, что F(-∞)=0, a F(+∞)=1. Она существует для всех случайных величин, как дискретных, так и непрерывных.

Дискретная случайная величина – величина, которая принимает отдельные изолированные возможные значения с определенными вероятностями. Число возможных значений может быть как конечным, так и бесконечным.

  Непрерывная случайная величина  – если ее функция распределения  есть непрерывная, кусочно-дифференцируемая функция с непрерывной производной.

Для случайной величины с непрерывной и дифференцируемой F(x) можно найти дифференциальный закон распределения вероятностей, выражаемый как производная от F(x), т.е.

p(x)=F’(x)

Эта зависимость называется кривой плотности распределения вероятностей. Она всегда неотрицательна, т.е. p(x)≥0 и подчиняется условию нормировки:

 

Примеры законов распределения:

  • Распределение Коши.

    

 

Это распределение близко к предельному пологому, т.е. для него выполняется условие .

 

  • Распределение Лапласа (двустороннее экспоненциальное).

 

 

 

 

 

 

 

 

  • Наиболее часто используемое на практике и в теории вероятностей – нормальное распределение (распределение Гаусса).

Т.е. по мере удаления от х=0 функция спадает быстрее, чем распределение Лапласа.

 

 

 

 

 

 

 

 

Применяется для большего числа наблюдений n.

 

  • Если непрерывная случайная величина принимает значения лишь в пределах некоторого конечного интервала значений (x1, x2) с постоянной плотностью вероятностей, то такой закон распределения называется равномерным. Это распределение характерно для поведения случайных погрешностей при измерении непрерывной величины методом дискретного счета при преобразовании их в АЦП (так называемые погрешности квантования уровней сигналов).

    при x1 < x <x2


                при x < x1 и x > x2

 

 

  • Распределение, при котором встречаются с равными вероятностями только два дискретных значения случайной величины +а и –а, называется дискретным двузначным распределением:

,

где - дельта – функция Дирака, для которой:


0,  при t ≠ 0

       

∞, при t = 0


Физически - функцию можно определить как плотность единичной массы сосредоточенной в нуле.

 

 

  • Распределение Стьюдента (псевдоним Госсета, предсказавшего это распределение) наиболее часто применяется в процессе обработки результатов небольшого числа (2 ≤ 4 < 20) наблюдений случайной величины и справедлив, когда случайные погрешности распределены по нормальному закону. Для него вводится случайная величина:

,

где - оценка средней арифметической хi

       - оценка СКО случайной величины .

Этот закон учитывает число n наблюдений и задается плотностью распределения вероятностей:

;

n ≥ 2 – число наблюдений; и - гамма-функции, (или интегралы Эйлера), которые для некоторого аргумента х определяются как:

С ростом n (когда n→20) распределение Стьюдента быстро приближается к нормальному и тем значительнее отличается от него, чем меньше n. Отличия состоят в увеличении рассеяния относительных погрешностей tx относительно центра tx=0 при уменьшении числа наблюдений. Уменьшается также и вероятность попадания погрешностей случайной величины tx в заданный интервал (-tδ, tδ).

  • Распределение отсчетов синусоидально изменяющейся во времени величины x=xmsinωt, если моменты этих отсчетов равномерно распределены во времени, то оно называется арксинусоидальным.


 

 

 

Распределения погрешностей приборов или результатов измерений, как правило, являются симметричными. Поэтому применительно к распределениям вероятностей погрешностей центр распределения может быть определен как центр симметрии распределения.

Координата центра распределения может быть определена несколькими способами. Наиболее общим  является определение центра из принципа симметрии, т.е. как точки на оси х, слева и справа от которой вероятности появления различных значений случайной величины равны между собой и составляют Р1 = Р2 =0,5. Такое значение называется медианой.

Координата центра может быть определена и по-другому – как центр тяжести распределения, т.е. такая абсцисса , относительно которой опрокидывающий момент равен 0:

,

т.е. центр тяжести, центр распределения – это математическое ожидание.

При симметричной кривой плотности распределения одной из возможных оценок центра распределения может служить абсцисса моды распределения (т.е. максимума плотности). Это возможно лишь в случае, когда распределение имеет моду. Если моды две и более, либо нет вовсе (например, равномерное распределение), то определение центра как моды распределения не имеет смысла.

То же самое относится и к понятию математического ожидания. У ряда распределений, необходимые для вычисления погрешностей, например, косвенных измерений, математического ожидания. Не существует, т.к. соответствующий распределению интеграл расходится (например, распределение Коши), а понятие центра распределения правомерно для любого распределения.

При вероятностном описании погрешности координата центра распределения определяет значение систематической составляющей погрешности, т.е. вероятностное описание погрешностей включает в себя и указание ее систематической составляющей.

Все вышеописанные распределения показаны с координатой центра хс=0. Если хс≠0, изменяется и аналитическое описание плотности распределения вероятностей. Например, распределение Гаусса примет вид:

,

а распределение Коши:

 

Если же из всех наблюдавшихся значений погрешности вычесть систематическую составляющую, то такое распределение называется центрированным.

Для описания различных свойств распределений используют параметры законов распределения, которые называются моментами. Моменты, найденные без исключения систематической составляющей, называются начальными, а найденные для центрированных распределений, центральными.

Центральный момент порядка k непрерывной случайной величины выражается интегралом:

Очевидно, что центральный момент первого порядка – это математическое ожидание, второго порядка – дисперсия (математическое ожидание квадрата ее отклонения) .

Третий центральный момент μз характеризует асимметрию, т.е. скошенность распределения (когда один спад крутой, а другой – пологий). Для симметричных относительно центра распределений он равен 0. Третий момент имеет размерность куба случайной величины, поэтому для относительной характеристики асимметрии .

Асимметрия положительна, если «длинная» часть кривой расположена правее моды, и отрицательна, если слева от моды:

Для оценки «крутости», т.е. большего или меньшего подъема кривой распределения, существует четвертый момент μ4 =>

 - эксцесс.

Отношение его к σ4 называется эксцессом распределения. Для различных законов распределения эксцесс может изменяться от 1 до ∞, поэтому для классификации распределений по их форме удобнее пользоваться величиной

, которая называется контрэксцессом  и для любых законов распределения  имеет величину в пределах  от 0 до 1.

Эксцессом теоретического распределения в теории вероятности называют характеристику, которая определяется разностью:

Для нормального распределения  => Еk=0. Поэтому если эксцесс некоторого распределения отличен от нуля, то кривая этого распределения отличается от нормальной кривой (т.е. распределения Гаусса): если Еk>0, то кривая имеет более высокую и острую вершину, чем нормальная кривая, если Еk<0, то кривая имеет более низкую и плоскую вершину, чем нормальная. При этом предполагается, что распределение Гаусса (нормальное) и теоретическое имеет одинаковые математические ожидания и дисперсии.

Особенность законов распределения таких случайных величин как погрешности приборов и результатов измерения состоит в их большом разнообразии. Это вызвано тем, что результирующая погрешность прибора или результата измерения складывается из ряда составляющих. Если эти составляющие рассматривать как случайные величины, то суммирование погрешностей сводится к суммированию случайных величин. Но при суммировании случайных величин законы их распределения резко меняют форму.

Информация о работе Систематические и случайные погрешности измерения