Автор работы: Пользователь скрыл имя, 17 Марта 2015 в 11:02, реферат
Цель любых измерений – получение результата, то есть оценка истинного значения физической величины. Однако какими бы точными и совершенными ни были средства измерений и методы измерений, и как бы тщательно измерения ни выполнялись, их результат всегда отличается от истинного значения измеряемой физической величины, т.е. находится с некоторой погрешностью. Для оценки степени приближения к истинному значению используют положения теории вероятностей. Эта теория дает возможность оценивать вероятностные границы погрешностей, за пределы которых они не выходят. Достоверность (или точность) измерений характеризует степень доверия к полученным результатам измерений.
Пример: Измеряем xи, результат xi=xi(t). Проводим несколько измерений через Δt: x1, x2,…x5
t1, t2,…t5
вычисляем и (t1 и t5, t2 и t4 симметричны относительно t3). При линейной погрешности средние значения должны быть одинаковыми. Тогда можно записать
где k=const и из системы уравнений
находим xи.
При всех измерениях всегда остаются не исключенные остатки систематических погрешностей.
Случайные погрешности
Аналитически случайные погрешности описывают и оценивают с помощью аппарата теории вероятностей и математической статистики.
Рассмотрим некоторые числовые характеристики случайных величин.
(математическое ожидание как дискретной так и непрерывной случайной величины есть неслучайная (постоянная) величина).
Вероятностный смысл математического ожидания: математическое ожидание приблизительно равно (тем точнее, чем больше число испытаний N) среднему арифметическому наблюдаемых значений случайной величины:
(или в интегральном виде )
Х – обозначение случайной величины, xi – возможное значение Х.
размерность среднего квадратического отклонения совпадает с размерностью самой случайной величины, поэтому в метрологии обычно используется , а не D(x), которая имеет размерность квадрата случайной величины.
Для характеристики частоты появления различных значений случайной величины X (в нашем случае – погрешности прибора или результата измерения с учетом и ее систематической составляющей) теория вероятностей предполагает пользоваться указанием закона распределения вероятностей различных значений этой величины.
Различают два вида законов: интегральный и дифференциальный.
Интегральным законом или функцией распределения вероятностей F(x) случайной величины х называется функция, значение которой для любого х является вероятностью события, заключающегося в том, что случайная величина Х принимает значение, меньше х, т.е.
Это неубывающая функция х, изменяющаяся так, что F(-∞)=0, a F(+∞)=1. Она существует для всех случайных величин, как дискретных, так и непрерывных.
Дискретная случайная величина – величина, которая принимает отдельные изолированные возможные значения с определенными вероятностями. Число возможных значений может быть как конечным, так и бесконечным.
Непрерывная случайная
Для случайной величины с непрерывной и дифференцируемой F(x) можно найти дифференциальный закон распределения вероятностей, выражаемый как производная от F(x), т.е.
p(x)=F’(x)
Эта зависимость называется кривой плотности распределения вероятностей. Она всегда неотрицательна, т.е. p(x)≥0 и подчиняется условию нормировки:
Примеры законов распределения:
Это распределение близко к предельному пологому, т.е. для него выполняется условие .
Т.е. по мере удаления от х=0 функция спадает быстрее, чем распределение Лапласа.
Применяется для большего числа наблюдений n.
при x1 < x <x2
где - дельта – функция Дирака, для которой:
0, при t ≠ 0
∞, при t = 0
Физически - функцию можно определить как плотность единичной массы сосредоточенной в нуле.
где - оценка средней арифметической хi
- оценка СКО случайной величины .
Этот закон учитывает число n наблюдений и задается плотностью распределения вероятностей:
n ≥ 2 – число наблюдений; и - гамма-функции, (или интегралы Эйлера), которые для некоторого аргумента х определяются как:
С ростом n (когда n→20) распределение Стьюдента быстро приближается к нормальному и тем значительнее отличается от него, чем меньше n. Отличия состоят в увеличении рассеяния относительных погрешностей tx относительно центра tx=0 при уменьшении числа наблюдений. Уменьшается также и вероятность попадания погрешностей случайной величины tx в заданный интервал (-tδ, tδ).
Распределения погрешностей приборов или результатов измерений, как правило, являются симметричными. Поэтому применительно к распределениям вероятностей погрешностей центр распределения может быть определен как центр симметрии распределения.
Координата центра распределения может быть определена несколькими способами. Наиболее общим является определение центра из принципа симметрии, т.е. как точки на оси х, слева и справа от которой вероятности появления различных значений случайной величины равны между собой и составляют Р1 = Р2 =0,5. Такое значение называется медианой.
Координата центра может быть определена и по-другому – как центр тяжести распределения, т.е. такая абсцисса , относительно которой опрокидывающий момент равен 0:
т.е. центр тяжести, центр распределения – это математическое ожидание.
При симметричной кривой плотности распределения одной из возможных оценок центра распределения может служить абсцисса моды распределения (т.е. максимума плотности). Это возможно лишь в случае, когда распределение имеет моду. Если моды две и более, либо нет вовсе (например, равномерное распределение), то определение центра как моды распределения не имеет смысла.
То же самое относится и к понятию математического ожидания. У ряда распределений, необходимые для вычисления погрешностей, например, косвенных измерений, математического ожидания. Не существует, т.к. соответствующий распределению интеграл расходится (например, распределение Коши), а понятие центра распределения правомерно для любого распределения.
При вероятностном описании погрешности координата центра распределения определяет значение систематической составляющей погрешности, т.е. вероятностное описание погрешностей включает в себя и указание ее систематической составляющей.
Все вышеописанные распределения показаны с координатой центра хс=0. Если хс≠0, изменяется и аналитическое описание плотности распределения вероятностей. Например, распределение Гаусса примет вид:
а распределение Коши:
Если же из всех наблюдавшихся значений погрешности вычесть систематическую составляющую, то такое распределение называется центрированным.
Для описания различных свойств распределений используют параметры законов распределения, которые называются моментами. Моменты, найденные без исключения систематической составляющей, называются начальными, а найденные для центрированных распределений, центральными.
Центральный момент порядка k непрерывной случайной величины выражается интегралом:
Очевидно, что центральный момент первого порядка – это математическое ожидание, второго порядка – дисперсия (математическое ожидание квадрата ее отклонения) .
Третий центральный момент μз характеризует асимметрию, т.е. скошенность распределения (когда один спад крутой, а другой – пологий). Для симметричных относительно центра распределений он равен 0. Третий момент имеет размерность куба случайной величины, поэтому для относительной характеристики асимметрии .
Асимметрия положительна, если «длинная» часть кривой расположена правее моды, и отрицательна, если слева от моды:
Для оценки «крутости», т.е. большего или меньшего подъема кривой распределения, существует четвертый момент μ4 =>
Отношение его к σ4 называется эксцессом распределения. Для различных законов распределения эксцесс может изменяться от 1 до ∞, поэтому для классификации распределений по их форме удобнее пользоваться величиной
, которая называется
Эксцессом теоретического распределения в теории вероятности называют характеристику, которая определяется разностью:
Для нормального распределения => Еk=0. Поэтому если эксцесс некоторого распределения отличен от нуля, то кривая этого распределения отличается от нормальной кривой (т.е. распределения Гаусса): если Еk>0, то кривая имеет более высокую и острую вершину, чем нормальная кривая, если Еk<0, то кривая имеет более низкую и плоскую вершину, чем нормальная. При этом предполагается, что распределение Гаусса (нормальное) и теоретическое имеет одинаковые математические ожидания и дисперсии.
Особенность законов распределения таких случайных величин как погрешности приборов и результатов измерения состоит в их большом разнообразии. Это вызвано тем, что результирующая погрешность прибора или результата измерения складывается из ряда составляющих. Если эти составляющие рассматривать как случайные величины, то суммирование погрешностей сводится к суммированию случайных величин. Но при суммировании случайных величин законы их распределения резко меняют форму.
Информация о работе Систематические и случайные погрешности измерения