Виды общения
Автор работы: Пользователь скрыл имя, 24 Декабря 2013 в 03:28, реферат
Краткое описание
Целью данного пособия является развитие умений и навыков перевода текстов с немецкого языка на русский язык. Для достижения поставленной цели в данном пособии имеется краткое изложение грамматических особенностей немецких текстов и варианты перевода грамматических и лексических форм.
УПП состоит из уроков, в каждый из которых включены грамматические правила, задания, упражнения, тексты, словарь и тесты для самоконтроля.
Содержание
1. Введение…………………………………………………………..2
2. Виды общения …………………………………………………....4
3. Виды речевой деятельности и их особенности………………....5
4. Общая характеристика форм речи……………………………….6
5. Устная форма речи………………………………………………...8
6. Письменная форма речи………………………………………….12
7. Взаимодействие устной и письменной речи……………………14
8. Заключение………………………………………………………..16
9. Список литературы……………………………………………….18
Прикрепленные файлы: 29 файлов
1
Теория вероятностей
Случайные события
Под испытанием подразумевается наличие определенного комплекса
условий. Возможный результат – исход испытания или наблюдения
называется событием.
Определение. Результат испытания, который нельзя заранее
прогнозировать, называется случайным событием А.
Определение. Событие называется достоверным U в данном
испытании, если оно неизбежно происходит при этом испытании.
Определение. Событие называется невозможным V в данном
испытании, если оно заведомо не происходит при этом испытании.
Предположим, что в результате рассматриваемого опыта или явления
происходит один из взаимно исключающих друг друга исходов, которые
будем называть элементарными событиями или элементарными исходами.
Тогда:
1) каждый исход испытания представляется одним и только одним
элементарным событием;
2) всякое событие А, связанное с этим испытанием, есть множество
конечного или бесконечного числа элементарных событий;
3) событие А происходит тогда и только тогда, когда реализуется одно
из элементарных событий, входящих в это множество.
Алгебра событий
Определение. Под суммой двух событий А и В понимается событие
A B A B
, которое имеет место тогда и только тогда, когда произошло
хотя бы одно из событий А и В.
Определение. Произведением двух событий А и В называется событие
AB A B
, состоящее в одновременном появлении как события А, так и
события В.
Определение. Разностью событий А и В называется событие А\В,
которое состоит в том, что происходит событие А, но не происходит событие
В.
2
Определение. События А и В называются несовместными в данном
испытании, если появление одного из них исключает появление другого, т. е.
если произведение их есть событие невозможное.
Определение. Случайные события образуют полную группу, если они
попарно несовместны и если при каждом повторении испытания должно
произойти хотя бы одно из них.
Определение. Событие A, происходящее тогда и только тогда, когда
не происходит событие А, называется противоположным событию А.
Классическая вероятность
Рассмотрим классическую модель, т. е. такую систему случайных
событий, в которой каждое событие можно представить как сумму
нескольких событий, называемых элементарными событиями, причем
элементарные события образуют полную группу и все элементарные события
равновозможны.
Определение. В классической модели вероятность любого события А
равна отношению числа m случаев, благоприятствующих этому событию,
общему числу n всех случаев:
( )
.
m
P A
n
Замечание. Из определения вероятности следует, что равновозможные
элементарные события являются равновероятными, т. е. обладают одной и
той же вероятностью.
Частота, статистическая вероятность
Пусть производится n однотипных испытаний, одним из исходов
которых является событие А.
Определение. Отношение числа появлений m события А к общему
числу испытаний n называется относительной частотой события А:
( )
.
n
m
W A
n
3
Очевидно,
0
1.
n
W A
Следовательно,
( )
n
m W A n
, т. е. число появлений события А равно
его относительной частоте, умноженной на число испытаний.
Определение. Под вероятностью события в статистическом смысле
понимается почти достоверный предел его относительной частоты при
неограниченно растущем числе испытаний.
Величина
p n
представляет собой среднее значение числа
появления события А при n испытаниях.
Аксиомы вероятности:
1. Каждому событию А отвечает число ( )
p A , принимающее значение из
0,1
и называемое вероятностью А.
2. Вероятность невозможного события V равна нулю: ( ) 0
p V .
3. Вероятность достоверного события U равна единице: ( ) 1
p U .
4. Вероятность противоположного события A равна дополнению
вероятности данного события А до единицы, т. е.
( ) 1
( )
p A
p A
.
5. Эквивалентные события (каждое из них происходит всякий раз, когда
происходит другое) имеют одинаковые вероятности, т. е. если
A B
, то
( )
( )
p A
p B
.
6. Говорят, что из события А следует событие В (
)
A
B
, если событие В
появляется всякий раз, как только произошло событие А. Если A
B
, то
( )
( )
p A
p B
.
Теорема сложения вероятностей. Вероятность суммы двух
несовместных событий равна сумме вероятностей этих событий, т. е. если
AB V
, то (
)
( )
( )
p A B
p A
p B
.
Следствие. Вероятность
суммы конечного
числа попарно
несовместных событий равна сумме вероятностей этих событий.
Замечание. Пусть теперь события А и В совместны. Тогда число
благоприятных элементарных исходов для события
A B
будет равно
1
2
,
m m m m
где m – число элементарных исходов, благоприятных для события АВ.
Поэтому
4
Зависимые и независимые события. Условная вероятность
Определение. Вероятность события А при условии, что произошло
событие В, называется условной вероятностью события А и обозначается
( / )
( )
B
P A B
P A
.
Свойства условных вероятностей:
1) 0
( / ) 1;
P A B
2) если наступление события В исключает возможность осуществления А
(
)
AB V
, то ( / ) 0
P A B ;
3) если событие В ведет к обязательному осуществлению события А
(
)
B
A
, то ( / ) 1;
P A B
4) если событие А есть объединение непересекающихся событий
1
A ,
2
A , …,
то
( / )
( / ).
k
k
P A B
P A B
Определение. Два события А и В называются независимыми, если
вероятность каждого из них не зависит от появления или непоявления
другого, т. е.
( )
( / )
( / )
P A
P A B
P A B
и
( )
( / )
( / ).
P B
P B A
P B A
В противоположном случае события называются зависимыми.
Теорема. Вероятность произведения двух событий А и В равна
произведению вероятности одного из них на условную вероятность другого,
в предположении, что первое имеет место, т. е.
( )
( ) ( / ).
P AB P A P B A
Следствие. Для двух событий А и В справедливо равенство
( ) ( / )
( ) ( / ).
P A P B A P B P A B
Правило умножения вероятностей можно легко распространить и на
большее число случайных событий. Например, для трех событий А, В, С
имеем
1
2
1
2
(
)
( )
( )
( ).
m m m m m
m
P A B
P A P B P AB
n
n
n
n
5
(
)
( ) ( /
)
( ) ( / ) ( /
).
P ABC
P AB P C AB P A P B A P C AB
Рассмотрим случай, когда два события независимы.
Теорема. Вероятность совместного появления двух независимых
событий А и В равна произведению вероятностей этих событий:
( )
( ) ( ).
P AB P A P B
Определение. События называются независимыми в совокупности,
если каждое из них и любое произведение остальных есть события
независимые.
Теорема. Вероятность произведения конечного числа независимых в
совокупности событий равна произведению вероятностей этих событий. Для
n событий это соотношение имеет вид
1 2
1
2
(
... )
( ) ( )... ( ).
n
n
P A A A
P A P A
P A
Формула полной вероятности и формула Байеса
Теорема. Если случайные события
1
A ,
2
A , …,
n
A образуют полную
группу, то сумма их вероятностей равна единице, т. е.
1
( ) 1.
n
i
i
P A
Определение. Пусть событие А может произойти в результате
появления одного и только одного события
i
H (i = 1, 2, ..., n) из некоторой
полной группы несовместных событий
1
H
,
2
H , ...,
n
H . События этой группы
называются гипотезами.
Теорема. Вероятность события А равна сумме парных произведений
вероятностей всех гипотез, образующих полную группу, на соответствующие
условные вероятности данного события А, т. е.
1
( )
( ) ( / )
n
i
i
i
P A
P H P A H
это формула полной вероятности.
Одно из интересных применений формулы полной вероятности связано
с формулами Байеса. Если в выражении для условной вероятности
6
(
)
( ) ( / )
( / )
( )
( )
i
i
i
i
P AH
P H P A H
P H A
P A
P A
заменить вероятность
( )
P A по формуле полной вероятности, получим
формулу Байеса:
1
( ) ( / )
( / )
.
( ) ( / )
i
i
i
n
i
i
i
P H P A H
P H A
P H P A H
Эта формула применяется для вычисления условной вероятности
( / )
i
P H A гипотезы
i
H после испытания, при котором произошло событие А.
Другими словами формулы Байеса позволяют переоценить вероятности
гипотез, принятые до испытания (априорные), по результатам уже
произведенного испытания.
Элементы комбинаторики
Определение. Размещениями из n элементов по m называются такие
соединения, которые различаются самими элементами или их порядком.
Число всех размещений из n элементов по m равно
!
.
(
)!
m
n
n
A
n m
Определение. Перестановками из n элементов называются их
соединения, различающиеся только порядком входящих в них элементов.
Число всех перестановок из n различных элементов равно:
! 1 2 ... .
n
n
A n
n
Если среди n элементов a, b, c,… имеются одинаковые (а повторяется
раз, b –
раз, с –
раз, и т. д.), то число перестановок равно
!
.
! ! !...
n
Определение. Сочетаниями из n элементов по m называются такие их
соединения, которые различаются только своими элементами. Число
сочетаний из n элементов по m равно
!
.
(
)! !
m
n
n
C
n m m
7
Последние числа равны коэффициентам разложения бинома (
)
k
x y
по
степеням х и называются биноминальными коэффициентами.
Последовательные независимые испытания (схема Бернулли)
Пусть проводится n последовательных независимых одинаковых
стохастических экспериментов (испытаний), в каждом из которых может
наступить событие А. Под независимыми понимаются такие эксперименты, в
которых события, возникающие в результате экспериментов, являются
независимыми в совокупности. Так как испытания одинаковы, то в любом из
них событие А наступает с одинаковой вероятностью, обозначим ее
( )
p P A
. Вероятность противоположного события A (ненаступления А)
обозначим
( ) 1
q P A
p
. Наступление события
А обычно называют
успехом, а ненаступление – неуспехом (неудачей). Требуется найти
вероятность
,n m
P того, что событие А в таких n опытах появится m раз.
Теорема.
,
m m n m
n m
n
P
C p q
– формула Бернулли.
Следствие. Пусть
1
2
( , )
n
P m m
– вероятность того, что событие А
произошло не менее
1
m и не более
2
m
раз в n испытаниях. Тогда
2
1
1
2
( , )
.
m
k
k n k
n
n
k m
P m m
C p q
Предельные теоремы для схемы Бернулли
Продолжим рассматривать последовательные независимые испытания.
В случае, когда число испытаний n велико, вычисление по формуле Бернулли
затруднительно.
Для больших n вероятность p уменьшается обратно пропорционально
n, то есть это означает, что np , где – некоторая постоянная.
Теорема (Пуассона). Предположим, что произведение np является
постоянной величиной, когда n неограниченно возрастает. Обозначим
np
. Тогда для любого фиксированного
,
lim
.
!
m
n m
n
P
e
m
Формула Пуассона находит применение в теории массового
обслуживания.
8
Теорема (локальная предельная Муавра – Лапласса). Пусть
n
m np
x
npq
и при n, m величины
n
x ограничены. Тогда
2
2
,
1
.
2
n
x
n m
npqP
e
Замечание. Для функции
2
2
1
2
x
x
e
составлена таблица. Функция
x
является четной, т. е.
x
x
. Значения
x
приводятся в
таблицах.
Задача: какова вероятность
1
2
,
n
P m m
того, что в условиях схемы
Бернулли событие А, имеющее вероятность
( )
P A
p
0
1
p
, при n
испытаниях появляется не менее
1
m раз и не более
2
m
раз?
Эта вероятность определяется по формуле
2
2
2
1
2
1
2
0
1
,
,
2
m
m
m
m
t
t
t
n
t
t
P m m
t dt
e dt
где
1
1
m
m np
t
npq
,
2
2
m
m np
t
npq
.
Это составляет содержание интегральной формулы Лапласа.
Введем стандартный интеграл вероятностей (функцию Лапласа):
2
2
0
0
0
0
1
.
2
x
x
t
x
t dt
e dt
n
По формуле Ньютона–Лейбница имеем:
2
1
1
2
0
,
.
n
m
m
P m m
t
t
Данная формула приближенно дает вероятность того, что число m появлений
события А при n испытаниях удовлетворяет неравенству
1
2
m m m
, а
следовательно, случайная величина t – неравенству
1
2
m
m
t
t t
. Эту формулу
часто записывают в виде
1
2
2
1
1
2
0
0
m
m
m
P m m m
P t
t t
t
t
–
интегральная
9
формула Лапласа.
Приведем таблицу основных значений функции
0
x
:
x
0
0,5
1
1,5
2
2,5
3
0
x
0
0,192
0,341
0,433
0,477
0,494
0,499
График функции
0
x
:
-0,5
0
0,5
-3
-1,5
0
1,5
3
Cвойства
0
x
:
1.
0
0 0
;
2.
0
0,5
;
3.
0
0,5
;
4.
0
x
– нечетная;
5.
0
x
– монотонно возрастающая.
Замечание. При
3
x с точностью до тысячных
0
0,5
.
Случайные величины
Определение. Величина называется случайной, если она принимает
свои значения в зависимости от исходов некоторого испытания, причем для
каждого элементарного исхода она имеет единственное значение.
Случайные величины можно разделить на два класса: дискретные и
непрерывные.
10
Определение. Случайная величина называется дискретной, если
множество всех возможных ее значений конечно.
Геометрическое место всех возможных значений дискретной
случайной величины представляет конечную систему точек числовой оси.
Пусть дискретная случайная величина принимает свои различные
значения с вероятностями
( )
i
i
p P x
.
Определение. Соответствие между всеми возможными значениями
дискретной случайной величины и их вероятностями называется законом
распределения данной случайной величины.
Закон распределения случайной величины удобно записывать в виде
таблицы, которую называют рядом распределения:
1
x
2
x
…
n
x
i
p
x
1
p
2
p
…
n
p
Для характеристики поведения дискретной случайной величины
рассматривалась вероятность того, что принимает конкретные значения.
Но такой способ становится неприемлемым, если рассматривать
непрерывную случайную величину, так как множество ее значений бесконечно
и сплошь заполняет некоторый отрезок или интервал числовой прямой.
Поэтому можно рассматривать вероятности других событий: таких, когда
x
, где x – некоторое действительное число. Причем эти события можно
определять для обоих классов случаев, как дискретных, так и непрерывных.
Функция распределения
Определение. Функцией распределения случайной величины
называется функция
F x
P
x
, x R
.
Свойства:
1.
F x – неубывающая функция;
2.
0
F ,
1
F ;
3. функция
F x непрерывна слева;
4. для любых a b
выполняется равенство
.
P a
b
F b F a
Плотность вероятности
11
Определение. Плотностью распределения случайной величины
называется производная от функции распределения
f x
F x
.
Свойства плотности вероятности:
1. Плотность распределения есть функция неотрицательная:
0
f x ;
2.
b
a
P a
b
f x dx
.
Следствие.
x
F x
f x dx
.
Следствие.
1
f x dx
(свойство нормировки).
Числовые характеристики случайных величин
Определение. Математическим ожиданием дискретной случайной
величины называется число
1
n
k k
k
M
x p
.
Если случайная величина имеет счетное число значений, то тогда
математическое ожидание существует, если сходится ряд
1
n
k k
k
x p
, в
противном случае математическое ожидание не существует.
Математическое ожидание является вероятностным аналогом среднего
арифметического.
Свойства математического ожидания
1. Математическое ожидание постоянной равно этой постоянной:
.
M C
C
2. Математическое ожидание суммы двух случайных величин равно
сумме их математических ожиданий:
.
M
M
M
Следствие. Математическое ожидание суммы
конечного числа
случайных величин равно сумме их математических ожиданий:
1
2
1
2
...
...
.
n
n
M
M
M
M
3. Математическое ожидание произведения двух независимых
случайных величин равно произведению их математических ожиданий:
12
.
M
M
M
Следствие. Постоянный множитель можно выносить за знак
математического ожидания
.
M C
CM
Определение. Математическим ожиданием непрерывной случайной
величины называется число
.
M
xf x dx
Говорят, что математическое ожидание случайной величины
существует, если несобственный интеграл сходится.
Математическое ожидание непрерывных случайных величин обладает
теми же свойствами, что и математическое ожидание дискретных случайных
величин.
Кроме математического ожидания, которое указывает некоторое
среднее значение случайной величины, можно рассматривать и средний
разброс случайной величины около своего математического ожидания.
Мерой этого разброса (рассеивания) служит дисперсия.
Определение. Дисперсией случайной величины называется
математическое ожидание квадрата отклонения случайной величины от
своего математического ожидания
2
.
D
M
M
Поэтому для дискретных случайных величин
2
1
,
n
i
i
i
D
x M
p
а для непрерывных случайных величин
2
.
D
x M x
f x dx
Определение. Величина
D
называется
среднеквадратическим отклонением.
Свойства дисперсии:
1. дисперсия постоянной равна нулю:
0
D C ;
13
2. если C – постоянная, то
2
D C
C D C
;
3. дисперсия суммы двух случайных величин равна сумме их
дисперсий
.
D
D
D
Следствие 1.Дисперсия суммы нескольких взаимно независимых
случайных величин равна сумме дисперсий этих величин.
Следствие 2. Если C – постоянная величина, то
.
D C
D
Следствие 3. Дисперсия разности двух независимых случайных
величин равна сумме их дисперсий:
.
D
D
D
Начальные и центральные моменты случайной величины
Определение. Начальным моментом k -го порядка случайной величины
называется математическое ожидание k -й степени случайной величины :
.
k
k
M
Очевидно, что для дискретных случайных величин
1
.
n
k
k
k
x f x dx
Для непрерывных случайных величин
.
k
k
x f x dx
Определение. Центральным моментом k -го порядка случайной
величины называется математическое ожидание k -й степени случайной
величины от своего математического ожидания.
Очевидно, что для дискретных случайных величин
1
n
k
k
i
i
k
D
x M x
p
.
Для непрерывных случайных величин
k
k
D
x M x
f x dx
.
Для нахождения дисперсии удобно пользоваться формулой вида:
14
2
2
.
D
M
M
Законы распределения случайных величин.
1. Биномиальное распределение
Рассмотрим последовательность независимых испытаний по схеме
Бернулли.
Пусть – число успехов в n испытаниях Бернулли. Распределение
вероятностей случайной величины имеет вид
,
0, ..., ,
k
k n k
n
n
P k
C p q
k
n
и называется распределением Бернулли, или биномиальным распределением.
Здесь p – вероятность отдельного успеха,
1
q
p
– вероятность
противоположного события, n – число испытаний.
Название связано с тем, что эти вероятности совпадают с
соответствующими членами разложения бинома
n
q p
по степеням p:
1
...
...
.
n
n
n
m m n m
n
n
q p
q
npq
C p q
p
Биномиальное распределение определяется двумя параметрами p и n.
При этом
,
1
.
M
np D
np
p
2. Распределение Пуассона
Распределение Пуассона часто встречается в задачах, связанных с
простейшим потоком событий. Под потоком событий следует понимать
последовательность событий, наступающих одно за другим в случайные
моменты времени. Примерами могут служить: поток вызовов на телефонной
станции,
поток
заявок
в
системе
массового
обслуживания,
последовательность радиоактивного распада частиц.
Простейший
поток событий
характеризуется следующими
свойствами:
а) вероятность наступления того или иного числа событий за любой
промежуток времени зависит только от длительности этого промежутка, а не
от начала отсчета;
б) указанная вероятность не зависит от того, какое число событий
наступило до начала рассматриваемого промежутка времени;
15
в) за малый промежуток времени вероятность наступления одного
события приближенно пропорциональна длительности такого промежутка, а
вероятностью наступления двух или более событий можно пренебречь.
В качестве случайной величины рассмотрим число событий
простейшего потока, наступающих за фиксированный промежуток времени t.
Значениями этой случайной величины могут быть любые целые числа
1, 2, 3, ...
m
.
Соответствующие
вероятности
обозначим
через
;
m
p t
P
m
m
p t есть вероятность того, что за фиксированный
промежуток времени t наступит ровно m событий простейшего потока.
Общее число наступающих за время t событий является случайной
величиной, распределенной по закону Пуассона:
,
!
m
P
m
e
m
где постоянная равна среднему числу событий, наступающих в единицу
времени:
M
,
.
D
3. Геометрическое распределение
Рассмотрим неограниченные испытания Бернулли. Обозначим число
испытаний, предшествующих наступлению первого «успеха». Если считать,
что каждое испытание длится единицу времени, то можно считать
временем ожидания до первого «успеха». Распределение вероятностей
случайной величины имеет вид:
1
,
0,1, ...,
k
P k
p
p
k
и называется геометрическим распределением. Оно определяется одним
параметром
0
p . В соответствующей схеме испытаний Бернулли – это
вероятность отдельного «успеха». Математическое ожидание и дисперсия
случайной величины имеют вид
2
1
1
,
.
p
p
M
D
p
p
Непрерывные распределения
1. Нормальное распределение (Гаусса). Одним из наиболее часто
встречающихся распределений является нормальное распределение (Гаусса).
Оно играет большую роль в теории вероятностей, а связано это с тем, что
нормальный закон распределения является предельным законом, к которому
приближаются другие законы распределения.
16
Определение. Непрерывная случайная величина имеет нормальное
распределение, если ее плотность распределения имеет вид
2
2
2
1
,
2
x a
f x
e
где a и некоторые постоянные, называемые параметрами распределения.
Функция распределения
F x принимает вид:
2
2
2
1
.
2
x a
x
F x
e
dx
Основные числовые характеристики нормального распределения:
,
M
a
.
D
После вычисления математического ожидания и дисперсии становится
ясным вероятностный смысл параметров a и нормального распределения.
Функция плотности нормального распределения
f x с параметрами
0,
1
a
называется
плотностью
стандартного
нормального
распределения случайной величины, то есть для стандартной нормальной
случайной величины
2
2
1
.
2
x
f x
e
Для вычисления вероятности попадания значения случайной величины,
распределенной нормально, в заданный интервал
, обычно пользуются
специальной функцией
2
2
0
1
.
2
x
u
x
e du
Эта функция называется функцией Лапласа или интегралом вероятности. Ее
значения табулированы. При использовании таблицы следует помнить, что
функция
x
– нечетная функция, поэтому в таблице приведены ее
значения только для положительного аргумента.
Вероятность попадания нормальной величины в интервал
,
17
.
a
a
P
2. Равномерное распределение. Случайная величина имеет функцию
плотности вероятности
0,
, ,
1
,
, .
x a b
f x
x a b
b a
Тогда
2
b a
M
,
2
12
b a
D
.
3. Распределение Симпсона. Случайная величина имеет функцию
плотности вероятности
2
2
2
2 ,
, ,
0,
, .
a b
x
x a b
b a
b a
f x
x a b
Тогда
3
3
3
2
,
2
2
,
2
24
3
a b
a b
M x
a b
D
b a
.
4. Показательное (экспоненциальное) распределение. Функция
плотности вероятности
,
0,
,
0,
0
x
e
x
f x
x
0.
Тогда
1
M
,
2
1
D
.
5. Распределение Лапласа. Случайная величина имеет функцию
плотности вероятности
,
2
x a
f x
e
; ,
0.
x
Тогда
2
2
2,
M
D
.
Предельные теоремы теории вероятностей
18
Массовые случайные явления обладают своими закономерностями.
Свойство устойчивости, в какой бы области оно не появлялось, коротко
можно охарактеризовать так: конкретные особенности каждого отдельного
случайного явления почти не сказываются на среднем результате массы
таких явлений; случайные отклонения от среднего значения в каждом
отдельном явлении в массе взаимно погашаются, выравниваются. Именно эта
устойчивость средних и представляет собой физическое содержание «закона
больших чисел», понимаемого в широком смысле слова: при очень большом
числе случайных явлений средний их результат практически перестает быть
случайным и может быть предсказан с большой степенью определенности. В
узком смысле слова «закон больших чисел» в теории вероятностей – это ряд
математических теорем, в каждой из которых для тех или иных условий
устанавливается факт приближения средних характеристик большого числа
опытов к некоторым определенным постоянным.
Неравенство Чебышева. Для любой случайной величины , имеющей
конечную дисперсию, при каждом
0
имеет место неравенство
2
.
D
P
M
Следствие. Для любой случайной величины справедливо неравен-
ство
1
3
.
9
P
M
D
Теорема (Чебышева). Если
1
2
, , ..., , ...
n
– последовательность
попарно независимых случайных величин, имеющих конечные дисперсии,
ограниченные одной и той же постоянной
1
,
D
C
2
D
C
, …,
n
D
C
, то, каково бы не было постоянное
0
,
1
1
1
1
lim
1.
n
n
k
k
n
k
k
P
M
n
n
Такая сходимость последовательности случайных величин называется схо-
димостью по вероятности.
Следствие 1 (Теорема Бернулли). Пусть
– число наступлений
события А в n независимых испытаниях и p есть вероятность наступления
события А в каждом из испытаний. Тогда для любого
0
19
lim
1.
n
P
p
n
Следствие 2 (теорема Пуассона). Если в последовательности
независимых испытаний вероятность появления события А в k -м испытании
равна
k
p , то
1
lim
1,
n
k
k
n
p
P
n
n
где
– число появлений события А в первых n испытаниях.
Двумерная случайная величина
Определение. Функцией распределения системы двух случайных
величин
,
называется вероятность совместного выполнения двух
неравенств
,x
y
:
,
,
.
F x y
P
x
y
Функция распределения
,
F x y есть вероятность попадания случайной
величины в бесконечный квадрат с вершиной в точке
,x y , лежащий левее и
ниже ее. Функция распределения одной случайной величины – обозначим
ее
F x
– представляет собой вероятность попадания случайной точки в
полуплоскость, ограниченную справа абсциссой x, а функция распределения
F y
– вероятность попадания случайной точки в полуплоскость,
ограниченную сверху ординатой y .
Свойства функции распределения
,
F x y аналогичны свойствам
функции распределения одной случайной величины.
1. Функция
,
F x y есть неубывающая функция обоих своих аргументов, то
есть при
2
1
2
1
,
,
x
x F x y F x y
, при
2
1
2
1
,
,
y
y F x y
F x y
.
2. Повсюду на функция распределения равна нулю:
,
,
,
0.
F x
F
y
F
20
3. При одном из аргументов, равном , функции распределения системы
есть функции распределения случайной величины, соответствующей
другому аргументу
,
,
,
F x
F x
F
y
F y
.
4. Если оба аргумента равны , функция распределения системы равна 1,
т. е.
,
1.
F
5.
,
,
,
,
,
P a
b c
d
F b d
F a d
F b c F a c
.
Введенная функция распределения существует для системы любых
случайных величин, как дискретных, так и непрерывных.
Систему дискретных случайных величин можно характеризовать
совокупностью вероятностей
ij
p , которые могут быть сведены в таблицу:
\
1
x
2
x
…
n
x
1
y
11
p
12
p
…
1n
p
2
y
21
p
22
p
…
2n
p
...
…
…
…
…
m
y
1
m
p
2
m
p
…
mn
p
Тогда одномерные законы имеют вид
1
m
k
kj
k
j
P
x
p
p
,
1
n
l
il
l
i
P
y
p
p
.
Систему непрерывных случайных величин можно характеризовать
плотностью распределения.
Если функция
,
F x y непрерывно дифференцируема, то
2
0,
0
,
,
lim
, .
x
y
P
D
F x y
f x y
x y
x y
Функция
,
f x y называется плотностью распределения системы двух
случайных величин.Тогда
,
,
.
y
x
F x y
f x y dxdy
21
Поэтому
,
,
b d
a c
P a
b c
d
f x y dxdy
.
Плотность распределения удовлетворяет следующим свойствам:
1.
,
0
f x y .
2.
,
1
f x y dxdy
.
3.
Одномерные
плотности
имеют
вид:
,
;
,
.
f x
f x y dy
f x
f x y dx
Зависимые и независимые случайные величины
Определение. Случайные величины и
называются независимыми,
если закон распределения каждой из них не зависит от того, какое значение
приняла другая величина. В противном случае и
называются
зависимыми.
Таким образом, дискретные случайные величины независимы, если
,
i
j
i
j
i
j
P
x
y
P
x P
y
p p
;
непрерывные случайные величины независимы, если
,
f x y
f f
.
Определение. Корреляционным моментом случайных величин и
называется число
,
.
K
M
M
M
Для дискретных случайных величин
,
1
1
.
n
m
i j ij
i
j
K
x y p
Для непрерывных случайных величин
,
,
.
K
x M
y M
f x y dxdy
22
Если случайные величины и
независимы, то
,
0
K
, но
существуют примеры, которые показывают, что хотя
,
0
K
, случайные
величины и
зависимы.
Определение. Коэффициентом корреляции называется величина
,
,
,
.
K
K
r
D
D
Свойства коэффициента корреляции:
1. Для независимых случайных величин
,
0
r
;
2.
,
1
r
;
3.
,
1
r
тогда и только тогда, когда существуют такие числа
0
a и b, что
a
b
. Значит коэффициент корреляции характеризует линейную
зависимость между случайными величинами.
Математическая статистика
Задачи математической статистики:
1. Оценка неизвестной вероятности события, оценка числовых
характеристик случайных
величин, оценка неизвестной функции
распределения, оценка параметров функции распределения, вид которой
известен, оценка зависимости одной случайной величины от других
случайных величин.
2. Проверка статистических гипотез. Например, гипотеза о виде не-
известного распределения.
Пусть
X
– изучаемая случайная величина с функцией распределения
( )
F x .
Определение. Генеральной совокупностью случайной величины
называется множество всех ее возможных значений.
Предположим, что имеется возможность получать n ее значений,
например, экспериментально.
Определение. Выборкой объема n называется множество
23
1
2
, , ...,
n
x x
x
n отдельных наблюдаемых значений случайной величины из ее генеральной
совокупности. Числа
n
x называются элементами (вариантами) выборки.
Числа
i
n , указывающие, сколько раз число
i
x встречается в выборке, –
частотами.
Если провести другую серию n из экспериментов, то, как правило,
получится другая выборка:
1
1
1
1
2
, , ...,
n
x x
x
.
В связи с этим множество всех выборок объема
n
из
рассматриваемой генеральной совокупности можно рассматривать как
значения системы
n
случайных величин
1
2
,
, ...,
n
X X
X
.
Пусть X – дискретная случайная величина. Оценим по выборке
неизвестные вероятности
(
)
i
i
p
P X x
.
За оценку (приближенное значение) этих вероятностей принимают
относительные частоты
i
i
n
W
n
,
так как по закону больших чисел (теорема Бернулли) относительная
частота
i
W по вероятности сходится к вероятности
i
p :
lim (|
| ) 1,
0
i
i
n
P W
p
.
Определение. Последовательность
( , ),
( , )
i
i
i
i
x n
или x W
называется
статистическим рядом абсолютных (или относительных) частот.
При
большом
объеме
выборки
строят
группированные
статистические ряды. Для этого интервал, содержащий все элементы
выборки, разбивают на k непересекающихся интервалов
1
( ,
)
i
i
a a
,
0,1, ...,
i
k
длины h. Например,
max
min
x
x
h
k
или
max
min
1 3,322lg
x
x
h
n
.
24
В первом случае берутся интервалы
1
[ ,
)
i
i
a a
. Во втором случае в
качестве левого конца первого интервала берется
0
min
2
h
a
x
. Затем
1
0
a
a h
,
2
1
a
a h
и т. д., пока в последний интервал попадет
max
x .
Получаем интервалы
1
( ,
]
i
i
a a
.
Далее подсчитываются частоты
*
i
n – количество элементов выборки,
попавших в
i
-й интервал. Обозначим через
*
i
x середины полученных
интервалов
*
1
2
i
i
i
a
a
x
.
Определение.
Последовательность
пар
*
*
( , )
i
i
x n
называется
группированным рядом частот, а
*
*
( , )
i
i
n
x
n
– группированным рядом
относительных частот.
Для
наглядности
строят
полигоны
статистических
или
группированных
статистических
частот
–
это
ломаные
с
вершинами( , )
i
i
x n
или
*
*
( , )
i
i
x n . А также полигоны относительных
статистических или группированных относительных частот – это
ломаные с вершинами ( , )
i
i
n
x
n
или
*
*
( , )
i
i
n
x
n
.
Эмпирическая функция распределения
Определение. Функция
( )
,
x
n
n
F x
n
где
x
n – число элементов
выборки меньших x (
i
x
i
x x
n
n
– сумма накопленных частот), n – объем
выборки, называется эмпирической функцией распределения.
Эмпирическая функция распределения обладает всеми свойствами
функции распределения. Она равна нулю для
min
x x
и единице для
max
x x
и не убывает.
Если теоретическая функция распределения
( )
F x определяет веро-
ятность события X x
, то
( )
n
F x определяет статистическую частоту этого
события в n экспериментах. В соответствии с законом больших чисел
(теорема Бернулли) при каждом фиксированном x эмпирическая функция
25
распределения сходится по вероятности к теоретической
( )
F x ,
lim (| ( )
( )| ) 1,
0
n
n
P F x F x
.
Пусть промежуток
min
max
[
,
]
x
x
разбит на k интервалов
1
( ,
)
i
i
a a
длины
h и
*
i
n – число элементов выборки, попавших в
i
-й интервал. За оценку
плотности ( )
f x принимается
*
( )
i
n
n
f x
nh
,
1
i
i
a x a
.
Определение. Гистограмма относительных частот состоит из
прямоугольников с основаниями
1
[ ,
]
i
i
a a
и высотами
*
( )
i
n
n
f x
nh
.
Статистические оценки числовых характеристик случайных
величин и их свойства
Определение. Статистическая оценка
*
Q – это некоторая функция
от результатов наблюдений (от выборочных значений), предназначенная
для статистического оценивания неизвестных числовых характеристик
случайной величины и параметров ее функции распределения:
*
1
2
( ,
, ...,
)
n
Q T X X
X
,
где
*
Q
– оценка величины Q .
1
2
( ,
, ...,
)
n
T X X
X
– функция от элементов выборки, ее называют
статистикой.
Качество оценок характеризуется тремя основными свойствами.
1 . Состоятельность оценки
Определение. Оценка
*
1
2
( ,
, ...,
)
n
Q T X X
X
называется
состоятельной для Q , если она по вероятности сходится к Q при
неограниченном увеличении величины n – объема выборки,
*
lim (|
| ) 1
n
P Q Q
, для любо- го
0
.
2. Несмещѐнность оценки
Определение. Оценка
*
1
2
( ,
, ...,
)
n
Q T X X
X
называется несмещенной
для величины Q , если
*
( )
M Q
Q
, т. е. математическое ожидание
*
Q равняется истинному значению Q .
При выполнении этого свойства оценки не дают систематических
ошибок (в одну сторону) при изменении выборочных значений.
3. Эффективность оценки.
Пусть V – среднеквадратическая ошибка оценки
*
2
(
)
V M Q Q
. Если
оценка несмещѐнная, то
*
2
*
*
2
*
(
)
(
( ))
( )
V M Q Q
M Q M Q
D Q
, т. е. в
этом случае ошибка оценки совпадает с еѐ дисперсией.
26
Определение. Несмещенная оценка
*
Q называется эффективной,
если она имеет наименьшую дисперсию среди других несмещенных оценок.
Пусть
*
1
1
1
2
( ,
, ...,
)
n
Q
T X X
X
,
*
2
2
1
2
( ,
, ...,
)
n
Q
T X X
X
– две различные
несмещѐнные оценки для Q . Если
*
*
1
2
( )
( )
D Q
D Q
, то оценка
1
Q более
эффективная, чем
2
Q .
Замечание. Рассмотренные оценки
*
Q
являются случайными
величинами (числами), и в связи с этим их называют точечными оценками.
Выборочные (эмпирические) числовые характеристики
1
1
n
i
i
X
X
n
– выборочное среднее,
2
2
1
1
(
)
n
i
i
S
X
X
n
– выборочная дисперсия,
1
1
n
k
k
i
i
X
n
– выборочный момент k -го порядка.
Эти величины являются точечными оценками соответственно для
( )
M X ,
( )
D X ,
k
(
k
– теоретический момент k -го порядка).
*2
2
2
1
1
(
)
1
1
n
i
i
n
S
X X
S
n
n
– "исправленная" выборочная дисперсия.
Методы получения точечных оценок
Метод моментов
Метод моментов получения оценок
*
*
1
, ,
k
Q
Q
состоит в следующем:
приравниваются
k
первых теоретических и эмпирических (по выборке)
моментов и из полученной системы
k
уравнений с
k
неизвестными
определяются оценки:
*
*
1
1
1
( ,
, ,
)
n
j
j
i
k
i
x
x f x Q
Q dx
n
, (
1, 2, ..., )
j
k
.
Метод максимального правдоподобия
Методом максимального правдоподобия получают такие оценки
*
Q ,
при которых вероятность реализации рассматриваемых выборок (объѐма n)
максимальна.
27
Пусть
X
– дискретная случайная величина, и еѐ закон распределения
зависит от k неизвестных параметров
1
, ,
k
Q
Q
:
1
(
)
( , ,
)
i
i
k
P X x
p Q
Q
,
(
0)
i
p
.
Тогда вероятность того, что случайные величины
1
, ,
n
X
X
,
определяющие выборку, примут выборочные значения, равна
1
1
1
1
( , , , , ,
)
(
, ,
)
n
k
n
n
L x
x Q
Q
P X
x
X
x
1
1
1
1
(
) ... (
)
( , , )
n
n
n
i
k
i
P X
x
P X
x
p Q
Q
.
Функция
L
называется функцией правдоподобия. Она является законом
распределения выборки и при фиксированных выборочных значениях –
функцией только неизвестных параметров
1
, ,
k
Q
Q
.
Уравнения для
нахождения оценок (необходимое
условие
экстремума):
0
j
L
Q
,
1, 2, ...,
j
k
.
На практике вместо функции
L
вводят логарифмическую функцию
правдоподобия
1
1
1
1
ln
ln
( , , )
ln ( , , )
n
n
i
k
i
k
i
i
L
p Q
Q
p Q
Q
.
Точки экстремума функций
L
и
lnL
совпадают, так как
ln
1
0
i
i
L
L
Q
L Q
,
1, 2, ...,
j
k
.
Интервальные оценки
Определение. Доверительным интервалом для параметра Q
называется
интервал
1
1
2
1
( ( , , ),
( , , ))
n
n
Q x
x Q x
x
,
содержащий
(покрывающий) с заданной вероятностью (надежностью)
истинное
значение параметра.
Доверительные интервалы строятся по выборке. Концы интервалов
зависят от элементов выборки и в связи с этим являются случайными
величинами
1
2
(
)
P Q Q Q
.
Определение. Число называется доверительной вероятностью, а
1
– уровнем значимости.
28
t
t
X
a X
n
n
–
доверительный
интервал
для
математического ожидания нормально распределенной случайной
величины при известном среднеквадратическом отклонении .
*
*
,
t S
t S
X
X
n
n
– доверительный интервал для математического
ожидания нормально распределенной случайной величины при
неизвестном среднеквадратическом отклонении.
*
0
(1
)
S
q
– доверительный интервал для среднеквадратического
отклонения нормально распределенной случайной величины.
Статистические гипотезы
Определение.
Статистической
гипотезой
H
называется
предположение относительно параметров или вида функции (закона)
распределения случайной величины
X
. Статистическая гипотеза
называется простой, если она однозначно определяет распределение
случайной величины или если относительно ее параметров содержит
только одно предположение. В противном случае она называется
сложной.
Определение. Проверяемая (выдвинутая) гипотеза называется
нулевой гипотезой и обозначается
0
H .
Определение.
Конкурирующей
(альтернативной)
называют
гипотезу
1
H
, которая противоречит нулевой.
Статистические критерии для проверки гипотез
Определение. Для проверки нулевой гипотезы на основании
выборочных данных используют специально подобранную случайную
величину
K
, точное или приближенное распределение которой известно.
Величину
K
называют статистическим критерием.
Статистика этого критерия (функция от выборочных значений)
называется статистикой
Z
критерия
K
.
Пусть
B
z – выборочное значение статистики
Z
, вычисленное по
выборке. Критерий проверки гипотезы формулируется следующим
образом:
– гипотеза
0
H
отклоняется, если
B
k
z V
,
29
– гипотеза принимается, если
\
B
k
z V V
.
Построение критических областей
Определение. Множество (область) V
k
называется критической
областью.
Таким
образом,
множество
V
разбивается на
два
непересекающихся подмножества: множество V
k
– критическая область,
множество \
k
V V – область принятия гипотезы.
Проверка статистической гипотезы может быть разбита на
следующие этапы:
1) сформулировать проверяемую
0
( )
H
и альтернативную
1
( )
H
гипотезы;
2) выбрать уровень значимости ;
3) выбрать статистику
Z
критерия для проверки гипотезы
0
H ;
4) определить выборочное распределение статистики
Z
при условии,
что верна гипотеза
0
H ;
5) в зависимости от выбранной альтернативной гипотезы
определить критическую область
k
V
одним из неравенств
1
Z z
, Z z
или
совокупностью неравенств
1
2
Z z
и
2
Z z
;
6) по выборке вычислить
B
z ;
7) принять статистическое решение:
если
b
x V
, то гипотеза отклоняется как не согласующаяся с
результатами наблюдений;
если
\
b
k
z V V
, то принять гипотезу
0
H
, т. е. считать, что гипотеза
0
H
не противоречит результатам наблюдений.
Ошибки первого и второго рода
В результате проверки выдвинутой гипотезы могут быть допущены
ошибки двух типов:
1) ошибка первого рода – отвергнута правильная гипотеза
0
H
, когда
0
(
/
)
k
P Z V H
;
2) ошибка второго рода – принята неправильная гипотеза (в
действительности верна альтернативная гипотеза), вероятность ошибки
второго рода можно вычислять (для простой альтернативной гипотезы
1
H
)
по формуле
1
(
\
/
)
k
P Z V V H
.
Проверка гипотез о виде функции распределения.
Рассмотрим критерий
2
- Пирсона.
30
Пусть
X
– непрерывная случайная величина. Разбиваем область ее
значений на r непересекающихся интервалов
1
, ,
r
,
k
n – количество
элементов выборки, принадлежащих k -му интервалу.
(
)
k
k
p
P X
,
1, ,
k
r
,
1
r
k
k
n
n
(для вычисления
k
p используется гипотетическая функция распределения).
Если
X
– дискретная величина, то
k
n – частоты, с которыми каждое
значение встречается в выборке,
(
)
k
k
p
P X x
, которое вычисляется по
предполагаемому закону распределения случайной величины
X
. В обоих
случаях
1
1
r
k
k
p
.
Если в функцию (закон) распределения входят l неизвестных па-
раметров, то их заменяют оценками, которые получаются, например,
методом максимального правдоподобия, после чего вычисляют
k
p .
За меру отклонения (за критерий) берется случайная величина
2
2
1
(
)
r
k
k
k
k
n np
np
,
0
k
p
.
По выборке вычисляется
2
B
и принимается статистическое решение:
гипотеза не противоречит выборке при заданном уровне значимости ,
если
2
2
1
B
; если же
2
2
1
B
, тогипотеза отклоняется.
Здесь
2
1
– квантиль порядка 1 распределения
2
с (
1)
r l
-
степенями свободы, который вычисляется по таблице.
Определение. Квантилем t
порядка распределения случайной
величины
X
является корень уравнения (
)
( )
P X t
F t
.
Выборочный коэффициент корреляции
1
*
*
( ) ( )
n
i i
i
B
x y
n XY
r
S X S Y
– выборочный коэффициент корреляции.
31
Так как выборка случайна, то выборочный коэффициент корреляции
является случайной величиной и может служить точечной оценкой
коэффициента корреляции случайных величин
X
и
Y
.
Линейная регрессия
Определение. Функция ( )
g x называется наилучшим приближением
величины
Y
в смысле метода наименьших квадратов, если
2
(
( ))
M X g X
принимает наименьшее возможное значение. И функция
( )
g x
называется
среднеквадратической регрессией
Y
на
X
.
( )
g X
aX b
– линейная среднеквадратическая регрессия, т. е.
линейная функция , где
( )
( )
Y
a
r
X
,
( )
( )
( )
( )
Y
b M Y
rM X
X
.
Таким образом,
( )
( )
( )
( )
( )
Y
g X
M Y
r
X M X
X
.
Определение. Прямая
( )
( )
( )
( )
Y
y M Y
r
x M X
X
называется
прямой среднеквадратической регрессии
Y
на
X
.
Определение. Величина
2
2
( )(1
)
Y
r
называется остаточной
дисперсией
Y
на
X
.
Она определяет величину ошибки приближенного равенства
Y aX b
. Если
1
r
, то ошибка равна нулю и тогда
Y
и
X
связаны
линейной функциональной зависимостью.
Аналогично получается прямая среднеквадратической регрессии
X
на
Y
:
( )
( )
( )
( )
X
x M X
r
y M Y
Y
.
Заменяя в этих уравнениях ( )X
, ( )Y
,
( )
M X ,
( )
M Y и r на их
точечные
оценки,
получаем
уравнения
выборочных
прямых
среднеквадратических регрессий
Y
на
X
и
X
на
Y
:
*
*
( )
( )
b
S Y
y Y r
x X
S X
,
*
*
( )
( )
b
S X
x X r
y Y
S Y
.
Информация о работе Виды общения