Рефераты, дипломные работы и прочие учебные работы.
Шпоры по теории вероятностиСколькими способами можно выбрать из них т предметов (безразлично, в каком порядке выбираются предметы)? Число способов такого выбора равно C n m = Основные соотношения для биномиальных коэффициентов: C n m =C n n-m , C n m? + C n m+1 = C n+1 m+1 , C n 0 + C n 1 + C n 2 +...+ C n n-1 + C n n = 2 n , ? C n 0 - C n 1 + C n 2 -...+ (-1) n C n n = 0. Числа A n m , P m и C n m связаны соотношением: A n m =P m C n m . Рассматриваются также размещения с повторением (т. е. всевозможные наборы из m предметов n различных видов, порядок в наборе существен) и сочетания с повторением (то же, но порядок в наборе не существен). Число размещений с повторением даётся формулой n m , число сочетаний с повторением - формулой C m n + m -1 . Вопрос 4 При аксиоматическом построении вероятностей в каждом конкретном пространстве элементарных событий W выделяется s -поле событий S для каждого события A S задается вероятность P { A }– числовая функция, определенная на s -поле событий S и удовлетворяющая следующим аксиомам. Аксиома неотрицательности вероятности для всех A S : P { A } ³ 0. Аксиома нормированности вероятности: P { W }=1. Аксиома адаптивности вероятности: для всех A , B S ,таких, что A B ¹ : P { A B }= P { A }+ P { B } Вопрос 6 1) Условная вероятность события А при условии В равна Р(А/ B )= P ( A * B )/ P ( B ), Р(В)>0. 2) Событие А не зависит от события В, если Р(А/ B )= P ( A ). Независимость событий взаимна, т.е. если событие А не зависит от В, то событие В не зависит от А. В самом деле при Р(А)>0 имеем Р( B / A )= P ( A * B )/ P ( A )= P ( A / B )* P ( B )/ P ( A )= P ( A )* P ( B )/ P ( A )= P ( B ). Вытекает следующая формула умножения вероятностей: Р(А*В)=Р(А)*Р(В/ A ). Для независимых событий вероятность произведения событий равна произведению их вероятностей: Р(А*В)=Р(А)*Р(В). 3) События А1,А2,…,А n образуют полную группу событий, если они попарно несовместны и вместе образуют достоверное событие, т.е. А i * Aj =0, i не= j , U по i от 1 до n А i =омега. Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие уже наступило: Р(АВ)=Р(А)*Ра(В). В частности для независимых событий Р(АВ)=Р(А)*Р(В), т.е. вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий. Вопрос 7 Формула полной вероятности. Систему событий А 1 , А 2 , ...,A N называют конечным разбиением (или просто разбиением), если они попарно несовместны, а их сумма образует полное пространство событий: А 1 + А 2 + ... + А N = Если события А i образуют разбиение пространства событий и все P(A i ) > 0, то для любого события В имеет место формула полной вероятности: P ( B ) = Случайные величины обозначают заглавными латинскими буквами X , Y , Z ,..., а их возможные значения — строчными латинскими буквами х, у, z . Случайная величина называется дискретной, если множество ее з начений конечно или счетно, и непрерывной в противном случае. Законом распределения случайной величины называется любое соотношение, связывающее возможные значения этой случайной величины и соответствующие им вероятности. Закон распределения дискретной случайной величины задается чаще всего не функцией распределения, а рядом распределения, т.е, таблицей
Очевидно, S pi = 1. Многоугольником распределения дискретной случайной величины X называ ется ломаная, соединяющая точки { xi ; pi ), расположенные в Порядке возрастания х i . Вопрос 11 Функцией распределения случайной величины Х называется функция F X ( x )= P { X x }, x R Под { X x }понимается событие, состоящее в том, что случайная величина Х принимает значение меньшее, чем число х. Если известно, о какой случайной величине идёт речь, то индекс, обозначающий эту случайную величину, опускается: F ( x ) F X ( x ). Как числовая функция от числового аргумента х, функция распределения F ( x ) произвольной случайной величины Х обладает следующими свойствами: 1)для любого x R : 0 F ( x ) 1 2) F(- ) = lim x ® F(x) = 0 ; F(+ ) = lim x ® F(x) = 1; 3) F ( x )-неубывающая функция, т.е.для любых х1,х2 R таких, что х1 F ( x 1) F ( x 2); 4)для любого x R : F ( x )= F ( x -0)= lim z x , z ® x F ( z ). Вопрос 12 Мат. Ожиданием Д.С.В. называют сумму произведений всех ее возможных значений на их вероятности: М(Х)=х1р1+х2р2+…+х npn . Если Д.С.В. принимает счетное множество возможных значений, то М(Х)=сумма по i от 1 до бесконечности xipi , причем мат. ожидание существует, если ряд в правой части равенства сходится абсолютно. Мат. ожидание обладает следующими свойствами: 1) Мат. ожидание постоянной величины равно самой постоянной: М(С)=С. 2) Постоянный множитель можно выносить за знак мат. ожидания: М (СХ)=СМ (Х). 3) Мат. ожидание произведения взаимно независимых С.В. равно произведению мат. ожиданий сомножителей: М (Х1,Х2…Х n )= M ( X 1)* M ( X 2)… M ( Xn ). 4) Мат. ожидание суммы С.В. равно сумме мат. ожиданий слагаемых: М (Х1+Х2+Х3+…+Х n )= M ( X 1)+ M ( X 2)+ M ( X 3)+…+ M ( Xn ). Вопрос13 Дисперсией случайной величины х называется число: DX = M ( X - MX ) 2 ,равное математическому ожиданию квадрата отклонения случайной величины от своего математического ожидания. Для вычисления дисперсии иногда проще использовать формулу: DX = M ( X 2 )-( MX ) 2 . Для дискретных св: DX = ( xi – MX ) 2 pi ; DX = xi 2 pi – ( MX ) 2 . Свойства дисперсии дискретной случайной величины: ( X , Y -независимые д.св, снеслучайная постоянная R ) Dc=0; D(cX)=c 2 DX; D(X+Y)= DX + DY Вопрос 15 Случайная величина Х наз.распределённой по геометрическому закону с параметром р (р [0;1]), если она принимает значения 1,2,3… с вероятностями Р{Х=х}= р(1-р) х-1 (х = 1,2,3…). Случайную величину Х можно интерпритировать как число испытаний Бернулли, которые придётся произвести до первого успеха, если успех в единичном испытании может произойти с вероятностью р. Математическое ожидание случайной величины, имеющей геометрическое распределение: МХ=1/ p . Дисперсия: DX=1-p/p 2 Вопрос 16 Если число испытаний велико, а вероятность P повяления события в каждом испытнаии очень мала, то используют приближенную формулу Pn ( k )= l ^ k * e ^(- l / k ) Где k – число появлений события в n независимых испытаниях, l = np (среднее число появлений события в n независимых испытаниях), и говорят, что случайная величина распределена по закону Пуассона. Вопрос 17 С.В. Х называется непрерывной, если существует неотрицательная функция рх(х) такая, что при любых х функцию распределения Fx ( x ) можно представить в виде: Fx ( x )=интеграл от –бесконечности до х px ( y ) dy . Рассматривают только такие С.В., для которых рх(х) непрерывна всюду, кроме, может быть, конечного числа точек. Плотностью распределения вероятностей непрерывной С.В. называют первую производную от функции распределения: f ( x )= F ’( x ). Вероятность того, что Н.С.В. Х примет значение, принадлежащее интервалу (а, b ), определяется равенством P ( a X b )=интервал от а до b f ( x ) dx . Зная плотность распределения можно найти функцию распределения F ( x )=интеграл от –бесконечности до х f ( x ) dx . Плотность распределения обладает следующими свойствами: 1) П.Р. неотрицательна, т.е. f ( x )>=0. 2) Несобственный интеграл от плотности распределения в пределах от –бесконечности до бесконечности равен единице: интеграл от –бесконечности до бесконечности f ( x ) dx =1. Вопрос 18 Мат. ожидание Н.С.В. Х, возможные значения которой принадлежат всей оси ОХ, определяется равенством: М(Х)=интеграл от –бесконечности до бесконечности х f ( x ) dx , где f ( x ) - плотность распределения С.В. Х. Предполагается, что интеграл сходится абсолютно. В частности, если все возможные значения принадлежат интервалу (а, b ), то М(Х)=интеграл от а до b xf ( x ) dx . Все свойства мат. ожидания, указаны выше, для Д.С.В. Они сохраняются и для Н.С.В. Дисперсия Н.С.В. Х, возможные значения которой принадлежат всей оси ОХ, определяется равенством: D ( X )=интеграл от –бесконечности до бесконечности [ x - M ( X )]*2 f ( x ) dx , или равносильным равенством: D ( X )=интеграл от –бесконечности до бесконечности x *2 f ( x ) dx – [ M ( X )]*2. В частности, если все возможные значения х принадлежат интервалу ( a , b ),то D ( X )=интервал от а до b [ x – M ( X )]*2 f ( x ) dx ,или D ( X )=интеграл от Вопрос 19 Моменты распределения. При решении многих практических задач нет особой необходимости в полной вероятностной характеристике каких-либо случайных величин, которую дает функция плотности распределения вероятностей. Очень часто приходится также иметь дело с анализом случайных величин, плотности вероятностей которых не отображаются аналитическими функциями либо вообще неизвестны. В этих случаях достаточно общее представление о характере и основных особенностях распределения случайных величин можно получить на основании усредненных числовых характеристик распределений. Числовыми характеристиками случайных величин, которые однозначно определяются функциями распределения их вероятностей, являются моменты. Начальные моменты n-го порядка случайной величины X (или просто моменты) представляют собой усредненные значения n-й степени случайной переменной: m n М{X n } Соответственно, для случайных величин с нулевыми средними значениями начальные моменты равны центральным моментам. По результатам реализации случайных величин может производиться только оценка моментов, т.к. количество измерений всегда конечно и не может с абсолютной точностью отражать все пространство состояний случайных величин. Результаты измерений - выборка из всех возможных значений случайной величины (генеральной совокупности). Оценка моментов, т.е. определение средних значений n-й степени по выборке из N зарегистрированных значений, производится по формулам: Простейшим (пуассоновским) называют поток событий, который обладает следующими тремя свойствами: стационарностью, «отсутствием последействия» и ординарностью. Свойство стационарности состоит в том, что вероятность появления k событий в любом промежутке времени зависит только от числа k и от длительности t промежутка времени и не зависит от начала его отсчета. Другими словами, вероятность появления k событий за промежуток времени длительностью t есть функция, за-висящая только от k и t . Свойство «отсутствия последействия» состоит в том, что вероятность появления k событий в любом промежутке времени не зависит от того, появлялись или не появлялись события в моменты времени, предшествующие началу рассматриваемого промежутка. Другими словами, предыстория потока не влияет на вероятности появления событий в ближайшем будущем. Свойство ординарности состоит в том, что появление двух или более событий за малый промежуток времени практически невозможно. Другими словами, вероятность появления более одного события за малый промежуток времени пренебрежимо мала по сравнению с вероятностью появления только одного события. Интенсивностью потока l называют среднее число событий, которые появляются в единицу времени. Если постоянная интенсивность потока l известна, то вероятность появления k событий простейшего потока за время t определяется формулой Пуассона Вопрос 23 (на отдельном листе) Вопрос 24 Н.С.В. Х имеет нормальное распределение вероятностей с параметром а и сигма>0, если ее плотность распределения имеет вид: р(х)=1/(корень квадратный из 2пи *сигма) * е в степени –1/2*( x - a /сигма)*2. Если Х имеет нормальное распределение, то будем кратко записывать это в виде Х прибл. N ( a ,сигма). Так как фи(х)=1/(корень из 2пи)*е в степени –х*2/2 – плотность нормального закона распределения с параметрами а=0 и сигма=1, то функция Ф(х)=1/(корень из 2пи)* интеграл от –бесконечности до х е в степени – t *2/2 dt , с помощью которой вычисляется вероятность P { a n - np /(корень из npq ) b }, является функцией распределения нормального распределения с параметрами а=0, сигма=1. Вопрос 25 Функцией (или интегралом вероятностей) Лапласа называется функция При решении задач, как правило, требуется найти значение функции по известному значению аргумента или, наоборот, по известному значению функции требуется найти значение аргумента. Для этого пользуются таблицей значений функции Лапласа и учитывают следующие свойства функции Соответствующую оценку вероятности дает неравенство Чебышева. Неравенство Чебышева является частным случаем более общего неравенства, позволяющего оценить вероятность события, состоящего в том, что С.В. Х превзойдет по модулю произвольное число t >0. P {| X – MX |>= t } t *2 M ( X – MX )*2=1/ t *2 DX – неравенство Чебышева. Оно справедливо для любых С.В., имеющих дисперсию; оценка вероятности в нем не зависит от закона распределения С.В. Х. Теорема Чебышева: Если последовательность попарно независимых С.В. Х1,Х2,Х3,…, Xn ,… имеет конечные мат. ожидания и дисперсии этих величин равномерно ограничены (не превышают постоянного числа С), то среднее арифметическое С.В. сходится по вероятности к среднему арифметическому их мат. ожиданий, т.е. если эпселен – любое положительное число, то: lim при n стремящемся к бесконечности P (|1/ n сумма по i от 1 до n Xi – 1/ n сумма по i от 1 до n M ( Xi )| lim при n стремящемся к бесконечности P (|1/ n сумма по i от 1 до n Xi – a | Теорема Бернулли: Если вероятность успеха в каждом из п независимых испытаний постоянна и равна р, то для произвольного, сколь угодно малого > 0 справедливо предельное равенство Вопрос 27 Локальная теорема Лапласа. Вероятность того, что в n независимых испытаниях, в каждом из которых вероятность появления события равна р(0 p k раз (безразлично, в какой последовательности), приближенно равна (тем точнее, чем больше n ). Pn ( k )=1/(корень из npq )*фи(х). Здесь Фи(х)=1/(корень из 2пи)*е в степени –х*2/2, x = k – np /(корень из npq ). Интегральная теорема Лапласа. Вероятность того, что в n независимых испытаниях, в каждом из которых вероятность появления события равна р(0 p k 1 раз и не более k 2 раз, приближенно равна: P ( k 1; k 2)=Ф(х’’) – Ф(х’). Здесь Ф(х)=1/(корень из 2пи) * интеграл от0 до х е в степени –( z *2/2) dz – функция Лапласа, х’=( k 1 – np )/(корень из npq ), х’’=( k 2 – np )/(корень из npq ). Вопрос 28 Двумерной называют С.В. (Х, Y ), возможные значения которой есть пары чисел ( x , y ). Составляющие Х и Y , рассматриваемые одновременно, образуют систему двух С.В. Дискретной называют двумерную величину, составляющие которой дискретны. Непрерывной называют двумерную величину, составляющие которой непрерывны. Законом распределения Д.С.В. называют соответствие между возможными значениями и их вероятностями. Функция распределения вероятностей Д.С.В. называют функцию F ( X , Y ), определяющую для каждой пары чисел (х, y ) вероятность того, что Х примет значение, меньшее х, при этом Y примет значение, меньшее y : F ( x , y )= P ( X x , Y y ). Свойства: 1) Значения функции распределения удовлетворяют двойному неравенству: 0 F ( x , y ) 2) Функция распределения есть неубывающая функция по каждому аргументу: F ( x 2, y )>= F ( x 1, y ), если х2> x 1. F ( x , y 2)>= F ( x , y 1), если y 2> y 1. 3) Имеют место предельные соотношения: 1) F (-бесконечность, у)=0, 2) F ( x ,-бесконечность)=0, 3) F (-бесконечность, -бесконечность)=0, 4) F (бесконечность, бесконечность)=1. 4) а) при у=бесконечность функция распределения системы становится функцией распределения составляющей Х: F ( x ,бесконечность)= F 1( x ). Б) при х=бесконечность функция распределения системы становится функцией распределения составляющей У: F (бесконечность, у)= F 2( y ). Вопрос 29 Вопрос 30 Корреляционным моментом СВ x и h называется мат. ожидание произведения отклонений этих СВ. m x h =М(( x —М( x ))*( h —М( h ))) Для вычисления корреляционного момента может быть использована формула: m x h =М( x * h )—М( x )*М( h ) Д оказательство: П о определению m x h =М(( x —М( x ))*( h —М( h ))) П о свойству мат. ожидания m x h =М( x h —М( h )— h М( x )+М( x )*М( h ))=М( x h )—М( h )*М( x )—М( x )*М( h )+М( x )*М( h )=М( x h )—М( x )*( h ) Предполагая, что x и h независимые СВ, тогда m x h =М( x h )—М( x )*М( h )=М( x )*М( h )—М( x )*М( h )=0; m x h =0. М ожно доказать, что если корреляционный момент=0, то СВ могут быть как зависимыми, так и независимыми. Если m x h не равен 0, то СВ x и h зависимы. Если СВ x и h зависимы, то корреляционный момент может быть равным 0 и не равным 0. М ожно показать, что корреляционный момент характеризует степень линейной зависимости между составляющими x и h . При этом корреляционный момент зависит от размерности самих СВ. Ч тобы сделать характеристику линейной связи x и h независимой от размерностей СВ x и h , вводится коэффициент корреляции: К x h = m x h / s ( x )* s ( h ) К оэффициент корреляции не зависит от разностей СВ x и h и только показывает степень линейной зависимости между x и h , обусловленную только вероятностными свойствами x и h . К оэффициент корреляции определяет наклон прямой на графике в системе координат ( x , h ) С войства коэффициента корреляции. 1. -1 x h Если К x h = ± 1, то линейная зависимость между x и h и они не СВ. 2. К x h >0, то с ростом одной составляющей, вторая также в среднем растет. К x h 3. D( x ± h )=D( x )+D( h ) ± 2 m x h Д оказательство. D( x ± h )=M(( x ± h )2)—M2( x ± h )=M( x 2 ± 2 x h + h 2)—(M( x ) ± M( h ))2=M( x 2) ± 2M( x h )+M( h 2)—+M2( x )+2M( x )*M( h )—M2( h )=D( x )+D( h ) ± 2(M( x h ))—M( x )*M( h )=D( x )+D( h ) ± 2 m x h Вопрос 31 Мат. статистика опирается на теорию вероятностей, и ее цель – оценить характеристики генеральной совокупности по выборочным данным. Генеральной совокупностью называется вероятностное пространство {омега, S , P } (т.е. пространство элементарных событий омега с заданным на нем полем событий S и вероятностями Р) и определенная на этом пространстве С.В. Х. Случайной выборкой или просто выборкой объема n называется последовательность Х1,Х2,…, Xn , n независимых одинаково распределенных С.В., распределение каждой из которых совпадает с распределением исследуемой С.В. Х. Иными словами, случайная выборка – это результат n последовательных и независимых наблюдений над С.В. Х, представляющей генеральную совокупность. Вопрос 32 Расположив элементы выборки в порядке неубывания, получим вариационный ряд х 1 х 2 , ... -, х п . Если в вариационном ряду есть повто ряющиеся элементы, то выборку можно записать в виде статисти ческого ряда распределения, т.е. в виде таблицы Выборочное среднее и выборочную дисперсию при этом вычисляют по формулам (4.2.1), (4.2.2) соответственно, в которых к = v . По выборочной плотности распределения легко построить выборочную функцию распределения, при этом линия, соединяющая точки Смещенной называют точечную оценку, мат. ожидание которой не равно оцениваемому параметру. Несмещенной оценкой генеральной средней (мат. ожидания) служит выборочная средняя: Хв=(сумма по i от 1 до k nixi )/ n , где xi – варианта выборки, ni – частота варианты xi , n =сумма по i от 1 до k ni – объем выборки. Вопрос 37 Вопрос38 Метод моментов точечной оценки неизвестных параметров заданного распределения состоит в приравнивании теоретических моментов соответствующим эмпирическим моментам того же порядка. Если распределение определяется одним параметром, то для его отыскания приравнивают один теоретический момент одному эмпирическому моменту того же порядка. Например, можно приравнять начальный теоретический момент первого порядка начальному эмпирическому моменту первого порядка: v 1= M 1. Учитывая, что v 1= M ( X ) и М1=Хв, получим М(Х)=Хв. Если распределение определяется двумя параметрами, то приравнивают два теоретических момента двум соответствующим эмпирическим моментам того же порядка. Учитывая, что v 1= M ( X ), M 1=Хв,мю= D ( X ), m 2= D в, имеем систему: М(Х)=Хв, D ( X )= D в. Метод наибольшего правдоподобия точечной оценки неизвестных параметров заданного распределения сводится к отысканию максимума функции одного или нескольких оцениваемых параметров. Д.С.В. Пусть Х – Д.С.В., которая в результате n опытов приняла возможные значения х1,х2,…, xn . Допустим, что вид закона распределения величины Х задан, но неизвестен параметр K , которым определяется этот закон; требуется найти его точечную оценку K *= K ( x 1, x 2,…, xn ). Обозначим вероятность того, что в результате испытания величина Х примет значение xi через р( xi ; K ). Функцией правдоподобия Д.С.В. Х называют функцию аргумента K : L ( x 1, x 2,…, xn ; K )= p ( x 1; K )* p ( x 2; K )… p ( xn ; K ). Оценкой наибольшего правдоподобия параметра K называют такое его значение K *, при котором функция правдоподобия достигает максимума. Функции L и lnL достигают максимума при одном и том же значении K , поэтому вместо отыскания максимума функции L ищут, что удобнее, максимум функции lnL . Н.С.В. Пусть Х – Н.С.В., которая в результате n испытаний приняла значения х1,х2,…, xn . Допустим, что вид плотности распределения – функции f ( x ) – задан, но неизвестен параметр K , которым определяется эта функция. Функцией правдоподобия Н.С.В. Х называют функцию аргумента K : L ( x 1, x 2,…, xn ; K )= f ( x 1; K )* f ( x 2; K )… f ( xn ; K ). Вопрос 39 Интервальной называют оценку, которая определяется двумя числами – концами интервала, покрывающего оцениваемый параметр. Доверительный интервал – это интервал, который с заданной надежностью гамма покрывает заданный параметр Интервальной оценкой (с надежностью гамма) среднего квадратического отклонения сигма нормально распределенного количественного признака Х по «исправленному» выборочному среднему квадратическому отклонению s служит доверительный интервал s (1- q ) s (1+ q ), при q s (1+ q ), при q >1. 3. Интервальной оценкой ( с надежностью гамма) неизвестной вероятности р биномиального распределения по относительной частоте w служит доверительный интервал ( с приближенными концами р1 и р2). Вопрос 40 Интервальной называют оценку, которая определяется двумя числами – концами интервала, покрывающего оцениваемый параметр. Доверительный интервал – это интервал, который с заданной надежностью гамма покрывает заданный параметр. 1. Интервальной оценкой с надежностью гамма мат. ожидания а нормально распределенного количественного признака Х по выборочной средней Хв при известном среднем квадратическом отклонении сигма генеральной совокупности служит доверительный интервал: Хв – t (сигма/корень из n ) a t (сигма/корень из n ), где t (сигма/корень из n )=дельта – точность оценки, n – объем выборки, t – значение аргумента функции Лапласа Ф( t ), при котором Ф( t )=гамма/2; при неизвестном сигма (и объеме выборки n t гамма ( s /корень из n ) a t гамма ( s /корень из n ), где s -исправленное выборочное среднее квадратическое отклонение Вопрос 41 Вопрос 42 В статистике рассматриваются гипотезы двух типов: 1. Параметрические – гипотезы о значении параметра известного распределения; 2. Непараметрические – гипотезы о виде распределения. Обычно выделяют основную гипотезу – нулевую (H0). Пример: математическое ожидание признака x , который распределен по нормальному закону и дисперсия его известна, а H0: M( x ) = a. П редполагаем, что известна дисперсия К онкурирующая гипотеза имеет вид: H 1: M( x ) ¹ a; H 1: M( x ) > a, либо H1: M( x ) = a1. Д ля проверки гипотез используются критерии, и они представляют собой специальным образом подобранные СВ, k – точечный или приближенный закон, который известен.
Вероятность этой ошибки: P (H1/H0) = a - уровень значимости критерия. К ритерий подбирается так, чтобы a была как можно меньше. В торого рода: что отвергается гипотеза Н1, в то время, как она верна. b = P(H0/H1) М ощностью критерия – (1- b ) - вероятность попасть точке-выборке в критическое множество, когда верна конкурирующая гипотеза. 1- b = P(H1/H1) Вопрос 43 Вопрос 44 По независимым выборкам, объемы которых n 1, n 2 , извлеченным из нормальных генеральных совокупностей, найдены исправленные выборочные дисперсии s ^2* x и s ^2* y . Требуется сравнить эти дисперсии. Правило I . Для того чтобы при заданном уровне значимости , проверить нулевую гипотезу H Q : D ( X ) = D ( Y ) о равенстве генеральных дисперсий нормальных совокупностей при конкурирующей гипотезе Ho : D ( X ) > D ( Y ), надо вычислить наблюдаемое значение критерия (отношение большей исправленной дисперсии к меньшей) Правило 2. При конкурирующей гипотезе Н1: D ( X ) ¹ D ( Y ) критическую точку F KP ( /2; k 1 , k 2) ищут по уровню значимости а/2 (вдвое меньшему заданного) и числам степеней свободы k 1 и k 2 ( k 1 —число степеней свободы, большей дисперсии). Если F H АБЛ F кр — нет оснований отвергнуть нулевую гипотезу. Если F набл > F кр — нулевую гипотезу отвергают. Вопрос 45 Вопрос 46 Разобьем множество возможных значений случайной величины X Hav разрядов (для непрерывной случайной величины роль раз рядов играют интервалы значений, а для дискретной — отдел ьные возможные значения или их группы). Выдвинем нулевую гипо тезу Н о : F x ( x ) = F теор( x ) (состоящую в том, что генеральная совокуп ность распределена по закону F теор( x )) при альтернативной гипотезе Н1 : F x ( x ) ¹ F Teop ( x ). Одним из критериев согласия выборочного и тео ретического распределений (т.е. критериев соответствия генеральной совокупности определенному закону распределения) является кри терий X ^2 (критерий Пирсона), который основывается на том, что рас пределение статистики Формулы закона распреде ления случайной величины X ^2 довольно сложны, и мы их приводить не будем, но для этого распределения составлены таблицы значений X ^2 k ; y таких, что Р{ X 2 X ^2 k ; y } = (табл. П. 3). Если выбрать уровень значимости а, то надежность = 1 — а = — Р{ X 2 X ^2 k ; y }и критическая область определяется неравенством X 2 набл X ^2 k ; y Обратим внимание на то, что критерий Пирсона можно использо вать только в том случае, когда n р теор ³ 5, поэтому разряды, для кото-, рых это условие не выполняется, необходимо объединить с соседними. Вопрос 47 С помощью методов регрессионного анализа строятся и проверяются модели, характеризующие связь между одной эндогенной (зависимой) переменной и одной или более экзогенными (независимыми) переменными. Независимые переменные называются регрессором. Направленность связи между переменными определяется путем предварительного обоснования и включается в модель в качестве исходной гипотезы. Задача регрессионного анализа – проверка статистической состоятельности модели, если данная гипотеза верна. Регрессионный анализ не в состоянии «доказать» гипотезу, он может лишь подтвердить ее статистически или отвергнуть. Метод наименьших квадратов (МНК, англ. Ordinary Least Squares, OLS) является одним из основных методов определения параметров регрессионных уравнений, дающий наилучшие линейные несмещенные оценки (теорема Гаусса–Маркова). Метод наименьших квадратов заключается в том, чтобы определить вид кривой, характер которой в наибольшей степени соответствует эмпирическим данным. Такая кривая должна обеспечить наименьшее значение суммы квадратов отклонений эмпирических значений величин показателя от значений, вычисленных согласно уравнению этой кривой: Уравнение линейной регрессии . Обычно признак Y рассматривается как функция многих аргументов — x 1 , x 2 , x 3 , ...— и может быть записана в виде: y = a + bx 1 + cx 2 + dx 3 + ... , где: а, b, с и d — параметры уравнения, определяющие соотношение между аргументами и функцией. В практике учитываются не все, а лишь некоторые аргументы, в простейшем случае, как при описании линейной регрессии, — всего один: y = a + bx В этом уравнении параметр а — свободный член; графически он представляет отрезок ординаты (у) в системе прямоугольных координат. Параметр b называется коэффициентом регрессии. С точки зрения аналитической геометрии b— угловой коэффициент, определяющий наклон линии регрессии по отношению к осям, координат. В области регрессионного анализа этот параметр показывает, насколько в среднем величина одного признака (Y) изменяется при изменении на единицу меры другого корреляционно связанного с Y признака X. Коэффициенты уравнения парной линейной регрессии. В случае линейной зависимости уравнение регрессии является уравнением прямой линии. Таких уравнений два: Y = a 1 + b y/x X — прямое и X = a 2 + b x/y Y — обратное, где: a и b – коэффициенты, или параметры, которые надлежит определить. Значение коэффициентов регрессии вычисляется по формуле: |