Шпаргалка по "Статистике"

Автор работы: Пользователь скрыл имя, 07 Декабря 2011 в 16:32, шпаргалка

Описание

Работа содержит ответы ны вопросы по "Статистике"

Работа состоит из  1 файл

шпоры по статистике.docx

— 177.23 Кб (Скачать документ)

14.Понятие  вариации. Показатели  вариации. Вариация – различие в знач какого либо признака у различных единиц совокупности в один и тот же период времени (работник различается по доходам, затратам времени на труд, образованию и тд.). Вариация возникает в результате того, что индивидуальные значения признака складываются под совокупным влиянием разнообразных факторов, кот по-разному сочетаются в каждом отдельном случае. Исследование вариации в статистике имеет большое значение. Помогает познать сущность изучаемого явления. Измерение вариации, выяснение её причины, выявление влияния отдельных факторов даёт важную информацию для принятия научно-обоснованных управленческих решений. Сред величина даёт обобщающий характеристику признака изучаемой совокупности, она не раскрывает строение совокупности. Сред величина не показывает как располагаются около неё варианты осредняемого признака. Сред величина у 2-х совокупностях мб одинаковой, но в одном случае индивид знач отличаются от неё мало, в другом эти отличия велики. Показатели: 1.Размах вариации 2.Сред линейной отклонение 3.Дисперсия 4. Сред квадр отклонение 5.Коэф вариации. Размах вариации представляет собой разность мд максимальным и минимальным знач признака. R=Xmax-Xmin. Сред линейной отклонение представляет собой среднюю арифметическую абсолютных значений отклонения отдельных вариантов от их средней арифметической   d = ∑|xi | / n – по несгруппированному признаку; d = ∑|xi |∙ fi /∑fiпо сгруппированному признаку.  
 
 
 
 
 
 
 

15.Дисперсия  и среднеквадратическое  отклонение. Коэффициент  вариации. Дисперсия признака представляет собой средний квадрат отклонений варианта от их величины 2 = ∑ ( xi - )2 / n (сред арифм простая); 2 = ∑ (  xi - )2f / ∑f (сред ариф взвеш). Техника вычисл дис-ии достаточно сложна; расчёты можно упростить, использую св-ва дисп-ии: 1.Если все знач призн уменьшить или увеличить на одну и ту же постоянную величину А, то дисп-ия от этого не изменится 2.Если все знач признака уменьшить или увеличить в одно и то же число раз, то дисп-ия соответственно уменьш или увелич в i-ое число раз. Дисп-ия равна разности средней из квадрата вариантов и квадрата из средней. Дисп-ия имеет большое знач в эконом анализе. Однако вследствии суммированных квадратов дисп-ия даёт искажённое представление об отклонениях, поэтому на основе дисп-ии рассчитывается среднеквадратич отклонение по несгруппированному признаку:  = ∑ ( xi - ) / n - по сгруппированному признаку: = ∑ (  xi - )2f / ∑f. Среднее квадратическое отклонение это обобщающая характеристика размеров вариации совокупности. Она показывает на сколько в среднем отклоняются конкретные варианты от их среднего значения. Является абсолютной мерой колеблимости признака и выражается в тех же единицах, что и варианты. В стат практике часто возникает необходимость сравнения вариации различных признаков. (сравнение вариации возраста рабочих и их квалификации стажа работы и размера з/п). Для подобных сопоставлений показатели абсолютных колеблимостей не пригодны. Нельзя сравнивать вариацию стажа работы(года) с вариацией з/п(рубли). Для осуществления такого рода сравнения используется отн показатель – коэф вариации K = / Он используется не только для сравнительной оценки, но и как характеристика однородности совокупности. Совокупность считается однородной, если к. вариации не превышает 30%.

16.Правило  сложения дисперсий.

В простейшем случае, когда совокупность расчленина на группы по одному фактору, изучение вариации достигается по средствам  и анализам 3-х дисп-ий: 1.Общая 2.Межгрупповая 3.Внутригрупповая. Общая дисперсия измеряет вариацию признака по всей совокупности под влиянием всех факторов. По несгруппированному признаку: 2 = ∑ ( xi - )2 / n; по сгруппированному признаку: 2 = ∑ (  xi - )2f / ∑f. Межгрупповая характеризует систематическую вариацию результативного порядка, обусловленную влиянием признака фактора положенного в основание группировки. Она равна среднему квадрату отклонения групповых средних от общей средней. По несгруппированному признаку: = ∑ ( - )2 / n;  по сгруппированному признаку: = ∑ ( - )2fi /∑fi  Внутригрупповая (частная) дисперсия отражает случайную вариацию, т.е. часть вариации, обусловленную влиянию нечётных факторов. Она равна среднему квадрату отклонений отдельных значений признака: 2i =  ∑ (x - )2/∑fi  где xi - индивидуальное значение единицы совокупности из i–й группы; - простая средняя арифметическая i-й группы; fi - частота i–й группы. На основе внутригрупповой дисперсии по каждой группе можно разделить общую среднюю из внутригрупповых дисп-ий. = 2i∙fi/∑fi Согласно правилу сложения Общая дисп-ия равна сумме средней из внутригрупповых дисп-ий и межгрупповой дисп-ии. Расхождение между левой и правой частью должно быть не более 1%. Пользуясь правилом сложения дисперсии можно всегда  по 2-м известным дисп-ям определить третью неизвестную, а также судить о силе влияния группировочного признака. Правило сложения дисп-ии позволяет выявить зависимость результата от опред факторов с помощью соотношения межгрупповой дисперсии и общей. = / 2. Это отношение называется эмперическим коэффициентом детерминации. Он показывает какая доля в общей дисп-ии приходится на вариацию признака, положенного в основу группировки. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

17.Показатели  асимметрии и эксцесса. Для обобщающих характеристики особенности формулы распределения применяют кривые распределения. Кривая распределения – графическое изображение в виде непрерывной линии измерения частот в вариантном ряду. Различают эмпирические и теоретические кривые распределения. Эмпирическая – это фактическая кривая распределения, полученная по данным наблюдения, в которой отражаются как общие, так и случайные условия, опред. распределение. Теоретическая – это кривая, выражающая функциональную взаимосвязь между изменением варьирующего признака и изменением частот, и характ-ая опред тип распределения. Кривые распределения бывают симметричными и ассиметричными. В зависимости от того, какая ветвь вытянута различают правостороннюю и левостороннюю симметрию. Кривые распределения могут быть 1, 2, 3 и много вершинными. Для однородных совокупностей характерно одно вершинное распределение. Много вершинное свидетельствует о неоднородности совокупности. Проявление 2-х и более вершин делает необходимым перегруппировку. Симметричным называется распределение, в кот частоты любых 2-х вариантов, равно стоящих в обе стороны от центра распределения равны между собой. = Me = Mo. Если указанные соотношения нарушены, то это свидетельствует о наличии асимметрии. Стандартное отклонение наз коэф. асимметрии.            KA = - Mo/ , где - средняя арифметическая взвешенная; Mo - мода; - среднее квадратическое отклонение для сгруппированных данных. Если величина данного показателя положительна – асимметрия правосторонняя, отрицательна – левосторонняя. Нормированный коэф. асимметрии 3-го порядка: А3 = M3/ 3; M3 = ∑ (x- )3∙f/∑f Момент 3-го порядка. Для определения заострённости графика распределения вычисляют момент 4-го порядка и определяется нормированный момент 4-го порядка. M4 = ∑ (x- )4∙f/∑f; А4 = M4/ 4. Для нормального распределения А4 = 3. Аналогично при оценке крутизны в кач-ве эталонного выбирается норм распред и вычисл показатель эксцесса. Ek = (M4/ 4)-3. При симметричном распределении эксцесс = 0; если Ek > 0, распределение явл островершинным, Ek < 0 – плосковершинным. Оценка существенности показателя асимметрии и эксцесса позволяет сделать вывод о том, можно ли отнести данные эмпирического распред к типу нормального распред. Для выравнивания эмпирических кривых и сопоставлению их с теоретическими часто используются нормальное распред, ф-ия которого опред-ся: f(t) = (1/2π)∙et2/2. t = (x- )/ . В стат сущ спец табл для опред f(t). 

18.Критерии согласия. Поскольку все предположения по характеру того или иного распределения гипотезы, то они должны быть подвергнуты статистической проверке с помощью критериев согласия. Они дают возможность, опираясь на установленный закон распределения, установить когда расхождение между эмпирическими и теоретическими частотами следует признать случайными, а когда неслучайными. Критерий согласия Пирсона: = ∑(fi – fm)2/∑fm. При полном совпадении эмпир и теорет частот = 0, в остальных случаях > 0. Если расчётный больше табличного, то гипотезу о случайном расхождении отклоняют и наоборот, если расчётный < табличного, то делают заключение о том, что расхождение случайно. Критерий Романовского: Основан на использовании . = / если результат < 3 расхождение случайно, результат > 3 – неслучайно. Критерий Колмогорова: = D/√∑f. 

19.Мода  и медиана. Особым видом средних величин являются структурные средние, они применяются для изучения внутреннего строения и структуры рядов распределения. Мода – значение случайной величины, встречающаяся с наиб вероятностью. В дискретном вариационном ряду вариант, имеющий наиб частоту. В интервальном ряду центральный вариант модального интервала, т.е. интервала, который имеет наиб. частоту. Моды часто используются при изучении покупательского спроса. MO = XMo + iMo ∙ (fMo – fMo-1)/( fMo – fMo-1)+( fMo – fMo+1), где  XMo - нижняя граница модального интервала; iMo - величина модального интервала; fMo - частота, соответствующая модальному интервалу; fMo-1 - частота интервала, предшествующего модальному; fMo+1 - частота интервала, следующего за модальным. Модальный интервал в случае интервального распределения опред по наиб частоте. Медиана – значение признака, приходящаяся на середину ранжированного ряда, т. е. делящая ряд распределения на 2 части. Ранжирование – совокупность выстраивать от наим. к наиб. В ранжированных рядах несгруппированных данных нахождение медианы сводится к отысканию порядкого номера медианы. NMo = (n+1)/2. В сгруппированном ряду медиана рассчитывается по формуле: MЕ = X + i∙ ((∑fi /2)-k)/f, где  X - нижняя граница медианного интервала; i - величина медианного интервала; ∑fi /2 – полусумма частот ряда; k – сумма накопленных частот, предшествующих медианному интервалу; f - частота медианного интервала. 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

20. Понятие о корреляции  регрессии. Причинно следственные отношения это связь явлении и процессов, когда изменение одного из них ведёт к изменению другого. Если причинная видимость проявляется не в каждом отдельном случае, а при большом числе наблюдении, то такая зависимость наз-тся «стохастической». Частным случаем стохастической связи является корреляционная связь, при которой изменение среднего результативного признака обусловлено изменением факторным признаком. По направлению выделяют связь обратную и прямую. При прямой связи с увеличение или уменьшение факторного признака происходит увеличение или уменьшение значений результативного. В случае обратной связи изменение под действием факторного признака, в противоположном направлении. По аналитическому выражению выделяют связь: прямолинейную и нелинейную. Корреляция - статистическая зависимость м/у случайными величинами, не имеющих строго функционального характера, при которой изменения одной из величин приводит к изменению другой. Корреляционный анализ ставит перед собой  задачу-определение тесноты связи м/у признаками. Линейный коэф. Корреляции. Данный коэф. имеет большое значение при исследовании соц-эконом явлении. Он показывает в каких случаях из 100 при изменении X изменяется Y. Линейный коэф. Корреляции изменяется от -1  до +1. До +-0,3 – связь практически отсутствует, от +-0,3 до +-0,5 - слабая связь, от +-0,5 до +-0,7 – умеренная, от +-0,7 до +-1 – сильная.

- линейный коэф. корреляции. Тесноту  связи также характеризуют эмпирическое  и теоретическое корреляционное  отношение. 

- эмпирическое  корреляционное отношение.  Теоретическое корреляционное отношение:  Показывает качество теоретической линии. Чем ближе к 1, тем выше качество. Регрессионный анализ заключается в определении аналитического выражения связи, в котором измением одняй величины обусловлено влияние одной или нескольких величин. По форме зависимости различают линейную регрессию yx =a0+a1x. Нелинейную регрессию yx= a0+a1x + a2x2; yx=a0+a11/x, где a1 – коэф. регрессии, который показывает на сколько изменится y при изменении x  на еденицу, a0 - коэф. который характеризует влияние всех остальных факторов, кроме рассматриваемого. Определить тип уравнения можно исследую зависимость графически, однако существуют более общие указания, позволяющие выявить уравнение регрессии. Если результативный и факторный признаки возрастают одинокого, то это свидетельствует  о том, что связь м/у ними линейная. Если факторный признак увеличивается в   арифм. прогрессии, а результативный намного быстрее, то связь параболическая или степенная. По направлению связи различают на прямую и обратную. В статистике различают следующие виды: парная регрессия (связь м/у 2-мя признаками), множественная регрессия (зависимость результативного признака  от 2-х и более признаков) 

  
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

 
 
 

21.Ранговые  коэффициенты. В анализе соц-эконом явлении  часто приходится прибегать к различным оценкам с помощью ранга, a в зависимости м/у отдельными признаками измерять с помощью непараметрических коэф. связи. Ранг - порядковый №, расположенный в порядке увеличения или уменьшения. Если значения признака имеют одинаковую оценку то ранги всех этих значении приравниваются равной средней арифметических от соответствуюших. Среди непараметрических методов оценка связи наиболее часто используется коэф Спирмена и Кендела. p = 1- (6∑d2)/n(n2-1). d2 = (расчёт ранга y – расчёт ранга x)2; P - сумма значений рангов, расположенных выше порядкового номера ранга; Q - сумма значений рангов, расположенных ниже соответствующего порядкового номера ранга. P и Q определяются по расчётному ранга y. Kk = (P-Q)/n(n-1). Простейшим показателем тесноты связи явл. коэф. Фехнера. В основе расчёта лежит принцип составления неабсолютных значений или несовпадений знаков отклонений x-xср и у-уср позволяет судить  о наличии и степени тесноты связи. KФ = ∑С-∑H/∑C+∑H. ∑С - число совпадений знаков; ∑H - число несовпадений знаков.  

22.Индексы и их  классификация.  Под индексом понимают относительный показатель, характеризующий изменения какого-либо явления во времени, пространстве. Основным элементом индексного отношения является индексируемая величина. Под индексируемой величиной понимается значение признака статистической совокупности, изменение которой является объектом изучения. С помощью индекса решаются три главных задачи: 1.Индексы позволяют измерить сложные явления. 2.С помощью индексов можно определить влияние отдельных факторов на изменение динамики сложного явления (влияние изменения цен и изменения кол-ва проданных товаров на размер товарооборота). Используя взаимосвязь индексов можно установить в какой мере выпуск продукции возрос за счёт увеличения эластичности работников и в какой мере за счёт производительности труда. 3.Индексы являются показателями сравнения не только с прошлым периодом, но с территориями, нормативами, планами. Индексы классифицируются по трём признакам: 1.По характеру изучаемых объектов 2.По степени охвата элемента совокупности 3.Методом расчёта общих индексов 1)По характеру индексируемых величин индексы подразделяются на количественные и качественные. К количественным относятся индекс физического объёма. К качественным - индексы цен, валют, себестоимости, производительности труда. 2)Бывают индивидуальные и общие. Индивидуальные индексы служат для характеристики изменения отдельных элементов сложного явления. Общие индексы отражают изменения всех элементов сложного явления. При этом под сложным явлением понимают такую статистическую совокупность, отдельные элементы которой непосредственно не подлежат суммированию. р1 – цена за единицу продукции в отчётном периоде, р0 – цена за ед.прод. в базисном периоде, g – количество товара в натуральном выражении в отчётном периоде, g0 - –//– в базисном периоде, t1 – трудоёмкость в отчётном периоде, t0 – трудоёмкость в базисном периоде, z1 – себестоимость в отчётном периоде, z0 – cсебестоимость в базисном периоде. Индивидуальные индексы относятся к одному элементу и не требуют суммирования данных. Они представляют собой относительные величины динамики. Индивид индекс цен ip=p1/p0*100%. Индивид индекс себ. iz=z1/z0*100%. Индивид индекс физического объёма ig=g1/g0*100%. С аналитической точки зрения индивид. индексы аналогичны темпам роста и характеризуют изменения индексируемой величины во времени, т.е. во сколько индексируемая величина возросла или уменьшилась. Если из значения индекса вычесть 100%, то полученная разность покажет на сколько полученная величина уменьшилась или возросла. 

Информация о работе Шпаргалка по "Статистике"