Шпаргалка по "Статистике"

Автор работы: Пользователь скрыл имя, 17 Февраля 2013 в 13:51, шпаргалка

Описание

1. предмет метод и задачи статистики.
2. основные категории статистической науки.закон больших чисел и его значение в статистике.
3. статистическое наблюдение:формы виды и способы проведения статистического наблюдения.
...
17. общее понятие индексов в статистике их свойства.
18. виды индексов. индивидуальные индексы.

Работа состоит из  1 файл

statistika.docx

— 99.60 Кб (Скачать документ)

Статистика призвана изучать  коммерческую деятельность с количественной стороны. Это осуществляется с помощью  соответствующих приемов и методов  статистики и математики.

Статистические показатели коммерческой деятельности могут состоять между собой в следующих основных видах связи: балансовой, компонентной, факторной и др.

Балансовая связь -- характеризует зависимость между источниками формирования ресурсов (средств) и их использованием.

Компонентные связи показателей  коммерческой деятельности характеризуются  тем, что изменение статистического  показателя определяется изменением компонентов, входящих в этот показатель.

Для того, чтобы установить, есть ли зависимость между величинами, используются многообразные статистические методы, позволяющие определить, во-первых -- какие связи; во-вторых -- тесноту связи (в одном случае она сильная, устойчивая, в другом -- слабая); в-третьих -- форму связи (т.е. формулу, связывающую величину и).

В процессе изучения связи  надо учитывать, что мы используем математический аппарат, но всегда надо иметь теоретические  обоснования той связи, которую  пытаются показать.

 

 

13. метод корреляционно-регрессионного анализа

Важное место в статистическом изучении взаимосвязей занимают следующие  методы:

 

1) метод приведения параллельных  данных;

 

2)       графический  метод;

 

3)       корреляционно  регрессионный метод.

 

Сущность  метода  приведения  параллельных данных заключается в  следующем: исходные данные по признаку X располагаются в порядке возрастания  или убывания, а по признаку Y записываются соответствующие им показатели, после  сопоставления значений X и Y делается вывод о наличии и направлении  зависимости.

 

Графический метод предполагает построение поля корреляции. Для этого  значение факторного признака X располагается  по оси абсцисс, а значение результативного  признака Y — по оси ординат. По совместному  расположению точек на графике делают вывод о направлении и наличии  зависимости. Если точки на графике  расположены беспорядочно, то зависимость между изучаемыми признаками отсутствует. Если точки на графике концентрируются вокруг воображаемой кривой (прямой), то между признака  ми существует некоторая зависимость. Графический метод используют также для проверки гипотез о форме связи с помощью эмпирической линии регрессии. Эмпирическая линия регрессии — ломаная линия, изображающая изменение групповых средних результативного признака в зависимости от изменения группи  ровочного признака фактора.

 

Сущность  корреляционно  регрессионного анализа заключается  в:

 

1)       измерении тесноты связи между варьирующими признаками;

 

2)       определении неизвестных причинных связей и оценке факторов, оказывающих наибольшее влияние на результативный признак;

 

3)       установлении формы зависимости;

 

4)       определении функции регрессии;

 

5)       использовании уравнения для оценки неизвестных значений зависимой переменной.

 

Выделяются следующие  этапы корреляционно регрессионного  анализа:

 

1)       предварительный  анализ изучаемой совокупности;

 

2)       сбор  информации и ее первичная обработка с помощью метода группировки, графического метода;

 

3)       оценка  параметров распределения;

 

4)       построение  модели зависимости — уравнения  регрессии;

 

5)       оценка  и анализ надежности модели.

 

При оценке модели рассчитывают показатели силы и тесноты связи. Для этого используют следующие  показатели вариации результативного  признака:

 

1)     факторная  дисперсия, характеризующаяся вариацию  результативного признака, объясняемую  только признаком фактором;

 

2)     остаточная  дисперсия, объясняющаяся влиянием  прочих факторов на результативный  признак;

 

3)     общая дисперсия,  складывающаяся за счет влияния  всех факторов;

 

4)     коэффициент  детерминации — отношение факторной  дисперсии к общей, показывающий, какая часть общей вариации  результативного признака объясняется  признаком фактором.

 

14. множественный корреляционно-регресионный анализ

 

15. непараметрические и ранговые методы оценки взаимосвязей

Методы  корреляционного и дисперсионного анализа не универсальны: их можно  применять, если все изучаемые признаки являются количественными. При использовании  этих методов нельзя обойтись без  вычисления основных параметров распределения (средних величин, дисперсий), поэтому  они получили название параметрических методов.

Между тем в статистической практике приходится сталкиваться с задачами измерения  связи между качественными признаками, к которым параметрические методы анализа в их обычном виде неприменимы. Статистической наукой разработаны  методы, с помощью которых можно  измерить связь между явлениями, не используя при этом количественные значения признака, а значит, и параметры  распределения. Такие методы получили название непараметрических.

Если  изучается взаимосвязь двух качественных признаков, то используют комбинационное распределение единиц совокупности в форме так называемых таблиц взаимной сопряженности.

Однако  важно получить обобщающий показатель, характеризующий тесноту связи  между признаками и позволяющий  сравнить проявление связи в разных совокупностях. Для этой цели исчисляют, например,коэффициенты взаимной сопряженности Пирсона (С) и Чупрова (К):

где f– показатель средней квадратической сопряженности, определяемый путем вычитания единицы из суммы отношений квадратов частот каждой клетки корреляционной таблицы к произведению частот соответствующего столбца и строки:

Ки К– число групп по каждому из признаков. Величина коэффициента взаимной сопряженности, отражающая тесноту связи между качественными признаками, колеблется в обычных для этих показателей пределах от 0 до 1.

В социально-экономических  исследованиях нередко встречаются  ситуации, когда признак не выражается количественно, однако единицы совокупности можно упорядочить. Такое упорядочение единиц совокупности по значению признака называется ранжированием. Примерами могут быть ранжирование студентов (учеников) по способностям, любой совокупности людей по уровню образования, профессии, по способности к творчеству и т.д.

При ранжировании каждой единице совокупности присваивается ранг, т.е. порядковый номер. При совпадении значения признака у различных единиц им присваивается объединенный средний порядковый номер. Например, если у 5-й и 6-й единиц совокупности значения признаков одинаковы, обе получат ранг, равный (5 + 6) / 2 = 5,5.

Измерение связи  между ранжированными признаками производится с помощью ранговых коэффициентов корреляции Спирмена (r) и Кендэлла (t). Эти методы применимы не только для качественных, но и для количественных показателей, особенно при малом объеме совокупности, так как непараметрические методы ранговой корреляции не связаны ни с какими ограничениями относительно характера распределения признака.

Ранговая корреляция

 

– статистическая связь между порядковыми  переменными (измерение статистической связи между двумя или несколькими  ранжировками одного и того же конечного множества объектов О1,О2,…, Оп.

 

16. проверка адекватности регрессионной модели и значимость показателей тесноты связи.

Для характеристики среднего разброса относительно линии  регрессии вполне подходит остаточная сумма квадратов. Неудобство состоит в том, что она зависит от числа коэффициентов в уравнении: введите столько коэффициентов, сколько вы провели независимых опытов, и получите остаточную сумму, равную нулю. Поэтому предпочитают относить ее на один «свободный» опыт. Число таких опытов называется числом степеней свободы f.

Числом степеней свободы в статистике называется разность между числом опытов и числом коэффициентов (констант), которые уже  вычислены по результатам этих опытов независимо друг от друга.

Остаточная  сумма квадратов, деленная на число  степеней свободы, называется остаточной дисперсией, или дисперсией адекватности 

.

В статистике разработан критерий, который очень  удобен для проверки гипотезы об адекватности модели. Он называется F-критерием Фишера и определяется следующей формулой:

.

 – это дисперсия воспроизводимости со своим числом степеней свободы.

Удобство  использования критерия Фишера состоит  в том, что проверку гипотезы можно  свести к сравнению с табличным  значением.

Если рассчитанное значение F-критерия не превышает табличного, то, с соответствующей доверительной вероятностью, модель можно считать адекватной. При превышении табличного значения эту приятную гипотезу приходится отвергать.

Этот способ расчета дисперсии адекватности, подходит, если опыты в матрице  планирования не дублируются, а информация о дисперсии воспроизводимости извлекается из параллельных опытов в нулевой точке или из предварительных экспериментов.

Важны два  случая: 1) опыты во всех точках плана  дублируются одинаковое число раз (равномерное дублирование), 2) число  параллельных опытов не одинаково (неравномерное  дублирование).

В первом случае дисперсию адекватности нужно умножать на n, где n – число повторных опытов 

.

Такое видоизменение  формулы вполне естественно. Чем  больше число параллельных опытов, тем с большей достоверностью оцениваются средние значения. Поэтому требования к различиям между экспериментальными и расчетными значениями становятся более жесткими, что отражается в увеличении F-критерия.

Во втором случае, когда приходится иметь дело с неравномерным дублированием, положение усложняется. Даже когда экспериментатор задумал провести равное число параллельных опытов, часто не удается по тем или иным причинам все их реализовать. Кроме того, иногда приходится отбрасывать отдельные опыты как выпадающие наблюдения.

При неравномерном  дублировании нарушается ортогональность  матрицы планирования и, как следствие, изменяются расчетные формулы для коэффициентов регрессии и их ошибок, а также для дисперсии адекватности.

Для дисперсии  адекватности можно записать общую  формулу

,

где N – число различных опытов (число строк матрицы);

n– число параллельных опытов в i-й строке матрицы;

 – среднее арифметическое из nпараллельных опытов;

 – предсказанное по уравнению  значение в этом опыте.

Смысл этой формулы очень прост: различию между экспериментальным и расчетным значением придается тем больший вес, чем больше число повторных опытов.

Для b-коэффициентов нельзя записать универсальную расчетную формулу. Все зависит от того, какой был план и как дублировались опыты. Всякий раз приходится делать специальные расчеты, пользуясь методом наименьших квадратов.

Проверка значимости коэффициентов

 

 

Проверка  значимости каждого коэффициента проводится независимо.

Ее  можно осуществлять двумя равноценными способами: проверкой по t-критерию Стьюдента или построением доверительного интервала. При использовании полного факторного эксперимента или регулярных дробных реплик доверительные интервалы для всех коэффициентов (в том числе и эффектов взаимодействия) равны друг другу.

Прежде  всего, надо найти дисперсию коэффициента регрессии  . Она определяется в нашем по формуле

Из формулы  видно, что дисперсии всех коэффициентов  равны друг другу, так как они  зависят только от ошибки опыта и  числа опытов.

Теперь легко  построить доверительный интервал

Здесь t – табличное значение критерия Стьюдента при числе степеней свободы, с которыми определялась  , и выбранном уровне значимости (обычно 0,05);   – квадратичная ошибка коэффициента регрессии.

Коэффициент значим, если его абсолютная величина больше доверительного интервала.

 

17. общее понятие индексов в статистике их свойства

 

Индексы относятся к числу обобщающих показателей. Следует различать  понятие индекса в широком  и узком смысле.

 

В широком смысле индекс — это  относительная величина, характеризующая  изменения явлений во времени (динамику). Но подобные относительные величины могут быть рассчитаны лишь для простых  явлений или однородных совокупностей, единицы которых могут быть суммированы. Такие совокупности называются соизмеримыми.

 

Индекс в узком смысле слова  — это обобщающий показатель сравнения  двух совокупностей, состоящий из элементов, непосредственно не поддающихся  суммированию.

 

С помощью индексов решаются две  основные задачи:

 

1) синтетическая задача — обобщение,  синтез динамики отдельных элементов  в сложные явления в одном  обобщающем показателе (сводном  индексе);

Информация о работе Шпаргалка по "Статистике"