Аппроксимация экспериментальных данных в координатах полинома n-ой степени на примере зависимости растворимости соли от температуры

Автор работы: Пользователь скрыл имя, 24 Ноября 2011 в 00:58, курсовая работа

Описание

Метод математического моделирования, сводящий исследование явлений внешнего мира к математическим задачам, занимает ведущее место среди других методов исследования, особенно в связи с появлением ЭВМ. Он позволяет проектировать новые технические средства, работающие в оптимальных режимах, для решения сложных задач науки и техники; проектировать новые явления. Математическая модель проявили себя как важное средство управления.

Содержание

1.Введение………………………………………………………………………….
1.1. Корреляционно-регрессионный анализ……………………………………..
1.2. Корреляционно-регрессионный анализ и его возможности……………….
1.3. Предпосылки корреляционного и регрессионного анализа………………..
1.4. Метод наименьших квадратов (расчёт коэффициентов)…………………
1.5. Интерпретация параметров регрессии…………………………………….
2. Программа для расчёта полиномиальной корреляции……………………….
3.Расчёт , выбор полиномиальной и графической зависимости………………..
4.Список литературы……………………………………………………………....

Работа состоит из  1 файл

мат.мод.docx

— 118.31 Кб (Скачать документ)
  1. Парная корреляция – связь между двумя признаками (результативным и факторным или двумя факторными).
  2. Частная корреляция – зависимость между результативным и одним факторным признаками при фиксированном значении других факторных признаков.
  3. Множественная корреляция – зависимость результативного и двух или более факторных признаков, включенных в исследование.

     Корреляционный  анализ имеет своей задачей количественное определение тесноты связи между  двумя признаками (при парной связи) и между результативным признаком  и множеством факторных признаков (при многофакторной связи).

     Теснота связи количественно выражается величиной коэффициентов корреляции. Коэффициенты корреляции, представляя  количественную характеристику тесноты  связи между признаками, дают возможность  определить «полезность» факторных  признаков при построении уравнений  множественной регрессии. Величина коэффициентов корреляции служит также  оценкой соответствия уравнению  регрессии выявленным причинно-следственным связям.

Предпосылки корреляционного  и регрессионного анализа

 

     Перед рассмотрением предпосылок корреляционного  и регрессионного анализа, следует  сказать, что общим условием, позволяющим  получить более стабильные результаты при построении корреляционных и  регрессионных моделей биржевых ставок, является требование однородности исходной информации. Эта информация должна быть обработана на предмет  аномальных, т.е. резко выделяющихся из массива данных, наблюдений. Эта  процедура выполняется за счет количественной оценки однородности совокупности по какому-либо одномерному или многомерному критерию (в зависимости от исходной информации) и имеет цель тех объектов наблюдения, у которых наилучшее (или наихудшее) условия функционирования по не зависящим или слабо зависящим причинам.

     После обработки данных на предмет «аномальности» следует провести проверку, насколько оставшаяся информация удовлетворяет предпосылкам для использования статического аппарата при построении моделей, так как даже незначительные отступления от этих предпосылок часто сводят к нулю получаемый эффект. Следует иметь  ввиду, что вероятностное или статистическое решение любой экономической задачи должно основываться на подробном осмыслении исходных математических понятий и предпосылок, корректности и объективности сбора исходной информации, в постоянном сочетании с теснотой связи экономического и математико-статистического анализа.

     Для применения корреляционного анализа  необходимо, чтобы все рассматриваемые  переменные были случайными и имели  нормальный закон распределения. Причем выполнение этих условий необходимо только при вероятностной оценке выявленной тесноты связи.

     Рассмотрим  простейшие случай выявления тесноты  связи – двумерную модель корреляционного  анализа.

     Для характеристики тесноты связи между  двумя переменными обычно пользуются парным коэффициентом корреляции , если рассматривать генеральную совокупность, или его оценкой – выборочным парным коэффициентом , если изучается выборочная совокупность. Парный коэффициент корреляции в случае линейной формы связи вычисляют по формуле

      ,

     а его выборочное значение – по формуле 

     При малом числе наблюдений выборочный коэффициент корреляции удобно вычислять  по следующей формуле:

     

     Величина  коэффициента корреляции изменяется в  интервале  .

     При между двумя переменными существует функциональная связь, при - прямая функциональная связь. Если , то значение Х и У в выборке некоррелированы; в случае, если система случайных величин имеет двумерное нормальное распределение, то величины Х и У будут и независимыми.

     Если  коэффициент корреляции находится  в интервале  , то между величинами Х и У существует обратная корреляционная связь. Это находит подтверждение и при визуальном анализе исходной информации. В этом случае отклонение величины У от среднего значения взяты с обратным знаком.

     Если  каждая пара значений величин Х и У чаще всего одновременно оказывается выше (ниже) соответствующих средних значений, то между величинами существует прямая корреляционная связь и коэффициент корреляции находится в интервале .

     Если  же отклонение величины Х от среднего значения одинаково часто вызывают отклонения величины У вниз от среднего значения и при этом отклонения оказываются все время различными, то можно предполагать, что значение коэффициента корреляции стремится к нулю.

     Следует отметить, что значение коэффициента корреляции не зависит от единиц измерения  и выбора начала отсчета. Это означает, что если переменные Х и У уменьшить (увеличить) в К раз либо на одно и то же число С, то коэффициент корреляции не изменится.

         Регрессио́нный анализ (линейный) — статистический метод исследования зависимости между зависимой переменной Y и одной или несколькими независимыми переменными X1,X2,...,Xp. Независимые переменные иначе называют регрессорами или предикторами, а зависимые переменные — критериальными. Терминология зависимых и независимых переменных отражает лишь математическую зависимость переменных (см. Ложная корреляция), а не причинно-следственные отношения.

Цели  регрессионного анализа

  1. Определение степени детерминированности вариации критериальной (зависимой) переменной предикторами (независимыми переменными)
  2. Предсказание значения зависимой переменной с помощью независимой(-ых)
  3. Определение вклада отдельных независимых переменных в вариацию зависимой
 

Регрессионный анализ нельзя использовать для определения  наличия связи между переменными, поскольку наличие такой связи  и есть предпосылка для применения анализа.

Математическое  определение регрессии

Строго  регрессионную зависимость можно  определить следующим образом. Пусть  Y, X1,X2,...,Xp — случайные величины с заданным совместным распределением вероятностей. Если для каждого набора значений X1 = x1,X2 = x2,...,Xp = xp определено условное математическое ожидание

    y(x1,x2,...,xp) = E(Y | X1 = x1,X2 = x2,...,Xp = xp) (уравнение линейной регрессии в общем виде),

то функция  y(x1,x2,...,xp) называется регрессией величины Y по величинам X1,X2,...,Xp, а ее график — линией регрессии Y по X1,X2,...,Xp, или уравнением регрессии.

Зависимость Y от X1,X2,...,Xp проявляется в изменении средних значений Y при изменении X1,X2,...,Xp. Хотя при каждом фиксированном наборе значений X1 = x1,X2 = x2,...,Xp = xp величина Y остается случайной величиной с определенным рассеянием.

Для выяснения  вопроса, насколько точно регрессионный  анализ оценивает изменение Y при  изменении X1,X2,...,Xp, используется средняя величина дисперсии Y при разных наборах значений X1,X2,...,Xp (фактически речь идет о мере рассеяния зависимой переменной вокруг линии регрессии). 

Метод наименьших квадратов (расчёт коэффициентов) 

На практике линия регрессии чаще всего ищется в виде линейной функции Y = b0 + b1X1 + b2X2 + ... + bNXN (линейная регрессия), наилучшим образом приближающей искомую кривую. Делается это с помощью метода наименьших квадратов, когда минимизируется сумма квадратов отклонений реально наблюдаемых Y от их оценок (имеются в виду оценки с помощью прямой линии, претендующей на то, чтобы представлять искомую регрессионную зависимость):

(M — объём выборки). Этот подход основан на том известном факте, что фигурирующая в приведённом выражении сумма принимает минимальное значение именно для того случая, когда Y = y(x1,x2,...xN).

Для решения  задачи регрессионного анализа методом  наименьших квадратов вводится понятие  функции невязки:

Условие минимума функции невязки:

Полученная  система является системой N + 1 линейных уравнений с N + 1 неизвестными b0...bN

Если  представить свободные члены  левой части уравнений матрицей

а коэффициенты при неизвестных в правой части  матрицей

то получаем матричное уравнение: , которое легко решается методом Гаусса. Полученная матрица будет матрицей, содержащей коэффициенты уравнения линии регрессии:

     Для получение наилучших оценок необходимо выполнение предпосылок МНК (условий Гаусса−Маркова). В англоязычной литературе такие оценки называются BLUE (Best Linear Unbiased Estimators) − наилучшие линейные несмещенные оценки 

Интерпретация параметров регрессии 

         Параметры bi являются частными коэффициентами корреляции; (bi)2 интерпретируется как доля дисперсии Y, объяснённая Xi, при закреплении влияния остальных предикторов, т.е. измеряет индивидуальный вклад Xi в объяснение Y. В случае коррелирующих предикторов возникает проблема неопределенности в оценках, которые становятся зависимыми от порядка включения предикторов в модель. В таких случаях необходимо применение методов анализа корреляционного и пошагового регрессионного анализа.

         Говоря о нелинейных моделях регрессионного анализа, важно обращать внимание на то, идет ли речь о нелинейности по независимым переменным (с формальной точки зрения легко сводящейся к линейной регрессии), или о нелинейности по оцениваемым параметрам (вызывающей серьезные вычислительные трудности). При нелинейности первого вида с содержательной точки зрения важно выделять появление в модели членов вида X1X2, X1X2X3, свидетельствующее о наличии взаимодействий между признаками X1, X2 и т.д. 
 
 
 
 
 
 
 
 
 
 

2. Программа для расчёта полиномиальной корреляции 

program lab_rab;

uses crt;

var

    n,i:integer;

    ty:array[1..3,1..100] of real;

    st1,st2,st3,st4 :real;

    sy,syt1,syt2 :real;

    d,d1,d2,d3 :real;

    r,a1,a0,a2 :real; 

function opr(a11,a12,a13,a21,a22,a23,a31,a32,a33:real):real;

begin

    opr:=a11*a22*a31+a21*a32*a13-a31*a22*a13-a21*a12*a33-a11*a32*a23;

end;

begin

clrscr;

writeln;

readln(n);

   if(n>0)and(n<101)then

begin

writeln ;

   for i:=1 to n do readln(ty[1,i],ty[2,i]);

    st1:=0;st2:=0;st3:=0;st4:=0;

    sy:=0;syt1:=0;syt2:=0;

   for i:=1 to n do

begin

    st1:=st1+ty[1,i]/n;

Информация о работе Аппроксимация экспериментальных данных в координатах полинома n-ой степени на примере зависимости растворимости соли от температуры