Onde é aplicado o método dos mínimos quadrados? Análise de Regressão Pareada Linear Distribuição Uniforme de Mínimos Quadrados

Que encontra a mais ampla aplicação em vários campos da ciência e da prática. Pode ser física, química, biologia, economia, sociologia, psicologia e assim por diante. Pela vontade do destino, muitas vezes tenho que lidar com a economia e, portanto, hoje vou providenciar para você uma passagem para um país incrível chamado Econometria=) … Como você não quer isso?! É muito bom lá - você só precisa decidir! …Mas o que você provavelmente quer mesmo é aprender a resolver problemas mínimos quadrados. E leitores especialmente diligentes aprenderão a resolvê-los não apenas com precisão, mas também MUITO RÁPIDO ;-) Mas primeiro declaração geral do problema+ exemplo relacionado:

Que sejam estudados indicadores em alguma área disciplinar que tenham expressão quantitativa. Ao mesmo tempo, há todos os motivos para acreditar que o indicador depende do indicador. Essa suposição pode ser tanto uma hipótese científica quanto baseada no senso comum elementar. Vamos deixar a ciência de lado, no entanto, e explorar áreas mais apetitosas - ou seja, mercearias. Denotar por:

– espaço comercial de uma mercearia, m2,
- faturamento anual de uma mercearia, milhões de rublos.

É bastante claro que quanto maior a área da loja, maior o seu faturamento na maioria dos casos.

Suponha que, após realizar observações / experimentos / cálculos / dançar com um pandeiro, tenhamos à nossa disposição dados numéricos:

Com as mercearias, acho que está tudo claro: - esta é a área da 1ª loja, - o seu volume de negócios anual, - a área da 2ª loja, - o seu volume de negócios anual, etc. A propósito, não é necessário ter acesso a materiais classificados - uma avaliação bastante precisa do volume de negócios pode ser obtida usando estatísticas matemáticas. Porém, não se distraia, o curso de espionagem comercial já é pago =)

Os dados tabulares também podem ser escritos na forma de pontos e representados da maneira usual para nós. sistema cartesiano .

Vamos responder a uma pergunta importante: quantos pontos são necessários para um estudo qualitativo?

Quanto maior melhor. O conjunto mínimo admissível consiste em 5-6 pontos. Além disso, com uma pequena quantidade de dados, resultados “anormais” não devem ser incluídos na amostra. Assim, por exemplo, uma pequena loja de elite pode ajudar ordens de grandeza mais do que “seus colegas”, distorcendo assim o padrão geral que precisa ser encontrado!

Se for bem simples, precisamos escolher uma função, agendar que passa o mais próximo possível dos pontos . Tal função é chamada aproximando (aproximação - aproximação) ou função teórica . De um modo geral, aqui aparece imediatamente um "pretendente" óbvio - um polinômio de alto grau, cujo gráfico passa por TODOS os pontos. Mas esta opção é complicada e muitas vezes simplesmente incorreta. (porque o gráfico irá "enrolar" o tempo todo e refletir mal a tendência principal).

Assim, a função desejada deve ser suficientemente simples e ao mesmo tempo refletir adequadamente a dependência. Como você pode imaginar, um dos métodos para encontrar tais funções é chamado mínimos quadrados. Primeiramente, vamos analisar sua essência de forma geral. Deixe alguma função aproximar os dados experimentais:


Como avaliar a precisão dessa aproximação? Vamos também calcular as diferenças (desvios) entre os valores experimentais e funcionais (nós estudamos o desenho). O primeiro pensamento que vem à mente é estimar o tamanho da soma, mas o problema é que as diferenças podem ser negativas. (Por exemplo, ) e os desvios como resultado de tal soma se anulam. Portanto, como estimativa da precisão da aproximação, sugere-se tomar a soma módulos desvios:

ou em forma dobrada: (de repente, quem não sabe: é o ícone da soma, e é uma variável auxiliar- “contador”, que assume valores de 1 a ).

Aproximando os pontos experimentais com diferentes funções, obteremos diferentes valores de , e é óbvio que onde essa soma for menor, aquela função é mais precisa.

Tal método existe e é chamado método de módulo mínimo. No entanto, na prática, tornou-se muito mais difundido. método dos mínimos quadrados, em que possíveis valores negativos são eliminados não pelo módulo, mas pela quadratura dos desvios:

, após o que os esforços são direcionados para a seleção de tal função que a soma dos desvios quadrados era o menor possível. Na verdade, daí o nome do método.

E agora voltamos a outro ponto importante: conforme observado acima, a função selecionada deve ser bastante simples - mas também existem muitas dessas funções: linear , hiperbólico, exponencial, logarítmico, quadrático etc. E, claro, aqui gostaria imediatamente de "reduzir o campo de atividade". Que classe de funções escolher para pesquisa? Técnica primitiva, mas eficaz:

- A maneira mais fácil de desenhar pontos no desenho e analise sua localização. Se eles tendem a estar em linha reta, você deve procurar equação da linha reta com valores ótimos e . Em outras palavras, a tarefa é encontrar TAIS coeficientes - de modo que a soma dos desvios quadrados seja a menor.

Se os pontos estiverem localizados, por exemplo, ao longo hipérbole, então fica claro que a função linear fornecerá uma aproximação ruim. Neste caso, estamos procurando os coeficientes mais “favoráveis” para a equação da hipérbole - aqueles que dão a soma mínima de quadrados .

Agora observe que em ambos os casos estamos falando sobre funções de duas variáveis, cujos argumentos são opções de dependência pesquisadas:

E, em essência, precisamos resolver um problema padrão - encontrar mínimo de uma função de duas variáveis.

Lembre-se do nosso exemplo: suponha que os pontos de "loja" tendam a estar localizados em linha reta e haja todos os motivos para acreditar na presença dependência linear volume de negócios da área comercial. Vamos encontrar TAIS coeficientes "a" e "ser" para que a soma dos desvios quadrados era o menor. Tudo como de costume - primeiro derivadas parciais de 1ª ordem. De acordo com regra de linearidade você pode diferenciar logo abaixo do ícone de soma:

Se você quiser usar essas informações para um ensaio ou trabalho de conclusão de curso, ficarei muito grato pelo link na lista de fontes, você não encontrará cálculos tão detalhados em nenhum lugar:

Vamos fazer um sistema padrão:

Reduzimos cada equação por um “dois” e, além disso, “separamos” as somas:

Observação : analise independentemente por que "a" e "ser" podem ser retirados do ícone de soma. A propósito, formalmente isso pode ser feito com a soma

Vamos reescrever o sistema em uma forma "aplicada":

após o que o algoritmo para resolver nosso problema começa a ser desenhado:

Conhecemos as coordenadas dos pontos? Nós sabemos. Somas podemos encontrar? Facilmente. Nós compomos o mais simples sistema de duas equações lineares com duas incógnitas("a" e "beh"). Resolvemos o sistema, por exemplo, método de Cramer, resultando em um ponto estacionário . verificando condição suficiente para um extremo, podemos verificar que neste ponto a função atinge precisamente mínimo. A verificação está associada a cálculos adicionais e, portanto, vamos deixá-la nos bastidores. (se necessário, o quadro ausente pode ser visualizado). Tiramos a conclusão final:

Função a melhor maneira (pelo menos em comparação com qualquer outra função linear) aproxima os pontos experimentais . Grosso modo, seu gráfico passa o mais próximo possível desses pontos. Na tradição econometria a função de aproximação resultante também é chamada equação de regressão linear pareada .

O problema em consideração é de grande importância prática. Na situação do nosso exemplo, a equação permite-lhe prever que tipo de volume de negócios ("yig") estará na loja com um ou outro valor da área de venda (um ou outro significado de "x"). Sim, a previsão resultante será apenas uma previsão, mas em muitos casos será bastante precisa.

Vou analisar apenas um problema com números "reais", pois não há dificuldades nele - todos os cálculos estão no nível do currículo escolar da 7ª à 8ª série. Em 95 por cento dos casos, você será solicitado a encontrar apenas uma função linear, mas no final do artigo mostrarei que não é mais difícil encontrar as equações para a hipérbole ideal, expoente e algumas outras funções.

Na verdade, resta distribuir os presentes prometidos - para que você aprenda a resolver esses exemplos não apenas com precisão, mas também com rapidez. Estudamos cuidadosamente o padrão:

Tarefa

Como resultado do estudo da relação entre dois indicadores, foram obtidos os seguintes pares de números:

Usando o método dos mínimos quadrados, encontre a função linear que melhor se aproxima do empírico (com experiência) dados. Faça um desenho no qual, em um sistema cartesiano de coordenadas retangulares, plote pontos experimentais e um gráfico da função de aproximação . Encontre a soma dos desvios quadrados entre os valores empíricos e teóricos. Descubra se a função é melhor (em termos do método dos mínimos quadrados) pontos experimentais aproximados.

Observe que os valores "x" são valores naturais, e isso tem um significado significativo característico, sobre o qual falarei um pouco mais tarde; mas eles, é claro, podem ser fracionários. Além disso, dependendo do conteúdo de uma determinada tarefa, os valores "X" e "G" podem ser totalmente ou parcialmente negativos. Bem, recebemos uma tarefa “sem rosto” e a iniciamos solução:

Encontramos os coeficientes da função ótima como uma solução para o sistema:

Para fins de notação mais compacta, a variável “contador” pode ser omitida, pois já está claro que a soma é feita de 1 a .

É mais conveniente calcular os valores necessários em uma tabela:


Os cálculos podem ser feitos em uma microcalculadora, mas é muito melhor usar o Excel - mais rápido e sem erros; assista a um pequeno vídeo:

Assim, obtemos o seguinte sistema:

Aqui você pode multiplicar a segunda equação por 3 e subtraia a 2ª da 1ª equação termo a termo. Mas isso é sorte - na prática, os sistemas geralmente não são superdotados e, nesses casos, economizam método de Cramer:
, então o sistema tem uma única solução.

Vamos fazer uma verificação. Eu entendo que não quero, mas por que pular erros onde você não pode perdê-los? Substitua a solução encontrada no lado esquerdo de cada equação do sistema:

As partes certas das equações correspondentes são obtidas, o que significa que o sistema é resolvido corretamente.

Assim, a função de aproximação desejada: – de todas as funções lineares os dados experimentais são melhor aproximados por ele.

Diferente direto dependência do faturamento da loja em relação a sua área, a dependência encontrada é reverter (princípio "quanto mais - menos"), e esse fato é imediatamente revelado pelo negativo coeficiente angular. Função nos informa que com o aumento de um determinado indicador em 1 unidade, o valor do indicador dependente diminui média por 0,65 unidades. Como se costuma dizer, quanto maior o preço do trigo sarraceno, menos vendido.

Para plotar a função de aproximação, encontramos dois de seus valores:

e execute o desenho:


A linha construída é chamada linha de tendência (ou seja, uma linha de tendência linear, ou seja, no caso geral, uma tendência não é necessariamente uma linha reta). Todo mundo conhece a expressão "estar na moda", e acho que esse termo dispensa comentários adicionais.

Calcular a soma dos desvios quadrados entre valores empíricos e teóricos. Geometricamente, esta é a soma dos quadrados dos comprimentos dos segmentos "carmesim" (dois dos quais são tão pequenos que você nem consegue vê-los).

Vamos resumir os cálculos em uma tabela:


Eles podem novamente ser executados manualmente, caso eu dê um exemplo para o 1º ponto:

mas é muito mais eficiente fazer da forma já conhecida:

Vamos repetir: qual o significado do resultado? De todas as funções lineares função o expoente é o menor, ou seja, é a melhor aproximação de sua família. E aqui, aliás, a questão final do problema não é acidental: e se a função exponencial proposta será melhor aproximar os pontos experimentais?

Vamos encontrar a soma correspondente dos desvios quadrados - para distingui-los, vou designá-los com a letra "épsilon". A técnica é exatamente a mesma:


E novamente para cada cálculo de incêndio para o 1º ponto:

No Excel, usamos a função padrão EXP (A sintaxe pode ser encontrada na Ajuda do Excel).

Conclusão: , então a função exponencial aproxima os pontos experimentais pior que a reta .

Mas deve-se notar aqui que "pior" é ainda não significa, o que está errado. Agora construí um gráfico dessa função exponencial - e também passa perto dos pontos - tanto que sem um estudo analítico fica difícil dizer qual função é mais precisa.

Isso completa a solução e volto à questão dos valores naturais do argumento. Em vários estudos, via de regra, econômicos ou sociológicos, meses, anos ou outros intervalos de tempo iguais são numerados com “X” natural. Considere, por exemplo, tal problema.

O método dos mínimos quadrados (LSM) permite estimar várias quantidades usando os resultados de muitas medições contendo erros aleatórios.

Característica MNC

A ideia principal deste método é que a soma dos erros quadrados seja considerada como um critério para a precisão da solução do problema, que se busca minimizar. Ao usar esse método, abordagens numéricas e analíticas podem ser aplicadas.

Em particular, como uma implementação numérica, o método dos mínimos quadrados implica fazer tantas medições quanto possível de uma variável aleatória desconhecida. Além disso, quanto mais cálculos, mais precisa será a solução. A partir deste conjunto de cálculos (dados iniciais), obtém-se outro conjunto de soluções propostas, das quais se seleciona a melhor. Se o conjunto de soluções for parametrizado, então o método dos mínimos quadrados será reduzido para encontrar o valor ótimo dos parâmetros.

Como abordagem analítica para a implementação do LSM sobre o conjunto de dados iniciais (medidas) e o conjunto de soluções proposto, alguns (funcionais) são definidos, o que pode ser expresso por uma fórmula obtida como uma determinada hipótese que precisa ser confirmada. Nesse caso, o método dos mínimos quadrados se reduz a encontrar o mínimo desse funcional no conjunto dos erros quadrados dos dados iniciais.

Observe que não os erros em si, mas os quadrados dos erros. Por que? O fato é que muitas vezes os desvios das medições do valor exato são positivos e negativos. Ao determinar a média, a soma simples pode levar a uma conclusão incorreta sobre a qualidade da estimativa, pois o cancelamento mútuo de valores positivos e negativos reduzirá o poder de amostragem do conjunto de medições. E, conseqüentemente, a precisão da avaliação.

Para evitar que isso aconteça, os desvios ao quadrado são somados. Ainda mais que isso, para equalizar a dimensão do valor medido e a estimativa final, utiliza-se a soma dos quadrados dos erros para extrair

Algumas aplicações das multinacionais

MNC é amplamente utilizado em vários campos. Por exemplo, na teoria da probabilidade e na estatística matemática, o método é usado para determinar uma característica de uma variável aleatória como o desvio padrão, que determina a largura do intervalo de valores da variável aleatória.

3. Aproximação de funções usando o método

mínimos quadrados

O método dos mínimos quadrados é usado ao processar os resultados do experimento para aproximações (aproximações) dados experimentais fórmula analítica. A forma específica da fórmula é escolhida, via de regra, a partir de considerações físicas. Essas fórmulas podem ser:

e outros.

A essência do método dos mínimos quadrados é a seguinte. Deixe os resultados da medição serem apresentados na tabela:

Mesa 4

x n

y n

(3.1)

onde f é uma função conhecida, a 0 , a 1 , ..., a m - parâmetros constantes desconhecidos, cujos valores devem ser encontrados. No método dos mínimos quadrados, a aproximação da função (3.1) à dependência experimental é considerada a melhor se a condição

(3.2)

aquilo é quantidades a desvios quadrados da função analítica desejada da dependência experimental devem ser mínimos .

Observe que a função Q chamado inviscid.


Desde a discrepância

então tem um mínimo. Uma condição necessária para o mínimo de uma função de várias variáveis ​​é a igualdade a zero de todas as derivadas parciais desta função com relação aos parâmetros. Assim, encontrando os melhores valores dos parâmetros da função de aproximação (3.1), ou seja, aqueles valores para os quais Q = Q (a 0 , a 1 , ..., a m ) é mínimo, reduz-se a resolver o sistema de equações:

(3.3)

O método dos mínimos quadrados pode receber a seguinte interpretação geométrica: entre uma família infinita de linhas de um determinado tipo, encontra-se uma linha para a qual a soma das diferenças quadradas nas ordenadas dos pontos experimentais e as correspondentes ordenadas dos pontos encontrado pela equação desta reta será o menor.

Encontrando os parâmetros de uma função linear

Sejam os dados experimentais representados por uma função linear:

É necessário escolher tais valores a e b , para o qual a função

(3.4)

será mínimo. As condições necessárias para o mínimo da função (3.4) são reduzidas ao sistema de equações:

Após as transformações, obtemos um sistema de duas equações lineares com duas incógnitas:

(3.5)

resolvendo qual, encontramos os valores desejados dos parâmetros a e b.

Encontrando os parâmetros de uma função quadrática

Se a função de aproximação for uma dependência quadrática

então seus parâmetros a , b , c encontre a partir da condição mínima da função:

(3.6)

As condições mínimas para a função (3.6) são reduzidas ao sistema de equações:


Após as transformações, obtemos um sistema de três equações lineares com três incógnitas:

(3.7)

no resolvendo qual encontramos os valores desejados dos parâmetros a, b e c.

Exemplo . Que a seguinte tabela de valores seja obtida como resultado do experimento x e y:

Mesa 5

e eu

0,705

0,495

0,426

0,357

0,368

0,406

0,549

0,768

É necessário aproximar os dados experimentais por funções lineares e quadráticas.

Solução. Encontrar os parâmetros das funções de aproximação reduz a resolução de sistemas de equações lineares (3.5) e (3.7). Para resolver o problema, usamos um processador de planilhas excel.

1. Primeiro ligamos as folhas 1 e 2. Insira os valores experimentais x eu e e eu em colunas A e B, a partir da segunda linha (na primeira linha colocamos os cabeçalhos das colunas). Em seguida, calculamos as somas dessas colunas e as colocamos na décima linha.

Nas colunas C–G coloque o cálculo e a soma respectivamente

2. Solte as folhas. Cálculos posteriores serão realizados de maneira semelhante para a dependência linear da Folha 1 e para a dependência quadrática da Folha 2.

3. Sob a tabela resultante, formamos uma matriz de coeficientes e um vetor coluna de termos livres. Vamos resolver o sistema de equações lineares de acordo com o seguinte algoritmo:

Para calcular a matriz inversa e multiplicar matrizes, usamos Mestre funções e funções MOBR E MUMNOZH.

4. No bloco de células H2: H 9 com base nos coeficientes obtidos, calculamos valores da aproximação polinomiale eu calcular., no bloco I 2: I 9 - desvios eu = e eu exp. - e eu calcular., na coluna J - a discrepância:

Tabelas obtidas e construídas usando Assistentes de gráficos gráficos são mostrados nas figuras 6, 7, 8.


Arroz. 6. Tabela para cálculo dos coeficientes de uma função linear,

aproximando dados experimentais.


Arroz. 7. Tabela para cálculo dos coeficientes de uma função quadrática,

aproximandodados experimentais.


Arroz. 8. Representação gráfica dos resultados da aproximação

funções lineares e quadráticas de dados experimentais.

Responder. Os dados experimentais foram aproximados pela dependência linear y = 0,07881 x + 0,442262 com residual Q = 0,165167 e dependência quadrática y = 3,115476 x 2 – 5,2175 x + 2,529631 com residual Q = 0,002103 .

Tarefas. Aproxime a função dada por funções tabulares, lineares e quadráticas.

Tabela 6

№0

x

0,1

0,2

0,3

0,4

0,5

0,6

0,7

0,8

y

3,030

3,142

3,358

3,463

3,772

3,251

3,170

3,665

1

3,314

3,278

3,262

3,292

3,332

3,397

3,487

3,563

2

1,045

1,162

1,264

1,172

1,070

0,898

0,656

0,344

3

6,715

6,735

6,750

6,741

6,645

6,639

6,647

6,612

4

2,325

2,515

2,638

2,700

2,696

2,626

2,491

2,291

5

1.752

1,762

1,777

1,797

1,821

1,850

1,884

1,944

6

1,924

1,710

1,525

1,370

1,264

1,190

1,148

1,127

7

1,025

1,144

1,336

1,419

1,479

1,530

1,568

1,248

8

5,785

5,685

5,605

5,545

5,505

5,480

5,495

5,510

9

4,052

4,092

4,152

4,234

4,338

4,468

4,599

Método dos mínimos quadrados (OLS, eng. Ordinary Least Squares, OLS)- um método matemático usado para resolver vários problemas, baseado na minimização da soma dos desvios quadrados de algumas funções das variáveis ​​desejadas. Pode ser usado para "resolver" sistemas de equações sobredeterminados (quando o número de equações excede o número de incógnitas), para encontrar uma solução no caso de sistemas de equações não lineares comuns (não sobredeterminados), para aproximar os valores pontuais de uma determinada função. OLS é um dos métodos básicos de análise de regressão para estimar parâmetros desconhecidos de modelos de regressão a partir de dados de amostra.

YouTube enciclopédico

    1 / 5

    ✪ Método dos mínimos quadrados. Assunto

    ✪ Mínimos quadrados, lição 1/2. Função linear

    ✪ Econometria. Aula 5. Método dos mínimos quadrados

    ✪ Mitin I. V. - Processamento dos resultados do exame físico. experimento - Método dos mínimos quadrados (Aula 4)

    ✪ Econometria: A essência do método dos mínimos quadrados #2

    Legendas

História

Até o início do século XIX. os cientistas não tinham certas regras para resolver um sistema de equações em que o número de incógnitas é menor que o número de equações; Até então, métodos particulares eram usados, dependendo do tipo de equações e da engenhosidade das calculadoras e, portanto, calculadoras diferentes, partindo dos mesmos dados observacionais, chegavam a conclusões diferentes. Gauss (1795) é creditado com a primeira aplicação do método, e Legendre (1805) descobriu e publicou independentemente sob seu nome moderno (fr. Methode des moindres quarres) . Laplace conectou o método com a teoria das probabilidades, e o matemático americano Adrain (1808) considerou suas aplicações probabilísticas. O método é difundido e aprimorado por pesquisas adicionais de Encke, Bessel, Hansen e outros.

A essência do método dos mínimos quadrados

Deixar x (\displaystyle x)- kit n (\displaystyle n) variáveis ​​desconhecidas (parâmetros), f i (x) (\displaystyle f_(i)(x)), , m > n (\displaystyle m>n)- conjunto de funções deste conjunto de variáveis. O problema é escolher tais valores x (\displaystyle x) para que os valores dessas funções fiquem o mais próximo possível de alguns valores y i (\displaystyle y_(i)). Em essência, estamos falando sobre a “solução” do sistema de equações sobredeterminado f i (x) = y i (\displaystyle f_(i)(x)=y_(i)), i = 1 , … , m (\displaystyle i=1,\ldots ,m) no sentido indicado, a proximidade máxima das partes esquerda e direita do sistema. A essência do LSM é escolher como uma "medida de proximidade" a soma dos desvios quadrados das partes esquerda e direita | f i (x) − y i | (\displaystyle |f_(i)(x)-y_(i)|). Assim, a essência do LSM pode ser expressa da seguinte forma:

∑ i e i 2 = ∑ i (y i − f i (x)) 2 → min x (\displaystyle \sum _(i)e_(i)^(2)=\sum _(i)(y_(i)-f_( i)(x))^(2)\rightarrow \min _(x)).

Se o sistema de equações tiver uma solução, o mínimo da soma dos quadrados será igual a zero e as soluções exatas do sistema de equações poderão ser encontradas analiticamente ou, por exemplo, por vários métodos de otimização numérica. Se o sistema é sobredeterminado, ou seja, em termos gerais, o número de equações independentes é maior que o número de variáveis ​​desconhecidas, então o sistema não possui uma solução exata e o método dos mínimos quadrados nos permite encontrar algum vetor "ótimo" x (\displaystyle x) no sentido da proximidade máxima dos vetores y (\displaystyle y) E f(x) (\displaystyle f(x)) ou a proximidade máxima do vetor de desvio e (\displaystyle e) a zero (proximidade é entendida no sentido de distância euclidiana).

Exemplo - sistema de equações lineares

Em particular, o método dos mínimos quadrados pode ser usado para "resolver" o sistema de equações lineares

A x = b (\displaystyle Ax=b),

Onde A (\displaystyle A) matriz de tamanho retangular m × n , m > n (\displaystyle m\times n,m>n)(ou seja, o número de linhas da matriz A é maior que o número de variáveis ​​necessárias).

Tal sistema de equações geralmente não tem solução. Portanto, este sistema pode ser "resolvido" apenas no sentido de escolher tal vetor x (\displaystyle x) para minimizar a "distância" entre vetores A x (\displaystyle Machado) E b (\displaystyle b). Para fazer isso, você pode aplicar o critério de minimização da soma das diferenças ao quadrado das partes esquerda e direita das equações do sistema, ou seja (A x − b) T (A x − b) → min x (\displaystyle (Ax-b)^(T)(Ax-b)\rightarrow \min _(x)). É fácil mostrar que a solução deste problema de minimização leva à solução do seguinte sistema de equações

A T A x = A T b ⇒ x = (A T A) − 1 A T b (\displaystyle A^(T)Ax=A^(T)b\Seta para a direita x=(A^(T)A)^(-1)A^ (Tb).

OLS em análise de regressão (aproximação de dados)

Deixe estar n (\displaystyle n) valores de alguma variável y (\displaystyle y)(este pode ser o resultado de observações, experimentos, etc.) e as variáveis ​​correspondentes x (\displaystyle x). O desafio é fazer com que a relação entre y (\displaystyle y) E x (\displaystyle x) aproximado por alguma função conhecida até alguns parâmetros desconhecidos b (\displaystyle b), ou seja, realmente encontre os melhores valores dos parâmetros b (\displaystyle b), aproximando ao máximo os valores f (x, b) (\displaystyle f(x,b)) para valores reais y (\displaystyle y). De fato, isso se reduz ao caso de "solução" de um sistema de equações sobredeterminado em relação a b (\displaystyle b):

F (x t , b) = y t , t = 1 , … , n (\displaystyle f(x_(t),b)=y_(t),t=1,\ldots ,n).

Na análise de regressão, e em particular na econometria, são utilizados modelos probabilísticos da relação entre variáveis.

Y t = f (x t , b) + ε t (\displaystyle y_(t)=f(x_(t),b)+\varepsilon _(t)),

Onde ε t (\displaystyle \varepsilon _(t))- assim chamado erros aleatórios modelos.

Assim, os desvios dos valores observados y (\displaystyle y) do modelo f (x, b) (\displaystyle f(x,b)) já assumido no próprio modelo. A essência do LSM (ordinário, clássico) é encontrar tais parâmetros b (\displaystyle b), em que a soma dos desvios quadrados (erros, para modelos de regressão são frequentemente chamados de resíduos de regressão) e t (\displaystyle e_(t)) será mínimo:

b ^ O L S = arg ⁡ min b R S S (b) (\displaystyle (\hat (b))_(OLS)=\arg \min _(b)RSS(b)),

Onde R S S (\displaystyle RSS)- Inglês. A soma residual dos quadrados é definida como:

R S S (b) = e T e = ∑ t = 1 n e t 2 = ∑ t = 1 n (y t − f (x t , b)) 2 (\displaystyle RSS(b)=e^(T)e=\sum _ (t=1)^(n)e_(t)^(2)=\soma _(t=1)^(n)(y_(t)-f(x_(t),b))^(2) ).

No caso geral, este problema pode ser resolvido por métodos numéricos de otimização (minimização). Nesse caso, fala-se em mínimos quadrados não lineares(NLS ou NLLS - eng. Mínimos quadrados não lineares). Em muitos casos, uma solução analítica pode ser obtida. Para resolver o problema de minimização, é necessário encontrar os pontos estacionários da função R S S (b) (\displaystyle RSS(b)), diferenciando-o em relação a parâmetros desconhecidos b (\displaystyle b), igualando as derivadas a zero e resolvendo o sistema de equações resultante:

∑ t = 1 n (y t − f (x t , b)) ∂ f (x t , b) ∂ b = 0 (\displaystyle \sum _(t=1)^(n)(y_(t)-f(x_ (t),b))(\frac (\parcial f(x_(t),b))(\parcial b))=0).

LSM no caso de regressão linear 

Deixe a dependência da regressão ser linear:

y t = ∑ j = 1 k b j x t j + ε = x t T b + ε t (\displaystyle y_(t)=\sum _(j=1)^(k)b_(j)x_(tj)+\varepsilon =x_( t)^(T)b+\varepsilon _(t)).

Deixar yé o vetor coluna de observações da variável que está sendo explicada, e X (\displaystyle X)- Esse (n × k) (\displaystyle ((n\vezes k)))- matriz de observações de fatores (linhas da matriz - vetores de valores de fatores em uma determinada observação, por colunas - vetor de valores de um determinado fator em todas as observações). A matriz representação do modelo linear tem a forma:

y = Xb + ε (\displaystyle y=Xb+\varepsilon ).

Então o vetor de estimativas da variável explicada e o vetor de resíduos de regressão serão iguais a

y ^ = X b , e = y − y ^ = y − X b (\displaystyle (\hat (y))=Xb,\quad e=y-(\hat (y))=y-Xb).

consequentemente, a soma dos quadrados dos resíduos da regressão será igual a

R S S = e T e = (y − X b) T (y − X b) (\displaystyle RSS=e^(T)e=(y-Xb)^(T)(y-Xb)).

Diferenciando esta função em relação ao vetor de parâmetro b (\displaystyle b) e igualando as derivadas a zero, obtemos um sistema de equações (em forma de matriz):

(X T X) b = X T y (\displaystyle (X^(T)X)b=X^(T)y).

Na forma de matriz decifrada, esse sistema de equações se parece com isso:

(∑ x t 1 2 ∑ x t 1 x t 2 ∑ x t 1 x t 3 … ∑ x t 1 x t k ∑ x t 2 x t 1 ∑ x t 2 2 ∑ x t 2 x t 3 … ∑ x t 2 x t k ∑ x t 3 x t 1 ∑ x t x t 3 2 … ∑ x t 3 x t k ⋮ ⋮ ⋮ ⋱ ⋮ ∑ x t k x t 1 ∑ x t k x t 2 ∑ x t k x t 3 … ∑ x t k 2) (b 1 b 2 b 3 ⋮ b k) = (∑ x t 1 y x t ∑ 3 y t ⋮ y ∑ x t ) (\begin(pmatriz)\sum x_(t1)^(2)&\sum x_(t1)x_(t2)&\sum x_(t1)x_(t3)&\ldots &\sum x_(t1)x_( tk)\\\soma x_(t2)x_(t1)&\soma x_(t2)^(2)&\soma x_(t2)x_(t3)&\ldots &\ soma x_(t2)x_(tk) \\\soma x_(t3)x_(t1)&\soma x_(t3)x_(t2)&\soma x_(t3)^(2)&\ldots &\soma x_ (t3)x_(tk)\\ \vdots &\vdots &\vdots &\ddots &\vdots \\\sum x_(tk)x_(t1)&\sum x_(tk)x_(t2)&\sum x_ (tk)x_(t3)&\ ldots &\sum x_(tk)^(2)\\\end(pmatrix))(\begin(pmatrix)b_(1)\\b_(2)\\b_(3 )\\\vdots \\b_( k)\\\end(pmatrix))=(\begin(pmatrix)\sum x_(t1)y_(t)\\\sum x_(t2)y_(t)\\ \sum x_(t3)y_(t )\\\vdots \\\soma x_(tk)y_(t)\\\end(pmatriz))) onde todas as somas são tomadas sobre todos os valores admissíveis t (\displaystyle t).

Se uma constante for incluída no modelo (como de costume), então x t 1 = 1 (\displaystyle x_(t1)=1) para todos t (\displaystyle t), portanto, no canto superior esquerdo da matriz do sistema de equações está o número de observações n (\displaystyle n), e nos demais elementos da primeira linha e primeira coluna - apenas a soma dos valores das variáveis: ∑ x t j (\displaystyle \sum x_(tj)) e o primeiro elemento do lado direito do sistema - ∑ y t (\displaystyle \sum y_(t)).

A solução deste sistema de equações fornece a fórmula geral para as estimativas de mínimos quadrados para o modelo linear:

b ^ O L S = (X T X) − 1 X T y = (1 n X T X) − 1 1 n X T y = V x − 1 C x y (\displaystyle (\hat (b))_(OLS)=(X^(T )X)^(-1)X^(T)y=\esquerda((\frac (1)(n))X^(T)X\direita)^(-1)(\frac (1)(n ))X^(T)y=V_(x)^(-1)C_(xy)).

Para efeitos analíticos, a última representação desta fórmula acaba por ser útil (no sistema de equações quando dividido por n, aparecem médias aritméticas em vez de somas). Se os dados no modelo de regressão centrado, então nesta representação a primeira matriz tem o significado de matriz de covariância amostral de fatores, e a segunda é o vetor de covariâncias de fatores com variável dependente. Se, além disso, os dados também normalizado no SKO (isto é, em última instância padronizado), então a primeira matriz tem o significado da matriz de correlação amostral de fatores, o segundo vetor - o vetor de correlações amostrais de fatores com a variável dependente.

Uma propriedade importante das estimativas LLS para modelos com uma constante- a reta da regressão construída passa pelo centro de gravidade dos dados da amostra, ou seja, a igualdade é satisfeita:

y ¯ = b 1 ^ + ∑ j = 2 k b ^ j x ¯ j (\displaystyle (\bar (y))=(\hat (b_(1)))+\sum _(j=2)^(k) (\chat (b))_(j)(\bar (x))_(j)).

Em particular, no caso extremo, quando o único regressor é uma constante, descobrimos que a estimativa OLS de um único parâmetro (a própria constante) é igual ao valor médio da variável que está sendo explicada. Ou seja, a média aritmética, conhecida por suas boas propriedades das leis dos grandes números, também é uma estimativa de mínimos quadrados - ela satisfaz o critério para a soma mínima de desvios quadrados dela.

Os casos especiais mais simples

No caso de regressão linear pareada y t = a + b x t + ε t (\displaystyle y_(t)=a+bx_(t)+\varepsilon _(t)), quando a dependência linear de uma variável em outra é estimada, as fórmulas de cálculo são simplificadas (você pode fazer sem álgebra de matrizes). O sistema de equações tem a forma:

(1 x ¯ x ¯ x 2 ¯) (a b) = (y ¯ x y ¯) (\displaystyle (\begin(pmatrix)1&(\bar (x))\\(\bar (x))&(\bar (x^(2)))\\\end(pmatrix))(\begin(pmatrix)a\\b\\\end(pmatrix))=(\begin(pmatrix)(\bar (y))\\ (\overline(xy))\\\end(pmatrix))).

A partir daqui é fácil encontrar estimativas para os coeficientes:

( b ^ = Cov ⁡ (x , y) Var ⁡ (x) = x y ¯ − x ¯ y ¯ x 2 ¯ − x ¯ 2 , a ^ = y ¯ − b x ¯ . (\displaystyle (\begin(cases) (\hat (b))=(\frac (\mathop (\textrm (Cov)) (x,y))(\mathop (\textrm (Var)) (x)))=(\frac ((\overline (xy))-(\bar (x))(\bar (y)))((\overline (x^(2)))-(\overline (x))^(2))),\\( \hat (a))=(\bar (y))-b(\bar (x)).\end(cases)))

Apesar do fato de que, em geral, os modelos com uma constante são preferíveis, em alguns casos, sabe-se de considerações teóricas que a constante a (\displaystyle a) deve ser igual a zero. Por exemplo, em física, a relação entre tensão e corrente tem a forma U = I ⋅ R (\displaystyle U=I\cdot R); medição de tensão e corrente, é necessário estimar a resistência. Neste caso, estamos falando de um modelo y = b x (\displaystyle y=bx). Neste caso, em vez de um sistema de equações, temos uma única equação

(∑ x t 2) b = ∑ x t y t (\displaystyle \left(\sum x_(t)^(2)\right)b=\sum x_(t)y_(t)).

Portanto, a fórmula para estimar um único coeficiente tem a forma

B ^ = ∑ t = 1 n x t y t ∑ t = 1 n x t 2 = x y ¯ x 2 ¯ (\displaystyle (\hat (b))=(\frac (\sum _(t=1)^(n)x_(t )y_(t))(\sum _(t=1)^(n)x_(t)^(2)))=(\frac (\overline (xy))(\overline (x^(2)) ))).

O caso de um modelo polinomial

Se os dados forem ajustados por uma função de regressão polinomial de uma variável f (x) = b 0 + ∑ i = 1 k b i x i (\displaystyle f(x)=b_(0)+\sum \limits _(i=1)^(k)b_(i)x^(i)), então, percebendo graus x i (\displaystyle x^(i)) como fatores independentes para cada i (\displaystyle i)é possível estimar os parâmetros do modelo com base na fórmula geral para estimar os parâmetros do modelo linear. Para fazer isso, basta levar em conta na fórmula geral que com tal interpretação x t i x t j = x t i x t j = x t i + j (\displaystyle x_(ti)x_(tj)=x_(t)^(i)x_(t)^(j)=x_(t)^(i+j)) E x t j y t = x t j y t (\displaystyle x_(tj)y_(t)=x_(t)^(j)y_(t)). Portanto, as equações matriciais neste caso terão a forma:

(n ∑ n x t ... ∑ n x t k ∑ n x t ∑ n x t 2 ... ∑ n x t k + 1 ⋮ ⋮ ⋮ ⋮ ∑ n x t k ∑ n x t k + 1 ... ∑ n x t 2 k) [b 0 b 1 ⋮ b k] = [∑ n y t ∑ n x t y t ⋮ n x t k y t k y t ] . (\displaystyle (\begin(pmatrix)n&\sum \limits _(n)x_(t)&\ldots &\sum \limits _(n)x_(t)^(k)\\\sum \limits _( n)x_(t)&\sum \limits _(n)x_(t)^(2)&\ldots &\sum \limits _(n)x_(t)^(k+1)\\\vdots & \vdots &\ddots &\vdots \\\sum \limits _(n)x_(t)^(k)&\sum \limits _(n)x_(t)^(k+1)&\ldots &\ soma \limits _(n)x_(t)^(2k)\end(pmatrix))(\begin(bmatrix)b_(0)\\b_(1)\\\vdots \\b_(k)\end( bmatrix))=(\begin(bmatrix)\sum \limits _(n)y_(t)\\\sum \limits _(n)x_(t)y_(t)\\\vdots \\\sum \limits _(n)x_(t)^(k)y_(t)\end(bmatriz)).)

Propriedades Estatísticas das Estimativas OLS

Em primeiro lugar, observamos que, para modelos lineares, as estimativas de mínimos quadrados são estimativas lineares, como segue da fórmula acima. Para a imparcialidade das estimativas de mínimos quadrados, é necessário e suficiente cumprir a condição mais importante da análise de regressão: a expectativa matemática de um erro aleatório condicional aos fatores deve ser igual a zero. Esta condição é satisfeita, em particular, se

  1. a expectativa matemática de erros aleatórios é zero, e
  2. fatores e erros aleatórios são valores aleatórios independentes.

A segunda condição - a condição dos fatores exógenos - é fundamental. Se essa propriedade não for satisfeita, podemos supor que quase todas as estimativas serão extremamente insatisfatórias: elas nem serão consistentes (ou seja, mesmo uma quantidade muito grande de dados não permite obter estimativas qualitativas neste caso). No caso clássico, uma suposição mais forte é feita sobre o determinismo dos fatores, em contraste com um erro aleatório, o que significa automaticamente que a condição exógena é satisfeita. No caso geral, para a consistência das estimativas, basta satisfazer a condição de exogeneidade juntamente com a convergência da matriz V x (\displaystyle V_(x)) para alguma matriz não degenerada à medida que o tamanho da amostra aumenta até o infinito.

Para que, além da consistência e imparcialidade, as estimativas dos (usuais) mínimos quadrados sejam também efetivas (as melhores da classe das estimativas lineares imparciais), é necessário cumprir propriedades adicionais de um erro aleatório:

Essas suposições podem ser formuladas para a matriz de covariância  do vetor de erros aleatórios V (ε) = σ 2 I (\displaystyle V(\varepsilon)=\sigma ^(2)I).

Um modelo linear que satisfaz essas condições é chamado clássico. As estimativas OLS para a regressão linear clássica são estimativas imparciais, consistentes e mais eficientes na classe de todas as estimativas lineares imparciais (na literatura inglesa, a abreviação às vezes é usada azul (Melhor Estimador Linear Imparcial) é a melhor estimativa linear não viesada; na literatura doméstica, o teorema de Gauss - Markov é mais citado). Como é fácil de mostrar, a matriz de covariância do vetor de estimativas de coeficientes será igual a:

V (b ^ O L S) = σ 2 (X T X) − 1 (\displaystyle V((\hat (b))_(OLS))=\sigma ^(2)(X^(T)X)^(-1 )).

Eficiência significa que essa matriz de covariância é "mínima" (qualquer combinação linear de coeficientes e, em particular, os próprios coeficientes têm uma variância mínima), ou seja, na classe de estimativas lineares imparciais, as estimativas OLS são as melhores. Os elementos diagonais desta matriz - as variâncias das estimativas dos coeficientes - são parâmetros importantes da qualidade das estimativas obtidas. No entanto, não é possível calcular a matriz de covariância porque a variância do erro aleatório é desconhecida. Pode-se provar que a estimativa imparcial e consistente (para o modelo linear clássico) da variância dos erros aleatórios é o valor:

S 2 = R S S / (n − k) (\displaystyle s^(2)=RSS/(n-k)).

Substituindo esse valor na fórmula da matriz de covariância, obtemos uma estimativa da matriz de covariância. As estimativas resultantes também são imparciais e consistentes. Também é importante que a estimativa da variância do erro (e, portanto, das variâncias dos coeficientes) e as estimativas dos parâmetros do modelo sejam variáveis ​​aleatórias independentes, o que permite obter estatísticas de teste para testar hipóteses sobre os coeficientes do modelo.

Deve-se notar que, se as suposições clássicas não forem atendidas, as estimativas dos parâmetros de mínimos quadrados não são as mais eficientes e, onde W (\displaystyle W)é alguma matriz de peso definida positiva simétrica. Os mínimos quadrados ordinários são um caso especial dessa abordagem, quando a matriz peso é proporcional à matriz identidade. Como se sabe, para matrizes simétricas (ou operadores) existe uma decomposição W = P T P (\displaystyle W=P^(T)P). Portanto, este funcional pode ser representado da seguinte forma e T P T P e = (P e) T P e = e ∗ T e ∗ (\displaystyle e^(T)P^(T)Pe=(Pe)^(T)Pe=e_(*)^(T)e_( *)), ou seja, esse funcional pode ser representado como a soma dos quadrados de alguns "resíduos" transformados. Assim, podemos distinguir uma classe de métodos de mínimos quadrados - métodos LS (Least Squares).

Está provado (teorema de Aitken) que para um modelo de regressão linear generalizado (no qual não são impostas restrições à matriz de covariância de erros aleatórios), as mais eficazes (na classe das estimativas lineares imparciais) são as chamadas estimativas. OLS generalizado (OMNK, GLS - Mínimos quadrados generalizados)- Método LS com uma matriz de peso igual à matriz de covariância inversa de erros aleatórios: W = V ε − 1 (\displaystyle W=V_(\varepsilon )^(-1)).

Pode-se mostrar que a fórmula para as estimativas GLS dos parâmetros do modelo linear tem a forma

B ^ G L S = (X TV − 1 X) − 1 X TV − 1 y (\displaystyle (\hat (b))_(GLS)=(X^(T)V^(-1)X)^(-1) X^(T)V^(-1)y).

A matriz de covariância dessas estimativas, respectivamente, será igual a

V (b ^ G L S) = (X T V − 1 X) − 1 (\displaystyle V((\hat (b))_(GLS))=(X^(T)V^(-1)X)^(- 1)).

De fato, a essência do OLS reside em uma certa transformação (linear) (P) dos dados originais e na aplicação dos mínimos quadrados usuais aos dados transformados. O objetivo dessa transformação é que, para os dados transformados, os erros aleatórios já satisfaçam as suposições clássicas.

Mínimos quadrados ponderados

No caso de uma matriz de peso diagonal (e, portanto, a matriz de covariância de erros aleatórios), temos os chamados mínimos quadrados ponderados (WLS - Weighted Least Squares). Nesse caso, a soma ponderada dos quadrados dos resíduos do modelo é minimizada, ou seja, cada observação recebe um “peso” inversamente proporcional à variância do erro aleatório nessa observação: e T We = ∑ t = 1 n e t 2 σ t 2 (\displaystyle e^(T)We=\sum _(t=1)^(n)(\frac (e_(t)^(2))(\ sigma _(t)^(2)))). Na verdade, os dados são transformados ponderando as observações (dividindo por uma quantidade proporcional ao desvio padrão assumido dos erros aleatórios), e mínimos quadrados normais são aplicados aos dados ponderados.

ISBN 978-5-7749-0473-0.

  • Econometria. Livro Didático / Ed. Eliseeva I. I. - 2ª ed. - M. : Finanças e estatísticas, 2006. - 576 p. - ISBN 5-279-02786-3.
  • Alexandrova N. V. História de termos matemáticos, conceitos, designações: um livro de referência de dicionário. - 3ª ed. - M. : LKI, 2008. - 248 p. - ISBN 978-5-382-00839-4. I.V. Mitin, Rusakov V.S. Análise e tratamento de dados experimentais - 5ª edição - 24p.
  • Se alguma quantidade física depende de outra quantidade, essa dependência pode ser investigada medindo y em diferentes valores de x. Como resultado das medições, uma série de valores é obtida:

    x 1 , x 2 , ..., x i , ... , x n ;

    y 1 , y 2 , ..., y i , ... , y n .

    Com base nos dados de tal experimento, é possível plotar a dependência y = ƒ(x). A curva resultante permite julgar a forma da função ƒ(x). No entanto, os coeficientes constantes que entram nessa função permanecem desconhecidos. Eles podem ser determinados usando o método dos mínimos quadrados. Os pontos experimentais, via de regra, não ficam exatamente sobre a curva. O método dos mínimos quadrados requer que a soma dos desvios quadrados dos pontos experimentais da curva, ou seja, 2 foi o menor.

    Na prática, esse método é mais frequentemente (e mais simples) usado no caso de uma relação linear, ou seja, Quando

    y=kx ou y = a + bx.

    A dependência linear é muito difundida na física. E mesmo quando a dependência não é linear, eles geralmente tentam construir um gráfico de forma a obter uma linha reta. Por exemplo, se for assumido que o índice de refração do vidro n está relacionado ao comprimento de onda λ da onda de luz pela relação n = a + b/λ 2 , então a dependência de n em λ -2 é plotada no gráfico .

    Considere a dependência y=kx(linha reta passando pela origem). Vamos compor o valor φ a soma dos desvios quadrados de nossos pontos da linha reta

    O valor de φ é sempre positivo e acaba sendo tanto menor quanto mais próximos nossos pontos estiverem da linha reta. O método dos mínimos quadrados afirma que para k deve-se escolher um valor no qual φ tenha um mínimo


    ou
    (19)

    O cálculo mostra que a raiz do erro quadrático médio na determinação do valor de k é igual a

    , (20)
    onde n é o número de dimensões.

    Vamos agora considerar um caso um pouco mais difícil, quando os pontos devem satisfazer a fórmula y = a + bx(uma linha reta que não passa pela origem).

    A tarefa é encontrar os melhores valores de a e b do conjunto de valores dado x i , y i .

    Novamente compomos uma forma quadrática φ igual à soma dos desvios quadrados dos pontos x i , y i da reta

    e encontre os valores a e b para os quais φ tem um mínimo

    ;

    .

    .

    A solução conjunta dessas equações dá

    (21)

    A raiz dos erros quadráticos médios da determinação de a e b são iguais

    (23)

    .  (24)

    Ao processar os resultados das medições por este método, é conveniente resumir todos os dados em uma tabela na qual todos os valores incluídos nas fórmulas (19)(24) são calculados preliminarmente. As formas dessas tabelas são mostradas nos exemplos abaixo.

    Exemplo 1 A equação básica da dinâmica do movimento rotacional ε = M/J (uma reta passando pela origem) foi estudada. Para vários valores do momento M, foi medida a aceleração angular ε de um determinado corpo. É necessário determinar o momento de inércia deste corpo. Os resultados das medições do momento de força e aceleração angular estão listados na segunda e terceira colunas tabelas 5.

    Tabela 5
    n M, N m ε, s-1 M2 M ε ε - kM (ε - kM) 2
    1 1.44 0.52 2.0736 0.7488 0.039432 0.001555
    2 3.12 1.06 9.7344 3.3072 0.018768 0.000352
    3 4.59 1.45 21.0681 6.6555 -0.08181 0.006693
    4 5.90 1.92 34.81 11.328 -0.049 0.002401
    5 7.45 2.56 55.5025 19.072 0.073725 0.005435
    – – 123.1886 41.1115 – 0.016436

    Pela fórmula (19) determinamos:

    .

    Para determinar a raiz do erro quadrático médio, usamos a fórmula (20)

    0.005775kg-1 · m -2 .

    Pela fórmula (18) temos

    ; .

    SJ = (2,996 0,005775)/0,3337 = 0,05185 kg m 2.

    Dada a confiabilidade P = 0,95 , de acordo com a tabela de coeficientes de Student para n = 5, encontramos t = 2,78 e determinamos o erro absoluto ΔJ = 2,78 0,05185 = 0,1441 ≈ 0,2 kg m 2.

    Escrevemos os resultados na forma:

    J = (3,0 ± 0,2) kg m 2;


    Exemplo 2 Calculamos o coeficiente de temperatura de resistência do metal usando o método dos mínimos quadrados. A resistência depende da temperatura de acordo com uma lei linear

    R t \u003d R 0 (1 + α t °) \u003d R 0 + R 0 α t °.

    O termo livre determina a resistência R 0 a uma temperatura de 0 ° C, e o coeficiente angular é o produto do coeficiente de temperatura α e a resistência R 0 .

    Os resultados das medições e cálculos são dados na tabela ( ver tabela 6).

    Tabela 6
    n t °, s r, Ohm t-¯t (t-¯t) 2 (t-¯t)r r-bt-a (r - bt - a) 2,10 -6
    1 23 1.242 -62.8333 3948.028 -78.039 0.007673 58.8722
    2 59 1.326 -26.8333 720.0278 -35.581 -0.00353 12.4959
    3 84 1.386 -1.83333 3.361111 -2.541 -0.00965 93.1506
    4 96 1.417 10.16667 103.3611 14.40617 -0.01039 107.898
    5 120 1.512 34.16667 1167.361 51.66 0.021141 446.932
    6 133 1.520 47.16667 2224.694 71.69333 -0.00524 27.4556
    515 8.403 – 8166.833 21.5985 – 746.804
    ∑/n 85.83333 1.4005 – – – – –

    Pelas fórmulas (21), (22) determinamos

    R 0 = ¯ R- α R 0 ¯ t = 1,4005 - 0,002645 85,83333 = 1,1735 Ohm.

    Vamos encontrar um erro na definição de α. Desde , então pela fórmula (18) temos:

    .

    Usando as fórmulas (23), (24) temos

    ;

    0.014126 Ohm.

    Dada a confiabilidade P = 0,95, de acordo com a tabela de coeficientes de Student para n = 6, encontramos t = 2,57 e determinamos o erro absoluto Δα = 2,57 0,000132 = 0,000338 graus -1.

    α = (23 ± 4) 10 -4 saudação-1 em P = 0,95.


    Exemplo 3É necessário determinar o raio de curvatura da lente dos anéis de Newton. Os raios dos anéis de Newton r m foram medidos e os números desses anéis m foram determinados. Os raios dos anéis de Newton estão relacionados com o raio de curvatura da lente R e o número do anel pela equação

    r 2 m = mλR - 2d 0 R,

    onde d 0 a espessura do espaço entre a lente e a placa plana paralela (ou deformação da lente),

    λ é o comprimento de onda da luz incidente.

    λ = (600 ± 6) nm;
    r2m = y;
    m = x;
    λR = b;
    -2d 0 R = a,

    então a equação terá a forma y = a + bx.

    .

    Os resultados das medições e cálculos são inseridos em tabela 7.

    Tabela 7
    n x = m y \u003d r 2, 10 -2 mm 2 milímetros (m-¯m) 2 (m-¯m)y y-bx-a, 10-4 (y - bx - a) 2, 10 -6
    1 1 6.101 -2.5 6.25 -0.152525 12.01 1.44229
    2 2 11.834 -1.5 2.25 -0.17751 -9.6 0.930766
    3 3 17.808 -0.5 0.25 -0.08904 -7.2 0.519086
    4 4 23.814 0.5 0.25 0.11907 -1.6 0.0243955
    5 5 29.812 1.5 2.25 0.44718 3.28 0.107646
    6 6 35.760 2.5 6.25 0.894 3.12 0.0975819
    21 125.129 – 17.5 1.041175 – 3.12176
    ∑/n 3.5 20.8548333 – – – – –