Base Estatística

A história da filtragem de sinais é rica em personagens e métodos revolucionários em processos de estimação. Desde 1930 pesquisadores importantes tais como Wiener e Kolmogorov trabalharam intensamente em explicar e criar teorias para mehorar os processos de estimação. No entanto, de todos, o mais simples e rápido método foi o desenvolvido na década de 1960 por Kalman.

Um processo é conhecido como estocástico quando o mesmo segue um modelo determinístico conhecido ou não, mas tem componentes que dependem das funçoes de probabilidades distribuídas no tempo. Num processo estocástico, se "congelarmos" o tempo e olharmos para o eixo y ( figura abaixo ao lado) temos um estudo de estatística. Na estatística bem como na teoria de probabilades o grande objetivo é descobrir qual ou quais distribuições "se encaixam" no fenômeno observado.

Uma vez bem adaptada essa função de probabilidade, fica fácil estimar probabilidades e caminhos futuros. Se congelarmos a distribuição de probabilidade e olharmos para o tempo representado no eixo x ( figura abaixo) temos o que é conhecido como "realização de um processo". Em termos de cursos de graduação, temos nesse simples gráfico abaixo os cursos de cálculo, probabilidade, estatística e cálculo numérico representados em cada seção do gráfico.

Filtro de Kalman

A Gaussiana

Porque se buscam sinais, ou se assume sinais com distribuição gaussiana? Essa generalização é benéfica em vários sentidos, principalmente no que diz respeito a simplificação de cálculos e estimativas estatísticas. Mas a principal é que se a distribuição dos ruídos de sinais seguirem a distribuição Normal ( ou conhecida com gaussiana ), pode-se fazer uso do teorema do limite central.

Esse teorema garante que se uma distribuição é gaussiana, depois de um certo limite de aquisição de sinais, as medidas amostrais da distribuição tais como média e variância convergem para as medidas populacionais. Ou seja, a média e variância ou outras medidas conhecidas por "momentos" convergem para uma medida real, muito, mas muito próxima da população, caso fosse possível "contar" ou "conhecer" todos os valores reais do fenômeno observado.

 

 

 

Intervalos de Confiança

Uma vez tendo uma característica do sinal, ou do rúido que atrapalha um sinal com ditribuição de probabilidade gaussiana, pode-se trabalhar com os conhecidos intervalos de confiança e estimar médias e variãncias, ou desvio padrões.

 

 

 

 

 

 

Essa distribuição é para uma única variável x, ou uma única variável composta de inúmeras leituras de sinais. No entanto, no menor dos problemas o que se tem são muitas, muitas variáveis envolvidas. Só para se ter uma idéia, se um problema tiver duas variáveis (apenas duas variáveis ) a fórmula gaussiana já fica desagradável de se enxergar como na figura ao lado.

Na verdade a fórmula da covariância deve ser corrigida, e será indica aqui pela letra "P". Isso porque ela deve levar em conta as correlações parciais de todas as variáveis envolvidas mais as correlações das próprias variáveis (conhecidas como autocorrelação):

O que nos leva para a fórmula na função distribuição gaussiana da seguinte forma:

Problema: E se nossa variável x(t) possuir n dados coletados em cada tempo t (tempo real)?

Nossa matriz de covariância P se tornaria:

O processo de estimação seria totalmente inviável nesse caso!!

Solução: FILTRO DE KALMAN