[MÚSICA] [MÚSICA] Nesta aula, nós veremos duas estratégias para lidarmos com o problema da quebra da hipótese de homocedasticidade. Nós vimos que a quebra da hipótese cinco, ou a hipótese de homocedasticidade, não causa viés no estimador de MQO, mas, simplesmente, impossibilita a derivação da variância do nosso estimador. Isso porque usamos essa hipótese para derivar a variância do estimador e, consequentemente, fazer testes de hipóteses usando essa variância. Assim, a invalidez dessa hipótese também inviabilizará os testes de hipóteses que vimos nas últimas aulas. Como o nosso estimador de MQO ainda mantém a boa propriedade de não-viés, nós podemos, apenas, corrigir a variância desse estimador usando duas estratégias. A primeira estratégia é a que chamamos de "correção de White". Ou seja, sem impor, agora, a homocedasticidade, nós vamos conseguir derivar um estimador para a variância do nosso efeito estimado. A outra estratégia é reestimar a nossa variância ou realizar testes de hipóteses usando simulações como, por exemplo, o procedimento de "Bootstrap". Veremos linhas gerais como vamos fazer esse procedimento. Veremos, então, o que White propôs para corrigirmos a variância de um modelo em que a hipótese de homocedasticidade não seja válida. Lembre-se que a variância do nosso estimador, "Beta chapéu 1", da regressão simples pode ser escrita da seguinte forma. Variância de "Beta chapéu 1" condicional ao "x" do modelo (que é a nossa variável explicativa) será igual à variância do "Beta 1" mais somatório de "x1i" menos "x1-barra" vezes "ui", tudo isso dividido pelo somátório do "x1i" menos "x1-barra" ao quadrado. Aqui, temos uma variância de uma constante, que é o "Beta 1", mais a variância de uma variável aleatória ponderada por "x". Como estamos condicionando os resultados em "x", ou seja, mantendo o "x" constante amostras repetidas, nós podemos tirar o elemento "x" dessa variância ao quadrado. Ou seja, sem impor a hipótese de homocedasticidade, nós temos que a variância do nosso efeito vai ser somatório de "xi1" menos "x-barra 1", elevado ao quadrado, dividido por somatório de "xi1" menos "x1-barra", ao quadrado, tudo isso elevado ao quadrado; vezes a variância de "ui" dado "x", que não é mais igual a um "Sigma 2" constante. A idéia de White é, então, encontrar um estimador para essa expressão sem impor a hipótese de homocedasticidade. Veremos como fica a mesma variância usando matrizes, agora; ou seja, relativizando os resultados para regressão múltipla. Lembre-se que a variância do vetor de "Beta chapéu" vai ser igual a um "x linha" "x" a menos 1, "x linha", variância de "u" condicional a "x", vezes "x", vezes "x linha", "x" a menos 1. Ou seja, uma forma quadrática. Se a variância de u" dado "x" não é mais igual a "Sigma 2" vezes a identidade (podemos chamar essa variância, agora, de "Ômega"), nós temos que a matriz de variância-covariância do vetor será "x linha", "x" a menos 1, "x linha" "Ômega", "x", "x linha", "x" a menos 1. Podemos ver a matriz de variância com a variância "Ômega" aqui no nosso slide. A idéia de White, então, é propor um estimador para a variância de "ui" dado "x", na fórmula da regressão simples, ou, um estimador para matriz de variância-covariância "Ômega", no caso da regressão múltipla. A idéia, então, é utilizar os resíduos como estimadores para esperança de "ui" ao quadrado dado "x". Isso porque, se ainda vale a hipótese de exogeneidade, (ou seja, de que a esperança de "ui" dado "x" é igual a 0), nós temos que a variância de "ui" dado "x" é exatamente igual à esperança de "ui" ao quadrado dado "x". Assim, substituindo, então, a esperança de "ui" ao quadrado dado "x" pelos resíduos ao quadrado de cada observação, nós temos o que chamamos de estimador robusto da variância para regressão simples. Veja que, agora, nós temos o subscrito "rob" para diferenciar a variância que estimamos sob homocedasticidade da variância estimada pelo procedimento de White. Note que nós observamos todos os termos dessa variância, pois observamos os "x", a média amostral do "x" e, também, os resíduos, uma vez que que estimamos por MQO. Aqui, são utilizados os resíduos da regressão de MQO mesmo, pois sabemos que os estimadores de MQO continuam não-viesados mesmo com a quebra dessa hipótese. No caso matricial, basta substituirmos a nossa matriz "Ômega" pela matriz "Ômega chapéu". Ou seja, a matriz "Ômega chapéu" possui, em suas diagonais, os resíduos ao quadrado, que são os estimadores da variância de cada "u izinho", e os elementos fora da diagonal são todos 0, que são as covariâncias entre os resíduos. Agora, podemos realizar testes "t", por exemplo, para hipóteses individuais, simplesmente substituindo a variância estimada do nosso estimador pela variância estimada robusta do nosso estimador. Vejamos como mudam os resultados da variância estimada utilizando a variância sob homocedasticidade e variância robusta de White. Neste exemplo, nós temos o efeito de várias características de veículos que são identificadas por variáveis binárias (ou variáveis "dummy") sobre o preço desses veículos. Nessa estimação, nós temos, entre parênteses, os erros-padrão sob homocedasticidade e, em colchetes, nós temos os erros-padrão de acordo com a fórmula de White. Veja que os estimadores de White podem ser maiores ou menores do que os estimadores da variância sob homocedasticidade. Embora, nesse caso, o estimador robusto não mude a interpretação do teste de significância individual -- ou seja, todas as variáveis, aqui, parecem, individualmente, significantes a 5% para explicar o preço dos veículos -- nós vemos que há diferenças importantes que devem ser contabilizadas. Outra possibilidade é realizar testes de hipóteses usando simulações. Essas simulações se utilizam do Teorema Fundamental da Estatística, ou seja, que a distribuição amostral de realizações de uma variável aleatória convergem para a verdadeira distribuição daquela variável aleatória. A idéia do "Bootstrap" é, então, fazer um procedimento de reamostragem, ou "resampling". Essa figura ilustra o procedimento de "Bootstrap". Então, nós temos, aqui, um espaço completo de observações, que é essa primeira linha de bolinhas coloridas. Suponha que tenhamos uma amostra inicial com "n" observações, ou seja, apenas algumas dessas observações da nossa população inicial são coletadas na nossa amostra. A idéia do "Bootstrap" é, então, a partir dessa amostra que foi coletada da população, fazer um procedimento de reamostragem, ou seja, coletar "n" observações novamente, com reposição. Isso significa, por exemplo, que a bolinha azul, que é observada apenas uma vez na amostra inicial, pode aparecer mais de uma vez em um desses procedimentos de reamostragem. Assim, a partir de todas essas "b" repertições que fizemos, nós podemos construir a distribuição do nosso estimador e fazer testes usando essa distribuição. Em outras palavras, para cada uma dessas amostras que encontramos a partir da nossa amostra inicial, nós podemos, por exemplo, calcular o estimador de MQO e, a partir dessas "b" observações do nosso estimador, construir uma distribuição empírica desse estimador. Para mais detalhes de como realizar esse procedimento, deixamos aqui algumas referências importantes. [MÚSICA] [MÚSICA] [MÚSICA]