[MÚSICA] [MÚSICA] Nesta aula, nós vamos mostrar vários exemplos de teste de hipóteses individuais usando a estatística "t", que derivamos na aula anterior. Relembrando que precisamos derivar a distribuição de probabilidades do nosso estimador para poder calcular a estatística "t", e essa estatística vai ter uma distribuição "t" de Student, que é uma distribuição padronizada e tabelada em vários livros de estatítica. Vimos, então, que, adicionando a hipótese sobre a distribuição dos erros condicionais a "x", nós conseguimos derivar a distribuição do nosso estimador. A distribuição de probabilidades do nosso estimador "Beta chapéu j" condicional a "x" terá, então, uma distribuição normal com média "Beta j" e variância "Sigma 2" dividido PELO SOMATÓRIO de "R chapéu ij" ao quadrado. O primeiro teste que veremos é o teste que chamamos de bicaudal. O nosso objetivo é testar determinado valor para o "Beta j", que é o efeito de "xj" sobre "y". A essa hipótese chamaremos de hipótese nula, e a identificamos por "H", com um "zerinho" embaixo. Assim, podemos testar que o nosso "Beta j" seja igual a "a", uma constante qualquer. A hipótese 1, ou a hipótese alternativa, testa, então, que esse parâmetro não tem esse valor específico, ou seja, que "Beta j" é diferente de "a". Usando, então, o teorema da estatística "t", que vimos na aula anterior, podemos escrever a estatística do teste apenas substituindo o "Beta j" pelo valor do "Beta j" sob "H0", ou seja, "a". Assim, a nossa estatística, a qual chamaremos de "tj", será igual ao "Beta chapéu j" menos "a", dividido pelo erro-padrão do nosso estimador. Nós vamos rejeitar a hipótese nula quando a nossa estatística "tj" for, em módulo, maior do que o valor crítico desse teste. Nessa tabela, nós temos vários valores para "t", que tem uma distribuição "t de Student", e diferentes graus de liberdade. Se desejamos um "Alfa", ou nível de tolerância, é igual a 5% e temos 1000 observações, veja que o valor crítico do teste é igual a 1,96. Ou seja, para uma variável que tem uma distribuição "t de Student", 95% da distribuição se concentra entre menos 1,96 e mais 1,96. Isso significa que valores da estatística maiores que 1,96 ou menores que menos 1,96 representam, conjuntamente, 5%. Como a distribuição "t" é uma distribuição simétrica, nós podemos distribuir esses 5% igualmente dos dois lados, ou seja, 2,5% são os valores da "t" maiores que 1,96 e 2,5% são os valores da "t" menores que menos 1,96. Ou seja, esses valores são possíveis, mas com uma chance muito baixa. Veremos um exemplo desse teste para a elasticidade-renda da carne usando dados da pesquisa de orçamentos familiares do IBGE de 2009. Estimando o modelo "log-log", ou seja, o logaritmo da quantidade consumida de carne em função do logaritmo da renda dos consumidores, nós obtemos o seguinte modelo. Lembre-se de que no modelo "log-log", o parâmetro que acompanha o "x" é exatamente a elasticidade entre o consumo de carne e a renda. Assim, a elasticidade renda estimada, aqui, é de 0,10. Cada 1% a mais de renda, aumenta-se o consumo de carne em 0,10% por cento. Podemos, por exemplo, testar a hipótese de que a verdadeira elasticidade-renda seja zero contra a hipótese de que ela seja diferente de zero. A estatística "t", nesse caso, será, então, 0,1021 menos 0 (de "Beta j" sob "H0"), dividido por 0,0584, que é o erro padrão do nosso "Beta chapéu 1", ou seja, a estatística "t" é igual a 1,75. Nós temos, então, um n de 431 observações e dois parâmetros estimados, ou seja, o número de graus de liberdade deste modelo é de 429. Se desejamos um erro de 5%, nós podemos usar aquele 1,96 que vimos na tabela anterior. O gráfico que mostramos agora compara o valor da estatística "t" que encontramos (de 1,75) com o valor de 1,96 e menos 1,96. Como o valor de 1,75 é menor que 1,96, nós temos que a estatística "t" está dentro da área de não-rejeição da hipótese nula, ou seja, não podemos dizer que a elasticidade-renda da carne, para os brasileiros, seja diferente de zero. Poderíamos usar o mesmo modelo para testar se essa elasticidade-renda é igual a 1, por exemplo. Bens com elasticidades-renda maior que 1 são considerados bens de luxo, ou seja, para cada 1% a mais de renda, as pessoas consomem mais de 1% daquele produto. A estatística "t", então, para o teste da elasticidade-renda verdadeira ser igual a 1, contra a hipótese de que ela seja diferente de 1, será 0,1021 menos 1 dividido por 0,0584, o que gera o valor de menos 15,37. Como temos o mesmo número de graus de liberdade nesse modelo, nós vamos comparar novamente essa estatística "t" com os valores críticos que vimos, a 5% de erro. Note que o menos 15,37 é muito inferior ao menos 1,96, que é o valor crítico que consideramos, ou seja, ele pertence à área de rejeição da hipótese nula. A partir desse teste, então, rejeitamos a hipótese nula de uma elasticidade renda igual a 1. Usando o mesmo modelo, podemos também fazer um teste monocaudal. O que muda nesse teste é a forma como calculamos o valor crítico do teste. Um exemplo de teste monocaudal para o nosso modelo seria a hipótese nula de elasticidade-renda igual a zero contra uma hipótese alternativa de elasticidade-renda positiva. O que desejamos responder, com esse teste, é: será que a renda não influencia no consumo de carne ou será que ela, simplesmente, influencia positivamente, sem valor específico? Note que a estatística "t" é a mesma estatística "t" do teste bicaudal para elasticidade renda igual a zero. No entanto, agora, comparamos essa estatística "t" com o valor crítico de 1,645, ou seja, usamos apenas um lado da distribuição de probabilidade. Só que, agora, compararemos a nossa estatística "t" com o valor crítico de menos 1,645. Isso porque jogamos todo o nosso erro para apenas um lado da distribuição. Assim, comparamos com o valor crítico diferente, de 1,645. Note que nós acumulamos todo o nosso erro apenas de um lado da distribuição. A comparação com esse valor crítico, agora, nos diz que rejeitamos a hipótese nula em favor da hipótese alternativa, de que essa elasticidade-renda seja positiva. Além de usar a estatística "t" para testar hipóteses sobre os nossos parâmetros, nós podemos, também, usar a medida de "p-valor". O "p-valor" mede o menor nível de significância ao qual a hipótese nula seria rejeitada. Ou seja, definimos o "p-valor" da seguinte forma. Ele vai ser igual à probabilidade do módulo de uma variável T (maiúsculo), que é uma variável aleatória qualquer com a distribuição "t de Student", ser maior que a estatística "t" que calculamos. Assim, ao invés de compararmos com o valor crítico da distribuição "t", nós calculamos o valor de "Alfa linha" usando a própria estatística do teste. Se temos "p-valores" muito pequenos, nós temos muita evidência contra "H0". Veja, aqui, comparação no gráfico. Para um "p-valor" muito pequenininho, isso significa que a estatística "t", em módulo, é muito grande, ou seja, a estatística "t" estaria na área de rejeição da hipótese nula. Para um "p-valor" muito grande, nós temos pouca evidência contra a hipótese nula. Ou seja, um "p-valor" muito grande é obtido quando temos estatísticas "t" muito próximas a zero. Nesse caso, estamos na região de aceitação da hipótese nula, ou seja, temos pouca evidência contra ela. Antes de prosseguirmos para a próxima aula, vale a pena discutirmos um pouco como o tamanho da amostra influencia no teste de hipótese. Note que, conforme "n" cresce, ou seja, o número de observações da nossa amostra é muito grande, temos que a variância do nosso estimador diminui. Nesses casos, é aconselhável usarmos um critério mais rigoroso para o nível de erro, ou seja, "Alfas" menores, em torno de 1%. Outra discussão importante quando falamos de inferência é a diferença entre a significância econômica e a significância estatística de determinado parâmetro. Podemos ter um efeito que seja estatisticamente significante, mas com baixa significância econômica. Um efeito estatísticamente significante é um efeito diferente de zero, ou seja, positivo ou negativo. Em geral, detectamos a significância estatística fazendo um teste bicaudal com hipótese nula de que aquele parâmetro seja zero. A significância econômica diz respeito ao tamanho do efeito, ou seja, o tamanho do estimador encontrado. Ou seja, podemos ter uma elasticidade-renda de carne pequena, mas diferente de zero. Podemos, também, ter estimadores bastante altos, mas que não são estatisticamente significantes, ou seja, não são diferentes de zero, estatisticamente. Não podemos dizer que aquele parâmetro seja diferente de zero, pode ser que não haja efeito, mesmo com o estimador de alta magnitude. É sempre importante considerarmos os resultados dos testes estatísticos sobre os parâmetros para inferir o efeito de uma variável em outra. [MÚSICA] [MÚSICA] [MÚSICA]