Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Estimação de Parâmetros em Modelos Lineares: Exercícios de Estatística Linear, Notas de estudo de Física

Exercícios relacionados à estimação de parâmetros em modelos lineares, incluindo exercícios sobre estimadores centrados e excêntricos, equações de regressão linearizada, estimação por nls e modelos lineares generalizados. Além disso, o documento aborda hipóteses clássicas em modelos de regressão linear e generalizada, autocorrelação de perturbações e distribuições de probabilidade para variáveis aleatórias.

Tipologia: Notas de estudo

2010

Compartilhado em 16/05/2010

fabricio-mendes-damasceno-11
fabricio-mendes-damasceno-11 🇧🇷

4.7

(27)

79 documentos

1 / 24

Documentos relacionados


Pré-visualização parcial do texto

Baixe Estimação de Parâmetros em Modelos Lineares: Exercícios de Estatística Linear e outras Notas de estudo em PDF para Física, somente na Docsity! ESTIMAÇÃO PELO MÉTODO ORDINÁRIO DE MÍNIMOS QUADRADOS (OLS) No quadro abaixo, reproduzem-se os resultados de uma estimação realizada com o programa informático EViews. Alguma da informação fornecida pelo programa foi suprimida; reconstitua-a, apresentando os cálculos. Dependent Variable: Y Method: Least Squares Sample: 1 32 Included observations: 32 Variable Coefficient Std. Error t-Statistic Prob. C 5.416354 3.819416 ? ? X2 0.830504 0.064008 ? ? R-squared ? Mean dependent var 49.88458 Adjusted R-squared ? S.E. of regression ? Sum squared resid 2728.510 F-statistic ? Durbin-Watson stat 2.096630 Prob(F-statistic) ? E, relativamente ao exemplo do quadro seguinte, conseguiria também reconstituir a informação ocultada? Justifique. Dependent Variable: Y Method: Least Squares Sample: 1 28 Included observations: 28 Variable Coefficient Std. Error t-Statistic Prob. C 7.129457 4.065095 ? ? X2 0.838313 0.064644 ? ? X3 -0.056367 0.076669 ? ? R-squared ? Mean dependent var 49.90676 Adjusted R-squared ? S.E. of regression ? Sum squared resid 2170.443 F-statistic ? Durbin-Watson stat 2.336293 Prob(F-statistic) ? Suponha ter dois estimadores independentes e cêntricos, 1̂ e 2̂ , de um certo parâmetro, , com variâncias diferentes, v1 e v2. Qual dos estimadores ̂ definidos pela combinação linear ̂ = c1 1̂ + c2 2̂ 1 2 é o estimador cêntrico de variância mínima de ? (Greene (2003), exercício 1, p.62) Considere o modelo de regressão linear Yi = β1 + β2 Xi + ui, em que as perturbações ui têm função densidade de probabilidade f(ui) = iue 1   − , ui  0,  > 0. Note-se que se assume serem não negativas todas as perturbações e que é E(ui) =  e Var(ui) = 2; supõe-se também independência entre Xi e ui. Prove que o estimador OLS de β2 é cêntrico e que o estimador OLS de β1 é excêntrico. (Greene (2003), exercício 4, p.63) Considere o modelo de regressão linear Yi = β1 + β2 Xi + ui sob as hipóteses clássicas e a amostra {(Xi, Yi), i = 1, 2, ..., n}. Verifique se são cêntricos os estimadores de β2 definidos nas alíneas seguintes: a) ji ji 2 XX YY~ − − = , quaisquer que sejam i e j, i  j, e Xi  Xj; b)  = − − − − − = n 2i 1ii 1ii 2 XX YY 1n 1~  , se Xi  Xi-1, para todo i = 2, 3, ..., n; c)  = = n 1i i i 2 X Y n 1~  , supondo Xi  0, qualquer que seja i; d) x y x ~ n 1i 3 i n 1i i 2 i 2   = == , em que xi = Xi – X , yi = Yi – Y e  = n 1i 3 ix  0. 3 4 Dependent Variable: Y Method: Least Squares Sample: 18 28 Included observations: 11 Variable Coefficient Std. Error t-Statistic Prob. C -15.56554 67.70570 -0.229900 0.8239 X2 0.398252 0.734685 0.542072 0.6025 X3 0.794632 3.230872 0.245950 0.8119 R-squared 0.038309 Mean dependent var 22.04618 Adjusted R-squared -0.202113 S.D. dependent var 15.27112 S.E. of regression 16.74340 Akaike info criterion 8.700886 Sum squared resid 2242.732 Schwarz criterion 8.809403 Log likelihood -44.85487 F-statistic 0.159342 Durbin-Watson stat 2.308857 Prob(F-statistic) 0.855345 Os Quadros I a VI apresentam vários resultados obtidos na estimação do modelo Yt = β1 + β2 X2t + ut com base numa amostra de observações trimestrais. Quadro I: Dependent Variable: Y Method: Least Squares Sample: 1991:1 1995:4 Included observations: 20 Variable Coefficient Std. Error t-Statistic Prob. C 231.6756 305.0190 0.759545 0.4574 X2 1.238694 0.237148 5.223299 0.0001 R-squared 0.602499 Mean dependent var 1821.704 Adjusted R-squared 0.580415 S.D. dependent var 132.9225 S.E. of regression 86.10105 Akaike info criterion 11.84356 Sum squared resid 133441.0 Schwarz criterion 11.94313 Log likelihood -116.4356 F-statistic 27.28285 Durbin-Watson stat 3.277505 Prob(F-statistic) 0.000057 a) O Quadro I mostra os resultados da estimação do modelo por OLS e o Quadro II o correlograma dos resíduos dessa regressão. Que conclui dessas peças quanto à eventual existência e padrão de autocorrelação das perturbações do modelo? b) Relativamente aos quadros restantes, explique o propósito de cada uma das regressões, justifique os procedimentos usados e exponha as conclusões relevantes que retira da análise. (A variável dependente RESIDEQ01 refere-se aos resíduos de estimação da equação no Quadro I.) 4 Quadro II: Sample: 1991:1 1995:4 Included observations: 20 Autocorrelation Partial Correlation AC PAC Q-Stat Prob *****| . | *****| . | 1 -0.668 -0.668 10.327 0.001 . |***** | . |**. | 2 0.626 0.326 19.917 0.000 ***| . | . |* . | 3 -0.441 0.118 24.952 0.000 . |* . | ****| . | 4 0.150 -0.459 25.569 0.000 .**| . | ***| . | 5 -0.201 -0.344 26.758 0.000 . | . | . |* . | 6 0.044 0.105 26.817 0.000 .**| . | ***| . | 7 -0.205 -0.359 28.233 0.000 . |**. | . *| . | 8 0.234 -0.148 30.237 0.000 .**| . | . *| . | 9 -0.299 -0.110 33.813 0.000 . |*** | . | . | 10 0.408 -0.035 41.127 0.000 .**| . | . *| . | 11 -0.300 -0.066 45.522 0.000 . |**. | .**| . | 12 0.297 -0.218 50.390 0.000 Quadro III: Dependent Variable: Y Method: Least Squares Sample(adjusted): 1991:2 1995:4 Included observations: 19 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. C -179.0290 286.3803 -0.625144 0.5413 Y(-1) -0.745277 0.175208 -4.253670 0.0007 X2 1.328607 0.200320 6.632436 0.0000 X2(-1) 1.295253 0.307141 4.217126 0.0007 R-squared 0.827816 Mean dependent var 1831.028 Adjusted R-squared 0.793379 S.D. dependent var 129.6721 S.E. of regression 58.94321 Akaike info criterion 11.17569 Sum squared resid 52114.53 Schwarz criterion 11.37452 Log likelihood -102.1691 F-statistic 24.03867 Durbin-Watson stat 1.516912 Prob(F-statistic) 0.000006 Quadro IV: Dependent Variable: RESIDEQ01 Method: Least Squares Sample(adjusted): 1991:2 1995:4 Included observations: 19 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. RESIDEQ01(-1) -0.679671 0.169083 -4.019752 0.0008 R-squared 0.471869 Mean dependent var 3.871054 Adjusted R-squared 0.471869 S.D. dependent var 84.24392 S.E. of regression 61.22227 Akaike info criterion 11.11810 Sum squared resid 67467.00 Schwarz criterion 11.16780 Log likelihood -104.6219 Durbin-Watson stat 1.513032 Quadro V: Dependent Variable: Y+0.745277*Y(-1) Method: Least Squares Sample(adjusted): 1991:2 1995:4 Included observations: 19 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. C -95.52165 262.0740 -0.364483 0.7200 X2+0.745277*X2(-1) 1.464815 0.117056 12.51383 0.0000 R-squared 0.902071 Mean dependent var 3179.940 Adjusted R-squared 0.896311 S.D. dependent var 177.0701 S.E. of regression 57.01797 Akaike info criterion 11.02391 Sum squared resid 55267.83 Schwarz criterion 11.12333 Log likelihood -102.7272 F-statistic 156.5959 Durbin-Watson stat 1.583191 Prob(F-statistic) 0.000000 Quadro VI: Dependent Variable: Y+0.679671*Y(-1) Method: Least Squares Sample(adjusted): 1991:2 1995:4 Included observations: 19 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. C -65.78312 263.0142 -0.250112 0.8055 X2+0.679671*X2(-1) 1.452628 0.122027 11.90411 0.0000 R-squared 0.892885 Mean dependent var 3061.197 Adjusted R-squared 0.886584 S.D. dependent var 171.3839 S.E. of regression 57.71744 Akaike info criterion 11.04830 Sum squared resid 56632.16 Schwarz criterion 11.14771 Log likelihood -102.9588 F-statistic 141.7079 Durbin-Watson stat 1.796863 Prob(F-statistic) 0.000000 Considere o modelo Yi = Xi  + ui, em que Yi é uma variável binária codificada com os valores 1 ou 0 e ui é um erro aleatório com média nula. a) Mostre por que é esse modelo chamado um modelo linear de probabilidade. b) Que problemas suscita a estimação do modelo por OLS? c) Descreva com pormenor o procedimento que seguiria para estimar o modelo pelo método GLS exequível. 5 Quadro I: Dependent Variable: Y Method: Least Squares Sample: 1 1000 Included observations: 1000 Variable Coefficient Std. Error t-Statistic Prob. C 50.63595 0.686223 73.78934 0.0000 X2 -0.520070 0.011138 -46.69320 0.0000 X3 0.264491 0.008898 29.72633 0.0000 R-squared 0.758560 Mean dependent var 32.11145 Adjusted R-squared 0.758076 S.D. dependent var 20.73322 S.E. of regression 10.19779 Akaike info criterion 7.485215 Sum squared resid 103683.0 Schwarz criterion 7.499939 Log likelihood -3739.608 F-statistic 1566.198 Durbin-Watson stat 2.051965 Prob(F-statistic) 0.000000 c) Partindo de estimativas iniciais  ˆˆ = = 0, procedeu~se à estimação do modelo pelo método da regressão linearizada. Os resultados das três primeiras iterações constam dos Quadros II, III e IV. Comente os aspectos que considere relevantes nesses resultados. Quadro II: Dependent Variable: Y0_1 Method: Least Squares Sample: 1 1000 Included observations: 1000 Variable Coefficient Std. Error t-Statistic Prob. C 58.18748 0.875083 66.49369 0.0000 Z0_1 -0.528023 0.015285 -34.54464 0.0000 R-squared 0.544569 Mean dependent var 32.11145 Adjusted R-squared 0.544113 S.D. dependent var 20.73322 S.E. of regression 13.99895 Akaike info criterion 8.117840 Sum squared resid 195578.7 Schwarz criterion 8.127655 Log likelihood -4056.920 F-statistic 1193.332 Durbin-Watson stat 2.120294 Prob(F-statistic) 0.000000 Quadro III: Dependent Variable: Y0_2 Method: Least Squares Sample: 1 1000 Included observations: 1000 Variable Coefficient Std. Error t-Statistic Prob. C 50.40196 0.350677 143.7274 0.0000 Z0_2 -0.516523 0.006638 -77.80877 0.0000 R-squared 0.858484 Mean dependent var 39.65774 Adjusted R-squared 0.858342 S.D. dependent var 27.08336 S.E. of regression 10.19349 Akaike info criterion 7.483373 Sum squared resid 103699.4 Schwarz criterion 7.493189 Log likelihood -3739.687 F-statistic 6054.204 Durbin-Watson stat 2.050720 Prob(F-statistic) 0.000000 Quadro IV: Dependent Variable: Y0_3 Method: Least Squares Sample: 1 1000 Included observations: 1000 Variable Coefficient Std. Error t-Statistic Prob. C 50.39727 0.353130 142.7157 0.0000 Z0_3 -0.516471 0.006731 -76.73225 0.0000 R-squared 0.855065 Mean dependent var 39.33261 Adjusted R-squared 0.854920 S.D. dependent var 26.76209 S.E. of regression 10.19353 Akaike info criterion 7.483381 Sum squared resid 103700.1 Schwarz criterion 7.493196 Log likelihood -3739.690 F-statistic 5887.838 Durbin-Watson stat 2.050674 Prob(F-statistic) 0.000000 d) Por último, procedeu-se à estimação do modelo do enunciado por NLS; os resultados figuram no quadro abaixo. Comente-os. Quadro V: Dependent Variable: Y Method: Least Squares Sample: 1 1000 Included observations: 1000 Convergence achieved after 3 iterations Y=C(1)+C(2)*X2+(C(2)^2)*X3 Coefficient Std. Error t-Statistic Prob. C(1) 50.39727 0.353142 142.7111 0.0000 C(2) -0.516471 0.006731 -76.72743 0.0000 R-squared 0.758521 Mean dependent var 32.11145 Adjusted R-squared 0.758279 S.D. dependent var 20.73322 S.E. of regression 10.19353 Akaike info criterion 7.483381 Sum squared resid 103700.1 Schwarz criterion 7.493196 Log likelihood -3739.690 Durbin-Watson stat 2.050674 No exercício 4 da secção sobre estimação por GLS citam-se vários resultados da estimação do modelo Yt = β1 + β2 X2t + ut com uma amostra de observações trimestrais; o quadro da página seguinte exibe resultados adicionais da análise, desta vez obtidos por recurso a estimadores NLS. a) Justifique o procedimento adoptado na regressão a que se refere esse quadro e interprete a informação obtida. 3 b) Confronte a metodologia seguida nessa regressão com a que resultaria do primeiro passo do método de Durbin para estimação de modelos com autocorrelação. Dependent Variable: Y Method: Least Squares Sample(adjusted): 1991:2 1995:4 Included observations: 19 after adjusting endpoints Convergence achieved after 1 iterations Y=C(3)*Y(-1)+C(1)*(1-C(3))+C(2)*(X2-C(3)*X2(-1)) Coefficient Std. Error t-Statistic Prob. C(3) -0.796915 0.164606 -4.841358 0.0002 C(1) -65.53427 152.8190 -0.428836 0.6738 C(2) 1.473277 0.119173 12.36254 0.0000 R-squared 0.818488 Mean dependent var 1831.028 Adjusted R-squared 0.795800 S.D. dependent var 129.6721 S.E. of regression 58.59693 Akaike info criterion 11.12318 Sum squared resid 54937.61 Schwarz criterion 11.27230 Log likelihood -102.6702 Durbin-Watson stat 1.432553 Yi =      > contrário caso em,0 0Y se,1 *i , e admita que ui é uma variável aleatória com função de distribuição F(ui) = iue1 1 −+ . a) Prove que é       = = )|0Y(obPr )|1Y(obPr ln i i i i X X = Xi . Qual o interesse desse resultado? b) Para o caso particular Xi  = , qualquer que seja i, deduza o estimador ML de . c) No caso particular citado na alínea anterior, poderia usar o valor máximo da função logarítmica de verosimilhança para decidir qual das especificações probit ou logit seria mais adequada para uma dada amostra? Justifique. Na estimação do modelo Yt = β1 + β2 Xt + ut, t = 1, 2, ..., n, em que ut = ut-1, + t, sendo –1 < < 1 e { t} uma sequência de variáveis aleatórias independentes e identicamente distribuídas com média 0 e variância 2 , é frequentemente um problema a questão do tratamento a dar à primeira observação, (X1, Y1). a) Na transformação do modelo de forma a repor as hipóteses clássicas, uma proposta (devida a Prais e Winsten) é a de que a variável dependente do modelo transformado, *tY , seja definida por * tY =       =− =− − n ..., 3, 2, t para,YY 1 t para,Y 1 1tt 1 2 e analogamente para *tX . Mostre que, de facto, a transformação de Prais-Winsten permite preservar a homoscedasticidade no modelo. 6 b) Mostre que, sob a hipótese adicional de normalidade de , são diferentes as funções de verosimilhança para estimação dos parâmetros β1, β2 e no modelo do enunciado e no modelo Yt – Yt-1 = β1 (1 – ) + β2 (Xt – Xt-1) + t, com t = 2, 3, ..., n. Relativamente a cada uma de um grupo de 100 mulheres casadas, dispõe-se de informação quanto às variáveis seguintes: NC: número de filhos; HW: salário do marido; ED: número de anos de educação completados; OW: salário da mulher. A variável OW foi codificada com o valor 0 se a mulher não tinha emprego remunerado. Admite-se que a decisão de participação da mulher no mercado de trabalho depende do número de filhos e do salário do marido, mas não do nível de escolaridade completado pela mulher, enquanto o salário auferido por trabalho no mercado depende apenas desse nível de habilitações (mas não do número de filhos ou do salário do cônjuge). Os quadros seguintes apresentam um conjunto de resultados obtidos na análise dessa amostra. Quadro I: Dependent Variable: OW Method: Least Squares Sample(adjusted): 13 100 IF OW>0 Included observations: 61 after adjusting endpoints Variable Coefficient Std. Error t-Statistic Prob. C 2.161649 0.294084 7.350440 0.0000 ED 0.870329 0.028929 30.08534 0.0000 R-squared 0.938805 Mean dependent var 10.18009 Adjusted R-squared 0.937768 S.D. dependent var 3.891649 S.E. of regression 0.970827 Akaike info criterion 2.810901 Sum squared resid 55.60785 Schwarz criterion 2.880110 Log likelihood -83.73249 F-statistic 905.1278 Durbin-Watson stat 2.482569 Prob(F-statistic) 0.000000 a) Que objecções lhe suscitam os resultados apresentados nos Quadros I e II? 7 Quadro II: Dependent Variable: OW Method: Least Squares Sample: 1 100 Included observations: 100 Variable Coefficient Std. Error t-Statistic Prob. C 0.715668 1.264298 0.566060 0.5726 ED 0.604421 0.126360 4.783313 0.0000 R-squared 0.189279 Mean dependent var 6.209855 Adjusted R-squared 0.181006 S.D. dependent var 5.838011 S.E. of regression 5.283298 Akaike info criterion 6.186776 Sum squared resid 2735.498 Schwarz criterion 6.238879 Log likelihood -307.3388 F-statistic 22.88008 Durbin-Watson stat 0.403324 Prob(F-statistic) 0.000006 b) O Quadro III refere-se a um modelo probit em que a variável dependente, PART, é uma variável binária que assume o valor 1 se a mulher tem trabalho no mercado ou o valor 0 em caso contrário. Para uma mulher cujo marido tem um salário de 20, havendo um filho do casal, que influência estima venha a ter o nascimento do segundo filho sobre a participação no mercado de trabalho? E que influência estima se desse parto resultar um par de gémeos? Quadro III: Dependent Variable: PART Method: ML - Binary Probit Sample: 1 100 Included observations: 100 Convergence achieved after 5 iterations Covariance matrix computed using second derivatives Variable Coefficient Std. Error z-Statistic Prob. C 5.403366 0.925919 5.835680 0.0000 NC -1.214181 0.249816 -4.860308 0.0000 HW -0.215718 0.043715 -4.934623 0.0000 Mean dependent var 0.610000 S.D. dependent var 0.490207 S.E. of regression 0.344499 Akaike info criterion 0.743542 Sum squared resid 11.51190 Schwarz criterion 0.821697 Log likelihood -34.17708 Hannan-Quinn criter. 0.775172 Restr. log likelihood -66.87481 Avg. log likelihood -0.341771 LR statistic (2 df) 65.39546 McFadden R-squared 0.488939 Probability(LR stat) 6.33E-15 c) O Quadro IV, por sua vez, apresenta resultados da estimação de um modelo tobit para os salários. Especifique completamente o modelo e escreva a função de verosimilhança em que se baseou a estimação. d) O Quadro V contém resultados da estimação do modelo pelo método de Heckman em dois passos. Descreva o procedimento seguido. Que vantagens terá esse método sobre as alternativas? Quadro II: Dependent Variable: Y Method: Two-Stage Least Squares Sample(adjusted): 1982:1 1996:4 Included observations: 60 after adjusting endpoints Instrument list: C X2 X2(-1) X2(-2) X2(-3) X2(-4) Variable Coefficient Std. Error t-Statistic Prob. C 42.31340 13.38106 3.162186 0.0025 Y(-1) 0.218346 0.168281 1.297505 0.1997 X2 0.142596 0.026517 5.377637 0.0000 R-squared 0.534760 Mean dependent var 79.26837 Adjusted R-squared 0.518435 S.D. dependent var 10.66605 S.E. of regression 7.401693 Sum squared resid 3122.748 F-statistic 16.52460 Durbin-Watson stat 0.126065 Prob(F-statistic) 0.000002 b) O Quadro II exibe resultados da estimação do modelo pelo método IV. Parece- lhe adequada a escolha das variáveis instrumentais usadas? Justifique. c) Descreva, com rigor, o processo de estimação pelo método bietápico de mínimos quadrados que lhe permitiria obter as mesmas estimativas dos coeficientes β1, β2 e β3 que no Quadro II. ESTIMAÇÃO PELO MÉTODO DOS MOMENTOS GENERALIZADO (GMM) Retome o exemplo da questão 2 na secção sobre a estimação IV. Os Quadros I e II fornecem resultados complementares. Quadro I: Dependent Variable: Y Method: Generalized Method of Moments Sample(adjusted): 1982:1 1996:4 Included observations: 60 after adjusting endpoints No prewhitening Bandwidth: Fixed (3) Kernel: Bartlett Convergence achieved after: 7 weight matricies, 8 total coef iterations Instrument list: C X2 X2(-1) X2(-2) X2(-3) X2(-4) Variable Coefficient Std. Error t-Statistic Prob. C 42.71860 11.82449 3.612721 0.0006 Y(-1) 0.229977 0.116714 1.970430 0.0537 X2 0.136466 0.027361 4.987645 0.0000 R-squared 0.544464 Mean dependent var 79.26837 Adjusted R-squared 0.528480 S.D. dependent var 10.66605 S.E. of regression 7.324093 Sum squared resid 3057.614 Durbin-Watson stat 0.137141 J-statistic 0.039943 Quadro II: Dependent Variable: Y Method: Generalized Method of Moments Sample(adjusted): 1981:2 1996:4 Included observations: 63 after adjusting endpoints No prewhitening Bandwidth: Fixed (3) Kernel: Bartlett Convergence achieved after: 1 weight matrix, 2 total coef iterations Instrument list: C X2 X2(-1) Variable Coefficient Std. Error t-Statistic Prob. C 42.10643 13.89721 3.029847 0.0036 Y(-1) 0.222421 0.145794 1.525579 0.1324 X2 0.141930 0.031298 4.534820 0.0000 R-squared 0.568753 Mean dependent var 78.73550 Adjusted R-squared 0.554378 S.D. dependent var 10.91760 S.E. of regression 7.288038 Sum squared resid 3186.930 Durbin-Watson stat 0.157917 J-statistic 3.30E-27 a) As estimativas obtidas pelo método IV (ver Quadro II na questão supracitada da secção sobre esse método) e pelo método GMM (Quadro I desta questão) são diferentes. Explique porquê. 1 b) A avaliar pela estatística J (Quadro I), parecem~lhe adequadas as restrições de sobre-identificação impostas na estimação? Justifique. c) No Quadro II, são apresentados resultados da estimação GMM do modelo com um conjunto diferente de variáveis instrumentais. Discuta a estatística J fornecida nesse quadro. No modelo probit, sabe-se que é E(Yi|Xi) = (Xi ), em que, por (.), se designou a função cumulativa de distribuição normal reduzida. Poderia, então, usar a condição de ortogonalidade E[Yi – (Xi )] = 0 como base para a estimação GMM dos coeficientes do modelo? Discuta a questão. Seja Y uma variável com distribuição do qui-quadrado com p graus de liberdade. a) Sabe-se que é E(Y) = p. Qual seria o estimador de p pelo método dos momentos? b) Também é Var(Y) = 2p. Se usasse esta condição, qual seria o estimador de p pelo método dos momentos? c) Escreva as condições de ortogonalidade e os momentos amostrais correspondentes às condições E(Y) = p e Var(Y) = 2p. Seja {Y1, Y2, ..., Yn} uma amostra aleatória de uma variável Y com distribuição t de Student com p graus de liberdade. a) Planeia-se usar = iYn 1 Y como estimador do parâmetro p. Que pensa disso? b) Sugira um método alternativo para estimação de p. Justifique-o. 2 3 4
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved