<div dir="ltr"><div class="gmail_default" style="font-family:trebuchet ms,sans-serif">Lá de modelos lineares tem-se que, por exemplo, com um fator de K níveis categóricos, pode-se estimar apenas K quantidades. Quando escrevemos o modelo, por exemplo,<br>
<br></div><div class="gmail_default" style="font-family:trebuchet ms,sans-serif">y = mu+alpha_i, i = 1,...,K,<br><br></div><div class="gmail_default" style="font-family:trebuchet ms,sans-serif">especificamos K+1 quantidades à serem estimadas (K alphas + mu). Mas não é possível estimar K+1 e sim apenas K. O que se faz é supor que algo, 1 no caso, é conhecido. O nome mais comum para isso é restrição paramétrica. O R assume por padrão que o nível i=1 tem alpha=0 (restrição zerar primeiro nível). Outros assumem que o nível i=K tem alpha=0 (restrição zerar último nível). Outros assumem que a soma dos alphas é zero (restrição soma zero). E existem outras restrições. Mu e alpha são portanto representadores genéricos e sua interpretação é dependente da parametrização (ou restrição paramétrica) adotada.<br>
<br></div><div class="gmail_default" style="font-family:trebuchet ms,sans-serif">Para resumir, essa saída não vai te dar nunca valores correspondentes à todos os níveis. Reflita e verá que têm pouca utilidade prática os efeitos (mu, alpha_1, alpha_2, etc). São úteis para testar hipóteses, tipo, todos os alphas são iguais à zero? Se forem eu não rejeito à hipótese nula do efeito de tratamentos, seja qual for a parametrização. Mas são as estimativas individuais que são interpretáveis (mu+alpha_1, mu+alpha_2, etc). E estas você calcula por fora, com a doBy::popMeans(), com a multcomp::glht() ou com operações matriciais apropriadas. E além das estimativas existe interesse em contrastes entre elas que saem basicamente da mesma forma. Outro ponto é que são estimativas na escala do preditor linear e não da resposta, existe uma função de ligação separando as coisas.<br>
<br>À disposição.<br>Walmes.<br></div></div>