[R-br] modelagem (com glmer) depois de scale() de variáveis contínuas

walmes . walmeszeviani em gmail.com
Sábado Julho 12 01:21:30 BRT 2014


A padronização é uma maneira de reduzir a multicolinearidade entre as
variáveis que definem a matriz do seu modelo. Os algoritmos de otimização
são ganham performance ou são mais bem sucedidos quando a função objetivo é
orotogonal em seus argumentos (os parâmetros no caso). Em outras palavras,
ter uma matriz X com colunas ortogonais implica que X'X seja diagonal. X'X,
e/ou sua inversa, surge nas derivadas parciais para montar o hessiano
usando em métodos Newton Raphson. Os livros mais antigos de estatística
experimental inclusive trazem tabelas de polinômios ortogonais que era o
que permitia ajustar se polinômios de grau superior a dois na época com
pouco recurso computacional disponível. Se você padroniza (média 0
variância 1) uma variável para usá-la num modelo, como trata se de uma
transformação linear, as medidas de ajuste do modelo são as mesmas. O que
precisa ser feito é na hora da predição, ao criar o grid de valores para
predizer subtrair da média e dividir pelo desvio padrão dos dados passador
para o modelo. A interpretação dos betas também muda. Se beta_1 = 2 entoa
isso é a mudança em y para uma unidade na escala padronizada de x, quantas
unidades de x original são necessárias para dar uma unidade padronizada
calcula a partir da média e desvio padrão usados ao padronizar.

À disposição.
Walmes.


-- 
==========================================================================
Walmes Marques Zeviani
LEG (Laboratório de Estatística e Geoinformação, 25.450418 S, 49.231759 W)
Departamento de Estatística - Universidade Federal do Paraná
fone: (+55) 41 3361 3573
skype: walmeszeviani
homepage: http://www.leg.ufpr.br/~walmes
linux user number: 531218
==========================================================================
-------------- Próxima Parte ----------
Um anexo em HTML foi limpo...
URL: <http://listas.inf.ufpr.br/pipermail/r-br/attachments/20140712/06d39da6/attachment.html>


Mais detalhes sobre a lista de discussão R-br