class: center, middle, inverse, title-slide .title[ # MODELOS LINEARES GENERALIZADOS STA13829 ] .subtitle[ ## Técnicas de Diagnóstico e Qualidade do Ajuste ] .author[ ### Nátaly A. Jiménez Monroy ] .institute[ ### LECON/DEST - UFES ] --- [//]: <> (https://pkg.garrickadenbuie.com/extra-awesome-xaringan/intro/index.html#1) [//]: <> (https://pkg.garrickadenbuie.com/xaringanthemer/articles/xaringanthemer.html) [//]: <> (https://www.biostatistics.dk/talks/CopenhagenRuseRs-2019/index.html#1) [//]: <> (https://rstudio-education.github.io/sharing-short-notice/#1) [//]: <> (https://www.kirenz.com/slides/xaringan-demo-slides.html#1) [//]: <> (https://github.com/yihui/xaringan/issues/26) [//]: <> (https://github.com/emitanaka/anicon) [//]: <> (https://github.com/mitchelloharawild/icons) [//]: <> (https://slides.yihui.org/2020-genentech-rmarkdown.html#1) [//]: <> (https://github.com/gadenbuie/xaringanExtra) [//]: <> (class: center, middle, animated, slideInRight) class: animated, slideInRight <style> body {text-align: justify} </style> <!-- Justify text. --> # Métodos de diagnóstico - I Os objetivos são: - Verificar se há afastamentos sérios de suposições feitas para o modelo: - Da distribuição da variável resposta. - Ausência de alguma variável explicativa no modelo ou termos (quadrático, cúbico) de variáveis incluídas no modelo. - Se há indícios de correlação entre as observações. - Adequação da função de ligação. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn # Métodos de diagnóstico - II - Detectar observações atípicas que destoam do conjunto: - **<span style="color:orange">Aberrantes</span>**: mal ajustadas com resíduos altos. -- - **<span style="color:orange">Alavanca</span>**: posicionadas em regiões remotas no subespaço de X. -- - **<span style="color:orange">Influentes</span>**: com influência desproporcional nas estimativas dos coeficientes. -- >**Observação**: As observações atípicas podem ter mais de uma classificação (aberrante/alavanca/influente). --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Pontos aberrantes, influentes e de alavanca no modelo Normal - I <div class="figure" style="text-align: center"> <img src="images/Pontos1.png" alt=" " width="50%" /> <p class="caption"> </p> </div> --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Pontos aberrantes, influentes e de alavanca no modelo Normal - II - Na Figura 1.4a temos os pontos alinhados sem nenhum tipo de perturbação. -- - Na Figura 1.4b perturbamos o ponto `\(\#3\)` fazendo-o **<span style="color:orange">aberrante</span>**. Note que a exclusão do mesmo (reta pontilhada) altera apenas o intercepto, isto é, os valores ajustados. É um ponto que não está muito afastado dos demais, logo tem um valor para `\(h_{ii}\)` relativamente pequeno. -- - Na Figura 1.4c, perturbamos o ponto `\(\#5\)` de modo que o mesmo fique mais afastado no subespaço gerado pelas colunas da matriz X. É um ponto de **<span style="color:orange">alavanca</span>**, todavia a eliminação do mesmo não muda praticamente nada nas estimativas dos parâmetros. Como é um ponto com `\(h_{ii}\)` relativamente alto, as variâncias dos valores ajustados dos pontos próximos ao mesmo serão maiores do que as variâncias dos valores ajustados correspondentes aos demais pontos. -- - Na Figura 1.4d, perturbamos novamente o ponto `\(\#5\)` fazendo-o agora **<span style="color:orange">influente</span>** e também alavanca. O mesmo, além de mudar a estimativa da inclinação da reta ajustada, continua mais afastado do que os demais. -- >**Observação**: Boa parte dos métodos de diagnóstico em MLGs configuram extensões dos procedimentos utilizados em regressão linear. No entanto, deve-se ter cautela quanto ao uso desses métodos em MLGs pois alguns resultados dependem fortemente das propriedades do modelo proposto. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Pontos de alavanca no modelo Normal - I No modelo de regressão linear normal `$$\hat{\boldsymbol{y}} = \hat{\boldsymbol{\mu}} = X\hat{\boldsymbol{\beta}}.$$` Como `$$\hat{\boldsymbol{\beta}} = (X'X)^{-1} X' \boldsymbol{y},$$` então <div class="math"> \[\begin{align*} \hat{\boldsymbol{y}} = \hat{\boldsymbol{\mu}} &= X\hat{\boldsymbol{\beta}}\\ &= X (X'X)^{-1} X' \boldsymbol{y}\\ &= Hy, \end{align*}\] </div> em que `$$H = X (X'X)^{-1} X'.$$` --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Pontos de alavanca no modelo Normal - II A matriz `\(H\)`, conhecida por **<span style="color:orange">matriz hat</span>**, é - simétrica, -- - idempotente, -- - a matriz de projeção ortogonal de vetores do `\(\mathbb{R}^n\)` no subespaço gerado pelas colunas da matriz `\(X\)`. -- >**Observação**: Por ser idempotente, temos que <div class="math"> \[\begin{align*} \text{posto}(H) &= \text{tr}(H)\\ &= \sum_{i = 1}^n h_{ii}\\ &= p. \end{align*}\] </div> --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Pontos de alavanca no modelo Normal - III Hoaglin e Welsch (1978), definiram o que chamaram de pontos de alavanca, àqueles que - estão associados à análise da matriz de projeção H. -- - têm uma influência desproporcional no próprio valor ajustado `\(\hat{y}_i\)`, -- - conhecida por matriz *hat*, -- - em geral têm um perfil diferente dos demais pontos no que se refere aos valores das variáveis explicativas. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Pontos de alavanca no modelo Normal - IV Supondo que todos os pontos exerçam a mesma influência sobre os valores ajustados, podemos esperar que `\(h_{ii}\)` esteja próximo de `$$\frac{tr(H)}{n} = \frac{p}{n}.$$` -- Pontos tais que `\(h_{ii} > 2\frac{p}{n}\)`, são conhecidos como pontos de alavanca ou de alto *leverage*. -- A influência de `\(y_i\)` sobre o próprio valor ajustado de `\(\hat{y}_i\)`, pode ser bem representada pela derivada `$$\frac{\partial \hat{y}_i}{\partial y_i}$$` que coincide com `\(h_{ii}\)` no caso normal linear. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Extensão de ponto de alavanca no MLG - I - **Primeira sugestão:** Wei, Hu e Fung (1998) propuseram uma forma bastante geral para obtenção da matriz, que pode ser aplicada em diversas situações de estimação: `$$\frac{\partial \hat{\boldsymbol{y}}}{\partial \boldsymbol{y}}$$` quando a resposta é contínua. No caso dos MLGs para `\(\phi\)` conhecido, a matriz `\(\frac{\partial \hat{\boldsymbol{y}}}{\partial \boldsymbol{y}}\)` pode ser obtida de forma geral como `$$\widehat{GL} = \frac{\partial \hat{\boldsymbol{y}}}{\partial \boldsymbol{y}}\cong \widehat{N} X(X^T \widehat{W} X)^{-1} X^T \widehat{V}^{-1} \hat{N},$$` -- em que `\(N = diag\{ \partial \mu_1/\partial \eta_1,\ldots,\partial \mu_n/\partial \eta_n\}\)`. Em particular, o elemento `\(\widehat{GL}_{ii}\)` pode ser expresso na forma $$ \widehat{GL}_{ii} \cong \hat{\omega}_i \boldsymbol{x}_i^T (X^T \widehat{W} X)^{-1} \boldsymbol{x}_i,$$ em que `\({\omega}_i = (\partial \mu_i/\partial \eta_i)^2/V_i\)`. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Extensão de ponto de alavanca no MLG - II - **Segunda sugestão:** Embora não coincida exatamente com a expressão anterior, exceto no caso de resposta contínua e ligação canônica, outra definição de pontos de alavanca é construída fazendo uma analogia entre a solução de máxima verossimilhança para `\(\boldsymbol{\hat{\beta}}\)` num MLG e a solução de mínimos quadrados de uma regressão normal linear ponderada. -- No processo iterativo de MLGs, na convergência, temos `$$\boldsymbol{\beta} = \left({X'}\widehat{W}X\right)^{-1} {X'} \widehat{W} \widehat{\boldsymbol{z}},$$` com `$$\hat{\boldsymbol{z}} = \hat{\boldsymbol{\eta}} + \widehat{W}^{-1/2} \widehat{V}^{-1/2} (\boldsymbol{y} - \hat{\boldsymbol{\mu}})$$` é a solução de mínimos quadrados ponderados da regressão `\(\boldsymbol{z}\)` contra `\(X\)` com pesos `\(W^{1/2}\)`. Então, `\(H\)` é a matriz de projeção `$$\widehat{H} = \widehat{W}^{1/2} X(X^T \widehat{W} X)^{-1} X^T \widehat{W}^{1/2}.$$` --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Extensão de ponto de alavanca no MLG - III **Importante:** - Pregibon (1981) sugere usar os elementos da diagonal `\(h_{ii}\)` de `\(H\)` e analisar os pontos que se destacam. -- - Para amostras grandes, `\(\widehat{h}_{ii} = \widehat{GL}_{ii}\)` e, portanto, `\(\widehat{H} = \widehat{GL}\)` coincidem. -- - No caso de ligação canônica essa igualdade vale para qualquer tamanho amostral. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ## Tipos de resíduos em Modelos Lineares Generalizados Um resíduo (denotado, genericamente, por `\(r_i\)`) é alguma medida de afastamento de uma observação `\((y_i)\)` para seu valor ajustado pelo modelo `\((\hat{\mu}_i)\)`: `$$r_i = q_i(y_i, \hat{\mu}_i),$$` sendo `\(q_i\)` alguma medida de diferença, usualmente escolhida para estabilizar a variância ou induzir simetria na distribuição amostral de `\(r_i\)`, a fim de garantir comparabilidade dos resíduos e possibilitar a detecção de resíduos discrepantes. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Resíduo ordinário O resíduo ordinário é simplesmente a diferença do valor observado para o valor ajustado para uma particular observação: `$$r_i = y_i - \hat{\mu}_i.$$` Os resíduos ordinários não têm variância constante, sendo de pouca serventia no diagnóstico de modelos lineares generalizados. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Resíduo de Pearson É o resíduo ordinário da solução de mínimos quadrados da regressão linear ponderada de `\(\hat{\boldsymbol{z}}\)` contra X, e define-se por: $$r_i^p = \frac{y_i - \hat{\mu}_i}{\sqrt{V(\hat{\mu}_i)}}, $$ em que `\(V(\hat{\mu}_i)\)` representa a função de variância do modelo calculada em `\(\hat{\mu}_i\)`. -- >**Observação:** - O resíduo de Pearson tem como desvantagem o fato de ter distribuição fortemente assimétrica para modelos não-normais. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Resíduo de Pearson Padronizado Define-se por: `$$r_i^{p^*} = t_{S_i} = \frac{\hat{\phi}^{1/2} (y_i - \hat{\mu}_i)}{\sqrt{V(\hat{\mu}_i) (1 - h_{ii})}},$$` sendo `\(h_{ii}\)` `\(i\)`-ésimo elemento da diagonal da matriz H: `$$\widehat{H} = \widehat{W}^{1/2} X(X^T \widehat{W} X)^{-1} X^T \widehat{W}^{1/2},$$` que é a solução matriz de projeção da solução de mínimos quadrados ponderados da regressão `\(\boldsymbol{z}\)` contra `\(X\)` com pesos `\(W^{1/2}\)`. -- >**Observação:** - Williams (1984) mostra através de estudos de Monte Carlo que a distribuição de `\(r_i^{p^*}\)` é em geral assimétrica, mesmo para grandes amostras. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Resíduo componente do desvio O resíduo componente do desvio para a `\(i\)`-ésima observação corresponde à contribuição dessa observação para a deviance do modelo. É uma medida de distância de `\(y_i\)` em relação a `\(\hat{\mu}_i\)` na escala do logaritmo da verossimilhança. $$r_i^d = t_{D_i} = \text{sinal}(y_i - \hat{\mu}_i) \; d^*(y_i, \hat{\mu}_i), $$ `\(\text{sinal}(x) = -1\)`, se `\(x < 0\)`, e `\(\text{sinal}(x) = +1\)`, se `\(x > 0\)`. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Resíduo componente do desvio padronizado O resíduo componente do desvio padronizado é dado por: <div class="math"> \[\begin{align*} r_i^{d^*} = t_{D_i^*}&= \text{sinal}(y_i - \hat{\mu}_i) \frac{d^*(y_i, \hat{\mu}_i)}{\sqrt{1-\hat{h}_{ii}}}\\ &= \text{sinal}(y_i - \hat{\mu}_i) \frac{\phi^{1/2} d(y_i, \hat{\mu}_i)}{\sqrt{1-\hat{h}_{ii}}}. \end{align*}\] </div> -- >**Observação:** - Williams (1984) verificou através de simulações que a distribuição de `\(t_{D_i^*}\)` tende a estar mais próxima da normalidade do que as distribuições dos demais resíduos. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Resíduo quantílico aleatorizado - I - Diferentemente do que acontece para os modelos lineares com erros normais, nas situações em que se tem uma variável resposta sem distribuição Normal, os resíduos, muitas vezes, não têm boa aproximação à distribuição Normal, ainda que o modelo se ajuste bem aos dados; -- - A falta de normalidade dos resíduos é particularmente notável na modelagem de dados discretos, sobretudo quando os dados assumem valores pequenos (Ex: Poisson, com taxa próxima de zero; Binomial, com probabilidade de sucesso próxima de zero ou um). -- - Propostos por Dunn e Smyth (1996), os resíduos quantílicos aleatorizados apresentam distribuição Normal, independente da distribuição da variável resposta. -- - Os resíduos quantílicos aleatorizados baseiam-se no teorema da inversa da função de distribuição acumulada. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Resíduo quantílico aleatorizado - II No contexto de modelos lineares generalizados, seja `\(F(y; \mu , \phi)\)` a função distribuição acumulada de uma variável aleatória `\(Y\)`. - Se `\(Y\)` é contínua, o teorema da inversa da função distribuição acumulada garante que `\(U_i=F(y_i;\mu_i,\phi)\)` tem distribuição uniforme no intervalo `\((0,1)\)`. -- - Ajustado um MLG, o resíduo quantílico fica definido por: `$$r_i^q = \Phi^{-1}\left( F(y_i; \mu_i, \phi) \right),$$` sendo `\(\Phi(\cdot)\)` a função de distribuição acumulada da distribuição normal padrão. -- - Se os parâmetros do modelo são consistentemente estimados, então `\(r_i^q\)` converge para uma distribuição normal padrão. -- - Se `\(Y\)` é discreta, então um recurso de aleatorização é aplicado de tal forma que, também nesse caso, se os parâmetros do modelo são consistentemente estimados, então `\(r_i^q\)` converge para uma distribuição normal padrão. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ## Pontos Influentes Pontos influentes são aqueles com influência desproporcional nas estimativas dos coeficientes, isto é, quando retirados do modelo mudam de forma substancial as estimativas ou mesmo a significância dos coeficientes. -- O método mais conhecido para detectar tais pontos é o de deleção de pontos, que consiste em retirar um ponto e verificar a variação nas estimativas. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Distância de Cook: Modelo Normal - I Medida de influência da observação `\(i\)` sobre todos os valores ajustados. Em outras palavras, os valores ajustados mudariam muito se a observação `\(i\)` fosse excluída? `$$D_i = \frac{\sum_{j = 1}^n (\widehat{Y}_j - \widehat{Y}_{j(i)})^2}{p \; QME},$$` em que - `\(\widehat{Y}_j\)`: valores ajustados; -- - `\(\widehat{Y}_{j(i)}\)`: valores ajustados sem a observação `\(i\)`; -- - `\(p\)`: número de parâmetros; -- - QME: quadrado médio dos resíduos. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Distância de Cook: Modelo Normal - II De maneira geral, <div class="math"> \[\begin{align*} D_i &= \frac{(\hat{\boldsymbol{\beta}} - \hat{\boldsymbol{\beta}}_{(i)})^T (X^T X)(\hat{\boldsymbol{\beta}} - \hat{\boldsymbol{\beta}}_{(i)})}{p s^2}\\ & = \biggl\{ \frac{r_i}{s (1-h_{ii})^{1/2}} \biggl\}^2 \frac{h_{ii}}{(1-h_{ii})} \frac{1}{p}\\ & = t_i^2 \frac{h_{ii}}{(1-h_{ii})} \frac{1}{p}, \end{align*}\] </div> em que `\(t_i\)` é o resíduo studentizado da observação `\(i\)`. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Distância de Cook: MLG - I Supondo `\(\phi\)` conhecido, o afastamento pela verossimilhança quando eliminamos a `\(i-\)`ésima observação é denotado por `$$\text{LD}_i=2\left\{L(\hat{\boldsymbol{\beta}})-L(\hat{\boldsymbol{\beta}}_{(i)})\right\},$$` sendo portanto uma medida que verifica a influência da retirada da `\(i-\)`ésima observação em `\(\hat{\boldsymbol{\beta}}\)`. Não sendo possível obtermos uma forma analítica para `\(\text{LD}_i\)`, é usual utilizarmos a segunda aproximação por série de Taylor em torno de `\(\hat{\boldsymbol{\beta}}\)`. Essa expansão leva ao seguinte resultado: `$$\text{LD}_i\cong (\boldsymbol{\beta}-\hat{\boldsymbol{\beta}})^T\left\{-\ddot{L}_{\beta\beta}(\hat{\boldsymbol{\beta}})\right\}(\boldsymbol{\beta}-\hat{\boldsymbol{\beta}}).$$` -- Substituindo `\(-\ddot{L}_{\beta\beta}(\hat{\beta})\)` pelo correspondente valor esperado e `\(\boldsymbol{\beta}\)` por `\(\boldsymbol{\beta_{(i)}}\)`, obtemos `$$\text{LD}_i\cong \phi\left(\hat{\boldsymbol{\beta}}-\hat{\boldsymbol{\beta}}_{(i)}\right)^T\left(X^T\widehat{W}X\right)\left(\hat{\boldsymbol{\beta}}-\hat{\boldsymbol{\beta}}_{(i)}\right).$$` --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ### Distância de Cook: MLG - II Assim, `$$LD_i\cong \left\{\frac{h_{ii}}{(1-h_{ii})}\right\}t^2_{S_i},$$` em que `\(t^2_{S_i}\)` é o resíduo de Pearson padronizado. -- >**Observação:** - Recomenda-se como critério olhar com mais atenção aqueles pontos com `\(LD_i\)` muito maior que os demais. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ## Análise Gráfica - I - **Pontos aberrantes** - `\(t_{D_i}\)` ou `\(r_{q_i}\)` versus ordem das observações `\((i)\)`. O objetivo é localizar observações com medidas de diagnóstico grandes. -- - Gráfico Normal e meio-normal (*half-normal*) de probabilidades dos resíduos com bandas de confiança. Construídos da mesma maneira que aqueles para o modelo clássico, usando-se porém a distribuição pertinente. Esses gráficos podem mostrar a falta de ajuste geral de um modelo. -- - **Pontos influentes** - Gráfico de `\(LD_i\)` versus a ordem das observações `\((i)\)`. O objetivo é localizar observações com distância de Cook desproporcional, quando comparada às outras observações. -- - **Correlação** - Valores observados ou resíduos versus tempo ou alguma ordem em que há suspeita de correlação entre observações. Este gráfico pode conduzir à detecção de padrões concebidos *a priori*, devido ao tempo ou, então, a alguma variável altamente correlacionada no tempo. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ## Análise Gráfica - II - **Variabilidade** - Resíduos versus alguma função dos valores ajustados. Recomenda-se o uso de algúm tipo de resíduo estudentizado versus `\(\hat{\eta}_i\)`, ou então versus os valores ajustados tranformados de forma a se ter variância constante para a distribuição usada. -- No eixo das abcissas usa-se: - `\(\hat{\mu}_i\)` para a Normal. - `\(2\sqrt{\hat{\mu}_i}\)` para a Poisson. - `\(2\text{arcsen}\sqrt{\hat{\mu}_i/m_i}\)` para a Binomial. - `\(2\log(\hat{\mu}_i)\)` para a Gama. - `\(-2\hat{\mu}_i^{-1/2}\)` para a Normal Inversa. -- >Espera-se que os resíduos se distribuam aleatoriamente em torno do zero com amplitude constante. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ## Análise Gráfica - III - **Falta de algum termo nas variáveis explicativas** - Resíduos versus variáveis explicativas não incluídas. Pode mostrar se existe uma relação entre os resíduos do modelo ajustado e uma variável ainda não adicionada no modelo. -- - Gráfico da variável adicionada ou da regressão parcial (*added variable plot*). Ajusta-se o MLG com preditor linear `\(\mathbf{\eta=X\beta}\)`. Faz-se o gráfico de `\(\widehat{\mathbf{W}}^{-1/2}\mathbf{s}\)` (resíduo de Pearson generalizado da regressão ponderada de `\(\mathbf{y}\)` em relação a `\(\mathbf{X}\)` com matriz de pesos estimada `\(\widehat{\mathbf{W}}\)`) versus `\((\mathbf{I}-\widehat{\mathbf{H}})\widehat{\mathbf{W}}^{1/2}\mathbf{u}\)` (resíduos da regressão ponderada de `\(\mathbf{u}\)` em relação a `\(\mathbf{X}\)` com matriz de pesos estimada `\(\widehat{\mathbf{W}}\)`), onde `\(\mathbf{s}\)` é o vetor com elementos $$ s_i=\frac{(y_i-\hat{\mu}_i)}{V(\mu_i)}\frac{\hat{\mu}_i}{d\eta_i} $$ e `\(\mathbf{u}\)` é o vetor com os valores da variável a ser adicionada. Espera-se que os resíduos se distribuam aleatoriamente em torno do zero com amplitude constante. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ## Análise Gráfica - IV - **Adequação da função de ligação** - Gráfico de `\(\hat{z}_i\)` versus `\(\hat{\eta}_i\)`. Uma tendência linear indica adequação da função de ligação, exceto para o caso binomial. -- - Gráfico da variável adicionada. Este gráfico pode ser usado considerando-se `\(\mathbf{u}=\hat{\mathbf{\eta}}\odot \hat{\mathbf{\eta}}\)`, em que `\(\odot\)` significa produto termo a termo. -- Para funções de ligação na família potência `\(\eta=\mu^{\lambda}\)`, uma curvatura para cima no gráfico indica que deve ser usada uma função de ligação com expoente maior. Uma curvatura para baixo indica um expoente menor. Este tipo de gráfico não é adequado para dados binários. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ## Análise Gráfica - V - **Distribuição postulada** - Gráficos Normal e meio-normal (*half-plot*) de probabilidades para resíduos. É o gráfico dos valores dos quantis amostrais `\(d_{(1)}\leq \ldots \leq d_{(n)}\)` contra os quantis teóricos da distribuião normal padrão `\((z_i)\)`. O gráfico de `\(d_{(i)}\)` versus `\(z_i\)` deve ser, aproximadamente, uma reta. -- Formatos aproximados comuns para distribuições diferentes da normalidade: - **S**: Distribuições com caudas muito curtas, ou seja, distribuições com valores muito próximos da média. - **S invertido**: Distribuições com caudas muito longas e, portanto, presença de valores extremos. - **J e J invertido**: Distribuições assimétricas, positivas e negativas, respectivamente. -- >Quando são plotados os valores `\(|d_{(i)}|\)` versus `\(z_i\)` obtem-se o gráfico *half-normal*. --- [//]: <> (class: center, middle, animated, slideInRight/ class: animated slideInRight fadeOutLeft) class: animated, fadeIn ## Análise Gráfica - VI Para auxiliar na interpretação do gráfico *half-normal*, Atkinson (1985) propôs a adição e um **<span style="color:orange">envelope simulado</span>**, que é obtido seguindo as etapas: -- - Ajustar um determinado modelo a um conjunto de dados e obter `\(d_{(i)}\)`, os valores absolutos ordenados de uma certa estatística de diagnóstico (resíduos, distância de Cook, etc). -- - Simular 19 amostras da variável resposta (dessa forma, a probabilidade da maior estatística de um envelope particular exceder o limite superior será `\(\cong 1/20\)`), usando as estimativas obtidas após um determinado modelo ser ajustados aos dados e os mesmos valores para as variáveis explicativas. -- - Ajustar o mesmo modelo a cada uma das 19 amostras e calcular os valores absolutos ordenados da estatística de diagnóstico de interesse `\(d^*_{j(i)}\)`, `\(j=1,\ldots,19, \, i=1,\ldots,n\)`. -- - Para cada `\(i\)`, calcular a média, o mínimo e o máximo dos `\(d^*_{j(i)}\)`. -- - Colocar as quantidades determinadas no item anterior em um gráfico de `\(|d_{(i)}|\)` versus `\(z_i\)`. -- >Este envelope é tal que, sob o modelo correto, as estatísticas (resíduos, distância de Cook, etc) obtidas a partir das observações ficam inseridas no envelope. --- class: animated, hide-logo, bounceInDown ## Política de proteção aos direitos autorais > <span style="color:grey">O conteúdo disponível consiste em material protegido pela legislação brasileira, sendo certo que, por ser o detentor dos direitos sobre o conteúdo disponível na plataforma, o **LECON** e o **NEAEST** detém direito exclusivo de usar, fruir e dispor de sua obra, conforme Artigo 5<sup>o</sup>, inciso XXVII, da Constituição Federal e os Artigos 7<sup>o</sup> e 28<sup>o</sup>, da Lei 9.610/98. A divulgação e/ou veiculação do conteúdo em sites diferentes à plataforma e sem a devida autorização do **LECON** e o **NEAEST**, pode configurar violação de direito autoral, nos termos da Lei 9.610/98, inclusive podendo caracterizar conduta criminosa, conforme Artigo 184<sup>o</sup>, §1<sup>o</sup> a 3<sup>o</sup>, do Código Penal. É considerada como contrafação a reprodução não autorizada, integral ou parcial, de todo e qualquer conteúdo disponível na plataforma.</span> .pull-left[ <img src="images/logo_lecon.png" width="50%" style="display: block; margin: auto;" /> ] .pull-right[ <img src="images/logo_neaest.png" width="50%" style="display: block; margin: auto;" /> ] .center[ [https://lecon.ufes.br](https://lecon.ufes.br/) ] <font size="2"><span style="color:grey">Material elaborado pela equipe LECON/NEAEST: Alessandro J. Q. Sarnaglia, Bartolomeu Zamprogno, Fabio A. Fajardo, Luciana G. de Godoi e Nátaly A. Jiménez.</span></font>