Compléments suite à la formation Modèles mixtes (AnaStats)


#1

Bonjour à toutes et à tous,

Comme promis, l’ensemble des documents dont nous avions parlé pendant la formation de la semaine dernière.

Vous trouverez donc :

  • le pdf du livre Linear mixed-effects models using R : a step-by-step approach de Galecki & Burzykowski

  • le pdf expliquant la méthode du maximum de vraisemblance

  • le pdf reprenant l’écriture mathématique d’un modèle mixte linéaire

  • le pdf expliquant les différents types d’ANOVA

  • les exercices corrigés (j’ai été obligé de transformer une sortie faite en rapport html en pdf pour pouvoir l’importer… c’est moins joli :confused:)

  • deux références sur l’utilisation de l’AIC pour la sélection de modèle : Akaike, Hirotugu. 1974. “A New Look at the Statistical Model Identification.” IEEE Transactions on
    Automatic Control AC-19:716-23. (je n’ai pas pu accéder au pdf) et le papier de Burnham & Anderson (2002), dont vous trouverez le pdf également.

  • trois références pour le fait que le F obtenu sur les modèles mixtes est un F approximatif, et des discussions sur le fait de plutôt choisir le chi² de Wald ou le F pour tester les effets fixes. Vous verrez que cela dépend principalement de la taille des effectifs et d’un déséquilibre éventuel. L’une des références concernent les modèles non linéaires mais cela est valable également pour les modèles linéaires. Une autre concerne les modèles à mesures répétées et compare les différents tests possibles (notamment LR ratio, F-test ou Wald). Le dernier fait des simulations pour voir les différences de réponse obtenue selon le test choisi. Deux des articles sont également en PJ (Burton & Volaufova, 2016 pour les modèles non linéaires et Maas & SNIJDERS, 2003 pour l’exemple sur mesures répétées). Je n’ai pas accès au dernier mais voici son lien : https://academic.oup.com/ije/article/47/1/321/4091562

  • Le papier de BAKEMAN, 2005 qui explique la significativité du ges obtenu dans les résultats de la fonction ezANOVA().

  • et enfin, voici une petite note sur la différence entre l’epsilon de Greenhouse-Geisser et celui de Huyndt-Feldt et des recommandations sur quand utiliser l’un plutôt que l’autre :

Greenhouse-Geisser vs. Huynd-Feldt Correction

The Greenhouse-Geisser correction tends to underestimate epsilon (e) when epsilon (e) is close to 1 (i.e., it is a conservative correction), whilst the Huynd-Feldt correction tends to overestimate epsilon (e) (i.e., it is a more liberal correction). Generally, the recommendation is to use the Greenhouse-Geisser correction, especially if estimated epsilon (e) is less than 0.75. However, some statisticians recommend using the Huynd-Feldt correction if estimated epsilon (e) is greater than 0.75. In practice, both corrections produce very similar corrections, so if estimated epsilon (e) is greater than 0.75, you can equally justify using either.

Je pense n’avoir rien oublié !
Je reste disponible si vous avez d’autres questions !

Bonnes stats à tout le monde !
Sophie
Corr_Exercice_Lin1_psycho_bio.xlsx (54.4 KB)
Corr_Exercice_Lin2_psycho_bio.xlsx (114.5 KB)
Corr_Exercice_Lin1_psycho_bio.xlsx (54.4 KB)
Corr_Exercice_Lin3_psycho_bio.pdf (471.5 KB)
correction_pratique_glm.pdf (549.0 KB)
Ecriture_math_modèle_mixte_linéaire.pdf (88.3 KB)
La méthode du maximum de vraisemblance.pdf (310.0 KB)
Types_ANOVA.pdf (660.5 KB)
ezANOVA_ges_explanation.pdf (114.7 KB)
The multilevel approach to repeated measures for complete and incomplete data.pdf (122.8 KB)
utilisation_AIC_BIC.pdf (212.4 KB)
F_test_Wald.pdf (989.6 KB)
Corr_Exercice_Lin2_psycho_bio.xlsx (114.5 KB)


#2

Bonjour
Bien que n’ayant pas du tout suivi les discussions, merci beaucoup pour ce partage !
je contribue très très modestement en ajoutant le papier manquant
bonne journée

leyrat & al 2017.pdf (671.4 KB)


#3

Merci beaucoup Thomas !

Bon après-midi


#4

Super! Merci Sophie!

Stéphane.

PS: Le pdf de l’article de H. Akaike (1974), “A New Look at the Statistical Model Identification.” IEEE Transactions on Automatic Control AC-19:716-23 est accessible ici (http://bayes.acs.unt.edu:8083/BayesContent/class/Jon/MiscDocs/Akaike_1974.pdf).