Analyses données eye-tracking recueillies avec le "Visual World Paradigm"


#1

Quelles analyses sont à privilégier pour traiter des données eye-tracking recueillies au moyen du Visual World Paradigm ?

La VD typique dans ce type de paradigme est une proportion de fixation sur différentes AOI (areas of interest). Cette mesure (échelle d’intervalle) est disponible sur une période de temps qui est découpée en différentes périodes d’intérêt de plusieurs dizaines (ou centaines) de ms. Il peut y avoir 1 ou plusieurs VI nominales (dont au moins 1 relative aux AOI). Le but est de pouvoir tester l’effet de ces VI en considérant différentes périodes de temps.

Voici ci-dessous un exemple de graphe issu de : Ito, Aine. (02.2018). Investigating the time-course of phonological prediction in native and non-native speakers of English: A visual world eye-tracking study. Journal of memory and language. (98). p.1 - 11. 10.1016/j.jml.2017.09.002

Merci d’avance pour vos retours
Fabrice Cauchard (Ingénieur Maison de la recherche)


#2

Bonjour

A/ Je n’ai jamais utilisé le visual world paradigm

B/ je n’ai jamais utilisé la méthode citée en C/

C/ j’ai vu à plusieurs reprises la méthode “growth curve analysis” utilisée pour analyser les données de ce paradigme. Pour commencer , par exemple, http://www.danmirman.org/gca ou le livre associé

D/ sans engagement de ma part et à vos risques et périls :wink:

Xavier Alario, LPC


#3

J’ai utilisé la Cluster based permutation analysis.
analyse par permutation de cluster.

Cet article explique que ce type d’analyse, bien que sévère avec les données, a été transposé depuis les études EEG/MEG à ce type de dessin expérimental et est devenu une méthode éprouvée.

Développée à l’origine par :


EyeClub Axel Barrault
#4

Hi Fabrice,
I am writing just relying on my memory so let me know if there is anything that seems weird to you :wink:
For the dependent variable, in a previous study on sentence processing, I have been looking at proportions of fixations to a specific picture object over time. In my experiment, listeners heard a sentence (Subject-Verb-Object) and they had to click on the target picture when disambiguity was solved.Prior to calculating mean proportions, fixation data were first time-locked at 0 ms at the beginning of each sentence. Then, a few temporal landmarks were annotated at linguistically relevant points (eg, at the end of the Subject constituent), thus resulting in different analysis windows or “regions”. Hence, I looked at fixation proportions in each of these regions.
However, the kind of analysis you want to perfom might change depending on the task. There might also be better ways of encoding the dependent variable than the one I proposed above. For instance, if your visual display includes both a target and a competitor picture objects, you might code the dependent variable in terms of a ratio between the number of fixations to the target (=numberof successes) and to the competitor (=number of failures). A similar procedure is proposed in the paper by Aino that you mention.
Moreover, as far as I know, classical studies on eye-tracking focus on fixation proportions at specific analysis windows. However, there might be more appropriate ways to looks at changes in fixations over time, such as for time series analysis.
Statistically, you should use a glm/glmer model, with the specification of the family depending on how the dependend variable is expressed (ex binomial for a 0/1 coding ; poisson for counts, etc). In R, the package « eyetrackingR » might be also suitable to you for graphical representation and stats.
Caterina


#5

Bonjour, je reprends cette ancienne discussion pour des questions stats sur le même topique. Je suis en train de faire l’analyse de mes données Tobii et j’ai vu dans le papier de Barr (2008, ref ci dessous) qu’une possible source de problèmes de non-indépendence dans les données en oculométrie concerne la mécanique de comment les yeux bougent (p. 463-ff). Barr conseille de grouper les obs en bins temporels (ex. de 50 ms) et d’utiliser donc les empirical logit pour chaque bin dans l’analyse statistique. Avez vous déjà utilisé cette méthode? Je ne comprends pas trop pourquoi cette méthode est préférable lorsqu’on a pas beaucoup de données.
Merci par avance,
Caterina
ps: voici la référence biblio/ je cherche de vous joindre le pdf

Barr, D.J. (2008) Analyzing ‘visual world’ eyetracking data using multilevel logistic regression. Journal of Memory and Language , 59(4), pp. 457-474. (doi:10.1016/j.jml.2007.09.002)