Présentation thèse de M. Lange (2)

Présentation de la thèse de Marielle Lange (deuxième partie)

La quatrième expérience s’efforce de l’établir en montrant des traces claires de l’activation des associés phonémiques les moins fréquents d’un graphème lors du transcodage. Elle utilise une tâche de détection de lettres introduite par Ziegler et Jacobs.
Dans ce type de tâche, une lettre apparaît au centre de l’écran d’ordinateur, puis un mot, rapidement remplacé par un masque visuel.
Il s’agit pour le participant de décider si la lettre était présente dans le mot brièvement affiché puis masqué en poussant le plus rapidement possible sur un des deux boutons de réponse (un pour la réponse oui, lettre présente, l’autre pour la réponse non, lettre absente).
Ziegler et collaborateurs ont montré que, si la lettre est absente du non-mot, les participants font plus de détections erronées de la lettre quand le non-mot sonne comme un mot qui contient cette lettre.
Par exemple, s’ils doivent détecter J dans G,E, U, lu GEU par comparaison avec un autre non-mot de similarité orthographique comparable par rapport à JEU qui contient la lettre. Notre expérience se base sur ce résultat ainsi que sur celui de Peereman montrant des prononciations BONJOUR de BONGOUR pour introduire une distinction entre des non-mots homophones-par-règle et homophones-par-association.
Les non-mots homophones-par-règles sont des non-mots qui sont homophones d’un mot français lorsqu’ils sont traduits par les correspondances graphème-phonème régulières du français. Les non-mots homophones-par -association sont des non-mots qui sont homophones d’un mot français lorsqu’ils sont traduits par n’importe quel associé phonémique d’un graphème.
Suivant l’hypothèse de règles ou d’associations simples, seul GEUDI est susceptible de produire une effet d’homophonie. Suivant l’hypothèse d’associations multiples, à la fois GEUDI et BONGOUR sont susceptibles de produire un tel effet, car pour les deux non-mots, le phonème /j/ est partiellement activé lors du transcodage, comme une association dominante dans GEUDI, comme une association minoritaire dans BONGOUR.

Voici le résultat important:
Pour les latences de réponse correctes (non la lettre n’était pas présente), les participants présentent un désavantage de l’homophonie pour les deux types de chaînes, homophones par règles et par association. Les participants trouvent plus difficile de décider que J est absent de BONGOUR que de BONDOUR.
Ce résultat est incompatible avec l’hypothèse de règles ou d’associations simples qui supposent que G dans BONGOUR ne va jamais activer sa prononciation minoritaire /j/. Au contraire, puisque par construction BONGOUR et BONDOUR sont équivalents en termes de similarité orthographique à BONJOUR qui contient le J, la différence observée dans leurs temps de décision ne semble pouvoir s’expliquer que par l’activation partielle au cours du transcodage phonologique de l’association /j/ de J venant renforcer l’indécision quant à l’absence de J dans la chaîne.

Bref, combinées, les deux expériences remettent en question la proposition de Coltheart et collègues d’une représentation des relations orthographe-son par un répertoire de règles où seul l’associé phonémique le plus fréquent est représenté. Elles appuient au contraire fortement l’hypothèse d’une représentation de ces relations par un système d’associations multiples dans lequel un phonème active toutes ses associations avec une force variable dépendant de sa prédictibilité dans la langue.

Voici pour notre contribution à la question des représentations.
Tournons nous maintenant vers celle des processus.

Ici, l’hypothèse spécifiquement évaluée est celle d’un transcodage par traduction lettre-après-lettre d’une chaîne de caractères. Cette hypothèse, défendue par Coltheart et son équipe, trouve son origine dans deux faits expérimentaux.
Le premier fait correspond aux effets de longueur fréquemment rapportés dans la littérature. Au plus une chaîne compte de lettres, au plus il faut de temps pour la dénommer. Ces effets du nombre de lettres révéleraient l’intervention d’un mécanisme séquentiel, parcourant la chaîne de gauche à droite, et nécessitant des temps de traitement d’autant plus longs qu’il y a d’unités successives à traduire.
Le second fait correspond aux effets de complexité graphémique récemment obtenus par Rastle et Coltheart: des non-mots de 5 lettres contenant des graphèmes multilettres comme PH pour lesquels la prononciation de la première lettre est différente de celle du graphème sont dénommés plus lentement que des non-mots de même nombre de lettres ne contenant que des graphèmes simples. Pour Coltheart cet effet soutiendrait l’hypothèse plus spécifique selon laquelle le transcodage opère à partir d’un décriptage lettre-après-lettre des chaînes de caractères car il impliquerait un mécanisme supposant que la première lettre puis le graphème sont successivement traduits, l’activation temporaire d’une prononciation erronée par la première lettre ralentissant les temps de dénomination.
Toutefois, une difficulté avec le lien dessiné par Rastle et Cotlheart entre les effets de complexité et un mécanisme lettre-à-lettre est que des graphèmes complexes comme PH sont souvent de moindre fréquence
d’occurence dans la langue que des graphèmes simples comme R ou F. Il est possible que l’effet étiqueté comme un effet de complexité par Coltheart et collègues ne soit pas autre chose qu’un effet de fréquence déguisé.
Pour l’établir, nous avons mené une série d’expériences, toutes en français, évaluant la contribution de trois variables sur les temps de dénomination des non-mots. Ces trois variables sont la fréquence de graphème, la complexité graphémique à fréquence de graphème constante et l’opacité graphémique à fréquence de graphème constante.

La première étude que nous avons menée évaluait une influence de la fréquence de graphème sur les temps de dénomination de manière à déterminer dans quelle mesure les variations de fréquence moyenne de graphèmes entre non-mots graphémiquement simples et complexes pourraient être responsables de l’effet observé par Rastle et Coltheart (R&C).

Cette étude compare les temps de dénomination pour des non-mots contenant des graphèmes fréquents comme S à des non-mots contenant des graphèmes rares comme Z. Elle montre que les non-mots contenant des graphèmes fréquents sont dénommés significativement plus rapidement que ceux contenant des graphèmes rares.

Ce résultat révèle donc qu’il est possible que la fréquence de graphème ait joué un rôle dans l’effet observé par R&C. Pour le vérifier, nous avons effectué une réanalyse des données de ces derniers en introduisant la fréquence de graphème comme variable covariante de manière à statistiquement annuler la contribution de cette variable sur les temps de dénomination.
Si, indépendamment d’un rôle éventuel de la fréquence de graphème, l’effet de complexité est bel et bien présent, on devrait observer un effet éventuellement ralentit mais de même signe. Contrairement à cette prédiction, on observe que l’effet de la complexité graphémique, négatif dans l’étude de R&C, devient positif lorsqu’on annule les variations de performances induites par les différences de fréquence de graphème. Ceci affaiblit grandement le lien établit par R&C entre les effets de complexité et le traitement lettre-à-lettre.

Pour conforter ce résultat, nous avons conduit de nouvelles expériences procédant à la même manipulation de la complexité que celle utilisée par R&C mais avec un matériel choisi pour ne pas présenter de différence en termes de fréquence de graphème entre les non-mots graphémiquement simples et complexes.
Deux expériences ont été menées. Elles utilisent une manipulation de la complexité reposant sur une comparaison entre des non-mots de 5 lettres contenant 0 ou 1 graphème complexe, soit des items comme NURFE et NUPHE.
Si l’effet de complexité observé par R&C trouve son origine dans le traitement lettre-à-lettre et non dans les différences de fréquence entre listes, on devrait trouver comme eux un effet inhibiteur de la complexité. Contrairement à cette prédiction, nous avons trouvé que les non-mots contenant un graphème complexe comme PH sont lus plus rapidement plutôt que plus lentement que les non-mots de même longueur ne contenant que des graphèmes simples.

Cet effet inversé remet cette fois fortement en question l’hypothèse d’un mécanisme lettre-à-lettre.
Toutefois, toute conclusion définitive est rendue difficile par le fait que la manipulation utilisée entraîne une variation simultanée du nombre de phonèmes à articuler puisque RF compte deux phonèmes alors que PH n’en compte qu’un. Pour écarter une influence possible du nombre de phonèmes de nos interprétations, nous avons introduit une nouvelle manipulation, celle de l’opacité.

Commençons par distinguer clairement les manipulations de la complexité et de l’opacité.
Le graphe présente les phonèmes activés pour la seconde lettre d’un groupement de lettres. Trois types de séquences de deux lettres sont considérées, un graphème multilettre divergent comme PH, un bigramme formé de deux graphèmes simples comme RF, et un graphème multilettre convergent comme FF. L’axe vertical montre les valeurs d’activation des phonèmes.
Comme nous l’avons déjà vu, la manipulation de la complexité correspond à une comparaison entre graphème multilettre divergent et séquence de deux graphèmes simples.
Pour un graphème multilettre divergent comme PH, il y a traduction de PH en phonème /f/ pour une position phonémique pour laquelle /p/ était préalablement activé. Bien que la nouvelle activation remplace rapidement l’ancienne, l’activation temporaire d’un phonème incorrect ralentit la montée en activation du phonème correct /f/. Par comparaison, pour une séquence de deux graphèmes simples comme RF, le graphème F est traduit en /f/ dans une position phonémique nouvelle dans laquelle il n’y a encore eu activation d’aucun phonème.
Comme le traitement lettre à lettre induit une compétition dans le premier cas mais pas dans le second, des temps de dénomination plus lents sont attendus pour les graphèmes complexes que pour les graphèmes simples

La manipulation de l’opacité correspond à une comparaison entre graphème multillettre divergent et convergent. Pour un graphème multilettre convergent comme FF, il y a activation temporaire du phonème /f/ pour une position phonémique pour laquelle ce phonème était déjà partiellement actif. Ceci accélère la montée en activation de ce dernier.
Dans un mécanisme lettre-à-lettre, l’effet d’opacité prédit est au moins aussi grand que l’effet de complexité rapporté par Rastle et Coltheart puisqu’il inclut une composante facilitatrice en plus de la composante inhibitrice responsable de l’effet de complexité.

Une nouvelle étude cherche donc à confronter l’effet d’une manipulation de l’opacité graphémique aux prédictions d’un mécanisme lettre-à-letre.
Cette étude compare les temps de dénomination pour des non-mots comme NUPHE contenant un graphème multilettre divergent à des non-mots comme NUFFE contenant un graphème multilettre convergent.
Cette fois, l’effet prédit par un mécanisme lettre-à-lettre est observé: des non-mots comme NUPHE avec PH sont dénommés plus lentement que des non-mots comme NUFFE avec FF.
Cependant, une analyse fine du matériel indique que cet effet n’est présent que dans le cas bien spécifique où les deux lettres formant un graphème multilettre convergent vers la prononciation correcte de celui-ci. L’effet n’est pas présent lorsque le non-mot contient un graphème multilettre comme TH où l’associé de la seconde lettre est différent de celui du graphème.
Cette différence entre TT et TH n’est pas prédite par le mécanisme de traitement lettre-à-lettre (décrit précédemment) qui suppose que la deuxième lettre est accolée à la précédente et non traduite au cours de la conversion. Elle suggère au contraire que la deuxième lettre du graphème est aussi traduite, entraînant l’activation d’un phonème erroné qui ralentirait la montée en activation du phonème correct.
On pourrait envisager d’expliquer ce résultat ainsi que les précédents par l’hypothèse défendue par certains auteurs d’une traduction simultanée de toutes les lettres d’une chaîne de caractères. Pour expliquer l’effet facilitateur de la complexité observé dans l’expérience précédente, on supposerait alors que pour un graphème comme PH, le bénéfice de la co-détermination lié au fait que chacune des deux lettres active partiellement la prononciation correcte /f/, serait plus élevé que le coût de la divergence lié au fait que chacune des lettres active aussi partiellement sa prononciation spécifique, /p/ pour l’un et /h/ pour l’autre.
Certains psycholinguistes considèrent cependant cette hypothèse d’un transcodage simultané de toutes les lettres comme improbable car incapable de rendre compte des effets de longueur rapporté dans diverses études. Mais la majorité de ces études manipulant la longueur ne contrôlent pas les listes expérimentales pour la fréquence de graphème ou la composition graphémique, or nous venons de montrer que ces deux variables ont une influence sur les temps de dénomination. Il est dès lors possible d’envisager que les effets de longueur soient eux aussi artefactuels.

Afin d’évaluer cette possibilité, deux nouvelles études ont été menées, manipulant la longueur cette fois à composition graphémique constante.
Dans la première étude, les graphèmes multilettres sont tout simplement évités. On compare des non-mots de 4 lettres- 4 graphèmes à des non-mots de 5 lettres-5 graphèmes et des non-mots de 6 lettres et 6 graphèmes. On trouve, sur les scores de différences, une augmentation linéaire des temps de dénomination en fonction de la longueur, établissant la réalité de cet effet en dehors de variations de la fréquence ou de la composition graphémique.
Toutefois, cette manipulation présente l’inconvénient de confondre longueur en lettres et longueur en phonèmes puisque les mots qui comptent le plus de lettres sont aussi ceux qui comptent le plus de phonèmes à prononcer. Pour écarter de manière encore plus décisive une origine artefactuelle des effets de longueur, nous avons introduit une nouvelle manipulation qui n’entraîne pas de différence de longueur en phonèmes.
Pour cela, nous avons comparé NUFE et NUFFE, à savoir deux non-mots qui comptent le même nombre de phonèmes mais une lettre de différence. En réalité, il s’agit du test le plus contraignant que l’on puisse imaginer car la présence dans la condition la plus longue d’ un graphème multilettre convergent qui produit un effet facilitateur sur les temps de dénomination, va à l’encontre de nos prédictions.
En dépit de ces contraintes extrêmes, nous avons à nouveau trouvé un effet de la longueur, ici spécifiquement en lettres. Comme nous l’avons précédemment établi, un tel effet n’est pas prédit par l’hypothèse d’une traduction simultanée de toutes les lettres d’une chaîne.

Bref, si les effets relatifs à la complexité remettent fortement en question l’hypothèse d’un transcodage strictement lettre-à-lettre et suggèrent qu’il y a traduction de chacune des lettres formant un graphème multilettre, les effets de longueur remettent en cause l’hypothèse opposée introduite par certains auteurs d’un traitement simultané de toutes les lettres d’une chaîne pour en dériver la prononciation. Ils signeraient, au contraire, l’intervention d’une composante séquentielle, parcourant le mot de gauche à droite, lors du transcodage. Ce pourrait, par exemple, être un mécanisme de refixation occulaire qui traduit simultanément les lettres d’une séquence par groupes successifs de 3 ou 4 lettres.

En conclusion,

L’objectif de ce travail était de réduire la grande diversité des hypothèses théoriques actuelles en évaluant certaines des hypothèses relatives aux représentations et processus impliqués dans le transcodage d’une chaîne de caractères en sa phonologie.
Une première étape a consisté en la réalisation d’analyses statistiques des associations graphème-phonèmes du français et de l’anglais. J’ai ensuite tiré parti de ces analyses pour réaliser deux séries d’expériences.

La première série d’expériences adressait la question de la nature des représentations des relations orthographe-son utilisées lors du transcodage d’une chaîne de caractères en sa prononciation. Dans deux expériences menées en anglais et en français j’ai montré un effet de l’incertitude de la prononciation d’un graphème sur les latences de dénomination. J’ai conclu que de tels résultast impliquaient une représentation de la force des associations dans le système de règles.
Dans une quatrième expérience, utilisant une tâche de détection de lettre, j’ai mis en évidence un désavantage de l’homophonie pour des homophones-par-association comme bongour. J’ai affirmé que celui-ci ne pouvait s’expliquer que par l’activation d’une association minoritaire au cours du transcodage.
Et j’ai conclu qu’ensemble, ces différents résultats montraient que contrairement à la position défendue par Coltheart et collègues, la connaissance des relations orthographe-son utilisée par les lecteurs pour la traduction d’une chaîne en sa phonologie devait être conçue comme un réseau d’associations multiples plutôt que par un répertoire de règles.

La seconde série d’expériences adressait la question de la nature du processus de transcodage. Différentes manipulations soit de la composition graphémique, soit de la longueur ont été utilisées pour évaluer la pertinence de l’hypothèse d’un transcodage lettre-à-lettre.
Avec les manipulations de la fréquence et de lacomplexité graphémique, j’ai trouvé que l’effet de complexité sur lequel se basent Coltheart et collègues pour défendre l’idée d’un traitement lettre-à-lettre était induit par les différences de fréquence entre graphèmes simples et complexes et non à la présence de graphème complexe.
Avec une manipulation de l’opacité graphémique, l’effet nul de l’opacité lorsque la seconde lettre induit une prononciation erronée (TH) m’a conduit à définitivement rejetter l’hypothèse d’un processus spécifiquement lettre-à-lettre.
J’ai envisagé pour un temps qu’il pourrait marquer une traduction simultanée de toutes les lettres d’une chaîne. Toutefois, l’obtention d’effets de longueur spécifiquement en lettres m’a conduit à remettre en cause cette dernière hypothèse et à privilégier plutôt un mécanisme qui parcourt un mot de gauche à droite par refixation de suites de trois ou quatre lettres.

Ces deux séries d’expériences demandent bien sûr à être poursuivies de manière à spécifier de manière encore plus précise les représentations et processus impliqués dans le transcodage.
Je vous remercie de votre attention.

 

Une réponse à “Présentation thèse de M. Lange (2)”

  1. Ping : Présentation thèse de M. Lange (1) | Pontt

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.