Neuroscience : Différence entre versions

De Ekopedia
Aller à : navigation, rechercher
(Conclusion partielle)
(Conclusion partielle)
Ligne 48 : Ligne 48 :
 
Il suffit d’obturer l’oreille droite un instant pour percevoir, dans l’oreille gauche un « murmure intoné » qui n’est autre que la dimension prosodique isolée du reste du  discours. Le patient reçoit donc dans son HD la dimension prosodique du discours sans en être conscient.
 
Il suffit d’obturer l’oreille droite un instant pour percevoir, dans l’oreille gauche un « murmure intoné » qui n’est autre que la dimension prosodique isolée du reste du  discours. Le patient reçoit donc dans son HD la dimension prosodique du discours sans en être conscient.
  
=== Conclusion partielle ===
+
=== Conclusion partielle et provisoire ===
  
 
Le montage i-lang démontre l'existence de la notion contestée de perception auditive subliminaire et ouvre la voie à la sollicitation cérébrale spécifique comme outil de rééquilibrage de l'activité des hémisphères cérébraux. Les évaluations par l'IRMf révèlent chez les patients testés une activation cérébrale qui confirme la réalité de la mobilisation simultanée des ressources de chaque hémisphère.Dans un article publié online par Human Brain Mapping ,une équipe de recherche citée en bibliographie spécifique présente les images d'activation cérébrale obtenues sur  dix patients sollicités dans les conditions du montage i-lang (voir description succinte ci-dessous). Certes l'IRMf n'est qu'un outil et non une preuve . Il n'empêche que l'activation déclenchée par le filtrage i-lang est supérieure a celle déclenchée dans toutes les autres situations d'écoute.
 
Le montage i-lang démontre l'existence de la notion contestée de perception auditive subliminaire et ouvre la voie à la sollicitation cérébrale spécifique comme outil de rééquilibrage de l'activité des hémisphères cérébraux. Les évaluations par l'IRMf révèlent chez les patients testés une activation cérébrale qui confirme la réalité de la mobilisation simultanée des ressources de chaque hémisphère.Dans un article publié online par Human Brain Mapping ,une équipe de recherche citée en bibliographie spécifique présente les images d'activation cérébrale obtenues sur  dix patients sollicités dans les conditions du montage i-lang (voir description succinte ci-dessous). Certes l'IRMf n'est qu'un outil et non une preuve . Il n'empêche que l'activation déclenchée par le filtrage i-lang est supérieure a celle déclenchée dans toutes les autres situations d'écoute.
Ligne 54 : Ligne 54 :
 
http://www3.interscience.wiley.com/cgi-bin/fulltext
 
http://www3.interscience.wiley.com/cgi-bin/fulltext
  
Confirmation par l'IRMFf de l'activation cérébrale spécifique déclenchée par le dispositif i-lang'''Texte gras'''''Texte italique''
+
 
 +
----
 +
'''''Confirmation par l'IRMf de l'activation cérébrale spécifique déclenchée par le dispositif i-lang'''''
 +
 
 
Dans le cadre d'une étude visant à évaluer l'impact éventuel de l'utilisation du dispositif i-lang sur l'activation cérébrale(blood-flow)dans chaque hémisphère, une équipe de recherche de l'Université de Bordeaux a étudié les variations du flux sanguin dans les quatre conditions suivantes:
 
Dans le cadre d'une étude visant à évaluer l'impact éventuel de l'utilisation du dispositif i-lang sur l'activation cérébrale(blood-flow)dans chaque hémisphère, une équipe de recherche de l'Université de Bordeaux a étudié les variations du flux sanguin dans les quatre conditions suivantes:
  
NN:discours oral normal adressé à chaque oreille par l'intermédiaire d'écouteurs, simultanément.
+
'''NN''':discours oral normal adressé à chaque oreille par l'intermédiaire d'écouteurs, simultanément.
  
FN: discours filtré passe-bas adressé à l'oreille gauche(HD),discours oral normal adressé à l'oreille droite (HG) simultanément.''Texte italique''Cette condition correspond strictement au montage i-lang tel qu'il a été décrit dans le brevet d'invention en 1988, et différents textes cités en bibliographie.''Texte italique''
+
'''FN''': discours filtré passe-bas adressé à l'oreille gauche(HD),discours oral normal adressé à l'oreille droite (HG) simultanément.''Cette condition correspond strictement au montage i-lang tel qu'il a été décrit dans le brevet d'invention en 1988, et différents textes cités en bibliographie.''
  
NF:discours oral normal adressé à l'oreille gauche (HD), discours filtré passe-bas adressé à l'oreille droite (HG) simultanément.
+
'''NF''':discours oral normal adressé à l'oreille gauche (HD), discours filtré passe-bas adressé à l'oreille droite (HG) simultanément.
  
FF:discours filtré passe-bas adressé à chaque oreille simultanément.
+
'''FF''':discours filtré passe-bas adressé à chaque oreille simultanément.
  
 
L'opération effectuée sur dix hommes droitiers (moyenne d'âge 28,6 ans), résumée dans un article dont les références figurent en bibliographie, révèle que la condition '''FN'''(qui schématise l'utilisation du dispositif i-lang décrit plus haut)présente une activation beaucoup plus importante que les autres conditions, en terme de localisation mais aussi en surface activée sur chaque hémisphère.
 
L'opération effectuée sur dix hommes droitiers (moyenne d'âge 28,6 ans), résumée dans un article dont les références figurent en bibliographie, révèle que la condition '''FN'''(qui schématise l'utilisation du dispositif i-lang décrit plus haut)présente une activation beaucoup plus importante que les autres conditions, en terme de localisation mais aussi en surface activée sur chaque hémisphère.
  
Ce résultat ouvre des perspectives inédites, tant dans le domaine de l'apprentissage des labgues que dans celui de la rééducation de la parole perturbée. --J.A 16 09 05 à 15h46[[Utilisateur:81.248.52.208|81.248.52.208]] 16 sep 2005 à 14:48 (EDT)
+
Ce résultat ouvre des perspectives inédites, tant dans le domaine de l'apprentissage des langues que dans celui de la rééducation de la parole perturbée. --J.A [[Utilisateur:81.248.52.208|81.248.52.208]] 16 sep 2005 à 14:48 (EDT)
  
 
== Voir aussi ==
 
== Voir aussi ==

Version du 16 septembre 2005 à 20:13




La neuroscience est...


Les neurosciences au service de l'apprentissage des langues et de la rééducation des parole(s) perturbées: approche neurolinguistique de la parole

C'est le cerveau qui gère notre fonctionnement physiologique lorsque nous parlons et écoutons la parole, dans l'inconscience la plus totale de l'implication de nos organes phonatoires. C'est donc au cerveau qu'il est nécessaire de s'adresser pour influer sur notre production ou notre perception de la parole puisque c'est le cerveau qui commande simultanément (ou plutôt chronologiquement) tous les organes de parole et assure leur coordination.


S'adresser au cerveau présuppose que l'on ait un minimum de connaissances sur son fonctionnement:

  • Le cerveau se compose de deux hémisphères (le gauche HG, le droit, HD).
  • Chaque hémisphère joue un rôle spécifique dans la perception et la production de parole (ils ne sont symétriques ni anatomiquement ni fonctionnellement).
  • HG est plus impliqué dans le traitement des sons de parole et des intonations linguistiques (accents, accentuations spécifiques de la langue).
  • HD est plus impliqué dans le traitement des intonations affectives du discours qui expriment, par la parole l'état émotionnel du sujet.


L'expression de la langue et l'expressivité du sujet parlant constituent les deux dimensions complémentaires et indissociables de la communication par la parole. Ces divisions correspondent à l'investissement respectif de chaque hémisphère cérébral, le gauche (HG) gérant majoritairement la dimension expression (lexico-grammaticale, syntaxique), le droit la composante expressivité (prosodique, kinésique).


  • Les deux hémisphères cérébraux jouent donc, dans la perception et la production de la parole, quelle que soit la langue, des rôles essentiels et complémentaires.
  • La parole de HG isolé, purement mécanique - puisque dépourvue d'affectivité - perdrait son pouvoir de communication humaine qui est la fonction même de la parole.
  • La parole de HD isolé - réduite à sa composante affective - serait une modulation sans mots, exprimant les émotions à la manière d'un animal familier.
  • HG et HD entretiennent parfois, sous un même crâne, des relations conflictuelles, comme en témoignent les observations de patients au « cerveau dédoublé » (dont on a séparé les deux hémisphères chirurgicalement). Il apparaît que HG brime son jumeau et l'empêche de s'extérioriser.
  • Les méthodes d'apprentissage s'adressent majoritairement à une moitié du cerveau, la moitié gauche, par le recours à l'explication analytique.
  • Le fait de proposer des documents sonores (parole) en langue étrangère ne peut, seul, répondre aux objectifs recherchés (apprendre la langue authentique, la comprendre et la produire) puisque la parole étrangère est perçue par l'intermédiaire d'une oreille, (d'un cerveau) conditionnée à/par la langue maternelle. Les sons, rythmes, intonations spécifiques de la langue étrangère passent par le filtre solidement constitué de la langue maternelle. L'expression en « parole étrangère » des apprenants, quand elle est sollicitée, se révèle être une parole « étrange » constituée, au mieux, d'un idiome étranger porté par les caractéristiques musicales et acoustiques de la parole maternelle.


Propositions

Pour enseigner la dimension prosodique de la parole sur laquelle viendront se greffer les mots de la langue, nous suggérons :

  • d'adresser à HD la dimension prosodique, musicale, de la parole étrangère, porteuses des manifestations émotionnelles,
  • d'adresser simultanément à HG la dimension linguistique du message en langue étrangère.

Il faudra aussi « court-circuiter » l'influence dominatrice de HG, qui, en prenant le meilleur sur HD, concentre l'attention de l'apprenant sur le seul contenu linguistique, au détriment de la dimension prosodique.

Le système que nous proposons au chapitre suivant,(un outil pour la rééducation: i-lang), en maîtrisant les contraintes évoquées ci-dessus, permet de mettre l'apprenant dans les meilleures conditions de perception et de reproduction de la langue d'apprentissage.

Un outil pour la rééducation: i-lang

Montage et administration

Pour réaliser les objectifs évoqués au chapitre précédent nous avons conçu le dispositif i-lang qui permet d’adresser à l’hémisphère droit (HD), en dessous du niveau de conscience, la dimension prosodique (fréquentielle) de la parole, tandis que le message linguistique (séquentiel) est adressé synchroniquement, en totalité, à l’hémisphère gauche ( HG).

Ainsi, i-lang sépare les deux composantes prosodiques de la parole :

  • la composante prosodie linguistique, naturellement intégrée à l’énoncé global, intrinsèque à la langue (HG),
  • ET
  • la composante prosodie émotionnelle, spécifique de l’état émotionnel du locuteur (HD).

Perception du patient

  • Au plan de la perception, le patient, coiffé d’écouteurs stéréo indique qu’il ne perçoit rien dans l’oreille gauche (HD), qui reçoit cependant la dimension prosodique du discours, alors que le discours total est normalement perçu dans l’oreille droite (HG).

Il suffit d’obturer l’oreille droite un instant pour percevoir, dans l’oreille gauche un « murmure intoné » qui n’est autre que la dimension prosodique isolée du reste du discours. Le patient reçoit donc dans son HD la dimension prosodique du discours sans en être conscient.

Conclusion partielle et provisoire

Le montage i-lang démontre l'existence de la notion contestée de perception auditive subliminaire et ouvre la voie à la sollicitation cérébrale spécifique comme outil de rééquilibrage de l'activité des hémisphères cérébraux. Les évaluations par l'IRMf révèlent chez les patients testés une activation cérébrale qui confirme la réalité de la mobilisation simultanée des ressources de chaque hémisphère.Dans un article publié online par Human Brain Mapping ,une équipe de recherche citée en bibliographie spécifique présente les images d'activation cérébrale obtenues sur dix patients sollicités dans les conditions du montage i-lang (voir description succinte ci-dessous). Certes l'IRMf n'est qu'un outil et non une preuve . Il n'empêche que l'activation déclenchée par le filtrage i-lang est supérieure a celle déclenchée dans toutes les autres situations d'écoute. L'article cité est paru en ligne le 31 mai 2005.On peut l'obtenir par l'intermédiaire du site ci-dessous: http://www3.interscience.wiley.com/cgi-bin/fulltext



Confirmation par l'IRMf de l'activation cérébrale spécifique déclenchée par le dispositif i-lang

Dans le cadre d'une étude visant à évaluer l'impact éventuel de l'utilisation du dispositif i-lang sur l'activation cérébrale(blood-flow)dans chaque hémisphère, une équipe de recherche de l'Université de Bordeaux a étudié les variations du flux sanguin dans les quatre conditions suivantes:

NN:discours oral normal adressé à chaque oreille par l'intermédiaire d'écouteurs, simultanément.

FN: discours filtré passe-bas adressé à l'oreille gauche(HD),discours oral normal adressé à l'oreille droite (HG) simultanément.Cette condition correspond strictement au montage i-lang tel qu'il a été décrit dans le brevet d'invention en 1988, et différents textes cités en bibliographie.

NF:discours oral normal adressé à l'oreille gauche (HD), discours filtré passe-bas adressé à l'oreille droite (HG) simultanément.

FF:discours filtré passe-bas adressé à chaque oreille simultanément.

L'opération effectuée sur dix hommes droitiers (moyenne d'âge 28,6 ans), résumée dans un article dont les références figurent en bibliographie, révèle que la condition FN(qui schématise l'utilisation du dispositif i-lang décrit plus haut)présente une activation beaucoup plus importante que les autres conditions, en terme de localisation mais aussi en surface activée sur chaque hémisphère.

Ce résultat ouvre des perspectives inédites, tant dans le domaine de l'apprentissage des langues que dans celui de la rééducation de la parole perturbée. --J.A 81.248.52.208 16 sep 2005 à 14:48 (EDT)

Voir aussi


Webographie

Bibliographie spécifique

  • Alliaume J., 2005.- Parole(s) de cerveau, Fondation Fleur de Lys, info@manuscritdepot.com, Lévis, Québec, Canada.
  • Hesling,Dilharreguy,Clement,Bordessoules,Allard., 2005.-"Cerebral mechanisms of prosodic sensory integration using low-frequency bands of connected speech", Laboratoire d'imagerie moléculaire et fonctionnelle ERT CNRS 5543, Université Victor Segalen, Bordeaux, France. Published online 31 May 2005.

Bibliographie générale

  • ABRAMSON, A.S. 1972.- "Tonal experiments with whispered thaï" in Papers on linguistics and phonetics in memory of Pierre Delattre, Valdman ed., Mouton, The Hague, pp.31-34.
  • ABRAMSON, A.S. et LISKER, L. 1970.- "Discriminability along the voicing continuum cross language tests" in Proceedings of the 6th Congress of Phonetic Sciences, Prague, 569-573.
  • ADAMCZEWSKI, H, 1983.- Grammaire linguistique de l’anglais, Armand Colin, Paris.
  • ALLIAUME J., 1989.- Procédé de traitement de certaines composantes acoustiques de la parole et appareil de mise en œuvre, Brevet d'invention,N°2 642 557, Institut National de la Propriété Industrielle.
  • ALLIAUME, J. 1989.- "Prosodie et apprentissage des langues", Les Cahiers de l'APLIUT, 33, 96-104.
  • ALLIAUME J., 1993.- « Cerveau et langage », Carilang, Les cahiers du CERALEC, Gondwana Editions, Martinique.
  • ALLIAUME J., 1993.- « Approche neurolinguistique des phénomènes prosodiques » in Séminaire pratique de linguistique anglaise, ( Lapaire J.R et W. Rotgé., Eds ), Presses Universitaires du Mirail, Toulouse, pp.213-231).
  • ALLIAUME J 1999.- « Pour l’utilisation harmonieuse du cerveau dans le système éducatif français : un outil pour l’apprentissage des langues », Colloque journées internationales de linguistique appliquée, JILA 99, Nice.
  • ALLIAUME J 1998.- Le langage et les deux cerveaux, Editions du CERALEC, Fort de France.
  • BALLY C., 1932.- Linguistique générale et linguistique française, Franck, Berne, 4e éd.1965.
  • BROCA, P. 1865.- "Sur le siège de la faculté du langage articulé", Bulletin d'Anthropologie, 6, pp. 377-93.
  • CAMBIER J., 2001.- La mémoire, Idées reçues, Le cavalier bleu, Paris.
  • CAMBIER J. & P. VERSTICHEL, 1998.- Le cerveau réconcilié, Masson, Paris.
  • CRYSTAL D., 1987.- Tone languages, The Cambridge Encyclopaedia of language, Guild Publishing.
  • CUTTING, J. et ROSNER, B. 1974.- "Categories and boundaries in speech and music" in Perception and Psychophysics, 16.
  • CYTOWIC, R.E., 1995.- The man who tasted shapes, Warner Books, New York.
  • DAMASIO, A.R., 1995.- L’Erreur de Descartes, O.Jacob, Sciences, Paris.
  • DEGLIN V., 1976.-“Voyage à travers le cerveau”, Le Courrier de L'UNESCO, Paris, pp. 4-20. 190, pp. 597-610.
  • DELATTRE. P., 1968.-"Divergences entre nasalités vocaliques et consonantiques en français", Word, 24, pp. 64-72.
  • DIXON, N.F., 1993.- "Perception subliminaire", Le Cerveau, un inconnu", R. Laffont, 1007-1012.
  • EIMAS, P.D., 1973.- "Developmental studies in speech perception" in Infant perception, New York Academic Press, New York.
  • FANT G., 1960.- Acoustic theory of speech production, Marton and Co, Gravenhague, The Hague.
  • FINTOFT, K. et MARTONY, J. 1964.- "Word accents in East Norwegian" in Speech transmission laboratory, Quarterly progress and status report, 3, Stockholm:Royal Institute of Technology, 8-15.
  • FOURCIN, A. 1968.- "Formant transition perception with different fundamental frequencies of excitation" in Zeitschrift für Phonetik, 21,1-2.
  • FRY, D.B. 1958.- "Experiments in the perception of stress" in Language and speech, 1, p.126-152.
  • GALABURDA, A.M. , SANIDES, F. 1968.- "Cytoarchitectonic organization of the human auditory cortex", in The Journal of Comparative Neurology, 19O, 597-610.
  • GAZZANIGA, M., 1987.- Le cerveau social, R. Laffont, 118-119.
  • GERSHON, M.D., 1999.-“The Enteric Nervous System: A Second Brain” . The MC Graw-Hill companies.
  • GESHWIND, N., 1965.- "Disconnection syndromes in animal and man," (Part 1), Brain, 88, 237-294..
  • GESHWIND N. & W LEVITSKY, 1968.-“Human brain: Left-right asymmetries in temporal speech region”, Science, 161, pp. 186-187.
  • GIL, R. 1996.- Neuropsychologie, Masson, Paris.
  • GUBERINA, P. 1974.- "Structuration et dépassement des structures perceptives et psycholinguistiques dans la méthodologie SGAV" in Actes du 3e colloque international SGAV pour l'enseignement des langues, Paris, Didier, 41-48.
  • GUBERINA P., 1985.- The role of the body in learning foreign languages, Revue de Phonétique Appliquée, n°73-74-75.
  • GUBERINA P., 1990.- La surdité à bras le corps, Tire ta langue, Chronique de Philippe Barthelet, France Culture.
  • GUTNECHT, P. 1972.- "A note on the role of pitch as an element of the accent within synthetic pairs of syllables" in Proceedings of the 7th Congress of Phonetic Sciences, Montreal, Mouton, 890-893.
  • HABIB M. & A.M. GALABURDA, 1986.-“Déterminants biologiques de la dominance cérébrale”, Revue de Neurologie, Paris, 142, pp. 869-894.
  • HOWIE, J.M. 1972.- "Some experiments on the perception of mandarin tones" in Proceedings of the 7th Congress of Phonetic Sciences, Montreal, Mouton, 900-904
  • ISRAEL, L., 1995.- Cerveau droit, cerveau gauche-cultures et civilisations-, Plon, p.79.
  • IVRY, R., LEBBY, P. cités par VAUCLAIR, J. , FAGOT, J. juin 1995.- "L'asymétrie du traitement visuel", Science et Vie (hors série), 195, 42-51.
  • JASSEM, W., MORTON, J. et STEFEN BATOG, M.1968.- "The perception of stress in synthetic speech-like sitmuli" in Speech analysis and synthesis, 1, 288-308.
  • JAYNES, J. 1976.- The Origin of Consciousness in the Breakdown of the Bicameral Mind, Houghton Mifflin, Boston
  • JOSEPH, 1992.- The Right Brain and the Unconscious, Plenum Press, New York.
  • KIMURA D., 1967.- “Functional asymmetry of the brain in dichotic listening”, Cortex, vol. 3, 2, pp. 163-178.
  • LADEFOGED, R. et D BROADBENT, D.1975.- "Information carried by vowels" in Journal of the Acoustic Society of America, 29, 98-104.
  • LAPAIRE, J.R, et , W ROTGE 1993.- Séminaire pratique de linguistique anglaise, Presses Universitaires du Mirail, Toulouse.
  • LIEBERMAN, P. et MICHAELS, S.B. 1962.- "Some aspects of fundamental frequency and envelope amplitude as related to the emotional content of speech" in Journal of the acoustic society of America, vol.34, 7, 922-927.
  • LIBERMAN, A., COOPER, F.S., SHANKWEILER, D.P., STUDDERT-KENNEDY, M. 1967.- "Perception of the speech code" in Psychological Review, 74, 431-461.
  • LUBKER, J. et GAY, T. 1982.- "Anticipatory labial co-articulation: Experimental, biological and linguistic variables" in Journal of the Acoustical Society of America, 71, 437-448.
  • LURIA R.A., 1966.- Higher cortical functions in man, Tavistock, London.
  • MAEDA S., 1990.- Articulation compensatoire des voyelles, Recueil de publications et de communications du département RCP, CNET, pp. 26-27.
  • MALMBERG B., 1954.- La Phonétique, Que sais-je?, PUF, n°1875
  • MEHLER J.,1974.- Connaître par désapprentissage, Le cerveau humain, tome 2, Points, pp.26-27.
  • PENFIELD, W., and PEROT, P. 1963.- "The brain's record of auditory and visual experience: a final summary and discussion", Brain, 86, 595-702.
  • RAVIZZA J. & S. BELMORE, 1979.- “Auditory forebrain : Evidence from anatomical and behavioral experiments involving human and animal subjects”, in Handbook of behavioral neurobiology : Sensory integration, (R.B. Marsterton Ed), Vol.1, Plenum Press, New York.
  • RIGAULT, A. 1962.- "Rôle de la fréquence, de l'intensité et de la durée vocalique dans la perception de l'accent en français" in Proceedings of th 4th international congress of Phonetic Sciences, Helsinki, 735-748.
  • ROSENFIELD I., 1989.- L'invention de la mémoire, Eshel, Paris.
  • ROSS E., 1981.- “The aprosodias. Functional anatomic organization of the affective components of language in the right hemisphere”, Archives of Neurology, 38, pp. 561-564.
  • ROSS E., EDMONSON J.A. & G.B. SIEBERT, 1986.- "Transient loss of affective prosody following right-sided Wada test", Neurology, 36, (suppl.1), p. 319.
  • ROSS, E. 1988.- Prosody and brain lateralisation, Archives of neurology, 45, 338-340.
  • SACKS O., 1990.- Des yeux pour entendre, Le Seuil, Paris.
  • SACKS O., 1988.- L’homme qui prenait sa femme pour un chapeau, Le Seuil, Paris.
  • SHANKWEILER D.& M. STUDDERT-KENNEDY,1966.- "Lateral differences in perception of dichotically-presented synthetic C-V syllables and steady-state vowels", Journal of the Acoustic Society of America,39,6,1256.
  • SIDTIS J., 1984.- “Music, pitch perception and the mechanisms of cortical hearing”, Handbook of cognitive science, Plenum Press, pp.107.
  • SOULAIRAC A., cité par CORNUT G., 1986- La voix, Que sais-je?, PUF, n°627.
  • SPERRY, R.W. 1968. "Hemispheric deconnection and unity in conscious awareness", American Psychologist 23, 723-733.
  • SPERRY, R.W., GAZZANIGA M., and BOGEN, J.E. 1969.- "Interhemispheric relationships: the neocortical commissures; syndromes of hemisphere disconnection" in P.J. VINKEN and G.W. BRUYN (eds) Handbook of clinical neurology, New York, Wiley.
  • TALLAL, P. et M PIERCY. 1973. Nature, 241, 468.
  • TEZNER, D., TZAVARAS, J., GRUNER, J., HECAEN, H. (1972). "L'asymétrie droite-gauche du planum temporale" in Revue neurologique, 12, 6, 444-449.
  • THATCHER, S. et COOPER,W. 1974.- Hemispheric processing of intonation contours, Cortex, 10, 146-158.
  • TROUBETZKOY, N.C. 1949.- Principes de phonologie, Klincksieck, 54-56.
  • VYGOTSKY L.S., 1962.- Thought and language, The MIT press, Cambridge.
  • WATZLAWICK, P. 1980.- Le langage du changement, Points, 186, p.40.
  • WERKER, J.F. et al. 1989.- "Becoming a native listener" in American Scientist, 77, 54-59.
  • ZATORRE, R. 1993.- "Fonctions cérébrales et traitements auditifs complexes" .Revue de Neuropsychologie, vol.3, N°4, 407-425.