Neuroscience : Différence entre versions

De Ekopedia
Aller à : navigation, rechercher
(Conclusion partielle)
m
 
(41 révisions intermédiaires par 11 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
{{Ébauche}}
+
{{Apprendre}}
 +
Les '''neurosciences''' correspondent à l'ensemble de toutes les disciplines [[Biologie|biologique]]s et [[Médecine|médical]]es qui étudient tous les aspects, tant normaux que pathologiques, des neurones et du système nerveux. Le fonctionnement du cerveau va de pair avec l'intuition <ref>[http://https://www.cerveauetpsycho.fr/sd/psychologie/lintuition-ca-se-travaille-17165.php L'intuition ça se travaille] </ref>
  
 +
== Approche neurolinguistique de la parole ==
  
La neuroscience est...
+
Les neurosciences au service de l'[[apprentissage]] des [[langue]]s et de la rééducation des parole(s) perturbées.
  
 
== Les neurosciences au service de l'apprentissage des langues et de la rééducation des parole(s) perturbées: approche neurolinguistique de la parole ==
 
 
C'est le cerveau qui gère notre fonctionnement physiologique lorsque nous parlons et écoutons la parole, dans l'inconscience la plus totale de l'implication de nos organes phonatoires. C'est donc au cerveau qu'il est nécessaire de s'adresser pour influer sur notre production ou notre perception de la parole puisque c'est le cerveau qui commande simultanément (ou plutôt chronologiquement) tous les organes de parole et assure leur coordination.
 
C'est le cerveau qui gère notre fonctionnement physiologique lorsque nous parlons et écoutons la parole, dans l'inconscience la plus totale de l'implication de nos organes phonatoires. C'est donc au cerveau qu'il est nécessaire de s'adresser pour influer sur notre production ou notre perception de la parole puisque c'est le cerveau qui commande simultanément (ou plutôt chronologiquement) tous les organes de parole et assure leur coordination.
 
  
 
S'adresser au cerveau présuppose que l'on ait un minimum de connaissances sur son fonctionnement:
 
S'adresser au cerveau présuppose que l'on ait un minimum de connaissances sur son fonctionnement:
 
* Le cerveau se compose de deux hémisphères (le gauche HG, le droit, HD).
 
* Le cerveau se compose de deux hémisphères (le gauche HG, le droit, HD).
* Chaque hémisphère joue un rôle spécifique dans la perception et la production de parole (ils ne sont symétriques ni anatomiquement ni fonctionnellement).
+
* Chaque hémisphère joue un rôle spécifique dans la perception et la production de parole (ils ne sont symétriques ni anatomiquement ni fonctionnellement).
 
* HG est plus impliqué dans le traitement des sons de parole et des intonations linguistiques (accents, accentuations spécifiques de la langue).
 
* HG est plus impliqué dans le traitement des sons de parole et des intonations linguistiques (accents, accentuations spécifiques de la langue).
 
* HD est plus impliqué dans le traitement des intonations affectives du discours qui expriment, par la parole l'état émotionnel du sujet.
 
* HD est plus impliqué dans le traitement des intonations affectives du discours qui expriment, par la parole l'état émotionnel du sujet.
  
 
+
L'[[expression]] de la langue et l'expressivité du sujet parlant constituent les deux dimensions complémentaires et indissociables de la [[Communiquer|communication]] par la parole. Ces divisions correspondent à l'investissement respectif de chaque hémisphère cérébral, le gauche (HG) gérant majoritairement la dimension expression (lexico-grammaticale, syntaxique), le droit la composante expressivité (prosodique, kinésique).
L'expression de la langue et l'expressivité du sujet parlant constituent les deux dimensions complémentaires et indissociables de la communication par la parole. Ces divisions correspondent à l'investissement respectif de chaque hémisphère cérébral, le gauche (HG) gérant majoritairement la dimension expression (lexico-grammaticale, syntaxique), le droit la composante expressivité (prosodique, kinésique).
 
 
 
  
 
* Les deux hémisphères cérébraux jouent donc, dans la perception et la production de la parole, quelle que soit la langue, des rôles essentiels et complémentaires.
 
* Les deux hémisphères cérébraux jouent donc, dans la perception et la production de la parole, quelle que soit la langue, des rôles essentiels et complémentaires.
Ligne 25 : Ligne 22 :
 
* Les méthodes d'apprentissage s'adressent majoritairement à une moitié du cerveau, la moitié gauche, par le recours à l'explication analytique.
 
* Les méthodes d'apprentissage s'adressent majoritairement à une moitié du cerveau, la moitié gauche, par le recours à l'explication analytique.
 
* Le fait de proposer des documents sonores (parole) en langue étrangère ne peut, seul, répondre aux objectifs recherchés (apprendre la langue authentique, la comprendre et la produire) puisque la parole étrangère est perçue par l'intermédiaire d'une oreille, (d'un cerveau) conditionnée à/par la langue maternelle. Les sons, rythmes, intonations spécifiques de la langue étrangère passent par le filtre solidement constitué de la langue maternelle. L'expression en « parole étrangère » des apprenants, quand elle est sollicitée, se révèle être une parole « étrange » constituée, au mieux, d'un idiome étranger porté par les caractéristiques musicales et acoustiques de la parole maternelle.
 
* Le fait de proposer des documents sonores (parole) en langue étrangère ne peut, seul, répondre aux objectifs recherchés (apprendre la langue authentique, la comprendre et la produire) puisque la parole étrangère est perçue par l'intermédiaire d'une oreille, (d'un cerveau) conditionnée à/par la langue maternelle. Les sons, rythmes, intonations spécifiques de la langue étrangère passent par le filtre solidement constitué de la langue maternelle. L'expression en « parole étrangère » des apprenants, quand elle est sollicitée, se révèle être une parole « étrange » constituée, au mieux, d'un idiome étranger porté par les caractéristiques musicales et acoustiques de la parole maternelle.
 
  
 
=== Propositions ===
 
=== Propositions ===
 
Pour enseigner la dimension prosodique de la parole sur laquelle viendront se greffer les mots de la langue, nous suggérons :
 
Pour enseigner la dimension prosodique de la parole sur laquelle viendront se greffer les mots de la langue, nous suggérons :
* d'adresser à HD la dimension prosodique, musicale, de la parole étrangère, porteuses des manifestations émotionnelles,
+
* d'adresser à HD la dimension prosodique, [[Musique|musical]]e, de la parole étrangère, porteuses des manifestations émotionnelles,
* d'adresser simultanément à HG la dimension linguistique du message en langue étrangère.
+
* d'adresser simultanément à HG la dimension [[linguistique]] du message en langue étrangère.
 
Il faudra aussi « court-circuiter » l'influence dominatrice de HG, qui, en prenant le meilleur sur HD, concentre l'attention de l'apprenant sur le seul contenu linguistique, au détriment de la dimension prosodique.
 
Il faudra aussi « court-circuiter » l'influence dominatrice de HG, qui, en prenant le meilleur sur HD, concentre l'attention de l'apprenant sur le seul contenu linguistique, au détriment de la dimension prosodique.
  
Le système que nous proposons au chapitre suivant,(un outil pour la rééducation: i-lang), en maîtrisant les contraintes évoquées ci-dessus, permet de mettre l'apprenant dans les meilleures conditions de perception et de reproduction de la langue d'apprentissage.
+
Le système que nous proposons au chapitre suivant,(un [[outil]] pour la rééducation: ''i-lang''), en maîtrisant les contraintes évoquées ci-dessus, permet de mettre l'apprenant dans les meilleures conditions de perception et de reproduction de la langue d'apprentissage.
 +
 
 +
== Un outil pour la rééducation : ''i-lang'' ==
  
== Un outil pour la rééducation: i-lang ==
 
 
=== Montage et administration ===
 
=== Montage et administration ===
Pour réaliser les objectifs évoqués au chapitre précédent nous avons conçu le dispositif i-lang qui permet d’adresser à l’hémisphère droit (HD), en dessous du niveau de conscience, la dimension prosodique (fréquentielle) de la parole, tandis que le message linguistique (séquentiel) est adressé synchroniquement, en totalité, à l’hémisphère gauche ( HG).
+
Pour réaliser les objectifs évoqués au chapitre précédent nous avons conçu le dispositif ''i-lang'' qui permet d’adresser à l’hémisphère droit (HD), en dessous du niveau de [[conscience]], la dimension prosodique (fréquentielle) de la parole, tandis que le message linguistique (séquentiel) est adressé synchroniquement, en totalité, à l’hémisphère gauche (HG).
  
Ainsi, i-lang sépare les deux composantes prosodiques de la parole :
+
Ainsi, ''i-lang'' sépare les deux composantes prosodiques de la parole :
 
* la composante prosodie linguistique, naturellement intégrée à l’énoncé global, intrinsèque à la langue (HG),
 
* la composante prosodie linguistique, naturellement intégrée à l’énoncé global, intrinsèque à la langue (HG),
* ET
 
 
* la composante prosodie émotionnelle, spécifique de l’état émotionnel du locuteur (HD).
 
* la composante prosodie émotionnelle, spécifique de l’état émotionnel du locuteur (HD).
  
 
=== Perception du patient ===
 
=== Perception du patient ===
 
* Au plan de la perception, le patient, coiffé d’écouteurs stéréo indique qu’il ne perçoit rien dans l’oreille gauche (HD), qui reçoit cependant la dimension prosodique du discours, alors que le discours total est normalement perçu dans l’oreille droite (HG).
 
* Au plan de la perception, le patient, coiffé d’écouteurs stéréo indique qu’il ne perçoit rien dans l’oreille gauche (HD), qui reçoit cependant la dimension prosodique du discours, alors que le discours total est normalement perçu dans l’oreille droite (HG).
Il suffit d’obturer l’oreille droite un instant pour percevoir, dans l’oreille gauche un « murmure intoné » qui n’est autre que la dimension prosodique isolée du reste du discours. Le patient reçoit donc dans son HD la dimension prosodique du discours sans en être conscient.
+
Il suffit d’obturer l’oreille droite un instant pour percevoir, dans l’oreille gauche un « murmure intoné » qui n’est autre que la dimension prosodique isolée du reste du discours. Le patient reçoit donc dans son HD la dimension prosodique du discours sans en être conscient.
  
 
=== Conclusion partielle et provisoire ===
 
=== Conclusion partielle et provisoire ===
 +
[[Image:Cerveau.jpg|thumb|200px|right|Le cerveau gère notre fonctionnement physiologique lorsque nous [[Parler|parlons]] et [[Écouter|écoutons]].]]
  
Le montage i-lang démontre l'existence de la notion contestée de perception auditive subliminaire et ouvre la voie à la sollicitation cérébrale spécifique comme outil de rééquilibrage de l'activité des hémisphères cérébraux. Les évaluations par l'IRMf révèlent chez les patients testés une activation cérébrale qui confirme la réalité de la mobilisation simultanée des ressources de chaque hémisphère.Dans un article publié online par Human Brain Mapping ,une équipe de recherche citée en bibliographie spécifique présente les images d'activation cérébrale obtenues sur dix patients sollicités dans les conditions du montage i-lang (voir description succinte ci-dessous). Certes l'IRMf n'est qu'un outil et non une preuve . Il n'empêche que l'activation déclenchée par le filtrage i-lang est supérieure a celle déclenchée dans toutes les autres situations d'écoute.
+
Le montage ''i-lang'' démontre l'existence de la notion contestée de ''perception auditive subliminaire'' et ouvre la voie à la sollicitation cérébrale spécifique comme outil de rééquilibrage de l'activité des hémisphères cérébraux. Les évaluations par l'IRMf révèlent chez les patients testés une activation cérébrale qui confirme la réalité de la mobilisation simultanée des ressources de chaque hémisphère. Dans un article publié online par Human Brain Mapping, une équipe de recherche (citée en bibliographie) présente les images d'activation cérébrale obtenues sur dix patients sollicités dans les conditions du montage ''i-lang'' (voir description succincte ci-dessous). Certes l'IRMf n'est qu'un outil et non une preuve . Il n'empêche que l'activation déclenchée par le filtrage ''i-lang'' est supérieure a celle déclenchée dans toutes les autres situations d'écoute.
L'article cité est paru en ligne ''le 31 mai 2005''.On peut l'obtenir par l'intermédiaire du site ci-dessous:
 
http://www3.interscience.wiley.com/cgi-bin/fulltext
 
  
 +
====''Confirmation par l'IRMf de l'activation cérébrale spécifique''====
 +
Dans le cadre d'une étude visant à évaluer l'impact éventuel de l'utilisation du dispositif ''i-lang'' sur l'activation cérébrale (blood-flow) dans chaque hémisphère, une équipe de recherche de l'Université de Bordeaux a étudié les variations du flux sanguin dans les quatre conditions suivantes:
 +
:'''NN''': discours oral normal adressé à chaque oreille par l'intermédiaire d'écouteurs, simultanément.
 +
:'''FN''': discours filtré passe-bas adressé à l'oreille gauche (HD), discours oral normal adressé à l'oreille droite (HG) simultanément. ''Cette condition correspond strictement au montage i-lang tel qu'il a été décrit dans le brevet d'invention en 1988, et différents textes cités en bibliographie.''
 +
:'''NF''': discours oral normal adressé à l'oreille gauche (HD), discours filtré passe-bas adressé à l'oreille droite (HG) simultanément.
 +
:'''FF''': discours filtré passe-bas adressé à chaque oreille simultanément.
  
----
+
L'opération effectuée sur dix hommes droitiers (moyenne d'âge 28,6 ans), (résumée dans un article, voir bibliographie) révèle que la condition '''FN''' (qui schématise l'utilisation du dispositif ''i-lang'' décrit plus haut) présente une activation beaucoup plus importante que les autres conditions, en terme de localisation mais aussi en surface activée sur chaque hémisphère.
'''''Confirmation par l'IRMf de l'activation cérébrale spécifique déclenchée par le dispositif i-lang'''''
 
  
Dans le cadre d'une étude visant à évaluer l'impact éventuel de l'utilisation du dispositif i-lang sur l'activation cérébrale(blood-flow)dans chaque hémisphère, une équipe de recherche de l'Université de Bordeaux a étudié les variations du flux sanguin dans les quatre conditions suivantes:
+
Ce résultat ouvre des perspectives inédites, tant dans le domaine de l'apprentissage des langues que dans celui de la rééducation de la parole perturbée.
  
'''NN''':discours oral normal adressé à chaque oreille par l'intermédiaire d'écouteurs, simultanément.
 
  
'''FN''': discours filtré passe-bas adressé à l'oreille gauche(HD),discours oral normal adressé à l'oreille droite (HG) simultanément.''Cette condition correspond strictement au montage i-lang tel qu'il a été décrit dans le brevet d'invention en 1988, et différents textes cités en bibliographie.''
+
==Références==
 
+
{{Références}}
'''NF''':discours oral normal adressé à l'oreille gauche (HD), discours filtré passe-bas adressé à l'oreille droite (HG) simultanément.
 
 
 
'''FF''':discours filtré passe-bas adressé à chaque oreille simultanément.
 
 
 
L'opération effectuée sur dix hommes droitiers (moyenne d'âge 28,6 ans), résumée dans un article dont les références figurent en bibliographie, révèle que la condition '''FN'''(qui schématise l'utilisation du dispositif i-lang décrit plus haut)présente une activation beaucoup plus importante que les autres conditions, en terme de localisation mais aussi en surface activée sur chaque hémisphère.
 
 
 
Ce résultat ouvre des perspectives inédites, tant dans le domaine de l'apprentissage des langues que dans celui de la rééducation de la parole perturbée. --J.A [[Utilisateur:81.248.52.208|81.248.52.208]] 16 sep 2005 à 14:48 (EDT)
 
  
 
== Voir aussi ==
 
== Voir aussi ==
* [[Alternatives pour mieux apprendre]]
+
===Liens internes===
 +
* [[Activités d'éveil]]
 +
* [[Alternative pour mieux apprendre|Alternatives pour mieux apprendre]]
 +
* [[Classement thématique des neurosciences]]
 
* [[Éducation]]
 
* [[Éducation]]
* [[Activités d'éveil]]
+
* [[Intuition]]
 
+
* [[Neuroergonomie]]
 
+
* [[Sciences cognitives]]
== Webographie ==
 
* http://www.quebec.to/f/apprentissage
 
* http://www.chez.com/cervolang
 
 
 
== Bibliographie spécifique ==
 
*Alliaume J., 2005.- ''Parole(s) de cerveau'', Fondation Fleur de Lys, info@manuscritdepot.com, Lévis, Québec, Canada.
 
*Hesling,Dilharreguy,Clement,Bordessoules,Allard., 2005.-"Cerebral mechanisms of prosodic sensory integration using low-frequency bands of connected speech", Laboratoire d'imagerie moléculaire et fonctionnelle ERT CNRS  5543, Université Victor Segalen, Bordeaux, France. Published online ''31 May 2005''.
 
 
 
==Bibliographie générale==
 
 
 
 
 
*ABRAMSON, A.S. 1972.- "Tonal experiments with whispered thaï" in Papers on linguistics and phonetics in memory of Pierre Delattre, Valdman ed., Mouton, The Hague, pp.31-34.
 
 
 
*ABRAMSON, A.S. et LISKER, L. 1970.- "Discriminability along the voicing continuum cross language tests" in Proceedings of the 6th Congress of Phonetic Sciences, Prague, 569-573.
 
 
 
*ADAMCZEWSKI, H, 1983.- Grammaire linguistique de l’anglais, Armand Colin, Paris.
 
 
 
*ALLIAUME J., 1989.- Procédé de traitement de certaines composantes acoustiques de la parole et appareil de mise en œuvre, Brevet d'invention,N°2 642 557, Institut National de la Propriété Industrielle.
 
 
 
*ALLIAUME, J. 1989.- "Prosodie et apprentissage des langues", Les Cahiers de l'APLIUT, 33, 96-104.
 
 
 
*ALLIAUME J., 1993.- « Cerveau et langage », Carilang, Les cahiers du CERALEC, Gondwana Editions, Martinique.
 
 
 
*ALLIAUME J., 1993.- « Approche neurolinguistique des phénomènes prosodiques » in Séminaire pratique de linguistique anglaise, ( Lapaire J.R et W. Rotgé., Eds ), Presses Universitaires du Mirail, Toulouse, pp.213-231).
 
 
 
*ALLIAUME J  1999.-  « Pour l’utilisation harmonieuse du cerveau dans le système éducatif français : un outil pour l’apprentissage des langues », Colloque journées internationales de linguistique appliquée, JILA 99, Nice.
 
 
 
*ALLIAUME J  1998.- Le langage et les deux cerveaux, Editions du CERALEC, Fort de France.
 
 
 
*BALLY C., 1932.- Linguistique générale et linguistique française, Franck, Berne, 4e éd.1965.
 
 
 
*BROCA, P. 1865.- "Sur le siège de la faculté du langage articulé", Bulletin d'Anthropologie, 6, pp. 377-93.
 
 
 
*CAMBIER J., 2001.-  La mémoire, Idées reçues, Le cavalier bleu, Paris.
 
 
 
*CAMBIER J. & P. VERSTICHEL, 1998.- Le cerveau réconcilié, Masson, Paris.
 
 
 
*CRYSTAL D., 1987.- Tone languages, The Cambridge Encyclopaedia of language, Guild  Publishing.
 
 
 
*CUTTING, J. et ROSNER, B. 1974.- "Categories and boundaries in speech and music" in Perception and Psychophysics, 16.
 
 
 
*CYTOWIC, R.E., 1995.- The man who tasted shapes, Warner Books, New York.
 
 
 
*DAMASIO, A.R., 1995.- L’Erreur de Descartes, O.Jacob, Sciences, Paris.
 
 
 
*DEGLIN V., 1976.-“Voyage à travers le cerveau”, Le Courrier de L'UNESCO, Paris, pp. 4-20. 190, pp. 597-610.
 
 
 
*DELATTRE. P., 1968.-"Divergences entre nasalités vocaliques et consonantiques en français", Word, 24, pp. 64-72.
 
 
 
*DIXON, N.F., 1993.- "Perception subliminaire", Le Cerveau, un inconnu", R. Laffont, 1007-1012.
 
 
 
*EIMAS, P.D., 1973.- "Developmental studies in speech perception" in Infant perception,  New York Academic Press, New York.
 
 
 
*FANT G., 1960.- Acoustic theory of speech production, Marton and Co, Gravenhague, The Hague.
 
 
 
*FINTOFT, K. et MARTONY, J. 1964.- "Word accents in East Norwegian" in Speech transmission laboratory, Quarterly progress and status report, 3, Stockholm:Royal Institute of Technology, 8-15.
 
 
 
*FOURCIN, A. 1968.- "Formant transition perception with different fundamental frequencies of excitation" in Zeitschrift für Phonetik, 21,1-2.
 
 
 
*FRY, D.B. 1958.- "Experiments in the perception of stress" in Language and speech, 1, p.126-152.
 
 
 
*GALABURDA, A.M. , SANIDES, F. 1968.- "Cytoarchitectonic organization of the human auditory cortex", in The Journal of Comparative Neurology, 19O, 597-610.
 
 
 
*GAZZANIGA, M., 1987.- Le cerveau social, R. Laffont, 118-119.
 
 
 
*GERSHON, M.D., 1999.-“The Enteric Nervous System: A Second Brain” . The MC Graw-Hill companies.
 
 
 
*GESHWIND, N., 1965.- "Disconnection syndromes in animal and man," (Part 1), Brain, 88, 237-294..
 
 
 
*GESHWIND N. & W LEVITSKY, 1968.-“Human brain: Left-right asymmetries in temporal speech region”, Science, 161, pp. 186-187. 
 
 
 
*GIL, R. 1996.- Neuropsychologie, Masson, Paris.
 
 
 
*GUBERINA, P. 1974.- "Structuration et dépassement des structures perceptives et psycholinguistiques dans la méthodologie SGAV" in Actes du 3e colloque international SGAV pour l'enseignement des langues, Paris, Didier, 41-48.
 
 
 
*GUBERINA P., 1985.- The role of the body in learning  foreign languages, Revue de Phonétique Appliquée, n°73-74-75.
 
 
 
*GUBERINA P., 1990.- La surdité à bras le corps, Tire ta langue, Chronique de Philippe Barthelet, France Culture.
 
 
 
*GUTNECHT, P. 1972.- "A note on the role of pitch as an element of the accent within synthetic pairs of syllables" in Proceedings of the 7th Congress of Phonetic Sciences, Montreal, Mouton, 890-893.
 
 
 
*HABIB M. & A.M. GALABURDA, 1986.-“Déterminants biologiques de la dominance cérébrale”, Revue de Neurologie, Paris, 142, pp. 869-894. 
 
 
 
*HOWIE, J.M. 1972.- "Some experiments on the perception of mandarin tones" in  Proceedings of the 7th Congress of Phonetic Sciences, Montreal, Mouton, 900-904
 
 
 
*ISRAEL, L., 1995.- Cerveau droit, cerveau gauche-cultures et civilisations-, Plon, p.79.
 
 
 
*IVRY, R., LEBBY, P. cités par VAUCLAIR, J. , FAGOT, J. juin 1995.- "L'asymétrie du traitement visuel",  Science et Vie (hors série), 195, 42-51.
 
 
 
*JASSEM, W., MORTON, J. et STEFEN BATOG, M.1968.- "The perception of stress in synthetic speech-like sitmuli" in Speech analysis and synthesis, 1, 288-308.
 
 
 
*JAYNES, J. 1976.- The Origin of Consciousness in the Breakdown of the Bicameral Mind, Houghton Mifflin, Boston
 
 
 
*JOSEPH,  1992.- The Right Brain and the Unconscious, Plenum Press, New York.
 
 
 
*KIMURA D., 1967.- “Functional asymmetry of the brain in dichotic listening”, Cortex, vol. 3, 2, pp. 163-178. 
 
 
 
*LADEFOGED, R. et D BROADBENT, D.1975.- "Information carried by vowels" in Journal of the Acoustic Society of America, 29, 98-104.
 
 
 
*LAPAIRE, J.R, et , W ROTGE 1993.- Séminaire pratique de linguistique anglaise, Presses Universitaires du Mirail, Toulouse.
 
 
 
*LIEBERMAN, P. et MICHAELS, S.B. 1962.- "Some aspects of fundamental frequency and envelope amplitude as related to the emotional content of speech" in Journal of the acoustic society of America, vol.34, 7, 922-927.
 
 
 
*LIBERMAN, A., COOPER, F.S., SHANKWEILER, D.P., STUDDERT-KENNEDY, M. 1967.- "Perception of the speech code" in  Psychological Review, 74, 431-461.
 
 
 
*LUBKER, J. et GAY, T. 1982.- "Anticipatory labial co-articulation: Experimental, biological and linguistic variables" in Journal of the Acoustical Society of America, 71, 437-448.
 
 
 
*LURIA R.A., 1966.- Higher cortical functions in man, Tavistock, London.
 
 
 
*MAEDA S., 1990.- Articulation compensatoire des voyelles, Recueil de publications et de communications du département RCP, CNET, pp. 26-27.
 
 
 
*MALMBERG B., 1954.- La Phonétique, Que sais-je?, PUF, n°1875
 
 
 
*MEHLER J.,1974.- Connaître par désapprentissage, Le cerveau humain, tome 2, Points, pp.26-27.
 
 
 
*PENFIELD, W., and PEROT, P. 1963.- "The brain's record of auditory and visual experience: a final summary and discussion", Brain, 86, 595-702.
 
 
 
*RAVIZZA J. & S. BELMORE, 1979.- “Auditory forebrain : Evidence from anatomical and behavioral experiments involving human and animal subjects”, in Handbook of behavioral neurobiology : Sensory integration, (R.B. Marsterton Ed), Vol.1, Plenum Press, New York.
 
 
 
*RIGAULT, A. 1962.- "Rôle de la fréquence, de l'intensité et de la durée vocalique dans la perception de l'accent en français" in Proceedings of th 4th international congress of Phonetic Sciences, Helsinki, 735-748.
 
 
 
*ROSENFIELD I., 1989.- L'invention de la mémoire, Eshel, Paris.   
 
 
 
*ROSS E., 1981.- “The aprosodias. Functional anatomic organization of the affective components of language in the right hemisphere”, Archives of Neurology, 38, pp. 561-564.   
 
 
 
*ROSS E., EDMONSON J.A. & G.B. SIEBERT, 1986.- "Transient loss of affective prosody following right-sided Wada test", Neurology, 36, (suppl.1), p. 319.
 
 
 
*ROSS, E. 1988.- Prosody and brain lateralisation, Archives of neurology, 45, 338-340.
 
 
 
*SACKS  O., 1990.- Des yeux pour entendre, Le Seuil, Paris.
 
 
 
*SACKS O., 1988.- L’homme qui prenait sa femme pour un chapeau, Le Seuil, Paris. 
 
 
 
*SHANKWEILER D.& M. STUDDERT-KENNEDY,1966.- "Lateral differences in perception of dichotically-presented synthetic C-V syllables and steady-state vowels", Journal of the Acoustic Society of America,39,6,1256.
 
 
 
*SIDTIS J., 1984.- “Music, pitch perception and the mechanisms of cortical hearing”, Handbook of cognitive science, Plenum Press, pp.107.
 
 
 
*SOULAIRAC A., cité par CORNUT G., 1986- La voix, Que sais-je?, PUF, n°627.
 
 
 
*SPERRY, R.W. 1968. "Hemispheric deconnection and unity in conscious awareness", American Psychologist 23, 723-733.
 
 
 
*SPERRY, R.W., GAZZANIGA  M., and BOGEN, J.E. 1969.- "Interhemispheric relationships: the neocortical commissures; syndromes of hemisphere disconnection" in P.J. VINKEN and G.W. BRUYN (eds) Handbook of clinical neurology, New York, Wiley.
 
 
 
*TALLAL, P. et M PIERCY. 1973. Nature, 241, 468.
 
 
 
*TEZNER, D., TZAVARAS, J., GRUNER, J., HECAEN, H. (1972). "L'asymétrie droite-gauche du planum temporale" in Revue neurologique, 12, 6, 444-449.
 
 
 
*THATCHER, S. et COOPER,W. 1974.- Hemispheric processing of intonation contours, Cortex, 10, 146-158.
 
  
*TROUBETZKOY, N.C. 1949.- Principes de phonologie, Klincksieck, 54-56.
+
===Lien externe===
 +
{{fr}} [http://www.quebec.to/f/apprentissage Un cerveau pour toutes les paroles du monde]
  
*VYGOTSKY L.S., 1962.- Thought and language, The MIT press, Cambridge.  
+
=== Bibliographie ===
 +
* ''Parole(s) de cerveau'', J. Alliaume, 2005, Fondation Fleur de Lys, info@manuscritdepot.com, Lévis, Québec, Canada.
 +
* ''Cerebral mechanisms of prosodic sensory integration using low-frequency bands of connected speech'', Hesling, Dilharreguy, Clement, Bordessoules, Allard., 2005.
  
*WATZLAWICK, P. 1980.- Le langage du changement,  Points, 186, p.40.
+
{{Boîte déroulante/début|titre=Bibliographie générale|couleurFondT=#lightgrey}}
 +
====En français====
 +
*{{fr}}ADAMCZEWSKI, H, 1983.- ''Grammaire linguistique de l’anglais'', Armand Colin, Paris.
 +
*{{fr}}ALLIAUME J., 1989.- ''Procédé de traitement de certaines composantes acoustiques de la parole et appareil de mise en œuvre'', Brevet d'invention N°2 642 557, Institut National de la Propriété Industrielle.
 +
*{{fr}}ALLIAUME, J. 1989.- "''Prosodie et apprentissage des langues''", Les Cahiers de l'APLIUT, 33, 96-104.
 +
*{{fr}}ALLIAUME J., 1993.- « ''Cerveau et langage'' », Carilang, Les cahiers du CERALEC, Gondwana Editions, Martinique.
 +
*{{fr}}ALLIAUME J., 1993.- « ''Approche neurolinguistique des phénomènes prosodiques'' » in Séminaire pratique de linguistique anglaise, ( Lapaire J.R et W. Rotgé., Eds ), Presses Universitaires du Mirail, Toulouse, pp.213-231).
 +
*{{fr}}ALLIAUME J & I. HESLING, 1999.-  « ''Pour l’utilisation harmonieuse du cerveau dans le système éducatif français'' : ''un outil pour l’apprentissage des langues'' », Colloque journées internationales de linguistique appliquée, JILA 99, Nice.
 +
*{{fr}}ALLIAUME J & I. HESLING, 1998.- ''Le langage et les deux cerveaux'', Editions du CERALEC, Fort de France.
 +
*{{fr}}BALLY C., 1932.- ''Linguistique générale et linguistique française'', Franck, Berne, 4e éd.1965.
 +
*{{fr}}BROCA, P. 1865.- "''Sur le siège de la faculté du langage articulé''", Bulletin d'Anthropologie, 6, pp. 377-93.
 +
*{{fr}}CAMBIER J., 2001.-  ''La mémoire'', ''Idées reçues'', Le cavalier bleu, Paris.
 +
*{{fr}}CAMBIER J. & P. VERSTICHEL, 1998.- ''Le cerveau réconcilié'', Masson, Paris.
 +
*{{fr}}DAMASIO, A.R., 1995.- ''L’Erreur de Descartes'', O.Jacob, Sciences, Paris.
 +
*{{fr}}DEGLIN V., 1976.-“Voyage à travers le cerveau”, Le Courrier de L'UNESCO, Paris, pp. 4-20. 190, pp. 597-610.
 +
*{{fr}}DELATTRE. P., 1968.-"''Divergences entre nasalités vocaliques et consonantiques en français''", Word, 24, pp. 64-72.
 +
*{{fr}}DIXON, N.F., 1993.- "''Perception subliminaire''", Le Cerveau, un inconnu", R. Laffont, 1007-1012.
 +
*{{fr}}GAZZANIGA, M., 1987.- Le cerveau social, R. Laffont, 118-119.
 +
*{{fr}}GUBERINA, P. 1974.- "Structuration et dépassement des structures perceptives et psycholinguistiques dans la méthodologie SGAV" in Actes du 3e colloque international SGAV pour l'enseignement des langues, Paris, Didier, 41-48.
 +
*{{fr}}GUBERINA P., 1990.- La surdité à bras le corps, Tire ta langue, Chronique de Philippe Barthelet, France Culture.
 +
*{{fr}}HABIB M. & A.M. GALABURDA, 1986.-“Déterminants biologiques de la dominance cérébrale”, Revue de Neurologie, Paris, 142, pp. 869-894. 
 +
*{{fr}}HESLING I., & J. ALLIAUME J , 1998.- Le langage et les deux cerveaux, Editions du CERALEC, Fort de France.
 +
*{{fr}}HESLING I., 2000.- Le rôle de l’hémisphère droit dans la perception et la production de la parole, Thèse de Doctorat d’Université, UFR Langues, Toulouse-Le Mirail.
 +
*{{fr}}HESLING I., 1999.- « Apprentissage précoce des langues étrangères. Les ressources de l’hémisphère droit », Colloque des journées internationales de linguistique appliquée, JILA99, Nice.
 +
*{{fr}}ISRAEL, L., 1995.- Cerveau droit, cerveau gauche-cultures et civilisations-, Plon, p.79.
 +
*{{fr}}IVRY, R., LEBBY, P. cités par VAUCLAIR, J. , FAGOT, J. juin 1995.- "L'asymétrie du traitement visuel",  Science et Vie (hors série), 195, 42-51.
 +
*{{fr}}LAPAIRE, J.R, et , W ROTGE 1993.- Séminaire pratique de linguistique anglaise, Presses Universitaires du Mirail, Toulouse.
 +
*{{fr}}MAEDA S., 1990.- ''Articulation compensatoire des voyelles'', Recueil de publications et de communications du département RCP, CNET, pp. 26-27.
 +
*{{fr}}MALMBERG B., 1954.- ''La Phonétique, Que sais-je?'', PUF, n°1875
 +
*{{fr}}MEHLER J.,1974.- Connaître par désapprentissage, Le cerveau humain, tome 2, Points, pp.26-27.
 +
*{{fr}}RIGAULT, A. 1962.- "''Rôle de la fréquence, de l'intensité et de la durée vocalique dans la perception de l'accent en français''" in Proceedings of th 4th international congress of Phonetic Sciences, Helsinki, 735-748.
 +
*{{fr}}ROSENFIELD I., 1989.- ''L'invention de la mémoire'', Eshel, Paris.   
 +
*{{fr}}SACKS  O., 1990.- ''Des yeux pour entendre'', Le Seuil, Paris.
 +
*{{fr}}SACKS O., 1988.- ''L’homme qui prenait sa femme pour un chapeau'', Le Seuil, Paris. 
 +
*{{fr}}SOULAIRAC A., cité par CORNUT G., 1986- La voix, Que sais-je?, PUF, n°627.
 +
*{{fr}}TALLAL, P. et M PIERCY. 1973. Nature, 241, 468.
 +
*{{fr}}TEZNER, D., TZAVARAS, J., GRUNER, J., HECAEN, H. (1972). "''L'asymétrie droite-gauche du planum temporale''" in Revue neurologique, 12, 6, 444-449.
 +
*{{fr}}TROUBETZKOY, N.C. 1949.- ''Principes de phonologie'', Klincksieck, 54-56. 
 +
*{{fr}}WATZLAWICK, P. 1980.- ''Le langage du changement'',  Points, 186, p.40.
 +
*{{fr}}ZATORRE, R. 1993.- "''Fonctions cérébrales et traitements auditifs complexes''". Revue de Neuropsychologie, vol.3, N°4, 407-425.
 +
====En anglais====
 +
*{{en}}ABRAMSON, A.S. 1972.- "''Tonal experiments with whispered thaï''" in Papers on linguistics and phonetics in memory of Pierre Delattre, Valdman ed., Mouton, The Hague, pp.31-34.
 +
*{{en}}ABRAMSON, A.S. et LISKER, L. 1970.- "''Discriminability along the voicing continuum cross language tests''" in Proceedings of the 6th Congress of Phonetic Sciences, Prague, 569-573.
 +
*{{en}}CRYSTAL D., 1987.- ''Tone languages'', The Cambridge Encyclopaedia of language, Guild  Publishing.
 +
*{{en}}CUTTING, J. et ROSNER, B. 1974.- "''Categories and boundaries in speech and music''" in Perception and Psychophysics, 16.
 +
*{{en}}CYTOWIC, R.E., 1995.- ''The man who tasted shapes'', Warner Books, New York.
 +
*{{en}}EIMAS, P.D., 1973.- "''Developmental studies in speech perception''" in Infant perception,  New York Academic Press, New York.
 +
*{{en}}FANT G., 1960.- Acoustic theory of speech production, Marton and Co, Gravenhague, The Hague.
 +
*{{en}}FINTOFT, K. et MARTONY, J. 1964.- "Word accents in East Norwegian" in Speech transmission laboratory, Quarterly progress and status report, 3, Stockholm:Royal Institute of Technology, 8-15.
 +
*{{en}}FOURCIN, A. 1968.- "Formant transition perception with different fundamental frequencies of excitation" in Zeitschrift für Phonetik, 21,1-2.
 +
*{{en}}FRY, D.B. 1958.- "Experiments in the perception of stress" in Language and speech, 1, p.126-152.
 +
*{{en}}GALABURDA, A.M. , SANIDES, F. 1968.- "Cytoarchitectonic organization of the human auditory cortex", in The Journal of Comparative Neurology, 19O, 597-610.
 +
*{{en}}GERSHON, M.D., 1999.-“The Enteric Nervous System: A Second Brain” . The MC Graw-Hill companies.
 +
*{{en}}GESHWIND, N., 1965.- "Disconnection syndromes in animal and man," (Part 1), Brain, 88, 237-294..
 +
*{{en}}GESHWIND N. & W LEVITSKY, 1968.-“Human brain: Left-right asymmetries in temporal speech region”, Science, 161, pp. 186-187. 
 +
*{{en}}GIL, R. 1996.- Neuropsychologie, Masson, Paris.
 +
*{{en}}GUBERINA P., 1985.- The role of the body in learning  foreign languages, Revue de Phonétique Appliquée, n°73-74-75.
 +
*{{en}}GUTNECHT, P. 1972.- "A note on the role of pitch as an element of the accent within synthetic pairs of syllables" in Proceedings of the 7th Congress of Phonetic Sciences, Montreal, Mouton, 890-893.
 +
*{{en}}HOWIE, J.M. 1972.- "Some experiments on the perception of mandarin tones" in  Proceedings of the 7th Congress of Phonetic Sciences, Montreal, Mouton, 900-904
 +
*{{en}}JASSEM, W., MORTON, J. et STEFEN BATOG, M.1968.- "The perception of stress in synthetic speech-like sitmuli" in Speech analysis and synthesis, 1, 288-308.
 +
*{{en}}JAYNES, J. 1976.- The Origin of Consciousness in the Breakdown of the Bicameral Mind, Houghton Mifflin, Boston
 +
*{{en}}JOSEPH,  1992.- The Right Brain and the Unconscious, Plenum Press, New York.
 +
*{{en}}KIMURA D., 1967.- “Functional asymmetry of the brain in dichotic listening”, Cortex, vol. 3, 2, pp. 163-178. 
 +
*{{en}}LADEFOGED, R. et D BROADBENT, D.1975.- "Information carried by vowels" in Journal of the Acoustic Society of America, 29, 98-104.
 +
*{{en}}LIEBERMAN, P. et MICHAELS, S.B. 1962.- "Some aspects of fundamental frequency and envelope amplitude as related to the emotional content of speech" in Journal of the acoustic society of America, vol.34, 7, 922-927.
 +
*{{en}}LIBERMAN, A., COOPER, F.S., SHANKWEILER, D.P., STUDDERT-KENNEDY, M. 1967.- "Perception of the speech code" in  Psychological Review, 74, 431-461.
 +
*{{en}}LUBKER, J. et GAY, T. 1982.- "''Anticipatory labial co-articulation: Experimental, biological and linguistic variables''" in Journal of the Acoustical Society of America, 71, 437-448.
 +
*{{en}}LURIA R.A., 1966.- ''Higher cortical functions in man'', Tavistock, London.
 +
*{{en}}PENFIELD, W., and PEROT, P. 1963.- "''The brain's record of auditory and visual experience: a final summary and discussion''", Brain, 86, 595-702.
 +
*{{en}}RAVIZZA J. & S. BELMORE, 1979.- “''Auditory forebrain : Evidence from anatomical and behavioral experiments involving human and animal subjects''”, in Handbook of behavioral neurobiology : Sensory integration, (R.B. Marsterton Ed), Vol.1, Plenum Press, New York.
 +
*{{en}}ROSS E., 1981.- “''The aprosodias. Functional anatomic organization of the affective components of language in the right hemisphere''”, Archives of Neurology, 38, pp. 561-564.   
 +
*{{en}}ROSS E., EDMONSON J.A. & G.B. SIEBERT, 1986.- "''Transient loss of affective prosody following right-sided Wada test''", Neurology, 36, (suppl.1), p. 319.
 +
*{{en}}ROSS, E. 1988.- ''Prosody and brain lateralisation'', Archives of neurology, 45, 338-340.
 +
*{{en}}SHANKWEILER D.& M. STUDDERT-KENNEDY,1966.- "''Lateral differences in perception of dichotically-presented synthetic C-V syllables and steady-state vowels''", Journal of the Acoustic Society of America,39,6,1256.
 +
*{{en}}SIDTIS J., 1984.- “''Music, pitch perception and the mechanisms of cortical hearing''”, Handbook of cognitive science, Plenum Press, pp.107.
 +
*{{en}}SPERRY, R.W. 1968. "Hemispheric deconnection and unity in conscious awareness", American Psychologist 23, 723-733.
 +
*{{en}}SPERRY, R.W., GAZZANIGA  M., and BOGEN, J.E. 1969.- "Interhemispheric relationships: the neocortical commissures; syndromes of hemisphere disconnection" in P.J. VINKEN and G.W. BRUYN (eds) Handbook of clinical neurology, New York, Wiley.
 +
*{{en}}THATCHER, S. et COOPER,W. 1974.- ''Hemispheric processing of intonation contours'', Cortex, 10, 146-158.
 +
*{{en}}VYGOTSKY L.S., 1962.- ''Thought and language'', The MIT press, Cambridge.
 +
*{{en}}WERKER, J.F.  et al. 1989.- "''Becoming a native listener''" in American Scientist, 77, 54-59.
 +
{{Boîte déroulante/fin}}
  
*WERKER, J.F.  et al. 1989.- "Becoming a native listener" in American Scientist, 77, 54-59.
 
  
*ZATORRE, R. 1993.- "Fonctions cérébrales et traitements auditifs complexes" .Revue de Neuropsychologie, vol.3, N°4, 407-425.
+
{{Portail Apprendre}}
 +
[[Catégorie:Apprendre]]
 +
[[Catégorie:Communiquer]]
 +
[[Catégorie:Sciences naturelles]]
 +
[[Catégorie:Médecine]]
 +
[[Catégorie:Biologie]]

Version actuelle en date du 30 avril 2020 à 00:34

Noia 64 apps kdict.png
Cet article fait partie du
Thème Apprendre

Activités d'éveil
Astuce de Grands-Mères
Éducation
Réseau échanges savoirs
Ressources non libres de droits
Ressources libres de droits
Alternatives pour mieux apprendre
Neuroscience
Catégorie apprendre

Les neurosciences correspondent à l'ensemble de toutes les disciplines biologiques et médicales qui étudient tous les aspects, tant normaux que pathologiques, des neurones et du système nerveux. Le fonctionnement du cerveau va de pair avec l'intuition [1]

Approche neurolinguistique de la parole[modifier]

Les neurosciences au service de l'apprentissage des langues et de la rééducation des parole(s) perturbées.

C'est le cerveau qui gère notre fonctionnement physiologique lorsque nous parlons et écoutons la parole, dans l'inconscience la plus totale de l'implication de nos organes phonatoires. C'est donc au cerveau qu'il est nécessaire de s'adresser pour influer sur notre production ou notre perception de la parole puisque c'est le cerveau qui commande simultanément (ou plutôt chronologiquement) tous les organes de parole et assure leur coordination.

S'adresser au cerveau présuppose que l'on ait un minimum de connaissances sur son fonctionnement:

  • Le cerveau se compose de deux hémisphères (le gauche HG, le droit, HD).
  • Chaque hémisphère joue un rôle spécifique dans la perception et la production de parole (ils ne sont symétriques ni anatomiquement ni fonctionnellement).
  • HG est plus impliqué dans le traitement des sons de parole et des intonations linguistiques (accents, accentuations spécifiques de la langue).
  • HD est plus impliqué dans le traitement des intonations affectives du discours qui expriment, par la parole l'état émotionnel du sujet.

L'expression de la langue et l'expressivité du sujet parlant constituent les deux dimensions complémentaires et indissociables de la communication par la parole. Ces divisions correspondent à l'investissement respectif de chaque hémisphère cérébral, le gauche (HG) gérant majoritairement la dimension expression (lexico-grammaticale, syntaxique), le droit la composante expressivité (prosodique, kinésique).

  • Les deux hémisphères cérébraux jouent donc, dans la perception et la production de la parole, quelle que soit la langue, des rôles essentiels et complémentaires.
  • La parole de HG isolé, purement mécanique - puisque dépourvue d'affectivité - perdrait son pouvoir de communication humaine qui est la fonction même de la parole.
  • La parole de HD isolé - réduite à sa composante affective - serait une modulation sans mots, exprimant les émotions à la manière d'un animal familier.
  • HG et HD entretiennent parfois, sous un même crâne, des relations conflictuelles, comme en témoignent les observations de patients au « cerveau dédoublé » (dont on a séparé les deux hémisphères chirurgicalement). Il apparaît que HG brime son jumeau et l'empêche de s'extérioriser.
  • Les méthodes d'apprentissage s'adressent majoritairement à une moitié du cerveau, la moitié gauche, par le recours à l'explication analytique.
  • Le fait de proposer des documents sonores (parole) en langue étrangère ne peut, seul, répondre aux objectifs recherchés (apprendre la langue authentique, la comprendre et la produire) puisque la parole étrangère est perçue par l'intermédiaire d'une oreille, (d'un cerveau) conditionnée à/par la langue maternelle. Les sons, rythmes, intonations spécifiques de la langue étrangère passent par le filtre solidement constitué de la langue maternelle. L'expression en « parole étrangère » des apprenants, quand elle est sollicitée, se révèle être une parole « étrange » constituée, au mieux, d'un idiome étranger porté par les caractéristiques musicales et acoustiques de la parole maternelle.

Propositions[modifier]

Pour enseigner la dimension prosodique de la parole sur laquelle viendront se greffer les mots de la langue, nous suggérons :

  • d'adresser à HD la dimension prosodique, musicale, de la parole étrangère, porteuses des manifestations émotionnelles,
  • d'adresser simultanément à HG la dimension linguistique du message en langue étrangère.

Il faudra aussi « court-circuiter » l'influence dominatrice de HG, qui, en prenant le meilleur sur HD, concentre l'attention de l'apprenant sur le seul contenu linguistique, au détriment de la dimension prosodique.

Le système que nous proposons au chapitre suivant,(un outil pour la rééducation: i-lang), en maîtrisant les contraintes évoquées ci-dessus, permet de mettre l'apprenant dans les meilleures conditions de perception et de reproduction de la langue d'apprentissage.

Un outil pour la rééducation : i-lang[modifier]

Montage et administration[modifier]

Pour réaliser les objectifs évoqués au chapitre précédent nous avons conçu le dispositif i-lang qui permet d’adresser à l’hémisphère droit (HD), en dessous du niveau de conscience, la dimension prosodique (fréquentielle) de la parole, tandis que le message linguistique (séquentiel) est adressé synchroniquement, en totalité, à l’hémisphère gauche (HG).

Ainsi, i-lang sépare les deux composantes prosodiques de la parole :

  • la composante prosodie linguistique, naturellement intégrée à l’énoncé global, intrinsèque à la langue (HG),
  • la composante prosodie émotionnelle, spécifique de l’état émotionnel du locuteur (HD).

Perception du patient[modifier]

  • Au plan de la perception, le patient, coiffé d’écouteurs stéréo indique qu’il ne perçoit rien dans l’oreille gauche (HD), qui reçoit cependant la dimension prosodique du discours, alors que le discours total est normalement perçu dans l’oreille droite (HG).

Il suffit d’obturer l’oreille droite un instant pour percevoir, dans l’oreille gauche un « murmure intoné » qui n’est autre que la dimension prosodique isolée du reste du discours. Le patient reçoit donc dans son HD la dimension prosodique du discours sans en être conscient.

Conclusion partielle et provisoire[modifier]

Le cerveau gère notre fonctionnement physiologique lorsque nous parlons et écoutons.

Le montage i-lang démontre l'existence de la notion contestée de perception auditive subliminaire et ouvre la voie à la sollicitation cérébrale spécifique comme outil de rééquilibrage de l'activité des hémisphères cérébraux. Les évaluations par l'IRMf révèlent chez les patients testés une activation cérébrale qui confirme la réalité de la mobilisation simultanée des ressources de chaque hémisphère. Dans un article publié online par Human Brain Mapping, une équipe de recherche (citée en bibliographie) présente les images d'activation cérébrale obtenues sur dix patients sollicités dans les conditions du montage i-lang (voir description succincte ci-dessous). Certes l'IRMf n'est qu'un outil et non une preuve . Il n'empêche que l'activation déclenchée par le filtrage i-lang est supérieure a celle déclenchée dans toutes les autres situations d'écoute.

Confirmation par l'IRMf de l'activation cérébrale spécifique[modifier]

Dans le cadre d'une étude visant à évaluer l'impact éventuel de l'utilisation du dispositif i-lang sur l'activation cérébrale (blood-flow) dans chaque hémisphère, une équipe de recherche de l'Université de Bordeaux a étudié les variations du flux sanguin dans les quatre conditions suivantes:

NN: discours oral normal adressé à chaque oreille par l'intermédiaire d'écouteurs, simultanément.
FN: discours filtré passe-bas adressé à l'oreille gauche (HD), discours oral normal adressé à l'oreille droite (HG) simultanément. Cette condition correspond strictement au montage i-lang tel qu'il a été décrit dans le brevet d'invention en 1988, et différents textes cités en bibliographie.
NF: discours oral normal adressé à l'oreille gauche (HD), discours filtré passe-bas adressé à l'oreille droite (HG) simultanément.
FF: discours filtré passe-bas adressé à chaque oreille simultanément.

L'opération effectuée sur dix hommes droitiers (moyenne d'âge 28,6 ans), (résumée dans un article, voir bibliographie) révèle que la condition FN (qui schématise l'utilisation du dispositif i-lang décrit plus haut) présente une activation beaucoup plus importante que les autres conditions, en terme de localisation mais aussi en surface activée sur chaque hémisphère.

Ce résultat ouvre des perspectives inédites, tant dans le domaine de l'apprentissage des langues que dans celui de la rééducation de la parole perturbée.


Références[modifier]

Voir aussi[modifier]

Liens internes[modifier]

Lien externe[modifier]

(fra) Un cerveau pour toutes les paroles du monde

Bibliographie[modifier]

  • Parole(s) de cerveau, J. Alliaume, 2005, Fondation Fleur de Lys, info@manuscritdepot.com, Lévis, Québec, Canada.
  • Cerebral mechanisms of prosodic sensory integration using low-frequency bands of connected speech, Hesling, Dilharreguy, Clement, Bordessoules, Allard., 2005.


Noia 64 apps kdict.png
Portail Apprendre – Accédez aux articles Ékopédia concernant les pédagogies.