Wednesday, November 28, 2007

Des aveugles marchent grâce à un œil… sur la langue



26 novembre 2007
Daniel Chebat réussit à aider des aveugles à se déplacer sans canne


«C’est la première fois que je me déplace sans canne sur un trajet de plusieurs mètres semé d’obstacles», lance M.L., un aveugle de naissance de 35 ans, après avoir testé un dispositif qui lui permet de se faire une représentation mentale de l’espace grâce à sa langue. Dans l’extrait vidéo enregistré par Daniel Chebat, étudiant au doctorat en neuropsychologie expérimentale à l’École d’optométrie, on peut voir M.L. avancer dans un couloir en évitant minutieusement un bloc à sa gauche, un tuyau à sa droite et un muret à ses pieds. Une caméra fixée à des lunettes transmet les images sur un écran de 144 pixels directement déposé sur sa langue.




Un aveugle s’oriente dans le labyrinthe de l’Université de Montréal à l’aide de la Tongue Display Unit.

Expérimenté pour la première fois à l’été 2006 le long d’un parcours de 14 mètres à Montréal, le dispositif lingual (Tongue Display Unit ou TDU) s’est révélé d’une remarquable efficacité. «Les 15 aveugles de naissance qui ont participé à l’expérience ont montré une habileté extraordinaire après tout juste quelques heures d’entrainement», signale le jeune chercheur de 28 ans. M.L, lui-même ingénieur, a dit qu’il avait hâte de pouvoir se procurer un dispositif semblable, et d’autres ont indiqué que ce dispositif pourrait éventuellement remplacer leur canne blanche.

Il ne s’agit pas de redonner la vue aux aveugles, précise Daniel Chebat. La vision des non-voyants n’est pas modifiée par la TDU et demeure autour de 1/90. Mais le dispositif lingual leur offre l’occasion de reconnaitre des formes simples dans leur environnement par des influx électriques transmis sur leurs papilles. «Nous faisons principalement de la recherche fondamentale et notre expérience confirme ce que nous voulions démontrer sur l’activation du cortex visuel. C’est absolument fascinant: le cerveau des aveugles traite les informations de la TDU comme si c’était de l’information visuelle», explique Daniel Chebat, qui travaille sous la direction de Maurice Ptito, professeur à l’École d’optométrie reconnu pour ses études sur la plasticité neuronale.

Des locaux aménagés

La Tongue Display Unit a été mise au point par le professeur Paul Bach-y Rita, de l’Université du Wisconsin, et a rapidement suscité l’intérêt du professeur Ptito. Les succès que celui-ci a obtenus avec la TDU lui ont valu une visibilité internationale (voir Forum du 15 janvier 2007)… et d’importantes subventions. M. Ptito est notamment devenu titulaire de la Chaire Colonel-Harland-Sanders en sciences de la vision de l’UdeM, dotée d’un capital de 1,2 M$. Les sommes reçues ont permis d’aménager de vastes locaux de recherche et de construire des parcours à l’École d’optométrie et à l’hôpital de l’Université de Hvidovre, au Danemark, où des équipes de quatre personnes travaillent sous la conduite du neuropsychologue




Daniel Chebat mène des travaux au Danemark et au Québec.

À lui seul, Daniel Chebat mène actuellement, au Canada et au Danemark, trois projets de recherche qui feront éventuellement l’objet d’articles scientifiques. Alors que celui auquel M.L. a pris part en est à l’étape de la publication, les deux autres en sont à la phase de l’expérimentation.

Dans le deuxième projet, le doctorant veut explorer l’acuité sensorielle des aveugles sur un parcours complexe comprenant cinq corridors.

Le troisième plongera les sujets dans un jeu vidéo. Ceux-ci seront invités à se déplacer dans un environnement virtuel retransmis sur leurs papilles pendant qu’on examinera leur cerveau à l’aide d’un appareil d’imagerie cérébrale. L’observation du cerveau en action durant l’utilisation de la TDU n’a jamais été tentée.

«La seule limite avec ce dispositif, c’est celle qu’on se donne comme chercheur», mentionne Daniel Chebat, emballé par l’évolution de ses recherches.

«Je veux travailler avec vous!»

La rencontre du jeune homme avec son directeur de thèse s’est faite en 2002, alors que l’étudiant terminait son baccalauréat en psychologie à l’Université Bishop’s, à Lennoxville. «J’avais entendu parler des recherches de Maurice Ptito par les journaux et j’avais envie de me joindre à son équipe. J’étais fasciné par l’extériorisation des sensations. Comment un aveugle pouvait-il sentir une forme par la bouche?»

Lorsqu’il a communiqué avec le neuropsychologue, l’étudiant a senti que la porte était ouverte, mais qu’il devrait faire ses preuves comme chercheur. Conservant une moyenne de 3,7 dans son programme de maitrise, il a gagné le prix de la meilleure présentation à la maitrise à l’École d’optométrie en mars 2005 avec sa recherche sur le collicule supérieur du hamster. Puis, les résultats de cette étude ont été publiés dans le Journal of Comparative Neurology en février 2006. Les preuves étaient faites.

Ses travaux, depuis, lui ont valu plusieurs honneurs. Son résumé de recherche sur l’hippocampe des aveugles de naissance a été sélectionné comme l’un des meilleurs parmi les 14 000 articles soumis à la Society for Neuroscience pour sa revue annuelle en 2006. Il a obtenu des bourses de recherche des Instituts de recherche en santé du Canada et du Réseau Vision.

Travailler sur la plasticité du cerveau est une passion toujours vive. «J’ai l’impression de traiter des sujets vieux de plusieurs siècles, notamment abordés par René Descartes. L’aveugle qui imagine les formes placées devant lui les voit-il? Tout est une question de perception.»

Mathieu-Robert Sauvé

Wednesday, August 29, 2007

Society for Neuroscience 2006 Press Book

Last year in Atlanta, my abstract for the Society for Neuroscience (SfN) was chosen abstracts to be part of their press book release. Every year SfN choses 700 abstracts out of over 14, 000 to release to the media. Here is a copy of that abstract.

Volumetric analysis of the hippocampus in early blind subjects.

Society for Neuroscience 2006



Press Book Summary by Daniel-Robert Chebat and Maurice Ptito


This preliminary study is part of an ongoing research program concerned with the anatomo-functional re-organization of the brain resulting from sensory deprivation at birth. We report here that the hippocampus, a structure involved in learning and memory, is significantly reduced in volume compared to normal seeing controls. This reduction concerns mainly the posterior part of the right hippocampal formation.

This finding is novel and interesting because it supports the hypothesis that the hippocampus is involved in the formation of spatial visual maps of the environment. Since our subjects have been blind from birth, the posterior part of the hippocampus showed atrophy.

Previous studies carried out on blinds have shown that these subjects are not impaired on a spatial competence level and that they maintain the capacity to form spatial maps of the environment when using tactile or proprioceptive and/or auditory cues. The absence of vision however complicates the encoding of spatial maps due to the lack of readily available spatial information. Extensive navigational training in normal subjects induces plastic changes in the hippocampus. For example, London taxi drivers show a larger posterior hippocampus compared to controls!

This study emphasizes therefore the importance of vision in the development of brain structures and the role of the posterior part of the right hippocampus in navigational skills that involve visual cues. We have recently shown that the visual pathways of born blind subjects are largely atrophied (Schneider, Kupers and Ptito, 2006). The striate and extrastriate visual areas have a reduced volume and both afferent and efferent fibers are altered.

The question arises then on how do blind people move around in their environment and what are the cerebral structures involved? It is known that spatial representation of the environment can be encoded through other sensory cues such as somesthesis, touch, audition and proprioception. These maps are not exclusively carried out by the hippocampus itself but rather in tandem with other cortical regions. The anterior insula/ventrolateral prefrontal cortex (AI/VP) and parietal cortex (PC) are most likely candidates. AI/VP is associated with the coding of auditory cues and spontaneous route planning and PC is involved in the planning of movements through immediate space when no visual cues are available.

Although navigation requires visual cues for the formation of spatial maps that involves the right hippocampal formation, early blinds are still able to build novel spatial maps of the environment when using tactile, proprioceptive and/or auditory cues. We hypothetize therefore that these map formations are carried out outside of the hippocampus and probably involve the parietal cortex.

These results have never been published and to our knowledge nobody has previously shown that blindness leads to the atrophy of the right posterior hippocampus, a brain structure known to be involved in the formation of visual maps.

These data were collected from a rather large sample of blind subjects and seeing controls using a double blind protocol with two types of analysis from magnetic resonance images (MRI) : volumetric analysis through segmentation of the hippocampus and voxel-based morphometry (VBM). Both approaches yielded the same results.

What would be interesting to do next is Tensor Diffusion Imaging to highlight the nature of the connections (white matter) between the hippocampus and the other cortical areas and correlate anatomy and behavior through route learning.

Monday, May 14, 2007

Blinde lærer at se med tungen

Dear Readers,


Here is a re-e-print of an article concerning our research that came out recently in a Danish newspaper. I have been in Denmark at the Danish Research Center for MR (DRCMR) in Hvidovre hospital. I am here continuing our research on sensory substitution and navigation in the blind under the direction of my supervisor Dr. Maurice Ptito. The picture below was taken in the hallways of Hvidovre hospital as teh reporter Sophie Nyborg tried the tongue stimulator for the first time. She was able to eprceive movement from the people passing in the hall, and was able to locate and walk towards Dr. Ptito in the hall.


Daniel-Robert Chebat


Blinde lærer at se med tungen
25. april 2007 00:01 Indland Forskning · På gangene inde på Hvidovre Hospital render en lille flok fransk-canadiere rundt og lærer blinde folk at se med tungen. Nyhedsavisen har prøvet teknikken, som samtidig afslører overraskende ting om hjernen for forskerne

Af: Sophie Nyborg (Journalist) Profil Artikler Blog
Popularitet:
32 af 171 journalister

Der er bælgmørkt omkring mig. Jeg tager forsigtigt et skridt fremad. Min tunge kilder. Bare lidt. Det føles nærmest som små champagnebobler på tungen. Idet jeg langsomt drejer hovedet lidt til venstre, begynder det at boble rigtig meget. Jeg fortsætter med at dreje hovedet til venstre og boblerne forsvinder. Jeg vender hovedet til højre igen. Lige midt på min tunge kommer den prikkende følelse tilbage. Jeg går i den retning. Pludselig brager jeg ind i fotografen og udløser et latterbrøl. De sorte briller med det underlige kyklop-kamera i panden ryger hurtigt af.
»Der kan du se, du fandt hende! Er det ikke utroligt?,« siger Maurice Ptito og ser på mig som en far, der lige har overværet sit barn tage det allerførste skridt.
Georg Gearløs
Jeg har netop prøvet at se med tungen – og et kamera. Og selvom min tunge tydeligvis ikke ser særlig godt, så kan den lære det – eller rettere: Min hjerne kan lære den det.
Maurice Ptito er professor i neurobiologi ved Montréal Universitet i Canada, men gæster i øjeblikket Hvidovre Hospital for at udføre sin forskning i, hvordan blinde mennesker kan lære at se med tungen.
Sammen med kollegaen fra Belgien Ron Kupers træner han blinde i at kunne bruge et meget besynderligt stykke elektronik, der mere får tankerne til at falde på Georg Gearløs fra et Anders And-blad end på fremmelig hjerneforskning.
Den blinde tager en lille bøjelig plade – hvorpå der sidder en masse små elektroder – i munden. Den er forbundet til et kamera, der sidder på panden, og omdanner levende billeder til elektriske impulser på tungen. Jo mørkere nuancer, jo mere intensitet i signalet.
»Det lyder vildt, og det er heller ikke sådan, at de blinde kommer til at se, som vi ser med vores øjne. Men de bliver simpelthen så glade, du vil ikke tro på det. De kan lære at læse bogstaver, de kan lære at 'se' forskel på former, bevægelser, at kende forskel på lys og skygge i omgivelserne og opfatte, at der er mennesker, huse, trapper, biler eller mennesker foran dem. Jo længere væk, jo svagere signal. Bare det at opfatte bevægelse er et mirakel for dem, siger de. Og at de ikke er begrænset af blindestokkens eller armens længde,« forklarer Ptito.
Forskerne ved dog ikke præcist, hvordan hjernen på denne måde lærer at omdanne føleimpulserne fra tungen til en rumopfattelse.
Danmark i front
Og det er lige netop derfor, at Maurice Ptito og to af hans ph.d.-studerende lige nu arbejder på Hvidovre Hospitals MR-scanningsafdeling. For vi har nemlig i omverdenens øjne noget af det bedste hjernescanningsudstyr og god ekspertise i at bruge det.
Dermed er Danmark ret godt med i noget af det, som hjerneforskningen verden rundt fokuserer meget på i øjeblikket – nemlig at undersøge, hvor 'omprogrammerbar' vores hjerne er.
I de senere år er forskerne med hjernescanninger blevet i stand til at se, hvilken del af hjernen, der er aktiv, når vi udfører bestemte handlinger, såsom at læse, tænke på vores kæreste eller spille med en bold. Og forskerne kan altså nu også se, at hjernen tilpasser sig meget mere efter, hvordan vi bruger den, end hvad man hidtil har troet. Vi kan med andre ord danne vores egne evner og træne hjernen, lidt som man træner sin krop.
»Det mest utrolige er, at vi kan se, at hjernen efter nogle ugers træning ændrer sig rent fysisk, den ændrer struktur. Folk, der aldrig har kunnet se, har også et manglende eller underudviklet synscenter, Men vi kan se, at flere og flere synsnerveceller bliver inddraget fra det omgivende hjernevæv til det visuelle område, efterhånden som de blinde træner med tungen. De får simpelthen et udviklet synscenter,« forklarer Ptito med en fransk accent, der er står lige så meget i kontrast til de kliniske og flade kittel-omgivelser i Hvidovre som hans sorte, figursyede jakkesæt og sorte, spidse sko.
Spiller computer
I øjeblikket har Ptito syv blinde forsøgspersoner, hvis hjerner han scanner, mens de bruger det såkaldte 'Tongue Display Unit' (TDU). På den måde kan han se, hvordan det præcis er, at hjernen lærer at se med tungen.
Men i stedet for at have et kamera, der laver bobler på tungen – forsøgspersonerne ligger jo stille i en scanner – så er det et computerprogram, der skaber enten en bevægelse eller en figur, som personen skal 'se' og genkende.
Lige nu træner han blinde i at kunne læse bogstaver på tungen. En af øvelserne handler om at se, om folk kan lære at kende forskel på, om et T vender på hovedet eller til siden.
En af hjerneforskernes 'forsøgskaniner' er Ole Brun Jensen. Han blev blind umiddelbart efter fødslen, fordi han blev født to en halv måned for tidligt og måtte have ren ilt i kuvøsen.
»I løbet af et splitsekund ved jeg, om det T, som står på computerskærmen, vender den ene eller den anden vej. Det var en underlig oplevelse, da der først var hul igennem. I starten var det bare en kildren på tungen, og jeg kunne overhovedet ikke kende ting fra hinanden. Da jeg først havde lært det efter et par timer, så blev det lysende klart for mig, hvad jeg blev præsenteret for, nærmest inden jeg føler noget på tungen. Men det er svært at forklare hvordan,« siger Ole Brun Jensen.
Computerspil på tungen
Ptito har også for nyligt udviklet et computerspil, som de blinde skal spille, mens de er i skanneren. Computerspillet går ud på, at den blinde skal bevæge sig rundt i en labyrint med et joystick i hånden, og det bliver 'spillet' på tungen.
»Vi kan se, at de efter noget tid udvikler aktivitet i det område af hjernen, som er aktivt, når mennesker ser med øjnene, men der kommer også aktivitet i det område, som har med stedsans at gøre – når mennesker, der kan se, danner et slags geografisk kort inde i hovedet. Så de danner sig en form for visuel fornemmelse af rummet omkring sig ud fra følesansen, selvom de aldrig har set verden,« siger Ptito.
I princippet kunne man også bruge et andet sted på kroppen »som indgang til hjernens synscenter«, men tungen er oplagt, dels fordi den er meget følsom, og dels fordi de elektriske impulser fungerer bedst på en fugtig overflade.
»Tungen er jo også det første, som spædbørn bruger til at udforske verden med. I stedet for at se på det propper de alt i munden,« forklarer Ptito.
I Canada har forskerne bygget deciderede forhindringsbaner. Udstyret med elektroder på tungen og et kamera i panden testede de, hvor godt de blinde kunne orientere sig uden stok eller hund. Det var tydeligt at se, at de blinde gik uden om ting, de ellers ville være stødt ind i.
Men det er ikke nogen mirakelkur, påpeger Ptito, og det giver Ole Brun Jensen ham indtil videre ret i.
»Jeg kan jo stadig ikke se som andre. Jeg aner stadig ikke, hvad farver er. Men jeg håber, det bliver nemmere at læse fra computeren. Det ville også være fantastisk at kunne bevæge sig rundt lidt friere. Og måske at komme til at kunne genkende et ansigt,« siger han.
Så en flamme
Hvor stor nytte man som blind kan få af TDU'en, er meget individuelt påpeger Ptito.
En af de blindfødte forsøgspersoner, der tidligere har prøvet TDU'en, beskriver for eksempel over for det videnskabelige nyhedsmagasin Science News, at hun altid havde troet, at stearinflammer var kæmpestore ildkugler. Sådan kunne hun nemlig normalt føle varmen brede sig ud fra lyset. Da hun første gang 'så' et stearinlys med tungen, blev hun chokeret over, hvor lille flammen var, og hvor meget den dansede.
Så TDU'en kan sagtens give blinde en helt ny virkelighedsopfattelse. Og perspektiverne er vidtrækkene, mener den fransk-canadiske professor. Men han kan endnu ikke sige noget om, hvornår TDU'en bliver tilgængelig for almindelige mennesker.
»Måske om fem til syv år vil blinde kunne bruge den. Men det, vi gør lige nu, er jo også at finde ud af så meget som muligt om, hvordan hjernen fungerer med vores sanser. Jo mere viden vi får om hjernen, jo mere kan man udvikle teknikken – eller blive i stand til at udvikle endnu smartere teknikker. Det næste bliver at give kameraet en zoom-funktion,« siger han.
Han mener, perspektivet er, at kameraet muligvis kan blive implanteret i øjnene, mens tungetingen kan installeres i et lille, diskret mundstykke, som brugeren aktiverer ved at trykke tungen op i ganen. I den nærmeste fremtid vil det mest umiddelbare dog være at gøre det nemmere for blinde at læse, fordi man vil kunne få sendt elektronisk eller digital information direkte ind i tungen fra computeren og nettet, mener han.

Monday, April 02, 2007

Society for Neuroscience Pressbook release

Félicitations (encore!) au Dr. Maurice Ptito

Les travaux du laboratoire du Dr. Maurice Ptito furent inclus dans le livret dédié aux médias lors de la dernière réunion annuelle de la Society for Neuroscience.

Chebat, D.-R., Chen, J.-K., Ptito, A., Schneider, F., Kupers, R. Ptito, M., (2006). Volumetric analysis of the hippocampus in early blind subjects, prog. #366.30.

De plus, les travaux du laboratoire ont été publiés dans les Proceedings of the National Academy of Science. Cette article s'est mérité une recommandation comme nouvelle découverte par le faculty of 1000 Biology (Sep. 2006).Kupers, R., Fumal, A., de Noordhout, A., Gjedde, J., Schoenen, A., Ptito, M. (2006). Transcranial magnetic stimulation of the visual cortex induces somatotopically organized qualia in blind subjects. PNAS, 103, 13256-13260.

Félicitations au Dr. Maurice Ptito!




Le directeur de la fondation (gauche) présente le prix d’excellence Henry and Karla Hensen
Le Dr. Maurice Ptito (droite), en compagnie du représentatnt de l'Université de Montréal le Dr. Christian Casanova (gauche) lors de la remise du prix.
(texte apparu dans le bulletin de nouvelles du Réseau Vision : http://www.reseauvision.ca/vision-FR/news-annonces-fr.html#Ptito_2007)




Félicitations au Dr. Maurice Ptito!
Le cabinet d’avocat Jon Palle Buhl, gestionnaire du prix d’excellence Henry and Karla Hensen, a annoncé que le professeur Maurice Ptito était le lauréat du prix pour l’année 2007, qui s’accompagne de 500 000DKK (100 000$ CAD). Cet honneur est généralement attribué à un scientifique œuvrant dans des domaines tels que la recherche sur le cœur ou la sclérose en plaque. Étant donné le caractère novateur de sa recherche sur la plasticité intermodale et l’impact de ses travaux auprès des non-voyants, le comité a recommandé le Dr. Ptito comme récipiendaire du prix d’excellence Henry and Karla Hensen. Ce dernier fût remis au professeur Ptito durant une cérémonie le 2 Mars 2007 au Musée Frilands à Lyngby. Félicitations à Maurice!




Tuesday, February 06, 2007

'Sight' that tingles NATIONAL POST;

Dear Blog-readers,

Here is an article that was published today in the canadian newspaper National Post. It describes certain aspects of our research. Allison Hanes was a pleasure to work with and was easy to talk to and i think she did a really great job explaining our research. She got this little detail wrong however, the information from the tongue usually goes to the somatosensory cortex in sighted controls, not the motor cortex. I sent them this video of one of my subjects (Mr. L., some of you may recognize him from Decouverte on Radio-Canada; see: http://www.radio-canada.ca/actualite/v2/decouverte/niveau2_8722.shtml). Take a look at this video on the National Post website, this very short clip shows Mr. L negociating his way through the obstacle course where we tested subjects this summer:

http://video.canada.com/VideoContent.aspx?&fl=&popup=1

send me your comments on my blog!
I hope to hear from you soon,

Daniel




'Sight' that tingles
Canadian researchers part of team testing revolutionary technology for the blind: Nationalpost.com


Allison Hanes, National PostPublished: Tuesday, February 06, 2007


Last summer Mike Ciarciello went to a Montreal laboratory, donned a pair of goggles mounted with a camera and stuck a strange device the size of a quarter in his mouth.
By constantly moving his head from side to side to scan the room and pressing his tongue against a square of 100 tiny electrodes, the 36-year-old, who has been blind since birth, was able to "see" for the first time.
For a few short hours, Mr. Ciarciello stepped out of his arm's-length universe of shadows and light to make out a black triangle projected on to a white wall, navigate an obstacle course, even perceive that a person was walking in front of him.
"The guy came in on my left then moved to my right. I was actually able to see that. I was like, 'Hey get out of my way!' "he said with a laugh.
It was an indescribable experience for the teacher and musician who normally feels his way through life with his hands and a cane.
The blind could be able to see with their tongues within a decade due to the latest advances in technology and neuropsychology.
An electrical-impulse-emitting device being developed by researchers in Canada, Denmark and the United States is already allowing those like Mr. Ciarciello to detect movement and sense objects at a distance. One day it may allow them to perceive faces and colours -- even read text.
Maurice Ptito, a Universite de Montreal neuropsychologist testing the revolutionary technology on people like Mr. Ciarciello, hopes the invention will do for the blind what the hearing aid did for the deaf.
"For blind people it's so important, because it means they could do it without a dog or a cane," he said in an interview from Copenhagen, where he is on a year-long sabbatical. "They could feel motion, things coming to them, or things moving from left to right. It's quite fantastic actually."
The devices, called tongue display units, do not bestow the gift of sight. What they can do is help the blind experience the world around them in a much more profound way than has previously been possible.
"You are not going to recover vision, but we can substitute something else for it," he said. "If you don't have eyes, you can't see ... But what's nice is that they can feel the world through their tongues, and they can feel it at a distance. For them, it's something that is really incredible."
In laboratories in Montreal and Copenhagen, test subjects born without sight have been making remarkable progress in sensing their way. Tiny cameras perched on eyeglasses or helmets translate images into tingling sensations, not unlike morse code.
Prof. Ptito describes the feeling as comparable to champagne bubbles.
The tongue can be trained to glean information from the electrical impulses it transmits to the brain, distinguishing the difference between a triangle and a square for example, or even the letter T.
Because the tongue is a wet milieu -- and one of the most sensitive organs in the human body --it is the perfect conduit.
Subjects are being tested to perceive black geometric shapes on a white background. Black is indicated by a tingling of maximum intensity while white is conveyed by no sensation at all.They have also been taught a handful of letters from the alphabet allowing them to spell out short words.
Those testing the tongue units have not yet ventured beyond the confines of a lab, but Prof. Ptito said they will soon begin trials outdoors.

The technology is the brainchild of U.S. doctor and scientist Paul Bach-y-Rita, a pioneer in a field called substitution theory, who believed people actually see with their brains, not their eyes.
Daniel-Robert Chebat, the Ph D student who conducted tests on 36 blind subjects in the Montreal lab, said one of the most exciting findings is that the electrical impulses transmitted by the tongue to the brain activate the visual cortex: "We know that this type of information normally should go to the motor cortex and yet it's in the visual cortex ... The question is, are we unmasking old connections that are already there or are we rather creating new ones in the brain?"

Using the technology patented by Dr. Bach-y-Rita's Wisconsin- based company requires considerable training before the test subjects can make sense of all the tiny pops and buzzes on the tongue.
For starters, blind people are commonly taught to stay as still and straight as possible when they use a cane or a guide dog to get around.
"What I tell them is the opposite," Mr. Chebat explained. "Since the subject is wearing this camera on his forehead, as he moves this image changes. He learns to recognize that, as with eyesight ... when we move our eyes or we move our heads, the images changes."

It is often the first time these test subjects learn how to process information on shifting perspective and distance: "One of the obstacles we had was a bar blocking the entire width of the hallway ... And so if you couldn't judge distances very well, there's no way you could have stepped over it," Mr. Chebat said. "I say, 'Look at your feet. Do you see your feet? They're on the tip of your tongue if look down, if you're wearing black shoes. Then if you look up, do you see that bar? Now how long did it take you to make that movement? OK, so how far do you think that bar is from you?' So through trial and error, they learn to judge the distances and how the head movements translate to distances."

After relying his whole life on his hands and fingers to navigate the world, Mr. Ciarciello said using the technology took some getting used to.
The biggest challenge, he said, was rewiring his reactions to make use of new information being supplied to his brain.
"I realized: 'Don't wait until you bump into an object to go around it -- go around it before you bump in to it!' "he said. "When you're not used to seeing things from a distance, it's a whole new ball game."

Blind people's worlds are essentially limited to what is at arm's-length. They take in information -- the placement of objects, the shape of people's faces, writing in braille -- using their hands, or a white cane. The tongue devices have the power to change all that -- expanding their surroundings from the car parked a block away to the mountain on the horizon.
"It's hard to describe to people who take it for granted that they can see," Mr. Ciarciello said. "This opens up a whole other door."
Visit our homepage to watch an exclusive video showing how this technology is helping the blind to "see."

© National Post 2007
SEEING WITH TONGUES: New technology to help the blind...Visual data is transmitted from a tiny camera on the forehead to a device on the tongue as electrical impulses. The impulses activate the visual cortex of the brain, allowing the user to sense the world around them. For the first time, blind people will be able to sense objects in the distance and even movement. Photograph by : Kagan McLeod, National Post

Wednesday, January 17, 2007

FORUM volume 41, 15 Janvier


C’est la gloire pour Maurice Ptito

Il expérimente un dispositif lingual permettant aux aveugles de «voir» avec leur langue.

Le réseau télévisé d’information continue britannique BBC World a diffusé, le 11 décembre dernier, un reportage sur une recherche du neuropsychologue Maurice Ptito, professeur à l’École d’optométrie, qui expérimente un dispositif lingual permettant aux aveugles de «voir» avec leur langue. Après la diffusion de ce reportage, les chaines ABC puis Eurovision ont également fait écho aux travaux de cet expert du développement du système visuel. «C’est, à ma connaissance, la recherche qui a suscité, sur le plan médiatique, le plus de réactions internationales au cours des 10 dernières années», mentionne Sophie Langlois, directrice des relations médias pour l’Université.C’est à la suite de la parution d’un premier article en juin 2004 dans Forum express, un bulletin bisannuel bilingue sur la recherche à l’UdeM envoyé dans la plupart des salles de presse d’Amérique et d’Europe, que l’engouement s’est manifesté. Des publications comme le New York Times (24 novembre 2004) et Der Spiegel (3 juin 2004) ainsi que d’innombrables sites Web (Healthnews, MedlinePlus, Science Daily, News-Medical.net, etc.) ont fait état des travaux du chercheur québécois, sans parler des médias canadiens (Le Devoir, La Presse, Radio-Canada, Canal Z). La revue de presse, partielle, des retombées de ce projet de recherche fait à elle seule plus de 100 pages.
Joint au Danemark, où il poursuit ses travaux sur le dispositif lingual à l’Université d’Århus, Maurice Ptito se montre agréablement surpris, bien qu’étonné, par cet enthousiasme. «Nous avons reçu une quinzaine de demandes d’entrevues au cours des derniers jours. Des recherchistes de l’émission The Oprah Winfrey Show ont même communiqué avec nous après des reportages qu’ont diffusés BBC World et ABC, indique-t-il, amusé. Rien n’est confirmé pour l’heure, mais c’est déjà quelque chose.»
L’émission hebdomadaire de la célèbre animatrice américaine, qui est le talk-show le plus populaire de la planète, a des cotes d’écoute de l’ordre de 30 millions de téléspectateurs dans 109 pays.

Labyrinthes pour aveugles

À l’époque où Forum express avait rencontré le professeur, les sujets de recherche devaient tenter de distinguer la lettre T dans différentes positions à l’aide de la Tongue Display Unit (TDU), mise au point à l’origine par le professeur Paul Bach-y Rita, de l’Université du Wisconsin. Depuis, l’appareil s’est perfectionné au point de permettre aux non-voyants de s’orienter dans un environnement contrôlé.
Grâce à d’importantes subventions qui lui ont été accordées (il est notamment devenu titulaire de la Chaire Colonel-Harland-Sanders en sciences de la vision de l’UdeM, dotée d’un capital de 1,2 M$), Maurice Ptito a pu aménager de vastes locaux de recherche. Des labyrinthes ont été construits à l’École d’optométrie et à l’Université d’Århus, où des équipes de quatre personnes, sous la direction du neuropsychologue, mènent des expériences encore plus poussées sur la TDU. Les sujets de recherche, qui souffrent de déficience visuelle et qui sont au nombre de 22 à Montréal et de 20 au Danemark, participent aux succès de l’expérience.
«La langue ne remplacera jamais l’œil, bien entendu, signale le professeur Ptito. Mais, chez des aveugles de naissance, le cortex cérébral dévolu à la vision se réactive sous l’effet de ce dispositif. L’activité électrique, enregistrée par tomodensitomètre, est très claire sur ce point.»
Pour le chercheur, cette visibilité internationale demeure anecdotique. La TDU permet d’abord et avant tout de réaliser des percées scientifiques majeures. D’ailleurs, son équipe a publié en 2005 et 2006 des articles dans des revues prestigieuses comme Brain et PNAS.
Mathieu-Robert Sauvé

Monday, January 15, 2007

Substitution sensorielle: methodes non-invasives (en construction...)

Certains de mes lecteurs m'ont demandé d'inclure davantage d'informations sur la substitution sensorielle en général. Voici une série de textes sur la substitution sensorielle et sur la plasticité intermodale (voir aussi le log du 5 Janvier 2007).


Substitution sensorielle : Méthodes non-invasives

La substitution sensorielle non invasive cherche un intrant sensoriel autre que la vision pour aller stimuler le cortex visuel. Certaines méthodes exploitent l'audition pour remplacer la vision, tandis que certaines méthodes exploitent le sens tactile.

Depuis plus de quarante ans, Paul Bach-y-Rita travail à développer des systèmes de substitution sensorielle. La substitution sensorielle est la capacité de substituer un sens par un autre sens d’une façon fonctionnelle. Le remplacement de systèmes sensorielles perdus, principalement de la vue et de l’ouïe est un très vieux rêve. Le Braille par exemple, est une sorte de système de substitution sensorielle en soit. Dans l’exemple du Braille, on substitue la stimulation visuelle par une stimulation tactile. Dans la préface de son livre : Brain Mechanisms in Sensory Substitution (1972), Dr. Bach-y-Rita pose la question à savoir si les yeux sont essentiels à la vision, et les oreilles pour l’ouïe. Cette question peut sembler absurde, mais en réalité c’est exactement le problème que pose la substitution sensorielle. Est-ce que l’expérience de lire du braille peut être qualifié de vision? Ou est-ce plutôt une expérience tactile qui remplace la vision? Bach-y-Rita explique que les images captées par nos pupille ne quitte jamais notre rétine. De la rétine jusqu’au cerveau cet information voyage sous forme de pulsations électriques et chimiques et le cerveau l’interprète de façon visuelle. Nous ne voyons donc pas avec nos yeux, mais bien avec notre cerveau. La perception d’une image requiert beaucoup plus de la part du cerveau qu’une simple analyse de l’image. Cette perception se fonde sur la mémoire, sur l’apprentissage, sur une interprétation contextuelle, et beaucoup d’autres facteurs (Bach-y-Rita & Aiello, 1996). C’est cette constatation phénoménologique qui à sans doute donnée naissance à l’idée d’un système de substitution sensorielle qui remplace l’apport visuelle de l’œil par un apport visuel via la peau. Le Dr. Paul Bach-y-Rita invente en 1965 un appareil qui, muni d’une caméra vidéo, est capable de transmettre sur la peau sous forme de stimulation électrique l’image de la caméra. On peut reproduire certaines des qualités subjectives de la vision en utilisant des systèmes de substitution sensorielle (Kaczmarek, 1995), tels les illusions d’optiques, et une certaine forme d’apprentissage visuel. Ceci est un phénomène auquel j’ai pu assister dans mes propres expériences avec un appareil de substitution sensorielle électro-tactile. Une personne qui est aveugle de naissance n’a jamais eu l’expérience visuelle pour comprendre que quand un objet s’éloigne, il devient plus petit visuellement, et quand il s’approche il grossit. Ce sont des codes visuels que nous, les voyants, avons appris à force de voir ce phénomène. On peut assister à l’apprentissage tactile de ce phénomène en l’espace de quelques minutes lors de certains tests avec des sujets aveugles de naissance. Il est possible que l’expérience auditive de l’éloignement d’une cible, et la diminution des sons lointains puisse être transférée à l’expérience visuo-tactile, mais il demeure que cet apprentissage n’est pas immédiat, et requiert quelques minutes. Cet apprentissage, comme celui du lecteur de braille qui arrive, à force d’expérience, à faire des discriminations très fines avec ses doigts reflète la capacité du cerveau à se réadapter quand il survient une demande fonctionnelle (une nouvelle tâche), et un apprentissage qui comble cette demande fonctionnelle grâce à un intrant sensoriel. Cette réorganisation repose sur la plasticité du cerveau pour être fonctionnelle. C’est pour cette raison que l’on dit que la substitution sensorielle est la conséquence comportementale de la plasticité corticale. Le cerveau possède une étonnante capacité à se réorganiser selon l’expérience sensorielle qui lui est disponible. C’est grâce à cette capacité de réorganisation du cerveau (la plasticité) qu’un intrant tactile peut être interprété de façon visuelle par le cerveau. Par exemple la somatotopie des doigts est représentée sur le cortex visuel d’aveugles de naissance ayant appris à lire le braille (Kupers et al., 2006). Dans cet exemple les doigts remplacent l’œil pour la tâche de la lecture. Le cerveau s’adapte donc à gérer cet information du mieux qu’il peut avec l’espace corticale disponible. Puisque le cortex visuel est la partie du cerveau la mieux adaptée pour faire une tâche de lecture, et que l’absence de vision rend cette zone disponible pour traiter l’information tactile chez les aveugles de naissance, l’intrant tactile ira innerver le cortex visuel. Cela ne veut pas dire qu’un individu qui n’aura pas subi cette adaptation corticale ne pourra pas apprendre à lire le braille. Un voyant qui apprend à lire le braille ne subira peut-être pas de changements au niveau de son cortex visuel, et par conséquant il ne pourra jamais atteindre le niveau d’expertise de lecture du braille de certains aveugles de naissances capables de lire le braille à des vitesses supérieures de celles des voyants lisant un texte standard. La compétence supérieures de l’aveugle lisant du braille est rendue possible grâce au recrutement du cortex visuel pour cette tâche, tandis que le voyant est handicapé par l’absence de finesse de son cortex somatosensoriel pour accomplir cette tâche. Des études démontrent que des aveugles de naissance peuvent faire des discriminations de formes, d’orientation de lignes, de lettres de l’alphabet et du mouvement de cibles visuelles à l’aide de stimulation tactile sur la langue, et que cette stimulation active le cortex visuel de ces sujets (voir revue dans Ptito & Kupers 2005; Ptito, Moesgaard, Gjedde, & Kupers, 2005).

Écholocation et voir avec le son



En 1773, Diderot notait dans sa lettre sur les aveugles la capacité de certains non-voyants à s’orienter sans l’aide d’une canne, ils avaient un sens de la perception d’obstacles. Il précise que seulement certains aveugles le possèdent et que d’autres ne peuvent l’acquérir. Au début du siècle, on découvre que certains aveugles possèdent effectivement ce sens de perception d’obstacles,mais que la plupart d’entres eux en sont complètement incapables. À l’époque, deux hypothèses sur l’origine de ce phénomène étaient à la mode. La première hypothèse prétend que certains aveugles arrivent à ressentir des changements atmosphériques, tel le vent ou autres indice, sur la peau, et que ces indices leurs indiquent ou se trouvent les obstacles. On utilise le terme de vision faciale pour décrire ce sens des obstacles observés chez certains aveugles.

L’autre hypothèse observe que les aveugles utilisent les indices sonores pour percevoir les obstacles. Le terme d’écholocation humaine décrit la capacité de certains aveugles à se déplacer à l’aide de l’écoute des échos des sons qu’ils provoquent, par exemple, avec le tapement des pieds. C’est seulement en 1944 que les études de l’université Cornell (Supa et al., 1944) démontrent que des aveugles capables de détecter des obstacles n’étaient plus capables de le faire quand on leurs bouchait les oreilles. L’absence de l’intrant tactile ne perturbait pas leurs sens des obstacles, mais quand on enlevait l’input auditif, ils n’en étaient plus capables. Cette hypothèse est confirmé par Worchel et Dallenbach (1947) qui démontrent que des sourds-aveugles ne peuvent pas percevoir des obstacles seulement avec le sens tactile. Les aveugles utilisent souvent cette technique en tapant leurs cannes sur le sol pour en entendre les échos. Kellogg (1962) fut le premier à réellement quantifier cette habilité. Il mesura la sensibilité de groupes d’aveugles et de voyants à la variations dans la taille, la distance et la texture d’objets perçus grâce à l’ouïe. Il démontra que les aveugles avaient des résultats nettement supérieurs aux voyants et que certains aveugles étaient sensibles non seulement à la distance et la taille d’un objet mais arrivaient même à distinguer les textures. Les sujets étaient assis face à différents disques de différentes tailles et textures et en utilisant des sons produit par le clappement des mains, à l’aide de la bouche ou des pieds écoutaient les échos pour faire un jugement de taille, de distance et de texture.



Avec l’invention des haut-parleurs les chercheurs pouvaient désormais utiliser des sons produit uniformément pour étudier l’écholocation humaine (Wilson, 1966). Ce sont ces études qui donnèrent naissance, beaucoup plus tard, aux systèmes de sonar qui remplacent la vue par l’audition (Bronkhorst & Houtgast, 1999; Kay, 2000). Ces systèmes utilisent l’information captée par une caméra et transmise à un ordinateur qui transforme les images en sons pour stimuler le cortex visuel (Renier et al., 2005).
On peut voir ici contre une schematisation du codage dune image en fonction du temps, de lamplitude et de la frequence du signal sonore. Le sujet peut donc apprendre a decoder une image sonore pour eventuellement se deplacer dans lespace, apprehender des objets, tel quillustre dans limage du vOICe dans spectrum.
Interface Tactile et voir avec la langue
C’est avec beaucoup de tristesse que j’ai appris il n’y a pas longtemps le décès du professeur Dr. Paul Bach-Y-Rita. Ce grand chercheur fut un pionnier de la recherche en substitution sensorielle.
Le Dr. Paul Bach-Y-Rita développe en 1970 un appareil capable de transmettre l’information visuelle sur la surface cutanée du dos. Une caméra capte une image qui est transmise sur une grille électrotactile et les récepteurs cutanés acheminent l’information visuelle au cerveau qui traite l’information. Les études de cas nous montrent qu’il est possible avec un certain apprentissage d’utiliser cet appareil pour faire des jugements de distance et attraper des objets en mouvements. Plus tard, on adapte cet appareil pour la somesthésie de la langue plutôt que celle du dos. La raison du choix de la langue repose sur plusieurs critères. D’abord, la sensibilité de la langue est nettement supérieure à celle du dos. La surface corticale pour la langue est plus grande que celle dédiée à la somesthésie du dos.
Ce fait est illustré par l’homunculus, ci contre, qui indique la représentation relative des zones corticales allouées à chaque partie du corps.
Le TDU se miniaturisa avec l’avènement de la micro technologie. La caméra est maintenant de la taille d’une « webcam, » et le transformateur est portable. Aussi, aujourd’hui nous avons la possibilité de démontrer à l’aide de techniques en imagerie les zones corticales sollicitées par la stimulation électrotactile de la langue pour la vision.
Cette activation du cortex visuel durant la lecture du braille est due à une réorganisation corticale suite à la privation sensorielle. En effet, certaines parties du cortex visuel sont recrutées par d’autres modalités chez les aveugles. La stimulation électrotactile de la langue sollicite aussi le cortex visuel chez les aveugles de naissance dans une tâche de discrimination (Ptito, Moesgaard, Gjedde, & Kupers, 2005). Il a été démontré dans cette étude que le cortex occipital prend en charge la fonction de discrimination tactile somatosensorielle sur la langue. La lettre T est projetée sur la langue sous forme d’influx électriques grâce à une grille de pixels placée sur la langue. Les aveugles ayant appris à discriminer l’orientation de la lettre T ont un taux de succès de 90% ou plus.
La stimulation magnétique transcrânienne (TMS) du cortex occipital chez les sujets voyants entraîne l’apparition de phosphènes visuels (Theoret, Halligan, Kobayashi, Merabet, & Pascual-Leone, 2004). La TMS chez les sujets aveugles ayant appris à utiliser le TDU entraîne l’apparition de sensations sur la langue, des phosphènes somatosensoriels. Cette même stimulation TMS n’entraîne pas de sensations sur la langue chez les sujets contrôles. Chez les sujets aveugles entraînés au TDU, la langue avait acquis une représentation cartographique dans le cortex occipital. Des sujets aveugles de naissance utilisent leur cortex visuel pour des tâches d’orientation tactile avec la langue (Ptito & Kupers, 2005).
Ces résultats suggèrent une réorganisation corticale suite à l’entraînement au TDU. Il existe aussi d’autres sortes d’interfaces tactiles avec le monde visuel. Par exemple il existe des cannes capables de transmettre l’information au-dessus de la tête du voyageur (une zone souvent dangereusement négligée par les utilisateurs de la canne).
La canne vient en deux modèle : un qui remplace l’image par un son, ou par une vibration de la canne, c’est au grès du voyageur.
La substitution sensorielle, la négociation d’obstacle et la navigation
L’évolution des systèmes de substitution sensorielle à été profondément marquée par une question en particulier : La substitution sensorielle peut elle aider à guider les aveugles dans la négociation d’obstacle et la navigation en général? La négociation d’obstacle chez les aveugles a été étudié sous plusieurs angles. Plusieurs études au début des années soixante exploraient la capacité des aveugles à détecter des objets à l’aide de sons (Kellogg, 1962). Les aveugles arrivaient à faire des discriminations de textures, de tailles, et de distances que les voyants n’arrivaient pas à faire à l’aide de sons. On se pencha ensuite sur le rôle de la longueur d’onde des sons, et du timbre (Wilson, 1966). Plus tard on démontra que bien que certains aveugles arrivent à se déplacer seulement à l’aide de l’écholocation, c'est-à-dire se diriger grâce aux sons « naturels » qui sont produit par les sujets, l’écholocation est une virtuosité qui n’est pas atteignable par toutes les personnes aveugles, mais bien un groupe très select d’individus plus doués que la moyenne. Aussi, l’écholocation n’est pas suffisante pour qu’une personne aveugle puisse se déplacer dans l’espace avec autant d’habilité qu’un voyant (Strelow & Brabyn, 1982). Par contre, cette habilité d’utiliser des sons pour localiser des obstacles ne requiert aucune expérience visuelle préalable (Ashmead, Hill, & Talor, 1989). Ces démonstrations inspirèrent l’invention du « sonic guide » (Kay, 2000). Cet appareil transforme les images captées par une caméra en ondes sonores que le sujet apprend à décoder pour se déplacer dans l’espace. La même idée est exploité par les systèmes du « tongue display unit » (TDU) et le « tactile vision substitution system » (TVSS) inventé par Bach-y-Rita à la même époque (Bach-y-Rita, 1967). Ces systèmes utilisent une caméra qui capte des image pouvant être transmise en temps réel sur une grille de pixels sous forme de stimulation électrique sur le corps
Un des premiers modèles du TVSS. La caméra montée sur les lunettes projette l’information à travers un circuit électrique (dans la main droite du sujet), pour être projeté sur une grille de vibrateurs portée sur la peau du sujet (dans la main gauche). Bach-y-Rita (1967) (TVSS) ou la langue (TDU). Une étude de cas décris les perceptions d’un sujet utilisant le TVSS pour identifier et localiser certains objets (Guarniero, 1974). Ces études, et les avancées technologiques permettent de croire qu’il serait possible pour un sujet aveugle de naissance d’apprendre à décoder l’information captée par ces appareils pour se déplacer et éviter des obstacles dans un environnement qui lui est inconnu. De la même façon qu’il y’a une sensibilisation des formes géométriques sous les doigts quand on apprend à lire le braille, le cerveau pourrait s’adapter pour différencier des changements d’intensités de courant sur la langue pour détecter des obstacles devant soi. Aucune étude avant mon projet de doctorat n’a étudié les capacités des aveugles de s’orienter dans un parcours à obstacle utilisant un appareil de substitution sensorielle. Le tout premier système TVSS qui substituait la vision par le touché (Bach-y-Rita 1965). Ce système était si immense qu’il était nécessaire d’utiliser une pièce complète pour l’accomoder. Les habilitées spatio-cognitives des aveugles sont semblables à celle des voyants quand on élimine l’avantage des voyants qui consiste à pouvoir percevoir des obstacles de beaucoup plus loin que les aveugles (Passinni et al., 1990). En effet, une personne aveugle ne peut percevoir que les obstacles qui sont à la porté de sa main, puisque c’est avec le sens du touché qu’il perçoit des obstacles, tandis que pour un voyant, les obstacles qui sont dans son champ de vision lui sont accessibles. On peut éliminer cet avantage, par exemple en plaçant les aveugles et les voyants dans un environnement contrôlé qui empêche les voyants de voir plus loin que la longueur de leur bras à cause de murs et de tournant qui empêche de voir plus loin que cette distance. Dans cette situation, les aveugles de naissance n’ont aucune déficience dans la conceptualisation d’un espace, et arrivent à se souvenir de trajets avec le même taux de réussite que les voyants (Passini et al., 1990). Les aveugles arrivent aussi à faire des jugements de distance avec le même taux de succès que les voyants, et ne sont déficients que dans l’évaluation de la direction (Byrne & Salter, 1983). Ces deux études suggèrent qu’avec l’aide d’un système de substitution sensorielle sophistiqué des aveugles de naissances pourrait se représenter un environnement et se déplacer en évitant des obstacles avec la même aise que des voyants. La substitution sensorielle repose sur l’extériorisation de la stimulation, ou la capacité de transférer la stimulation tactile de la peau à élément déclencheur dans l’environnement. Un voyant ne parle pas d’une sensation sur sa rétine quand il perçoit une image car il a appris que la stimulation de sa rétine par une image se réfère à un objet à l’extérieur de lui-même.
Dans le langage, on parlerait du signifiant, et du signifié. Le mot est le signifiant, et la signification du mot est le signifié. C’est la même chose pour une image, qu’elle soit tactile, ou visuelle. Il faut en quelque sorte « oublier » le signe pour se concentrer sur le signifié, le sens du mot. Un exemple de cette situation dans le cadre de la substitution sensorielle est une personne aveugle qui à appris à naviguer à l’aide d’une cane. La personne aveugle peut percevoir un obstacle, mais durant cette tâche perceptive, le sujet ne sera pas conscient du mouvement de sa main qui guide la cane, ou des sensations dans sa main. Il perçoit plutôt ces éléments comme des images mentales des objets dans l’espace. Le TDU tente d’exploiter cette spécialisation en permettant de « toucher » des objets qui ne sont pas dans l’environnement immédiat de l’individu (Bach-y-Rita, 1999). Le tout premier système de substitution sensorielle exploitait la sensibilité de la peau du dos pour transmettre l’information visuelle. À l’époque (1965) l’ordinateur était si gros qu’il fallait une pièce spéciale pour l’accommoder. La grille électro-tactile était montée sur une énorme chaise de dentiste. La caméra était difficilement amovible ce qui rendait la perception d’objet dans l’espace plus difficile. En effet, plusieurs études démontrent que pour que la sensation ressentie sur la peau soit interprétée comme provenant d’un objet dans l’espace il est nécessaire d’avoir le contrôle sur la caméra, sinon il est plus difficile de faire cette généralisation (Bach-y-Rita, 1972; Sampaio & Dufier, 1988). Fig. 3 : Une image d’un sujet navigant avec le dernier modèle du TDU dans un parcours à obstacle. Le TDU est porté sur la poitrine, relié à une caméra par un ordinateur de pocheLes premières expériences avec le TVSS n’arrivaient pas à faire identifier les objets par les sujets. Cet échec reflétaient la nécessité de pouvoir contrôler la caméra pour extérioriser la sensation sur la peau, et ne plus rapporter une sensation sur le dos, ou le ventre, mais bien à un endroit dans l’espace (White et al., 1970). Il semblerait donc que l’expérience visuel requiert la possibilité de pouvoir modifier l’impression sensorielle de façon contrôlé. Il est nécessaire que le sujet puisse modifier son point de vue par rapport à l’objet et que cette modification de l’emplacement du sujet se traduise par une modification perceptuelle liée au changement de perspective. Fig.4: l’homunculesLe dernier modèle du TDU est beaucoup plus petit, et avec l’avènement des micro-technologies il est très facilement portatif. L’usage de la langue à été préféré à celui de la peau du dos ou du ventre à cause de la surreprésentation corticale de la langue relativement aux autres parties du corps. Cette relation privilégié de la langue est illustré dans la figure 4 qui représente l’homuncules sensoriel. L’homuncules est la représentation à l’échelle de l’espace cortical réservé à chaque partie du corps. On voit une surreprésentation des mains, des organes génitaux et de la langue, des lèvres (entre autres). C’est cette surreprésentation des doigts et de la langue qui est exploitée dans la substitution sensorielle. Cette surreprésentation est sans doute encore plus augmentée par la plasticité qui se produit suite à un entraînement au braille, ou au TDU. Bien que le TDU ne dispose que de très peu de pixels pour représenter une image visuelle complexe, et est nettement inférieure à la résolution de la vision, il est quand même possible d’accomplir certaines tâches perceptuelles complexes, tels la reconnaissance de visage, jugements de vitesses, directions de mouvements d’objets (Bach-y-Rita, 1967; Bach-y-Rita, 1999).
La résolution de la langue n’est donc pas une limite pour la perception visuelle. Les avenues de recherches ouvertes par le Dr. Bach-y-Rita sont très nombreuses. Les questions philosophique soulevées par ces constatations rejoignent certaines très vielles questions philosophiques sur la conscience. Par exemple, la question de Molyneux est d’actualité encore aujourd’hui puisqu’on se pose sensiblement les mêmes questions aujourd’hui. Il y’a plusieurs siècles déjà avec la naissance de la psychologie moderne on se demandait si une personne aveugle de naissance à qui ont rendait la vue pourrait transférer la connaissance qu’il possède déjà sur les formes géométriques d’un point de vue tactile à la vision qu’il vient de réacquérir. Aujourd’hui, on sait qu’une personne aveugle qui utilise le TDU sait reconnaître des formes géométriques qu’il connaît de façon tactile, mais on se pose la question à savoir si cette perception est vraiment de la vision. Dans la pré-histoire de la psychologie il y’avait une dichotomie entre la sensation et la perception. La sensation se référait à la stimulation d’un organe sensoriel qui envoyait un message vers le cerveau jusqu’a ce qu’un percept émerge. De cette façon, la représentation mentale d’une expérience (dans ce cas une image) n’est pas un produit direct de notre champ visuel, mais bien de l’esprit qui traite l’information (Schinazi, 2005). Dans cette optique le problème de la surcharge sensorielle semble imminent. Par exemple, la langue ne serait-elle pas débordée par la grande quantité d’informations qui lui est acheminée via la languette du TDU? En effet, comment croire que la peau puisse être aussi sensible que l’œil devant une scène visuelle? En fait nous savons aujourd’hui que le système perceptif d’organismes vivants est une machine remarquable de réduction d’informations. Par exemple, comment se fait il que dans un endroit bruyant nous arrivions à nous concentrer sur la voix d’un seul individu? C’est à cause de cet capacité que nous avons de réduire l’information pour que nous puissions l’utiliser. C’est pour cette raison que White et al., (1970) affirmaient que « les limitations de ce système sont causées par la pauvreté de l’affichage, et non pas par les limites des capacités de traitement d’information de la peau ».
Bien que cette affirmation demeure sans preuves concrètes, c’est ce que mon projet de recherche veut démontrer. Si les sujets de mon expérience arrivent à naviguer dans un parcours à obstacle complexe, c’est que l’information du TDU est suffisante pour se représenter un environnement de façon visuelle. Cette perception s’apparente donc davantage à une perception visuelle puisque l’information sur la peau est interprétée comme se référant à un objet dans l’espace, et non pas uniquement sur la surface de la peau. La cécité entraîne une diminution d’autonomie par un déficit d’orientation dans l’espace et de mobilité. Pour la plus grande majorité, l’incapacité des aveugles dans la navigation spatiale n’est pas due à un déficit de représentation de l’espace, puisque les aveugles, même ceux sans aucune expérience visuelle, arrivent à se représenter un environnement connu, et ont une bonne compréhension des grands espaces (Casey, 1978). Il n’est donc pas question de déficit au niveau de la représentation mentale d’un environnement puisque certains aveugles arrivent à créer des cartes cognitives de nouveaux environnements jusqu’alors inconnus, et ils arrivent même à acquérir certaines compétences spatio-cognitives en l’absence de vision ou d’expérience visuelle (Passini et al. 1990). Contrairement aux personnes souffrant de la maladie d’Alzheimer ayant de la difficulté à s’orienter dans l’espace à cause d’un déficit cognitif, les non-voyants ont une déficience perceptive. Cette perte d’autonomie est due à deux conséquences de la cécité: l’incapacité de voir des obstacles et l’inaccessibilité à l’information visuelle qui aide grandement à la formation de cartes cognitives d’un environnement.














Friday, January 05, 2007

news, skateboards and data analysis

news:

My paper Alterations in right posterior hippocampus in early blind subjects
will be available very soon for you to read in the prestigious journal Neuroreport. This research shows structural differences in the right posterior hippocampus of early blind subjects, a brain area that is closely related to navigation.



skateboards:

What a strange winter we have been having! I took a break from analyzing my data to go skateboarding yesterday... in the middle of january! I'm dreaming of when summer was summer and winter was winter so we could go snow-boarding. What do these pictures have to do with sensory substitution? Nothing. Its my blog. :P I can do what i want.


La Substitution Sensorielle: methodes invasives (en construction...)


Plusieurs méthodes ont été développées pour substituer le rôle d’un organe ou d’un système par un autre. C'est ce qu'on appelle la substitution sensorielle. Un exemple de substitutution sensorielle est la lecture du braille. Le braille est un système de substitution sensoriel simple et efficace. On cherche à remplacer la vision par le sens tactile. Au fil des ans, et avec l'avènement des microtechnologies nous arrivons à concevoir des appareils de substitution sensorielle beaucoup plus complexes et sophistiqués. Il existe plusieurs méthodes pour substituer la vision chez les personnes atteintes de cécité. Ces méthodes sont plus ou moins invasives selon l’intrant vers le cortex.

Méthodes invasives

Les méthodes invasives ne cherchent pas à exploiter les capacités plastiques du cerveau, mais plutôt à stimuler directement les voies visuelles. L’idée est que nous pouvons transmettre l’information visuelle d'une caméra sur une grille électrique, et stimuler directement la rétine, le nerf optique, ou la surface corticale.
L’implant est placé directement sur la surface du cerveau et stimule cette zone électriquement. Cette technique très invasive n’a été accomplie que sur un seul patient humain (Dobelle, et al., 1979; (Dobelle, 2000).

À l’Université de Montréal, les recherches animales continuent à explorer ce système pour le rendre fonctionnel (Arabi & Sawan, 1999; Petrican & Sawan, 1998). Méthodes non-invasives

Cette technique repose sur l'hypothèse que la representation visuo-topique de l'espace sur la surface corticale est identique 'a l'image retinienne. L'image ci-contre est une schematisation de cette hypothèse. L'image ici bas est une schematisation de la representation viso-topique de l'espace visuelle. Remarquez que le patron d'activite ne reflete pas exactement l'image retinienne de facon viso-topique exacte. Il faudrait donc que la grille de pixels implantees directement sur la surface corticale tienne compte de ce fait.