TwitterFil Twitter

La nouvelle version d' #UnivMobile l’appli officielle des universités de Paris et d’IDF est sur #ProximaMobile
https://t.co/VxTqJOjjQY
#mEdu

Félicitations à l’astronaute Thomas Pesquet qui se rapproche de l’ #ISS: sa mission s’appellera PROXIMA ;) via
https://t.co/gjIZqDJXl7

Big Data et exploitation des données mobiles au service du développement
http://t.co/AY6PqdpYVP
#mSciences #mData

Sciences participatives: des applis mobiles collaboratives pour l’observation et le suivi des oiseaux
http://t.co/zTjakSVFTQ
#MobileDurable

Accessibilité et handicap


Lunettes connectées, réalité augmentée et «vision sonore» pour les malvoyants

<p>Lunettes connectées,</p>
<p>réalité augmentée</p>
<p>et «vision sonore»</p>
<p>pour les malvoyants</p>

Dans le monde 285 millions de personnes seraient actuellement atteintes d'un handicap visuel : 39 millions d’aveugles et 246 millions de déficients visuels.

Les recherches actuelles en réalité augmentée appliquées à l'ophtalmologie commencent à mettre au point de solutions pour compenser les déficiences visuelles, voire même la cécité. Les solutions envisagées ne sont pas de même nature pour les personnes qui n’ont aucune perception visuelle et celles qui possèdent encore une acuité visuelle.

Un grand nombre de projets dans le monde souhaitent tirer parti des avancées récentes dans le domaine des capteurs, de la réalité virtuelle ou d’objets connectés (comme les lunettes de Google) pour améliorer le quotidien des personnes malvoyantes.

Des applications pour lunettes connectées qui « reconnaissent » ce qu’elles « voient »

Les nouvelles générations de lunettes en réalité augmentée, comme celles de Google, reposent sur l’utilisation d’une caméra et de micro-écrans intégrés pour afficher des informations dans le champ de vision de l’utilisateur.
Des ingénieurs de la société AlchemyAPI, spécialisée dans la reconnaissance de textes et d’images, ont imaginé un usage inédit pour les Google Glass. Dès lors que celles-ci filment ce qui se trouve dans le champ de vision de l’utilisateur, il devrait être possible d’utiliser des algorithmes pour reconnaître ce que la camera « voit ». Le prototype qu’ils ont mis au point transmet les photos ou les vidéos captées par la caméra vers des ordinateurs équipés d’un logiciel de reconnaissance d'image. Celui-ci renvoie, avec un léger délai, sa meilleure évaluation des formes, plantes ou objets qu’il a reconnus. Il restitue son « verdict » oralement ou l’affiche sur le micro-écran lunettes (Source : MIT Technology Review). Une équipe chinoise poursuit une démarche de même nature, depuis 2013, mais autour des lunettes connectées de la société américaine Vuzix. 

Des lunettes pour détecter les formes et les obstacles

Une équipe de l'université d'Oxford a quant à elle mis au point une paire de lunettes qui permettrait d’alerter son utilisateur d'obstacles qu'ils ne pourraient pas voir et même rendre possible la reconnaissance faciale.

L'appareil recourt à une technologie vidéo avancée, avec une caméra intégrée dans ses montures. La caméra va capturer en vidéo ce que le porteur regarde, les images seront ensuite traitées pour afficher un résultat qui ne prendra en compte que les contours. L’utilisateur ne pourra donc voir qu’un monde constitué de contours, mais cela lui permettra en quelque sorte de regagner la vue. Plus un objet sera proche, plus ses contours seront brillants, ce qui permettra d’appréhender la distance. Lorsque le porteur de ces lunettes discutera avec une personne assez proche, le système devrait pouvoir lui donner des informations sur le visage de son interlocuteur grâce à la reconnaissance faciale. http://www.presse-citron.net/des-lunettes-intelligentes-pour-permettre-aux-aveugles-de-voir-le-monde/ Une centaine de lunettes devraient être remises l’an prochain à des personnes malvoyantes pour une phase de tests. L'équipe espère pouvoir commercialiser le produit dans moins de deux ans pour le prix d'un smartphone. (Source : Université d’Oxford).

Essilor : des lunettes à réalité amplifiée

En France, la société Essilor développe, en partenariat avec l'Institut de la vision, un prototype similaire : des lunettes contenant une caméra vidéo et un écran minuscule qui affiche, en transparence, une image traitée en temps réel de façon à corriger le déficit visuel.
Cette projection est réalisée par un système optique de quelques millimètres d'épaisseur inséré dans le verre ophtalmique des lunettes. Les algorithmes de traitement permettent d'augmenter ou de réduire la taille de l'image affichée, d'adapter son niveau de luminosité ou de contraste, ou encore de rehausser certaines fréquences spatiales pour mieux percevoir les contours d'un objet. Ses concepteurs qualifient de procédé de « réalité amplifiée » : « l'image qui s'affiche n'est pas une image de synthèse, mais une version modifiée de la réalité » (Source : Lisy).

« Lunettes auditives » et « vision sonore » pour analyser les textes et les lire a haute voix

Des chercheurs du MIT, pour leur part, ont mis au point une bague qui pourrait permettre aux malvoyants de prendre connaissance d’un texte sans recourir à l’écriture en braille. La camera intégrée dans l’anneau, baptisé FingerReader, permet à son utilisateur de scanner les lignes d’un texte avec le doigt, de la même façon qu’il pourrait le faire en lisant réellement ; une voix prononce, ensuite les mots scannés à haute voix. Un retour haptique signale que la lecture de la page est achevée ou prévient l’utilisateur lorsqu’il s’éloigne du texte ou lorsqu’il saute des lignes. Ce dispositif pourrait aussi, a terme, traduire le texte dans une autre langue. Ce dispositif fait suite au projet Eyering qui permettait, en pointant du doigt un objet de savoir de quel type d’objet il s’agit, sa couleur ou même son prix. 

En 2012, une équipe de chercheurs de l’Université de Jérusalem avait conçu, avec l’appui de chercheurs de l’INSERM et du CEA, un système de «vision sonore» permettant aux aveugles de naissance de percevoir les formes d’un visage, d’une maison, et même de lettres et de mots. Le dispositif comprend une petite caméra vidéo incorporée à des lunettes, un smartphone transformant l’image en sons, et un casque stéréo. 

Un projet de même nature est en cours à l'Unité de Guadalajara au Mexique. Là aussi, les lunettes sont dotées de capteurs et d'une caméra pour recueillir des informations sur l'environnement proche. La nouveauté résiderait dans la combinaison de l'utilisation d'ultrasons pour détecter les obstacles et d’intelligence artificielle pour la reconnaissance visuelle.

Une autre start-up israélienne OrCam Technologies a développé un dispositif capable de lire la signalisation, des inscriptions sur des objets ou des documents imprimés et de les retranscrire oralement. Une caméra fixée sur les lunettes balaye ce qui apparaît dans le champ de vision de l’utilisateur : programmé pour reconnaître ce qui est pointé du doigt (livre, menu de restaurant, boîte de conserve, panneau, affiche…), le dispositif est alors capable de restituer oralement les inscriptions. La caméra peut embarquer une bibliothèque d'objets, voire de visages. L’appareil utilise, en outre, la technologie dite de conduction osseuse : le son est transmis directement à l’oreille en passant par les os du crâne, ce qui permet à l’utilisateur de ne pas utiliser d‘écouteurs. Les personnes aveugles peuvent également utiliser cette technologie, mais d’une façon un peu différente, puisqu’à la différence des personnes malvoyantes, elles ne peuvent pas pointer précisément du doigt ce qui les intéresse. Intel vient d’investir 15 millions de $ dans la société. (Source : GigaOm). (Une autre équipe israélienne avait développé un algorithme capable de convertir les formes et les couleurs en un réseau complexe de sons. Une ligne diagonale, par exemple, ressemble à une note de musique. Au fil du temps, les utilisateurs d’EyeMusic apprennent à différencier les sons et les associer à des formes particulières, des couleurs, et éventuellement des objets). 

Des lunettes couplées à une prothèse implantée sur la rétine

Dans le même domaine, mais en tirant parti d’une nouvelle génération d’implants, le centre de recherche suisse de la société américaine Second Sight a mis au point une paire de lunettes couplée à une prothèse implantée sur la rétine. Ce dispositif est spécifiquement destiné aux personnes atteintes d’une rétinite pigmentaire, une maladie qui entraîne la dégénérescence des cellules photosensibles (cônes et bâtonnets) de la rétine. La prothèse, qui comprend une antenne, un boîtier électronique et un faisceau d’électrodes, est implantée à l’intérieur de l’œil par voie chirurgicale. La caméra vidéo miniature logée dans les lunettes filme une scène, les images sont alors traitées par un ordinateur portable. Une fois transformées en instructions les informations sont alors renvoyées aux lunettes via un câble. Ces instructions sont ensuite transmises à une antenne dans l’implant par une connexion sans fil. Celles-ci contournent les photorécepteurs endommagés et stimulent les cellules restantes de la rétine, qui transmettent les informations visuelles le long du nerf optique au cerveau, créant la perception des formes lumineuses (Source : Le Temps).
 

Voir aussi :

Accessibilité des technologies mobiles pour les malvoyants : un bilan de l’année 2013

Une application collaborative pour interpréter les photos prises par les déficients visuels

Un système de « vision sonore » pour les aveugles de naissance

Une bague pour analyser et lire les textes à haute voix

Réalité augmentée « au bout des doigts » pour aider les non-voyants

Des chaussures intelligentes et connectées pour guider les malvoyants

Un dispositif de guidage mobile pour malvoyants basé sur la Kinect

Accessibilité pour les malvoyants des terminaux sous Android 4.0

De nouveaux objets connectés au service des personnes sourdes et malvoyantes