TwitterFil Twitter

La nouvelle version d' #UnivMobile l’appli officielle des universités de Paris et d’IDF est sur #ProximaMobile
https://t.co/VxTqJOjjQY
#mEdu

Félicitations à l’astronaute Thomas Pesquet qui se rapproche de l’ #ISS: sa mission s’appellera PROXIMA ;) via
https://t.co/gjIZqDJXl7

Big Data et exploitation des données mobiles au service du développement
http://t.co/AY6PqdpYVP
#mSciences #mData

Sciences participatives: des applis mobiles collaboratives pour l’observation et le suivi des oiseaux
http://t.co/zTjakSVFTQ
#MobileDurable

Handicap - Actualités

Reconnaissance d’images à l’intention des déficients visuels : algorithmique ou collaborative ?

Vendredi 26 juin 2015 - Catégorie(s) : Handicap.

Un grand nombre de projets dans le monde tirent parti des avancées récentes dans le domaine des capteurs (détection de mouvement, sonar, infrarouges) pour permettre aux personnes malvoyantes de se déplacer avec plus d’autonomie et une meilleure sécurité dans des environnements urbains. (voir dossier Lunettes connectées, réalité augmentée et « vision sonore » pour les malvoyants).

Reconnaissance automatique des images…

Une autre voie de recherche réside dans la création d’applications qui associent l’appareil photo du smartphone et des techniques plus ou moins avancées de reconnaissance d’images et de caractères pour décrire vocalement des objets ou des inscriptions. C’est l’approche retenue par les applications TaptapSee, Camfind et Talking Goggles.

L’application TapTapSee, par exemple, mise au point en 2012 par la start-up californienne Image Searcher, permet ainsi à une personne malvoyante de prendre une photo en tapant deux fois sur l’ecran (d’où son nom). Pour veiller à ce que les images soient claires, l'application émet des signaux sonores jusqu'à ce que l'objet soit au point. La photo est alors transmise vers les serveurs d’Image Searcher qui déchiffrent le texte ou cherchent une correspondance dans la banque d’images, puis renvoient une description vocale de ce qui figure dans la photographie. L’application a remporté́ le prix de l’accessibilité (Access Awards) décerné par la Fondation américaine pour les aveugles (American Foundation for the Blind, AFB).

.. ou collaborative

Une alternative consiste à mettre en relation des personnes voyantes avec des non-voyantes lorsque ces dernières ont besoin d’aide, par exemple pour lire la date de péremption d’un produit alimentaire ou connaître le prix d’un objet en magasin. C’est l’approche retenue par les concepteurs l’application VizWiz. Une fois la photo prise, la personne malvoyante formule oralement une question en vue d’obtenir une réponse dans un délai très bref. La question peut alors être adressée vers Mechanical Turk (une plateforme collaborative commerciale qui emploie des volontaires pour exécuter des tâches simples), vers Twitter ou Facebook. Pour s’assurer que la question recevra une réponse rapidement sur Mechanical Turk, VizWiz a développé un module qui sollicite un volontaire dès la préparation de la question avant même qu'elle ne soit envoyée. La question peut aussi être soumise à IQ Engines, une plateforme de reconnaissance d’images.
Plus récente, l’application Be My Eyes procède de la même démarche. Son concepteur, Hans Jørgen Wiberg, lui-même déficient visuel, a convaincu des développeurs de l’aider a la mettre au point. Près de 85 000 volontaires se sont inscrits pour apporter leur aide à environ 6 300 personnes malvoyantes (Source : Re.code).


La Fondation américaine pour les aveugles procède régulièrement a des évaluations des équipements et des applications destinés aux aveugles. Elle recommande à ses membres l’utilisation conjointe de ces deux familles d’outils. L’approche collaborative s’avère plus adaptée quand il s’agit d’aider un déficient visuel à s’orienter dans des environnements nouveaux ou à faire face à des situations inconnues (Source : American Foundation for the Blind ).


Voir aussi

Une application collaborative pour interpréter les photos prises par les déficients visuels

Des applications pour lunettes connectées qui « reconnaissent » ce qu’elles « voient

Accessibilité des technologies mobiles pour les malvoyants : un bilan de l’année 2013

Une application collaborative pour interpréter les photos prises par les déficients visuels

Un système de « vision sonore » pour les aveugles de naissance

Une bague pour analyser et lire les textes à haute voix

Réalité augmentée « au bout des doigts » pour aider les non-voyants

Des chaussures intelligentes et connectées pour guider les malvoyants

Un dispositif de guidage mobile pour malvoyants basé sur la Kinect