Intelligence Artificielle et Audioprothèse

par | Mar 18, 2024 | Audition, Innovations

Qu’est-ce que l’IA ?

En 1950, un certain Alan Turing rêve de créer une machine intelligente. Il n’y parviendra pas mais son idée suscite un très fort engouement et, bientôt baptisée intelligence artificielle (1956, John MacCarthy), elle va lui survivre. L’IA et ses promesses susciteront émoi et désintérêt, elles connaîtront des hauts et des bas en traversant les décennies. Des progrès technologiques fulgurants en matière d’informatique relancent aujourd’hui la machine : l’IA est de nouveau sur le devant de la scène.Cet essor récent s’appuie sur trois piliers : 1) une puissance de calcul des ordinateurs jusqu’alors inédite, 2) des progrès en matière d’algorithmes et 3) une énorme quantité de données disponibles. L’IA est une technologie très énergivore mais désormais capable de prouesses souvent bluffantes. Elle simule la conversation, répond à des consignes données en langage naturel, se montre même plus performante que l’humain sur certaines tâches hyper spécialisées.

IA désigne l’ensemble des techniques par lesquelles on tente de simuler l’intelligence humaine via des systèmes informatiques. Parmi ces techniques, le Machine Learning ou apprentissage automatique, simule notre capacité d’apprendre et de nous adapter à des problèmes nouveaux. Grâce à lui, un ordinateur peut apprendre à « tirer des généralités plausibles à partir d’un très grand nombre d’observations »1. Le Deep Learning, ou apprentissage profond, « Méthode d’apprentissage automatique fondé sur l’apprentissage de modèles de données et de plusieurs niveaux de traitement »1 en est un exemple célèbre. Il se base sur une imitation structurelle du cerveau humain et s’appuie sur l’interconnexion de plusieurs couches de neurones artificiels. Une méthode qui a permis la mise au point du célèbre Chat GPT, par exemple.

image Intelligence artificielle et évolution

image Intelligence artificielle et évolution

Des applications dans le domaine médical ?

Grâce au Deep Learning, après avoir « ingurgité » près de 50000 images de mélanomes, des ordinateurs peuvent les repérer de manière très précise. Ceci n’est qu’un exemple parmi tant d’autres : les applications médicales de l’IA sont nombreuses. Médecine prédictive, aide à la décision, chirurgie assistée par ordinateur, robot d’aide à la personne… L’avenir médical de l’IA semble radieux : qu’en est-il en audioprothèse ?
Il existe des prothèses « intelligentes ». Elles sont capables de réagir à des situations sonores données, d’apprendre de leurs erreurs et de s’autocorriger en conséquence. Ces IA peuvent aujourd’hui distinguer paroles et bruits, s’adapter aux préférences des utilisateurs, réagir en temps réel à des situations sonores inconfortables. Elles sont par exemple capables d’atténuer des bruits désagréables au quotidien ou de réduire de manière adaptative certains sons continus (moteurs de voitures, par exemple). Agissant surtout sur les signaux auditifs reçus, elles modifient leurs réglages en fonction des situations.

Pionnier du genre, c’est dès les années 2000 que Phonak, avec la prothèse Claro, met sur le marché la technologie « autoselect », laquelle permet à une prothèse d’analyser et de reconnaître différents environnements sonores. En 2004, grâce à une analyse des pratiques d’un échantillon d’utilisateurs, l’audioprothèse Savia, chez Phonak toujours, proposait un préréglage automatique en fonction du type et du degré de surdité du patient.

image Intelligence artificielle et diagnostic des pathologies

Intelligence artificielle et diagnostic des pathologies

Des IA externalisées

Pour fonctionner, ce type d’audioprothèse doit traiter dix fois plus d’informations numériques  (50 Mo) qu’une prothèse classique (5 Mo). Afin de limiter le coût en énergie induit et de maintenir la miniaturisation de l’appareillage, beaucoup de ces IA sont externalisées. Stockées sur un serveur externe, ou Cloud, elles sont accessibles via une application gratuite sur Smartphone reliée aux aides auditives. Par l’intermédiaire de son téléphone, le patient appareillé va ainsi pouvoir améliorer ses intentions d’écoute dans des environnements sonores complexes. L’IA lui permettra de s’adapter à des contextes d’inconfort auditif que l’audioprothésiste n’aurait pas pu prévoir. Par exemple, dans un même bus, un patient A veut s’affranchir de la conversation bruyante de son voisin direct afin d’écouter les instructions du chauffeur, tandis qu’un patient B, au contraire, veut échapper au brouhaha ambiant pour écouter la personne assise en face de lui.

Plusieurs applications de ce type sont sorties à l’aune des années 2020. Parmi elles, Signia Assistant (2021), de chez Signia, interroge le patient sur sa situation sonore inconfortable via un système de Chat. L’IA analyse les données (type d’environnement, niveau d’intensité, objections du patient). En fonction des réponses elle propose, mais n’impose pas, des réglages adaptés.

Widex Moment (2018) s’appuie sur l’expérience de millions d’utilisateurs pour l’optimisation assistée par IA des réglages en fonction du contexte. Via la fonctionnalité “my sound”, l’application propose à l’utilisateur de choisir entre un réglage A et un réglage B se basant sur des situations similaires déjà vécues par d’autres. En 2021, l’application introduit la notion de compression qui permet  de privilégier les sons éloignés ou les sons proches selon le contexte.

En situation auditive inconfortable, un double tap sur la prothèse Livio Edge, fabriqué par Starkey, et elle réalise une capture acoustique instantanée de l’environnement sonore. Ce mode Edge, basé sur la puissance de l’IA, ajuste automatiquement le réglage (gain, réducteur de bruit, directionnalité) afin d’optimiser le confort d’écoute. Grâce à des capteurs de mouvement 3D, l’activité et les gestes des utilisateurs sont enregistrés, si la fonction dédiée est activée.

L’application “Thrive” permet de contrôler ses aides auditives “comme avec une télécommande”. En outre, l’IA permet ici au patient d’activer un suivi de sa santé physique et cognitive. En cas de chute, par exemple, un SMS est automatiquement envoyé au proche dont le numéro aura été préalablement enregistré. Sur l’écran du Smartphone, Thrive peut également afficher la traduction d’une conversation orale dans une langue étrangère en temps réel et même traduire directement une communication téléphonique dans les aides auditives.

image Intelligence artificielle et environnement sensoriel

image Intelligence artificielle et environnement sensoriel

Une IA implémentée

Depuis 2021, Oticon développe une IA grâce au Deep Learning ou apprentissage neuronal profond. Celle-ci a été entraînée avec une bibliothèque de quelque 12 millions de scènes auditives différentes. Si les IA qui figurent ci-dessus étaient “externalisées”, celle-ci est directement intégrée à la puce de l’appareil auditif Oticon More. L’objectif ? Restituer le plus fidèlement possible la scène sonore, en hiérarchisant de manière pertinente les informations auditives reçues par le patient appareillé.

En résumé

Ces IA améliorent le confort des malentendants grâce à une plus grande adaptation en temps réel. Elles sont capables de distinguer différentes qualités sonores (circulation, chant des oiseaux, musique…) et de réguler le signal en fonction des préférences de l’utilisateur. Les algorithmes permettent d’agir dans l’instant (bruit de vaisselles, son métallique des clefs, porte qui grince…) comme sur le long terme, en  affinant les réglages pour une meilleure durée d’écoute lorsque la situation l’exige. Dans un restaurant, par exemple. Enfin, ces appareils offrent d’autres fonctionnalités et permettent aux patients de veiller sur leur état de santé plus globalement, grâce à des capteurs de température, de mouvement ou encore du rythme cardiaque.

Le rôle de l’humain

Le vieux rêve de Turing enfin réalisé ? Pas vraiment… Parler d’Intelligence Artificielle est un abus de langage et beaucoup de chercheurs estiment que l’IA n’égalera jamais le cerveau humain. En matière d’audioprothèse, si la technologie ouvre de nouvelles voies, elle ne peut remplacer l’audioprothésiste et soulève encore de nombreuses questions. En premier lieu : Comment choisir parmi les appareils susmentionnés, sachant qu’il en existe bien d’autres encore, si personne n’en maîtrise les subtilités ? Tous les patients sont-ils à l’aise avec un smartphone ou encore avec les nouvelles technologies ? Comment la machine pourrait-elle s’adapter à des cas qu’elle ne connaît pas ?

Conclusion

Si l’IA est puissante, elle reste dotée de la sensibilité d’une grosse calculatrice : elle n’en a pas. Pas plus qu’elle n’a d’empathie, cette faculté qui permet aux soignants de se mettre à la place de leurs patients et de mieux comprendre leurs maux. Parmi les spécialistes, certains préfèrent d’ailleurs parler d’Intelligence Augmentée plutôt que d’Intelligence Artificielle, cela afin de mieux mettre en perspective le rôle central et irremplaçable de l’humain dans cette technologie émergente.

Visuels générés avec DALL-E
1 https://www.inserm.fr/dossier/intelligence-artificielle-et-sante/

 

Prenez rendez-vous

Vous souhaitez être pris en charge par notre laboratoire ? Adressez-nous votre demande via notre page contact

Suivez-nous sur Facebook

Retrouvez toute l'actualité de notre laboratoire.