Comment les dernières technologies changent notre façon d’écouter |
La newsletter de la radio de demain #383… Abonnez-vous
Notre manière d’écouter, d’entendre et de comprendre le monde qui nous entoure est en pleine révolution. Entre immersion sonore, accessibilité et intelligence artificielle, quelles sont les dernières sorties tech qui redistribuent les cartes de notre expérience auditive ? Et surtout, arriverons-nous bientôt dans un monde où tous se comprend ?
Ecouter le monde autrement
Du Koss aux AirPods en passant par le Walkman ou encore les Beats by Dr Dre, notre manière d’écouter des contenus audio a bien évolué. Et récemment, c’est la full immersivité qui semble partir au galop. Le concert de Metallica, en plus d’être le plus long sur le Vision Pro d’Apple, est considéré comme la meilleure expérience offerte par l’appareil. 25 minutes pendant lesquelles plus rien ne semble avoir d’importance.
Côté podcast, c’est une petite révolution à laquelle on fait face : près d’un Français sur deux en écouterait et nottament pour passer le temps dans les transports. Les nouvelles technologies s’immiscent là-encore dans nos petites histoires auditives. Et, on ne vous le cache pas, l’IA arrive à donf. Les concepteurs de voix s’intègrent complètement tant dans la lecture de livres audio que dans la retranscription sonore de documents. Parfait pour écouter la dernière étude du GIEC en cuisinant.
Entendre en toute immersivité
Ecouter est une chose, entendre en est une autre. Alors même que les casques audios dernière génération permettent de nous isoler complètement et, a fortiori, de ne pas entendre ce qui nous entoure, Samsung va aux antipodes en intégrant dans la dernière mise à jour de son système d’exploitation One UI un meilleur support des aides auditives compatibles Bluetooth Auracast. Un progrès bienvenu, une avancée majeure pour les personnes malentendantes dont un podcast retrace quelques histoires singulières.
Et puis, il faut se le dire, ce que nous entendons – ou pas – façonne notre perception du monde. Quid, par exemple, du son que faisaient les anciens instruments de musique ? Et quid du changement de ton, voire d’accent, de nos interlocuteurs téléphoniques ? C’est en tout cas ce que propose Teleperformance, une entreprise française de télémarketing : « adoucir » l’accent de leurs salariés. Une voix lissée, la même pour tous… Un petit peu orwellien, non ?
Comprendre pour mieux s’entendre
Enfin, après avoir écouté et entendu, comprendre et se faire comprendre reste la marche à suivre. Outre les simples commandes vocales “Alexa”, “Hey Google”, ou encore, “Hey YouTube”, les chatbots et autres assistants vocaux pourraient bientôt comprendre les émotions dans notre voix. C’est en tout cas ce que propose Apple, sûrement pour nous faire patienter quant à l’arrivée de l’IA dans Siri qu’ils ont du repousser à une date ultérieure…
Et, entre humains, lorsque la langue nous sépare, quelques solutions s’offrent à nous pour éviter l’imbroglio diplomatique. Apple, par exemple, annonce intégrer la traduction automatique dans la dernière version de ses AirPods. Quand bien même révolutionnaire pour la marque à la pomme, il faut tout de même rappeler que Google avait déjà mis son nez dans le sujet.

A emporter