Stage M2 – Prédictions individuelles de l’intelligibilité de messages de parole dans les salles bruyantes

Dans les environnements bruyants, la perception binaurale (avec deux oreilles) permet d’améliorer l’intelligibilité d’une voix que l’on cherche à comprendre au milieu de sources sonores concurrentes situées à des positions différentes. Ce démasquage spatial peut être réduit par une perte auditive et certains traitements de signaux utilisés dans les aides auditives. Il n’y a actuellement aucun modèle permettant de prédire l’intelligibilité de la parole masquée par une voix concurrente, ou les effets associés des pertes et des aides auditives. Les modèles ont été validés pour différentes sources de bruit, en partie car dans les situations de voix concurrentes le masquage peut être « énergétique » ou « informationnel ». Le masquage énergétique (EM) correspond à une perte d’intelligibilité quand la voix cible et les sources concurrentes se « recouvrent » en temps/fréquence, rendant la cible moins audible. Le masquage informationnel (IM) fait référence à des phénomènes plus centraux (l’impossibilité de séparer les signaux ou de porter son attention sur la cible), quand les voix concurrentes sont très similaires. Le but de ce stage est de participer au développement d’un modèle capable de prédire les effets de l’EM sur les performances individuelles d’intelligibilité pour des auditeurs sans perte auditive (NH) ou malentendants (HI), dans des environnements réalistes. Cette recherche sera basée sur un modèle binaural proposé récemment* pour prédire les différences individuelles d’intelligibilité associées à l’EM parmi des auditeurs HI, en présence de bruit stationnaire, bruit modulé et parole concurrente. Par rapport à ce modèle, le but est de prédire des fonctions psychométriques complètes (pourcentage correct en fonction du rapport signal bruit, SNR) plutôt que de se limiter aux différences de seuil de réception de la parole (SNR pour 50% d’intelligibilité, c’est-à-dire un point unique de la fonction psychométrique). Le modèle sera testé sur des données existantes mesurées pour des auditeurs NH et HI dans des environnements réels enregistrés, variant en complexité. Le modèle sera développé sous MatLab et sera distribué à la communauté une fois validé.

Plus d’informations sur le lien ci-dessous.