Stage M2 – Externalisation et réalisme de sources sonores en réalité virtuelle/augmentée
Le son émis par une source réelle est normalement perçu comme « externalisé », c’est-à-dire comme provenant de l’environnement autour de l’auditeur. Par contre, les sources reproduites au casque sont en général perçues comme « internalisées », le son semblant alors provenir de l’intérieur de la tête. La reproduction audio binaurale permet d’externaliser des sources sonores simulées au casque. Leur externalisation est principalement due aux indices binauraux associés au filtrage du son par les caractéristiques morphologiques de l’auditeur (pavillon, tête) et à la réverbération dans les salles qui produit des variations temporelles de ces indices. Reproduire des sources externalisées est crucial pour le réalisme de toute application d’audio spatial et par extension de réalité virtuelle ou augmentée.
Le but est ici de mieux comprendre et caractériser l’externalisation des sons reproduits au casque, en mettant en évidence les indices acoustiques sous-jacents à notre perception, mais aussi les aspects cognitifs qui seront étudiés en variant le contexte de la reproduction sonore. Il sera important de rester vigilant sur la différentiation de l’externalisation et de la distance perçue, en mettant en évidence leur
différences et points communs.
Voici des problématiques auxquelles il serait intéressant de s’attaquer :
*En quoi l’externalisation dépend du niveau sonore de la source simulée, de la nature de cette source, et de sa distance (simulée) ?
*Est-il possible de modifier le niveau d’externalisation perçu d’une source cible en faisant varier le type de reproduction sonore et/ou de son reproduit avant l’écoute de la cible ? (effets de contexte)
*En comparant des reproductions de son 3 D au casque et sur haut-parleur, est-ce que (et sous quelles conditions) les auditeurs sont capables de correctement identifier la source (réelle vs. virtuelle) ?
Plus d’informations sur le lien ci-dessous.