Исследование, опубликованное в журнале PLOS Computational Biology, позволяет по-новому взглянуть на нейронные механизмы, лежащие в основе нашего восприятия музыкального тембра. Мунья Элилали и его коллеги из Университета Джона Хопкинса построили основанную на результатах исследований на человеке и животных математическую модель распознавания звуков и суждений относительно их тембра.
Основной вклад в наше восприятие музыки и других звуков вносит тембр. Тембр - это понятие, которое сложно описать количественно - оно не основано на длительности, громкости или высоте звука. Мы говорим о тембре, когда определяем, какой инструмент играет - например, скрипка или саксофон.
Исследователи из Университета Джона Хопкинса поставили перед собой задачу создать математическую модель, которая бы описывала то, как мозг получает информацию о звуке, выделяет особенности звучания и как в мозге представлено понятие тембра.
Авторами была предложена модель, точно воспроизводящая преобразование звуков в нейронные сигналы, происходящее в определенных зонах коры и подкорки. Эта модель смогла с точностью 98,7% различить звуки 13 инструментов!
Предложенная модель, по словам исследователей, описывает то, как слушатель принимает решение относительно источника звука. В одном из экспериментов 20 участников просили прослушивать пары звуков, произведенных разными инструментами, и оценивать, насколько они сходны между собой. Например, оказалось, что скрипка и виолончель воспринимаются как звучащие более похоже, чем скрипка и флейта. Кроме того, также было показано, что духовые и ударные отличаются друг от друга сильне всего, затем идут струнные и ударные, и менее заметны различия в тембре струнных и духовых инструментов. Все эти различия в тембре также были воспроизведены и компьютерной моделью.
Элилали говорит, что "еще так много нужно узнать относительно того, как человеческий мозг обрабатывает информацию о музыкальном тембре, чтобы использовать это знание для создания более продвинутых компьютерных систем и технологий распознавания звука".
Литература:
-
Kailash Patil, Daniel Pressnitzer, Shihab Shamma, Mounya Elhilali. Music in Our Ears: The Biological Bases of Musical Timbre Perception // PLoS Computational Biology, 2012; 8 (11): e1002759.
-
Носуленко В.Н., Старикова И.В. Способ вербального сравнения акустических событий как показатель величины воспринимаемого между ними различия // Экспериментальная психология. 2010. №3. C. 27-38.
-
Самойленко Е.С., Носуленко В.Н., Мелкумян Т. А. Роль вербально выраженного сравнения объектов в субъективной оценке степени их сходства // Экспериментальная психология. 2010. №3. C. 93-109.