Computer könnten eines Tages erkennen, Stimmen ebenso wie mit Menschen

Das ist ein Insider-Wissenschaft-Geschichte. , Wenn Ihr Telefon klingelt und Sie Antworten ihm, ohne Blick auf die Anrufer-ID, es ist durchaus möglich, dass, b

Computer könnten eines Tages erkennen, Stimmen ebenso wie mit Menschen

Das ist ein Insider-Wissenschaft-Geschichte.

, Wenn Ihr Telefon klingelt und Sie Antworten ihm, ohne Blick auf die Anrufer-ID, es ist durchaus möglich, dass, bevor eine person vom anderen Ende abgeschlossen "Hallo," Sie würde schon wissen, es war deine Mutter. Man könnte auch sagen, innerhalb einer Sekunde, ob Sie glücklich war, traurig, wütend oder besorgt.

der Mensch kann natürlich erkennen und zu identifizieren anderen Menschen, indem Sie Ihre Stimmen. Eine neue Studie in Der veröffentlichten Journal of the Acoustical Society of America untersucht, wie genau die Menschen sind in der Lage, dies zu tun. Die Ergebnisse können den Forschern helfen effizienter gestalten Spracherkennungs-software in der Zukunft.

Die Komplexität der Rede

"Es ist ein verrücktes problem für unsere auditorischen Systems zu lösen-um herauszufinden, wie viele Töne es gibt, was Sie sind und wo Sie sind", sagte Tyler Perrachione, Neurowissenschaftler und linguist an der Universität von Boston in der Studie nicht beteiligt.

Heute, Facebook hat wenig Probleme bei der Erkennung von Gesichtern in Fotos, selbst wenn ein Gesicht zu erkennen ist aus verschiedenen Blickwinkeln oder unter verschiedenen Lichter. Heute ist die Spracherkennungs-software ist viel mehr beschränkt im Vergleich, nach Perrachione, und das kann in Bezug auf unseren Mangel an Verständnis darüber, wie Menschen in der Lage sind zu identifizieren, die Stimmen.

"Wir Menschen haben verschiedene Modelle für verschiedene Individuen", sagte Neeraj Sharma, ein Psychologe an der Carnegie Mellon University in Pittsburgh und an der Erstautor der aktuellen Studie. "Wenn Sie hören, ein Gespräch, wechseln Sie zwischen verschiedenen Modellen in Ihrem Gehirn, so dass Sie verstehen, jeder Lautsprecher ist besser."

(MEHR: kleines Gerät könnte helfen Menschen, die leiden unter chronischen Atembeschwerden)

die Menschen entwickeln Modelle, in deren Gehirnen, wie Sie ausgesetzt sind, um verschiedene Stimmen, unter Berücksichtigung der feinen Unterschiede in der Merkmale wie Rhythmus und timbre. Durch die natürlich-Umschaltung und Anpassung zwischen verschiedenen Lautsprecher-Modelle auf der Basis von who ' s talking, Menschen lernen zu erkennen und verstehen, die verschiedenen Lautsprecher.

"jetzt, voice-Anerkennung-Systemen nicht den Fokus auf das Lautsprecher-Aspekt-Sie im Grunde verwenden die gleiche Lautsprecher-Modell, alles zu analysieren", sagte Sharma. "Zum Beispiel, wenn Sie mit Alexa, Sie verwendet die gleiche Lautsprecher-Modell zu analysieren, meine Rede gegenüber Ihrer Sprache."

So sagen wir, Sie haben eine eher Dicke Alabamian Akzent -- Alexa denken vielleicht, dass Sie sagen: "cane", wenn Sie versuchen, zu sagen: "kann nicht."

"Wenn wir verstehen können, wie Menschen mit Sprecher-abhängigen Modellen, dann können wir vielleicht lehren, ein Computer-system, um es zu tun", sagte Sharma.

- Hören Sie zu und sagen, 'wenn'

In der neuen Studie, Sharma und seine Kollegen ein experiment, in dem eine Gruppe von Freiwilligen Versuchspersonen hörten audio-clips, die von zwei ähnlichen Stimmen sprechen in der Reihe, und wurden gebeten, zu identifizieren, den genauen Zeitpunkt eines Sprechers übernahm von der vorherigen.

Dies ermöglichte es den Forschern um die Beziehung zwischen bestimmten audio-features und die Reaktionszeit und die Fehlalarm-rate des menschlichen Freiwilligen. Sie begann dann zu entziffern, was cues Menschen hören um anzuzeigen, dass ein Lautsprecher ändern.

(MEHR: Mars-Erkundung: die Überwindung der Herausforderungen der Landwirtschaft im Raum)

"Derzeit haben wir nicht eine Menge von verschiedenen Experimenten, die uns erlauben, zu studieren, Sprecher der Identifizierung oder der Spracherkennung, so das experiment-design ist eigentlich ziemlich clever", sagte Perrachione.

Wenn die Forscher führten den gleichen test für verschiedene Arten von state-of-the-art-Spracherkennung-software, einschließlich einer kommerziell erhältlichen software, die von IBM entwickelt wurde, fanden Sie, dass die menschlichen Freiwilligen durchgeführt, die durchweg besser als alle der getesteten software, wie erwartet.

Sharma sagte, dass Sie planen, Blick auf die Gehirnaktivität von Menschen hören verschiedene Stimmen mithilfe der Elektroenzephalographie oder EEG, eine nicht-invasive Methode für die überwachung von Gehirn-Aktivitäten. "Das könnte uns helfen, weiter zu analysieren, wie das Gehirn reagiert, wenn es einen Lautsprecher zu ändern", sagte er.

Innerhalb der Wissenschaft ist eine redaktionell unabhängige, gemeinnützige print -, elektronische und video-Journalismus Nachrichten-service im Besitz und betrieben von der American Institute of Physics.

Updated Date: 29 Januar 2019 01:21

Yorum yapabilmek için üye girişi yapmanız gerekmektedir.

Üye değilseniz hemen üye olun veya giriş yapın.

RELATED NEWS