Vergleich zeigt, dass iPhone länger als Pixel braucht um Sprache in Text umzuwandeln

Smartphone
4
Yannick

Wird es Zeit für Apple, Siris Spracherkennung komplett zu überholen? Im Vergleich mit dem Google Pixel und der Spracherkennung von Gboard könnte man auf ein 'Ja' schließen, oder so zumindest laut Entwickler James Cham.

Vergleich zeigt, dass iPhone länger als Pixel braucht um Sprache in Text umzuwandeln

Dass Siri intelligenztechnisch ein wenig hinter den Konkurrenten Google Assistant und Alexa hinterherhinkt, ist mittlerweile eine Tatsache die auch Apple selbst beschäftigt. Vor nicht allzu langer Zeit hat das Unternehmen das KI-Startup Voysis aufgekauft, welcher mit dem hochwertigen "Wavenet" Verfahren die Erkennung von Stimmen für Sprachassistenten einfacher gestaltet hat und Mitte 2018 so Wellen geschlagen hat. Dass sich das Cupertino-ansässige Unternehmen aus der Akquisition erhofft, Siris Fähigkeiten zu verbessern und wieder auf einer Ebene mit der Konkurrenz zu bringen, ist einsichtig. Dass dies auch vonnöten ist, beweist ein neuer Vergleich von Entwickler und Investor James Cham, der Apples Siri direkt mit der Spracherkennung vom Google Pixel vergleichen ließ.

In einem Video, in dem die neuesten Versionen des Pixels und iPhones nebeneinander gelegt worden sind, ließ Cham für über eine Minute lang die Spracherkennungssoftware beider Geräte ganze Arbeit leisten um die Geschwindigkeit effektiv zu vergleichen. Nachdem das Google Pixel praktisch in Echtzeit die gesprochenen Wörter aufgenommen und perfekt transkribiert hat, brauchte Siri fast einen ganzen Satz länger um das Ende der gesprochenen Nachricht zu erreichen. Cham war über diesen Vergleich (und vor allem über das Resultat) mehr als enthusiastisch:

"Ich glaube nicht dass die Leute wirklich schätzen, wie unterschiedlich die Sprache-zu-Text Erfahrung von einem Pixel zu einem iPhone ist. Also ist hier ein kleines Kopf-an-Kopf Beispiel. Das Pixel ist so responsiv dass es sich anfühlt, als würde es meine Gedanken lesen! [...] Geschwindigkeit [beim Übersetzen] hat einen eigenen Wert. Das jetzige Modell von Sprache-zu-Text Assistenten behandelt die Funktion wie eine Kommandozeile. Man sagt etwas und wartet auf eine Antwort. Aber nun da die Spracherkennung so schnell ist und viel weniger Ressourcen benötigt als man denken würde, besteht das Potential um wahrlich interaktive Erfahrungen mit Assistenten zu schaffen."

Die Geschwindigkeit beim Aufnehmen und Transkribieren der Sprache ist nicht großartig relevant beim simplen Diktieren einer Nachricht für einen Kontakt, aber macht einen großen Teil der Qualität beim direkten Interagieren mit den Sprachassistenten aus, so Cham. In diesem Feld besitzt das Google Pixel jedoch definitiv die Oberhand - und das ist keine Überraschung, da sich Google mit der "End-zu-End, komplett neuralen, On-Device Spracherkennung" in Form des Gboards offen rühmt. Der Hauptfokus der Erkennung lag dabei auf der Reduzierung von Latenz, und dies beweist sich in dem Test. "Keine Latenzprobleme oder Rauheit mehr - die neue Spracherkennung ist immer verfügbar, auch wenn man offline ist," schrieb Google selbst über Gboard letztes Jahr. Mit dem Potential dass Gboard in der jetzigen Zeit schon veranschaulicht, sieht James Cham optimistisch und gespannt der Zukunft entgegen:

"Der springende Punkt ist nicht, welcher Assistent zurzeit besser oder schlechter ist, sondern was mit unseren jetzigen Mitteln möglich ist. @gruber beschreibt dies noch anschaulicher, als ich es könnte: 'eine wahrlich gute Sprache-zu-Text Funktion könnte ein Star-Trek-Level von Interaktion mit Assistenten ins Leben rufen.'"

Anscheinend kann ein iPhone mit installiertem Gboard ebenfalls eine Geschwindigkeit in der Spracherkennung erreichen, die sich mit dem Google Pixel vergleichen lässt - dies scheint jedoch vom Gerät abhängig zu sein, da manche Nutzer von einem signifikanten Unterschied berichten und andere keine Verbesserung wahrnehmen können.

4 Kommentare
An die drei Kommentatoren

Unser Artikel gibt lediglich die Resultate des Vergleichs und Meinungen der Durchführenden wieder. Bezüglich der Verbesserung von Siri. Das wird bereits im ersten Absatz erwähnt. Wie kann man das nur überlesen? :-)

Artikel mal wieder schlecht

Echt peinlich was hier manchmal drinsteht

Die Autoren mal wieder schlecht informiert

Kann mich dem vorherigen Kommentar nur anschließen. Und wenn man sich informieren würde, wüsste man dass Apple grade dabei ist Siri um einiges zu verbessen

Na und?

Zum einen kann man so einen Test, gerade wenn er vom Entwickler eines der Systeme durchgeführt wird, leicht manipulieren! Zum anderen frage ich mich, was das alles mit „neuronaler Vernetzung“ oder künstlicher Intelligenz zu tun haben soll!?! Hier wird lediglich ein programmierter Algorithmus vorgeführt, der über eine Datenbank „lernt“, das hat mit KI überhaupt nichts zu tun!

Kommentieren
Als Amazon-Partner verdiene ich an qualifizierten Verkäufen.