Harman/Kardon – Die waren mal gut?

Von Karim Geiger — unter Firmen am 24.04.2016

Cover

Harman/Kardon ist nicht ganz unbekannt. Angeblich stand die Marke früher für Qualität und war ihren Preis wert. Heute kann ich das leider absolut nicht bestätigen. Ich habe mittlerweile den zweiten AVR von Harman/Kardon bei mir daheim stehen und bin mehr als enttäuscht.

Was darf man von einem AV-Receiver für 900 Euro erwarten? Gute Qualität? Guten Sound und gutes Bild? Features? Eine App, um das Gerät zu steuern? Support, der einen versteht? Software, die intuitiv ist? Eine Fernbedienung, die ohne Infrarot auskommt? Nun. Der Ton ist in Ordnung, und das automatische Justierungssystem funktioniert. Auch das Bild wird per HDMI einwandfrei übertragen. Aber das war es dann im Großen und Ganzen auch schon.

Kommen wir zu den einfachen Sachen, die für ein Gerät dieser Preisklasse selbstverständlich sein sollten. Wie sieht es aus mit WLAN? Ja, hat es. Allerdings nur 802.11b/g und das auch nur, wenn der Router direkt neben dem Gerät steht. Schon auf 4 Meter Entfernung im selben Raum ist die Verbindung so schwach, dass eine WLAN-Verbindung nicht mehr aufgebaut werden kann. Immerhin bietet das Gerät auch einen LAN-Port, womit sich die mangelhafte WLAN-Unterstützung umgehen lässt. Dazu gibt es sogar eine App für Android und iOS, welche es ermöglicht, den AVR zu steuern. Auf dem Papier klingt das natürlich toll. Leider ist die App nur eine Fernbedienung, welche nicht einmal dessen volle Funktionalität bietet. Außerdem ist es über die App weder möglich, einen Zustand abzufragen, wie z.B. die Lautstärke oder den aktuellen Kanal, noch den AVR einzuschalten. Nach einer Stunde im Standby-Modus schaltet das Gerät den Webserver, welcher für die API-Anbindung der App zuständig ist, nämlich vollständig ab. Das hat zur Folge, dass das Gerät nur noch per Infrarot-Fernbedienung eingeschaltet werden kann. Und wie das bei Infrarot üblich ist, funktioniert das nur, wenn man mit der Fernbedienung genau auf den Empfänger zeigt.

Ist der AVR dann aber einmal an, und die Verbindung zur App hergestellt, fehlt wie bereits erwähnt der Zustand. So kann man die Lautstärke nicht per Regler anpassen, sondern nur Schritt für Schritt per Knopfdruck. 10x auf “Leiser” gedrückt, sendet also 10x das Signal “Leiser” an den AVR. Da kommt Freude auf. Zumal das Verarbeiten der Anfrage vom AVR etwa eine halbe Sekunde in Anspruch nimmt. 10 Stufen leiser bedeuten somit also, wenn alles optimal läuft, 5 Sekunden lang auf den “Leiser”-Knopf wie ein Irrer zu hämmern.

Da ich aktuell dabei bin, meine Geräte in meiner Wohnung zu vernetzen, um ein Smart Home zu etablieren, muss selbstverständlich auch der AVR 370 von Harman/Kardon mit von der Partie sein. Mit der Prämisse, dass ja eine App existiert, begann ich also, die API des AVR in meine Heimautomatisierung zu implementieren. Leider ist die API nirgends dokumentiert (wie sich herausstellte aus gutem Grund). Somit blieb mir also nichts anderes übrig, als die App auseinanderzunehmen und die Requests per Wireshark abzufangen, um meine eigene API zu schreiben. Die API ist allerdings so schlecht implementiert, dass noch nicht einmal der HTTP-Standard vollständig eingehalten wurde, was die Entwicklung etwas schwieriger gestaltete. Zudem gibt sie wie eingangs erwähnt keinen Zustand zurück. Nicht einmal eine Antwort des Servers kommt. Man kann also weder feststellen, ob der Befehl ausgeführt wurde, geschweige denn auf welchem Kanal/auf welcher Lautstärke der AVR steht, oder ob er überhaupt an oder im Standby-Modus ist.

Nach kürzester Zeit fanden sich im Netz weitere Interessenten, welche ebenfalls Geräte von Harman/Kardon besaßen. Sie probierten aus, ob meine Implementierung der API bei ihrem Gerät funktionierte. Teilweise war das auch der Fall. Allerdings führten manche Befehle auf unterschiedlichen Geräten unterschiedliche Dinge aus. “sleep” führt auf BDS-Geräten z.B. zu einem sofortigen Standby, bei meinem AVR jedoch setzt es einen Sleep-Timer auf 10 Minuten. Beständigkeit hat also bei der Entwicklung dieser API keine Rolle gespielt.

Da eine API relativ wenig bringt, wenn man das Gerät nicht anschalten kann, fragte ich beim Support nach, was denn der Grund für das Abschalten des Webservers nach einer Stunde sei. Nach einigem Hin- und Her, weil man meine Anfrage eingangs nicht verstand, kam letzten Endes nur die Antwort, dass eine EU-Richtlinie es verbiete, im Standby mehr als 0,5 Watt zu verbrauchen und es technisch daher nicht möglich sei, den Webserver laufen zu lassen. Zumindest war das die Antwort, die ich verstand, da sie in fehlerhaftem Deutsch formuliert war und ich mir nicht sicher bin, ob man mich überhaupt komplett verstanden hat. Seltsam allerdings, dass unzählige Geräte keine Probleme mit einem Always-On-Webserver haben und auch Wake On LAN ist nicht unbedingt die neuste Erfindung.

Ich gab nicht auf, und dachte, dass vielleicht ein Firmware-Update das Problem lösen könnte. Doch dann kam der endgültige Grund für das Schreiben dieses Artikels: Nicht nur scheint ein Firmware-Update keine Lösung zu sein, nein, man bekommt es bei einem 900 Euro-Gerät anscheinend nicht einmal hin, ein einfaches Migrations-Script zu schreiben, welches die aktuellen Nutzereinstellungen auf die neue Software-Version anhebt. Denn: Installiert man ein Firmware-Update werden alle Einstellungen auf den Werkszustand zurückgestellt. Halleluja.

Mein Fazit lautet also: Finger weg von Harman/Kardon. Ever.

Bildquelle: Shaun Owyeong

Okay Google Now!

Von Karim Geiger — unter Android, Google, Smartphones, Test am 08.03.2014

Das Motorola Moto X ist das in der Leitung von Google entstandene Mittelklassesmartphone, in dem sie neue Features testen wollten, welche nicht direkt in die Nexus-Serie einfließen sollten. So kommt das Moto X mit einer besonderen CPU, bei der die 4 Kerne wie folgt aufgeteilt werden: Zwei der Kerne sind für die tägliche Nutzung des Smartphones und machen all das, was sonst keiner übernehmen will. Ein weiterer Kern ist nur darauf spezialisiert den Bewegungssensor des Smartphones zu kontrollieren. Und weil er nur das macht, ist er relativ Stromsparend. Das hat zum Vorteil, dass ohne hohen Energieaufwand erkannt wird, ob das Handy geschüttelt wird (dann startet nämlich die Kamera) oder ob es aus der Hosentasche geholt wird (dann wird eine minimalistische Nachrichtenanzeige auf das Display geschalten (s. Bild), welche ebenso fast keinen Strom verbraucht, da bei AMOLED nur die Pixel aktiviert werden, welche auch wirklich etwas anzeigen). Der vierte und letzte Kern sorgt für Stimmerkennung. Das Mikrofon lauscht also immer – auch, wenn das Handy im Standby ist – mit, und filtert die Wortfolge “Okay Google Now” heraus. Wird das ausgesprochen, so hört das Handy auf weitere Sprachbefehle.

SONY DSCUnd um eben dieses Thema wird sich der Blogpost drehen. So super ich das Konzept auch finde, so schwierig ist es auch umzusetzen. Während das Feature in allen Reviews hoch gelobt wird, möchte ich es hier ganz nüchtern mit allen Stärken und Schwächen betrachten. Versteh mich nicht falsch, das Handy ist super und für den Preis optimal, ich werde es auch weiter behalten und die aktive Spracherkennung ist cool, aber sie ist definitiv verbesserungsfähig.

Fangen wir mit dem Aktivieren des Zuhör-Modus’ an. Das geht mit der Wortfolge “Okay Google Now” – und auch nur mit der. Vor der initialen Verwendung muss man drei mal die magischen Worte einsprechen, damit es nur auf die eigene Stimme hört. Spricht man andere Worte ein, werden sie nicht erkannt. Schade eigentlich, ein “Okay, du alter Lappen” wär bestimmt lustig geworden. Und das mit der eigenen Stimme klappt auch nur bedingt. Haben zwei Personen ähnliche Stimmen, so lässt sich das Handy auch von der anderen Person aktivieren. Ich stelle mir das im Klassensaal der Zukunft wie folgt vor: Der Lehrer kommt rein, schreit einmal “Okay Google Now!” und los geht das “pling-pling” bei 50% der Schüler. Denn ja, auch in der Hosentasche lässt sich Google Now (manchmal) aktivieren. Und ja, auch im lautlosen Modus bekommt man eine akustische Bestätigung, nachdem die Worte ausgesprochen wurde. Und nein, das lässt sich nicht anpassen. Wenigstens aktiviert es sich nicht, wenn man ähnliche Kombinationen sagt. Es muss schon sehr danach klingen. Mit “Okay Google Frau” klappt es allerdings auch.

Ist das Handy also einmal in den Zuhör-Modus gewechselt, was relativ zuverlässig – aber nie, wenn man es demonstrieren will – funktioniert, so kann man sprechen. Wenn man nah genug an dem Gerät dran ist. Kann ja sein, dass ich vor mich hin nuschle, aber auch, wenn mein Moto X auf das “Okay Google Now” reagiert, wenn ich am anderen Ende des Raumes bin, so ignoriert es alles, was folgt, sehr gekonnt. Meiner Vermutung nach liegt das daran, dass es etwas falsch konfiguriert ist und dank der aktiven Geräuschunterdrückung einfach mal alles als Störgeräusch rausfiltert, da es nicht direkt von vorne kommt. Der Im-Bett-Liegen-Und-Eben-Mal-Nach-Der-Uhrzeit-Fragen-Usecase fällt somit also flach, sofern man nicht direkt mit dem Mund am Nachttisch liegt.

Apropos nach der Uhrzeit fragen. Das – und vieles mehr – funktioniert nur, wenn man die Touchless Control-App von Motorola NACHINSTALLIERT. Pluspunkt: Das funktioniert nur auf Englisch, Spanisch, Französisch und Portugiesisch. Möchte man Google Now also sinnvoll nutzen, so muss man es auf Englisch stellen. Anderenfalls hat man anschließen in seiner Google-Search-History Dinge wie folgt stehen:

Screen Shot 2014-03-08 at 21.31.10

 

Gut, mal davon abgesehen. Wir nutzen Google Now nun also auf Englisch. Ein Screenshot zeigt das Ergebnis:

BiOu_6fIAAATtKBCool, das klappt gut! “remind me to take the trash out tomorrow” hat ohne Probleme funktioniert. Die Felder wurden ausgefüllt und die Erinnerung kann gesetzt werden. Moment. Kann? Ja! Einfach nur noch auf “Remind me at this time” drücken und schon ist der Reminder gesetzt.

Ja. Wirklich. Ich muss einen Button drücken. Da gibt es kein Timeout oder so etwas, wie es z.B. beim Stellen des Weckers der Fall ist. Wenn ich erinnert werden möchte, muss ich einen Button drücken. Warum? Das macht das gesamte Konzept einer Sprachsteuerung kaputt. Ich sitz im Auto und will mich erinnern lassen. Ich muss einen Button drücken. Ich hab das Handy in der Tasche und will mich erinnern lassen. Ich muss einen Button drücken. Klar erspar ich mir das Entsperren und das Tippen, trotzdem ist das einfach absoluter Quatsch.

Wer hat sich das ausgedacht?

Naja, gut. Also: Fazit. Das Konzept ist wirklich hervorragend und die Anwendung wird aktiv weiterentwickelt, so ist vor einem Tag z.B. eine Funktion dazu gekommen, welche mir nach einem einfachen “Okay Google Now, what’s up?” die Uhrzeit und alle Benachrichtigungen vorliest. Super praktisch! Ich hoffe daher, dass so kleine Malheurchen wie das Erkennen der Stimme aus weiter Entfernung oder das Drücken des Buttons bald behoben werden. Alternativ könnte man sich auch mit Tasker eine andere Spracherkennungsapp davor packen, aber ich will nicht schon wieder anfangen mein Smartphone bis ins kleinste Detail zu modden. Von daher: Wer gerne bastelt und gerne Bleeding Edge ist, der sollte auf jeden Fall zuschlagen. Alle anderen: Lieber erstmal das Nexus 5.