Passwörter

Von Karim Geiger — unter Ideas, Internet am 30.05.2016

Cover

Wer kennt sie nicht? Passwörter wie “123456”, “password” und “qwerty”. Dass das unsicher ist, muss man keinem sagen. Trotzdem werden sie so häufig verwendet, wie sonst keine.

Wieso? Ganz einfach. Weil den meisten Leuten Passwörter egal sind. Der Aufwand, sich ein komplexes Passwort zu merken, ist zu hoch, und die Daten, die sie schützen, sind es – ihrer Meinung nach – nicht wert geschützt zu werden. Ergo werden unsichere Passwörter verwendet, meist sogar eines für alle Dienste, bei denen man sich registriert.

Ein weiteres Problem bei den Passwörtern ist, dass Maschinen einfach viel zu gut im Raten sind. Früher war ein Schloss mit ein paar Zahlenkombinationen recht sicher, weil es Monate dauern würde jede Kombination auszuprobieren, und man dafür im Besitz des Gegenstands sein musste. Aber Computer sind dabei selbstverständlich schneller. In ein paar Minuten haben aktuelle Systeme einige Passwörter entschlüsselt. Und damit ist das Konzept des Passwortes meiner Meinung nach veraltet. Etwas Neues muss her.

Deswegen gibt es Two-Factor-Auth. Selbstverständlich bietet dieser Mechanismus einen weiteren Sicherheits-Layer, da nicht nur ein Passwort benötigt ist, sondern auch noch ein Einmalpasswort, welches meist per E-Mail oder SMS zugesandt wird. Toll! Zwei Passwörter, die man eingeben muss! Somit wird Two-Factor-Auth auch, sofern nicht Pflicht, nur von den Leuten verwendet, die sowieso schon ein sicheres Passwort vergeben. Gewonnen hat man dadurch also nicht wirklich viel, außer eine zusätzlich verschwendete Minute bei jedem Login.

Die Zeit ließe sich etwas verkürzen, wenn das Ganze per Push realisiert würde. Etwas, das für mich selbstverständlich ist. Ich verstehe einfach nicht, wieso Twitter die einzige Firma ist, die eine entsprechende Funktion implementiert hat. Während alle anderen Firmen einen meist sechsstelligen Code versenden, den man dann umständlich in die Login-Maske eintippen muss, sendet Twitter ganz einfach eine Benachrichtigung an das Smartphone mit der Meldung “xyz versucht, sich in Ihren Account einzuloggen. Zulassen? [Ja] [Nein]”. Klickt man auf Ja, wird die Login-Seite aktualisiert und man ist eingeloggt. Ein Wunder? Nein. Technik. Das Ganze ließe sich sogar per SMS in Verbindung mit einem Einmallink realisieren. Wieso also nicht? Ich verstehe es nicht.

Und dieser Punkt bringt mich einen Schritt weiter: Lasst das Passwort ganz weg. “OMG! IST DAS NICHT TOTAL UNSICH…” Nein. Lasst uns folgendes Szenario durchspielen: Ich habe ein unglaublich sicheres Passwort für meinen E-Mail-Account. Trotzdem wurde dieser gehackt und der Angreifer hat Zugriff darauf. Jetzt möchte er sich bei Service X anmelden. Das Passwort ist nicht das gleiche, und Two-Factor-Auth ist deaktiviert. Er drückt auf “Passwort zurücksetzen” und bekommt prompt eine Mail, mit der er das Passwort ganz einfach zurücksetzen kann. Der Angreifer kann sich nun bei Service X anmelden.

Jetzt dasselbe Szenario ohne Passwort, dafür aber mit Bestätigung des Logins via E-Mail: Der Angreifer, welcher Zugang zum E-Mail-Konto hat, gibt den Benutzernamen bei Service X ein, und bekommt einen Einmal-Link per E-Mail zugesandt, wodurch er sich nun einloggen kann. Im Endeffekt ist der Ablauf also genau gleich, nur muss der Angreifer nicht vorher noch ein neues Passwort vergeben. Sicherer wird es, wenn wir den Login-Request auf das Smartphone auslagern. Eine universelle App – ähnlich dem Google Authenticator – bekommt von Service X bei jedem Login-Request eine Push-Benachrichtigung, um den User zu fragen. Über das Interface der App kann man nun – nachdem man sich per Fingerprint authentifiziert hat – den Login bestätigen oder ablehnen. So muss der Angreifer Zugriff auf das Smartphone haben, und auch das gekaperte E-Mail-Postfach hilft hierbei nichts.

Die Vorteile:

  • Brute-Force-Angriffe auf Accounts können nicht mehr stattfinden
  • Gehackte Services können keine (gehashten) Passwörter mehr leaken
  • Social Engineering funktioniert nicht mehr
  • Der Nutzer kann keine unsicheren Passwörter mehr vergeben

Und wenn nicht jeder sein eigenes Süppchen kocht und es eine zentrale App dafür gibt:

  • Verliert man das Smartphone, könnte man sofort alle Zugriffe revoken.
  • Alle aktiven Logins können zentral in einer App eingesehen werden.

Die Nachteile:

  • (Smartphone benötigt/ließe sich aber auch per E-Mail oder SMS realisieren)
  • Wenn das Smartphone gehackt wird, und man es nicht merkt, ist es halt kacke
  • Obligatorische German Angst
  • Single Point of Failure

Anmerkung:

Ja, dieses Konzept ist nicht mit Two-Factor-Auth gleichzusetzen, da ein (gutes) Passwort selbstverständlich zusätzliche Sicherheit bietet. Allerdings wird Otto Normalverbraucher im Durchschnitt wesentlich seltener angegriffen werden können, da die Komponente des unsicheren Passworts einfach wegfällt. Selbstverständlich wäre es möglich, das Konzept entsprechend zu erweitern, um OPTIONAL noch ein Passwort pro Service zu fordern. Damit wäre man dann wieder bei Two-Factor-Auth, jedoch mit dem Passwort als optionalem Parameter. Das würde dann einen gewissen Basisschutz für alle bieten mit einer Option zur zusätzlichen Sicherheit für die Paranoiden unter euch.

Co-Anmerkung:

Dadurch würde auch die Anzahl der Promi-Leaks deutlich sinken, da diese meist nur durch Brute-Force-Angriffe oder Social Engineering stattfinden. Und selbstverständlich wären Hacker-Angriffe auf einzelne Services weniger dramatisch.

Bildquelle: Mr Wallpaper

Google Kalender Self-Hosted?

Von Karim Geiger — unter Google, Internet am 10.02.2016

Kennt ihr den Google Kalender? Höchstwahrscheinlich. Es ist ein simpler Web-Kalender, welcher sich über das Google-Konto mit sämtlichen Clients synchronisieren lässt.

Möchte man nun aber nicht so abhängig von Google sein, liegt es nahe, eine solche Lösung auf dem eigenen Server zu implementieren. Die erste Software, die einem dazu einfällt, dürfte ownCloud sein. Diese unterstützt nicht nur das Speichern von Dateien, sondern auch die Verwaltung von Kontakten, sowie Kalendern, inklusive WebDAV, CalDAV und CardDAV-Sync, sowie einer Web-Oberfläche.

Leider fehlt bei der Kalender-Komponente eine (für mich) wichtige Sache. Interessanterweise ist mir kein Programm bekannt (und ich habe in letzter Zeit einige durchprobiert), welches diese Problematik aufs Korn nimmt. Wenn du also nach dem Lesen dieses Posts eine Alternative für den eigenen Server kennst, wäre ich dir über einen Kommentar sehr dankbar.

Stellt euch folgendes Szenario vor: Ihr habt einen Kalender für eure privaten Termine, und einen Kalender für berufliche Termine. Soweit lässt sich selbstverständlich alles über ownCloud und co. abbilden. Nun kommen aber zwei weitere Kalender hinzu: Der ical-Feed für die Feiertage in eurem Bundesland, sowie der ical-Feed der Firma. Diese können entweder ganz einfach über den Google Kalender abonniert werden, oder müssen bei jedem Client einzeln aktiviert werden. ownCloud und co. bieten keine Möglichkeit, externe Kalender zu abonnieren, und diese per CalDAV weiterzureichen. Das hat zur Folge, dass ich, nachdem ich einem weiteren Kalender beigetreten bin, diesen an all meinen Geräten synchronisieren muss.

Meine Frage ist daher: Warum kann Google das, und warum gibt es keine Alternative? Es kann doch nicht sein, dass ich der erste bin, den das stört.

Auf gut Glück!

Von Karim Geiger — unter Google, Internet am 05.12.2015

Cover

Google hatte mal ein Feature, das zur damaligen Zeit von etwa einem Prozent der Nutzer verwendet wurde. Die Rede ist von I’m feeling lucky – oder auf Deutsch: Auf gut Glück!

In Zeiten von JavaScript und AJAX hat natürlich auch Google das Angebot angepasst. Wenn man überhaupt über die Startseite des Suchdienstes sucht, fängt dieser schon ab dem ersten Buchstaben an die Ergebnisseite zu laden. Die Funktionen der beiden Buttons ist damit nur noch theoretisch gegeben und auch nur aus diesem Grund noch präsent. Sie bilden und repräsentieren die Marke Google. Die Website mit dem Logo, dem Suchfeld und den zwei Buttons.

Doch mal im Ernst: Wer hat den Button wirklich verwendet, als er noch funktionierte? Der ein oder andere hat ihn vielleicht für Spielereien wie “elgoog” eingesetzt, aber das dürfte es dann auch schon gewesen sein. Statistiken zufolge haben nur etwa 1% aller Google-Nutzer diese Funktion verwendet. Somit ist es nur einleuchtend, dass besagtes Feature nicht mehr wirklich existiert.

Allerdings ist das nicht ganz richtig. Auch, wenn der Button nicht mehr verwendbar ist, existiert die Funktion intern bei Google noch. Aufgebaut ist das Ganze so: Wenn sich der Algorithmus sicher ist, dass das Ergebnis vielversprechend ist und die erste Seite dem Nutzer zusagt, wird dieser automatisch auf den entsprechenden Treffer weitergeleitet. Man spart sich somit also die Suchergebnisse und den Klick auf den ersten Link. Sollte Google aber keinen genauen Treffer erzielen, so hat man kein “Glück” und landet dennoch auf der Seite mit den Suchergebnissen.

Dank der Chrome-Erweiterung Lucky Strike, welche nichts mit der gleichnamigen Zigarettenmarke zu tun hat, wird der Auf gut Glück!-Button wieder zum Leben erweckt. Leider wurde sie, vermutlich aufgrund des Namens, aus dem Google Web Store entfernt, weswegen man die Erweiterung nun manuell laden muss. Nach der Installation hat man aber dann die Möglichkeit, die dazugekommene Suchmaschine als Standard für die Omnibox-Suche festzulegen. Und dann kann es auch gleich schon losgehen. Die Suchresultate werden ab jetzt bei einem Treffer sofort übersprungen und man selbst wird auf die richtige Website geleitet. Und sollte Google doch einmal mit dem Raten des Ergebnisses falsch liegen, wie etwa, wenn man nach “Lucky Strike” sucht, dann bietet die Erweiterung einen ganz einfachen Trick:

Durch drücken der Tastenkombination Alt+L, oder des Icons der Erweiterung, wird die vorherige Suchanfrage einfach ganz normal an Google gesendet und man bekommt wie gewohnt eine Auflistung der Ergebnisse.

Aber das klappt bei mir nicht. Ich drücke meistens nicht auf das erste Ergebnis.
Du musst nicht mein Wort dafür nehmen. Probieren geht über studieren. Du wirst überrascht sein. Auf gut Glück!

Bild: JovicaSmileski

Von Bussen und Taxis – Netzneutralität erklärt

Von Karim Geiger — unter Deutschland, Internet, Provider am 29.10.2015

Cover

“Das ist mir alles zu hoch. Die machen das schon.” – Diese Sätze hört man immer wieder, gerade wenn es um das Neuland Internet geht. Und das ist verständlich. Das Internet ist kompliziert, existiert vergleichsweise seit einer sehr kurzen Zeit und ist immer noch in der Entwicklungsphase, in der sich sehr schnell sehr viel ändert.

Da ist es nur normal, wenn sich der Durchschnittsbürger zurückzieht. Mehr als E-Mail, ein bisschen Surfen und Netflix macht er ja sowieso nicht. Ich würde genau so handeln. Es gibt sehr viele Bereiche, für die ich mich nicht interessiere und mit denen ich mich nicht beschäftige. Schließlich kann ich auch nicht alles wissen und überall auf dem aktuellen Stand bleiben. Das ist für eine Person einfach nicht möglich. Als professioneller Nerd ist mir allerdings gleichzeitig auch wichtig, dass sich der normale Mensch mit dem Internet auseinandersetzt. Es ist mittlerweile keine Trenderscheinung, die bald wieder Geschichte ist und auch nicht mehr nur eine Randgeschichte. Das Internet ist überall und ohne würde nichts mehr funktionieren. In den folgenden Zeilen möchte ich daher die Vor- und Nachteile der Netzneutralität und des neuen EU-Entschlusses verständlich erklären, da es in Zukunft jeden treffen wird.

Nicht umsonst wird das Internet oft mit einer Daten-Autobahn verglichen. Vorstellen kann man sich das als ein großes Netz aus vielen Straßen und Abzweigungen. Jeder Computer ist mit jedem verbunden. Der eine kann schneller erreicht werden, der andere ist etwas weiter entfernt. Zur Veranschaulichung existieren aktuell, im neutralen Netz nur Busse, die jede Person gleich schnell an das Ziel bringen. Ganz egal, ob diese Person nun wenig Geld für den Internetanschluss zahlt, oder viel. Natürlich ist die Anzahl der verfügbaren Busse je nach Anbindung unterschiedlich. So stehen einem Heim-Anschluss mit 16 Mbit/s weniger Busse gleichzeitig zur Verfügung als einem Firmen-Anschluss mit 1000 Mbit/s.

Mit dem neuen Entschluss des EU-Parlaments, welcher vor ein paar Tagen etabliert wurde, kommen zu unserem Modell nun auch Taxis hinzu. Diese haben selbstverständlich den Vorteil schneller an das Ziel zu kommen, ganz unabhängig von der Quantität. Im Internet wird das durch eine Priorisierung erzielt. Sind die Autobahnen zu Stoßzeiten, zum Beispiel abends, wenn alle von der Arbeit heim kommen, voll, kommt es zu einem Stau. Fährt nun ein Taxi vor, so müssen die Busse rechts ranfahren und das Taxi durchlassen, bevor sie weiterfahren dürfen. Dadurch verzögert sich die Ankunftszeit des Busses selbstverständlich.

Durch dieses Konstrukt haben wir nun die aktuelle und zukünftige Lage des Internets aufgebaut. Nun betrachten wir einmal die Vor- und Nachteile der jeweiligen Situationen. Der erste Unterschied dürfte ganz klar sein. Mit dem ersten Konstrukt ist jeder gleichberechtigt. Egal, ob es eine kleine Firma ist, oder ein großes Unternehmen. Jeder kommt gleich schnell an sein Ziel. Im zweiten Modell ist das schon anders. Wer mehr Geld hat, kann sich mehr Taxis kaufen, die er dem Nutzer, der seinen Dienst besuchen möchte, vorbeischicken kann. Dadurch kommt dieser dann schneller an sein Ziel. Andersrum funktioniert das natürlich auch: Mit einem Aufpreis kann der Nutzer selbst Taxis bestellen, welche ihn ebenfalls schneller an das Ziel bringen.

Hier scheiden sich die Geister. Während die eine Gruppe einen Vorteil in den Taxis sieht, ist die andere gegen eine Bevorzugung der Besserbezahler. Gerade bei kleinen Unternehmen könnte das zu einem Problem werden: Angenommen ein relativ kleiner Dienst, wie zum Beispiel Watchever, möchte sich gegen Netflix etablieren. Aktuell bekommt jeder Nutzer die Videos gleich schnell zugestellt. Egal, ob man nun auf Netflix einen Film ansieht, oder sich auf Watchever eine Serie anguckt, beide Filme werden gleichschnell geladen. Zu Stoßzeiten kann es nun zu Staus kommen, was bedeutet, dass das Video bei beiden Anbietern ruckelt und immer wieder pausiert wird. Mit der Abschaffung der Netzneutralität könnte nun zum Beispiel Netflix reihenweise Taxis für seine Nutzer kaufen, welche ein ruckelfreies Video auch zu Stoßzeiten garantieren, während Watchever sich das vielleicht nicht leisten kann. Andersrum könnte Watchever aber auch einen Deal mit dem Internet-Anbieter vereinbaren, welcher für den Nutzer gegen einen Aufpreis Taxis garantiert, während Netflix keine Taxis bekommt und die Nutzer weiter per Bus angekarrt werden müssen. Das schafft je nach Geschäftslage ein Ungleichgewicht im Markt.

Aktuell ist dies sogar schon teilweise der Fall. So hat Spotify zum Beispiel einen Vertrag mit der Telekom geschlossen. Wer einen Aufpreis zahlt, bekommt das durch Spotify verbrauchte Datenvolumen nicht berechnet, während andere dafür bezahlen müssen. Da das neue Gesetz diese Taktik befürwortet, könnte dies allerdings nun die Regel werden. Selbstverständlich kann es nun auch sein, dass die Bus-Strecken absichtlich verkleinert werden, sodass Taxis noch schneller ankommen und Busse absichtlich lange warten müssen.

Die Gegenseite der Argumentationskette vertritt aktuell die Telekom. Dort schreibt man, dass es wichtig ist, kleine Unternehmen zu stärken. Und auch diese Seite hat selbstverständlich nicht ganz unrecht. Große Unternehmen können sich in jedem Land einen Standort leisten, um die Entfernung zum Nutzer, der mit Bussen fährt, zu verringern. Kleine Firmen jedoch haben nicht das nötige Kleingeld um sich diesen Luxus zu gönnen und müssen oft lange Strecken zum Nutzer in Kauf nehmen. Gegen einen kleinen Anteil am Umsatz des Unternehmens möchte Telekom daher für kleine Firmen Taxis anbieten, welche die lange Strecke durch erhöhte Priorität ausgleichen sollen.

Meiner Meinung nach ist die Aufhebung der Neutralität trotzdem ein sehr heikles Thema. Die Vergangenheit hat oft genug gezeigt, dass im Endeffekt immer die großen Firmen gewinnen und somit am meisten aus den Taxis profitieren werden, während kleine Unternehmen weiter mit den langsamen Bussen auskommen müssen. Im Einzelfall kommt es nun also darauf an, wie die Gerichte entscheiden. Vorausgesetzt die kleinen Firmen können sich große Anwälte leisten.

Titelbild: CC by Backbone Campaign @Flickr

Warum ich einen AdBlocker verwende

Von Karim Geiger — unter Internet am 08.09.2015

Cover

Kennt ihr The Verge? The Verge ist ein in den USA relativ bekanntes Technikportal und seit Neustem auf meiner persönlichen Blockliste. Grund dafür? Ein Tweet von Kamal.

CN_on8pWsAA9rKPNein, The Verge ist kein Web-Shop, auf dem man das neue HUAWEI Mate S kaufen kann, auch wenn es den Anschein erweckt, da etwa 80% der Seite mit diesem Bild besetzt ist. Als Nutzer eines AdBlockers merkt man das erst gar nicht. Da glaubt man fälschlicherweise, dass das ein Nachrichtenportal ist. Als ich den AdBlocker dann aber aufgrund des Tweets deaktiviert habe, musste ich feststellen, dass der Tweet nicht gephotoshoppt war.

Und damit dient The Verge als wunderbarer Grund, warum ich eine Blockliste besitze, und warum ich einen AdBlocker besitze. Auf letzteres möchte ich hier eingehen: Ich weiß, dass mich die Verwendung eines Werbeblockers beim täglichen Surfen zu einem Arschloch macht. Schließlich verlange ich kostenlose Inhalt vom Internet und gebe nicht einmal Werbung, welche mich nichts kostet, zurück. Aber ich habe Gründe:

CBBZ_t7UQAEcPMz

Das ist Spiegel Online. Dürfte jedem ein Begriff sein. Interessant ist, dass nur drei Zeilen des Artikels zu sehen sind, sofern man nicht scrollt. Ich habe diese Seite geöffnet, um den Artikel zu lesen. Stattdessen sehe ich als erstes drei große Werbebanner. Ich habe kein Problem damit, wenn zwischen, unter, oder neben den Artikeln Werbung gezeigt wird, solang sie nicht ablenkt. Aber da Werbung im oberen Bereich der Seite am meisten Einnahmen bringt, ist es fast schon zur Regel geworden, dass erst ein Werbebanner erscheint, und dann der eigentliche Website-Inhalt.

Ein weiteres Problem ist, dass Werbung länger zum Laden braucht. Das hat zur Folge, dass die Seite anfängt zu hüpfen, wenn sie mit dem Aufbauen noch nicht fertig ist. Und nicht nur das: Ein AdBlocker verringert auch die Ladezeiten der Seiten ungemein, genau wie die Größe. Schließlich muss nicht immer extra per JavaScript der Werbeblock nachgeladen werden. Nicht selten ist dieser dann auch noch animiert, was uns zum nächsten Problem bringt. Wenn Werbung bunt ist und permanent vorm Auge rumspringt, kann man sich nicht auf den Inhalt der Seite konzentrieren.

All das hat zur Folge, dass ich für mich entschieden habe, einen AdBlocker zu verwenden. Wer die eigenen Besucher so mit den Füßen tritt, hat es nicht anders verdient. Dass ehrliche Seiten, die Werbung schalten, die nicht nervt, darunter leiden, ist aber auch nicht optimal. Sollte dann aber ein AdBlocker versuchen, dem entgegenzuwirken, indem er Nicht-Nervige Werbung erlaubt, fangen natürlich die Leute, die nicht verstehen, dass Werbung nervig sein kann, an, sich darüber aufzuregen.

Die Lösung? Entweder, man einigt sich darauf, keine nervige Werbung zu schalten, was nicht passieren wird, oder man sorgt dafür, dass das Geld anders an die Betreiber geschafft wird. Ein für mich schöner Lösungsweg wäre ein Konzept ähnlich Flattr. Bei Flattr zahlt man monatlich einen beliebigen Betrag, und kann anschließend Seiten oder Projekte flattrn. Am Ende des Monats wird der eingezahlte Betrag dann fair zwischen allen geflattrten Seiten aufgeteilt. Flattrt man viel, bekommen viele wenig, flattrt man wenig, bekommen wenige viel. Dieses Konzept ließe sich auch auf das allgemeine Internet übertragen. So könnte man per Browser-Add-On und monatlich 20 Euro jede Seite, die diesem Netzwerk beigetreten ist, bei Besuch “flattrn” und so ein paar Cent da lassen. Besucht man eine Seite oft, bekommt diese auch mehr Geld.

Eine weitere Alternative wäre ein Werbeblocker, der nervige Werbung filtert und sie durch Nicht-Nervige Werbung ersetzt. Die dadurch generierten Einnahmen werden dann gerecht unter allen teilnehmenden Websites basierend auf der Surfdauer aufgeteilt. Dadurch müsste der Nutzer nichts zahlen. Auch eine Paywall wäre unter Umständen eine Alternative, oder die Verwendung von Portalen wie YouTube und Facebook. Aber das wird in Zukunft sowieso kommen.

Werbung ist nicht die Lösung für alles. Und Nutzer, die keinen AdBlocker verwenden, zu bestrafen, indem man sie mit Werbung bombardiert, ist ebenfalls nicht der richtige Weg. Erinnert mich ein bisschen an den Kauf einer DVD, verglichen mit dem illegalen Download. Die ehrlichen Leute werden bestraft, die unehrlichen haben ein einfaches Leben. Was lernen wir daraus?

ifurapirate

Yandex – Browsing Made Sexy

Von Karim Geiger — unter Internet, MacOS am 15.05.2015

Cover

Wie der aufmerksame Leser bereits weiß, bin ich mit der Gesamtsituation per se unzufrieden. So auch mit meinen Browsern. Firefox ist zu träge, Chrome zu voll, Opera zu hip, Safari zu unbekannt und Internet Explorer bzw. Edge zu egoistisch um auf einer anderen Plattform zu laufen.

Als Kompromiss verwendete ich daher seit ein paar Jahren Google Chrome. Meine benötigten Erweiterungen sind alle vorhanden, die Seiten bauen vergleichsweise schnell auf, die Darstellung ist korrekt, einzig das Design stört mich ein bisschen. Das liegt vermutlich größtenteils daran, dass ich es nun schon mehrere Jahre täglich sehe. Als ich mir dann gestern das Design des Browsers genauer ansah, überlegte ich, ob es nicht möglich wäre, die gesamte Adresszeile inklusive aller Buttons zu entfernen und nur das Nötigste anzuzeigen. Alles in der Tab-Bar. Schien aus meiner Sicht möglich.

Heute habe ich mehr aus Langeweile das Internet nach einem neuen Browser durchsucht. Mir war eigentlich schon klar, dass ich nichts finde, da man (ich) bei Browsern immer das Problem mit den Erweiterungen hat. Doch ich wurde positiv überrascht. Die neuste Alpha-Version des Yandex-Browsers (dem russischen Google-Konkurrenten) sah sehr vielversprechend aus.

Download, Installation, Staunen. Yandex hat automatisch Bookmarks, Verlauf, Erweiterungen und dessen Einstellungen von Google Chrome übernommen und diese auf Anhieb fehlerfrei implementiert. Noch dazu sieht der Browser absolut umwerfend aus. Man hat die Bedienelemente auf ein Minimum reduziert und sie so gut es nur geht in die eigentliche Website integriert: Die Tabs nehmen die Farbe der Seite an, die Toolbars übernehmen ähnlich Ambilight die Farben der Website, sehen beim Scrollen umwerfend aus und heben sich kaum hervor.

An Elementen gibt es oben, in der Fensterleiste, nur den Namen der aktuellen Website, ausgewählte Erweiterungen und das Menü. Bei einem Mouseover über den Titel erscheint der Reload-Button. Der Zurück- bzw. Vorwärts-Button existiert nur, wenn die entsprechende Aktion verfügbar ist.

Screen Shot 2015-05-15 at 23.46.27

Klickt man auf den Titel, so erscheint die URL zusammen mit ein paar hilfreichen Optionen, sowie den am häufigsten geöffneten Seiten. Diese erscheinen übrigens auch beim Öffnen eines neuen Tabs. Sinnlos zu erwähnen, dass die URL-Leiste mit der Google-Suche kombiniert wurde.

Screen Shot 2015-05-15 at 23.48.40

Neben der Titelleiste gibt es nur noch die Tabbar, welche sich allerdings unterhalb der Seite befindet. Sie ist ähnlich simpel aufgebaut wie der Rest des Interfaces. Der aktive Tab wird mit einer leider etwas unschönen Leiste markiert und bekommt ein X zum Schließen spendiert. Daneben befinden sich weitere Tabs, immer im Design des Icons. Rechts und Links ist wieder der Blur-Effekt angewendet.

Screen Shot 2015-05-15 at 23.53.43

Mehr gibt es über den Browser nicht zu sagen. Er ist schlicht, schön, basierend auf Chrome und hat alle für mich benötigten Features sauber verpackt unter einem ablenkungsfreien UI. Nur ein Feature fehlt, aber das wird garantiert nicht lange auf sich warten lassen:

Die Tabs lassen sich nicht verschieben.

Hier geht’s zum Download

E-POST – Security made in Germany

Von Karim Geiger — unter Deutschland, Internet am 06.05.2015

E-POST ist ein Service der Deutschen Post. Er sorgt dafür, dass wir Bürger nun endlich auch online Briefe verschicken können, welche rechtlich gesehen als Briefe anerkannt werden. Das bedeutet, wir können zum Beispiel Mietverträge oder Kündigungen online verschicken.

Zwar kostet ein Brief, welcher digital versandt wird, 62 Cent, aber hey, was tut man nicht alles für Sicherheit im Netz? Selbstverständlich können E-POST-Mails nur innerhalb des E-POST-Netzwerkes versandt werden. Versucht man eine unsichere, normale Mail an eine E-POST-Adresse zu senden, bekommt man folgende Meldung:

Screenshot from 2015-05-06 15:16:48

Mails können ausschließlich über die sichere Website der Post versandt werden. Unter https://portal.epost.de ist dieses zu finden. Überprüft man das ganze dann mal mit einem SSL-Server-Test, stellt man jedoch erschreckendes fest. Die ach so sichere Website verwendet RC4 als Verschlüsselungstechnik, welche seit Februar ganz offiziell als knackbar gilt, da sie schlicht veraltet ist. Im RFC wird sogar ausdrücklich verboten, diese für gesicherte Verbindungen über TLS zu verwenden.

Natürlich habe ich daraufhin die Post per Mail kontaktiert, um sie darauf hinzuweisen. Folgenden Text habe ich versendet:

Sehr geehrte Damen und Herren,
während der Verwendung Ihres E-Post-Dienstes stellte ich fest, dass die Übertragung zwischen portal.epost.de und mir über ein veraltetes, mittlerweile unsicheres Verschlüsselungssystem erfolgt.
Im Februar diesen Jahres wurde das von Ihnen verwendete RC4 offiziell durch RFC 7465 ( https://tools.ietf.org/html/rfc7465 ) als unsicher erklärt und die Verwendung im Zusammenspiel mit TLS verboten.
Ich würde mich über eine Stellungnahme zu dem Thema von einem Ihrer Sicherheitsbeauftragten sehr freuen.
Mit freundlichen Grüßen
Karim Geiger
Die Antwort der E-POST kam dann am Folgetag:
Sehr geehrter Herr Geiger,
vielen Dank für Ihre Nachricht. Sie haben Fragen zum Verschlüsselungssystem von E-POST.
Transport Layer Security (kurz TLS) bietet nach dem aktuellen Stand der Technik ein Höchstmaß an Sicherheit. Damit entspricht es den hohen technischen Anforderungen der Deutschen Post an ein Kommunikationsportal.
Renommierte Sicherheitsexperten haben die TLS-Spezifikation entwickelt. Sie gilt derzeit als Standard für sichere Kommunikation im Internet. Auch Onlinebanking-Transaktionen werden gewöhnlich mit TLS geschützt, denn es ist das einzige Verfahren, das von allen marktüblichen Web-Browsern unterstützt wird.
Sie haben gehört, dass TLS-Verbindungen mithilfe von gefälschten Zertifikaten von Dritten mitgelesen werden können? Das ist nur ein Gerücht! Es ist bis heute kein einziger konkreter Fall bekannt.
Wir freuen uns, wenn Ihnen diese Informationen weiterhelfen.
Mit freundlichen Grüßen

Ich lass das jetzt mal unkommentiert so stehen.

Update 8. Mai 2015: Ich habe noch einmal nachgefragt und erneut betont, dass man die Frage doch an einen zuständigen Mitarbeiter weiterleiten solle, was man dann auch tat. Daraufhin kam folgende Antwort zurück. Immerhin haben sie mein Anliegen verstanden… naja.

Im Bezug auf Ihre Anfrage haben wir weitergehende Informationen von unserem IT-Sicherheitsbeauftragten erhalten:
Der geschilderte Sachverhalt ist zutreffend: Das E-POST Portal ermöglicht derzeit noch Verbindungen auf Basis von RC4. Dies dient der Unterstützung von Browsern, die noch kein TLS 1.2 nutzen. Um gegen BEAST-Angriffe zu schützen haben unsere Experten die Verwendung von RC4 für TLS 1.0 und 1.1 ausgewählt. RC4 bietet gegenüber der Verwendung von Block-Ciphern im CBC-Modus (TLS 1.0 und 1.1 unterstützen keine anderen Modi) einen besseren Schutz.
Der Browser gibt beim Verbindungsaufbau die TLS-Version vor. Aktuelle Browser verwenden automatisch TLS 1.2. Ein TLS-Downgrading wird serverseitig verhindert. Somit ist sichergestellt, dass immer das höchstmögliche Sicherheitsniveau für HTTPS-Verbindungen genutzt wird.
Wir führen kontinuierliche Auswertungen über die eingesetzten Ciphersuites durch und passen unsere serverseitige Ciphersuite-Konfiguration entsprechend an. Das Nutzerverhalten im Bezug auf die eingesetzten Browser muss für die Umsetzung des RFC 7465 aber berücksichtigt werden.

Ich wollte Ghost installieren

Von Karim Geiger — unter Internet, Linux, Test am 03.03.2015

Cover

Kennt ihr Ghost? Die wohl meistgehypte Blogging-Plattform seit WordPress. Ghost, die Lösung für alles. Verpackt in einer simplen Oberfläche, ganz einfach zu installieren mit npm. Quasi.

npm ist der Dependency-Manager von Node.JS – dem serverseitigen JavaScript. Ich mag JavaScript sowieso nicht, da will ich es nicht auch noch auf dem Server haben. Aber was tut man nicht alles um eine schöne Bloggingplattform zu bekommen?

In der Theorie ist die Installation Ghosts relativ einfach. npm und node installieren, Ghost-Zip runterladen, entpacken, npm install --production, starten.

Unter Ubuntu läuft das dann so ab, dass man sich erst einmal eine veraltete npm-Version installiert, welche Probleme mit so ziemlich allem und jedem hat. Abhilfe schafft dann ein npm install npm -g, damit aktualisiert man npm. Warum sollte man denn auch npm update dafür verwenden?

Plötzlich bekommt man einen seltsamen Stack-Trace, wenn man npm starten will. os.tmpDir() wird nicht gefunden. Nach einer halben Stunde mit Onkel Google findet man dann irgendwann heraus, dass die node-Version zu alt ist. Hätte man im Nachhinein auch einfach als Fehlermeldung ausgeben können..

Aber gut, dann updaten wir mal unsere node-Version. Diesen Schritt finde ich besonders schön:

npm i n -g
n latest

Kein Scheiß, so geht das. Kurz erklärt: i steht für install, n ist ein Versionsmanager für node. Mal abgesehen von dem beschissenen nicht so tollen Namen fällt außerdem auf, dass man ihn nur installieren kann, wenn man eine funktionierende npm/node-Umgebung hat. Man kann im aktuellen Stand, den wir jetzt haben, also entweder npm downgraden oder node manuell upgraden. Ich entschied mich für letzteres.

So, nachdem also npm und node also endlich problemlos zusammenarbeiten, kanns ja endlich mit Ghost losgehen. Paket runtergeladen, npm install --production ausgeführt und wusch – der nächste Fehler. Natürlich genau so nichtssagend wie der erste. npm ist einfach super in dieser Hinsicht. Wie sich herausstellte, hat Debian diesmal Mist gebaut. Naja, gut. Es läuft. Immerhin.

Ach ja.. und zum Thema Migration: RSS-Feeds parsen wär ja zu einfach. Ghost kann das besser.

HTTPS – Overhyped since 2014

Von Karim Geiger — unter Internet am 27.01.2015

Cover

Seit Google im August beschlossen hat (man achte bitte darauf, dass Blogspot kein HTTPS verwendet) HTTPS als Ranking-Kriterium mit einzuberechnen, läuft das halbe Internet amok.

Jeder noch so kleine Blog stellt plötzlich auf HTTPS um (*hust*), jeder wird zum Sicherheitsexperten und alle denken sie hätten ihre Website endlich final gegen Hacker, MITM, DDoS und was nicht noch alles gesichert, nur weil man nun ein s mehr in der URL hat. Da dementsprechend oft das Thema aufkommt und mich mittlerweile schon einige Leute gefragt haben, was ich davon halte, gibt es nun meine Antwort dazu:

Kommt mal runter. Nein, HTTPS ist nicht das Penicillin des Webs, es ist keine Wunderwaffe, die einen plötzlich immun gegen alles und jeden macht. Ganz im Gegenteil sogar. Doch ja, HTTPS hat ganz klar eine Daseinsberechtigung: Der Inhalt einer Seite kann nur zwischen den zwei Parteien gesehen werden und die Herkunft der Seite ist gesichert, was oftmals und bei vielen Websites ein absolutes Must-Have ist. Doch eben nicht immer.

Verwendet man diese Technologie also auf seiner Website, ist man zumindest theoretisch sehr gut gegen sogenannte Man-in-the-Middle-Angriffe geschützt. Es ist also nicht einfach möglich sich als Angreifer zwischen den Client und den Server zu hängen und den Inhalt der Website auszulesen oder zu verändern. Das hat enorme Vorteile, da man so gerade in öffentlichen Netzen vor Schadsoftware und Sessiondiebstahl gut geschützt ist.

Allerdings nur theoretisch. Besucht man eine Website beispielsweise das erste mal, sieht das im Browser folgendermaßen aus: Man tippt facebook.com ein und wird auf http://facebook.com weitergeleitet. Der Server gibt nun zurück, dass man doch bitte HTTPS verwenden solle und verweist auf https://facebook.com. Der Browser lädt die Seite und die sichere Verbindung wird aufgebaut. Erst ab hier kann die Verbindung normalerweise nicht mehr durch einen Angreifer in der Mitte abgeschnorchelt werden. Doch das reicht oft schon aus. Denn gibt der Angreifer an http://facebook.com zu sein – was, da dort kein HTTPS verwendet wird, ganz einfach möglich ist, so kann er wieder ganz entspannt den Datenverkehr mitschneiden und manipulieren.

Klar, es gibt Add-Ons, welche den Nutzer automatisch auf die sichere Seite weiterleiten, sofern diese existiert. Es gibt aber auch alternative und bessere Möglichkeiten um sich in öffentlichen Netzen vor entsprechenden Angriffen zu schützen, ganz ohne HTTPS. Die Rede ist von VPNs oder dem Tor-Netzwerk.

Nur am Rande: Ein weiteres Missverständnis beim Thema HTTPS ist, dass man nicht zurückverfolgen kann, wann welche Seite besucht wurde. Das ist quatsch, da der Verbindungsaufbau genau wie bei HTTP vom ISP protokolliert wird. Gegen eine eventuelle Vorratsdatenspeicherung hilft das also auch nicht.

Und was ist so schlimm daran HTTPS zu verwenden? Schließlich gibt es doch keine Nachteile.
Doch, die gibt es. Die Verbindung ist gerade bei langsamen Anbindungen wie z.B. EDGE träger, da das Austauschen des Schlüssels eine gewisse Zeit in Anspruch nimmt und die verschlüsselten Inhalte (minimal) größer sind. Auch bedeutet es für den Server sowie für den Client einen Mehraufwand, da jede Datei ver- und danach wieder entschlüsselt werden muss.

Außerdem kosten Zertifikate in der Regel Geld. Zwar bekommt man bei einigen Anbietern ein kostenloses Zertifikat für die TLD (z.B. karim-geiger.de) sowie eine Subdomain (z.B. www.karim-geiger.de), hat man nun aber mehrere Subdomains um z.B. Traffic auszulagern, weitere Dienste anzubieten oder warum auch immer, kommt man um einen Aufpreis nicht herum. Ganz abgesehen davon verlangen einige Webspaces einen Aufpreis für die Konfiguration, welche nebenbei bemerkt gerade bei komplexeren Strukturen mit Proxys und co. einen erheblichen Mehraufwand bedeutet.

Auch gibt es technische Einschränkungen, welche natürlich durchaus Sinn machen, für Blogs* oder ähnliche Websites aber sehr nervig sind: Werden Nicht-HTTPS-Inhalte auf einer verschlüsselten Seite eingebunden, so werden sie ignoriert. Das hat zur Folge, dass viele Blogs, welche Bilder/Videos/CSS/JavaScript von Dritten einbinden, nicht mehr ordnungsgemäß funktionieren.

Wann macht HTTPS also Sinn?
HTTPS macht immer dann Sinn, wenn kritische Nutzerdaten übertragen werden, darunter Benutzernamen, Passwörter, E-Mail-Adressen, etc. Da viele Websites dies allerdings so gut wie nie anbieten (Blogs*, Portfolios, Imageboards, …), ist es in meinen Augen nur bedingt sinnvoll. Die Entscheidung Googles ist daher in meinen Augen nicht ganz nachvollziehbar, da man so den Nutzer in Sicherheit wägt, es aber keinesfalls vor schlechter Programmierung schützt.

 

* Ich seh’s schon kommen, daher hier die Erklärung: Ja, Blogs haben ein Management-Backend, bei dem man sich einloggen muss und ja, Blogs bieten oft an Kommentare zu hinterlassen. Man kann also durchaus das Backend per HTTPS absichern. Deswegen aber den gesamten Blog mit HTTPS zu versehen, halte ich für oversized. Bezüglich der Kommentare halte ich es meistens nicht für sinnvoll. Nur die wenigsten bieten eigene Nutzeraccounts an, die meisten verwenden – wie ich – Tools von dritten, da sich niemand wegen einem Kommentar einen Account erstellt. Die Kommentarsysteme selbst sollten dann allerdings für eine sichere Übertragung sorgen.

Bildquelle

Google Inbox

Von Karim Geiger — unter Google, Internet am 19.01.2015

Cover

Ich bin ja wie einige bestimmt wissen der Meinung, dass E-Mails endlich abgeschafft werden sollten, da es wesentlich bessere Wege der Kommunikation gibt. Da sie aber als eine Art Wohnsitz für Internet-Dienste und zentrale, unabhängige Sammelstelle gelten, kann es noch eine Weile dauern, bis es so weit ist.

Google hat sich nun vor ein paar Monaten entschlossen ihren Google Mail-Service zu erweitern und mit Google Inbox einen komplett neuen Mail-Client (natürlich im Browser) zu etablieren. Ich konnte relativ schnell einen Invite ergattern und hatte somit die Möglichkeit den Service direkt nach der Ankündigung zu testen. Alles war neu und einige wichtige Features fehlten. Ist aber absolut vertretbar gewesen, da der Service ja gerade erst erschienen ist.

Das Problem an der Sache ist nun, dass sich bis heute nichts geändert hat. Google Inbox hat nach drei Monaten immer noch die selben Features wie zu Anfang, mehr allerdings nicht. Doch was ist Google Inbox?

Google Inbox vereint eine Notizen-Anwendung mit einem kategorisierten Mail-Client. Man kann Mails anhand von (automatischen) Filtern in Kategorien einteilen, welche dann unterschiedlich hoch priorisiert werden können. So kann man z.B. auswählen, ob man über ein bestimmtes Label sofort, gar nicht oder nur einmal täglich informiert werden möchte. Auch kann man das Zero-Inbox-Prinzip verfolgen, indem man Aufgaben, welche man momentan nicht erledigen kann, zurückstellt. Kommt also eine Mail rein, die erst am Montag bearbeitet werden kann, verschiebt man diese mit zwei Klicks in den Snoozed-Ordner. Dort bleibt sie dann bis Montag liegen und landet dann wieder in der Inbox. Dazu kommt, dass man zu E-Mail und auch unabhängig davon Reminder setzen kann. Das sind einfache Text-Schnipsel, die einem wie E-Mails auch zu einem gewissen Zeitpunkt wieder vorgelegt werden.

Das alles hört sich theoretisch ganz wundervoll an und ist es in der Tat, allerdings fehlen wie eingangs erwähnt einige wichtige Features. So kann man z.B. nicht angeben, dass man ähnliche Mails zukünftig in einer entsprechenden Kategorie haben möchte. Auch kann man nicht alle Mails in einem Label oder Ordner auswählen, wodurch man weder alle Mails als gelesen markieren kann, noch den Spam-Ordner oder den Mülleimer leeren.

Ebenfalls nicht möglich ist das Erstellen von mehrzeiligen Notizen, mehreren Notizen pro Mail bzw. das Hinzufügen von Notizen zu Labels oder das Hinzufügen von Subnotes zu bestehenden Notizen. Ein Einkaufszettel lässt sich somit also nicht brauchbar realisieren. Der Grund, warum ich eine zweite App auf dem Handy habe. Immerhin hat sich die Integration der Notizen unter Android gebessert, was bedeutet dass man endlich auch über Google Wear oder Google Now Erinnerungen erstellen kann, welche dann in Inbox angezeigt werden. Andersrum klappt das (bei mir) allerdings nicht: In Google Inbox angelegte Erinnerungen erscheinen nicht in Google Now.

Und auch das Timen von Mails und Erinnerungen ist noch nicht ganz ausgereift. Je nach Uhrzeit hat man mehrere Defaults zur Auswahl: Morgens (9 Uhr), Abends (5 Uhr), Nachts (9 Uhr), Morgen (7 Uhr nächster Tag) und nächste Woche (7 Uhr kommenden Montag)
Gefallen einem diese Uhrzeiten nicht, so hat man keine Möglichkeit eigene Auswahlen zu definieren. Natürlich hat man immer die Option eine angepasste Uhrzeit anzugeben, doch das ist in meinen Augen viel zu umständlich gestaltet, da man vorher erst durch vier Untermenüs muss und man die Uhrzeit am Ende noch nicht einmal auswählen kann, sondern manuell eintippen muss.

Doch der wirkliche Knaller ist, wie ich finde, dass Google Inbox entweder als App unter Android und iOS verfügbar ist oder aber für Google Chrome-Nutzer. Und nur für Google Chrome-Nutzer. Öffnet man die Seite im Firefox, erscheint folgende Meldung:

B7mGuQQCAAAk1biIm ersten Moment denkt man sich “gut, ist ein Marketing-Trick. Man will ja schließlich, dass die Leute Google Chrome verwenden”. Als IT-Bastler geht es dann natürlich los mit der Suche nach Workarounds: User Agent Faker installiert, Chrome User Agent für inbox.google.com definiert und neu geladen. Siehe da, die Website wird aufgebaut. So halb. Funktionieren tut sie nicht. Grund dafür ist schlecht implementiertes SSL seitens Google. Der Workaround dafür ist auf GitHub beschrieben und lässt einem die Haare zu Berge stehen. Ich hoffe stark, dass Google das und alle anderen im Post genannten Punkte noch verbessert. Wird langsam mal Zeit.