Category: Technik

Manchmal hat man es im Alltag mit Dingen zu tun, da steht man selbst wenn man es Live vor sich sieht fassungs- und sprachlos davor und fragt sich … eigentlich garnichts mehr. Für manche Dinge gibt es einfach keine Worte; man sucht sie trotzdem, weil man es nicht einfach so stehen lassen KANN.
So mir gerade wieder geschehen; meine Hilflosigkeit ein geeignetes Wort dafür zu finden, möchte ich verarbeiten, indem ich hier berichte was geschehen ist und trage die Hoffnung, das es jemand anderem den gleichen Ärger ersparen möge.

Worum geht es?

Ich habe ein recht modernes Wohnzimmer; unter anderem mit einem 55 Zoll Samsung ES8090 LED TV, einem PC mit einer ASUS HD7950-DC2-3GD5-V2 (AMD Radeon HD 7950 mit 3GB GDDR5) Grafikkarte und einem Yamaha RX-V373 Soundsystem. Mein PC ist per HDMI an dem Yamaha angeschlossen. Dieser wiederum führt mit einem HDMI Kabel zum Fernseher.

Diese Kombination hatte ich auch genau so schonmal im Betrieb und konnte mich störungsfrei eines gestochen scharfen Bildes erfreuen.

Nach meinem Umzug habe ich das ganze auch wieder aufgebaut und hatte seitdem ein grottenschlechtes Bild!
Es war unscharf, man musste mit einem so genannten “Underscan” im Grafikkartentreiber arbeiten, da das Bild sonst an den Rändern abgeschnitten war, Schriften sahen so aus als habe man eine falsche Bildschirmauflösung eingestellt, Farben waren leicht verfälscht, etc. Ich habe das einmal versucht per Foto zu erfassen; Screenshot geht leider nicht da, soviel nehme ich einmal vorweg: Am PC liegt es nicht. Daher ist das ganze leider etwas unschärfer geworden als es tatsächlich in der “guten” Einstellung ist. Auf dem folgendem Bild sieht man eventuell etwas besser was ich meine:

Im Vergleich: Links feine Grafik und korrekt skalierte Schrift ; Rechts rauschige Grafik und interpolierte Schrift

Im Vergleich: Links (die Unschärfe kommt von einer schlechten Einstellung des Fotoapperates) feine Grafik und korrekt skalierte Schrift ; Rechts rauschige Grafik und interpolierte Schrift

Das ganze war sehr, sehr frustrierend, da ich wusste, das es schonmal ging, keine Ahnung hatte was ich verändert habe und bis heute im Internet auch nicht fündig wurde. Ich hatte alles probiert:

  • Treiber Update
  • Treiber DOWNgrade
  • Umstellungen im Treiber
  • Kompletten Kabelsatz ausgetauscht
  • Sämtliche Einstellungskombinationen zwischen Grafikkarte und Fernseher

Ich fand einfach keine Lösung und musste bis heute diese ärgerlichen Einbußen in meiner mehrere tausend Euro teuren Anlage in Kauf nehmen.

Die Lösung

Ich weiß wie sich das folgende ließt und offen gestanden war meine erste Reaktion, als ich das in einem Forum gelesen habe auch “Jaja … erzähl du mal du Kacknoob …” aber ich war inzwischen so verzweifelt, das ich es einfach mal ausprobiert habe. Und siehe da: Die Scheisse geht!!

Der Fernseher hat mehrere HDMI Eingänge. Welchen man da verwendet spielt meines Wissens nach keine Rolle; der Vollständigkeit halber aber: mein Eingang ist der Anschluss “HDMI IN 2 (ARC)“. Auf meiner Fernbedienung gibt es eine Taste zur Wahl der Eingangsquelle (SOURCE). Drückt man diese, erscheint das Menü “Quelle” in welchem man z.B. zwischen den HDMI Eingängen, den eingebauten Recievern, etc. umschalten kann. Hier wählt man nun den Anschluss auf dem das PC Signal eingeht mit dem Cursor an (ohne es zu bestätigen). Anschließend drückt dann die Taste “TOOLS” um die kontextspezifische Funktion “Extras” dieses Menüs auszuwählen. Der erste Punkt des dadurch erscheinenden Menüs lautet “Name bearb.“. Diesen wählt man aus.
Bei mir stand dieser, da mein Yamaha AV-Receiver dort direkt angeschlossen war, auf “AV-Receiver“. Man kann hier ja auch neue Namen in die Liste eintragen, von daher kommt sicher niemand auf die Idee, das sich hier hinter bildspezifische Einstellungen verbergen könnten. Auch heißt das Menü ja “Name bearbeiten“, nicht “Eingangstyp wählen” oder ähnliches. Stellt man dieses jedoch auf die werkseitig vorhandene Beschriftung “PC“, hat man sofort ein gestochen scharfes Bild!

Unfassbar finde ich sowas … Ich hatte, um ehrlich zu sein, die Grafikkarte und einen ggf. aktuelleren Treiber in Verdacht. Allerdings ist das AMD Treiber – Team (diesesmal) scheinbar unschuldig!
Gefunden habe ich diese Lösung im computerbase.de – Forum, wo der User Neon1111, dankenswerter Weise, diese Lösung beschrieben hat. An dieser Stelle nochmal ein riesengroßes Dankeschön von mir!!

Ich hoffe dieses erlöst den einen oder anderen Leidensgenossen von seiner Qual.

Das Problem

Vor einiger Zeit sollte ich mal einen neuen Mac Rechner vorbereiten und unter (vielem) anderem Adobe Photoshop darauf installieren. Ich habe natürlich erstmal alles sauber vorbereitet: Platte formatiert, MacOS installiert, Updates eingespielt, User eingerichtet, unzählige kleine Programme installiert, … nach ein paar Stunden war Adobe Photoshop an der Reihe. Es begrüßte mich diese nette Anzeige:

Screen+Shot+2013-08-26+at+9.15.18+AM

(Zugegeben: Oberflächlich) Im Internet gesucht, am Ende sogar den Adobe Support angerufen (schließlich hat man ja für einen Ar*** voll Geld diese Software gekauft): Keine Ahnung. Gut angelegtes Geld also … Danke @Adobe!

Schließlich wurde ich im Blog eines Users namens “Sum Random Guy” fündig (mehr …)

Ich hatte vor einiger Zeit auf einem Sabayon Linux System das Problem, das ich unter Skype absolut nichts verstehen konnte. Aus dem Kopfhörer drang nur eine Art “knirschen”; da es auch beim Skype Echo Service auftrat, war klar das es an mir und nicht an der Gegenseite liegt. Es trat jedoch nur bei Skype auf; keine andere Anwendung war hiervon betroffen.

Ich verwende KDE und damit unter Sabayon Standardmäßig PulseAudio. Ein Beitrag der User “ball” und “swordfish” brachten mir letzten Endes die Lösung, indem Sie im ArchLinux Forum auf Bug #50510 im FreeDesktop.org Bugtracker verwiesen:

Wenn man Skype wie folgt mit einer Wert von 30 in der Umgebungsvariable PULSE_LATENCY_MSEC startet, gibt es von jetzt auf gleich keine Probleme mehr:

bash -c “PULSE_LATENCY_MSEC=30 skype %U”

Ist bereits ein paar Monate her, aber der Inhalt dieses Quick-Posts ist auch nicht gerade hochgradig zeitkritisch.

Folgende Meldung bekommt man, wenn man es schafft bei YouTube auf einen internen Serverfehler (500) zu stoßen:

YouTube Fehler

YouTube Fehler

Es folgt ein Dauerwerbethread … ;)

Aber wer mich und/oder das Blog hier kennt weiß, das ich nicht leichtfertig Mist empfehle oder hype. Ich bin wirklich von hide.io überzeugt und möchte diesem nicht mehr ganz jungem Startup daher gerne zu etwas mehr Verbreitung verhelfen. Da sich dieses vor dem Hintergrund aktuellen Zeitgeschehens (Stichworte: NSA-Überwachungsskandal, Edward Snowden, etc.) gerade aktueller den je ist, möchte ich gerne meinen kleinen Beitrag leisten.

Zunächst: Worum geht es überhaupt?

hide.io Logo

hide.io Logo

hide.io ist ein Dienstleister, der im Kern anbietet einem ein VPN bereitzustellen, mit welchem man, mit einer zufällig zur Verfügung gestellten IP, anonymisiert im Internet surfen kann, da sie nicht protokollieren welchem Kundenaccount zu welchem Zeitpunkt welche IP zugewiesen war. Somit kann man frei von der Leber weg, selbst in den krassesten Nazi-Foren spamen, Dateien herunterladen oder auch einfach nur, ohne von Amazon, Facebook, Google und Co. verfolgt zu werden (sauberen Cookiespeicher vorausgesetzt), frei im Netz surfen, ohne von diesen nervenden “Wer Axt kaufte, kaufte auch: Leichensack” – Geprösel schier in den Wahnsinn getrieben zu werden.

Auch Youtube – Videos werden, obwohl sie vom heiligen GEMA-Stuhl in Deutschland gesperrt wurden, wie von Zauberhand wieder abrufbar, weil man, laut der IP, für Youtube aus Holland, China, oder von weiß-der-Geier wo darauf zugreift. Recht praktisch.

Eigentlich ist das ganze eine recht einfache Technik, die jemandem in meinem Beruf nicht erklärt werden muß. Ich habe mir bei dem ganzen nur zwei Fragen gestellt:

  1. Seit kurzen werden alle ISP von Gesetzeswegen gezwungen Verbindungsdaten vorzuhalten; Stichwort: Voratsdatenspeicherung. Auf welcher rechtlichen Grundlage darf hide.io überhaupt keine solchen speichern und trotzdem Geschäfte in Deutschland machen?
  2. Wer garantiert mir, das nicht doch jemand die Daten abgreift oder diese doch, wie überall sonst auch, protokolliert werden?

Diese habe ich einfach an die Betreiber weiter gegeben und darauf, zumindest was Frage #1 betrifft, folgende Antwort erhalten:

Bernd (Support Desk)

01. Okt 07:34 (CEST)

Hallo,

wir haben unseren Hauptsitz in Hong Kong, und müssen uns an dortige Gesetze halten. Eine Vorratsdatenspeicherung, wie sie versucht wurde in Deutschland umzusetzen, gibt es dort nicht. Allerdings besteht in Deutschland ebenfalls keine Pflicht Verbindungsdaten zu speichern. Du spielst wahrscheinlich auf die Bestandsdatenauskunft an, aber davon sind wir nicht betroffen, da wir weder persönliche Daten, noch Verbindungsdaten speichern und diese Daten auch nicht zur Abrechnung benötigen. Das Problem liegt in Deutschland darin, dass die Daten nicht gespeichert werden müssten, aber sobald sie gespeichert werden (z.B. bei der Telekom 7 Tage) auch herausgegeben werden müssen.

Zu Frage #2 wird man natürlich, außer einem flattert irgendwann doch einmal ein Gerichtsbeschluss in den Briefkasten, nie eine ausreichend befriedigende Antwort erhalten. Dazu müsste man voll-transparente Einsichten in den Vertriebsablauf und das technische Setup des Anbieters erlangen, was nie geschehen wird.

Aber mal ehrlich: Vor ein paar Jahren wurden Menschen, die das Gefühl hatten auf Schritt und Tritt belauscht und überwacht zu werden, bestenfalls belächelt. Seit Facebook ist das jedoch schlicht und ergreifend Realität; der Anbieter macht ja nichtmal ein Geheimnis daraus. Spätestens seit zuvor genanntem Überwachungsskandal ist jedoch klar: Das Internet ist nicht mehr was es einmal war und diese Furcht ist nicht mehr länger das Produkt eines paranoiden Geistes, sondern einfach das das Bewusstsein über die Tatsachen.
Natürlich weiß ich nicht, ob hide.io im Zweifelsfall wirklich keine Daten an Strafverfolgungsbehörden und andere weitergibt. Jedoch weiß ich, das es erstens auf keinen Fall schadet in Zeiten wie diesen mit so einem Verfahren die Nachverfolgbarkeit der eigenen Schritte im Internet komplizierter zu verschleiern als normal. Und zweitens: Spätestens nach der Gerichtsverhandlung gegen meinen ehemaligen Arbeitgeber, die Firma Marketing Factory Consulting GmbH in Düsseldorf, welche mich in meiner Funktion als Abteilungsleiter der Systemadministration dazu aufgefordert hat, heimlich den Mail- und Chatverkehr der eigenen Mitarbeiter mitzuschneiden und einem mir nicht weiter kontrollierbarem Personenkreis zum lesen zur Verfügung zu stellen, weiß ich, das es auch ganz gehörig darauf ankommt Sachverhalte für die Richter schwerer nachvollziehbar zu machen. Der Richter an sich ist ein fauler Beamter, dem der tatsächliche Sachverhalt herzlich egal ist – wichtig ist nur, das möglichst wenig Papierkram zusammen kommt und alles schön undurchschaubar und mit technischem Firlefanz gespickt ist, damit er möglichst schnell abschalten und auf ein Papierkriegarmes Endergebnis hinarbeiten kann.
Letzteres ist, sobald der Begriff “VPN” fällt, aufreichend erreicht ;)

 

hide.io Schritt 3 in der ausführlichen Bild-für-Bild Anleitung

Was hide.io in meinen Augen ebenfalls vorbildlich macht ist die Schritt-für-Schritt gestaltete und bebilderte Einrichtung des Dienstes. Man wählt zunächst welches Betriebssystem man hat und in welchem Land man angeblich gerne sitzen würde und schon wird man mit einer bebilderten Anleitung versorgt, die man ohne technisches Know-How zu haben einfach durchklickt. Prima!

Also ich bin jetzt Kunde ; das Geld halte ich persönlich für gut angelegt! :) Man kann auch kostenlos alles erstmal in ruhe testen ehe man sich anmeldet.
Von mir eine klare Empfehlung!

Ein neues Projekt. Man hat eine super Idee, die man gerne umsetzen möchte. Jenseits des normalen Rhythmus hat man neben ausreichend Engagement auch endlich mal ein paar Tage Zeit um sich so richtig schön zu vergraben und an seiner Idee zu arbeiten. Eine Woche Arbeit; man hat ein genaues Bild von dem im Kopf, was man erreichen will. Bisher sieht alles vielversprechend aus: Man hat ein paar neue Dinge gelernt, recherchiert, manches auf für einen selbst unüblichem aber erstaunlich effektivem Wege gelöst, … kurz: man ist stolz auf das was man bisher erreicht hat. Doch dann, das undenkbare:

Festplatten-Crash!

Kann doch nicht sein: SSD für 300,- € am Start, man nutzt Git, bis gestern keine Probleme, alles lief flott und reibungslos. Und von jetzt auf gleich – einfach alles weg??

Wie der jüngste Fall von Linux Kernel Maintainer Linux Torvalds zeigt, passiert das selbst den besten von uns … in diesem Fall ist “nur” ein teil der Arbeit eines einzigen Tages verloren gegangen. Jedoch zeigt mir das mal wieder: Git alleine ist lediglich ein guter Anfang: Wirklich sicher ist erst, was nicht nur commited, sondern auch bereits in ein externes Repository gepushed wurde! “Häufig pushen” ist also das neue “Häufig speichern”.

Der Fall zeigt jedoch auch, wie abhängig und wie selbstverständlich wir inzwischen eine ausreichend geölten Maschinerie voraussetzen. Früher war man bereits froh, wenn man beim erstellen von z.B. einer umfangreichen, lokalen Arbeit am PC durch häufiges speichern gegen Stromausfälle, Programmabstürze und ähnlichem abgesichert war. Fiel nun die Festplatte aus, dann war das zwar ärgerlich wenn unter Umständen die Arbeit von einer ganzen Woche (bei vorbildlich gemachten, 1x wöchentlichen Backups), wurde jedoch allerseits als höhere Gewallt akzeptiert.
Heutzutage schlägt ein Fall wie dieser bereits hohe Wellen, nur weil die Arbeit von ein paar Stunden verloren gegangen ist!

Ich denke mir dabei folgendes:

  1. Ticken wir eigentlich noch ganz richtig?? Das ist doch nicht mehr verhältnismäßig, solche Erwartungen zu stellen; wo bereits so ein “Furz im Wind aktueller Entwicklung” für manche eine Welt, da: Gestörter Zeitplan zusammenbrechen lässt.
  2. Trotzdem: Remote Branches nutzen und häufig pushen! Gibt es eine Policy in einer Firma, welche die Nutzung eigener Branches unterbindet oder reglementiert, hat der Initiator keine Ahnung von Git und man kann den Ball bei einer etwaigen Frage, wie man sowas in Zukunft zu unterbinden gedenkt, selbstbewusst zurückspielen.

Mannometer … wenn <6 Stunden Arbeit soooo viel Wert sind, müssen alle, die sich bereits in einer vergleichbaren Diskussion wiedergefunden haben, ihr Gehalt wohl noch einmal neu verhandeln …

Ha! Da kann ich mir, als jemand der über Apple seit sehr langer Zeit als treffendsten Kommentar nur den Kopf schütteln kann, das Grinsen doch wirklich nicht verkneifen: Angesichts der auf der Apple-Keynote 2013 am 10. September vorgestellten, neuen iPhone – Serie folgte am Abend ein Kommentar der heise Redaktion, welchen ich sehr lesenswert finde und mir voll aus der Seele spricht.

Spätestens, wenn man bereits von Nokia verarscht wird, sollte einem das langsam zu denken geben …

Nokia's Facebook-Reaktion auf die vorstellung der neuen iPhone - Serie

Nokia’s Facebook-Reaktion auf die Vorstellung der neuen iPhone – Serie

GNU Screen ist ein Terminal Multiplexer, welcher einem über in der Manpage dokumentierte Tastenkombinationen die komfortable Steuerung mehrerer Terminal-Sitzungen über nur eine “echte” Konsole ermöglicht. Dieses kann man sich vorstellen wie “Tabs”, welche man heutzutage von allen Internet Browsern her kennt. Ein weiterer Vorteil ist, das man so einen Container einfach mitsamt den darin laufenden Sitzungen in den Hintergrund schicken kann und die darin enthaltenen Sitzungen weiterhin ausgeführt werden. Dieses gilt auch für “unfreiwilliges” schließen der Verbindung; beispielsweise wenn die Internetverbindung abbricht, der Computer abstürzt, etc.

Ich suche mir jedes Mal die folgende Information neu aus dem Internet heraus, daher notiere ich sie mir einmal, leicht auffindbar, hier.

Man kann in Screen auch in jeder einzelnen Sitzung scrollen. Jedoch sind die Zeilen, die Screen dabei speichert, von Haus aus auf recht wenige eingestellt: 100 Zeilen; das ist, bei heutigen Auflösungen der meisten Konsolen, gerade mal etwas mehr als ein Bildschirm. Für mich ist das viel zu wenig! Daher erhöhe ich das meistens per Default auf 5000. Das kann, je nach Einsatzgebiet auch zu viel sein; wenn jemand nun 200 Konsolen darin startet und in jeder ein Logfile mit “tail -f” durchlaufen lässt, kann hierbei schonmal recht viel Arbeitsspeicher für belegt werden. Daher: Bitte diese Einstellung nicht ungeprüft übernehmen.

Es gibt zwei Konfigurationsdateien für GNU Screen:

  1. Globale Konfigurationsdatei : /etc/screenrc
  2. Userbezogene Konfigurationsdatei : ~/.screenrc

Beide verwenden soweit dieselbe Syntax; Details sind der Manpage zu Screen zu entnehmen.

Nun aber zum Kern des Artikels:

Man füge folgende Einstellung hinzu:

defscrollback 5000

Fertig :)

Ein Blog, in dem nicht geblogged wird, ist doof! Also – hier wir gehen:

Kindle Touch WLAN

Kindle Touch WLAN

Ich habe mir einen Kindle Touch WLAN (ohne 3G) gekauft. Per 3G verbunden zu sein ist, zumal das eine 1x Zahlung für die Datenverbindung ist, sehr cool! Aber als Android-Nutzer, in welchem man das Tethering aktivieren kann, finde ich das dennoch unnötig rausgeschmissenes Geld. Dabei verbindet sich das Handy, welches heutzutage eh meistens eine Datenflatrate hat, mit dem Internet und stellt “sich selbst” gleichzeitig per WLAN als AccessPoint zur Verfügung. Dieses WLAN kann der Kindle Touch ja dann wiederum ganz normal nutzen und Vóila: Hat man fast dieselbe Lösung für lau! :)

Das Gerät ist echt geil! Der Akku hält ewig! Einfach: Ewig! Zudem ist der auch noch Hammer schnell wieder aufgeladen: Ich wollte mit Calibre mal testweise 5 Bücher auf das Gerät kopieren. Dazu habe ich den Kindle länger als nötig am PC angeschlossen gelassen (~50 Minuten). Als ich den abziehe: Akku voll :D

Warum braucht man mit Smartphones und Tablets eigentlich noch einen eBook Reader?“, habe ich mich bis vor kurzem gefragt. Zumal ich ja mit dem Samsung Note so ziemlich das größte Handy haben dürfte, das es auf der Welt gibt. Menschen, mit einem Tablet sind noch besser dran. Und am PC hat man sowieso immer alles was man braucht. DENKSTE!
Der Maßgebliche Unterschied ist zweierlei. Zum einen:

  1. Die Akkulaufzeit
    Stand-by hält das Gerät mehrere Monate durch. Es zeigt dann einen statischen Bildschirmschoner an, welcher keinen Strom benötigt. Nur die Standby geschaltete Elektronik im Gerät verbraucht dann noch minimal Strom. Überhaupt benötigt diese E-Paper-Technologie wohl nur Strom, wenn es neu aufgebaut werden muss; z.B. wenn man umblättert. Bei 2-3 Stunden lesen am Tag und fleißigem Blättern hält der Akku trotzdem noch 2-4 Wochen durch! Welches Tablet oder Notebook kann da mithalten?
  2. Die Displaytechnik
    Es ist unglaublich: Ich muss sagen, ich kann das nicht anders beschreiben als mit dem Begriff “elektronisches Papier”. Man erwartet immer das es spiegelt, oder das man, sobald die Sonne darauf fällt, nichts mehr erkennt, wie bei Handys oder Monitoren halt. Aber stattdessen sieht es aus wie eine echte Buchseite: Es wird eher besser erkennbar als das es stört. Das ist echt Wahnsinn! Wie geschaffen für Bus und Bahn (wo irgendwie immer Sonne reinfällt) oder den Garten.

Einzig zwei Nachteile habe ich gefunden:

  1. Die Displaytechnik
    Nein, kein Schreibfehler: Der große Vorteil wird in dunklen Räumen zum Nachteil. Wenn ich sage “wie eine echte Buchseite”, dann meine ich das auch: Wenn man ein normales Buch nicht mehr erkennen kann, kann man mit dem E-Reader auch nichts mehr anfangen. Jedoch gibt es Zubehör für das Gerät: Ich habe mir eine Hülle gekauft, die das Gerät zum einen auch in einem Rucksack oder der Tasche vor Beschädigungen schützen und die zum anderen eine eingebaute Leselampe hat. Strom dafür holt sie sich direkt aus dem Kindle, der extra für sowas Kontakte auf der Rückseite hat.
    Zudem kann das Gerät halt ausschließlich Graustufen anzeigen. Schaut man sich ein farbiges PDF an, kann es schonmal sein, das die Kontraste in Bildern nicht wirklich gut sind.
  2. PDF Support
    Der Kindle  kann PDF Dateien anzeigen, jedoch neben der Einschränkung, das er keine Farben anzeigen kann, bietet er leider auch keine wirklich gute Zoomfunktion, so das das lesen eindeutig weniger angenehm ausfällt als die extra dafür gemachten EPUB oder MOBI E-Book-Formate. Man muss sich vorstellen, das ein Buch, welches z.B. große oder keine DIN-A-Irgendwas – Maße hat, passend auf das Display skaliert werden müssen. Dabei wird die Schrift teilweise schon arg klein, so das man eigentlich schon fast mit dem Zoom arbeiten muss. Und das Scrollen zu richtigen Position gestaltet sich durch eine gewisse Trägheit des Displays schon recht schwierig.

Wie auch immer: Ich finde das Teil super! Mir fällt auf, das ich das lesen darauf auch viel angenehmer empfinde als auf dem Notebook-Display. Technische Dokumentationen oder Lehrbücher liest man damit sehr angenehm. Alleine dafür lohnt es sich für mich!

Wer lieber eine größere Auswahl an Geräten haben möchte sollte allerdings noch ein paar Monate warten: Wenn man sich auf Amazon.com umschaut, entdeckt man viel mehr Geräte als es auf dem deutschen Markt bislang zu kaufen gibt. Darunter auch ein Modell mit 9,7 Zoll E-Paper-Display (der Kindle Touch hat 6 Zoll), auf dem das PDF Problem sicher etwas weniger unangenehm auffallen dürfte und ein Modell mit Farb-(LED-)-Display. Allerdings kostet das größere Modell (Kindle DX) auch mehr als das Dreifache und ist durch die Größe natürlich auch unhandlicher. Das Fabmodell (Kindle Fire) hat wieder den Nachteil, das der Akku nur rund 8 Stunden hält und dürfte überdies auch wieder deutlich anfälliger für Sonneneinfall sein; auch dieses Modell kostet fast doppelt soviel wie der Kindle Touch. Ehe man sich das Kindle Fire zulegt, sollte man meiner Meinung nach also doch eher zu einem Tablet greifen. Diese sind auch nicht maßgeblich teurer und bieten darüberhinaus jedoch viel mehr Möglichkeiten.

Ich finde den Touch zur Zeit die beste Wahl bei einem Preis der voll OK geht. Gerade wer häufig liest dürfte mit den günstigeren E-Books auch das Geld bald wieder drin haben, da diese meist deutlich günstiger angeboten werden als die Printversion. Aber auch vollkommene Sparfüchse kommen auf Ihre Kosten, kann man sich doch auch anderweitig “organisierte” Bücher völlig kostenlos auf das Gerät laden … ;)