Category: Technik

Ist bereits ein paar Monate her, aber der Inhalt dieses Quick-Posts ist auch nicht gerade hochgradig zeitkritisch.

Folgende Meldung bekommt man, wenn man es schafft bei YouTube auf einen internen Serverfehler (500) zu stoßen:

YouTube Fehler

YouTube Fehler

Es folgt ein Dauerwerbethread … ;)

Aber wer mich und/oder das Blog hier kennt weiß, das ich nicht leichtfertig Mist empfehle oder hype. Ich bin wirklich von hide.io überzeugt und möchte diesem nicht mehr ganz jungem Startup daher gerne zu etwas mehr Verbreitung verhelfen. Da sich dieses vor dem Hintergrund aktuellen Zeitgeschehens (Stichworte: NSA-Überwachungsskandal, Edward Snowden, etc.) gerade aktueller den je ist, möchte ich gerne meinen kleinen Beitrag leisten.

Zunächst: Worum geht es überhaupt?

hide.io Logo

hide.io Logo

hide.io ist ein Dienstleister, der im Kern anbietet einem ein VPN bereitzustellen, mit welchem man, mit einer zufällig zur Verfügung gestellten IP, anonymisiert im Internet surfen kann, da sie nicht protokollieren welchem Kundenaccount zu welchem Zeitpunkt welche IP zugewiesen war. Somit kann man frei von der Leber weg, selbst in den krassesten Nazi-Foren spamen, Dateien herunterladen oder auch einfach nur, ohne von Amazon, Facebook, Google und Co. verfolgt zu werden (sauberen Cookiespeicher vorausgesetzt), frei im Netz surfen, ohne von diesen nervenden “Wer Axt kaufte, kaufte auch: Leichensack” – Geprösel schier in den Wahnsinn getrieben zu werden.

Auch Youtube – Videos werden, obwohl sie vom heiligen GEMA-Stuhl in Deutschland gesperrt wurden, wie von Zauberhand wieder abrufbar, weil man, laut der IP, für Youtube aus Holland, China, oder von weiß-der-Geier wo darauf zugreift. Recht praktisch.

Eigentlich ist das ganze eine recht einfache Technik, die jemandem in meinem Beruf nicht erklärt werden muß. Ich habe mir bei dem ganzen nur zwei Fragen gestellt:

  1. Seit kurzen werden alle ISP von Gesetzeswegen gezwungen Verbindungsdaten vorzuhalten; Stichwort: Voratsdatenspeicherung. Auf welcher rechtlichen Grundlage darf hide.io überhaupt keine solchen speichern und trotzdem Geschäfte in Deutschland machen?
  2. Wer garantiert mir, das nicht doch jemand die Daten abgreift oder diese doch, wie überall sonst auch, protokolliert werden?

Diese habe ich einfach an die Betreiber weiter gegeben und darauf, zumindest was Frage #1 betrifft, folgende Antwort erhalten:

Bernd (Support Desk)

01. Okt 07:34 (CEST)

Hallo,

wir haben unseren Hauptsitz in Hong Kong, und müssen uns an dortige Gesetze halten. Eine Vorratsdatenspeicherung, wie sie versucht wurde in Deutschland umzusetzen, gibt es dort nicht. Allerdings besteht in Deutschland ebenfalls keine Pflicht Verbindungsdaten zu speichern. Du spielst wahrscheinlich auf die Bestandsdatenauskunft an, aber davon sind wir nicht betroffen, da wir weder persönliche Daten, noch Verbindungsdaten speichern und diese Daten auch nicht zur Abrechnung benötigen. Das Problem liegt in Deutschland darin, dass die Daten nicht gespeichert werden müssten, aber sobald sie gespeichert werden (z.B. bei der Telekom 7 Tage) auch herausgegeben werden müssen.

Zu Frage #2 wird man natürlich, außer einem flattert irgendwann doch einmal ein Gerichtsbeschluss in den Briefkasten, nie eine ausreichend befriedigende Antwort erhalten. Dazu müsste man voll-transparente Einsichten in den Vertriebsablauf und das technische Setup des Anbieters erlangen, was nie geschehen wird.

Aber mal ehrlich: Vor ein paar Jahren wurden Menschen, die das Gefühl hatten auf Schritt und Tritt belauscht und überwacht zu werden, bestenfalls belächelt. Seit Facebook ist das jedoch schlicht und ergreifend Realität; der Anbieter macht ja nichtmal ein Geheimnis daraus. Spätestens seit zuvor genanntem Überwachungsskandal ist jedoch klar: Das Internet ist nicht mehr was es einmal war und diese Furcht ist nicht mehr länger das Produkt eines paranoiden Geistes, sondern einfach das das Bewusstsein über die Tatsachen.
Natürlich weiß ich nicht, ob hide.io im Zweifelsfall wirklich keine Daten an Strafverfolgungsbehörden und andere weitergibt. Jedoch weiß ich, das es erstens auf keinen Fall schadet in Zeiten wie diesen mit so einem Verfahren die Nachverfolgbarkeit der eigenen Schritte im Internet komplizierter zu verschleiern als normal. Und zweitens: Spätestens nach der Gerichtsverhandlung gegen meinen ehemaligen Arbeitgeber, die Firma Marketing Factory Consulting GmbH in Düsseldorf, welche mich in meiner Funktion als Abteilungsleiter der Systemadministration dazu aufgefordert hat, heimlich den Mail- und Chatverkehr der eigenen Mitarbeiter mitzuschneiden und einem mir nicht weiter kontrollierbarem Personenkreis zum lesen zur Verfügung zu stellen, weiß ich, das es auch ganz gehörig darauf ankommt Sachverhalte für die Richter schwerer nachvollziehbar zu machen. Der Richter an sich ist ein fauler Beamter, dem der tatsächliche Sachverhalt herzlich egal ist – wichtig ist nur, das möglichst wenig Papierkram zusammen kommt und alles schön undurchschaubar und mit technischem Firlefanz gespickt ist, damit er möglichst schnell abschalten und auf ein Papierkriegarmes Endergebnis hinarbeiten kann.
Letzteres ist, sobald der Begriff “VPN” fällt, aufreichend erreicht ;)

 

hide.io Schritt 3 in der ausführlichen Bild-für-Bild Anleitung

Was hide.io in meinen Augen ebenfalls vorbildlich macht ist die Schritt-für-Schritt gestaltete und bebilderte Einrichtung des Dienstes. Man wählt zunächst welches Betriebssystem man hat und in welchem Land man angeblich gerne sitzen würde und schon wird man mit einer bebilderten Anleitung versorgt, die man ohne technisches Know-How zu haben einfach durchklickt. Prima!

Also ich bin jetzt Kunde ; das Geld halte ich persönlich für gut angelegt! :) Man kann auch kostenlos alles erstmal in ruhe testen ehe man sich anmeldet.
Von mir eine klare Empfehlung!

Ein neues Projekt. Man hat eine super Idee, die man gerne umsetzen möchte. Jenseits des normalen Rhythmus hat man neben ausreichend Engagement auch endlich mal ein paar Tage Zeit um sich so richtig schön zu vergraben und an seiner Idee zu arbeiten. Eine Woche Arbeit; man hat ein genaues Bild von dem im Kopf, was man erreichen will. Bisher sieht alles vielversprechend aus: Man hat ein paar neue Dinge gelernt, recherchiert, manches auf für einen selbst unüblichem aber erstaunlich effektivem Wege gelöst, … kurz: man ist stolz auf das was man bisher erreicht hat. Doch dann, das undenkbare:

Festplatten-Crash!

Kann doch nicht sein: SSD für 300,- € am Start, man nutzt Git, bis gestern keine Probleme, alles lief flott und reibungslos. Und von jetzt auf gleich – einfach alles weg??

Wie der jüngste Fall von Linux Kernel Maintainer Linux Torvalds zeigt, passiert das selbst den besten von uns … in diesem Fall ist “nur” ein teil der Arbeit eines einzigen Tages verloren gegangen. Jedoch zeigt mir das mal wieder: Git alleine ist lediglich ein guter Anfang: Wirklich sicher ist erst, was nicht nur commited, sondern auch bereits in ein externes Repository gepushed wurde! “Häufig pushen” ist also das neue “Häufig speichern”.

Der Fall zeigt jedoch auch, wie abhängig und wie selbstverständlich wir inzwischen eine ausreichend geölten Maschinerie voraussetzen. Früher war man bereits froh, wenn man beim erstellen von z.B. einer umfangreichen, lokalen Arbeit am PC durch häufiges speichern gegen Stromausfälle, Programmabstürze und ähnlichem abgesichert war. Fiel nun die Festplatte aus, dann war das zwar ärgerlich wenn unter Umständen die Arbeit von einer ganzen Woche (bei vorbildlich gemachten, 1x wöchentlichen Backups), wurde jedoch allerseits als höhere Gewallt akzeptiert.
Heutzutage schlägt ein Fall wie dieser bereits hohe Wellen, nur weil die Arbeit von ein paar Stunden verloren gegangen ist!

Ich denke mir dabei folgendes:

  1. Ticken wir eigentlich noch ganz richtig?? Das ist doch nicht mehr verhältnismäßig, solche Erwartungen zu stellen; wo bereits so ein “Furz im Wind aktueller Entwicklung” für manche eine Welt, da: Gestörter Zeitplan zusammenbrechen lässt.
  2. Trotzdem: Remote Branches nutzen und häufig pushen! Gibt es eine Policy in einer Firma, welche die Nutzung eigener Branches unterbindet oder reglementiert, hat der Initiator keine Ahnung von Git und man kann den Ball bei einer etwaigen Frage, wie man sowas in Zukunft zu unterbinden gedenkt, selbstbewusst zurückspielen.

Mannometer … wenn <6 Stunden Arbeit soooo viel Wert sind, müssen alle, die sich bereits in einer vergleichbaren Diskussion wiedergefunden haben, ihr Gehalt wohl noch einmal neu verhandeln …

Ha! Da kann ich mir, als jemand der über Apple seit sehr langer Zeit als treffendsten Kommentar nur den Kopf schütteln kann, das Grinsen doch wirklich nicht verkneifen: Angesichts der auf der Apple-Keynote 2013 am 10. September vorgestellten, neuen iPhone – Serie folgte am Abend ein Kommentar der heise Redaktion, welchen ich sehr lesenswert finde und mir voll aus der Seele spricht.

Spätestens, wenn man bereits von Nokia verarscht wird, sollte einem das langsam zu denken geben …

Nokia's Facebook-Reaktion auf die vorstellung der neuen iPhone - Serie

Nokia’s Facebook-Reaktion auf die Vorstellung der neuen iPhone – Serie

GNU Screen ist ein Terminal Multiplexer, welcher einem über in der Manpage dokumentierte Tastenkombinationen die komfortable Steuerung mehrerer Terminal-Sitzungen über nur eine “echte” Konsole ermöglicht. Dieses kann man sich vorstellen wie “Tabs”, welche man heutzutage von allen Internet Browsern her kennt. Ein weiterer Vorteil ist, das man so einen Container einfach mitsamt den darin laufenden Sitzungen in den Hintergrund schicken kann und die darin enthaltenen Sitzungen weiterhin ausgeführt werden. Dieses gilt auch für “unfreiwilliges” schließen der Verbindung; beispielsweise wenn die Internetverbindung abbricht, der Computer abstürzt, etc.

Ich suche mir jedes Mal die folgende Information neu aus dem Internet heraus, daher notiere ich sie mir einmal, leicht auffindbar, hier.

Man kann in Screen auch in jeder einzelnen Sitzung scrollen. Jedoch sind die Zeilen, die Screen dabei speichert, von Haus aus auf recht wenige eingestellt: 100 Zeilen; das ist, bei heutigen Auflösungen der meisten Konsolen, gerade mal etwas mehr als ein Bildschirm. Für mich ist das viel zu wenig! Daher erhöhe ich das meistens per Default auf 5000. Das kann, je nach Einsatzgebiet auch zu viel sein; wenn jemand nun 200 Konsolen darin startet und in jeder ein Logfile mit “tail -f” durchlaufen lässt, kann hierbei schonmal recht viel Arbeitsspeicher für belegt werden. Daher: Bitte diese Einstellung nicht ungeprüft übernehmen.

Es gibt zwei Konfigurationsdateien für GNU Screen:

  1. Globale Konfigurationsdatei : /etc/screenrc
  2. Userbezogene Konfigurationsdatei : ~/.screenrc

Beide verwenden soweit dieselbe Syntax; Details sind der Manpage zu Screen zu entnehmen.

Nun aber zum Kern des Artikels:

Man füge folgende Einstellung hinzu:

defscrollback 5000

Fertig :)

Ein Blog, in dem nicht geblogged wird, ist doof! Also – hier wir gehen:

Kindle Touch WLAN

Kindle Touch WLAN

Ich habe mir einen Kindle Touch WLAN (ohne 3G) gekauft. Per 3G verbunden zu sein ist, zumal das eine 1x Zahlung für die Datenverbindung ist, sehr cool! Aber als Android-Nutzer, in welchem man das Tethering aktivieren kann, finde ich das dennoch unnötig rausgeschmissenes Geld. Dabei verbindet sich das Handy, welches heutzutage eh meistens eine Datenflatrate hat, mit dem Internet und stellt “sich selbst” gleichzeitig per WLAN als AccessPoint zur Verfügung. Dieses WLAN kann der Kindle Touch ja dann wiederum ganz normal nutzen und Vóila: Hat man fast dieselbe Lösung für lau! :)

Das Gerät ist echt geil! Der Akku hält ewig! Einfach: Ewig! Zudem ist der auch noch Hammer schnell wieder aufgeladen: Ich wollte mit Calibre mal testweise 5 Bücher auf das Gerät kopieren. Dazu habe ich den Kindle länger als nötig am PC angeschlossen gelassen (~50 Minuten). Als ich den abziehe: Akku voll :D

Warum braucht man mit Smartphones und Tablets eigentlich noch einen eBook Reader?“, habe ich mich bis vor kurzem gefragt. Zumal ich ja mit dem Samsung Note so ziemlich das größte Handy haben dürfte, das es auf der Welt gibt. Menschen, mit einem Tablet sind noch besser dran. Und am PC hat man sowieso immer alles was man braucht. DENKSTE!
Der Maßgebliche Unterschied ist zweierlei. Zum einen:

  1. Die Akkulaufzeit
    Stand-by hält das Gerät mehrere Monate durch. Es zeigt dann einen statischen Bildschirmschoner an, welcher keinen Strom benötigt. Nur die Standby geschaltete Elektronik im Gerät verbraucht dann noch minimal Strom. Überhaupt benötigt diese E-Paper-Technologie wohl nur Strom, wenn es neu aufgebaut werden muss; z.B. wenn man umblättert. Bei 2-3 Stunden lesen am Tag und fleißigem Blättern hält der Akku trotzdem noch 2-4 Wochen durch! Welches Tablet oder Notebook kann da mithalten?
  2. Die Displaytechnik
    Es ist unglaublich: Ich muss sagen, ich kann das nicht anders beschreiben als mit dem Begriff “elektronisches Papier”. Man erwartet immer das es spiegelt, oder das man, sobald die Sonne darauf fällt, nichts mehr erkennt, wie bei Handys oder Monitoren halt. Aber stattdessen sieht es aus wie eine echte Buchseite: Es wird eher besser erkennbar als das es stört. Das ist echt Wahnsinn! Wie geschaffen für Bus und Bahn (wo irgendwie immer Sonne reinfällt) oder den Garten.

Einzig zwei Nachteile habe ich gefunden:

  1. Die Displaytechnik
    Nein, kein Schreibfehler: Der große Vorteil wird in dunklen Räumen zum Nachteil. Wenn ich sage “wie eine echte Buchseite”, dann meine ich das auch: Wenn man ein normales Buch nicht mehr erkennen kann, kann man mit dem E-Reader auch nichts mehr anfangen. Jedoch gibt es Zubehör für das Gerät: Ich habe mir eine Hülle gekauft, die das Gerät zum einen auch in einem Rucksack oder der Tasche vor Beschädigungen schützen und die zum anderen eine eingebaute Leselampe hat. Strom dafür holt sie sich direkt aus dem Kindle, der extra für sowas Kontakte auf der Rückseite hat.
    Zudem kann das Gerät halt ausschließlich Graustufen anzeigen. Schaut man sich ein farbiges PDF an, kann es schonmal sein, das die Kontraste in Bildern nicht wirklich gut sind.
  2. PDF Support
    Der Kindle  kann PDF Dateien anzeigen, jedoch neben der Einschränkung, das er keine Farben anzeigen kann, bietet er leider auch keine wirklich gute Zoomfunktion, so das das lesen eindeutig weniger angenehm ausfällt als die extra dafür gemachten EPUB oder MOBI E-Book-Formate. Man muss sich vorstellen, das ein Buch, welches z.B. große oder keine DIN-A-Irgendwas – Maße hat, passend auf das Display skaliert werden müssen. Dabei wird die Schrift teilweise schon arg klein, so das man eigentlich schon fast mit dem Zoom arbeiten muss. Und das Scrollen zu richtigen Position gestaltet sich durch eine gewisse Trägheit des Displays schon recht schwierig.

Wie auch immer: Ich finde das Teil super! Mir fällt auf, das ich das lesen darauf auch viel angenehmer empfinde als auf dem Notebook-Display. Technische Dokumentationen oder Lehrbücher liest man damit sehr angenehm. Alleine dafür lohnt es sich für mich!

Wer lieber eine größere Auswahl an Geräten haben möchte sollte allerdings noch ein paar Monate warten: Wenn man sich auf Amazon.com umschaut, entdeckt man viel mehr Geräte als es auf dem deutschen Markt bislang zu kaufen gibt. Darunter auch ein Modell mit 9,7 Zoll E-Paper-Display (der Kindle Touch hat 6 Zoll), auf dem das PDF Problem sicher etwas weniger unangenehm auffallen dürfte und ein Modell mit Farb-(LED-)-Display. Allerdings kostet das größere Modell (Kindle DX) auch mehr als das Dreifache und ist durch die Größe natürlich auch unhandlicher. Das Fabmodell (Kindle Fire) hat wieder den Nachteil, das der Akku nur rund 8 Stunden hält und dürfte überdies auch wieder deutlich anfälliger für Sonneneinfall sein; auch dieses Modell kostet fast doppelt soviel wie der Kindle Touch. Ehe man sich das Kindle Fire zulegt, sollte man meiner Meinung nach also doch eher zu einem Tablet greifen. Diese sind auch nicht maßgeblich teurer und bieten darüberhinaus jedoch viel mehr Möglichkeiten.

Ich finde den Touch zur Zeit die beste Wahl bei einem Preis der voll OK geht. Gerade wer häufig liest dürfte mit den günstigeren E-Books auch das Geld bald wieder drin haben, da diese meist deutlich günstiger angeboten werden als die Printversion. Aber auch vollkommene Sparfüchse kommen auf Ihre Kosten, kann man sich doch auch anderweitig “organisierte” Bücher völlig kostenlos auf das Gerät laden … ;)

Jaaaa – also ich betreibe ja seit einigen Jahren diesen Server. Seit dem letzten Umzug im August 2010 läuft er unter einem bei Strato angemietetem “Dedicated Power-Server MR (v5.4)”. Dabei handelt es sich um “echte” Hardware, nicht um ein virtualisiertes System. Schon länger reicht dieses recht spartanisch ausgestattete System nicht mehr wirklich für die Anforderungen. Aktuell laufen 8 nicht ganz inaktive Homepages auf der Maschine (keine statischen HTML Dateien: PHP Scriptseiten wie WordPress, TYPO3, phpBB Foren, etc.), er ist Mailserver für etwa 9 Domains (samt Spamfilter), berechnet Statistiken, das System selbst (Gentoo Linux -> Software wird kompiliert) will auch gewartet werden, …

Kurz: Das Teil hat einiges zu tun! Dabei war nichtmal unbedingt der Prozessor das Problem, sondern RAM und Storage. Das ganze System ist recht betagt, wie wir gleich noch sehen werden. Neben diesen Diensten mit 1 GB RAM auch noch gescheit einen MySQL Server darauf zu betreiben “geht” technisch zwar, macht aber nicht wirklich Spass.
Es musste also ein zweiter Server als MySQL Host her. Seitdem laufen diese Seiten auf 2 Servern. Seitdem denke ich jedoch auch, das der Basis-Server nicht mehr wirklich rentabel funktioniert. Also habe ich mal die Fühler nach günstigeren Angeboten ausgestreckt. Kriterien waren dabei:

  • Speicherplatz mindestens 50 GB ( ~ 30 aktuell verwendet )
  • Möglichkeit ein Gentoo / Funtoo auf dem System installieren zu können
  • CPU und RAM mehr / schneller als aktuell
  • Preis sollte geringer sein als aktuell
  • Keine Mindestvertragslaufzeit

Ob das ganze virtuell oder physikalisch ist, ist mir dabei erstmal egal.

Ich bin also letztendlich auf die vServer der Firma netcup aufmerksam geworden. Server4You, Domain Factory und (wieder) Strato haben zwar auch atraktive Angebote, jedoch schneiden sie (für meine Anforderungen) leider “schlechter”* ab als netcup:

*:
Kurzes Vorwort zu “schlechter”: Um fair zu bleiben: Ich habe hier nur reine Zahlen aus den Angeboten verglichen. Ich habe mich nicht in jedem Angebot eingelogged und die Performance so detailiert verglichen wie zwischen netcup und Strato. Jedoch: Wenn die Anbieter die absolute Performance Ihrer Produkte in’s Feld führen möchten, sollten Sie diese Zahlen mit in die Angebote aufnehmen.
PS: @Alle Hoster: Sollte irgendwer daran interessiert sein, das ich deren Angebot hier kostenlos Re-Evaluiere: Über mein Mailformular könne Sie mir gerne unverbindliche Probezugänge zu Ihren Produkten mit der Bitte um Tests zukommen lassen ;)

  • Strato
    Das Angebot für “Dedicated Server” ist zwar nach wie vor nahezu ungeschlagen gut was das Preis-/Leistungsverhältnis angeht ( HighQ-Server XS ist sehr cool! ), jedoch hat man hier leider ( selbst als Stammkunde ) wenigstens 6 Monate Mindestvertragslaufzeit. Ebenso muss man 29,- € für die Grundeinrichtung bezahlen. Beides etwas, was ich nicht mehr möchte.
    Die vServer von Strato können (mich) da jedoch schon weniger überzeugen: Die Preise beginnen (mit powerServer A) bei 7,90 / Monat (was OK, aber mehr ist als bei netcup), der RAM beträgt nur 512 MB (statt 1 GB bei der Konkurenz), der Speicherplatz beträgt nur 25 GB (ebenfalls Markt-Schlusslicht), … nichts für mich.
  • Domain Factory / JiffyBox
    Domain Factory hat mit seinem “JiffyBox” getauften vServer Angebot schon eine coole Sache am Start: Man meldet sich an und bezahlt erstmal nichts. Man kann in Minuten neue (v-)Server hochfahren, herunterfahren, einfrieren, löschen, klonen, … sehr cool! Man bezahlt dann nur für die Nutzung der tatsächlich genutzten Maschinen. Allerdings: Will man diese dauerhaft betreiben wird’s verhätnismäßig teuer: Selbst das günstigste Angebot kostet dann rund 14,90 € / Monat (0,02 ct pro Stunde * 744 Stunden pro Monat). Das ist für temporäre Präsenzen OK, aber auf Dauer gibt es günstigere Alternativen.
  • Server4You
    Für meine Anforderungen: Einfach zu teuer! 8,85 € / Monat für einen vServer mit 25 GB Storage: netcup ist auch hier wieder günstiger. Allerdings: Man kann deren Produkte unverbindlich 4 Tage lang testen und herausfinden, ob sie passen oder nicht. Allerdings scheidet das Angebot für mich wegen des Storage-/Preisverhältnisses aus.
  • netcup
    Ich habe mich für das Angebot vS Uranus light entschieden. Das ganze hat eigentlich alles was ich brauche, ist mit 6,99 € / Monat sehr günstig und deckt alle zuvor genannten Kriterien ab. Details folgen.

Was bei netcup sehr cool ist: Man kann das Angebot in Ruhe unter die Lupe nehmen (da monatlich kündbar). Ebenso hat man alle Zeit der Welt für eine Migration, da man für ~ 7 € / Monat ruhig mal einen bis zwei Monate diese Server parallel betreiben kann.

Für mich ist jetzt natürlich wichtig, das ich das, was bereits auf diesem Server besteht und läuft, übernehmen kann und dabei nichts merkbar langsamer wird. Also habe ich einmal einen Benchmark der beiden Systeme in den für mich relevanten Bereichen durchgeführt:

  1. Storage-Performance
  2. RAM-Performance
  3. CPU-Performance

Um dieses zu messen, habe ich auf dem aktuellen Server alle Dienste beendet (was die Downtime zwischen 15 und 23 Uhr am 01.04.2012 erklärt) und auf diesem wie dem netcup-System die folgenden Tests durchgeführt:

Im folgenden die Ergebnisse.
Zunächst einmal ein reiner Listenleistung-Vergleich:

Strato netcup
RAM
Typ DDR2 133 Unbekannt
Menge 1 GB 1 GB
HDD
Typ Hitachi HDT725025VLA380 Unbekannt
Größe 250 GB 80 GB
CPU
Typ AMD Opteron 1210 HE Intel Xeon CPU E5620
Anzahl 1×2 Cores (2) 4×4 Cores (16)
Geschwindigkeit (Liste) 1,8 GHz 2,5 GHz
Preis
29,90 € 6,99 €

HDD ist zwar bei netcup deutlich kleiner als beim aktuellen Stratovertrag, aber für meine Anforderungen ausreichend.
Alles andere sieht laut Liste deutlich besser aus. OK, fairer weise muss man sagen, das das aktuelle Strato Angebot besser ist (HighQ-Server XS), aber für mich halt nicht so leicht zu wechseln wie zu netcup. Weder kann ich so lange günstig parallel fahren wie bei netcup, noch sehe ich die Notwendigkeit weiterhin monatlich fast 30 € zu bezahlen, wo es rund 7 € auch tun. So viel ist “Platz nach oben” nun im privatem Sektor auch wieder nicht wert.

Kommen wir zu den Messergebnissen:

Als Messgrundlage dienen dd , bonnie++ (v1.96) und sysbench (v0.4.10).

Die ausgeführten Kommandos lauten:

  • sysbench –test=memory –memory-scope=$scope –memory-oper=$operation –memory-access-mode=$accessmode run
  • sysbench –test=cpu –num-threads=$numthreads –cpu-max-prime=20000 run
  • dd if=/dev/urandom of=benchfile bs=1024K count=1024
  • bonnie++ -u root | bon_csv2html

Die mit “$”-vorangestellten Werte zu sysbench findet man in folgender Tabelle nebst Ergebnissen:

Strato netcup
sysbench – RAM
$scope=global, $operation=read, $accessmode=seq 839.4359s 36.9148s
$scope=global, $operation=read, $accessmode=rnd 839.9471s 39.1572s
$scope=global, $operation=write, $accessmode=seq 869.6518s 66.8758s
$scope=global, $operation=write, $accessmode=rnd 848.0943s 41.8068s
$scope=local, $operation=read, $accessmode=seq 837.1526s 37.4726s
$scope=local, $operation=read, $accessmode=rnd 849.7811s 38.9301s
$scope=local, $operation=write, $accessmode=seq 877.9626s 67.3201s
$scope=local, $operation=write, $accessmode=rnd 852.2366s 40.9074s
sysbench – CPU
$numthreads=2 60.5573s 20.1742s
$numthreads=16 n/a 4.2365s

Wir sehen also schonmal zum Thema CPU und RAM: Das netcup vServer – System hat hier klar die Nase vorn! Der RAM ist rund 20x schneller als der des Strato-Systems und die CPU ist bei der Berechnung von Primzahlen bei “nur” 2 von 16 möglichen, parallelen Threads ebenfalls etwa 3x schneller. Gesteht man der Primzahlenberechnung die zur Verfügung stehenden 16 parallelen Threads zu, ist sie beim netcup-System gar ca. 15x schneller.

Im Bereich RAM und CPU also klarer Sieger: netcup vServer!

Schaut man sich an wie lange es dauert eine 1GB große Datei wegschreiben zu lassen gewinnt hingegen klar das Strato-System:

Strato netcup
dd – Benchmark
dd if=/dev/urandom of=benchfile bs=1024K count=1024 140 Sekunden 245 Sekunden

Der dd-Test zeigt eine Schreibperformance beim Strato-System, die rund 1,75x so schnell ist wie die des netcup vServers. Klar, das ist ein sehr realitätsferner Test, aber es folgt noch ein Test mit bonnie++, welcher diesen Eindruck unterstreicht:

Version 1.96 Sequential Output Sequential Input Random
Seeks
Sequential Create Random Create
Size Per Char Block Rewrite Per Char Block Num Files Create Read Delete Create Read Delete
K/sec % CPU K/sec % CPU K/sec % CPU K/sec % CPU K/sec % CPU /sec % CPU /sec % CPU /sec % CPU /sec % CPU /sec % CPU /sec % CPU /sec % CPU
netcup vServer
2G 559 95 118663 23 130356 15 2958 97 3083240 98 11990 168 16 86 0 +++++ +++ 92 0 1986 15 +++++ +++ 8211 58
Latency 33601us 6533us 14883us 15201us 3187us 5198us Latency 14321us 915us 73617us 1517ms 1302us 26563us

 

Version 1.96 Sequential Output Sequential Input Random
Seeks
Sequential Create Random Create
Size Per Char Block Rewrite Per Char Block Num Files Create Read Delete Create Read Delete
K/sec % CPU K/sec % CPU K/sec % CPU K/sec % CPU K/sec % CPU /sec % CPU /sec % CPU /sec % CPU /sec % CPU /sec % CPU /sec % CPU /sec % CPU
Strato Server
2G 276 99 50075 20 31729 14 1207 98 73802 15 411.0 10 16 16859 66 +++++ +++ 23837 73 18097 75 +++++ +++ 23827 73
Latency 50975us 1783ms 968ms 20773us 44806us 375ms Latency 11620us 2495us 2336us 307us 27us 356us

In puncto Storage hat also sowohl in Größe wie in Geschwindigkeit das (nicht-virtuelle) Strato-System klar die Nase vorn.

Wie sieht das ganze bei einem etwas realitätsnäherem Test aus? Zum Vergleich habe ich einmal den Gnu C Compiler (gcc) in Version 4.5.3 auf beiden Systemen kompiliert. Hier die Ergebnisse:

Strato netcup
Gnu C Compiler Kompilierung – Benchmark
Kompileren (emerge =sys-devel/gcc-4.5.3) 57m57.791s 24m55.387s

Ergo: Das netcup System ist hierbei gut doppelt so schnell.

Da das Ganze ja nun doch recht I/O – lastig werden wird, bin ich mir noch nicht ganz sicher ob das wirklich die richtige Entscheidung ist, das bestehende System gegen dieses netcup vServer System zu ersetzen. Wir werden sehen.

Soweit zumindest schonmal meine Analyse :)

Wie immer bin ich für Kritik offen und dankbar.

Mit einer eher interessanten als gefährlichen Variante eines Einbruchs in Ihre Infrastruktur sah sich gestern, am 4. März 2012, der Code Hoster GitHub konfrontiert, als der russische Programmierer Egor Homakov diese Präsenz benutzte um auf eine Sicherheitslücke in Ruby on Rails (kurz: Rails), einem dem Ruby basierendem Framework für Webapplikationen, aufmerksam zu machen. GitHub ist ein sagenhaft populärer Hoster von Git-Repositorien, der neben dem reinen Hosting des Codes auch ein Wiki, Bugtracker, usw. bietet. Auch ich partizipiere darüber an Projekten wie z.B. “flora“. Zufällig verwendet GitHub selbst das Rails Framework; ebenso nutzen die Rails Entwickler GitHub als Code Hoster der Rails-Quellen. Ein ideales Ziel also für Homakov um, nach anfänglichen Schwierigkeiten sein Anliegen den Rails Entwicklern darzulegen, diese Lücke zu demonstrieren:

Er nutzte sie erfolgreich aus, verschaffte sich administrativen Zugang zum Rails-Projekt, bewies das er volle Admin-Rechte erlangt hatte und beispielsweise Fehlerberichte nach Belieben öffnen, schließen und sogar aus der Zukunft schreiben konnte. Außerdem fügte er dem Repositorium eine Datei hinzu. Auch das vollständige Löschen der gesamten Projekthistorie wäre möglich gewesen.

GitHub sperrte daraufhin den Account von Homakov, behob die Sicherheitslücke und gab eine Sicherheitswarnung heraus. Wenig später folgte eine zweite Ankündigung, in der man (wohl auch nicht zuletzt aufgrund anhaltender Proteste der Community) Homakov weitestgehend rehabilitierte und die Sperrung seines Accounts aufhob.
Einige  Leute, die nach wie vor keine wirklich schwerwiegenden Probleme zu haben scheinen und ansonsten offenbar wenig mit Ihrer Freizeit anzufangen wissen, diskutieren immernoch ob Homakov ein “Held” oder ein “Krimineller” ist … OMG!
Er selbst entschuldigt sich auf seinem Blog für sein Vorgehen:

Yes I behaved like a jerk.

GitHub selbst hat alleine dadurch, das sie dem Urheber eines wie auch immer beabsichtigten, jedoch dadurch juristisch nicht weniger strafbaren, Hackerangriffs bereits am nächsten Tag wieder uneingeschränkten Zugriff auf Ihre Systeme gewährten und dem ganzen scheinbar auch keine Strafanzeige folgen lassen, seinen guten Willen bewiesen.
Damit sollte doch alles gesagt sein, meine Güte! Beide sind sich einig und wieder Freunde :) . Das GitHub erstmal vorsorglich das Einfallstor schließt, bis alles geklärt ist, ist doch nur normal! Alles andere wäre strafbar fahrlässig.

Die Rails-Entwickler sind in meinen Augen die, die viel zu wenig tun. Sie wollen die Funktionen, die soetwas ermöglicht, auf Produktivsystemen künftig standardmäßig abschalten. Mit einem Fix ist “bereits” mit Rails 3 als Plugin zu rechnen … Sicherheit als zukünftige, optionale Alternative … na super. Leute, das ist armseelig und unterstreicht in meinen Augen das Rails ein Framework ist, von dem man tunlichst die Finger lassen sollte!
Man stelle sich folgendes Gespräch in einem Autohaus vor:

“Chef, Chef! Man kann in unserem neuen Auto Modell 2012 ohne den Originalschlüssel die Türen öffnen und losfahren! Ein Sicherheitsexperte vom ADAC hat das bereits im Fernsehen demonstriert! Was machen wir??” 

“Ruhig Blut … wir bieten mit dem 2013er Modell nächstes Jahr ein Bonuspaket an, mit dem man den Wagen dann wirklich abschließen kann … jetzt hauen sie ab und verkaufen erstmal die Hallen leer!”

Da hat jemand offenbar absolut keine Ahnung davon, was sie da anrichten und was sie auch nicht zuletzt dem Ruf von Ruby ansich antun. Ein Projekt solcher Größe sollte nicht von solch blauäugigen Diletanten geführt werden. Dann nimmt man halt viele bestehende Projekte erstmal vm Netz – na und ?? Das Fundament muss doch trotzdem frei von solchen Kloppern sein; wem das nicht passt soll halt auf ein Update verzichten! Und wenn es in der Tat zwei Lager gibt, dann muss man halt forken! Aber sowas,  was die jetzt auf die Roadmap gesetzt haben, ist die denkbar schlechteste “Lösung”.