Dieses Blog wird eingestellt

Hallo zusammen,

Dieses wird voraussichtlich der letzte Eintrag in diesem Blog sein, da ich es zugunsten eines neuen Konzeptes an anderer Stelle einstelle.

Das tue ich mit einem lachendem und einem weinendem Auge:
Zum einen freue ich mich natürlich darauf das neue Medium mit Leben zu befüllen und mich ab jetzt ganz darauf konzentrieren zu können.
Zum anderen begleitet mich dieses Blog in dieser Form bereits seit Anfang 2006 und damit seit fast 12 Jahren - WOW!

Ich habe in dieser Zeit sehr viel über WordPress (mit dem dieses Blog bisher betrieben wurde) gelernt und bin dieser großartigen Software sehr dankbar, das sie mir den Betrieb eines eigenen Blogs anfangs ohne die geringsten Hintergrundkenntnisse störungsfrei bis heute ermöglicht hat! Ich bin nach wie vor der Meinung das es sich dabei um eines der besten und komfortabelsten CMS der heutigen Zeit handelt und würde es für den Betrieb von betreuten Seiten jederzeit wieder blind Lösungen wie Joomla, TYPO3 oder Drupal vorziehen.
Allerdings liegt genau darin die Crux mit eingestellten Diensten: Auch wenn sich redaktionell nichts mehr an den Inhalten ändert, bleibt das zugrunde liegende CMS eine Software, welche weiterhin Gefahren aus dem Internet, wie z.B. Hackerangriffen, Kommentar-Spam Wellen, usw. ausgesetzt ist. Im Falle von WordPress kommt zudem noch hinzu, das die gängigsten Sicherheitslücken durch automatisch ablaufende Updates des CMS Kerns und Plugins zwar zuverlässig und zeitnah gestopft werden, jedoch ist nicht auszuschließen, das man dadurch ab und an in seinem CMS Backend manuell eingreifen muss um den Regelbetrieb aufrecht zu erhalten, weil sich neben Sicherheitsanpassungen gegebenenfalls auch Änderungen an Funktionen und Einstellungen in diesen Updates befinden.

Da ich zum einen die Inhalte dieses Blogs nicht einfach entfernen, zum anderen aber auch nicht weiterhin fortlaufend solche Anpassungen und Kontrollen an einem eigentlich eingestelltem Dienst vornehmen möchte, habe ich mich in den letzten Tagen darum gekümmert diese Inhalte in ein statisches Format zu übertragen.
Diese Seiten hier wurden von dem "static site generator" Pelican erzeugt. Da dieser lediglich statische Inhalte bereitstellt (HTML Dateien statt generierte Antworten aus PHP Scripten), hat das sehr positive Folgen für die Komplexität des Dienstes, die Systemlast und die Sicherheit.
Ich habe mir viel Mühe gegeben das Ganze nicht wie ein reines WGET-Archiv abzulegen, sondern alle Artikel in Pelican-kompatible Inhalte umgewandelt. Auch die Kommentare zu den Artikeln habe ich aus WordPress in Disqus übertragen. Hierdurch bleiben nicht nur alle alten Kommentare des alten Blogs erhalten, sondern ermöglichen auch neue einzugeben.

Bei Fragen: Fragen!

Leider hatte ich bisher noch nicht die Zeit die kleineren Korrekturen durchzugehen, wie z.B. ...

  • das manche Bilder nicht korrekt verlinkt sind
  • das ALT-Attribute fehlen
  • das manche Seitenelemente, wie Code-Blöcke nicht ansprechend formatiert sind

Allerdings denke ich offengestanden auch nicht, das ich mir diese Arbeit in nächster Zeit freiwillig machen werde:
Obwohl ich immer sehr viel Spaß beim betreiben dieser Seite hatte, habe ich es nie geschafft damit eine wirklich ansehnliche Anzahl an treuen Lesern anzulocken. Bei der Auswertung von diversen Analyse-Tools, welche ich über die Zeit immer mal wieder verwendet hatte, wurde klar, das mein Blog ein nahezu 100%iges "one-strike" - Medium ist, bei dem die Ergebnisse in irgendwelchen Google-Suchen aufgetaucht sind, besucht wurden und - Ende! Kein stöbern, weiterlesen, usw.
Ebenso habe ich nur eine handvoll Seiten, die wirklich nützlich für andere sind oder waren. Die meisten sind belangloses Hintergrundrauschen, wo es um irgendwelche neuen Möbel oder ähnliches geht.
Ich denke daher nicht, das es lohnt diese Dinge aufzubereiten. Zumal der Kern der Aussagen trotz gelegentlich unvorteilhafter Formatierung zu erfassen ist und den meisten dieser one-strike-Besuchern wohl liefern dürfte was sie suchten.

Allerdings bin ich wirklich sehr gerne bereit solche Korrekturen auf Anfrage zeitnah vorzunehmen; wenn ich das Feedback bekomme, das ich das für jemand anderen als mich selbst mache, sieht das ja auch bezüglich der Motivation ganz anders aus: Sehr, sehr gerne kann mir jeder über die Kommentarfunktion in der Artikelansicht (auf die Überschrift des jeweiligen Artikels klicken) oder über mein zentrales EMail-Kontaktformular einen Hinweis auf Fehler zukommen lassen. Ich verspreche, mich daraufhin zeitnah an eine Korrektur zu begeben!
Ich freue mich auch nach dem Ende des produktiven betriebes der Seite sehr über Feedback!

Die Zukunft

Wie anfänglich bereits angedeutet, verabschiede ich mich nicht komplett von redaktioneller Arbeit. Das Gegenteil ist der Fall: Ich möchte diese vielmehr auf einen globaleren und professionelleren Level heben.

Dieses alte Blog hier, unter https://www.zoosau.de, hat als wilder Mix aus privatem Tagebuch, technischer Spielwiese und fachlichen Beiträgen begonnen; und wurde natürlich auch in dieser Form geführt. Das Resultat: Unzählige, teils vollkommen belanglose, teils vieeeeel zu persönliche Inhalte liegen neben fachlichen Beiträgen, so das es nichts Halbes und nichts Ganzes ist. Und ohne diese widersprüchlichen Inhaltsformen durch löschen von Postings aufzubrechen, ließe sich das in meinen Augen auch nicht wirklich in den Griff kriegen.
Des weiteren merke ich, das Deutsch als Sprache nicht ideal ist um in den meist Englisch affinen, technischen Zielgruppen Fuss zu fassen.

Daher habe ich mich dazu entschlossen dieses Medium hier auf https://www.zoosau.de/ nicht fortzuführen, sondern als eine Art "historisches Archiv", so wie es gerade ist, einzufrieren und mit etwas neuem an anderer Stelle von vorne anzufangen. Dieses neue Projekt findet man ab sofort unter:

https://www.marc-richter.info

Diese entsteht unter dem folgenden Konzept:

  • Es handelt sich dabei wieder um eine WordPress Seite. Dieses ist jedoch ein sehr "weiches" Kriterium - wer weiß; evtl. finde ich doch noch Gefallen an "static site generatoren" wie Pelican 😉 - Hat echt was für sich.
  • Es wird ausschließlich englischsprachig geführt werden, um die maximale globale Sichtbarkeit zu erreichen. Ich halte nichts von mixed content, Mehrsprachigkeit ist mir redaktionell und technisch zu aufwändig und schließlich würde ich zukünftig auch gerne in Aggregatoren wie http://planetpython.org/ gelistet werden.
  • Es wird als eine stabile Publikationsplattform betrieben, ohne Experimente, wie es bisweilen in diesem Blog hier in der Vergangenheit geschehen ist. Neue, größere Features mit Auswirkungen auf die Usability werden zunächst an anderer Stelle evaluiert und getestet und erst übernommen, wenn diese auf diesem Wege gereift sind und sich bewährt haben.
  • Es wird ein stark techniklastiges Medium werden.
  • Es wird in erster Linie Artikel und Artikelserien geben, statt dieser kurzen, abrissartigen Einblicke in Ereignisse und Themen. Eventuell wird es später auch einen "Off-Topic"-Bereich mit anderen Dingen geben, jedoch zumindest am Anfang wird der Kasten definitiv sauber gehalten! 😉

Auf dann!

Ich bedanke mich bei allen meinen früheren und zukünftigen Lesern für Euer Interesse an meinen Publikationen in den letzten 12 Jahren. Besonders möchte ich all denen danken, die durch die Kommentarfunktion oder das Kontaktformular dazu beigetragen haben, die Inhalte mit mehr als nur meiner eigenen Sichtweise zu bereichern.
Nicht zuletzt hat mir solches Feedback auch stets das Gefühl von Sinn hinter meinen Bemühungen gegeben. Selbst kurze vier-Wort-Meldungen wie:

Cooler Beitrag - vielen Dank!

haben mich immer sehr gefreut; es braucht nicht immer den Roman in EMail-Form!
Ich würde mich sehr freuen, wenn auch zukünftig in diesen Archiven solches Feedback einfach da gelassen wird!

Noch mehr würde es mich natürlich freuen, wenn derlei Dinge auch auf meiner neuen Seite passieren würden!
Daher lade ich alle ganz herzlich dazu ein mir dorthin zu folgen:

https://www.marc-richter.info

Spart nicht mit Feedback und Kommentaren; und auch Kritik (solange sachlich dargelegt) ist stets willkommen!

Euer
Marc Richter

Teilen per: TwitterEmail


Quicktipp: Titanium Backup wiederherstellen

Mir ist es die Tage passiert, das ich auf meinem Android Handy mit Titanium Backup zwar ein Backup aller meiner Apps und Einstellungen erstellt habe, jedoch habe ich bei der Übertragung der erstellten Dateien nur den Ordner /sdcard/TitaniumBackup übertragen habe. Titanium Backup erkennt jedoch nicht automatisch das sich dort Backups befinden, wenn es diese nicht selbst erstellt hat (tatsächlich hat diese ja eine Titanium Backup Instanz auf einem anderen Gerät erstellt). Sie werden daher nicht in den Wiederherstellungsoptionen angezeigt.

Damit Titanium Backup diese erkennt, muss man in der App zu "Menü > Allgemein" wechseln und dort "Anwendungsliste auffrischen" wählen.

Anschließend stehen die Backups zur Verfügung.

Teilen per: TwitterEmail


Wordpress Timeout beim Login

Wenn man Wordpress in einer Netzwerkstruktur betreibt, in der keine Verbindung zu anderen Internetseiten hergestellt werden kann, kommt es bei vielen Aktionen zu langen Wartezeiten bis hin zu Timeouts. Im extremsten Fall kann das dazu führen, das man sich an seinem eigenen Wordpress nicht mehr im Backend einloggen kann.

Der Grund dafür ist, das gerade beim Login oder allgemein: Beim Zugriff auf das Wordpress-Dashboard, normalerweise ziemlich viele Daten von externen Ressourcen von Wordpress geladen und verarbeitet werden. Nachrichten im "Wordpress-Nachrichten"-Widget, Informationen ob Updates für Wordpress oder Plugins existieren, Twitter-Feeds, ... all diese Informationen fragt Wordpress bei einem Login im Hintergrund ab und bereitet es für die Anzeige im Dashboard auf. Behindert eine Firewall oder ähnliches diese Zugriffe, wird für jeden dieser Zugriffe eine zeitlang gewartet, ehe für diese Zugriffe ein Timeout erreicht wird. Je mehr Ressourcen hierbei geladen werden, desto länger die Gesamtzeit die das Dashboard benötigt um sich aufzubauen.

In der Regel genügen die Wordpress internen Aktionen ohne weitere Plugins um in diesem Fall an die Grenze der definierten PHP max_execution_time() zu geraten. Je nachdem welche Ressourcen im Frontend der Seite verwendet werden, kann es auch sein, das sich die Seite bei Euren Besuchern hierdurch viel langsamer als gewünscht aufbaut.

Die beste Lösung

Die beste Maßnahme diese Probleme zu umgehen ist meiner Meinung nach schlicht und einfach dafür zu sorgen, das Wordpress ungehindert auf Ressourcen im Netz zugreifen kann, da sonst wichtige Kerntechniken von Wordpress nicht oder nicht optimal funktionieren (Update-Hinweise, laden von News, Abfragen von DNS Informationen, ...).

Die zweitbeste Lösung

Sollte es sich, warum auch immer, nicht anders machen lassen als Wordpress ohne freien Zugriff auf's Internet zu betreiben, kann man diese Zugriffe durch einen Eintrag in der wp-config.php - Datei einfach komplett abschalten. Dieses ist in der Regel die bessere Wahl; funktionieren die Zugriffe schließlich ohnehin nicht. Nur kommt es hierbei dann weder zu Script-Timeouts, noch zu langen Ladezeiten:

define('WP_HTTP_BLOCK_EXTERNAL', true);

Funktioniert der Zugriff auf bestimmte Ressourcen, z.B. weil diese Explizit in der Firewall oder einem Proxy freigeschaltet worden sind, kann man diese mit einer weiteren Konfigurationsoption von diesem Block ausnehmen, so das diese dennoch geladen werden:

define('WP_ACCESSIBLE_HOSTS', 'api.twitter.com,wordpress.org,download.wordpress.org');

Teilen per: TwitterEmail


Escape character in telnet eintippen

Benutzt man das Programm telnet unter Linux, wird man beispielsweise mit folgender Meldung begrüsst:

mr@mr:~$ telnet localhost 25
Trying 127.0.0.1...
Connected to localhost.
Escape character is '^]'.
220 mr.localdomain ESMTP Postfix (Ubuntu)

Möchte man diese Verbindung schließen, müsste man den "Escape character" ( \^] ) eingeben. Nur: Hierbei handelt es sich keinesfalls um die beiden ASCII-Zeichen "\^" und "]". Bei diesen handelt es sich mehr um die Darstellung eine bestimmten Tastenkombination. Das fiese: Oft kommt man nichtmal mit dem altbewährten Strg+c aus der Sache raus ...

Um diesen Escape character einzugeben verwendet man folgende Tastenkombination: STRG + AltGr + 9
Hinweis: Die "+" Zeichen sollen nicht eingetippt werden, sondern anzeigen, das die drei Tasten gleichzeitig gedrückt werden müssen.

Schon sollte die Konsole sich wieder im telnet-Kommando-Modus befinden. Dort kann man mit dem Befehlt "quit" wieder auf die normale Linux-Shell:

mr@mr:~$ telnet localhost 25
Trying 127.0.0.1...
Connected to localhost.
Escape character is '^]'.
220 mr.localdomain ESMTP Postfix (Ubuntu)
^]
telnet> quit
Connection closed.
mr@mr:~$

Teilen per: TwitterEmail


SSH - REMOTE HOST IDENTIFICATION HAS CHANGED

Jedes Mal, wenn ich mir ein neues Linux-System einrichte, muss ich erst nochmal schnell Googlen oder die Manpage wälzen; daher notiere ich es mir hier jetzt endlich mal:

Es gibt ein Sicherheitsfeature bei openSSH, welches einen warnt wenn man sich zu einem Host/einer IP verbinden möchte und sich die ID des Zieles seit dem letzten Mal verändert hat. Das macht zwar durchaus Sinn und ich finde das generell eine gute Sache. Aber es kann wirklich sehr nerven, besonders wenn man mit DHCP arbeitet und die Zielrechner dauernd Ihre IP durchtauschen, man mit virtuellen Maschinen arbeitet und diese nur kurz benutzt werden oder häufig per SSH auf Live-CD-Systeme konnektiert.

Normalerweise muss man die entsprechende Zeile in der Datei ~/.ssh/known_hosts die angemeckerte Zeile löschen; z.B. bei:

$ ssh user@192.168.1.12
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@ WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED! @
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
IT IS POSSIBLE THAT SOMEONE IS DOING SOMETHING NASTY!
Someone could be eavesdropping on you right now (man-in-the-middle attack)!
It is also possible that the RSA host key has just been changed.
The fingerprint for the RSA key sent by the remote host is
39:b3:72:04:53:f7:17:eb:aa:8c:ed:70:db:77:8b:e9.
Please contact your system administrator.
Add correct host key in /home/user/.ssh/known_hosts to get rid of this message.
Offending key in /home/user/.ssh/known_hosts:3
RSA host key for 192.168.1.12 has changed and you have requested strict checking.
Host key verification failed.$

müsste man die Zeile 3 entfernen.

Hierzu muss man etwas wie

sed -i 3d ~/.ssh/known_hosts

losjagen oder die Datei in einem Editor von Hand bereinigen. Wie schon gesagt: Auf Dauer sehr nervig!

Wenn einem das nur vereinzelt passiert, kann man sich mit Kommandozeilenoptionen helfen:

ssh -o UserKnownHostsFile=/dev/null \
-o StrictHostKeyChecking=no user@192.168.1.12

ist jedoch schon eine recht sportliche Aufgabe sich das a) zu merken und b) jedes Mal wegzutippen.

Wem das permanent passiert, kann dieses Verhalten dauerhaft einstellen. Und zwar sowohl global wie auch userbasiert. In beiden Fällen müssen die beiden o.g. Optionen in die passende Config-Datei eingetragen werden:

UserKnownHostsFile=/dev/null  
StrictHostKeyChecking=no

Um diese Einstellung global zu setzen (nicht empfohlen), trägt man diese Optionen in die Datei "/etc/ssh/ssh_config" ein.

Um diese Einstellung nur für einen bestimmten User zu setzen, trägt man diese Optionen in die Datei "~/.ssh/config" ein.

Das ganze hebelt natürlich den als Sicherheitsmaßnahme gegen "Man-in-the-middle" - Attacken gemeinten Schutz vor diesem Angriffstyp aus. Um das ganze wenigstens etwas sicherer zu machen, kann man auch nur einzelne Hosts und Hostbereiche derart von dieser Regel ausnehmen. Die Beispielhafte Syntax dazu lautet dann:

Host 192.168.1.*
   StrictHostKeyChecking no
   UserKnownHostsFile=/dev/null

Möchte man dieses immer und für alle Verbindungen deaktivieren, lässt man die "Host" - Zeile einfach weg.

Aber Achtung: Bitte nur anwenden wenn Ihr wisst was Ihr tut! Das ganze hebelt, wie gesagt, einen sinnvollen Schutz des SSH Systems aus.

Teilen per: TwitterEmail


ownCloud Fehler unter KDE: "ownCloud wird für eine funktionierende Taskleiste benötigt"

Auf einem meiner Rechner läuft ein kubuntu 15.04. In dessen Repo befindet sich die Version 1.7.0\~beta1+really1.6.4+dfsg-1 des Paketes owncloud-client. Installiert man dieses, bekommt man unter KDE Plasma beim Anmelden folgende Fehlermeldung angezeigt:

"ownCloud wird für eine funktionierende Taskleiste benötigt. Falls Sie XFCE einsetzen, dann folgen Sie bitte diesen Anweisungen. Anderenfalls installieren Sie bitte eine Taskleisten-Anwendung wie 'trayer' und versuchen Sie es erneut."

[caption id="attachment_1906" align="aligncenter" width="525"]Fehlermeldung der Repo-Version von owncloud unter Ubuntu
15.04: "ownCloud wird für eine funktionierende Taskleiste
benötigt."{.size-full .wp-image-1906 width="525" height="238"} Fehlermeldung der Repo-Version von owncloud unter Ubuntu 15.04: "ownCloud wird für eine funktionierende Taskleiste benötigt."[/caption]

Hierbei handelt es sich offenbar um einen Übersetzungsfehler, welcher in aktuellen Versionen bereits behoben ist: https://github.com/owncloud/client/issues/2180

Dennoch: Auch mit einer korrekten Fehlermeldung bleibt es dabei: Diese Version spuckt einen Fehler aus.

Abhilfe kann man schaffen, indem man den Anweisungen auf der ownCloud-Homepage folgt um den aktuellen Desktopclient für Ubuntu zu installieren. Ein laufender ownCloud Client sollte zuvor beendet werden. Das Paket owncloud-client muss zuvor nicht deinstalliert werden, da es durch die folgenden Schritte aktualisiert wird:

sudo sh -c "echo 'deb http://download.opensuse.org/repositories/isv:/ownCloud:/desktop/xUbuntu_15.04/ /' >> /etc/apt/sources.list.d/owncloud-client.list"
wget -O - http://download.opensuse.org/repositories/isv:ownCloud:desktop/xUbuntu_15.04/Release.key | sudo apt-key add -
sudo apt-get update
sudo apt-get install owncloud-client

Anschließend befindet sich die aktuelle Version des ownCloud Clients (derzeit 1.8.3) auf dem System und die Fehlermeldung sollte der Vergangenheit angehören.

Teilen per: TwitterEmail


Kurztipp: RPM Variablen aus z.B. Source-RPMs auflösen

Wir hatten im Rahmen der jüngst in der Bash bekannt gewordenen Sicherheitslücken die zweifelhafte Ehre, für nicht länger supportete SuSE Linux Systeme diese aus den Source-RPMs neu zu kompilieren. Dabei fielen uns in der darin enthaltenen .spec - Datei komische Variablen wie %{_mandir} oder %{_libdir} auf, die wir nicht zuordnen konnten. Ein Auszug:

./configure --build=%{_target_cpu}-suse-linux \ --prefix=/usr \ --with-curses \ --mandir=%{_mandir} \ --infodir=%{_infodir} \ --libdir=%{_libdir}

Dieses sind RPM interne Variablen, welche mit folgendem Aufruf ausgegeben werden können:

rpm --eval '%_libdir' rpm --eval '%_mandir' ...

Teilen per: TwitterEmail


Endlich gelöst: Schwammiges Bild auf meinem Samsung HDTV von PC über HDMI

Manchmal hat man es im Alltag mit Dingen zu tun, da steht man selbst wenn man es Live vor sich sieht fassungs- und sprachlos davor und fragt sich ... eigentlich garnichts mehr. Für manche Dinge gibt es einfach keine Worte; man sucht sie trotzdem, weil man es nicht einfach so stehen lassen KANN.
So mir gerade wieder geschehen; meine Hilflosigkeit ein geeignetes Wort dafür zu finden, möchte ich verarbeiten, indem ich hier berichte was geschehen ist und trage die Hoffnung, das es jemand anderem den gleichen Ärger ersparen möge.

Worum geht es?

Ich habe ein recht modernes Wohnzimmer; unter anderem mit einem 55 Zoll Samsung ES8090 LED TV, einem PC mit einer ASUS HD7950-DC2-3GD5-V2 (AMD Radeon HD 7950 mit 3GB GDDR5) Grafikkarte und einem Yamaha RX-V373 Soundsystem. Mein PC ist per HDMI an dem Yamaha angeschlossen. Dieser wiederum führt mit einem HDMI Kabel zum Fernseher.

Diese Kombination hatte ich auch genau so schonmal im Betrieb und konnte mich störungsfrei eines gestochen scharfen Bildes erfreuen.

Nach meinem Umzug habe ich das ganze auch wieder aufgebaut und hatte seitdem ein grottenschlechtes Bild!
Es war unscharf, man musste mit einem so genannten "Underscan" im Grafikkartentreiber arbeiten, da das Bild sonst an den Rändern abgeschnitten war, Schriften sahen so aus als habe man eine falsche Bildschirmauflösung eingestellt, Farben waren leicht verfälscht, etc. Ich habe das einmal versucht per Foto zu erfassen; Screenshot geht leider nicht da, soviel nehme ich einmal vorweg: Am PC liegt es nicht. Daher ist das ganze leider etwas unschärfer geworden als es tatsächlich in der "guten" Einstellung ist. Auf dem folgendem Bild sieht man eventuell etwas besser was ich meine:

[caption id="attachment_1816" align="aligncenter" width="598"]Im
Vergleich: Links feine Grafik und korrekt skalierte Schrift ; Rechts
rauschige Grafik und interpolierte
Schrift{.size-large .wp-image-1816 width="598" height="360"} Im Vergleich: Links (die Unschärfe kommt von einer schlechten Einstellung des Fotoapperates) feine Grafik und korrekt skalierte Schrift ; Rechts rauschige Grafik und interpolierte Schrift[/caption]

Das ganze war sehr, sehr frustrierend, da ich wusste, das es schonmal ging, keine Ahnung hatte was ich verändert habe und bis heute im Internet auch nicht fündig wurde. Ich hatte alles probiert:

  • Treiber Update
  • Treiber DOWNgrade
  • Umstellungen im Treiber
  • Kompletten Kabelsatz ausgetauscht
  • Sämtliche Einstellungskombinationen zwischen Grafikkarte und Fernseher

Ich fand einfach keine Lösung und musste bis heute diese ärgerlichen Einbußen in meiner mehrere tausend Euro teuren Anlage in Kauf nehmen.

Die Lösung

Ich weiß wie sich das folgende ließt und offen gestanden war meine erste Reaktion, als ich das in einem Forum gelesen habe auch "Jaja ... erzähl du mal du Kacknoob ..." aber ich war inzwischen so verzweifelt, das ich es einfach mal ausprobiert habe. Und siehe da: Die Scheisse geht!!

Der Fernseher hat mehrere HDMI Eingänge. Welchen man da verwendet spielt meines Wissens nach keine Rolle; der Vollständigkeit halber aber: mein Eingang ist der Anschluss "HDMI IN 2 (ARC)". Auf meiner Fernbedienung gibt es eine Taste zur Wahl der Eingangsquelle (SOURCE). Drückt man diese, erscheint das Menü "Quelle" in welchem man z.B. zwischen den HDMI Eingängen, den eingebauten Recievern, etc. umschalten kann. Hier wählt man nun den Anschluss auf dem das PC Signal eingeht mit dem Cursor an (ohne es zu bestätigen). Anschließend drückt dann die Taste "TOOLS" um die kontextspezifische Funktion "Extras" dieses Menüs auszuwählen. Der erste Punkt des dadurch erscheinenden Menüs lautet "Name bearb.". Diesen wählt man aus.
Bei mir stand dieser, da mein Yamaha AV-Receiver dort direkt angeschlossen war, auf "AV-Receiver". Man kann hier ja auch neue Namen in die Liste eintragen, von daher kommt sicher niemand auf die Idee, das sich hier hinter bildspezifische Einstellungen verbergen könnten. Auch heißt das Menü ja "Name bearbeiten", nicht "Eingangstyp wählen" oder ähnliches. Stellt man dieses jedoch auf die werkseitig vorhandene Beschriftung "PC", hat man sofort ein gestochen scharfes Bild!

Unfassbar finde ich sowas ... Ich hatte, um ehrlich zu sein, die Grafikkarte und einen ggf. aktuelleren Treiber in Verdacht. Allerdings ist das AMD Treiber - Team (diesesmal) scheinbar unschuldig!
Gefunden habe ich diese Lösung im computerbase.de - Forum, wo der User Neon1111, dankenswerter Weise, diese Lösung beschrieben hat. An dieser Stelle nochmal ein riesengroßes Dankeschön von mir!!

Ich hoffe dieses erlöst den einen oder anderen Leidensgenossen von seiner Qual.

Teilen per: TwitterEmail


Äh ... ja. Outlook-Installation unter MacOSX Mavericks

... als wenn der Kram unter MacOSX nicht dadurch, das jeder Installer seine eigene Prozedur zur Installation mitbringt, undurchsichtig genug wäre, ist das erste Fenster welches mir angezeigt wird, nachdem ich Outlook für Mac installiert habe folgender:

[caption id="attachment_1805" align="aligncenter" width="701"]Office4Mac
Fail{.size-full .wp-image-1805 width="701" height="564"} Office4Mac Fail[/caption]

Ja, welchen nehme ich denn bloß ... ? Egal, haben alle keine Funktion! ;) Und ohne diese Registrierung fällt die weitere Outlook-Erfahrung leider komplett in's Wasser; auch Neustarten bringt nichts. Wieder einmal: Danke, Apple, für eine weitere CD teuren Software-Mülls in meinem Regal.

Teilen per: TwitterEmail


Adobe Photoshop unter MacOSX: Fehler A12E1

Das Problem

Vor einiger Zeit sollte ich mal einen neuen Mac Rechner vorbereiten und unter (vielem) anderem Adobe Photoshop darauf installieren. Ich habe natürlich erstmal alles sauber vorbereitet: Platte formatiert, MacOS installiert, Updates eingespielt, User eingerichtet, unzählige kleine Programme installiert, ... nach ein paar Stunden war Adobe Photoshop an der Reihe. Es begrüßte mich diese nette Anzeige:

Screen+Shot+2013-08-26+at+9.15.18+AM{.aligncenter .size-full .wp-image-1783 width="450" height="201"}

(Zugegeben: Oberflächlich) Im Internet gesucht, am Ende sogar den Adobe Support angerufen (schließlich hat man ja für einen Ar*** voll Geld diese Software gekauft): Keine Ahnung. Gut angelegtes Geld also ... Danke @Adobe!

Schließlich wurde ich im Blog eines Users namens "Sum Random Guy" fündig und konnte es erst garnicht glauben: Das passiert, scheinbar reproduzierbar, wenn man sich beim formatieren der Partitionen auf dem Mac für die Case-Sensitive Variante des Dateisystems entscheidet!
Ich weiß ehrlich gesagt heute noch nicht was ich dabei unglaublicher finde:

  • Das die Ar***-teure Betriebssystemplattform MacOS im Jahre 2014 immernoch nicht standardmäßig auf ein Case-Sensitive Dateisystem setzt?
  • Das die Ar***-teure Software (CS6 bei Amazon derzeit 1.099,- €) scheinbar ein so lasches Qualitätsmanagement hat, das so ein Problem in einer Kaufversion besteht und nicht behoben wird?
  • Das der Branchenriese Adobe, auf die offizielle Support-Anfrage eines zahlenden Kunden, nicht in der Lage ist auf so etwas hinzuweisen?

Laut zuvor genanntem Blogeintrag erstreckt sich der Fehler bis heute auf alle Adobe Creative Cloud Anwendungen; nicht nur auf Photoshop.

Mein Kommentar zu soetwas:

[tube]http://www.youtube.com/watch?v=8k6q3173G2k[/tube]

Die Lösung

Achtung

Ehe man beginnt einige Hinweise:

  1. Bei der hier beschriebenen Methode wird die MacOS Keychain, in der gespeicherte Passworte und ggf. auch Einstellungen mancher Programme gespeichert sind, nicht gesichert! Legt man Wert auf diese Daten sollte man sich im Internet schlau machen wie man diese sichern und übertragen kann.
  2. Hat man Dateien auf dem System gespeichert, welche nur existieren weil das Dateisystem Case-Sensitive ist, "gewinnt" eine dieser Dateien, so das anschließend nur noch eine Datei auf dem System verfügbar ist. Zum Beispiel: Existiert eine Datei namens "Foobar.txt" und eine zweite im gleichen Verzeichnis namens "FooBar.txt", wird hinterher nur noch eine davon existieren. Die andere müsste man sich aus dem Backup von SuperDuper! manuell herauskopieren.
    Das ist genau das Problem mit Case-Insensitive Dateisystemen und wie Ihr seht: Der Ärger geht direkt los ... :P
  3. Vorsicht ist besser als Nachsicht: Legt auf jeden Fall ein (besser: zwei) Backups Eures Systems an.

Wie auch immer: Es gibt eine Lösung um nicht das gesamte System nocheinmal neu installieren zu müssen. Allerdings muss man auf das Case-Sensitive Dateisystem verzichten ... Meine Erfahrung soweit: Das führt unter mehreren MacOS Applikationen bis heute zu Irritationen. Und egal wie sehr ich mir der Sinnhaftigkeit von Case-Sensitive Dateisystemen bewusst bin und es gerne hätte: Unter MacOS, bis heute: Besser Finger weg!

Zunächst installiert man das Programm SuperDuper!. Es ist - für den hierbei benötigten Funktionsumfang - kostenlos, bietet in der Vollversion für \$27.95 jedoch zum einen nützliche weitere Funktionen. Zum anderen kann man sich ja mal überlegen wie viel Zeit und Nerven einen dieses Programm nach erfolgreicher Dateisystemmigration gespart hat und das alleine aus Sponsering-Gründen für einen Kauf in Erwägung ziehen ...

Hat man SuperDuper! also installiert, benötigt man noch eine USB Festplatte, welche wenigstens so groß ist wie auf der im Mac eingebauten Festplatte an Speicher belegt ist. Am besten gleich zwei; in den nächsten Schritten werden sämtliche Daten von der eingebauten Festplatte gelöscht. Man kann also garnicht genug Backups haben und es empfiehlt sich auf einer Festplatte zunächst ein Time Machine Backup zu erstellen und anschließend eines mit SuperDuper!, wie im folgenden gezeigt wird:

Als erstes formatiert man die (zweite) USB Festplatte für den Mac. Anschließend startet man SuperDuper! und tut folgendes:

[caption id="attachment_1806" align="aligncenter" width="621"]SuperDuper! Schritt 1 von
3{.size-full .wp-image-1806 width="621" height="337"} SuperDuper! Schritt 1 von 3[/caption]

  1. Auswählen der Quelle
    Hier sollte die Systemfestplatte, die gesichert werden soll, ausgewählt werden.
  2. Auswahl des Ziels
    Hier habe ich, da gerade keine USB Festplatte greifbar war, ein Image als Ziel eingestellt. Für den tatsächlichen Vorgang wird hier jedoch die USB Festplatte als Ziel ausgewählt.
  3. Auswahl des Profiles
    Einfach auf der Voreinstellung "Backup - all files" wie hier gezeigt stehen lassen.
  4. Anschließend öffnet man die Optionen

[caption id="attachment_1808" align="aligncenter" width="294"]SuperDuper! Schritt 2 von
3{.wp-image-1808 .size-medium width="294" height="300"} SuperDuper! Schritt 2 von 3[/caption]

Hier sind die gezeigten Einstellungen zu übernehmen.

[caption id="attachment_1809" align="aligncenter" width="297"]SuperDuper! Schritt 3 von
3{.size-medium .wp-image-1809 width="297" height="300"} SuperDuper! Schritt 3 von 3[/caption]

Unter "Advanced" sollte alles bereits so sein wie hier gezeigt. Trotzdem: Sicherheitshalber einmal kontrollieren und ggf. die hier gezeigten Einstellungen anwenden.

Durch einen Klick auf "OK" kommt man wieder in das Hauptfenster. Durch einen Klick auf "Copy Now" startet man den Sicherungsvorgang.

Ist dieser abgeschlossen wird das System neu gestartet. Die USB Festplatte bleibt dabei angeschlossen. Sobald der Startton ertönt, drückt man die Alt-Taste (die zwei komischen Striche) und hält diese gedrückt. Es sollte eine Bootauswahl erscheinen, bei der man dann die USB Festplatte auswählt. Das System sollte nun wie gewohnt starten; tatsächlich tut es das jedoch von der USB Festplatte; geiler Scheiss, wa?

Hier startet man nun das Festplattendienstprogramm und formatiert die eingebaute Systemfestplatte; dieses mal jedoch Case-Insensitive! Achtet genau darauf, das Ihr nicht die USB Festplatte ausgewählt habt.

Anschließend startet man erneut SuperDuper!, belässt alle Einstellungen wie sie sind, vertauscht dieses Mal jedoch Quelle und Ziel, so das von der USB Festplatte auf die Systemfestplatte kopiert wird.

Sobald dieser Vorgang abgeschlossen ist, sollte sich das System ohne die USB Festplatte starten lassen und über ein Case-Insensitives Dateisystem verfügen. Ebenso sollte sich jetzt auch die Adobe Creative Suite / Creative Cloud Apps installieren lassen.

Teilen per: TwitterEmail