Auf meiner Insel – 02.01.2020

Graue Suppe über Amrum

Der zweite Tag in Folge mit richtig schlechtem Wetter. Jetzt ist es auch wieder kälter, zu dem starken Wind kommt auch ekeliger Nieselregen, der die Brille beschlagen lässt und es ist keine Besserung in Sicht. Morgen soll es hier richtig regnen – ich habe daher die Hoffnung, dass am Samstag, meinem letzten Urlaubstag, nochmal ein schöner Sonnenuntergang zu sehen ist. Und außerdem stimmen die Vorhersagen für die Inseln nicht immer – ich habe schon öfter erlebt, dass die Insel auch wettertechnisch eine Insel ist. Trifft eine Vorhersage auf ganz Schleswig Holstein zu, dann muss das nicht für die Inseln gelten. Also mal abwarten … .

Schlechtes Wetter bedeutet kreative Zeit
Gab es vor Jahren hier noch Probleme mit langsamem Internet, so ist das jetzt kein Thema mehr

Das ist also die Gelegenheit, weiterhin kreativ  zu sein. Habe ich mich in den ersten Tagen literarisch betätigt, so arbeite ich seit zwei Tagen daran, meine Kenntnisse in der Programmiersprache „Python“ auszubauen. Damit habe ich schon einiges gemacht – unter anderem wird damit mein Seekartenprojekt realisiert (auch eines der Dinge, das seit August auf Eis liegt). Jetzt habe ich endlich die Prinzipien verstanden, wie dort plattformunabhängige Oberflächen erzeugt werden. Das hat den großen Vorteil, dass ein Programm innerhalb eines Webbrowsers, also als Internetseite, oder eigenständig unter Windows, MacOS oder sogar unter Android läuft. Das Ganze mit wenigen Anpassungen. Mal schauen, wie ich das verwenden werde – sowohl bei meinem Brotberuf als auch bei meiner Softwareentwicklung wird es zahlreiche Anwendungsszenarien dafür geben.

 

 

 

 

Mr. Robot und Kali-Linux

Ich schaue gerade die zweite Staffel von „Mr. Robot“, eine Serie, die auf Amazon mit der ersten Staffel schon einen kleinen Kultstatus erreicht und mit der 2. Staffel vom Zuschauer einiges an Geduld abverlangt. Denn die vielen Zeitsprünge, den inneren Zerwürfnissen des Protagonisten zu folgen und die nach sechs Folgen doch abgedroschene, weil immer gleiche Ästhetik – irgendetwas zwischen Fincher und Tarrantino – mit niemals in der Mitte des Bildschirms agierenden Personen … nun, das ist anstrengend. Wenn da nicht die vielen netten Einfälle wären, das Intro zu einer Folge mit Musik von Depeche Mode und der Tatsache, dass die Geschichte wirklich Neuland betritt, dann hätte ich die Serie vermutlich schon aufgegeben.

Am Ende der ersten Staffel hat „Fsociety“ (eine Art Anonymus Bewegung) die Firma „e-corp“, den größten Globalplayer auf dem Finanzmarkt, gehacked. Alle Schulden auf allen Bankkonten sind gelöscht und das gesamte Finanzsystem erfährt einen Reboot. Darum geht es in der zweiten Staffel.
In vielen Einstellungen blicken wir den Hackern über die Schulter. Sie nutzen ein Betriebssystem und Tools, die es tatsächlich gibt. Die Sprache der Hacker ist Python und das Betriebssystem nennt sich Kali-Linux. Eine Anleitung, genau abgestimmt auf Menschen wie mich, die über genug Grundwissen verfügen, um so ein System zu nutzen, aber keinen blassen Schimmer von den eigentlichen Tools haben, gibt es in mehreren Fachbüchern, die man ganz normal kaufen kann. Das macht mich natürlich neugierig. So neugierig, dass eines dieser Bücher meine aktuelle Lektüre ist und bei mir Kali-Linux in einer virtuellen Maschine läuft. Um es klar zu sagen: die Grauzone, in die man sich begibt, ist dunkelgrau. Denn so oft der Autor des Fachbuches auch betont, dass Netzwerkscans, Exploits etc. nur gegen Rechner angewendet werden dürfen, bei denen das „Opfer“ davon Kenntnis hat – die Versuchung, einen Schritt weiterzugehen ist natürlich groß.
Ich werde aber meine Kenntnisse, die auch nach der Lektüre im kleinen Rahmen bleiben werden, nur auf meine Systeme anwenden, d.h. mit einem Notebook mein eigenes Netzwerk hacken, Netzwerktraffic auslesen und schauen, was er verrät und einen Angriff von außen simulieren.
Im Moment bin ich an einem Punkt, in dem die Portscans beschrieben werden. Hat man eine IP Adresse ausfindig gemacht, dann kann man diese Adresse scannen und schauen, welche Ports dort zugänglich sind. Jder offene Port ist ein potentieller Einfallspunkt in den Rechner. Wie man eine IP Adresse herausfindet (und unglaublich viel zusätzliche Informationen) zu einem einfachen Namen einer Person oder eines Unternehmens – das ist der Teil der „Aufklärung“ ganz am Anfang. Jetzt geht es an die praktische Anwendung.

Hacker setzen vor allem auf eines: den Systemadministrator, der sich sagt „Never change a running system“ und Sicherheitspatche und ihre Hintergründe wohl eher als lästig abtut. Wer glaubt, dass das die Ausnahme ist, der irrt. Vor zwei Jahren gab es eine Initiative von Providern, die IP Adresse ihrer User zu anonymisieren. Damit ist keine gänzliche Anonymität gemeint– gemeint ist vielmehr das Fehlen der IP Adresse in den Metadaten während des Surfens, die in Log-Dateien gespeichert werden.
Ich kann aus eigener Erfahrung sagen, dass es ein Leichtes ist, dies zu umgehen, bzw. darauf zu vertrauen, dass ein großer Teil von Providern gar nicht daran denkt, das umzusetzen. Auch wenn mein Provider die IP Adressen nicht mehr in den Log Files protokolliert – auf meinen Seiten läuft in einem 1×1 Pixel großen IFrame ein PHP Script, dass jeden Zugriff auf eine meiner Seiten protokolliert. Ca. 60% aller Header haben eine IP Adresse und mit einem Lokalisierungsdienst weiß ich relativ genau Bescheid, welcher User aus welcher Stadt wie oft und wie lange auf meiner Seite surft. Ich kenne den Browser, das Betriebssystem, die Admin Adresse seines Providers. Selbst Google Analytics zeigt diese Daten nicht. Ich kann bestenfalls die Provider bis auf ein Bundesland einschränken.

Seitenbesucher mit IP Adresse lokalisiert
Besucher auf einer meiner Seiten gestern / vorgestern – IP Adressen werden mit einem Script sofort lokalisiert.
Das ist nicht überraschend und nichts weltbewegendes. Wenn man dann aber vielleicht noch den Namen eines Haustieres kennt, ein Geburtsdatum eines Familienmitgliedes und mit Kali-Linux über alle Tools verfügt, um diese Informationen in allen gängigen Varianten zu kombinieren, dann kommt man schon ins Grübeln. Wie man an persönliche Informationen kommt? Ganz einfach – auch dafür gibt es Tools, die in Social Media die Texte durchforsten, ja sogar aus Fotos und Office Dokumenten die Metadaten gesammelt auslesen und zu einem Dossier zusammenstellen. Da muss nur einmal der richtige Hinweis irgendwo auftauchen und schon hat man einen brauchbaren Ansatz. Ein Foto mit dem Untertitel „Mein Fiffi und ich“ ist tödlich, wenn der Fiffi irgendwo Teil eines Passwortes ist.
Nur Passwörter ab 16 Stellen mit Großbuchstaben, Zahlen und Sonderzeichen bieten eine gewisse Sicherheit. Um sich solche Passwörter zu merken oder erstellen zu lassen, gibt es brauchbare, kostenfreie Tools (hier ein Beispiel).

Kali-Linux
Kali-Linux: Ein einfacher Portscan mit nmap – mit „host“ vorher die IP Adresse ermittelt

Ich werde von den weiteren Schritten hier keine Screenshots machen. Ein einfacher(!) Portscan von www.killert.de (siehe oben) zeigt mögliche, aber nicht ungewöhnliche Angriffspunkte. Ein weitergehender Scan der anderen ca. 2000 Ports hat noch andere interessante Aspekte gezeigt. Aber ich scanne da meinen Provider und nicht mein eigenes Netzwerk.

Nun, ich vermelde hier, wenn ich neue Erkenntnisse gewinne.

Hier geht es zu Kali-Linux (vollkommen legal, wenn man es ethisch unbedenklich einsetzt)

SEO


Jetzt, wo ich eine annehmbare Lösung als Integration von Blog, Shop und Info-Seiten gefunden habe, stellt sich natürlich die Frage, wie mache ich meine Seite bekannter? Dabei kommt es mir nicht auf jeden Blogeintrag an, sondern vor allem darauf, die Produkte bei code-is-poetry so zu beschreiben, dass sie von Google zuverlässig gefunden und dargestellt werden.
Das Thema „SEO“ (Search Engine Optimization) ist eines der Schlüsselthemen unserer Zeit. Denn ein Unternehmen ist umso erfolgreicher, je weiter es sich im Ranking der Google-Seiten etabliert. Wie also legt Google diese Reihenfolge fest? Das ist das große Geheimnis eines sich ständig verändernden Algorithmus, mit dessen Ergründung wiederum zahlreiche Informatiker und Dienstleister ihr Geld verdienen. Ich selbst habe mir auch zwei richtig dicke Wälzer zu dem Thema gekauft. Aber hier ist Vorsicht das Gebot der Stunde – es gibt letztlich niemanden, außer den Machern bei Google selbst, die das Geheimnis kennen. Vermutlich ist es auch nicht nur ein Geheimnis. Es ist die Verzahnung verschiedener logischer Elemente.
In den Anfangszeiten des Internets reichte es, wenn man die wichtigsten Suchbegriffe (wir alle wissen, welche schlüpfrigen Begriffe gemeint sind) als Meta-Keywords in den Header seiner Seite eingetragen hat. Heute ist es so, dass die meisten Experten der Auffassung sind, dass diese Keywords gänzlich nutzlos sind. Die Keywords werden vielmehr durch die Verteilung semantisch zusammenhängender Schlüsselwörter im Inhalt selbst von Google generiert. Entscheidend ist dabei, wie gut die Beschreibung der Seite zu diesen Keywords passt. Beispiel: Ich schreibe eine Rezension über ein bestimmtes Buch. Die Beschreibung, die ich für Google hinterlege, beinhaltet jedoch weder den mindestens 10mal im Text erwähnten Namen des Autors, noch den Titel des Buches selbst. Die Indexierung durch Google ist dann nicht optimal.
Diese Art der Optimierung nennt man „On-Site“ Optimierung. Zu ihr gehört auch, dass die Seite regelmäßig auf Inkonsistenzen geprüft werden sollte (tote Links, fehlende Medien). Lange Zeit hatte man auch den ALT Tag von Bildern im Verdacht – ein konsequentes Nutzen dieses Tags deute auf eine konsequente Pflege der Seite hin und die Seite stiege damit im Ranking. Meine Recherchen haben ergeben, dass das eher drittrangig ist.
Sehr wichtig scheint seit einiger Zeit die „Breadcrumb-Navigation“ zu sein. Seiten, die das bereits optimiert haben zeigen so etwas:
Breadcrumb-Navigation
Das ist die direkte Verlinkung eines Inhaltes innerhalb einer XML Struktur. Google nutzt zur Indexierung XML und bezieht diese aus den Sitemaps einer Seite. Diese Sitemaps sollten von allen bekannten Content Management Systemen sauber erzeugt werden. Was „sauber“ bedeutet erklären die Google Webmaster Tools
Die „Off-Site“ Faktoren sind jedoch ganz entscheidend. Nach wie vor ist die Verlinkung einer Seite das Top-Kriterium, um im Ranking bei Google aufzusteigen. Je öfter und je qualitativ hochwertiger ein Inhalt verknüpft ist, desto höher steigt er im Ranking. Auch hier hat Google seinen Algorithmus entscheidend weiterentwickelt. Konnte man früher noch sich selbst verlinken oder irgendwelche Referenztexte mit einem Link im Internet platzieren, so erkennt Google, ob der Link fundiert ist, also quasi aus einem eigenen Inhalt heraus platziert wurde. Ist das der Fall ist das ein fettes Plus im Ranking.
Da ich meine Seiten jetzt umgestellt habe, habe ich ein ganz besonderes Problem. Meine bisher wichtigsten, am meisten besuchten Beiträge hatten eine fest zugeschriebene Adresse. Die waren bei Google unter www.killert.debzw. www.kultur-magazin.deindexiert. Diese Domainen „schweben“ im Moment im Raum und sind nur als einfache Weiterleitungen eingerichtet. Sie sind im Ranking bei Google gar nicht mehr vorhanden. Zu lösen ist das Problem über die Änderungen der Nameserver bei meinem Domain-Anbieter. Dort werden die Name-Server von Jimdo hinterlegt und dann gibt es eine Verlinkung auf die Jimdo-Seite innerhalb der Domain-Namen. Das hat jedoch einen Rattenschwanz an Arbeit zur Folge. Sämtliche Subdomain (z.B. amrum.killert.de) werden dann nicht mehr funktionieren und auch E-Mail Adressen dieser Domainen müssen zeitnah neu eingerichtet werden.
Dann müssen Sitemaps neu eingerichtet werden, GoogleAnalytics braucht neue Zieladressen und es braucht Geduld. Für mich besteht zum Beispiel eine Herausforderung darin, in der Platzierung von XcelPack1 in die höheren Ebenen von Google aufzusteigen. Wer die Begriffe „Wechselkurs“ und „Excel“ eingibt, wird derzeit keinen Hinweis auf XcelPack1 finden. Das müssen aber die zentralen Begriffe sein, die zu meiner Seite führen sollen. Die Schwierigkeit hierbei ist jedoch, dass das XcelPack1 nicht einfach nur Wechselkurse anzeigt. Das können hunderte andere Tools auch. XcelPack1 stellt aber Millionen von möglichen Kombinationen bereit, die eben nicht einzeln abgefragt werden müssen – dieses Tool hat nicht die Menschen zur Zielgruppe, die mal eben einen Kurs abfragen müssen, sondern es ist für diejenigen interessant, die Kurse dynamisch in sich ständig veränderten Zeiträumen benötigen. Wie wird es mir gelingen, diese Besonderheit mit den eher einfachen, abstrakten Keywords „Wechselkurs“ und „Excel“ zu verbinden? Naja, vielleicht über einen Blogeintrag, der genau das zum Inhalt hat und auch bei Google im Index landet … 😉

Zusätzlicher Blog / Kurzes Update

Da in letzter Zeit verstärkt Posts hier auftauchen, die sich mit Programmieren und meinen code-is-poetry Projekten beschäftigen, diese Posts aber gleichzeitig nur einen kleinen Teil meiner Besucher interessieren, habe ich in der code-is-poetry.de Sektion einen eigenen Blog dafür eingerichtet.

Es wird sicherlich noch sehr viel mehr Postings dort geben – wer sich also für XcelPack1 & Co. interessiert wird sowieso den Weg zu diesen Seiten finden.

In meinem ersten Post dort berichte ich von den Änderungen, die bei der Installationsroutine für XcelPack1 notwendig waren. So gab es bereits das erste größere Update auf Version 1.10. Und ich denke, das Tool ist jetzt bereit, wirklich auf die Öffentlichkeit losgelassen zu werden.

Auch die Hörbücher „Große Herzen“ und die eingelesene Erzählung „Stille Helden“ sind jetzt hier im Shop verfügbar.