Mr. Robot und Kali-Linux

Ich schaue gerade die zweite Staffel von „Mr. Robot“, eine Serie, die auf Amazon mit der ersten Staffel schon einen kleinen Kultstatus erreicht und mit der 2. Staffel vom Zuschauer einiges an Geduld abverlangt. Denn die vielen Zeitsprünge, den inneren Zerwürfnissen des Protagonisten zu folgen und die nach sechs Folgen doch abgedroschene, weil immer gleiche Ästhetik – irgendetwas zwischen Fincher und Tarrantino – mit niemals in der Mitte des Bildschirms agierenden Personen … nun, das ist anstrengend. Wenn da nicht die vielen netten Einfälle wären, das Intro zu einer Folge mit Musik von Depeche Mode und der Tatsache, dass die Geschichte wirklich Neuland betritt, dann hätte ich die Serie vermutlich schon aufgegeben.

Am Ende der ersten Staffel hat „Fsociety“ (eine Art Anonymus Bewegung) die Firma „e-corp“, den größten Globalplayer auf dem Finanzmarkt, gehacked. Alle Schulden auf allen Bankkonten sind gelöscht und das gesamte Finanzsystem erfährt einen Reboot. Darum geht es in der zweiten Staffel.
In vielen Einstellungen blicken wir den Hackern über die Schulter. Sie nutzen ein Betriebssystem und Tools, die es tatsächlich gibt. Die Sprache der Hacker ist Python und das Betriebssystem nennt sich Kali-Linux. Eine Anleitung, genau abgestimmt auf Menschen wie mich, die über genug Grundwissen verfügen, um so ein System zu nutzen, aber keinen blassen Schimmer von den eigentlichen Tools haben, gibt es in mehreren Fachbüchern, die man ganz normal kaufen kann. Das macht mich natürlich neugierig. So neugierig, dass eines dieser Bücher meine aktuelle Lektüre ist und bei mir Kali-Linux in einer virtuellen Maschine läuft. Um es klar zu sagen: die Grauzone, in die man sich begibt, ist dunkelgrau. Denn so oft der Autor des Fachbuches auch betont, dass Netzwerkscans, Exploits etc. nur gegen Rechner angewendet werden dürfen, bei denen das „Opfer“ davon Kenntnis hat – die Versuchung, einen Schritt weiterzugehen ist natürlich groß.
Ich werde aber meine Kenntnisse, die auch nach der Lektüre im kleinen Rahmen bleiben werden, nur auf meine Systeme anwenden, d.h. mit einem Notebook mein eigenes Netzwerk hacken, Netzwerktraffic auslesen und schauen, was er verrät und einen Angriff von außen simulieren.
Im Moment bin ich an einem Punkt, in dem die Portscans beschrieben werden. Hat man eine IP Adresse ausfindig gemacht, dann kann man diese Adresse scannen und schauen, welche Ports dort zugänglich sind. Jder offene Port ist ein potentieller Einfallspunkt in den Rechner. Wie man eine IP Adresse herausfindet (und unglaublich viel zusätzliche Informationen) zu einem einfachen Namen einer Person oder eines Unternehmens – das ist der Teil der „Aufklärung“ ganz am Anfang. Jetzt geht es an die praktische Anwendung.

Hacker setzen vor allem auf eines: den Systemadministrator, der sich sagt „Never change a running system“ und Sicherheitspatche und ihre Hintergründe wohl eher als lästig abtut. Wer glaubt, dass das die Ausnahme ist, der irrt. Vor zwei Jahren gab es eine Initiative von Providern, die IP Adresse ihrer User zu anonymisieren. Damit ist keine gänzliche Anonymität gemeint– gemeint ist vielmehr das Fehlen der IP Adresse in den Metadaten während des Surfens, die in Log-Dateien gespeichert werden.
Ich kann aus eigener Erfahrung sagen, dass es ein Leichtes ist, dies zu umgehen, bzw. darauf zu vertrauen, dass ein großer Teil von Providern gar nicht daran denkt, das umzusetzen. Auch wenn mein Provider die IP Adressen nicht mehr in den Log Files protokolliert – auf meinen Seiten läuft in einem 1×1 Pixel großen IFrame ein PHP Script, dass jeden Zugriff auf eine meiner Seiten protokolliert. Ca. 60% aller Header haben eine IP Adresse und mit einem Lokalisierungsdienst weiß ich relativ genau Bescheid, welcher User aus welcher Stadt wie oft und wie lange auf meiner Seite surft. Ich kenne den Browser, das Betriebssystem, die Admin Adresse seines Providers. Selbst Google Analytics zeigt diese Daten nicht. Ich kann bestenfalls die Provider bis auf ein Bundesland einschränken.

Seitenbesucher mit IP Adresse lokalisiert
Besucher auf einer meiner Seiten gestern / vorgestern – IP Adressen werden mit einem Script sofort lokalisiert.
Das ist nicht überraschend und nichts weltbewegendes. Wenn man dann aber vielleicht noch den Namen eines Haustieres kennt, ein Geburtsdatum eines Familienmitgliedes und mit Kali-Linux über alle Tools verfügt, um diese Informationen in allen gängigen Varianten zu kombinieren, dann kommt man schon ins Grübeln. Wie man an persönliche Informationen kommt? Ganz einfach – auch dafür gibt es Tools, die in Social Media die Texte durchforsten, ja sogar aus Fotos und Office Dokumenten die Metadaten gesammelt auslesen und zu einem Dossier zusammenstellen. Da muss nur einmal der richtige Hinweis irgendwo auftauchen und schon hat man einen brauchbaren Ansatz. Ein Foto mit dem Untertitel „Mein Fiffi und ich“ ist tödlich, wenn der Fiffi irgendwo Teil eines Passwortes ist.
Nur Passwörter ab 16 Stellen mit Großbuchstaben, Zahlen und Sonderzeichen bieten eine gewisse Sicherheit. Um sich solche Passwörter zu merken oder erstellen zu lassen, gibt es brauchbare, kostenfreie Tools (hier ein Beispiel).

Kali-Linux
Kali-Linux: Ein einfacher Portscan mit nmap – mit „host“ vorher die IP Adresse ermittelt

Ich werde von den weiteren Schritten hier keine Screenshots machen. Ein einfacher(!) Portscan von www.killert.de (siehe oben) zeigt mögliche, aber nicht ungewöhnliche Angriffspunkte. Ein weitergehender Scan der anderen ca. 2000 Ports hat noch andere interessante Aspekte gezeigt. Aber ich scanne da meinen Provider und nicht mein eigenes Netzwerk.

Nun, ich vermelde hier, wenn ich neue Erkenntnisse gewinne.

Hier geht es zu Kali-Linux (vollkommen legal, wenn man es ethisch unbedenklich einsetzt)

SEO


Jetzt, wo ich eine annehmbare Lösung als Integration von Blog, Shop und Info-Seiten gefunden habe, stellt sich natürlich die Frage, wie mache ich meine Seite bekannter? Dabei kommt es mir nicht auf jeden Blogeintrag an, sondern vor allem darauf, die Produkte bei code-is-poetry so zu beschreiben, dass sie von Google zuverlässig gefunden und dargestellt werden.
Das Thema „SEO“ (Search Engine Optimization) ist eines der Schlüsselthemen unserer Zeit. Denn ein Unternehmen ist umso erfolgreicher, je weiter es sich im Ranking der Google-Seiten etabliert. Wie also legt Google diese Reihenfolge fest? Das ist das große Geheimnis eines sich ständig verändernden Algorithmus, mit dessen Ergründung wiederum zahlreiche Informatiker und Dienstleister ihr Geld verdienen. Ich selbst habe mir auch zwei richtig dicke Wälzer zu dem Thema gekauft. Aber hier ist Vorsicht das Gebot der Stunde – es gibt letztlich niemanden, außer den Machern bei Google selbst, die das Geheimnis kennen. Vermutlich ist es auch nicht nur ein Geheimnis. Es ist die Verzahnung verschiedener logischer Elemente.
In den Anfangszeiten des Internets reichte es, wenn man die wichtigsten Suchbegriffe (wir alle wissen, welche schlüpfrigen Begriffe gemeint sind) als Meta-Keywords in den Header seiner Seite eingetragen hat. Heute ist es so, dass die meisten Experten der Auffassung sind, dass diese Keywords gänzlich nutzlos sind. Die Keywords werden vielmehr durch die Verteilung semantisch zusammenhängender Schlüsselwörter im Inhalt selbst von Google generiert. Entscheidend ist dabei, wie gut die Beschreibung der Seite zu diesen Keywords passt. Beispiel: Ich schreibe eine Rezension über ein bestimmtes Buch. Die Beschreibung, die ich für Google hinterlege, beinhaltet jedoch weder den mindestens 10mal im Text erwähnten Namen des Autors, noch den Titel des Buches selbst. Die Indexierung durch Google ist dann nicht optimal.
Diese Art der Optimierung nennt man „On-Site“ Optimierung. Zu ihr gehört auch, dass die Seite regelmäßig auf Inkonsistenzen geprüft werden sollte (tote Links, fehlende Medien). Lange Zeit hatte man auch den ALT Tag von Bildern im Verdacht – ein konsequentes Nutzen dieses Tags deute auf eine konsequente Pflege der Seite hin und die Seite stiege damit im Ranking. Meine Recherchen haben ergeben, dass das eher drittrangig ist.
Sehr wichtig scheint seit einiger Zeit die „Breadcrumb-Navigation“ zu sein. Seiten, die das bereits optimiert haben zeigen so etwas:
Breadcrumb-Navigation
Das ist die direkte Verlinkung eines Inhaltes innerhalb einer XML Struktur. Google nutzt zur Indexierung XML und bezieht diese aus den Sitemaps einer Seite. Diese Sitemaps sollten von allen bekannten Content Management Systemen sauber erzeugt werden. Was „sauber“ bedeutet erklären die Google Webmaster Tools
Die „Off-Site“ Faktoren sind jedoch ganz entscheidend. Nach wie vor ist die Verlinkung einer Seite das Top-Kriterium, um im Ranking bei Google aufzusteigen. Je öfter und je qualitativ hochwertiger ein Inhalt verknüpft ist, desto höher steigt er im Ranking. Auch hier hat Google seinen Algorithmus entscheidend weiterentwickelt. Konnte man früher noch sich selbst verlinken oder irgendwelche Referenztexte mit einem Link im Internet platzieren, so erkennt Google, ob der Link fundiert ist, also quasi aus einem eigenen Inhalt heraus platziert wurde. Ist das der Fall ist das ein fettes Plus im Ranking.
Da ich meine Seiten jetzt umgestellt habe, habe ich ein ganz besonderes Problem. Meine bisher wichtigsten, am meisten besuchten Beiträge hatten eine fest zugeschriebene Adresse. Die waren bei Google unter www.killert.debzw. www.kultur-magazin.deindexiert. Diese Domainen „schweben“ im Moment im Raum und sind nur als einfache Weiterleitungen eingerichtet. Sie sind im Ranking bei Google gar nicht mehr vorhanden. Zu lösen ist das Problem über die Änderungen der Nameserver bei meinem Domain-Anbieter. Dort werden die Name-Server von Jimdo hinterlegt und dann gibt es eine Verlinkung auf die Jimdo-Seite innerhalb der Domain-Namen. Das hat jedoch einen Rattenschwanz an Arbeit zur Folge. Sämtliche Subdomain (z.B. amrum.killert.de) werden dann nicht mehr funktionieren und auch E-Mail Adressen dieser Domainen müssen zeitnah neu eingerichtet werden.
Dann müssen Sitemaps neu eingerichtet werden, GoogleAnalytics braucht neue Zieladressen und es braucht Geduld. Für mich besteht zum Beispiel eine Herausforderung darin, in der Platzierung von XcelPack1 in die höheren Ebenen von Google aufzusteigen. Wer die Begriffe „Wechselkurs“ und „Excel“ eingibt, wird derzeit keinen Hinweis auf XcelPack1 finden. Das müssen aber die zentralen Begriffe sein, die zu meiner Seite führen sollen. Die Schwierigkeit hierbei ist jedoch, dass das XcelPack1 nicht einfach nur Wechselkurse anzeigt. Das können hunderte andere Tools auch. XcelPack1 stellt aber Millionen von möglichen Kombinationen bereit, die eben nicht einzeln abgefragt werden müssen – dieses Tool hat nicht die Menschen zur Zielgruppe, die mal eben einen Kurs abfragen müssen, sondern es ist für diejenigen interessant, die Kurse dynamisch in sich ständig veränderten Zeiträumen benötigen. Wie wird es mir gelingen, diese Besonderheit mit den eher einfachen, abstrakten Keywords „Wechselkurs“ und „Excel“ zu verbinden? Naja, vielleicht über einen Blogeintrag, der genau das zum Inhalt hat und auch bei Google im Index landet … 😉

Zusätzlicher Blog / Kurzes Update

Da in letzter Zeit verstärkt Posts hier auftauchen, die sich mit Programmieren und meinen code-is-poetry Projekten beschäftigen, diese Posts aber gleichzeitig nur einen kleinen Teil meiner Besucher interessieren, habe ich in der code-is-poetry.de Sektion einen eigenen Blog dafür eingerichtet.

Es wird sicherlich noch sehr viel mehr Postings dort geben – wer sich also für XcelPack1 & Co. interessiert wird sowieso den Weg zu diesen Seiten finden.

In meinem ersten Post dort berichte ich von den Änderungen, die bei der Installationsroutine für XcelPack1 notwendig waren. So gab es bereits das erste größere Update auf Version 1.10. Und ich denke, das Tool ist jetzt bereit, wirklich auf die Öffentlichkeit losgelassen zu werden.

Auch die Hörbücher „Große Herzen“ und die eingelesene Erzählung „Stille Helden“ sind jetzt hier im Shop verfügbar.

XcelPack1

 

Ein großer Tag heute. Eine richtig gute Software gibt es jetzt bei code-is-poetry. Das ist der Anfang einer langen Reise, hin zu einem zweiten Standbein für den Dorfpoeten. Die zwei wichtigsten Dinge, mit denen ich mich jeden Tag beschäftige: Code und Literatur. Und ich setze sie gleich, mache mir das Leitmotiv der OpenSource-Bewegung zu eigen.

Dabei bin ich von OpenSource ganz weit entfernt. Mit dem XcelPack1 geht ein Produkt an den Start, das eben nicht OpenSource ist, sondern mit dem ich Geld verdienen möchte. Ein bisschen zumindest.

Wer jetzt denkt, “Ach, das gibt es bestimmt schon! Wechselkurse in Excel abrufen – klar gibt es das …!”

Nope. Gibt es nicht. Zumindest nicht als AddIn für Excel zu diesem Preis. Nicht tagesaktuell, nicht superschnell in der Berechnung von Durchschnittskursen. Nicht automatisiert. Sicher kann man auf zahlreichen Webseiten Wechselkurse nachschlagen – aber dynamisch integriert in der Excel-Arbeitsmappe? Das gibt es wirklich nicht in dieser Form, denn so eine Einbettung ist nicht ganz trivial. Ich muss es wissen, denn mein beruflicher Alltag ist seit Jahren von genau solchen Fragen geprägt. Und ich bin sicher es gibt Excel Akrobaten da draußen, die auf dieses Tool gewartet haben.

Neben dem XcelPack1 sind zwei andere Tools in der Mache. Jetzt kann man sich fragen, warum ich dazu ebenfalls Infos verbreite, auch wenn diese Tools noch nicht fertig sind. Das liegt daran, dass der Entwicklungsprozess von AutorTools und DataFork Teil des Produktes sind. Software ist nichts Statisches und neben den vielen Ideen und dem Stolz, etwas Produktives umzusetzen, schwebt auch immer die Angst vor den großen Bugs über der Tastatur des Dorfpoeten. Deshalb beginnt der Prozess der Entwicklung nicht erst mit einer Testversion, sondern viel früher – das Teilen von Ideen mit denen, die die Tools nutzen sollen, erschließt mir das, was man vielleicht in ferner Zukunft mal einen “Kunden” nennen kann … . So sehe ich das immer wieder auf vielen Seiten von Menschen, die ein ähnliches Ziel haben. Der Produktionsprozess wird dokumentiert – und das bindet eine potentielle Zielgruppe.

Aber genug geschwafelt. Einfach im Menu auf code-is-poetry –> XcelPack1 klicken. Und hier das XcelPack1 in Action: