karlsCORE public – Ein etwas anderes SEO-Tool

Karl Kratz dürfte den meisten unserer Leser wohlbekannt sein – und sicherlich nicht nur von der letzten Seite jeder Ausgabe. Seine Ansätze sind meist etwas oder auch völlig ander(e)s. Was vielleicht nicht alle wissen: Er betreibt auch ein eigenes kleines Tool-Universum, in dem er Videos, Wissen und auch Dinge bereithält, die man für Suchmaschinenoptimierung einsetzen kann. Der Zusatz „public“ bei karlsCore meint nicht, dass man dort kostenlos Zugriff bekommen könnte. Diese Plattform kann nur jedes Unternehmen nutzen, denn karlsCore selbst wird wettbewerbsfrei gehalten, d. h., aus jeder Branche wird nur ein Unternehmen eingelassen und die Wartelisten sind laut dem Anbieter mittlerweile recht lang. Daher hat Karl Kratz schon vor Jahren einen für alle zugänglichen Teil eingegliedert, den karlsCore public. Mit einer (monatlich abrechenbaren) Eintrittskarte erhält man dort nicht nur Zugriff auf SEO-Tools, die in diesem Beitrag näher beleuchtet werden, sondern auch zu E-Books, Mediabooks, Videos, Codebeispielen, Begleitmaterial zu Seminaren und allerlei anderem nützlichem Material sowie gute Hilfestellungen.

Welche Ausrichtung hat karlsCORE public?

Wie bereits erwähnt, findet man bei karlsCORE public nicht nur Tools, die rein auf SEO ausgerichtet sind. Es handelt sich eher um eine Plattform, die viel hinterlegtes und abrufbares Wissen sowie auch Tools für die Optimierung für Google bereithält. Unter dem Menüpunkt „Wissen“ findet man wahrscheinlich mehr interessantes Material, als man je zu lesen die Zeit aufbringen dürfte. Dabei handelt es sich aber nicht um kurze Definitionen oder Hilfestellungen zu der einen oder anderen Toolfunktion, sondern man findet dort u. a. mehrstündige Videoaufzeichnungen von Konferenzen, ganze E- und Mediabooks und auch Codebeispiele, die man in die eigenen Webseiten einsetzen kann. Das Ganze wirkt wie eine kleine, aber sehr feine Buchhandlung für die Branche, in der ein Bibliothekar liebevoll Wichtiges gesammelt und sortiert hat.

Abbildung 1: Ein Ausschnitt aus der breiten Wissensdatenbank

Wie in Abbildung 2 zu sehen ist, hält das System derzeit 15 einzelne Module vor, drei weitere (grau dargestellt) sind aktuell in Entwicklung. Praktischerweise kann man sich die Kacheln nach eigenen Vorlieben sortieren und somit die häufiger genutzten Module zusammen weiter oben einstellen. Bis auf die Module „SEA Mitbewerber“ und „URL Shortener“ kann man die restlichen 13 für die SEO-Arbeit produktiv nutzen.

Abbildung 2: Die Werkzeugmodule von karlsCORE public im Überblick

Alle Module wurden mit einem einführenden und ausführlichen Screenvideo versehen, das Einsteigern hilft, sich auf Anhieb zurechtzufinden, und ganz nebenbei bekommen sie die ersten Tipps für eine effiziente Nutzung. Natürlich können wir hier wie immer aus Platzgründen nicht auf jedes einzelne Modul eines vorgestellten Tools eingehen, sondern haben subjektiv diejenigen ausgesucht, die wir für besonders wichtig oder nützlich halten.

Das Crawlertool

Der Crawler kann bis zu 10.000 URLs abholen und bei Bedarf auch mehr als fünf URLs pro Sekunde holen (aktuell bis zu 50 URLs/Sek.), falls man die eigene Domain analysiert und dazu dann eine spezielle vom Tool zur Verfügung gestellte Datei auf den Webserver hochlädt. Das dient zum Schutz, damit man nicht versehentlich eine Website durch zu viele Anfragen lahmlegt. Der Crawler geht auf Wunsch dabei intelligent vor und bevorzugt URLs höherer Hierarchieebenen. Sofern die Domain mehr als die 10.000 URLs hat, erwischt man so auf jeden Fall die wichtigeren Seiten. Laut dem Anbieter braucht das Crawlen von 5.000 URLs etwa eineinhalb Stunden. Wichtig zu wissen ist, dass sich „URLs“ tatsächlich auf die Anzahl der Dokumentseiten bezieht, nicht etwa auch auf alle Bilder, die oft ja bei anderen Tools den Großteil des Crawlingbugets beanspruchen. Nach dem Crawlvorgang erhält man Zugriff auf die sehr umfassende Auswertung.

Das Crawlermodul ist in verschiedene Reiter unterteilt: Technik, Indexierbarkeit, Onpage, Social, Ressourcen, Links, Report sowie ein Überblicksfenster. Diese Reiter halten dann jeweils eigene Unterreiter bereit, wie in Abbildung 4 beispielhaft zu sehen ist.

Abbildung 3: Eine erste Übersicht über die Websitestruktur (Modul Crawler, Übersicht)
Abbildung 4: Webtechnik im Durchblick: wichtige Parameter und Fehler im Check

Filter für die unten anstehenden URLs lassen sich in jeder Ansicht auf der rechten Seite per Mausklick aktivieren. Nach einem Klick auf „Ladezeit > 700 ms“ (Abbildung 4 Mitte rechts bei „Ladezeit“) werden dann nur noch die URLs angezeigt, um die man sich kümmern sollte. Das Tool folgt bei den Analysen der Empfehlung von Google für 200 ms für „Time to First Byte“. Ebenso bringt ein Klick auf den Filter „Statuscode 404“ sofort die Übeltäter ans Tageslicht.

Abbildung 5: Housekeeping und Textanalyse: Wie lang, lesbar und eindeutig sind Ihre Texte?

Bekanntlich ist die interne Verlinkung für das Ranking nicht unerheblich. Suchmaschinen wie Google werten nicht nur die Anzahl der eingehenden Links für eine URL aus, sondern u. a. auch die Ankertexte der Links. So sollte man tunlichst vermeiden, mit dem gleichen Textanker auf unterschiedliche Dokumente zu verlinken. Der Linktext sollte also immer „unique“ sein, ansonsten verwässert man für die maschinelle Analyse die Relevanz der Seite(n). Wie schnell verwendet man aber einen gleichen Linktext auf unterschiedliche Seiten? Nachdem noch immer weder Shopsystemhersteller noch solche für CMS sich darum scheren, den Anwender genau dies nicht tun zu lassen, muss man hier wie an so vielen anderen Stellen auch selbst dafür Sorge tragen. Das geht realistischerweise nur unter Zuhilfenahme entsprechender Tools. Hierfür listet das Modul sowohl interne als auch externe Ankertexte bzw. deren Anzahl entsprechend auf. Geprüft wird weiterhin die Existenz der angelinkten externen Ziele auf Erreichbarkeit oder Weiterleitung.

Eine Besonderheit, auf die man unbedingt extra hinweisen muss, ist die Berechnung des PageRanks sowie des CheiRanks und die Kombination aus beiden, der sog. HubRank. Die Theorie hinter dem PageRank dürfte hinlänglich bekannt sein: Je mehr wichtige Seiten auf eine andere Seite verlinken, umso bedeutender wird auch diese. Dabei teilen sich alle abgehenden Links von einer Seite diesen vererbbaren Wert auf. Gehen 100 Links ab, kann vereinfacht erklärt jeder ein Prozent davon an die verlinkte Seite vererben. Sind es 200, bleibt nur noch ein halbes Prozent. Man darf sicher davon ausgehen, dass Google bei der Berechnung mittlerweile gegenüber dem Originalpatent hier diverse Unterschiede macht und z. B. Footer- oder Sidebar-Links weniger und Links aus dem primären Contentbereich mehr Bedeutung mit auf den Weg gibt – was auch Sinn macht. Während der PageRank also die Anzahl, vor allem aber die Bedeutung der eingehenden Links aufsummiert, macht der sog. CheiRank genau das Gegenteil. Er wird von der Anzahl der abgehenden Links einer Seite bestimmt und misst somit vereinfacht erklärt das Zentralitätsmaß einer Seite. Die Frage dahinter: Von welchen Seiten kommt man mit möglichst wenig Klicks zu allen anderen Seiten? Es dürfte klar sein, dass eine solche Kennzahl sehr nützlich für die Ausspielung im Ranking sein kann. Im Zweifel oder bei Seiten, die ansonsten ähnliche Werte für eine Suchphrase aufweisen, sollte man die bevorzugen, von der aus der Suchende möglichst schnell überall anders hingelangt – und eben nicht in Ebene zwölf landet und einen weiten (Klick-)Weg zurücklegen müsste, falls die einzelne Seite nicht genau passend wäre.

Das Crawlertool errechnet nun als Kombination aus den beiden Werten PageRank und CheiRank den sog. HubRank. Er zeigt an, welche Seiten die wertvollsten internen Links aufsammeln und gleichzeitig vom Klickgraphen her gesehen eher in der „Mitte“ der Webseiten steht (bezogen auf die internen Linkbeziehungen). Ergeben sich krasse Abweichungen gegenüber dem Gewollten für die eigene Site, sollte man hier ggf. mit einer Linkoptimierung ansetzen. In Abbildung 6 ist im oberen Teil (Ziffer 1) sehr gut zu sehen, dass hier Handlungsbedarf besteht. Die Seite mit den Fachbüchern ist im Berechnungsgeflecht die wichtigste Seite. Sehr viel weiter unten kommt dann die eigentliche Startseite. Das sollte nicht so sein und muss „repariert“ werden.

Abbildung 6: Page-, Chei- oder HubRank – wie hätten Sie es denn gerne?

Im unteren Teil von Abbildung 6 erkennt man als Spaltenüberschrift (Ziffer 2) die drei Metriken nochmals, allerdings mit dem Präfix „Content“. Hier werden nur die Links zur Berechnung herangezogen, die im eigentlichen Contentbereich zu finden sind, also ohne Navigation, Kopf-, Fuß- oder Seitenbereich. Die Funktion ist laut dem Anbieter noch im Beta-Stadium. Die sog. „Boilerplate“ aus Webseiten herauszurechnen, ist kein einfaches Unterfangen, kommt aber wahrscheinlich dem, was Google mittlerweile tut, deutlich näher.

Ein besonderes Feature ist dabei die interne „Texteindeutigkeit“: Sie listet die URLs auf, deren Texte sich ähnlich sind – bis hin zur Dublettenerkennung.

Neben eigenen Reports über heruntergeladene Metriken bietet das Tool auch eine Reihe häufig von Nutzern nachgefragter fertiger Reports an (Abbildung 7). Wer hier etwas vermisst, meldet es dem Betreiber und die bauen das nach einer kurzen Prüfung ggf. für alle Nutzer ein.

Abbildung 7: Häufig gebrauchte Berichte stehen auf Knopfdruck zur Verfügung

Wie gesund sind Ihre Seiten? Der Website Health Index

Mit dem Modul „Website Health Index“ lassen sich einzelne URLs dauerhaft auf Veränderungen überwachen. Wie in Abbildung 8 zu sehen ist, wird dabei unterschieden (Ziffer 1) in die Kategorien Health Index (Übersicht), Indexierbarkeit, Inhalt, Onpage, Social, URL, Technik und Monitoring (Rankingüberwachung bei Google und Bing). Ein Klick auf eine Kategorie wechselt dann in diese und zeigt den zeitlichen Verlauf der Metrik (Ziffer 2). Unten werden dann die überwachten URLs gelistet und die einzelnen Metriken, die den Kategorieindex bilden. Diese Einzelwerte lassen sich ebenfalls anklicken (Ziffer 3) und weisen dann wiederum ihre innere Zusammensetzung auf. Im Beispiel wurde unter „Technik“ für eine URL der Wert „Caching“ aufgerufen. Von den beiden Werten ist einer die serverseitige Komprimierung, die man aus Performancegründen immer aktivieren sollte. Wie zu sehen ist, ist diese Komprimierung (GZip) nicht aktiv – warum auch immer. Auch das müsste gefixt werden und bringt natürlich ab sofort einen Geschwindigkeitsvorteil.

Das Website-Health-Index-Werkzeug liefert Online-Marketing-Verantwortlichen zwei wichtige Informationen:

  1. Einen dauerhaften Überblick über die „Gesundheit“ ihrer eigenen Website: Veränderungen können direkt analysiert und bis auf kleinste Details dargestellt werden. Gleichzeitig lassen sich für Veränderungen auch Benachrichtigungs-Prozesse für beliebig definierbare Teams festlegen: Dann erhält z. B. das Content-Team eine E-Mail, wenn sich wesentliche Ranking-Werte verändern.
  2. Einen detaillierten Einblick in die konkreten Tätigkeiten von Marktbegleitern: „Welcher Wettbewerber hat welche Änderungen an seiner Website vorgenommen und welche Auswirkungen, z. B. im Ranking, hatten diese?“ Mit wenigen Klicks kann eine dauerhafte Wettbewerbsanalyse erfolgen und zur Prävention automatisiert werden: Sobald ein Marktbegleiter zum Beispiel Texte intensiviert, wird das eigene Content-Team benachrichtigt. Das ermöglicht eine schnelle Handlung, bevor Ranking-Effekte beim Wettbewerber greifen.

Das Website-Health-Index-Werkzeug beendet so in gewisser Weise den „digitalen Blindflug“ und verschafft einen Überblick über die „Gesundheit“ der wichtigsten URLs einer Website – und die der Mitbewerber. Das Tool unterscheidet sich von anderen Monitoring-Werkzeugen unter anderem auch darin, dass der Anwender für sein Projekt individuell auf Domain- und URL-Ebene definieren kann, „was wichtig ist – und was nicht“.

Abbildung 8: Wie verändern sich wichtige Bestandteile der Website – wird sie gesünder oder immer kränklicher?

Expertenwissen strukturiert direkt anwenden

Mit dem Werkzeug Everythink greift der Benutzer direkt auf eine komplette Wissensdatenbank voller Expertenwissen in Form von „Karten“ zu: Aktuell ist in karlsCORE public ein Kartenset für professionelle Site-Kliniken hinterlegt.

Wer z. B. seine Website verbessern möchte, geht systematisch die vielfältigen Karten durch und wendet die Fragen auf seine Webseiten an. Relevante Karten/Fragen werden auf einem Dashboard nach ihrer Dringlichkeit bzw. Wichtigkeit abgelegt.

Abbildung 9: Das Kartenset in „Site-Clinic“ hilft u. a. beim Priorisieren

Mit dem Klick auf die Aufgaben-Liste erhält man eine priorisierte Liste, die gemeinsam mit Team-Kollegen oder externen Dienstleistern abgearbeitet werden kann. Dazu ist ein leicht bedienbares Berechtigungs-System bereits integriert. Durch die wirklich recht breit angesetzten Kartensets bleiben sowohl wichtige Details als auch übergreifende Dinge auf dem Radar.

Nach Angaben des Betreibers erscheint als Nächstes ein Kartenset zur technischen Analyse. Das soll es auch Nicht-Technikern erleichtern, z. B. ihre Agentur präzise zu briefen und die Tätigkeiten zu überwachen. Everythink ist übrigens auch in karlsCORE free komplett frei nutzbar unter www.online-marketing.net/karlscore-free/.

Die Contenterstellung

Für die Erstellung von Content kann man gleich mehrere Module nutzbringend einsetzen: das Fragen-Tool, das WDF*IDF-Tool, die Schnellanalyse, den Suchbegriff-Finder und das Content-Tool.

Das Fragen-Tool

Nach Eingabe eines Suchbegriffs sucht dieses Tool nach den typischen Wer-, Wie-, Was-Fragen zu diesem Wort im Web. Dabei lassen sich der Umfang und die Suchtiefe nach dem eigenen Bedarf einstellen. Die Fragen und ggf. die dafür zu findenden Antworten helfen der eigenen Inspiration beim Finden von sinnvollem Text, der Besucher (hoffentlich) interessiert.

In Kombination mit dem Ebenen-Modell aus dem Wissensbereich des Tools versetzt das Fragen-Tool Texter in die Lage, besonders effiziente Frage-Antwort-Kombination zu erstellen und tatsächlich eher wirklich einzigartige Inhalte zu generieren.

Abbildung 10: Fragensammlung zu einzelnen Themen: Das Fragen Tool

Das WDF*IDF-Tool

Zur Erklärung von WDF*IDF hatten wir in der Website Boosting schon vergleichsweise viele Beiträge (siehe auch den Titelbeitrag in Ausgabe 18 (online abrufbar unter einfach.st/wdf18). Daher hier nur kurz die Erklärung, dass man damit anhand zu einer Suchphrase rankender Dokumente versucht, die semantisch „wichtigsten“ Wörter zu extrahieren, die zu dieser Suchphrase gehören. Man geht davon aus, dass für Google & Co. erst dann für eine Phrase ein gutes Ranking erzielt werden kann, wenn häufige Kookkurrenzen bzw. Proof-Keywords ebenfalls auf der Seite vorhanden sind. Wer einen umfassenden Text über Schuhe schreibt, wird nicht umhinkommen, auch Wörter wie Leder, Größe, Sohle oder Schnürsenkel zu verwenden. Das Tool hilft dabei, solche Wörter zu identifizieren, um sie bei eigenen Texten zu ergänzen, sofern sie noch fehlen. Dadurch wird der Text für eine semantische Analyse „holistischer“.

Einzelseiten-Schnellanalyse

Nach der Eingabe einer URL analysiert dieses Modul die Verwendung einzelner Wörter und führt eine Termgewichtung durch. Eine solche Analyse der Startseite von websiteboosting.com (Abbildung 11) zeigt das Problem ständig wechselnden Contents. In der neuen Version werden jeweils einzelne Beiträge angeteasert, die man online lesen kann. Daher schwanken die Begrifflichkeiten nicht nur immer wieder, auch deren Zusammensetzung und -wirkung ist hinsichtlich bestimmter Rankingbegriffe so nicht mehr gut steuerbar. Für diese Startseite mag das hinsichtlich der Besucherabsichten zu vernachlässigen sein, aber für spezielle Landingpages zu besonderen Themen sollte man ggf. schon mehr darauf achten, dass bei einer maschinellen Analyse die richtigen Begriffe oben die Köpfe herausstrecken. In unserem Fall haben wir bei Terminen häufiger das Wort April verortet, daher dominiert dieses Wort rein technisch gesehen. Wie immer gilt, solche Auswertungslogiken nicht stur und ohne Einschalten des eigenen Verstandes eins zu eins zu übernehmen bzw. umsetzen zu wollen. Das und ähnliche Tools geben Hilfestellung und man sollte immer nur das ausführen, was auch inhaltlich Sinn macht. Oder wie Karl Kratz immer zu sagen pflegt: Versuche nicht, einen Text in eine Kurve einzuprügeln!

Abbildung 11: Oh, oh … Unsere Startseite sendet nicht unbedingt die besten Textsignale

Das Herzstück: Content-Tool

Im Modul „Content Tool“ findet man neben einer kleinen Verwaltungsebene einen umfassenden Editor zur Texterstellung inklusive einer HTML-Formatierungsmöglichkeit. Eingegebener oder einkopierter Text lässt sich hier nach allen Regeln der Kunst veredeln und sinnvoll ergänzen. Neben verschiedenen Metriken über den Text selbst (statistische Daten, struktureller Aufbau wie z. B. H1, Anzahl von Listen etc. sowie Lesbar- und Verständlichkeitsmaße), Termgewichtungen (auch sog. beweisführende Therme und die Textunterschiedlichkeit), gibt es auch nützliche Funktionen zur Recherche. Hier werden automatisch je nach dem verwendeten Text Fragen zum Thema angezeigt, KeywordIdeen und -Kombinationen und eine automatische Synonymdatenbank. Diese hilft, es zu vermeiden, ein bestimmtes Wort allzu oft in einem Text zu verwenden (Abbildung 12, Ziffer 1). Im Reiter „Briefing“ gibt es dann wirklich eine extrem umfangreiche Unterstützung bei der Erstellung von Briefings für (externe) Texter.

Nicht unterschätzen sollte man die zunächst unscheinbare Funktion „Unterschiedlichkeit“: Sie gibt wertvolle Hinweise, welche Begrifflichkeiten zu einem thematischen Begriffs-Cluster gehören, jedoch auf gut rankenden Wettbewerberseiten eben nicht maßgeblich vorkommen: Eine wirklich schlaue Methode, um systemunterstützt Einzigartigkeit und Unterschiedlichkeit gegenüber bereits rankenden Seiten zu erzeugen.

Bekanntlich wird ein zugelieferter oder zugekaufter Webtext nur so gut, wie es das Briefing erlaubt. Wer heute noch Texte bestellt, die einfach um ein bestimmtes Keyword herum geschrieben werden, ist selbst schuld, wenn die Besucher beim Lesen Unwohlsein verspüren und die Suchmaschine gelangweilt gähnt, weil sie diesen Text so ähnlich schon mehrfach gelesen hat. Was tun ungebriefte Texter? Sie googeln via Keyword und raspeln sich den Text aus den Fundstellen zusammen – jeder hat es ein klein wenig umgeschrieben, mit zum Teil anderen Wörtern. Das Problem ist nur, dass das eben alle externen Texter machen und am Ende ein Textpool von immer denselben zum Suchbegriff bereits rankenden (!) Seiten entsteht. So kann man nicht besser als andere werden – im Gegenteil baut man sich das Hinterherlaufen praktisch fest ins (Text-)Geschäftsmodell mit ein.

Hier helfen die vorgegebene Struktur und die vielen Informationen des Tools, individuell zusammenzustellen, was man wirklich haben möchte, wer Zielgruppe ist, welcher Wert vermittelt werden soll und noch sehr viel mehr. Das macht echte Mühe, all das zusammenzutragen. Aber am Ende fragt man sich, wie flach und unüberlegt dahingeworfen frühere Textaufträge nach außen (oder auch innen) weitergegeben wurden.

Abbildung 12: Das Content-Modul lässt praktisch keine Wünsche mehr offen

Service und Hilfe

Für jedes Modul hat Kratz ein Video aufgesetzt, in dem er den Einsatz erklärt. Gleich auf der Startseite gibt es ein für alle sichtbares Board, in dem man Fragen und Anregungen hinterlassen kann. Die Antworten kommen in der Regel sehr schnell. Hier wird also nichts versteckt und erfrischend offen kommuniziert. Im Hauptmenü gibt es eine eigene Funktion „Feedback“ (Abbildung 13). Witziges Detail am Rande: Man merkt an solchen Stellen, dass Kratz das von ihm ständig geforderte Thema Emotionalität auch in das eigene Tool packte. Klickt man das Feedback-Fenster auf, gibt es dort keinen schnöden „Abbrechen“-Button wie sonst üblich, sondern „Doch kein Feedback“. Hört man mit einem offenen Ohr in den eigenen Kopf, erkennt man, dass es einem irgendwie einen Tick schwerer fällt, das Formular unkommentiert einfach wieder zu schließen – oder? Abbrechen meint Rückzug, es ist nichts passiert bisher. Etwas „doch nicht zu machen“, zahlt gedanklich in eine andere Hirnschublade ein.

Vielleicht ist auch das eine weitere Art der Hilfe im Sinne eines Stupsers, aus der bei der Benutzung der Plattform zu spürenden Wärme in der Kommunikation etwas für die Kundenkommunikation auf der eigenen Website zu lernen. Das funktioniert natürlich nur, wenn man sich bewusst macht, welche Mechanismen dahinterstecken – oder eben die vielen hinterlegten E-Books liest. Theorie und Praxis.

Abbildung 13: Auf „Doch kein Feedback“ zu klicken, fällt psychologisch gesehen spürbar schwerer …

Ein kleines Erlebnis mit dem Betreiber verdeutlicht vielleicht, wie hoch man Service und Kundenzufriedenheit dort hält. Im Bereich der Werkzeuge gibt es eine Auswertung aller internen Links nach Page-, Chei- und HubRank sowie weitere berechnete Metriken. Diese Daten hätten wir gerne als Download gehabt, um intern selbst damit weiterarbeiten zu können. Eine kurze diesbezügliche Anfrage, dass dies doch ganz nützlich wäre – und es kam nach etwa 90 Minuten eine Mail zurück. Nicht etwa mit dem Hinweis, man werde das prüfen und ggf. auf die Updateliste setzen, sondern mit dem Hinweis, dass dieses Feature eben eingebaut wurde und ab sofort nutzbar sei (Abbildung 14).

Abbildung 14: Vorher – nachher: Nach ca. 90 Min. war die nachgefragte Funktion bereits verbaut …

Preise

Der Zugang zu karlsCORE public ist für 180.- zzgl. MwSt. pro Monat zu haben. Für einen Buchungszeitraum von drei Monaten (170.- €/Monat netto) und sechs Monate (160.- €/Monat netto) gibt es jeweils zehn Euro Rabatt auf den Monat. Bezahlt werden kann mit Kreditkarte oder PayPal. Je nach gewünschten Einstellungen verlängert sich der Account jeweils oder läuft einfach entsprechend aus. Es entstehen also keine automatischen Verlängerungsketten, wenn man dies nicht möchte bzw. Bedenken hat, eine Kündigung zu vergessen. Das ist fair.

Angesichts der nutzbaren Tools, aber unbedingt auch wegen des vielen dort abrufbaren Zusatzwissens lohnt sich karlsCORE public sicherlich für die allermeisten Unternehmen. Da es keinen Testzugang gibt, muss man sich entscheiden, ob man das Risiko eingeht, sich für einen Monat für 180.- € dort umzusehen. Auf jeden Fall sollte man hier einigen Zeitaufwand einplanen. Mal schnell reinsehen, ein wenig herumklicken und das eine oder andere Mediabook aufzuklicken, ist sicher keine gute Strategie. Für karlsCORE public sollte man sich Zeit nehmen und neben den SEO-Tools vor allem das dort abrufbare Wissen in Ruhe durchsehen. Erst dann kann man wirklich entscheiden, ob und wie lange dortzubleiben und sich für einen selbst lohnt.

Wie alle bisher getesteten Tool gilt auch und ganz besonders hier, dass kein Tool wirklich zu teuer ist. Es hängt ausschließlich davon ab, ob man es wirklich nutzt und, na ja, auch was man davon in die eigene Website einfließen lässt. Alles in allem erscheint karlsCORE public als eine wirklich gute Investition.

Tipp

Wer sich karlsCORE in einem allerdings sehr reduzierten Umfang ansehen möchte, meldet sich einfach zuerst bei karlsCORE free an: Diese Version umfasst das Everythink-System, das Fragen-Tool, den URL-Shortener und ein nützliches E-Book: www.online-marketing.net/karlscore-free/.

Fazit

karlsCORE public enthält, wie in Abbildung 2 bereits ersichtlich war, noch sehr viel mehr Module, als wir hier beschreiben konnten. Und es werden ständig mehr. Wir sind besonders auf das angekündigte Modul „Domainfokus“ gespannt. Bekanntlich gibt es Patente von Google, in denen man beschreibt, wie man domainweit Keyworddichte und einen WDF*IDF-Ansatz (US Patent 7996379 B1) durchführen kann, um die thematische Ausrichtung einer Domain zu analysieren. Und auch im Google Research Blog findet man dazu Hinweise mit dem vielsagenden Titel „Teaching machines to read between the lines“ (https://einfach.st/rbtl2).

Neben vielen nützlichen Tools zur Unterstützung der Optimierung für Suchmaschinen findet man bei karlsCORE public auch wie bereits erwähnt noch andere Funktionen für die Online-Arbeit und vor allem sehr viele weiterführende Dokumente und inspirierende E-Books. Darüber hinaus haben Nutzer, die am 25. Oktober 2019 ein aktives karlsCORE-public-Konto besitzen, freien Zugang zum jährlichen karlsCORE-Event mit vielen spannenden Themen. Und vielleicht ist es auch genau diese Mischung, die karlsCORE public so interessant macht? Nicht die ausschließliche Konzentration auf Suchmaschinenoptimierung, sondern eben auch die auf den Besucher und die nötige Prozessunterstützung. Wer Karl Kratz kennt bzw. ihn schon einmal auf der einen oder anderen Konferenz gehört hat, weiß, dass er oft von Herzblut spricht, das man in seine Webseiten legen sollte. Eben genau dieses spürt man auch in seinen Tools. Und damit sind sie in jedem Fall eine deutliche Empfehlung wert.

Weitere Infos unter www.online-marketing.net/karlscore-public/




Fuzzylogik – Non-Brand-Reporting im SEO

Viele SEO-Reports zeichnen Woche für Woche dasselbe Bild. Die Kennzahlen organische Sessions, Bounce-Rate, Umsatz und diverse Sichtbarkeitsindizes werden gerne undifferenziert an das Management berichtet. Nur die wenigsten wissen, dass diese Kennzahlen nicht ausreichen, um die Performance von SEO richtig zu bewerten. Je nach Größe und Wachstum der eigenen Marke korreliert ein großer Anteil des SEO-Erfolgs mit anderen Marketingaktivitäten, die die SEO-Erfolgsmessung maßgeblich verzerren. Um diesen verfälschten Blick zu schärfen, ist es zwingend notwendig, die SEO-Ergebnisse differenziert zu betrachten. Eine Aufteilung des organischen Traffics zwischen Brand und Non-Brand ist hier ein erster richtiger Schritt.

Die Wege eines Kunden von der ersten Produktwahrnehmung bis hin zum finalen Kauf (Customer Journey) werden zunehmend komplexer. Diverse Marketingaktivitäten nehmen maßgeblichen Einfluss auf das Kaufverhalten der Kunden. Abbildung 1 soll diese Abhängigkeiten veranschaulichen.

Abbildung 1: Customer Journeys

In der ersten Customer Journey sieht der Kunde einen TV-Werbespot und sucht anschließend auf seinem Smartphone nach einem generischen Keyword plus Markenname. Mit dem Vince-Update aus dem Jahr 2009 erhalten Marken bei Google eine höhere Relevanz. Die Suchmaschine erkennt anhand von Suchbegriffen eine womöglich präferierte Marke und spielt diese bei entsprechenden Suchanfragen auf den oberen Positionen aus. Top-Positionen sind bei diesen Suchanfragen garantiert. SEOs sollten sich dementsprechend auf die Optimierungen im Non-Brand-Bereich konzentrieren.

Die zweite Customer Journey zeigt einen Kunden, der sein Fahrrad reparieren möchte. Es sucht nach passenden Ersatzteilen anhand diverser generischer Suchbegriffe und technischer Bezeichnungen. Dieser Kunde ist nicht voreingenommen und besitzt keine Markenpräferenz. Die Wahrscheinlichkeit, dass hinter dieser Customer Journey ein Neukunde steckt, ist hoch. Genau diese Suchanfragen sind es, die sich im Non-Brand-Traffic widerspiegeln und anhand derer der Performance-Marketing-Kanal SEO gesteuert und gemessen werden sollte.

Vorbereitung und Daten, Daten, Daten

Im Statistikunterricht wurde eines klar: Je größer die Stichprobe ist, desto genauer ist das Endresultat. Google stellt für Webmaster unter dem Namen Google Search Console (GSC) ein Tool zur Verfügung, mit dem sich die Performance der eigenen Website in der Google-Suche messen lässt. Öffnet man den Performance-Report in diesem Tool, ist es leider nur möglich, maximal 1.000 Zeilen eines konfigurierten Filters als CSV herunterzuladen. Bei bekannten Marken stecken in diesem Datensatz bereits viele Falschschreibweisen, die es möglichst genau zu kategorisieren gilt, um den Non-Brand-Traffic am Ende präzise bestimmen zu können.

Mehr Daten erhält man mit der von der GSC zur Verfügung gestellten Programmierschnittstelle (eng.: Application Programming Interface, kurz: API), mit der man mehr als 25.000 Datensätze pro Filter bekommt. Dieser umfangreiche Datensatz sorgt für eine höhere Genauigkeit im Endergebnis.

Da die Schnittstelle keine grafische Oberfläche zur Verfügung stellt, mit der die Daten gefiltert werden können, geschieht dies durch ein JSON(JavaScript Object Notation)-Objekt. Für diese Auswertung interessieren lediglich ein Start- und Enddatum sowie die Dimension Query (deutsch Suchbegriff). Das aktuelle RowLimit seitens Google liegt bei 25.000. Sollte dieser Filter mehr als 25.000 Zeilen liefern, können durch einen Offset und Paginierung weitere Zeilen abgefragt werden.

Abbildung 2: JSON-Filter

Das Ergebnis dieser Abfrage (Request) ist eine Liste (“rows”: []) mit Objekten ({…}). Jedes Objekt steht für eine Zeile, so wie sie im Frontend der Google Search Console zu sehen ist. Ein Objekt besitzt die in Abbildung 3 gezeigte Struktur.

Abbildung 3: Ergebnis der API-Abfrage

Google Search Console API mit Python abrufen

Um die Google Search Console API abfragen zu können, sind zwei Dinge wichtig: Einrichtung eines Dienstkontos unter console.cloud.google.com und die Authentifizierung gegenüber der API mit einem Client.

Zunächst wird nach erfolgreichem Log-in unter console.cloud.google.com ein Projekt und unter dem Menüpunkt IAM & Verwaltung/Dienstkonto ein neues Dienstkonto angelegt, bei dem darauf zu achten ist, dass ein JSON-Key generiert wird (siehe Abbildung 4). Dieser Key dient dem Programm als Authentifizierung.

Abbildung 4: Service-Account erstellen

Die E-Mail-Adresse des JSON-Keys muss anschließend als lesender Nutzer hinter die entsprechende Google Search Console Property gelegt werden. Nachdem der Service-Account erstellt und die E-Mail-Adresse eingerichtet ist, lässt sich die im Git Repository hinterlegte Datei api_requests.py ausführen. Dabei ist darauf zu achten, dass der Name des JSON-Key angepasst wird und die in Zeile 21 hinterlegte ‚siteURL‘ mit der URL der Property übereinstimmt. Die Zeilen 14–19 repräsentieren den in Abbildung 2 zu sehenden JSON-Filter.  

Traffic klassifizieren

Mehr als 25.000 Datensätze händisch nach Brand- und Non-Brand-Begriffen zu klassifizieren, wäre zu aufwendig. Ein programmatischer Ansatz ist bei dieser Auswertung nicht von der Hand zu weisen. Um Brand-Falschschreibweisen zu definieren, könnte man auf die Idee kommen, eine Regular Expression (kurz: regex) zu definieren. Dies wird die Brand-Begriffe sicherlich sehr präzise definieren, jedoch rutschen möglicherweise auch ähnliche Non-Brand-Keywords in diesen Filter, die das Bild erneut verzerren. Beispielsweise würde die regex r\t(.)*ch(.)* die Brand-Falschschreibweise „tschibo” sowie das Wort „tisch” als Brand-Keyword klassifizieren, was falsch ist. Regular Expressions sind also zu fehleranfällig, um ein klares Bild des Brand- und Non-Brand-Traffics zu erhalten.

Abhilfe schafft hier eine unscharfe Suche (oder auch Fuzzy-Suche), die nicht darauf aus ist, einen exakten Suchbegriff in einer Zeichenkette zu finden, sondern ähnliche Suchbegriffe. Ein bekannter Algorithmus in diesem Kontext ist die sogenannte Levenshtein-Distanz, welche u. a. in der Rechtschreibprüfung oder in der Duplikat-Erkennung angewandt wird.

Für die Programmiersprache Python steht das Modul „fuzzywuzzy“ zur Verfügung, mit dem die Levenshtein-Distanz zwischen zwei Wörtern bestimmt werden kann. Möchte man beispielsweise die Ähnlichkeit zwischen den Strings „this is a test” und „this is a test!” bestimmen, reicht ein simpler Aufruf der Methode ratio() am importierten Fuzz-Objekt. Die Levenshtein-Distanz pendelt zwischen den Grenzwerten 0 und 100, wobei 100 eine exakte Übereinstimmung definiert.

Abbildung 5: Levenshtein-Distanz in Python

Sample Daten und Programmcode

Um den Artikel übersichtlich zu halten, analysiert dieser Beitrag einen Datensatz von 10 Zeilen mit fiktiven Keyword- und Klickdaten (siehe Tabelle 2).

Da Suchende bei ihrer Suchanfrage den Markenbegriff entweder voranstellen oder anhängen, müssen die Keywords zunächst in einzelne Suchwörter zerlegt, sortiert und Dubletten entfernt werden. Anschließend wird zu jedem Suchwort die Levensthein-Distanz (LD) zu dem Begriff „tchibo” bestimmt (siehe Tabelle 1).

Suchwort Levenshtein-Distanz LD – 67
Tchibo 100 33
Tchibio 92 25
Tchibop 92 25
Tchobi 67 0
Tisch 55 -12
Schuhe 33 -34
Brotbackschale 30 -37
duschschlauch 21 -46
bett 20 -47
mode 20 -47
online 17 -50
bademantel 12 -55
bettgestell 12 -55
kaffee 0 -67
kaufen 0 -67

Tabelle 1: Suchwörter mit Levensthein-Distanz

Interessant ist der Übergang der LD zwischen 55 und 67. Ab dieser Schwelle können Keywords nach subjektiver Wahrnehmung Brands zugeordnet werden. Besitzt eine Kernmarke mehrere Untermarken, müssen die Schwellenwerte entsprechend pro Brand-Begriff festgelegt werden. Diese mehrdimensionale Analyse würde jedoch den Umfang dieses Beitrags sprengen. Beispielsweise besitzt die Kurzschreibweise TCM (Tchibo Certified Merchandise) bei Tchibo Brand-Charakter. Der Schwellenwert für diesen Begriff ist aufgrund der geringen Zeichenanzahl relativ hoch.

Um Keywords (insbesondere über mehrere Markenbegriffe) besser zuordnen und vergleichen zu können, wird der Schwellenwert von der LD subtrahiert. Dadurch können alle Einzelwörter des Keywords mit einer modifizierten Levenshtein-Distanz von größer/gleich 0 eindeutig Brand zugeordnet werden.

Abbildung 6: Programmcode zur Berechnung der LD

Nachdem der Schwellwert (eng. Threshold) bestimmt wurde, gilt es, den Testdatensatz zeilenweise zu iterieren (siehe Abbildung 6, Zeile 1). Für jede Zeile wird eine neue Liste (res) angelegt, die am Ende die modifizierte LD pro Suchwort beinhaltet. In Zeile 3 wird jedes Keyword am Leerzeichen getrennt. Für die daraus resultierenden Suchwörter wird die modifizierte LD berechnet und in der Liste res gespeichert. Ist das Maximum dieser Liste größer oder gleich 0, wird die Zeile um die Spalte Brand erweitert und erhält den Wert True (Zeile 5 & Abbildung 7) andernfalls den Wert False. Das Ergebnis dieses Durchlaufs ist der Tabelle 2 zu entnehmen.

Abbildung 7: JSON Objekt um Spalte „brand“ erweitert
Keyword Klicks Matrix (Result) Brand
tchibo duschschlauch kaufen 145 [33, -46, -67] True
tchibo mode online kaufen 356 [33, -47, -50, -67] True
tchibop kaffee kaufen 478 [25, -67, -67] True
bett online 25 [-47, -50] False
tchibio bademantel kaufen 789 [25, -55, -67] True
bettgestell kaufen 389 [-55, -67] False
schuhe online kaufen 323 [-34, -50, -67] False
tisch kaufen 35 [-12, -67] False
tchobi tisch kaufen 398 [0, -12, -67] True
tchibo brotbackschale kaufen 334 [33, -37, -67] True

Tabelle 2: Ergebnis des Programmcodes

Non-Brand-Verhältnis berechnen

Abbildung 8: Programmcode zur Berechnung des Non-Brand-Verhältnisses

Die Bestimmung des Non-Brand-Verhältnisses ist mathematisch relativ überschaubar. Der nun um die Spalte Brand erweiterte Datensatz (siehe Tabelle 2) wird zeilenweisen iteriert. Wenn der Brand-Wert einer Zeile den Wert True aufweist, werden die Klicks dieser Zeile auf die Variable brand_clicks addiert. Bei dem Wert False werden die Klicks entsprechend auf die Variable nonbrand_clicks addiert. Das Non-Brand-Verhältnis in dem festgelegten Zeitraum ist dann entsprechend:

Fazit und Zusammenfassung

Tchibo hat in Deutschland eine Markenbekanntheit von 99 %. Diese enorme Markenbekanntheit verursacht unzählige Falschschreibweisen und „Vertipper-Keywords“ auf deutschen Tastaturen. Mit dieser Methodik haben wir eine valide Grundlage geschaffen, die Erfolge unserer SEO-Abteilung fair zu bewerten.

Dass diese differenzierte Betrachtung nicht ausreicht, um die Performance von SEO zu beurteilen, ist eindeutig. Jedoch ist diese Methodik eine Grundlage für nachfolgende stichwortartige Gedankengänge, um den Non-Brand-Blick weiter zu schärfen:

  • Verbindung zwischen GSC und Google-Analytics-Daten via URL, um Non-Brand-Umsatz definieren zu können.
  • System sehr fehleranfällig bei generischen Marken wie bspw. „stoffe.de” oder „fahrrad.de“.
  • Non-Brand-Traffic pro URL/Kategorie und Zeiteinheit bestimmen, um den Erfolg von SEO-Tests zu messen, bspw. Änderungen der CTR im Non-Brand-Traffic bei der Änderung des Meta-Titles und der Meta-Description auf bestimmten URL.
  • Non-Brand-Ratio nicht sehr aussagekräftig! Interessant wird es, wenn Non-Brand-Traffic ins Verhältnis zu Suchvolumen-Potenzial gesetzt wird.
  • Report automatisiert pro Zeiteinheit ausführen und grafisch festhalten.