R4SEO: Automatisierte Reports mit R generieren (Teil 2)

Im ersten Teil dieser Artikelserie in der letzten Ausgabe hat Ihnen Patrick Lürwer gezeigt, wie Sie mit R die Google-Analytics- und Search-Console- sowie SISTRIX-API abfragen können. Im vorliegenden Teil werden Sie lernen, die Daten so aufzubereiten, dass sie zur Darstellung im Report geeignet sind. Dazu werden Sie fehlende Datumspunkte in den DataFrames ergänzen. Sie werden den gleitenden Mittelwert für verschieden Metriken berechnen, um starke Schwankungen der Tagesdaten zu glätten. Außerdem erfahren Sie, wie Sie DataFrames transponieren, um sie von einem weiten in ein langes Format zu bringen.

Im letzten Artikel haben Sie Daten aus drei unterschiedlichen Quellen abgefragt, sodass Ihnen diese nun in tabellarischer Form (DataFrames) in R vorliegen. Aber wie das so häufig ist, haben die APIs die Daten nicht so geliefert, wie sie für die Report-Erstellung benötigt werden. Beispielsweise liefert die Google-Search-Console-API (GSC) nur Datumspunkte zurück, an denen auch tatsächlich Impressions bzw. Clicks stattgefunden haben. Es fehlen folglich die Tage ohne Impressions. Außerdem liegen die Daten auf Tagesbasis vor und sind demzufolge unter Umständen sehr volatil. Sie wollen sie daher glätten, um Trends besser erkennen zu können. Es ist somit unabdingbar, dass Sie die Daten „aufräumen“ und in eine entsprechende Form bringen, um sie für die Visualisierung verwenden zu können. Im Englischen spricht man in dem Fall von tidying – daher auch die Benennung des Packages tidyverse, das Sie verwenden werden. Viele der darin enthaltenen Funktionen dienen allein dazu, Daten zunächst in die richtige Form zu bringen, um mit ihnen arbeiten zu können.

Neues Skript erstellen sowie Daten und Packages laden

Bevor Sie mit dem Aufräumen beginnen, generieren Sie in Ihrem Projekt, das Sie im Zuge des letzten Artikels angelegt haben, ein neues R-Skript mit der Benennung data_tidying.R und kopieren Sie den gesamten Inhalt des Skripts api_calls.R hinein. Führen Sie das Skript aus, damit die aktuellen Daten von den APIs abgefragt werden und zur Weiterverarbeitung in DataFrames in Ihrem Environment vorliegen (Abb. 1).

Abbildung 1: Environment mit geladenen API-Daten

Im Anschluss installieren und laden Sie wieder einige Packages, die für die nachfolgenden Datentransformationen benötigt werden (Abb. 2). tidyverse (https://www.tidyverse.org/) ist eine sehr mächtige Sammlung von Packages für die Datenmanipulation. In diesem Package ist auch ggplot enthalten, welches Sie schon aus dem Artikel von Tobias Aubele kennen und das zum Plotten von Daten dient. Darüber hinaus erweitert es die R-Syntax um den Pipe-Operator (%>%), den Sie im vorherigen Artikel kurz verwendet haben. zoo und padr dienen dem Arbeiten mit Zeitreihen.

Tipp

Eine sehr anschauliche Einleitung in die Syntax und gängige Funktionen des tidyverse finden Sie unter folgendem Link. Das dort beschriebene Package dplyr ist ein Bestandteil des tidyverse und dient der Datenmanipulation, wie Sie sie im Folgenden selbst durchführen werden: speakerdeck.com/omaymas/data-manipulation-with-dplyr-first-steps

Abbildung 2: Installieren bzw. Aktualisieren und Laden der benötigten Packages

Google-Search-Console-Daten vervollständigen

Wie bereits angesprochen, gibt die GSC-API nur Datumspunkte zurück, an denen auch tatsächlich mindestens eine Impression stattgefunden hat. Werden die Daten nur mit der Dimension date abgefragt, wie Sie es für die Variable gsa_dim_date getan haben, liegen meistens für alle Tage Daten vor, denn hier wird die gesamte Website betrachtet. Wird die Dimension date jedoch um die query erweitert, ist dies nicht mehr der Fall, denn nicht jedes Keyword wird an jedem Datum des Berichtszeitraums eine Impression generiert haben. Dies sehen Sie in Abbildung 3, in der die Anzahl der rankenden Keywords gezählt wurde. Um die Tabelle selbst zu reproduzieren, können Sie den Befehl, den Sie im Screenshot sehen, in der Console ausführen. Dadurch ist er kein Bestandteil des Skripts, sondern dient nur dazu, die Daten on-the-fly anzuzeigen. 2018-07-02 hat nur ein Keyword Impressions generiert, 2018-07-05 zwei. An den Tagen dazwischen gab es keine Rankings, sodass keine Datumspunkte von der API zurückgegeben wurden.

Abbildung 3: Zählen der Queries je Tag; fehlende Datumswerte an Tagen ohne Impressions

Wie geschrieben werden fehlende Datumspunkte bei Abfragen, die allein aus der Dimension date bestehen, recht selten vorkommen, da dies bedeuten würde, dass keine einzige Seite an diesem Tag eine Impression generiert hat. Sie müssen sich aber stets bewusst darüber sein, dass dieses Verhalten auftreten kann. Und dann möchten Sie dies auch bestimmt in Ihren Diagrammen sehen. Denn wenn an einem Tag keine Seite ein Ranking aufweisen kann, liegt definitiv etwas im Argen. Solche fehlenden Werte müssen Sie also explizit machen, denn standardmäßig werden beim Plotting Werte für fehlende Datumspunkte interpoliert. In Abbildung 4 sehen Sie einen exemplarischen Verlauf von Impressions je Tag im Monat, wobei die Anzahl der Impressions der Einfachheit halber konstant ist. Für die Datumspunkte 5, 8, 12 / 13, 24 und 30 liegen keine Werte vor. Die blaue Linie (1) wurde ohne ergänzte Datumspunkte geplottet. Hier sehen Sie, dass die Linie zwischen den bestehenden Datumspunkten einfach weitergezogen wurde. Der fehlende Datumspunkt 5 wird durch Interpolation (vereinfacht: dem Mittelwert der beiden bekannten umliegenden Werte) berechnet. Bei der roten Linie (2) wurden die fehlenden Datumspunkte ergänzt, allerdings keine Ersatzwerte eingetragen. Dadurch bricht die Linie an diesen Punkten ab. Die fehlenden Werte liegen nun explizit in den Daten vor. Das Zielbild ist aber die grüne Linie (3). Bei dieser wurden die Datumspunkte ergänzt und die fehlenden Werte durch 0 aufgefüllt. Hier fällt somit bei der Betrachtung des Graphen sofort ins Auge, dass die Impressions auf 0 abgestürzt sind.

Das Auffüllen ist im Übrigen nicht nur beim Plotting wichtig, sondern auch bei der Aggregation der Daten auf einer höheren Zeitebene. Soll beispielsweise der Durchschnitt der Impressions auf Monatsbasis berechnet werden, verfälschen fehlende Werte das Ergebnis. Angenommen, jeder Datumspunkt im Diagramm zeigt 10 Impressions an, wäre der Mittelwert für die blaue Line 10 (10 Impressions * 25 Tage / 25 Tage), für die grüne Linie hingegen 8,06 ( (10 Impressions * 15 Tage + 0 Impressions * 6 Tage) / 31 Tage). Dies müssen Sie daher immer berücksichtigen, wenn Sie mit den Rohdaten aus der GSC arbeiten.

Abbildung 4: Fehlende Datumspunkte und Werte auffüllen, um Verfälschungen des Graphen zu vermeiden

Zurück zum Skript: Nachdem Sie die Packages geladen haben, fügen Sie den Code-Abschnitt, wie in Abbildung 5 zu sehen, ein. Der DataFrame gsa_dim_date, der die Performance-Daten auf Tagesbasis enthält, wird an die Funktion pad() aus dem Package padr gegeben. Die Funktion erkennt automatisch die Datumsspalte und füllt die fehlenden Datumspunkte auf. Über die Argumente start_val und end_val definieren Sie die untere und obere Grenze des aufzufüllenden Berichtszeitraums. Die hierfür verwendeten Variablen START_DATE und END_DATE sind erneut jene, die Sie bereits bei den API-Abfragen genutzt haben. Nach diesem Schritt liegen alle Datumspunkte vor, allerdings enthalten die Spalten clicks und impressions noch keine Werte für diese Punkte. Diese geben Sie durch die anschließende Funktion replace_na() aus dem Package tidyverse an. Der bearbeitete DataFrame wird wieder in die Variable gsa_dim_date zurückgeschrieben.

Abbildung 5: Fehlende Datumspunkte ergänzen und Metriken mit 0 auffüllen

In Abbildung 6 sehen Sie die einzelnen Schritte noch einmal im Detail anhand eines exemplarischen DataFrames mit Daten für eine Woche. (1) sind die Rohdaten, bei denen drei Tage fehlen. Bei (2) wurden mittels pad() die fehlenden Datumspunkte ergänzt, die Werte für die Metriken fehlen aber noch (NA; not available). In (3) wurden diese Metriken via replace_na() mit dem Wert 0 aufgefüllt.

Abbildung 6: Exemplarischer DataFrame mit aufgefüllten Werten

Gleitenden Mittelwert der Impressions und Clicks berechnen

Für die Performance-Daten liegt Ihnen nun der gesamte Berichtszeitraum im DataFrame gsa_dim_date auf Tagesbasis vor. Bei der Visualisierung sorgt dies jedoch dafür, dass der Graph stark „zappeln“ wird, wenn bspw. die Werte für die Impressions starken Schwankungen unterliegen. In Abbildung 7 (1) sehen Sie dies für exemplarische Daten eines Jahres. Hier einen Trend zu erkennen, ist somit sehr schwer, da er im Rauschen des Graphen untergehen kann. Ein gängiges Mittel, um den Graphen zu glätten, ist daher, den gleitenden Mittelwert für ein Zeitfenster von sieben Tagen zu berechnen (2).

Hinweis

Wie Sie die Daten visualisieren, erfahren Sie in einem späteren Teil. Hier dienen die Plots zunächst nur der Veranschaulichung, warum die Daten wie beschrieben transformiert werden.

Abbildung 7: Plotting der Rohdaten versus gleitenden Mittelwert

Sie müssen sich dazu vorstellen, dass von einer gegebenen Zeitreihe fortschreitend sieben Tage betrachtet werden und für diese der Mittelwert gebildet wird. In Abbildung 8 sehen Sie dies beispielhaft für ein Zeitfenster von drei Tagen. Zunächst wird der Mittelwert für die Tage 1 bis 3 berechnet, dann für die Tage 2 bis 4 usw.

Abbildung 8: Exemplarische Berechnung des gleitenden Mittelwerts für ein Zeitfenster von drei Tagen

Den gleitenden Mittelwert berechnen Sie mit dem Code-Abschnitt, den Sie in Abbildung 9 sehen. Der DataFrame gsa_dim_date wird an die Funktion mutate() gegeben, die eine bestehende Spalte bearbeiten oder eine neue Spalte hinzufügen kann. In diesem Fall werden die Spalten rollmean_clicks und rollmean_impressions hinzugefügt. Die Werte der beiden Spalten werden mit der Funktion rollmean() aus dem Package zoo berechnet. Das erste Argument x nimmt die Spalte auf, auf deren Basis der gleitende Mittelwert berechnet werden soll. Das Argument k definiert das Zeitfenster – hier sieben Tage. Mit fill kann der Wert angegeben werden, der in die Zellen geschrieben werden soll, für die aufgrund der Reduktion der Daten keine Werte mehr vorliegen. Das sehen Sie ebenfalls in Abbildung 8. Für die Datumspunkte 1 und 2 kann kein Mittelwert berechnet werden, da das Zeitfenster ansonsten links über den Rand des Datumsbereichs hinauslaufen würde. Entsprechend werden diese beiden Datumspunkte mit NAs aufgefüllt. Das Argument align steuert dieses Verhalten. Es zeigt an, ob der berechnete Mittelwert am rechten Rand des Berichtszeitraums endet und demnach links mit NAs aufgefüllt werden soll oder ob am Datumspunkt 1 mit dem Mittelwert begonnen wird und somit die NAs am rechten Rand eingetragen werden.

Für die exemplarischen Daten der Abbildung 8 sähe die finale Tabelle wie in Abbildung 10 dargestellt aus.

Abbildung 9: Berechnung des gleitenden Mittelwerts für Clicks und Impressions
Abbildung 10: Beispieltabelle mit berechnetem gleitendem Mittelwert

Umwandlung des DataFrames von einem weiten in ein langes Format

Damit folgt der letzte Schritt zum Aufräumen der Performance-Daten. Ihr DataFrame sieht zum jetzigen Zeitpunkt wie in Abbildung 11 aus. Man spricht in diesem Fall von einer weiten Tabelle, denn je Datumspunkt liegen die einzelnen Metriken (clicks, impressions, ctr etc.) als Spalten vor. Für die Visualisierung mit ggplot müssen die Daten jedoch in einem langen Format vorliegen. Konkret bedeutet dies, dass die Benennungen der bisherigen Spalten die Werte einer neuen Spalte bilden. Die Tabelle wird quasi gedreht, wobei die Datumsspalte als Ankerpunkt dient. Das umgekehrte Verfahren, die Überführung einer langen in eine weite Tabelle, kennen Sie wahrscheinlich aus Excel, wenn Sie dort eine Pivot-Tabelle erstellen.

Das war jetzt sehr abstrakt: Eine schematische Darstellung mit nur vier Metrik-Spalten sehen Sie daher in Abbildung 12.

Abbildung 11: DataFrame gsc_dim_date mit den ergänzten Spalten für die gleitenden Mittelwerte
Abbildung 12: Umwandlung einer weiten in eine lange Tabelle mittels gather()

Ihren gsa_dim_date DataFrame überführen Sie mit dem Code aus Abbildung 13. select() dient dazu, nur die Spalten date, rollmean_clicks und rollmean_impressions beizubehalten. Die restlichen Spalten clicks, impressions, ctr und position löschen Sie somit aus dem DataFrame, da sie in der späteren Visualisierung nicht genutzt werden. Die Funktion gather() transponiert dann den DataFrame. Mit dem Argument key geben Sie den Namen der neuen Spalte an, in die die bisherigen Spaltenbenennungen als Werte überführt werden. Das Gleiche machen Sie mit dem Argument value für die neue Spalte, die die Werte der jeweiligen Metrik-Spalten aufnimmt. Damit haben Sie das Aufräumen der GSC-Daten erledigt. Ihr DataFrame sieht nun wie in Abbildung 14 aus. Die DataFrames mit den Queries (gsa_dim_date_query) resp. den URLs (gsa_dim_date_page) werden Sie im nächsten Teil dieser Reihe aufbereiten.

Abbildung 13: Überführen des weiten DataFrames gsa_dim_date in ein langes Format
Abbildung 14: Die ersten Zeilen des langen DataFrames gsa_dim_date

Google-Analytics-Daten vervollständigen

Analog zu den Performance-Daten aus der GSC müssen Sie noch die Google-Analytics-Daten (GA) aufräumen. Auch bei diesen beginnen Sie damit, fehlende Datumswerte zu ergänzen. Insbesondere bei den GA-Daten ist dies eine reine Vorsichtsmaßnahme, da Sie diese für die Channels Organic Search und Direct abgefragt haben. Dass an einem Tag keine organischen oder direkten Sessions auf Ihrer Website erfolgen, ist höchst unwahrscheinlich – kann aber nichtsdestotrotz bei sehr kleinen bzw. neuen Websites vorkommen. Um sich auf den später generierten Report verlassen zu können, empfiehlt es sich daher, immer für eine „saubere“ Datenbasis zu sorgen.

Fügen Sie den Code aus Abbildung 15 in Ihr Skript ein. Der Unterschied zum Code für die GCS-Daten aus Abbildung 5 besteht hier in dem zusätzlichen Argument group der Funktion pad(). Sie erinnern sich: Diese ergänzt fehlende Datumspunkte. Die Besonderheit des GA-DataFrames besteht darin, dass dieser bereits im langen Format von der API zurückkommt (Abb. 16). Er besteht nur aus den drei Spalten date, channelGrouping und sessions. Die Spalte channelGrouping ist vergleichbar mit Spalte metric im DataFrame gsa_dim_date. Sie qualifiziert die nebenstehenden Werte in der Spalte sessions (vergleichbar mit value im GSC-DataFrame) nach den Groups Direct und Organic Search. Das Argument group ist daher nötig, um die fehlenden Datumspunkte individuell für die beiden Ausprägungen Direct und Organic Search zu ermitteln. In der Abbildung 16 sehen Sie bspw., dass am 2018-07-01 zwar eine Direct-Session erfolgt ist, für Organic Search jedoch kein Wert vorliegt. Für 2018-07-02 verhält es sich genau andersherum. Für Ersteres muss somit der Organic-Search-, für Letzteres der Direct-Wert ergänzt werden (Abb. 17).

Abbildung 15: Fehlende Datumspunkte ergänzen und Sessions mit 0 auffüllen
Abbildung 16: Langer DataFrame ga_sessions mit teilweise fehlenden Kombinationen aus date und channelGrouping
Abbildung 17: DataFrame ga_sessions mit ergänzten Kombinationen aus date und channelGrouping

Gleitenden Mittelwert der GA-Sessions berechnen

Im Anschluss errechnen Sie den gleitenden Mittelwert für die Sessions (Abb. 18). Auch hier müssen Sie dies separat für die beiden Channels machen. Daher erfolgt in der zweiten Zeile ein group_by() der Spalte channelGrouping, sodass die nachfolgenden Funktion rollmean() separat auf diese beiden Gruppen angewendet wird.

Abbildung 18: Berechnung des gleitenden Mittelwerts der Sessions je channelGrouping

Fazit

Gratulation! Wenn Sie es bis hierher geschafft haben, sind Sie schon ein gutes Stück in die Gefilde der Datentransformation vorgedrungen. Sie haben das Wehklagen eines jeden Daten-Analysten nachvollziehen gelernt, dass Analysen zu 80 % aus Datenbereinigung und nur zu 20 % aus der eigentlich spannenden Analysetätigkeit bestehen.

Darüber hinaus haben Sie erfahren, wie Sie fehlende Datumswerte in Zeitreihen vervollständigen, um Verfälschungen bei Datenaggregationen zu vermeiden. Außerdem haben Sie den gleitenden Mittelwert verschiedener Metriken berechnet, um Graphen zu glätten und somit Trends besser erkennbar zu machen. Last but not least haben Sie ein mächtiges Werkzeug an die Hand bekommen, um Tabellen zu transponieren und sie so in ein handhabbares langes Format zu bringen.

Lesen Sie im dritten Teil in der nächsten Ausgabe, wie Sie Ihr SEO-Reporting mit R automatisieren können. So lassen sich z. B. mit wenig Aufwand die Top-SEO-Seiten nach Klicks und die Top-Suchanfragen aus der Google Search Console ermitteln und für Berichte in speziellen DataFrames zusammenfassen.




Strukturierte Daten: Eine Bestandsaufnahme und ein Ausblick

Strukturierten Daten ermöglichen Webseiten-Betreibern, Inhalte für Suchmaschinen und deren Crawler mit einer semantischen Bedeutung auszuweisen und somit verständlicher zu machen. Der Beitrag von Matthäus Michalik und Lennart Leienbach beleuchtet, was strukturierte Daten sind, was sie können, wie man sie am besten verwendet, was sie mit SEO zu tun haben und welche Bedeutung ihnen in Zukunft noch zukommen könnte.

Der Begriff „strukturierte Daten“ ist zunächst einmal ein sehr allgemeiner. Strukturiert liegen Daten – egal in welchem Kontext – immer dann vor, wenn sie einem bestimmten Muster, einem Format folgen, wenn sie also nach einem bestimmten Schema organisiert sind. Das Wort „Schema“ wird uns genau deshalb gleich noch einmal begegnen.

Eine bestimmte Struktur schafft Ordnung, stellt eine Interpretierbarkeit her, und genau an dieser Stelle kommt das Internet ins Spiel – genauer gesagt: Websites und Suchmaschinen. Letztere dienen dem Zweck, einem Internetnutzer Ergebnisse zu präsentieren, die seiner Intention bei einer bestimmten Recherche möglichst genau entsprechen.

Dabei haben Suchmaschinen es in der schier unendlich großen Welt des World Wide Web mit Unmengen an Informationen zu tun. Wörter, Bilder, technische Details, Mail-Adressen, Preise – dies und vieles, vieles mehr sind Daten. Die Herausforderung besteht für Google, Yahoo und Co. darin, diese Daten wahrzunehmen, zu sortieren, in gewisser Weise „zu verstehen“ (eigentlich: zu interpretieren) und dann zum geeigneten Zeitpunkt als Suchergebnis auszugeben.

Betreiber von Websites (zum Beispiel Online-Shops) haben die Möglichkeit, den Suchmaschinen bei ihrem Job behilflich zu sein. Man muss ihnen die Interpretationsleistung nicht ganz allein überlassen. Diese Hilfestellung danken sie dem Webmaster mitunter durch aussagekräftigere Suchergebnisse, die dem Nutzer noch besser zeigen, was ein Website-Betreiber ihm auf einer bestimmten Seite bietet.

Das gemeinsame Projekt „Schema.org“

2011 haben sich die weltweit bedeutendsten Suchmaschinen zusammengetan und die Initiative Schema.org ins Leben gerufen. Heute stehen Google, Yahoo, Bing (Microsoft) und Yandex hinter dem Open-Source-Projekt. Dessen Ziel ist die einheitliche Auszeichnung von Website-Inhalten mit dem Zweck, besser für die Suchmaschinen interpretierbar zu sein.

Schema.org stellt gewissermaßen ein gemeinsames Vokabular, eine Ontologie dar. Es werden in dem Verzeichnis, das jeder auf www.schema.org einsehen kann, nach und nach alle erdenklichen Entitäten („things“), Handlungen und Relationen katalogisiert. Verkaufe ich beispielsweise in meinem Online-Shop Bücher, so kann ich die einzelnen Produktseiten jeweils so kennzeichnen, dass Suchmaschinen wissen: „Hier geht es um [Book]!“

Die Entität [Book] steht normalerweise für konkrete literarische Werke mit ganz spezifischen Eigenschaften. Diese Eigenschaften kann ich den Suchmaschinen in einem zweiten Schritt näherbringen. Dabei fülle ich mehr oder weniger umfangreich (je nach meinen Ressourcen und Absichten) eine Maske aus „Properties“ aus; jedes Property steht für eine bestimmte Eigenschaft. So liegt es etwa nahe, unter anderem Buchtitel, Verfasser, Seitenzahl, Sprache, ISBN-Nummer und/oder Preis zu definieren.

Abbildung 1: Eintrag für „Book“ bei Schema.org

Zum Vokabular fehlt noch die Grammatik

Mit Schema.org haben die „Big Player“ unter den Search Engines also eine Art stetig wachsendes Lexikon geschaffen mit Einträgen, die für das Internet besonders relevant sind. Damit aus einzelnen Vokabeln aber eine Sprache wird, braucht es außerdem Grammatik. Sie lässt es mit ihren Regeln zu, einzelne Wörter so miteinander zu verbinden, dass etwas darüber etwas ausgesagt werden kann. Genau diese Grammatik stellen die verschiedenen Auszeichnungssprachen („Annotationen“) zur Verfügung: JSON-LD, HTML Microdata und RDFa.

Jede Grammatik funktioniert dabei unterschiedlich, aber sie alle bieten mir als Website-Betreiber die Möglichkeit, meine gesamte Homepage und auch einzelne Seiten darin mithilfe strukturierter Daten auszuzeichnen. Was die Vor- und Nachteile der Auszeichnungssprachen sind und was sich derzeit aus welchen Gründen als die brauchbarste erwiesen hat, wird an späterer Stelle näher beleuchtet. Wichtig ist zunächst, dass eine Suchmaschine nun jede Menge Dinge über mich und meine Seiten weiß.

Die Früchte der Auszeichnungsarbeit

Die Informationen, die ich der Suchmaschine leicht verdaulich übermittelt habe, sind in einigen Fällen besonders nützlich für sie – und damit auch für mich. Sie kann nämlich nun im Brustton der Überzeugung noch mehr über mein Suchergebnis sagen. So kann es mitunter dazu kommen, dass mein Suchergebnis auf einer Suchergebnisseite nicht nur als gewöhnliches Snippet aus Title, URL und Meta-Description ausgegeben wird, sondern als ein um bestimmte Informationen angereichertes Snippet, nämlich als „Rich Result“ (ehemals auch „Rich Snippet“ genannt).

Abbildung 2: Google-Desktop-Suche nach „der insasse“ mit normalen und Rich Results

Abbildung 2 zeigt einen Screenshot einer Google-Suche nach „der insasse“, dem neuen Roman von Sebastian Fitzek. Ganz oben ist ein gewöhnliches Snippet zu sehen (das von Amazon.de allerdings überhaupt nicht ordentlich gestaltet wurde), während im Fall der letzten drei Ergebnisse Rich Results geboten werden. Das Rich Result von Buecher.de bietet anstelle der eigentlichen URL eine sogenannte Breadcrump, die es dem Suchenden leichter machen soll, die Einordnung der Seite auf der Gesamt-Homepage nachzuvollziehen. Wirklich gelungen ist das hier allerdings nicht, denn was ein Thriller, den ich überall auf der Welt in deutscher Sprache online bestellen kann und der auch nicht in Berlin spielt, nun mit „Europa > Deutschland > Berlin“ zu tun hat, weiß wohl nur Buecher.de.

Besser macht es da schon Weltbild.de, wo nicht nur eine vernünftige Meta-Description formuliert wurde, sondern die Breadcrump tatsächlich klar macht: Das Buch ist offenbar als ein „packender Thriller“ im Shop eingeordnet. Dazu ist das Snippet auch noch mit Bewertungssternen angereichert, die sich aus den Käufer-Rezensionen auf der Seite ergeben. Thalia.de wiederum verzichtet bei seinem Ergebnis zwar auf eine Breadcrump-Navigation, gibt dem Suchenden aber dank Bewertungssternen ebenfalls einen ersten Hinweis zur Qualität des Buches. Thalia.de trumpft aber zusätzlich noch mit der Angabe des Preises sowie dem Lagerstatus auf.

Bin ich als Kunde kurz angebunden und möchte nur wissen, wo ich das Buch auf jeden Fall bestellen kann und was es mich kostet, dann werde ich wohl zuerst hier klicken – die Click-Through-Rate (CTR) von Thalia.de könnte also durchaus besser aussehen als die von Weltbild.de, obwohl Letztere zwei Positionen weiter oben rankt. An diesem Beispiel lässt sich gut ablesen, dass strukturierte Daten in einer Hinsicht eher nicht als SEO-Instrument taugen: Durch sie werde ich nicht unmittelbar meine Rankings verbessern können. Indirekt aber vielleicht doch, denn eine bessere CTR wird von Google durchaus wahrgenommen und unter Umständen über kurz oder lang auch mit einer besseren Platzierung belohnt.

Breadcrump, Bewertungen, Preis, Verfügbarkeit – all dies speist sich aus strukturierten Daten. Um eines aber klar zu sagen: Dass ich strukturierte Daten anbiete, garantiert nicht, dass ich auch Rich Results erhalte. Aber anders herum ist garantiert, dass es ein Rich Result ohne strukturierte Daten für mich nicht geben wird. Eine Form von Rich Results, die vor allem im Mobile-Search-Bereich Bedeutung haben, sind sogenannte „Carousels“. Auf dem Screenshot von Abbildung 3 sieht man beispielsweise, wie Chefkoch.de seine Rezepte für „spinatlasagne“ um Bilder als strukturierte Daten angereichert hat.

Abbildung 3: Google-Mobile-Suche nach „spinatlasagne“ mit Carousel

Das belohnt Google auf dem Smartphone damit, dass der Nutzer die unterschiedlichen Rezept-Vorschaubilder durchswipen kann, bis er eines sieht, das ihn besonders anspricht. Die Chance, dass Chefkoch.de hier anstelle eines normalen, weiter unten stehenden Ergebnisses angeklickt wird, ist ziemlich hoch. Nicht zu verwechseln sind die Rich Results übrigens mit „Featured Snippets“, bei denen Google einen größeren Content-Ausschnitt von einer Seite in einem prominenten Fenster ganz oben anzeigt. Auf Featured Snippets, die dem Suchenden ohne jeden Website-Besuch möglichst alle Fragen direkt beantworten sollen, haben strukturierte Daten keinen Einfluss.

Abbildung 4: Google-Desktop-Suche nach „spinatlasagne rezept“ mit Featured Snippet

Dass Google bei der Desktop-Suche nach „spinatlasagne rezept“ ein Featured Snippet aus der Rezeptseite von Essen-und-trinken.de anbietet (Abbildung 4), liegt also allein daran, dass die Suchmaschine den Inhalt der Seite als denjenigen bewertet hat, der die Suchanfrage am besten und prägnantesten beantwortet. Google sagt: „Du willst also Spinatlasagne backen und brauchst ein Rezept? Ich habe hier neulich eine Seite gecrawlt, die ein prima Rezept bietet, das du direkt auf der Suchergebnisseite lesen kannst. Du musst gar nicht mehr auf die Seite gehen!“

Weitere mögliche Arten der Anreicherung von Snippets zu Rich Results mittels strukturierter Daten zeigt Google in seiner Search Gallery: einfach.st/seagal. Bevor man sich nun näher damit beschäftigt, wie strukturierte Daten technisch am besten zu implementieren sind und welche zukünftigen Potenziale in ihnen schlummern könnten, bleibt zunächst das Zwischenfazit: Rein theoretisch kann man den Suchmaschinen nie zu viele (korrekte!) Informationen über sich, seine Produkte oder Dienstleistungen liefern. Da allerdings die Ressourcen beim Integrationsprozess naturgemäß endlich sind, sollte man versuchen, die für sich wesentlichen Aspekte zu bestimmen und als „structured data“ anzubieten.

Wie lassen sich strukturierte Daten implementieren?

Unterschieden werden kann zunächst einmal zwischen Spezifikationen für die Qualität der Daten und Spezifikationen für die technische Umsetzung. Zu den inhaltlichen Qualitätsanforderungen zählt, dass nur einzigartige Inhalte ausgezeichnet werden dürfen. Mit anderen Worten: Nur von mir selbst oder durch meine Nutzer erstellte Inhalte sollten ausgezeichnet werden. Des Weiteren müssen die ausgezeichneten Inhalte für Nutzer sichtbar sein. Wird bspw. ein Produkt ausgezeichnet, sollte dieses auch tatsächlich auf der Seite zu sehen sein. Ebenso dürfen keine irrelevanten oder irreführenden Inhalte ausgezeichnet werden. Darunter fallen etwa gefälschte Rezensionen oder Inhalte, die nichts mit dem Hauptinhalt einer Seite zu tun haben.

Aus technischer Sicht ist es natürlich eine Grundvoraussetzung, dass alle Inhalte, die in den Suchergebnissen gelistet werden sollen, für Suchmaschinen und ihre Bots aufrufbar sind. Das heißt, der Zugang sollte nicht durch Einträge in der robots.txt oder mittels anderer Methoden blockiert werden. Für die Implementierung sollten zudem JSON-LD, RDFa oder Microdata verwendet werden. Um etwaige Fehler und Doppel-Auszeichnungen zu vermeiden, ist zu empfehlen, sich auf eines der drei Formate zu beschränken. Die drei Annotationsformate unterscheiden sich dabei wie folgt:

JSON-LD (JavaScript Object Notation for Linked Data) ist die jüngste Methode, strukturierte Daten auszuzeichnen. Zudem ist es das Format, das Google regelmäßig empfiehlt und am breitesten unterstützt. Einer der größten Vorteile von JSON-LD ist zudem, dass es – im Gegensatz zu anderen Formaten – unabhängig vom restlichen Quellcode einer Internetseite eingebunden werden kann. Wie unter anderem auch die Meta-Description wird auch JSON-LD im <head>-Bereich (dem „Kopf“) eines HTML-Dokumentes implementiert. Die dadurch gewonnene Unabhängigkeit vom tatsächlichen Content der Seite ermöglicht die einfache Anpassbarkeit des Seiten-Templates sowie der strukturierten Daten – und zwar ganz unabhängig voneinander.

Die Implementierung mittels RDFa basiert auf einem etwas anderen Ansatz: Anstatt die strukturierten Daten wie bei JSON-LD in einem (auch für Menschen) leicht lesbaren Block zusammenzufassen, werden sie über den gesamten Inhalt einer Seite verteilt. Bei RDFahandelt es sich um „HTML5 Extensions“. Bestehende HTML-Elemente werden erweitert und mit zusätzlichen Informationen versehen, etwa zur Auszeichnung strukturierter Daten.

Auch bei Microdata kommen HTML-Erweiterungen zum Einsatz. Microdata gilt jedoch als veraltet und wird nicht mehr aktiv weiterentwickelt. Dennoch setzen nach wie vor einige Websites das Format ein. Es schadet deshalb nicht, schon einmal davon gehört zu haben.

Welche Form der Auszeichnung sollte genutzt werden?

Für den Fall, dass bisher noch keine strukturierten Daten auf einer Website eingebunden sind, empfiehlt sich eindeutig die Nutzung von JSON-LD. Aufgrund der Unterstützung von Google, Bing (seit Juli 2018) und Baidu ist man für drei der großen vier Suchmaschinen somit gewappnet. Einzig die russische Suchmaschine Yandex unterstützt bislang nur Microdata sowie RDFa. Sollten bereits Inhalte mithilfe von Microdata oder RDFa ausgezeichnet worden sein, kann man dies selbstverständlich beibehalten. Es sollte jedoch regelmäßig überprüft werden, wie lange die Suchmaschinen das Format in Zukunft noch unterstützen.

Weitere Anforderungen:

Für einige der Markups gelten zusätzliche Anforderungen, die bei der Implementierung berücksichtigt werden sollten. Diese speziellen Richtlinien werden wie oben schon erwähnt im „Feature Guide“ im Google-Developers-Portal (http://einfach.st/seagal) benannt.

Häufige Fehler bei strukturierten Daten

Bei der Vielzahl an verschiedenen Richtlinien können bestimmte Fehler in den Markups recht schnell vorkommen. Selbst Googles Test-Tool für strukturierte Daten kann nicht immer hilfreich sein. Einige dieser schnell zu übersehenden, aber leicht zu vermeidenden Fehler sind die folgenden:

Auszeichnen von Bewertungen oder Rezensionen von Drittanbietern

Auch wenn die Verwendung von Widgets von Drittanbietern zur Einbettung von Bewertungen im Allgemeinen kein Problem darstellt, gibt es in Bezug auf strukturierte Daten einige Punkte zu beachten. Besonders wichtig ist es, dass sich das Review-Markup immer auf den Hauptinhalt einer Seite bezieht. Falsch wäre es z. B., wenn die allgemeine Bewertung eines Shops (per Widget) seitenweit angezeigt und dadurch auch für jede einzelne Produktseite ausgezeichnet würde. Da die Bewertung sich auf das Unternehmen selbst, nicht jedoch auf die einzelnen Produkte bezieht, würde Google dies als Spam ansehen. Zudem müssen Bewertungen und Rezensionen, die nicht von der eigenen Website stammen, immer einen Link zur Quelle enthalten. Benutzern und Searchbots muss gleichermaßen gezeigt werden, woher die Bewertungen stammen.

Inhalte, die für den Benutzer nicht sichtbar sind

Ausgezeichnete Inhalte müssen für Desktop- und Mobile-Nutzer auch grundsätzlich sichtbar sein. Der Nutzer muss immer klar erkennen können, wo sich die Inhalte auf einer bestimmten Seite befinden, die durch ein Rich Result in den Suchergebnissen angeteasert wurden. Allerdings erlaubt es Google ausdrücklich, wenn aus Usability-Gründen die entsprechenden Inhalte auf der mobilen Seite zunächst in einem Tab „versteckt“ sind und erst nach einem Klick durch den Nutzer sichtbar werden. Voraussetzung ist natürlich auch hier, dass der Suchmaschinen-Bot den „Tabbed Content“ auch auslesen kann.

Irreführende oder ungeeignete Inhalte

Es sollte immer darauf geachtet werden, dass die ausgezeichneten Inhalte auch korrekt sind. „Katzenspielzeug, das Ihre Kätzchen lieben werden“ ist für Google bspw. kein gültiger Produktname. Besser wäre „Kratz- und Kletterbaum in Schwarz für Katzen“. Ein weiteres Negativbeispiel bestünde darin, eine Pauschalreise inklusive Flug, Hotel und Tickets für ein Konzert der Foo Fighters als Veranstaltung (Event) auszuzeichnen. Die Kennzeichnung des Konzertes selbst als Veranstaltung entspricht jedoch den Richtlinien.

Haben strukturierte Daten eine SEO-Relevanz?

Die Frage, ob strukturierte Daten für die Suchmaschinenoptimierung bedeutsam sind, lässt sich zugleich bejahen und verneinen. Einen direkten Einfluss auf die Ranking-Position einer Seite in den Suchergebnissen haben strukturierte Daten meist nicht. Google und Co. bewerten die Inhalte einer Internetseite nicht anders, wenn diese ausgezeichnet wurden. In den meisten Fällen erhöhen allerdings die durch die strukturierten Daten möglich gemachten Rich Results die Click-Through-Rate (CTR, auch Klickrate) eines Ergebnisses. Suchergebnisse mit gelben Bewertungssternen etwa setzen sich allein schon visuell von normalen Snippets als Suchergebnisse ab. Wurde obendrein eine gute Bewertung erreicht, ist die Wahrscheinlichkeit dafür, dass Nutzer auf das Ergebnis klicken, weitaus höher als bei Ergebnissen ohne Bewertungssterne. Dadurch verbessern sich oftmals die generellen Nutzer-Metriken einer Seite. Indirekt können strukturierte Daten somit durchaus einen Einfluss auf SEO haben.

Eine Besonderheit stellen außerdem Rich-Result-Ergebnisse für Artikel („Article“), Rezepte („Recipe“) und einige weitere „Search Features“ dar: Werden eigene Inhalte korrekt ausgezeichnet, haben sie die Chance, in besonderen Boxen wie dem weiter oben vorgestellten „Rezept-Carousel“ ausgespielt zu werden. Solche Boxen befinden sich meist sehr weit oben auf der ersten Ergebnisseite – und weit oben zu sein, ist das Ziel von Suchmaschinenoptimierung.

Tools für strukturierte Daten

Für strukturierte Daten gibt es mittlerweile zahlreiche Tools, die einem Webmaster beim Implementieren oder auch Überprüfen der eigenen Auszeichnungen helfen können.

Hat man gerade erst damit begonnen, sich mit dem Thema „strukturierte Daten“ zu befassen, kann Googles „Codelab“ (http://einfach.st/codelab2) dabei helfen, den Einstieg schnell zu meistern. Anhand praktischer Beispiele wird man hier Schritt für Schritt an das Thema herangeführt. Derzeit ist diese Hilfe allerdings nur auf Englisch verfügbar.

Für Anfänger und auch Fortgeschrittene gleichermaßen geeignet ist der „Schema Markup Generator (JSON-LD)“ von Technicalseo.com (http://einfach.st/markupgen). Er deckt alle gängigen Markups ab und valider Quellcode kann mit wenigen Klicks erstellt werden.

Zu den essenziellen Tools für das Testen strukturierter Daten gehört Googles „Test-Tool für strukturierte Daten“ (http://einfach.st/markupgen2). Damit lassen sich einzelne Quellcode-Schnipsel oder auch ganze URLs überprüfen.

Kein Tool im engeren Sinne, aber durchaus auch praktisch ist die Website Jsonld.com. Frei nach dem Motto „Steal our JSON-LD“ (zu Deutsch: „Stiehl unser JSON-LD“) werden hier für verschiedenste Anwendungsfälle gut aufbereitete Quellcode-Beispiele präsentiert.

Für denjenigen, der des Öfteren verschiedene URLs auf strukturierte Daten hin überprüfen möchte, ist das folgende JavaScript-Lesezeichen für den Browser eine gute Wahl. Dazu muss im Browser zunächst ein neues Lesezeichen angelegt werden. Anstelle einer URL trägt man jedoch folgenden Code ein:

javascript:(function(){ window.open('https://search.google.com/structured-data/testing-tool/u/0/#url='+encodeURIComponent(location.href))})();

Surft man anschließend auf eine Seite, die man hinsichtlich strukturierter Daten überprüfen möchte, reicht ein Klick auf das Lesezeichen. Sogleich öffnet sich in einem neuen Browser-Tab die entsprechende URL in Googles „Test-Tool für strukturierte Daten“.

Zuletzt sei auch auf die zahlreichen Plug-ins hingewiesen, die es für viele CMS (Content-Management-Systeme) gibt, etwa für WordPress. Sie sind mal mehr, mal weniger umfangreich, erledigen ihren Job jedoch in den meisten Fällen zuverlässig und vereinfachen das Implementieren strukturierter Daten. Es ist daher definitiv lohnenswert, einmal einen Blick in den Plug-in-Store des jeweiligen CMS zu werfen.

Was kommt als Nächstes?

Seit der Einführung strukturierter Daten kamen immer wieder neue Auszeichnungsmöglichkeiten hinzu. Was sich aktuell in einer Art Beta-Phase befindet und in Zukunft eventuell bei Schema.org einmal als Standard hinzugefügt werden könnte, findet man auf pending.schema.org. So hat Google im August 2018 bspw. die Auszeichnung für „Speakable Content“ aufgenommen und unterstützt sie seitdem: einfach.st/speak. Dabei handelt es sich um Inhalte, die gut von Voice-Assistenten und Smart Speakern vorgelesen werden können. Derzeit ist die Auszeichnung „speakable“ ausschließlich für Publisher vorgesehen, aber es ist davon auszugehen, dass sie in Zukunft für alle Websites genutzt werden kann.

Es ist sehr wahrscheinlich, dass in den kommenden Jahren immer wieder neue Auszeichnungsmöglichkeiten von Google unterstützt werden. Des Weiteren hat das Einbinden strukturierter Daten nicht mehr nur allein einen Effekt auf die klassischen Suchergebnisse bei der Google-Suche, wie am Beispiel von „Speakable Content“ ersichtlich ist. Vielmehr ist es Websites dadurch möglich, sich auch in anderen Search-Bereichen zu positionieren und somit den eigenen Traffic zu steigern.




Title-Geddon – war da was bei Ihnen?

R-Leuchtungen! Teil 9

In den Ausgaben bis 54 bis 58 der Website Boosting konnten Sie in der Serie „R4SEO“ von Patrick Lürwer nachvollziehen, wie man die kostenlose Software R verwendet, was sie leistet und wie man sie nutzbringend für die eigene Arbeit für SEO bzw. die Aufklärung im Online-Marketing einsetzen kann. R wurde ja ursprünglich für Statistik entwickelt. Wer das bisher als Entschuldigung verwendet hat, es deswegen links liegen zu lassen, dem sei versichert, dass er damit komplett falschliegt. R kann für den Einsatz im Unternehmen, allen Bereichen voran „Online“, sehr viel mehr leisten, als statistische Berechnungen durchzuführen. Genau genommen ist es ein wirklich nützliches Helferlein bei allen Aufgaben im Umgang mit größeren Datenmengen, mit Daten, die man erst in eine gewisse Struktur bringen muss, und bei der automatischen oder halb automatischen Datenbeschaffung aus praktisch fast allen Quellen aus dem Web! Für die interessierten Einsteiger, aber auch für alle, die nach der Serie von Patrick Lürwer „R-Blut“ geleckt haben, startete in der Ausgabe 62 die neue anwendungsorientierte Serie „R-Leuchtungen“. Sie werden in jeder Ausgabe erfahren, wie Sie ohne Programmierkenntnisse jeweils ein definiertes und in der Online-Praxis häufiger auftretendes Problem rund um das Thema Daten und Auswertungen lösen können. Und keine Sorge, die kleinen Hilfe-Tutorials nehmen Sie Schritt für Schritt an der Hand, sodass Sie auch als Neuling von der Power von R profitieren können. Was hält Sie also ab, das einfach mal auszuprobieren? Die einzelnen Schritte müssen Sie übrigens nicht im Detail verstanden haben. Um an die hilfreichen Daten für ein besseres Ranking zu kommen, müssen Sie im Prinzip nur nachmachen, was Sie hier beschrieben finden. Für dieses Beispiel brauchen Sie übrigens keinerlei kostenpflichtige Tools.

Worum geht es diesmal?

Um den 21.08.2021 herum hat Google das sogenannte Title-Update ausgerollt. Dabei wurde in den Suchergebnissen bei nicht wenigen Seiten der im jeweiligen Quellcode hinterlegte Title durch einen von Google generierten Title ersetzt. Das führte zu einigem Aufruhr bei den aufmerksamen Sitebetreibern, weil zum Teil wohl weniger passende Title erzeugt wurden und man zum anderen einen gewissen Kontrollverlust verspürte.

Einige Tools, so z. B. die SISTRIX-Toolbox, zeigen bereits für einzelne Domains an, ob und welche Title getauscht wurden. Ebenso gibt es bereits Browser-Plug-ins, die Veränderungen direkt in den Suchergebnissen sichtbar machen. Das alles sind aber nur punktuelle Hinweise und bisher bekommt man kaum weiter verarbeitbare Daten geliefert bzw. kann die Ergebnisse nicht downloaden für Checklisten und Handlungsanweisungen.

Die Kernfrage ist, ob sich bei (nahezu) gleichbleibender Position eines Keywords die CTR, also die Klickrate, signifikant derart verändert hat, dass sich der Grund beim Title-Tausch durch Google vermuten lässt. Bleibt z. B. vor und nach dem Update die Position 3 stabil stehen, aber die Klickrate sinkt von 15 % auf 5 %, dann könnte mit hoher Wahrscheinlichkeit das veränderte Ergebnissnippet dafür verantwortlich sein, da sich sonst ja nichts verändert hat. Würde die Position steigen oder fallen, würde sich in jedem Fall bekanntlich auch immer die CTR ändern. Insofern gilt es, Rankings zu filtern, deren Position sich nicht stark verändert hat, jedenfalls nicht über eine normale Schwankungsbreite hinaus. Natürlich tritt auch bei der CTR eine gewisse Schwankung auf.

Die Aufgabe lautet also: Finde alle Rankings, deren Position gleich geblieben ist UND deren CTR sich deutlich verändert hat. Dabei sollten alle Suchphrasen, die als Besonderheit den Domainnamen (Brandbegriffe) enthalten, ignoriert werden.

Das Skript in der vorliegenden Ausgabe nimmt sich dieses Problems an und ist wie folgt strukturiert:

  1. Abholen aller Rankingdaten für zwei definierbare Zeitfenster (vor und nach dem Update)
  2. Definieren gewisser Schwankungstoleranzen für die CTR
  3. Definieren gewisser Schwankungstoleranzen für die Position
  4. Angabe der Brand-Suchbegriffe (Domainname)
  5. Filtern aller ausgeschlossenen Fälle von Punkt 2 bis 4.
  6. Ausgabe der übrig gebliebenen Daten in ein CSV-File zur weiteren Verwendung

Um tatsächlich umfassend mit den Rohdaten direkt von Google arbeiten zu können, muss ein sog. (kostenloses) Entwicklertoken von Google vorliegen (siehe den Infokasten am Rand).

Ihr API-Account bei Google

Um automatisiert bzw. computergesteuert Daten von Google-Tools holen zu können, brauchen Sie dort einen „Developer-Account“. Für diesen bekommen Sie eine von Google erzeugte Mailadresse und ein File mit der Endung .json für die Authentifizierung Ihres Computers bzw. für R, um Daten zu holen. Die Mailadresse dient dazu, einen Nutzer für die Search Console anlegen zu können, und mit dem File kann sich eine Maschine gegenüber Google als berechtigt ausweisen. Wie Sie einen solchen Account anlegen können, haben wir in der Ausgabe 65 ausführlich beschrieben. Falls Sie den Account da angelegt haben, können Sie jetzt erneut darauf zugreifen und müssen nichts weiter tun.

Haben Sie das übersprungen, müssen und sollten Sie das (Schritt 1 und 2 im oben genannten Beitrag) unbedingt nachholen. Bereits in den vergangenen Ausgaben hatten wir Ihnen immer wieder Skripts an die Hand gegeben, mit denen Sie wirklich sehr nützliche Auswertungen mit echten Google-Daten ganz einfach mit wenigen Klicks erzeugen können. Ohne diesen Account bekommen Sie leider keine ausführlichen Daten. Und ohne diese Daten können Sie natürlich auch keine eigenen und detaillierten Hinweise auf Optimierungsmöglichkeiten für Ihr Ranking erzeugen. 

Abbildung 1: An einigen Stellen im Code („# TODO“) müssen einfache Anpassungen vorgenommen werden

Schritt 1: Das R-Skript downloaden und die Parameter eingeben

Holen Sie sich unter einfach.st/rcode6 das Skript für diese Ausgabe 70 bzw. kopieren Sie von dort ganz einfach den Code in Ihre Zwischenablage. Starten Sie R-Studio als „Benutzerhülle“ für R. Mit File/New File erhalten Sie links oben ein neues, noch leeres Fenster für den R-Code. Kopieren Sie ihn von der Webseite direkt in dieses Fenster.

Stellen Sie sicher, dass R mit dem richtigen Arbeitsverzeichnis (Working Directory, kurz WD) arbeitet bzw. legen Sie das Verzeichnis auf Ihrem Computer fest, das für diese Session verwendet werden soll. Dazu klicken Sie sich einfach rechts unten in dem Fenster wie in Abbildung 2 unter den beiden Ziffern 1 gezeigt zu dem gewünschten Verzeichnis durch. Achtung: In diesem Verzeichnis muss dann auch die Datei (oder eine Kopie davon) von Google liegen, die man zu Authentifizierung des Computers braucht. Sie endet auf .json und enthält vorne die bei Google angegebene Mailadresse, gefolgt von einer Zahlen-/Buchstabenreihenfolge. Sie sieht in etwa so aus:

mein-accountname-cr4436ad9828.json

Stimmt das angezeigte Verzeichnis, klickt man einfach unter dem Zahnradsymbol „More“ auf „Set As Working Directory“. Im Fenster links daneben wird dies nun bestätigt mit:

> setwd("~/was/sie/ausgewaehlt/haben") 

Wie immer müssen für R dann noch bestimmte Funktionsbibliotheken (Librarys) installiert bzw. aufgerufen werden. Nach dem erstmaligen Installieren mit dem Befehl

install.packages("libraryname")

 behält R diese Bibliothek in ihrem Dateispeicherbereich. Sie muss dann nicht mehr installiert werden. Der Aufruf einer Bibliothek, um damit arbeiten zu können, bzw. das Laden in den aktiven Arbeitsspeicher muss hingegen nach jedem Start von R vollzogen werden. Der Befehl dazu lautet:

library(libraryname)

Es gilt zu beachten, dass hier keine Anführungszeichen wie beim Installieren verwendet werden. Um den Aufruf einer Bibliothek in den Arbeitsspeicher muss man sich nicht aktiv kümmern, weil er in der Regel immer am Anfang im Skript steht und daher sowieso immer mit ausgeführt wird. Wer die R-Leuchtungen der letzten Ausgaben aktiv angewendet hat, hat bereits alle nötigen Bibliotheken installiert und kann den Code daher später einfach durchlaufen lassen. Bibliotheken kann man übrigens auch leicht über den Menüpunkt „Tools“ und dort „Install Packages“ einzeln installieren. R sucht sich die Speicherorte im Web von alleine.

Abbildung 2: So ist R-Studio strukturell aufgeteilt

Die Anpassungen im Skript sind dort nochmals dokumentiert (alle Zeilen mit einem führenden „#“ stellen Kommentarzeilen dar und sind kein Code).

Sie müssen an sechs Stellen Eingaben/Änderungen vornehmen. Diese sind alle mit „#TODO“ gekennzeichnet.

Zunächst müssen Sie den genauen Namen Ihrer Authentifizierungsdatei (die mit .json am Ende) angeben. Überschreiben Sie einfach die Vorgabe entsprechend:

KEY_FILE <- "name-der-authentifizierungsdatei.json"

Anschließend müssen Sie Ihren Domainnamen noch hinterlegen bzw. überschreiben:

GSC_PROP <- https://www.domainname.com/

Optional: Möchten Sie Suchanfragen nach Ihrem Domainnamen/Brand ignorieren? Dann überschreiben Sie einfach ebenfalls die Vorbelegungen. Brauchen Sie mehr Zeilen, kopieren Sie einfach z. B. die Zeile 2 und fügen Sie diese mit einem überschriebenen Suchwort wieder ein. Diese müssen nur jeweils durch Anführungszeichen und ein abschließendes Komma getrennt werden:

BRAND_QUERIES <- c("brandbegriff-1",
 "brandbegriff-2",
 "brandbegriff-3",
 "brandbegriff-n")

Optional: Nun müssen bzw. können Sie noch die beiden Zeiträume für den Vergleich definieren. Vorbelegt ist:

START_DATE_PRE <- ymd("2021-08-10")
END_DATE_PRE <- ymd("2021-08-16")

START_DATE_POST <- ymd("2021-09-01")
END_DATE_POST <- ymd("2021-09-06")

PRE steht für „vor dem Update“ und POST entsprechend für einen Zeitraum danach. Das Startdatum ist im Beispiel hier so gewählt, dass sicherheitshalber ein Zeitraum einige Tage vor dem Title-Update fixiert wurde. Bei Bedarf können Sie beide Zeiträume entsprechend anpassen, sollten z. B. neue Updates das nötig erscheinen lassen.

Nicht nur für Title-Updates!

Mit dem vorliegenden Skript können Sie übrigens jede Art von Klickveränderungen Ihrer Suchphrasen „überwachen“ bzw. prüfen. Da Sie den Start- und Endzeitraum des Vergleichs frei wählen können, lässt sich damit prinzipiell auch jeder Zeitraum mit jedem anderen vergleichen! Damit haben Sie für jede Art von Sonderanalyse ein recht machtvolles kleines Skript an der Hand, das Ihnen in wenigen Sekunden datengestützte Antworten liefern kann.

Optional: Legen Sie einen Wert fest, um den die Position schwanken darf, ohne gleich als echte Positionsveränderung zu gelten. Da Google Kommawerte bzw. die durchschnittliche Position angibt, schwankt diese eigentlich fast immer um einige Prozentpunkte hinter dem Komma (das in R mit einem Punkt gesetzt wird). Würde man diese Schwankung nicht berücksichtigen, gäbe es für jedes Keyword eine Positionsveränderung, weil bereits ein Ansteigen von Position 2,3 auf 2,4 als Änderung gelten würde. Vorbelegt ist der Wert 0,9, aber Sie können diesen Ihren Bedürfnissen entsprechend verändern. Das macht dann Sinn, wenn Sie zu viele oder zu wenige Daten in der Auswertung haben. Da dies von Domain zu Domain schwankt, kann man keine generellen, verbindlichen Werte angeben. Hier müssen Sie ggf. etwas experimentieren.

POSITION_FLUCTUATION <- 0.9

Optional: Ebenso macht es Sinn, einen natürlichen Korridor für Schwankungen im CTR-Wert zu berücksichtigen. Hier wurde 5 % vorbelegt. Das bedeutet, dass eine Schwankung unter oder über 5 % noch nicht als nennenswerte Veränderung gesehen wird und die Daten weggefiltert werden, die sich innerhalb dieser Breite befinden. Sollten Sie zu viele oder zu wenig Daten bekommen, versuchen Sie einfach, das Skript mit veränderten Werten noch mal laufen zu lassen.

CTR_FLUCTUATION <- 5

Das war auch schon alles, was Sie hinterlegen bzw. anpassen müssen. Klicken Sie nun einfach auf „Source“ rechts oben im linken oberen Fenster (Abbildung 3). Dies löst das Abarbeiten des gesamten Skripts auf einen Rutsch aus.

Abbildung 3: Ein Mausklick auf „Source“ startet das komplette Skript

Das Durchlaufen kann je nach Datenumfang etwas dauern, da die Daten von der Search Console im Batchbetrieb für jeden angeforderten Tag (über das Zeitintervall oben definiert) abgeholt werden (Abbildung 4). Anschließend werden alle empfangenen Daten automatisch ohne weiteres Zutun vom Skript verarbeitet.

Abbildung 4: So bzw. so ähnlich sieht das laufende Skript im Consolenfenster aus

Am Ende des Skripts sorgt noch die letzte Codezeile dafür, dass die fertigen Daten in einer CSV namens „ctr_vergleich.csv“ im Arbeitsverzeichnis gespeichert werden:

write_csv2(gsc_data, "ctr_vergleich.csv")

Selbstverständlich können Sie hier auch einen eigenen Dateinamen vergeben, indem Sie die Vorgabe „ctr_vergleich.csv“ im Skript einfach nach Ihren Wünschen verändern.

Schritt 2: Sehen Sie sich die Auswertungen an und arbeiten Sie damit

Wenn Sie die erzeugte Datei öffnen, finden Sie alle URLs, die in dem von Ihnen definierten Zeitraum bei gleichbleibender Position (innerhalb der definierten Schwankungsbreite) eine CTR-Veränderung über der Prozentzahl haben, die Sie definiert haben. Das ist der Startpunkt für weitere Analysen. Durch die Verwendung der SEO-Tools für Excel kann man die Tabelle problemlos mit weiteren Metriken anreichern, wie z. B. den aktuellen Title und den Inhalt der H1 dazu holen. Dem Vernehmen nach wird beim Austausch der Title von Google häufig auf den Inhalt der H1 zurückgegriffen, sofern er nicht identisch mit dem Title oder wenig aussagekräftig ist.

Beachten Sie bitte, dass Sie von der Google Search Console deutlich mehr Daten bekommen als mit vielen anderen Tools. Es ist daher nicht unwahrscheinlich, dass Sie auch für nur wenige Impressions oder Klicks Datensätze im Ergebnis bekommen. Hier sind die Änderungen der CTR natürlich statistisch nicht aussagekräftig bzw. belastbar. Sie sollten Sie daher in Excel am besten wegfiltern (Zahlenfilter/größer als).

Abbildung 5: Formatiert, nach CTR-Differenz sortiert und nach Klicks gefiltert
Abbildung 6: Einige Tools wie z. B. SISTRIX zeigen veränderte Titles in den Suchsnippets für zwei Datumsangaben an

Bei den meisten Analysen, die wir testhalber vorgenommen haben, hat sich das „Title-Geddon“, wie das Update im Netz zum Teil genannt wurde, übrigens nicht besonders stark ausgewirkt. Es gab zwar möglicherweise viele Title, die tatsächlich getauscht wurden, in eine stark messbare CTR-Veränderung mündete dies allerdings nicht. Die Fälle, die wir extrahieren konnten, zeigten bei einer manuellen Einzelfallprüfung, dass man sicherlich mit der getauschten Zeile gut leben kann.

Trotzdem gibt es im Web zum Teil heftige Beschwerden von Webmaster, dass die Algorithmen alles deutlich verschlimmert hätten. Es ist noch zu früh, stabile Aussagen dazu zu machen, vor allem weil Google angekündigt hat, nochmals nachbessern zu wollen. Trotzdem kann es natürlich nichts schaden, sich einmal in Ruhe anzusehen, ob die Performance Ihrer Suchergebnisse möglicherweise gelitten hat. Hier hilft Ihnen das vorliegende Skript! 




101 Rechtsfehler im Online-Marketing – Folge II

Im Online-Marketing kann man bekanntlich viele teure Fehler machen. Für viele Marketer besonders mysteriös sind rechtliche Mängel. In den folgenden Heften wollen wir den häufigsten Fehlern auf den Grund gehen und jeweils kurz darstellen, was man alles falsch machen kann – und wie es besser geht. In Folge 2 geht es um Social Media und Display-Werbung.

Unzureichende Sensibilisierung von Mitarbeitern für Social Media

Ein Hauptproblem bei Social-Media-Auftritten kleiner und mittlerer Unternehmen ist die unzureichende Schulung der Kolleg:innen, die die Accounts mitbetreuen. Es würde schon helfen, wenn den Mitarbeiter:innen bewusst wäre, dass Facebook & Co keine Spielwiese sind, auf der man Dinge ausprobieren kann, die für die Website „zu gefährlich“ erscheinen.

Zu spät bei Account-Namen

Es ist für Unternehmen um ein Vielfaches günstiger, sich die einschlägigen Aliase bei neuen sozialen Netzwerken jeweils zu reservieren oder durch entsprechende Dienstleister reservieren zu lassen, als später mühsam die Accounts kaufen oder einklagen zu müssen. Dies gilt insbesondere für Start-ups und Unternehmen ohne starke Marken.

Facebook, Twitter und Co: fehlendes Impressum

Auch bei Twitter und Facebook muss ein Impressum vorhanden sein, wenn die Social-Media-Plattformen geschäftsmäßig genutzt werden. In Konzernen ist es wichtig, sich genau zu überlegen, welche Gesellschaft Betreiberin der Social-Media-Profile sein soll.

Fehlende Datenschutzinformation für Facebook-Page

Jede professionelle Facebook-Seite braucht eine Datenschutzinformation. Aus dieser muss sich ergeben, dass die Seite aus datenschutzrechtlicher Sicht gemeinsam mit Facebook betrieben wird. Außerdem sollte darin beschrieben sein, wie die Nutzer:innen ihre Rechte – etwa auf Auskunft und Löschung – geltend machen können.

Fehlende Einwilligung bei Mitarbeiterfotos

Wer Angestellte auf Fotos oder in Videos auf Social-Media-Präsenzen präsentieren möchte, sollte vorher schriftlich die Einwilligung einholen oder gleich eine Art Model-Release-Vertrag mit den jeweiligen Beschäftigten schließen. Wichtig ist, dass denjenigen, die das nicht möchten, kein Nachteil entsteht.

Firmenevents auf Facebook & Co

Wer vorhat, Firmenevents – wenn diese denn irgendwann einmal wieder stattfinden können – in sozialen Netzwerken zu bebildern, muss dafür sorgen, dass die Abgebildeten davon wenigstens wissen. Am besten ist es, schon bei der Einladung darauf hinzuweisen und auch am Veranstaltungsort entsprechende Aushänge zu machen. Wer sich nicht auf Facebook sehen möchte, hat ein Widerspruchsrecht. Wichtig ist in jedem Falle: Augenmaß bei der Auswahl der Bilder.

Selbstbewertungen

Nur weil die Wahrscheinlichkeit, entdeckt zu werden, gering scheint, heißt das nicht, dass Unternehmen sich selbst positiv bewerten sollten. Es ist als Schleichwerbung wettbewerbswidrig. Auch eine Incentivierung positiver Bewertungen durch eigene Mitarbeiter:innen sollte unterbleiben. Im Übrigen kommt insbesondere systematische Selbstbeweihräucherung meist doch heraus, sei es über ausgeschiedene Kollegen, verärgerte Agenturen oder deren Mitarbeiter.

Rabatt gegen Bewertungen

Die Rechtsprechung sieht es außerordentlich kritisch, wenn Kunden Vorteile für die Abgabe einer Bewertung geboten werden. Evident rechtswidrig ist das Versprechen eines Rabatts für eine positive Bewertung. Vertragliche Vereinbarungen, etwa in AGB, negative Bewertungen zu unterlassen, sind unwirksam.

Werbung mit Preisen in Social Media ohne Pflichthinweis

Die Preisangabenverordnung gilt natürlich auch auf Facebook und Instagram. Wer dort gegenüber Privatleuten mit Preisen wirbt, muss mitteilen, dass die Preise inklusive Mehrwertsteuer sind und ob gegebenenfalls Versandkosten hinzukommen.

Anzeigen auf Facebook ohne Pflichtangaben

Auch Werbung in sozialen Netzwerken ist Werbung. Gibt es spezielle branchenspezifische Regeln für die Ausgestaltung von Werbung, müssen diese auch auf Twitter und Facebook eingehalten werden.

Laxer Umgang mit beleidigenden Kommentaren

Unternehmen sind für Nutzerkommentare verantwortlich, sobald sie Kenntnis davon haben. Enthalten etwa die Kommentare von YouTube-Videos Beleidigungen oder falsche Behauptungen, sind Unterlassungsansprüche der Betroffenen die Folge. Zensurvorwurf hin oder her: Rechtswidrige Kommentare müssen gelöscht werden, sobald der Betreiber der Seite davon Kenntnis erlangt.

Verwendung von User-Fotos ohne ausreichende Rechte

Es ist unzulässig, Fotos von Nutzer:innen zu verwenden, ohne dass diese damit einverstanden sind. Die Fotograf:innen haben stets das Recht zu bestimmen, ob und wo ihre Fotos veröffentlicht werden. Im Zweifel braucht es also eine ausdrückliche Erklärung von User:innen, wenn deren Fotos in Sovial-Media-Präsenzen von Unternehmen eingesetzt werden sollen.

Influencer-Marketing ohne Werbekennzeichnung

Jede nicht ohne Weiteres als solche erkennbare Werbung muss gekennzeichnet werden. In Verträgen mit Influencern müssen Unternehmen auf Transparenz drängen, um als Auftraggeber nicht selbst verklagt zu werden.

Unscheinbare Werbekennzeichnung von Influencern

Die Rechtsprechung ist streng und verlangt eine deutliche Kennzeichnung von Influencer-Marketing als Werbung. Ein unscheinbares #ad am Ende einer Wolke aus Hashtags genügt nicht. Besser ist eine deutliches #Werbung oder #sponsored.

Anbieten von Glücksspielen

Die Grenze zwischen erlaubtem Gewinnspiel und verbotenem Glücksspiel sind teilweise fließend. Man muss also darauf achten, dass das Marketing keine Spiele veranstaltet, bei denen die Spieler einen finanziellen Einsatz leisten müssen, um teilnehmen zu können. Einen Like oder Kommentar zu hinterlassen, zählt allerdings nicht als geldwerter Einsatz, der ein Gewinnspiel zu einem illegalen Glücksspiel macht.

Unzureichende Teilnahmebedingungen bei Gewinnspielen

Es gibt keinen Zwang, für jedes Gewinnspiel Teilnahmebedingungen vorzusehen. Allerdings empfiehlt sich das häufig, um die gesetzlichen Pflichtangaben unterzubringen. Diese sollten dann alle wesentlichen Angaben zu dem Gewinnspiel enthalten.

Verwendung von Gewinnspieldaten zu Werbezwecken

Die Tatsache, dass jemand an Ihrem Gewinnspiel teilgenommen hat, rechtfertigt nicht, dieser Person Werbung zuzusenden. Die Nutzung von Daten zu Werbezwecken setzt in aller Regel eine Einwilligung des Betroffenen voraus. Ob man die Teilnahme an einem Gewinnspiel von der Erteilung einer Werbeeinwilligung abhängig machen darf (Kopplung), wird unterschiedlich bewertet. Die Datenschutzbehörden sind eher kritisch.

Werbung in Direktnachricht ohne Einwilligung

Für die Direktwerbung in sozialen Netzwerken gelten die gleichen Regeln wir für die Werbung per E-Mail. Es ist unzulässig, werbende Direktnachrichten zu versenden, ohne dass der Empfänger zuvor eingewilligt hat.

Custom Audience ohne Nutzereinwilligung

Für das Re-Targeting von Nutzern über soziale Netzwerke braucht man in der Regel eine Einwilligung der Nutzer. Dies gilt nach Ansicht der Datenschutzbehörden auch für den Einsatz des Facebook-Pixels.

Direkteinbindung von Social-Plug-ins auf der Website

Datenschützer halten die Einbindung des Like-Buttons und anderer Plug-ins für rechtswidrig, weil eine Übermittlung personenbezogener Daten unmittelbar an das soziale Netzwerk erfolge, ohne dass der Nutzer eingewilligt habe. Drittinhalte sollten wo möglich mit datensparsamen Varianten integriert werden.

Anreicherung von CRM-Daten um Informationen aus Social Media

Sollen Daten aus dem eigenen Customer-Relationship-Management-System mit Daten zusammengeführt werden, die über Social-Media-Monitoring erhoben wurden, setzt dies praktisch immer die Einwilligung des Betroffenen voraus. Fehlt diese, liegt ein Datenschutzverstoß vor.

Getarnte Displaywerbung

Beachten Sie das Gebot der Trennung von Werbung und redaktionellem Inhalt. Wenn sich nicht aus dem Banner unmittelbar ergibt, dass es Werbung ist, muss das Werbemittel als Anzeige gekennzeichnet sein.

Datenerhebung in interaktiven Bannern

Werden personenbezogene Daten über interaktive Banner erhoben, ohne dass der Betroffene dies erkennen kann, ist dies ein Datenschutzverstoß. Jedenfalls bedarf es einer Datenschutzinformation. Vorsicht ist geboten bei zu vielen Pflichtfeldern – es gilt das Gebot der Datenminimierung.

B2C-Bannerwerbung mit Nettopreisen

Werden in Bannern Preise für bestimmte Produkte angegeben, muss es sich dabei um Gesamtpreise handeln. Es ist ein Verstoß gegen die Preisangabenverordnung und damit wettbewerbswidrig, wenn zu den angegebenen Preisen noch weitere Kosten hinzutreten.

Umgehung von Pop-up-Blockern

Werden Pop-ups technisch so ausgestaltet, dass sie herkömmliche Pop-up-Blocker umgehen, ist dies eine unzumutbare Belästigung.

Gekaufte Advertorials

Werbung ist stets von redaktionellen Inhalten zu trennen. Wird Unternehmen die Möglichkeit gegeben, sich im Rahmen eines Advertorials werblich darzustellen, muss die Werbung als Anzeige gekennzeichnet werden.

Fake-Bewertungen

Es ist zwar üblich, aber klar wettbewerbswidrig, vermeintlich objektive Produktbewertungen in Online-Portalen abzugeben. Wenn Mitarbeiter einer PR-Agentur Produkte von Kunden in Online-Portalen lobend erwähnen oder der Verlag auf Amazon eine geschönte Rezension eines eigenen Buches verfasst, ist dies als Schleichwerbung wettbewerbswidrig.

Fehlende Einwilligung beim Targeting

Werden personenbezogene Daten für Targeting-Maßnahmen verwendet, bedarf es häufig einer Einwilligung, jedenfalls aber einer transparenten Information des Nutzers.

Targeting: fehlendes Opt-out

Auch wenn keine Einwilligung erforderlich sein sollte (etwa bei einfachem Re-Targeting), muss dem Nutzer die Möglichkeit gegeben werden, der Profilbildung (auch unter Pseudonym) zu widersprechen. Es bedarf also einer Opt-out-Möglichkeit. In der Praxis geschieht dies in der Regel durch Setzen eines Opt-out-Cookies.

Location Based Messages ohne Einwilligung des Nutzers

Wenn Sie mit mobilen Nachrichten werben, müssen Sie die Einwilligung des Empfängers haben – sowohl für die Zusendung von Werbung als auch für die Nutzung der Standortdaten.

Kundenprofile im Mobile Targeting

Die Bildung umfangreicher Nutzerprofile bedarf nach der Rechtsprechung einer Einwilligung der Betroffenen. Dies gilt jedenfalls, wenn Daten, die auf der Website erhoben werden, mit Klardaten des Betroffenen zusammengeführt werden. Werden Nutzerprofile etwa bei der mobilen Werbung mit Log-in-Daten des Nutzers abgeglichen, um noch mehr Informationen über einen konkreten User zu erhalten, ist das ein Datenschutzverstoß, wenn keine Einwilligung des Nutzers vorliegt.




101 Rechtsfehler im Online-Marketing – Teil 4

Im Online-Marketing kann man bekanntlich viele teure Fehler machen. Für viele Marketer besonders mysteriös sind rechtliche Mängel. In den folgenden Heften wollen wir den häufigsten Fehlern auf den Grund gehen und jeweils kurz darstellen, was man alles falsch machen kann – und wie es besser geht. In Folge 4 geht es um typische Rechtsfehler im Online-Shop.

Fehlende Anpassung an geändertes E-Commerce-Recht

Kaum ein Rechtsgebiet ist so häufigen Änderungen unterworfen wie das Fernabsatzrecht. E-Commerce-Unternehmer müssen sich ständig über diese Änderungen auf dem Laufenden halten und die eigene Website, AGB und Datenschutzinformation anpassen. Dies gilt umso mehr, als Übergangsfristen oft nicht eingeräumt werden. Vom Tag des Inkrafttretens eines neuen Gesetzes muss dieses von den Unternehmern daher in der Regel beachtet werden.

Falsche oder fehlende Widerrufsbelehrung im B2C-Bereich

Im Online-Handel muss jedem Verbraucher das Recht zugestanden werden, den Kauf ohne Angabe von Gründen rückgängig zu machen. Über dieses Widerrufsrecht ist der Verbraucher zu informieren. An Inhalt und Form der Belehrung werden strenge Anforderungen gestellt, die vielfach ignoriert werden. Es ist empfehlenswert, die vom Gesetzgeber zur Verfügung gestellte Musterbelehrung zu verwenden. Ohne anwaltliche Hilfe sollte davon nicht abgewichen werden.

Fehlendes Widerrufsrecht bei digitalen Inhalten

Ein Widerrufsrecht besteht auch für den Download von E-Books, Computerspielen, Apps, Musik oder Filmen. Der Verbraucher hat also 14 Tage nach dem Download Zeit, sich den Vertragsschluss noch einmal zu überlegen. Dies bedeutet auch, dass der Anbieter die Kunden über das Bestehen dieses Rechts ordnungsgemäß informieren muss.

Fehlender Hinweis auf Nichtbestehen eines Widerrufsrechts

Von der Pflicht, im B2C-E-Commerce ein Widerrufsrecht einzuräumen, gibt es viele Ausnahmen. Besteht eine Ausnahme, muss der Verbraucher darauf hingewiesen werden. Dabei genügt es zwar, einen Standardtext unterhalb der Widerrufsbelehrung anzubringen. Einen solchen Passus muss der Händler aber anbringen.

Unnötiges vertragliches Widerrufsrecht

Wer bei der Formulierung von AGB und Widerrufsbelehrung nicht aufpasst, räumt auch solchen Kunden ein Widerrufsrecht ein, bei denen das nicht notwendig ist. Das ist zwar nicht abmahnfähig, aber unnötig. So können dann etwa gewerbliche Besteller zu den gleichen Konditionen an ein Widerrufsrecht gelangen wie Privatkunden. Auch wenn eigentlich Ausnahmen gelten, kann aus Versehen ein Widerrufsrecht eingeräumt werden.

Unklare Situation bei Rücksendung der Ware

Der Verbraucher muss eindeutig seinen Widerruf erklären. Die Zurücksendung der Ware soll nach dem Gesetz dafür nicht genügen. Wird in den AGB oder auf dem Retourenschein nicht ausdrücklich klargestellt, dass die Rücksendung als Ausübung des Widerrufsrechts aufgefasst wird, ist bei jeder einfachen Rücksendung unklar, was der Kunde eigentlich wollte.

Fortlassen des Widerrufsmusters

So absurd es auch klingen mag: Das Gesetz verlangt, dass jedem privaten Online-Kunden ein Muster zur Verfügung gestellt wird, das der Verbraucher verwenden kann, um seinen Widerruf zu erklären. Wird dieses gesetzliche Muster weggelassen, drohen Abmahnungen.

Unvollständige Verbraucherinformation

Das Fernabsatzrecht sieht eine scheinbar endlose Anzahl von Umständen vor, über die der Verbraucher im Detail zu informieren ist. Wird auch nur eine dieser Informationen nicht mitgeteilt, ist die Verbraucherinformation unvollständig, mit der Folge, dass der Shop-Betreiber abgemahnt werden kann.

Fehlende Angaben zu Herstellergarantien

Zu den Pflichtinformationen gehören zum Beispiel Angaben zu bestehenden Garantien. Noch ist gerichtlich nicht geklärt, ob dazu auch Herstellergarantien gehören, auf die der Händler keinen Einfluss hat. Dennoch sollte man solche Garantien jedenfalls dann bei dem jeweiligen Produkt verlinken, wenn mit einer Garantie geworben wird.

Unzutreffende Produktbilder

Anzugeben sind auch die wesentlichen Merkmale der Ware. Ein Teil dieser Pflicht lässt sich über geeignete Fotografien erledigen. Hierbei ist aber Vorsicht geboten. Auf den Bildern müssen die Produkte sein, die auch verkauft werden. Ein häufiger Fehler ist, dass daneben auch weitere Gegenstände abgebildet werden, die – aus Sicht des Kunden – womöglich im Preis enthalten sind.

Unzureichende Versandkostenangaben

Häufig fehlen konkrete Angaben zu Versandkosten. Sind Versandkosten abhängig von Menge oder Gewicht, muss sich dies aus der Versandkostenangabe eindeutig ergeben. Unterscheiden sich die Kosten für den Versand der Ware ins Ausland, muss auch dies klar und deutlich auf der Website angegeben sein. Insbesondere bei Auslandsversandkosten wird oft nachlässig gehandelt.

Fehlende Angabe der verfügbaren Zahlungsmittel

Online-Händler müssen schon vor Vertragsschluss auf der Website angeben, auf welchem Wege der Verbraucher bezahlen kann. Das wird häufig übersehen, lässt sich aber auch durch Einbindung entsprechender Logos lösen.

Unzureichende Angabe von Lieferzeiten

Ebenfalls ein häufiger Fehler sind unkonkrete Angaben zur Belieferung. Das Gesetz sieht vor, dass konkrete Angaben zu machen sind, wann mit einer Lieferung zu rechnen ist. Angaben wie „Fremdbelieferung“, „Lieferung auf Nachfrage“ oder „nachbestellt“ genügen nicht den strengen Anforderungen. Zulässig ist dagegen die Angabe von Circa-Fristen (Abschnitt 5.2.7).

Fehlende Informationen bei digitalen Inhalten

Werden E-Books, Apps oder Software oder der Zugang zu Musik oder Video-Portalen verkauft, muss über die technische Funktionsweise der Inhalte und etwaige Urheberrechtsschutzmechanismen informiert werden. Der Anbieter ist auch dazu verpflichtet, darüber zu informieren, mit welcher Hard- und Software die erworbenen digitalen Inhalte kompatibel sind.

Fehlende Angaben zur Sprache des Kundendienstes

Ein beliebter Fehler bei der Erweiterung des Online-Shops auf ausländische Märkte ist, dass zwar die Website in verschiedenen Sprachen angeboten wird, sodass Bestellungen auch ausschließlich in der fremden Sprache möglich sind. Gleichzeitig wird Support jedoch nur auf Englisch und Deutsch angeboten. In diesem Fall ist in der jeweils anderen Sprache auf den Umstand gesondert hinzuweisen, dass es keinen Kundendienst in dieser Sprache gibt.

Link zur EU-Streitbeilegungsplattform

Die Europäische Union hat eine Online-Plattform ins Leben gerufen, die eine einfache, effiziente, schnelle außergerichtliche Lösung für Streitigkeiten zwischen Verbrauchern und Händlern bieten soll. Auf diese Plattform muss jeder B2C-E-Commerce-Händler verlinken.

Fehlende Pflichtangaben im Warenkorb

Die wesentlichen Merkmale der Ware müssen im Warenkorb noch einmal wiedergegeben werden. Ein bloßer Link auf die Produktdetailseite soll nicht genügen. Viele Richter interpretieren das recht weit und wollen zum Beispiel auch das Material oder die genaue Größe im Warenkorb noch einmal sehen.

Fehlende Übermittlung der Informationen in Textform

Sämtliche Informationen, die vor Vertragsschluss zu erbringen sind, müssen dem Verbraucher auch auf einem dauerhaften Datenträger, d. h. auf Papier oder per E-Mail zugehen. Hierin liegt einer der wesentlichen Fehler bei den Verbraucherinformationen. Alle Pflichtangaben müssen dem Kunden dauerhaft vorliegen. Die Möglichkeit der Speicherung von der Website genügt nicht.

Fehlende oder veraltete Datenschutzerklärung

Jeder Online-Shop braucht eine Datenschutzinformation. Diese Datenschutzerklärung muss ein lebendes Dokument sein. Wird ein neues Tool oder ein neuer Dienstleister eingesetzt, muss das in aller Regel in der Datenschutzinformation vermerkt werden.

Fehlende Verlinkung der Datenschutzinformation

Die Information über die Datenverarbeitung muss erfolgen, bevor die Daten erhoben werden. Deshalb empfiehlt es sich, die Datenschutzerklärung transparent an zentraler Stelle (zum Beispiel in der Fußzeile des Shops) zu verlinken.

Zusammenkopierte AGB

Allgemeine Geschäftsbedingungen sind der Standardvertrag des Händlers mit seinen Kunden. Einfach AGB der Konkurrenz zu übernehmen ist schon deshalb keine gute Idee, weil dessen Situation eine andere sein kann als die eigene. Zudem sind allgemeine Geschäftsbedingungen häufig urheberrechtlich geschützt, sodass eine Kopie auch ein Urheberrechtsverstoß sein kann. Es ist gar nicht so selten, dass AGB an sich überflüssig sind. Wer einen B2C-Online-Shop für Textilien betreibt, wird in AGB kaum zulässige Abweichungen vom Gesetz vereinbaren können. Dann kann man auf AGB auch gleich verzichten.

Veraltete AGB

Das Recht ändert sich häufig. Gerade erst ist das Gesetz über faire Verbraucherverträge verkündet worden, das etwa für Aufrechnungen und Kündigungsbestimmungen in AGB neue Regeln festlegt. Diese müssen jeweils aktuell umgesetzt werden. Auch neue obergerichtliche Urteile führen manchmal zu Anpassungsbedarf.

Verwendung identischer AGB im Multi-Channel-Marketing

Es kann problematisch sein, die gleichen allgemeinen Geschäftsbedingungen und Widerrufsbelehrungen in verschiedenen Vertriebsformen einzusetzen. Wird z. B. über das Zustandekommen des Vertrages belehrt, muss diese Belehrung auf eBay anders aussehen als im Online-Shop. Wird zudem auch über den stationären Handel oder etwa über Vertriebspartner verkauft, sind unter Umständen weitere Anpassungen notwendig.

Vertragsannahme statt Bestellbestätigung

Online-Händler sind verpflichtet, dem Verbraucher den Eingang der Bestellung per E-Mail zu bestätigen. Bisweilen wird aber keine Bestellbestätigung („Ihre Bestellung ist bei uns eingegangen“), sondern gleich eine Vertragsbestätigung („Vielen Dank für die Bestellung der Ware, die wir so schnell wie möglich versenden werden“) versandt. Das ist nachteilig, weil die Möglichkeit wegfällt, zu prüfen, ob der Bestellung etwa eine fehlerhafte Preisauszeichnung im Shop zugrunde liegt.

Nichtbeachtung von Spezialgesetzen

Für eine Vielzahl von Artikeln bestehen spezielle gesetzliche Regelungen. Diese gelten oft unabhängig von der konkreten Vertriebsform und regeln die Werbung für die besonderen Produkte oder auch die Einzelheiten des Produktvertriebs. Jeder Händler sollte sich bei seinem Interessenverband oder einem Rechtsanwalt erkundigen, welche speziellen Regelungen zu beachten sind.

Verstöße gegen das Textilkennzeichnungsgesetz

Eine typische Regelung, die oft übersehen wird, ist die Textilkennzeichnungsverordnung. Danach muss bei der Bewerbung sämtlicher Textilien eine Angabe der Textilfaseranteile erfolgen. Spezialversender sind darauf eingerichtet. Doch auch wer beispielsweise als Add-on zu Merchandising-Zwecken T-Shirts vertreibt, muss die Pflichtangaben in die Werbung aufnehmen.

Kostenpflichtige Rufnummer für Kundenhotline

Die für den Kunden anfallenden Kosten für Hotlines zu Vertragsfragen dürfen den Grundtarif nicht übersteigen. Solche Kundenhotlines dürfen daher keine teuren Mehrwertrufnummern sein. Werden verschiedene Hotlines betrieben, sollte klargestellt werden, welche Rufnummer welchem Zweck dient.

Überhöhte Kosten für bestimmte Zahlungsmittel

Das Gesetz reguliert die Kosten, die dem Verbraucher für den Einsatz bestimmter Zahlungsmittel abverlangt werden dürfen. Zum einen muss es stets eine kostenfreie gängige Möglichkeit der Bezahlung geben. Zum anderen dürfen die verlangten Zusatzkosten für die Bezahlform nicht den Betrag übersteigen, den der Händler für den Einsatz des jeweiligen Zahlungsmittels hat.

Untergeschobene Zusatzleistungen

Wer seinen Kunden neben der Hauptleistung im Bestellprozess weitere zusätzliche Leistungen verkaufen möchte, muss den Kunden dies ausdrücklich bestätigen lassen. Der Kunde muss also jeweils ein Häkchen anklicken müssen, um die Zusatzleistung zu buchen.

Nichterstattung von Versandkosten im Falle des Widerrufs

Dem Verbraucher sind die Kosten für einen Standardversand der Ware vom Händler zum Kunden zu erstatten, wenn der Kunde den Kaufvertrag widerruft. Etwaige Versandkostenpauschalen sind also mit dem Kaufpreis der Ware zu erstatten. Wer das nicht tut, handelt wettbewerbswidrig und kann abgemahnt werden.

Nettopreise in Bannern

Es ist unproblematisch, in Werbebannern mit Preisen zu werben. Werden in einer Werbung, die sich jedenfalls auch an Verbraucher richtet, Preise angegeben, müssen dies jedoch Gesamtpreise sein, zu denen weder Steuern noch sonstige Gebühren oder Kosten hinzukommen. Andernfalls handelt es sich um einen Verstoß gegen die Preisangabenverordnung.

Fehlende Grundpreisangabe

Messbare Waren, die in bestimmten Mengen abgefüllt werden, müssen auch im Online-Shop mit einer Grundpreisangabe versehen werden. Hier muss dem Verbraucher also ein Preis pro Maßeinheit (Kilogramm, Liter etc.) mitgeteilt werden. Fehlt eine solche Angabe bei einzelnen Artikeln oder erfolgt die Angabe nicht unmittelbar bei der Beschreibung der Ware, ist dies in der Regel wettbewerbswidrig und kann von Konkurrenten abgemahnt werden.

Unzureichende Bevorratung bei Sonderangeboten

Es ist unzulässig, ein Sonderangebot zu bewerben, wenn die Ware nicht für einen Mindestzeitraum zu den beworbenen Konditionen erhältlich ist. Daran ändert auch ein dezenter Hinweis „Nur solange der Vorrat reicht“ nichts.

Unzulässiges Werben mit Gütesiegeln

Mit Gütesiegeln darf nur werben, wenn der Prüfprozess für das jeweilige Siegel abgeschlossen und dem Händler formal das Recht eingeräumt wurde, das Siegel auf der Website zu verwenden. Klar irreführend ist auch die Werbung mit einem selbst kreierten Siegel, wenn dies einen offiziellen Eindruck erwecken soll.

Umgang mit Verbraucherbestellungen in B2B-Shops

Der rechtssichere Betrieb eines B2B-Online-Shops setzt einen wirksamen Ausschluss von Verbrauchern voraus. Dabei genügt es nicht, auf die Website oder in die AGB zu schreiben, dass Verträge nur mit Unternehmen geschlossen würden. Erforderlich ist vielmehr, dass kontrolliert wird, dass der Vertragspartner tatsächlich ein Unternehmer ist. Auf eine entsprechende Angabe des Kunden darf der Händler aber vertrauen. Nachprüfungen sind nicht erforderlich.

Sorglosigkeit im Cross-Border-Vertrieb

Händler, die über Ländergrenzen hinweg Online-Vertrieb betreiben, müssen sich bewusst sein, dass sie dadurch unter Umständen ausländisches Recht zur Anwendung bringen. Auch bei der Erstellung von allgemeinen Geschäftsbedingungen muss darauf geachtet werden. Hier ergeben sich aus Sicht des Versandhändlers Gestaltungsspielräume, die genutzt werden sollten.

Nutzung von Kundendaten für Werbe-E-Mails

Ein weitverbreiteter Irrglaube ist die Annahme, bestehende Kundendaten aus Online-Shop-Bestellungen könnten für die Versendung von Newslettern genutzt werden, ohne dass eine ausdrückliche Einwilligung des Kunden erforderlich ist. Zwar gibt es hier ein Schlupfloch, dessen Voraussetzungen in § 7 Abs. 3 UWG geregelt sind. Die Anforderungen sind jedoch hoch. Von der Ausnahme Gebrauch machen kann nur, wer es explizit darauf anlegt.

Reaktivierungskampagnen ohne Einwilligung

Dementsprechend sind auch Reaktivierungskampagnen von Bestandskunden regelmäßig nur bei Vorliegen einer Einwilligung der Kunden zulässig. Dies gilt übrigens auch für gewerbliche Kunden.

Werbung in Transaktions-E-Mails

Der Bundesgerichtshof hat entschieden, dass Werbung in Transaktions-E-Mails (z. B. Bestellbestätigungen oder Autoresponder) nur zulässig ist, wenn der Empfänger eine Werbeeinwilligung erteilt hat.

E-Mails an Warenkorbabbrecher

Es ist unzulässig, ohne Einwilligung per E-Mail Aufforderungen an potenzielle Kunden zu senden, einen zuvor abgebrochenen Kauf abzuschließen.

Bitten um Feedback per E-Mail

Auch Feedbackanfragen werden von der Rechtsprechung für Werbung gehalten. Daher sind auch solche E-Mails einwilligungsbedürftig. Es bedarf also einer Einwilligung oder die Voraussetzungen der Bestandskundenwerbung nach § 7 Abs. 3 UWG müssen eingehalten werden.




PRIMING – DIE ELEGANTE FORM DER KUNDENBEEINFLUSSUNG Websiteoptimierung mit Köpfchen

Jeder ist steuerbar, wenn man es richtig anstellt. Dabei ist es immer ein schmaler Grat, inwiefern bzw. wie stark man seine Besucher bei ihren Entscheidungen aktiv beeinflusst. Kognitive Verzerrungen können daher eine mächtige Waffe im Kampf um Kunden sein. Während in der Offline-Welt solche Instrumente zur Steuerung von Aufmerksamkeit seit Langem bekannt sind, nutzen bisher nur wenig Online-Verantwortliche dieses Repertoire der Kognitionspsychologie. Online-Expertin und Psychologin Sarah Weitnauer erklärt, wie man Priming-Effekte in Websites integriert, die nicht nur die Aufmerksamkeit der Kunden gezielt lenken, sondern auch den Verkauf nachweislich pushen.

Was macht Primes so besonders?

Primes sind sinnvoll, weil sie Conversions boosten, die Markenbildung und -bindung steigern, das Image aufwerten und den Umsatz in die Höhe treiben – kurz, weil es unter allen wirtschaftlichen Aspekten sinnvoll ist, diese Form der psychologischen Beeinflussung auf Webseiten anzuwenden. Die Priming-Effekte sind ganz klar monetär quantifizierbar. Darüber hinaus kann im Online-Marketing die Wirksamkeit an diversen KPIs wie zum Beispiel Verweildauer und Conversions gemessen werden. Dadurch sind Priming-Effekte im E-Commerce skalierbar.

Deshalb sollte mit Primes gearbeitet werden:

Wenn beim Superbowl ein Werbeclip von 30 Sekunden Dauer zu sehen ist und fünf Millionen Euro kostet, liegt es auf der Hand, dass alle Register gezogen werden müssen. Priming-Effekte und Trigger werden genutzt, um eine klar vorhersagbare Reaktion hervorzurufen – schließlich muss das aufgewendete Budget hereingespielt werden. Alle großen internationalen Webseiten mit hohen Besucherzahlen nutzen Priming. Dass im deutschsprachigen Raum der E-Commerce noch nicht nachgezogen hat, ist seltsam. Priming ist ein mächtiges Werkzeug. Zusätzlich wird jeder, der sich Gedanken über Primes macht, weniger versehentlich eingebaute negative Primes und Assoziationen auf seiner Website haben. Dadurch wird jede Seite besser performen.

Gleichzeitig können Primes dazu genutzt werden, die Kunden auf eine vom Seitenbetreiber gewünschte Art und Weise durch die Seite zu führen. Ähnlich wie im Supermarkt, wo Käufer geschickt an Produkten, die nicht auf ihrem Einkaufszettel stehen, vorbeigeleitet werden, bis sie zu den Alltagsprodukten wie Gemüse, Kaffee oder Milch gelangen.

Was ist ein Prime?

Ein Prime kann ein Bild, ein Wort, eine Farbe oder bereits das Design sein. Primes beeinflussen das Einkaufsverhalten. Ein potenzieller Käufer würde ohne Prime die Waren A, B, C in den Einkaufswagen legen, wohingegen ein durch einen Prime ausgerichteter Käufer die Waren X, Y, Z auswählt.

Priming ist eine Form von Voraktivierung. Ein Prime bedeutet Beeinflussung der Wahrnehmung und Reaktion auf einen Reiz B durch einen vorhergehenden Reiz A. Ein Prime wirkt sich auf das implizite Gedächtnis aus – also auf das, was unbewusst da jedoch nicht greifbar ist – und benutzt dieses, um eine veränderte Reaktion auf einen anderen, bald darauffolgenden Reiz zu bewirken.

Abbildung 1: Verhaltensänderung durch Prime
Abbildung 2: Es ist wissenschaftlich belegt, dass Smileys die Zahlungsbereitschaft erhöhen

Ein klassisches Beispiel für einen Prime und die darauffolgende Handlungsveränderung zeigt die Studie von Rind und Bordia (Rind, B., & Bordia, P. (1996). Effect on restaurant tipping of male and female servers drawing a happy, smiling face on the backs of customers‘ checks. Journal of Applied Social Psychology, 26, 218-225).

Ein und derselbe Kellner setzt auf die Rechnung verschiedener Restaurantgäste entweder ein stilisiertes Gesicht 🙂 oder überbringt die Rechnung ohne Modifikation. Der Kellner erhält für Rechnungen mit Smiley signifikant mehr Trinkgeld. Das Betrachten des Lächelns und sein Effekt auf die Gehirnaktivierung wirken sich auf die Spendabilität der Gäste aus. Übertragen in den Online-Bereich bedeutet das: Lachende Gesichter auf Webseiten wirken über die Spiegelneuronen als positiver Prime. Das zeigt sich zum Beispiel in höheren Verweilzeiten und in der Anzahl der Klicks. In Anwendung kommt es zum Beispiel im Logo von Geschenke24.de.

Abbildung 3: Smiley in Logo eingebunden

Primes sollten sorgfältig gewählt werden. Für manche Webseiten sind Smileys oder lachende Gesichter nicht geeignet, weil sie das Seitenthema nicht stützen. Das ist offensichtlich, wird jedoch in der Realität häufig nicht umgesetzt.

Sind Primes wirklich verhaltenswirksam?

„Nur weil ich etwas lese, ändert sich doch nicht mein Verhalten!“, denken viele. Zugleich ist die Beeinflussbarkeit wissenschaftlich belegt.

Im Experiment lasen Personen Wörter, die sich klar auf Stereotype älterer Menschen bezogen, wie zum Beispiel verwirrt, einsam, grau und Rente. Alle Wörter, die sich auf die Geschwindigkeit von Körperbewegungen im Alter bezogen, wurden gezielt ausgeklammert. Allein das Öffnen des Denkschemas „alt“ führte in diesem Versuch dazu, dass sich die Personen nach dem Lesen mit langsamerer Schrittfolge über einen Korridor bewegten. Der Clou an der Sache: Keine der Versuchspersonen war sich über dieses Verhalten im Klaren. Ebenso wenig sind sich Website-Besucher einer subtilen Steuerung durch Priming bewusst. Deshalb können Primes sowohl in Überschriften als auch dem Textkörper oder in Bildunterschriften genutzt werden (Bargh, J. A., Chen, M., & Burrows, L. (1996). Automaticity of social behavior: Direct effects of trait construct and stereotype activation on action. Journal of Personality and Social Psychology, 71(2), 230-244).

Priming ist eine Form von Websiteoptimierung:

  • Negative Primes werden eliminiert
  • Wahrnehmung der Kunden gezielt

auf bestimmte Bereiche lenken

  • Stimmung und Emotion beeinflussen
  • Gezieltes Öffnen von impliziten Gedächtnisinhalten,

um Conversions zu erhöhen

Als Beispiel eines Primes wurde auf dieser Website im Hintergrund die Kuhweide ausgespielt. Alle anderen Faktoren wie Bilder, Texte und Anordnungen blieben gleich. Interessanterweise sind die Tiere nicht einmal scharf erkennbar und wirkten dennoch als Prime für BIO. Zeitgleich mit der Ausspielung stiegen die Anfragen, ob es sich hier um eine Bio-Metzgerei handle, signifikant. Allein das Einblenden des Bildes öffnet als Prime ein Gedächtnisschema und ändert das Verhalten.

Abbildung 4: Primingeffekt durch ein Bild; Quelle: Fleischlust.com

Fällt Priming den Kunden auf?

Viele Menschen fragen, wenn sie etwas über Primes erfahren: „Aber fällt Priming nicht auf? Ich nehme ja bewusst wahr, dass es so was wie Primes gibt.“

Die gute Nachricht: Es fällt niemandem auf und Primes sind immer wirksam.

Die schlechte Nachricht: Keiner ist vor Beeinflussung durch Priming gefeit, weder in der Online-Kampagne, der Offline-Werbung noch in der Politik oder in zwischenmenschlichen Beziehungen. Wenn Priming auffällt, wurde meistens Reverse Priming (siehe unten) gezielt eingesetzt.

Was ist ein Ankereffekt? Oder wie aus 20 $ 123 $ werden

Der allseits bekannte Daniel Kahnemann führte ein klassisches Ankerexperiment durch. Er fragte Personen, wie viel Geld sie bei einer Ölpest für Seevögel zu spenden bereit wären.

Gruppe A erhielt die Frage: „Wären sie bereit, 5 $ zu geben?“ Diese Versuchspersonen kamen auf einen durchschnittlichen Spendenwert von 20 $.

Gruppe B wurde gefragt: „Wären sie bereit, 400 $ zu geben?“ Hier wären pro Versuchsperson durchschnittlich 123 $ gespendet worden – ein Vielfaches des Spendendurchschnitts der Gruppe A.

Die willkürliche, von den Wissenschaftlern vorgegebene Zahl hatte sich in den Köpfen der Leute verankert und sich direkt auf das Ergebnis ausgewirkt.

Menschen orientieren sich instinktiv an den momentan vorhandenen Umgebungsinformationen, ohne dass ihnen dieser Einfluss bewusst wird. Interessanterweise haben diese Informationen selbst dann einen Einfluss, wenn sie für die Entscheidung keinerlei Relevanz haben. Ob das die selbst gedrehte Zahl am Glücksrad ist oder eine durch eine andere Person vorgegebene Zahl, spielt keine Rolle. Anker sind willkürlich, können aber gezielt getriggert werden.

Tabelle 1: Veränderte Spendenbereitschaft durch Ankereffekt (Karen E. Jacowitz, Daniel Kahneman: Measures of Anchoring in Estimation Tasks. Personality and Social Psychology Bulletin 21, 1995, S. 1161–1166)

Ankereffekte zur Conversion-Erhöhung

Ein Anker hält wie die Leine das Boot. Dieses ist durch den Anker fest an einen bestimmten Punkt gebunden und kann sich ausschließlich in einem begrenzten Umkreis bewegen. Analoges dazu geschieht im menschlichen Gehirn. Der eingeimpfte Gedanke an eine Zahl, die jedoch nichts mit der Sache per se zu tun hat, hat ungeahnte Auswirkungen. Der Handlungsraum schrumpft durch den Anker auf einen begrenzten Kreis von Werten, ohne dass wir Menschen uns dessen bewusst sind. Als unbewusste Suggestion aktiviert der Anker vorhersehbare Assoziationen, welche über den oben erklärten Mechanismus des Priming die darauffolgende Handlung beeinflussen.

Auf der Website Geschenke.24.de wurden Ankereffekte eingesetzt, um die Conversions zu erhöhen. Das getestete Produkt ist eine kleine Holzkiste, die üblicherweise dazu genutzt wird, Geldgeschenke zu verpacken. Dazu wurde das ursprüngliche Produktbild durch ein anderes ersetzt. Jeder der vier neuen Varianten lag die gleiche Box zugrunde. Allerdings wurden im Gegensatz zur Originalvariante diverse Geldscheine deutlich unterteilt gezeigt. Zusätzlich wurde die Jahreszahl aktualisiert und als Namen die häufigsten Modevornamen der 90er verwendet.

Es ergaben sich hier als signifikanter Effekt höhere Conversions.

Abbildung 5: Das Original. Dieses wurde gegen eine der …
ung 6: … vier Varianten getestet

Welche der beiden Formen heißt Maluma?

Die signifikante Mehrheit der Befragten entscheidet sich immer wieder für die linke Form. Die Form wirkt, wie hier deutlich wird, auf die Erwartungshaltung. Menschen haben Schubladen im Kopf, je nachdem, was wir zu einer Sache oder Situation mal gespeichert haben, ploppt die nächste Gehirnschublade auf. Fast wie bei der Post, wenn mehrere Päckchen in der Packstation abholt werden und, sobald das eine Fach geöffnet und wieder geschlossen wurde, gleich das nächste aufspringt und so weiter.

Durch einen Prime wird also eine bestimmte Abfolge von Gedanken und Handlungen ausgelöst. Dies führt zu:

  1. Schnellerer Wahrnehmung
  2. Leichterer Merkfähigkeit
  3. Höherer Relevanz

Diese aufploppenden Assoziationen heißen Schemata. Sie sind eine Art von strukturierten Daten des Gehirns.

Mit Bedacht kombinierte Effekte können sich hervorragend ergänzen. Sie einzeln zu sehen, wäre wie den Geschmack einer Mozartkugel allein am Fett und Zuckergehalt festzumachen. Denn auch hier gilt: Das Ganze ist mehr als die Summe seiner Teile (Köhler, W. (1929). Gestalt psychology. Oxford, England: Liveright).

Welche Primes existieren und welche davon spielen fürs OM eine Rolle?

  • Semantisches Priming:
    Die Bedeutung von Bildern oder Worten beeinflusst spätere Gedanken und folgendes Verhalten:
    LÖWE triggert TIGER und vice versa. Priming bei der Sprachverarbeitung ist also ein lokaler und kurzfristiger Kontexteffekt.

  • Nicht-assoziatives semantisches Priming:
    Eng verwandte Konzepte, bei denen es eine eindeutige Schubrichtung gibt. Der Gedanke A triggert zwar den Gedanken B, Gedanke B allerdings nicht A, sondern einen ganz anderen Gedanken C. Es funktioniert also nicht in beide Richtungen.
    Beispiel:WELTALL triggert SONNE, SONNE triggert weniger das WELTALL, sondern eher diverse Planeten wie MARS, dieser triggert weniger die SONNE als einen bekannten Schokoriegel.
     
  • Perzeptives Priming:
    Durch miteinander logisch verbundene oder verwandte Reize wird ein bestimmtes Verhalten innerhalb der Website nahegelegt. Zum Beispiel: Ein Produkt wird angeklickt, weil es vorher im Header getriggert wurde.
     
  • Konzeptuelles Priming:
    Verwandte Konzepte werden hier verwendet, um die Antwort zu primen.
    Zum Beispiel: LÖWE  -> AFRIKA
     
  • Phonologisches Priming:
    Wörter, die ähnlich klingen oder sich reimen. Beispiel: LÖWE triggert MÖwE.
     
  • Assoziatives Priming:
    Primt auf eine Idee. Das Wort KAFFEE primt den Gedanken an KUCHEN.
     
  • Maskiertes Priming:
    Hier wird ein Wort oder ein Bild unterhalb der Wahrnehmungsgrenze gezeigt, durch die unbewusste Wahrnehmung werden bestimmte Schemata geöffnet. Diese ermöglichen später ein schnelleres Erkennen und eine leichtere Einordnung in die eigene Gedankenwelt.
     
  • Repetitives Priming:
    Stetige Wiederholung eines Wortes, eines Bildes oder eines ganzen Satzes wird spätere Gedankengänge beeinflussen. Hierzu gehören unter anderem Slogans.
     
  • Rückwärtsgerichtetes Priming:
    Menschen, die bemerken, dass sie gesteuert werden, reagieren meist mit einer überdeutlichen Reaktion in die gegensätzliche Richtung. Diese halten sich dann oft für besonders schlau und gehen dem Prime trotzdem auf den Leim.

Fazit

In der Online-Welt werden die Synergieeffekte von Psychologie und Marketing noch kaum genutzt. Dabei schlummert hier ein riesiges Potenzial, das im E-Commerce verschenkt wird. Durch das gezielte Setzen von Primes kann das Verhalten in eine bestimmte Richtung gelenkt werden. Priming im Webdesign und der Produktpräsentation fußt auf den Erkenntnissen der Wahrnehmungspsychologie. Im E-Commerce können Kunden direkt auf der Website mit Primes für Produkte empfänglich gemacht werden. Allerdings sollte nur das schmackhaft gemacht werden, was auch für den Kunden sinnvoll ist. Sonst muss im schlimmsten Fall mit Retouren gerechnet werden.

Im Web wirken Primes nicht nur direkt bei der Conversion, sondern oft schon viel früher. Ob Rezension, Bewertung oder Empfehlung, alles kann mit impliziten Verführungen, den Primes, angereichert werden, um den Gedanken die gewünschte Richtung zu bahnen. Priming kann auf der gesamten Klaviatur des Online-Marketings genutzt werden. Wer jetzt noch nicht die Psychologie fürs Web entdeckt hat, sollte sich sputen, denn mit der Zeit ist nicht der Zeit voraus. Noch haben die Ersten, die Primes einsetzten, am Markt wertvolle Vorteile.




Leichter arbeiten mit dem Google Ads Editor

Der Google Ads Editor ist ein kostenloses Google-Tool, welches das Offline-Bearbeiten von Google-Ads-Kampagnen erlaubt. Trotz vieler Gemeinsamkeiten mit dem Web-Account gibt es einige hilfreiche Features, die vom Web-Interface abweichen oder dort erst gar nicht verfügbar sind. Auf diese Weise stellt der Editor eine mögliche Alternative, auf jeden Fall aber eine wertvolle Ergänzung für das Erstellen und Verwalten von Kampagnen dar. Lesen Sie eine Einführung und einen Überblick über besonders nützliche Funktionen.

Der Google Ads Editor ist einigen Werbetreibenden von früher her sicherlich noch als AdWords Editor geläufig. Er ist nicht mehr im Account selbst erhältlich, kann dafür in der aktuellen Version 12.6. für Windows und Mac unter https://ads.google.com/home/tools/ads-editor/ heruntergeladen werden. Sobald der Download abgeschlossen ist, starten Sie per Doppelklick den Installationsvorgang. Nach erfolgreicher Installation öffnen Sie den Editor. Um den Ads Editor zu verwenden, müssen Sie zunächst mindestens ein Konto herunterladen.

Übersicht

Der Aufbau des Google Ads Editors weist zahlreiche Parallelen zum aktuellen Web-Interface auf.

Im oberen Bereich gibt es die sogenannte Toolbar (1) mit zahlreichen Funktionen wie dem Öffnen, Herunterladen und Hochladen von Konten.

Mit der Baumansicht (2) wählen Sie die Elemente, die Sie aufrufen wollen: Konto, Kampagnen, Anzeigengruppen. Über das Trichtersymbol oberhalb können Sie Filter und Gruppierungen setzen.

Die Typliste (3) gibt vor, welche Inhalte Sie sich ansehen: Kampagnen, Anzeigengruppen, Keywords, Anzeigen oder Anzeigengruppen. Ebenfalls in diesem Bereich sind die Gemeinsam genutzte Bibliothek sowie die benutzerdefinierten Regeln.

In der Datenansicht (4) sehen Sie nun das, was Sie in Baumansicht und Typliste eingestellt haben. Sobald Sie hier einzelne oder mehrere Elemente markieren, können Sie diese im darunterliegenden Bearbeitungsfeld ändern und neu einstellen.

Abb. 01: Navigation Google Ads Editor (Quelle: https://support.google.com/adwords/editor/answer/30535)

Grundsätzliche Funktionsweise

Wichtig ist es, die Funktionsweise des Editors zu verstehen. So lassen sich unangenehme Überraschungen beim Verwalten der Konten vermeiden.

Mit dem Editor laden Sie Ihr Google-Ads-Konto oder einzelne Kampagnen auf Ihren Desktop herunter, nehmen die Bearbeitungen offline vor und laden die Änderungen wieder hoch. Sie vollführen den Download und Upload wahlweise über die Buttons in der Toolbar oder unter dem Dropdown Konto, das Sie noch oberhalb der Toolbar finden: mit Letzte Änderungen herunterladen bzw. (Änderungen)Hochladen.

Abb. 02: Download- und Upload-Funktionen im Editor

Unbedingt sicherstellen sollten Sie hierbei, dass Sie immer mit der aktuellen Version Ihres Google-Ads-Kontos arbeiten. Stimmen Google-Ads-Konto und -Editor nicht überein, so überschreiben Sie beim Upload die zwischenzeitlich online getätigten Bearbeitungen wieder.

Änderungen an einem Element im Konto, das dort mittlerweile gelöscht wurde, können Sie nicht einspielen. Vielmehr müssen Sie zuvor die letzten Änderungen herunterladen.

Haben Sie im Editor beispielsweise eine Kampagne angelegt, die es im Konto noch nicht gibt, so wird diese mit der Funktion Letzte Änderungen herunterladen nicht gelöscht. Während die übereinstimmenden Elemente geändert werden, bleibt sie im Editor weiterhin vorhanden. Möchten Sie den tatsächlichen Ist-Stand des Kontos im Web-Interface vorfinden, so müssen Sie den Download über Konto > Alles herunterladen durchführen.

Probleme mit unterschiedlichen Versionen im Konto und im Editor können natürlich erst recht auftreten, wenn mehrere Zugriffsberechtigte im gleichen Konto arbeiten. Für eine bessere Absprache und gelungene Zusammenarbeit stehen Ihnen im Editor Möglichkeiten zur Verfügung, um die Daten zu exportieren und Kollegen zuzusenden. Diese können Ihre Änderungen dann prüfen, freigeben oder ablehnen und sogar kommentieren.

Auch die Funktion Exportieren finden Sie unter dem Dropdown Konto. Exportiert werden können das gesamte Konto, ausgewählte Kampagnen und Anzeigengruppen, die aktuelle Ansicht sowie benutzerdefinierte Regeln. Verfügbare Formate sind:

  • CSV (für Tabellen)
  • ZIP (für Tabellen mit Bildern)
  • AEA (die Google-Ads-Editor-Archivdatei als Back-up inklusive Kommentare, Entwürfe und noch nicht hochgeladener Änderungen)
  • AES (die Ads-Editor-Share-Datei speziell zum Teilen mit anderen Nutzern)

Ebenfalls unter Konto haben Sie die Möglichkeit, exportierte und gegebenenfalls bearbeitete Editor- oder CSV-Dateien als Bulk-Upload zu importieren.

Verwalten der Kampagnen

Im Editor können Sie mehrere Konten herunterladen. Zum Bearbeiten können Sie einfach zwischen ihnen wechseln.

Copy & Paste

Ein großer Vorteil des Editors gegenüber dem Web-Interface ist dabei das einfache Kopieren ganzer Kampagnen, Anzeigengruppen, Keyword-/Placementlisten, Ausrichtungen sowie Anzeigen und Anzeigenerweiterungen – innerhalb eines Kontos, aber auch zwischen allen heruntergeladenen Konten. Dies funktioniert einfach mit Copy & Paste. Beim Kopieren von Kampagnen sollten Sie jedoch unbedingt prüfen, ob tatsächlich alle Einstellungen korrekt übernommen wurden.

Beachten Sie zudem, dass die Zuordnung mit Copy & Paste nicht immer erhalten bleibt – etwa wenn Sie alle Keywords oder alle Anzeigen eines Kontos auf diese Weise kopieren. So werden die Keywords bzw. Anzeigen nicht nur in der originalen Anzeigengruppe dupliziert. Vielmehr werden alle Keywords bzw. alle Anzeigen in jede einzelne Anzeigengruppe des Kontos kopiert – was selten tatsächlich so gewünscht ist.

Um die Zuordnung sicherzustellen, müssen entweder die Elemente jeder einzelnen Anzeigengruppe separat kopiert werden oder Sie setzen die Funktion Text ersetzen ein.

Dropdown Text ersetzen

Möchten Sie etwa alle Anzeigen eines Kontos kopieren, so wählen Sie das gesamte Konto in der Baumansicht, öffnen in der Typliste den entsprechenden Anzeigentyp und markieren die Anzeigen in der Datenansicht. Rufen Sie nun das über der Anzeigenliste befindliche Dropdown Text ersetzen auf. Hier finden Sie zahlreiche Bearbeitungsmöglichkeiten von Text ersetzen und anfügen, Großschreibungen ändern bis zu URLs ändern. Eine 1:1-Kopie ist beispielsweise möglich, indem Sie Leerzeichen durch Leerzeichen ersetzen.

Klicken Sie unbedingt die Checkbox Änderungen an doppelten Elementen vornehmen und auch Neu erstellte Elemente auswählen an. Nur so werden Ihre Anzeigen kopiert, ansonsten ergänzen Sie nur die bestehenden. Zudem bleiben die Kopien für eine weitere Bearbeitung gleich markiert.

Abb. 03: Dropdown Text ersetzen

Keyword-Optionen bearbeiten

Auch Keyword-Optionen können einfach umgestellt oder ergänzt werden. Als Beispiel haben Sie in einem übernommenen Konto oder im Rahmen eines Set-ups bislang nur eine Liste mit Broad-Match-Keywords vorliegen. Diese sollen nunmehr in Broad Modifier und Exact Match geändert werden. Sie gehen vor wie folgt:

Wiederum markieren Sie die gewünschten Elemente in der Baumansicht, klicken Keywords in der Typliste und wählen diese dann in der Datenansicht aus.

Im ersten Schritt stellen Sie nun die aktuellen Broad-Match-Keywords auf Exact Match um. Dies geht einfach über das Dropdown Keyword-Option im Bearbeitungsfeld unterhalb der Keyword-Liste.

Abb. 04: Keyword-Option umstellen

Für die Broad-Modifier-Option soll in diesem Beispiel vor jedes einzelne Wort ein Pluszeichen gesetzt werden. Hierfür rufen Sie wiederum das über der Liste befindliche Dropdown Text ersetzen auf.

Zuerst fügen Sie mit der Option Text anhängen ein Pluszeichen vor bestehendem Text ein. Vergessen Sie auch hier nicht, die Checkboxen Änderungen an doppelten Elementen vornehmen und Neu erstellte Elemente auswählen zu aktivieren.

Bislang haben Sie das Pluszeichen nur vor das jeweils erste Wort der Keywords gesetzt. Da typischerweise aber nicht alle Keywords aus Ein-Wort-Begriffen bestehen, so muss auch den folgenden Worten noch ein Pluszeichen vorangestellt werden.

Rufen Sie deshalb nochmals Text ersetzen auf, bleiben Sie auf dem Tab Ersetzen und machen Sie folgende Eingaben: unter Folgenden Text suchen ein Leerzeichen, unter Ersetzen durch ein Leerzeichen gefolgt von einem Pluszeichen.

Was passiert? Sie ersetzen die Leerzeichen vor dem zweiten, dritten, vierten … Wort eines Keywords durch die Kombination aus Leerzeichen und Pluszeichen – was eben genau ein Pluszeichen voranstellt. Das erste Wort wird nicht angesprochen, da diesem kein Leerzeichen vorangeht.

Deaktivieren Sie diesmal die beiden Checkboxen Änderungen an doppelten Elementen vornehmen und Neu erstellte Elemente auswählen, da Sie nunmehr ja keine weiteren Kopien benötigen.

Stellen Sie abschließend die Broad-Modifier-Keywords im Dropdown Keyword-Optionen von Exact Match auf Broad Match um.

Sehr geschickt ist zudem das Ändern von Einstellungen über mehrere Elemente hinweg – beispielsweise Status, Bietpreise oder auch Pfade der Anzeigen-URL und finale URLs. Gerade Letzteres kann bei einem umfangreichen Konto im Web-Interface zur echten Fleißaufgabe werden. Im Editor öffnen Sie hierfür den Bereich Anzeigen, markieren die zu bearbeitenden Anzeigen und geben die neue URL im entsprechenden Textfeld unterhalb der Tabelle ein. Diese wird für alle markierten Anzeigen übernommen.

Im Google-Ads-Konto sollten keine doppelten Keywords hinterlegt sein, so sie sich denn gegenseitig Konkurrenz machen können. Im Web-Interface ist eine entsprechende Prüfung jedoch ziemlich umständlich. Im Editor gibt es dafür eine spezielle Funktion: Sie finden sie unter Tools, klicken Identische Keywords suchen an und starten die Abfrage nach Ihren eingestellten Kriterien.

Mehrere Änderungen vornehmen

Der Editor lässt sich insbesondere gut in Kombination mit Excel einsetzen. Dies erkennen Sie bereits an den verfügbaren Formaten beim Export. Noch einfacher kann die jeweilige Datenansicht mit Copy & Paste in ein geöffnetes Excelsheet übertragen werden.

So stehen dort zum einen gleich die korrekten Spaltenüberschriften, die zum Import nötig sind. Zum anderen können natürlich alle Vereinfachungen und Formeln von Excel genutzt werden.

Haben Sie Ihre Erweiterungen, Änderungen oder gar ein komplettes Set-up in Excel durchgeführt, so können Sie Ihre Kampagnen und Elemente in den Editor spielen. Nutzen sie für umfassende Bulk-Aktionen die Funktion Mehrere Änderungen vornehmen oberhalb der Datenansicht und kopieren Sie Ihr Excel einfach in die Tabelle.

Dabei muss immer die eindeutige Zuordnung der Elemente sichergestellt sein. In Abbildung 05 sehen Sie am Beispiel Bulk-Upload für Keywords beide Möglichkeiten: Entweder geben Sie bei jedem Keyword eindeutig Anzeigengruppe und Kampagne mit an und können so auch das gesamte Konto einspielen. Oder Sie nehmen den Import in mehreren Schritten vor und hangeln sich von Anzeigengruppe zu Anzeigengruppe.

Abb. 05: Bulk-Upload von Keywords

Prüfen von Änderungen

Laden Sie Ihre bearbeiteten Kampagnen aus dem Editor ins Konto hoch, so kann es vorkommen, dass sie gegen Richtlinien verstoßen und daher als Fehler- oder Warnmeldung angezeigt werden. Die korrekten Änderungen werden trotzdem verarbeitet.

Prüfungen sind auch vor dem Upload möglich. Klicken Sie in der Symbolleiste auf Änderungen überprüfen, so zeigt Ihnen Google alle Problemfälle an, die das System erkennt. Mit den benutzerdefinierten Regeln können Sie sich selbst Benachrichtigungen erstellen, um eigene Best Practices sicherzustellen oder häufige Fehlerquellen zu umgehen.

Sonstige sinnvolle Funktionen

Mehrere Daten können zusätzlich in den Editor heruntergeladen werden. Wählen Sie in der Typliste etwa Keywords aus, so erhalten Sie über den Button Suchbegriffe oberhalb der Datenansicht die tatsächlichen Suchanfragen mit Statistiken angezeigt.

Auch die Leistungsdaten Ihrer Keywords werden standardmäßig nicht angezeigt. Wollen Sie sie auch im Editor sehen, so öffnen Sie den Button Statistiken anzeigen in der schwarzen Navigationszeile, wählen den Abfragezeitraum aus und laden die Werte nach. In der Praxis bleiben Auswertungen wahrscheinlich aber trotzdem eher im Web-Interface angesiedelt.

Fazit

Der Google Ads Editor ist ein kostenloses Tool, mit dem viel Zeit gespart werden kann. Seine Stärke liegt insbesondere beim Set-up von Kampagnen oder bei großen Änderungen im Konto, da hier zahlreiche Bearbeitungen leichter und schneller als im Web-Interface und insbesondere offline durchgeführt werden können. So stellt es für alle Kontobetreuer ein hilfreiches Tool dar, das extrem wertvolle Dienste leistet. Hilfeseiten dazu gibt es unter https://support.google.com/adwords/editor.




Responsive Suchanzeigen

Responsive Suchanzeigen oder auch Responsive Search Ads (RSA) sind bereits seit einiger Zeit in Google Ads als flexibles Anzeigenformat verfügbar. Was steckt genau hinter diesem Anzeigenformat und wie gut ist es wirklich? Lohnt sich die Erstellung dieser Anzeigen? Diese Frage beantwortet André Preukszat in diesem Beitrag.

Was sind responsive Suchanzeigen und welche Vorteile bieten sie?

Responsive Suchanzeigen sind ein flexibles Anzeigenformat für die bezahlte Google-Suche. Es können aktuell drei bis 15 Anzeigentitel vergeben werden. Jeder Anzeigentitel darf bis zu 30 Zeichen lang sein. Zudem kann jeder Werbetreibende bis zu vier Beschreibungstexte hinterlegen, die jeweils bis zu 90 Zeichen lang sein dürfen.

Auf Basis der eingetragenen Daten testet Google automatisch verschiedene Kombinationen von Überschriften und Beschreibungen (siehe Abbildung 1) und ermittelt somit, welche Text-Kombinationen aus Anzeigentitel und Beschreibung die besten Ergebnisse liefern, und optimiert die Auslieferung je nach Suchbegriff.

Abbildung 1: Kombinationen aus Anzeigentitel und Beschreibungen

Verglichen mit den erweiterten Textanzeigen ergeben sich folgende Unterschiede:

  Responsive Suchanzeigen
(Responsive Search Ads = RSA)
Erweiterte Textanzeigen
(Expanded Text Ads = ETA)
Anzahl möglicher Anzeigentitel 3 bis 15 max. 3
Zeichen im Anzeigentitel bis zu 30 Zeichen bis zu 30 Zeichen
Anzahl möglicher Beschreibungen 2 bis 4 max. 2
Zeichen in den Beschreibungen bis zu 90 Zeichen bis zu 90 Zeichen

Somit steht jedem Advertiser mit diesem Anzeigenformat mehr an Platz zur Verfügung, um die jeweiligen Werbebotschaften unterzubringen.

Selbstverständlich werden auch die Anzeigenerweiterungen weiterhin geschaltet, falls hier bereits welche erstellt wurden.

Das bedeutet allerdings nicht, dass dadurch komplett auf die erweiterten Textanzeigen verzichtet werden sollte. Im Idealfall besitzt jede Anzeigengruppe neben den beschriebenen responsiven Suchanzeigen auch immer ein bis zwei erweiterte Textanzeigen. Dadurch wird sichergestellt, dass die Anzeigen so oft wie möglich ausgespielt werden.

Erstellung responsiver Suchanzeigen in Google Ads

Die Erstellung einer entsprechenden Anzeige erfolgt – wie bei anderen Anzeigenformaten auch – auf der Ebene „Anzeigen und Erweiterungen“ im Google Ads Interface.

Bei einem Klick auf das +-Zeichen (siehe Abbildung 2) öffnet sich ein Menü, in dem man das entsprechende Anzeigenformat auswählen kann:

Abbildung 2: Responsive Suchanzeige erstellen

Die sich dann öffnende Seite (siehe Abbildung 3) fordert anschließend dazu auf, die einzelnen Inhalte einer Responsive-Suchanzeige zu befüllen. Hierzu zählen die finale URL, die angezeigte URL inkl. der beiden Pfadfelder, bis zu 15 unterschiedliche Anzeigentitel und bis zu vier verschiedene Beschreibungen.

Zudem können Werbetreibende auch weitere URL-Optionen für die Anzeigen verwenden.

Abbildung 3: Titel und Beschreibung definieren

Nachdem alle entsprechenden Felder ausgefüllt wurden, wird mit einem Klick auf „Neue Anzeige speichern“ die neue Responsive Search Ad überprüft und im Idealfall genehmigt und freigeschaltet.

Während der Anzeigenerstellung gibt das Google Ads Interface auch einen Hinweis bzgl. „Effektivität der Anzeige“ (siehe Abbildung 4):

Abbildung 4: Effektivität der Anzeige

Hierbei handelt es sich natürlich nur um recht grobe Hinweise, aber wenn das Anzeigenformat zum ersten Mal verwendet wird, dann können diese Hinweise durchaus sinnvoll und hilfreich sein. Google hält übrigens unter einfach.st/gads73 weitere Tipps für das responsive Anzeigenformat bereit.

Wie performen die responsiven Suchanzeigen von Google Ads?

Laut Google besitzt dieses Anzeigenformat eine höhere Klickrate (CTR) im Vergleich mit den erweiterten Textanzeigen. Die Anzeigen sind größer und dynamischer bzw. flexibler und werden daher besser von den Usern angenommen.

Eigene interne Analysen bestätigen diese Aussage, wie ein Report (siehe Abbildung 5) zeigt:

Abbildung 5: Performance der responsiven Suchanzeigen

Ausgewertet wurden mehrere Brand-Kampagnen, wo die responsiven Suchanzeigen erstellt und aktiviert wurden. Im zeitlichen Verlauf über bisher fünf Monate ist zu erkennen, dass sich die Klickrate (CTR = Click-Through-Rate) der Responsive Ads bisher sehr positiv entwickelt. Bei den erweiterten Textanzeigen ist dagegen ein leichter Rückgang zu verzeichnen.

Best Practice

Damit die responsiven Suchanzeigen möglichst optimal genutzt werden, sollten einige Best-Practice-Methoden berücksichtigt werden.

  • Die sehr gute Leistung erzielt dieses Anzeigenformat, wenn möglichst viele Anzeigentitel und Beschreibungen eingesetzt werden. Dadurch können mehr Anzeigen-Varianten durch Google kombiniert und getestet werden. Im Idealfall werden gleichzeitig bis zu 15 Anzeigentitel und bis zu vier Beschreibungen zeitgleich getestet und kombiniert.
    Mindestens sollten allerdings drei Anzeigentitel und zwei Beschreibungen definiert werden, damit die Anzeige verwendet werden kann.
  • In jedem Titel und in jeder Beschreibung sollten andere Inhalte hervorgehoben werden. Dies können u. a. unterschiedlichen Angebote, USPs oder Call-to-Actions (CTA) sein.
  • Bei der Erstellung des Anzeigentitels sollten auch die entsprechenden Keywords berücksichtigt und mindestens auch ein Keyword im Titel aufgenommen werden.
  • Sinnvoll sind auch Titel und Beschreibungen mit unterschiedlicher Textlänge. Dadurch erhöhen sich die Chancen, dass auch die dritte Überschrift oder auch die zweite Beschreibung in den Anzeigenausspielungen verwendet wird.

Überschriften und Beschreibungen können auf bestimmten Positionen fixiert werden

Die verschiedenen Anzeigentitel und Beschreibungen werden bei den responsiven Suchanzeigen an unterschiedlichen Positionen getestet. Das bedeutet, dass bei den Anzeigenausspielungen ein bestimmter Titel entweder auf Position 1, Position 2 oder auch auf Position 3 dargestellt wird. Auch die unterschiedlichen Beschreibungen werden an diversen Positionen in der Anzeige rotiert. Durch diese unterschiedlichen Anzeigen-Kombinationen kann Google herausfinden, welche Variante für den entsprechenden Nutzer eine hohe Relevanz besitzt, und diese Anzeige dann ausspielen.

Möchte man diese Kombinationen etwas einschränken, da man zum Beispiel bestimmte Inhalte immer am Anfang einer Anzeige darstellen möchte, so kann man über das Google Ads Interface bestimmte Titel und Beschreibungen „an einer Position fixieren“. Dadurch kann man sicherstellen, dann eine wichtige Botschaft immer an Position 1 oder 2 usw. gezeigt wird.

Wie wird eine Position fixiert?

Wird zum Beispiel ein Anzeigentitel erstellt, der immer angezeigt werden soll, so erscheint bei einer Bewegung des Mauszeigers rechts neben der Überschrift ein kleines „Pin-Symbol“ (siehe Abbildung 6).

Bei einem Klick auf das Symbol werden verschiedene Optionen angeboten, mit denen man die gewünschten fixierten Positionen festlegen kann.

Abbildung 6: Eine Position fixieren

Dieses Vorgehen funktioniert auch bei jeweiligen Beschreibungstexten.

Man muss hier allerdings bedenken, dass der dritte Anzeigentitel und die zweite Beschreibung nicht immer angezeigt werden. Wichtige Botschaften sollten also nicht unbedingt auf diesen Positionen fixiert werden. Ansonsten kann es passieren, dass genau diese Inhalte bei einigen Kombinationen nicht ausgespielt werden.

Welche Nachteile können durch fixierte Positionen entstehen?

Legt man fixierte Positionen fest, so wird Google bei der Erstellung der einzelnen Anzeigenvarianten eingeschränkt, was sich ggf. negativ auf die Anzeigenoptimierung auswirken könnte. Google kann somit nicht mehr so viele unterschiedliche Anzeigenvarianten erstellen und testen, wie normalerweise möglich wäre.

Reporting der einzelnen Assets und Text-Kombinationen

Die Auswertung der verschiedenen Text-Varianten ist aktuell noch nicht so ganz ausgereift. Derzeit werden lediglich die jeweiligen Impressionen pro Anzeigentitel bzw. Text-Variante angezeigt.

Eine Übersicht wird dargestellt, sobald auf „Assetdetails aufrufen“ direkt unterhalb der jeweiligen responsiven Anzeige geklickt wird (siehe Abbildung 7 und 8).

Tiefere Daten wie zum Beispiel Klickrate, Conversion-Rate oder Ähnliches sind aktuell nicht einzusehen.

Abbildung 7: Asset-Status aufrufen
Abbildung 8: Kombinationen von responsiven Suchanzeigen

Fazit

Die bisherigen Ergebnisse der responsiven Suchanzeigen sind insgesamt positiv. Dieses Anzeigenformat bietet eine einfache Möglichkeit, mehrere Anzeigen-Variationen in kurzer Zeit zu erstellen. Aus diesem Grund besitzt man mehr Flexibilität in der Ausspielung und kann die Anzeigenperformance je nach Suchanfrage des Users verbessern. Die responsiven Suchanzeigen sollten daher von jedem Werbetreibenden ausprobiert werden.
Für die Zukunft bleib zu hoffen, dass Google die Auswertemöglichkeiten weiter ausbaut und damit jede Anzeigen-Kombination genauer analysiert werden kann.




Yoast Premium – Macht eine Premium-Version besseres SEO?

Das Plug-in Yoast ist das Nonplusultra für SEO-Arbeiten an Webseiten mit dem Content-Management-System WordPress und TYPO3. Die niederländische Firma bietet seit 2014 eine Premium-Version für ihr SEO-Tool an. In diesem Artikel werden die kostenpflichtigen Funktionen genauer unter die Lupe genommen mit der Fragestellung: Kann SEO besser gemacht werden, wenn das Tool den Stempel Premium hat?

Die Erweiterung Yoast ist ein bekanntes SEO-Plug-in, welches bei der Suchmaschinenoptimierung Zeitersparnis schafft. Es können viele Hands-on-Anpassungen unproblematisch über das Backend von WordPress oder TYPO3 vorgenommen werden. Somit bleibt mehr Zeit, um sich auf das Wachstum und die Verbesserung der Webseite zu konzentrieren. Ein weiterer Vorteil ist, dass dank Yoast bei vielen vor allem technischen Anpassungen kein Programmierer mehr notwendig ist, um beispielsweise Optimierungen an der Sitemap vorzunehmen oder um das robots-Tag einer Seite auf noindex zu setzen. Während das SEO-Plug-in Yoast viele großartige Funktionen bietet, bringt die Premium- Version die SEO-Optimierung auf die nächste Stufe. Diese Funktionen bietet Yoast Premium:

  • Interne Verlinkungen
  • Weiterleitungs-Manager
  • Focus Keyword Export
  • Content Insights
  • Vorschaumodus für Facebook und Twitter

In diesem Artikel werden die verschiedenen Funktionalitäten näher beschrieben, zielführend im Hinblick darauf, ob die Premium-Version von Yoast unbedingt notwendig ist für gute SEO-Arbeit. Die Yoast-SEO-Premium-Version für WordPress kostet aktuell 79 Euro im Jahr, wobei die Lizenz nur für eine Seite genutzt werden darf und Updates und Support (dieser wird 24/7 angeboten) für ein Jahr gewährleistet sind. Nach diesem Jahr sind alle Premium-Funktionalitäten und Einstellungen noch aktiv, jedoch können sie nicht mehr im gleichen Umfang genutzt werden. Zur Testphase lief das Plug-in in der Version 9.6. auf unserer Agentur-Webseite. Wer bereits mit der kostenfreien Version von Yoast vertraut ist, bekommt eventuell mit, in welchen engmaschigen Zeitrahmen Updates notwendig werden. Ein Blick auf die Change Logs zeigt, dass auch das Yoast-Premium-Plug-in regelmäßig geupdatet werden muss. Dabei ist darauf zu achten, dass nach Ablauf der Lizenz keine Updates mehr möglich sind.

Info

Seit Kurzem ist Yoast Premium auch für das Content-Management-System TYPO3 erhältlich. Es bringt leider nicht alle Funktionalitäten mit, die in der Version von WordPress enthalten sind. Beispielsweise ist ein Export der Fokus- und sekundären Keywords und des Yoast Scores (siehe Funktionalität „Focus Keyword Export”) kein Teil der Yoast-Premium-Version. Ein wenig abgespeckt ist die TYPO3-Version mit einer jährlichen Lizenzgebühr von 499 Euro erhältlich.

Die Installation von Yoast Premium ist einfach, wobei beim Kauf ein Account auf my.yoast.com erstellt werden muss. Das Premium-Plug-in muss auf der gewünschten Seite installiert und anschließend über das Kundenkonto verknüpft werden. Das normale Yoast kann parallel weiterhin genutzt werden. Die Premium-Version ist lediglich eine Erweiterung der Funktionalitäten.

Interne Verlinkungen

Die Yoast-Premium-Funktion für interne Verlinkungen ist relevant, um Seiten oder Blogartikel in thematischen Clustern zusammenhängend zu organisieren. Allein diese Funktion spart enorm viel Zeit, da das Plug-in beim Schreiben von Artikeln Verlinkungen vorschlägt. Wenn Ihre Webseite stetig wächst, wird z. B. anhand von Blogartikeln oder anderen neuen Inhalten diese Funktion nur noch wertvoller, da interne Verlinkungs-Konzepte für große etablierte Seiten sehr viel Zeit in Anspruch nehmen. Damit Yoast interne Verlinkungen vorschlagen kann, müssen die Inhalte vorab gescannt und analysiert werden. Dies muss in den Yoast-Einstellungen manuell angestoßen werden. Je nach Größe der Webseite kann dies einige Zeit in Anspruch nehmen, um die internen Verlinkungs-Vorschläge zu analysieren und zu erstellen. In der Regel ist dies ein einmaliger Vorgang. Bei neu erstellten Inhalten lernt Yoast sofort dazu. Die Vorschläge für passende Artikel liegen in der rechten Sidebar in der bekannten Editor-Ansicht. Die Vorschläge von Yoast Premium splitten sich in zwei Kategorien: zum einen die „Eckpfeiler-Inhalte” und zum anderen die „regelmäßigen Inhalte”.

Info

Mit „Eckpfeiler-Content” oder auch „Evergreen-Content” genannt, definiert Yoast die Kerninhalte der Webseite. Diese bestehen aus den wichtigsten Artikeln der Webseite. In der Regel handelt es sich um lange, informative Artikel, die Erkenntnisse aus verschiedenen Blogbeiträgen kombinieren und alle relevanten Inhalte eines Themas behandeln. Der Fokus liegt darauf, die besten und umfassendsten Informationen zu einem bestimmten Thema bereitzustellen, anstatt Produkte zu verkaufen. Dennoch sollte sich das Kerngeschäft der Webseite widerspiegeln oder ihre Mission klar definiert sein.

Abbildung 1: Mithilfe des Features „interne Verlinkung“ lassen sich potenzielle Themen clustern

Die „Eckpfeiler”-Texte werden von Yoast gefunden, können aber auch für jeden Artikel manuell als „Eckpfeiler” aktiviert werden. Dies ist in der bekannten Yoast-Einstellung jeder Seite oder jedes Beitrages möglich. Die in der Sidebar dargestellten Links können mit einem Klick auf das Icon kopiert werden.

Leider funktioniert das Feature der internen Verlinkung nur im WordPress-Editor und im neuen Gutenberg-Editor. Sollte der Text in WordPress über den Visual Composer in Boxen angelegt werden, muss immer erst in den klassischen Textmodus geswitcht werden, um die interne Verlinkung aus der Sidebar zu nutzen.

Es ist wirklich sehr überraschend, welche Seiten Yoast für die internen Verlinkungen vorschlägt. Thematisch passen oft nur wenige Artikel. Hier sollte darauf geachtet werden, nicht wahllos zu verlinken, sondern strukturiert vorzugehen. Hilfreich ist das Tool dahingehend, dass es versteckte Artikel zeigt, an die Redakteure gar nicht mehr gedacht haben.

Weiterleitungs-Manager

Weiterleitungen sind wichtig, um zum einen die Webseite sauber zu halten, und zum anderen, damit der Traffic über die alten URLs nicht verloren geht und die Bots der Suchmaschinen nicht auf Fehlerseiten stoßen. Auch dieses Feature kann Zeit sparen, da keine Umleitungskonzepte manuell erstellt werden müssen.

Vielen ist wahrscheinlich die Problematik bekannt, dass Kunden Seiten oder Beiträge in WordPress löschen, ohne Bescheid zu geben, und nicht daran denken, Weiterleitungen einzurichten. Mithilfe des Weiterleitungs-Managers von Yoast Premium sollte so schnell keine Seite mehr verloren gehen. Sobald in WordPress eine bestehende Seite oder ein Beitrag gelöscht wird, greift Yoast Premium und erinnert den Redakteur daran, dass eine Weiterleitung eingerichtet werden muss. Auch wenn lediglich die URL einer Seite angepasst wird, erstellt Yoast automatisch eine Weiterleitung und informiert den Nutzer mit einem Hinweis darüber. Hier ist allerdings Vorsicht geboten, da durch wiederholte Anpassungen einer URL schnell Weiterleitungsketten entstehen können.

Folgende Weiterleitungs-Codes können über Yoast eingestellt werden:

  • 301 – permanente Weiterleitung
  • 302 – gefunden (temporäre Weiterleitung)
  • 307 – temporäre Weiterleitung
  • 410 – Seite gelöscht
  • 451 – angeforderte Ressource aufgrund gesetzlicher Bestimmungen nicht gefunden
Abbildung 2: Der Weiterleitungs-Manager erstellt gewünschte Weiterleitungen und listet alle verfügbaren in der Übersicht auf

Der Weiterleitungs-Manager listet alle erstellten Weiterleitungen auf. Es kann sogar konfiguriert werden, ob die Weiterleitungen in die .htaccess geschrieben werden; vorausgesetzt, dass die Datei beschreibbar ist. Regex-Ausdrücke können auch genutzt werden, um z. B. mehrere URLs an eine Ziel-URL weiterzuleiten. Mit der Yoast-Premium-Version können Redirects direkt importiert und exportiert werden. Sollten bei Blogkategorien Anpassungen am Kategorienamen gemacht werden, richtet auch hier Yoast eine Weiterleitung ein. Hier ist Vorsicht geboten. Schnell geht der Überblick über alle bestehenden Weiterleitungen verloren und die Redakteure der Seite erstellen mit Löschungen, nachträglichen Änderungen an den URLs oder Kategorie-Zuordnungen Weiterleitungsketten oder sogar unendliche Schleifen. Bei sehr großen Seiten kann es im Weiterleitungs-Manager sehr schnell sehr unübersichtlich werden. Zusätzlich sollte bedacht werden, dass Weiterleitungen nach einer gewissen Zeit auch gelöscht werden sollten. Nichtsdestotrotz ist es ein tolles Erste-Hilfe-Tool, um keine Rankings zu verlieren. Jedoch sind regelmäßige Kontrollen in diesem Fall essenziell.

Focus Keyword Export

Mit dieser Funktion können alle Fokus-Keywords, Seitentitel, Meta-Descriptions und URLs in eine CSV exportiert und dort bearbeitet werden. Zusätzlich zum Export gibt es den Yoast-internen „Score” der Seiten, der die Lesbarkeit misst. So können Seiten, die mehr Aufmerksamkeit benötigen, besser identifiziert und klare Maßnahmen zur Onpage-Seitenoptimierung schnell umgesetzt werden.

Abbildung 3: Export von CSV-Dateien mit den wichtigsten SEO-Daten ist nur mit Yoast Premium möglich

Wer wirklich nur URLs, Seitentitel und Meta-Description als CSV benötigt, kann sich diese Informationen aus anderen Crawlern wie Screaming Frog holen. Wer jedoch seine Texte mit Yoast dahingehend optimiert, dass die Fokus-Keywords genutzt werden, und die Content-Analyse bei Yoast immer auf Grün hält, kann den Export gut gebrauchen, um versteckte Goldschätze zu finden.

Content Insights

Dieses Yoast-Premium-Feature zeigt die fünf Wörter und Phrasen, die auf der Seite am häufigsten verwendet werden. Der Artikel wird in Echtzeit gescannt und stellt eine Liste der Keywords zusammen, die am häufigsten genutzt werden. So ist schnell zu kontrollieren, ob sich der Text auf die richtigen Keywords fokussiert. Dank der Echtzeitanalyse kann so flexibler reagiert werden.
Ein Beispiel: Ein Text, in dem inhaltlich um „Offpage-Optimierungen” geht (z. B. als Fokus-Keyword), sollte als Keyword, welches Yoast unter Content Insights anzeigt, nicht „Onpage-Optimierung” haben. So erkennen User an ihrem Text schnell, dass sie thematisch in eine falsche Richtung gehen, und der Artikel kann dahingehend bearbeitet werden, dass der Fokus auf das Hauptkeyword oder unterstützende bzw. verwandte Keywords gelegt wird.

Abbildung 4: Das Feature „Content Insights“ zeigt neben dem Fokus-Keyword die fünf sekundären Keywords an

Die Lesbarkeits-Analyse ist bereits in der kostenfreien Yoast-Version vorhanden. Höhere Punktzahlen weisen auf Inhalte hin, die leichter zu lesen sind, während niedrigere Werte auf ein schwierigeres Leseerlebnis schließen lassen. Der Lesbarkeits-Score in Yoast wird mit dem sogenannten „Flesch Reading Ease”-Indikator bewertet und prüft, ob ein Artikel gut zu lesen ist.
Der legendäre Lesbarkeitsexperte Rudolf Flesch hat die Partitur vor über 70 Jahren entwickelt. Diese Berechnung misst die Länge von Wörtern und Sätzen, um eine Punktzahl zu erzeugen, die die Komplexität eines Inhalts zeigt. Aus einer ganzheitlichen SEO-Perspektive ist es daher wichtig, dass die Texte für die Zielgruppe nicht zu schwer zu lesen sind. Kurz gesagt: Wenige schwierige Wörter und kurze Sätze. Da der Algorithmus von Google menschlicher wird und die Sprachsuche zunimmt, werden Lesefreundlichkeit und Lesbarkeit im Hinblick auf das Ranking wichtiger.

Das Ampelsystem, das Yoast für die Analyse des Textes eingeführt hat, gibt den Redakteuren einen gewissen Ansporn, alles den Yoast-Richtlinien anzupassen.

Vorschaumodus für Facebook und Twitter

Yoast Premium bietet ein Vorschaumodus für Facebook und Twitter an. Mit diesem Feature kann in der Vorschau gesehen werden, wie der Beitrag beim Teilen angezeigt wird. Auch ohne die Premium-Version ist es möglich, für jede Seite oder jeden Beitrag einen Titel, eine Beschreibung und ein Bild anzugeben. Wurde allerdings kein Bild ausgewählt, gab es keinerlei Kontrolle darüber, welches Bild Facebook ausspielt. Da kann es schon zu Überraschungen kommen, wenn ein beliebiges Bild aus dem Artikel gezeigt wird. Bei Yoast Premium kann mithilfe des Vorschaumodus genau kontrolliert werden, wie der Beitrag aussieht, wenn er auf Facebook oder Twitter geteilt wird. In der Regel nutzen andere Social-Media-Plattformen wie Pinterest oder LinkedIn die Open-Graph-Daten von Facebook, da oft keine spezifischen Daten angegeben wurden.

Abbildung 5: Der Vorschaumodus von Yoast Premium hilft, Fehler zu vermeiden

Eine URL in WhatsApp ist eine beliebte Möglichkeit, um Freunde oder Familie auf interessanten Content aufmerksam zu machen. Auch hier wird das Vorschaubild mit der Verlinkung über den Open Graph erstellt. Daher ist es in diesem Fall so wichtig, dass es einen Vorschaumodus gibt.

Mit dem Vorschaumodus für Social Media können Fehler von vornherein vermieden werden und der Social-Media-Auftritt bleibt fehlerfrei. Hier bietet die Premium-Version eine gute Möglichkeit, die allerdings auch durch andere kostenlose WordPress-Plug-ins abgedeckt werden kann.

Fazit

Es sollte nicht vergessen werden, wie mächtig Yoast ist, auch ohne den Stempel Premium. Kategorien, Tags und Autorenseiten sind in Yoast steuerbar für die Suche bei Google. Jeder Seite können optimierte Seitentitel und Meta-Descriptions hinzugefügt werden, eine Automation ist leicht umzusetzen. Eine Verknüpfung mit der Google Search Console ist schnell gemacht. Sitemaps können in ein paar Klicks konfiguriert und erstellt werden. Die wenigsten Yoast-Nutzer wissen, dass über den Yoast-Editor die robots.txt und .htaccess geändert werden können. Voraussetzung dafür ist, dass beide Dateien beschreibbar sind. Zusammengefasst ist also zu sagen: Eine effiziente SEO-Arbeit an der Webseite ist mit der kostenfreien Version von Yoast schon gegeben. Für Webseiten, die wirklich textlastig sind, bei denen regelmäßiger Content erzeugt wird und Social-Media-Beiträge im Vordergrund stehen, ist die Premium-Version von Vorteil. Zu empfehlen ist ein einjähriger Testlauf, indem alle neu erstellten Seiten mithilfe von Yoast Premium optimiert werden. Jeder muss für sich herausfinden, ob die Lesbarkeit der Texte von Menschen oder von Maschinen bewertet werden soll.




karlsCORE public – Ein etwas anderes SEO-Tool

Karl Kratz dürfte den meisten unserer Leser wohlbekannt sein – und sicherlich nicht nur von der letzten Seite jeder Ausgabe. Seine Ansätze sind meist etwas oder auch völlig ander(e)s. Was vielleicht nicht alle wissen: Er betreibt auch ein eigenes kleines Tool-Universum, in dem er Videos, Wissen und auch Dinge bereithält, die man für Suchmaschinenoptimierung einsetzen kann. Der Zusatz „public“ bei karlsCore meint nicht, dass man dort kostenlos Zugriff bekommen könnte. Diese Plattform kann nur jedes Unternehmen nutzen, denn karlsCore selbst wird wettbewerbsfrei gehalten, d. h., aus jeder Branche wird nur ein Unternehmen eingelassen und die Wartelisten sind laut dem Anbieter mittlerweile recht lang. Daher hat Karl Kratz schon vor Jahren einen für alle zugänglichen Teil eingegliedert, den karlsCore public. Mit einer (monatlich abrechenbaren) Eintrittskarte erhält man dort nicht nur Zugriff auf SEO-Tools, die in diesem Beitrag näher beleuchtet werden, sondern auch zu E-Books, Mediabooks, Videos, Codebeispielen, Begleitmaterial zu Seminaren und allerlei anderem nützlichem Material sowie gute Hilfestellungen.

Welche Ausrichtung hat karlsCORE public?

Wie bereits erwähnt, findet man bei karlsCORE public nicht nur Tools, die rein auf SEO ausgerichtet sind. Es handelt sich eher um eine Plattform, die viel hinterlegtes und abrufbares Wissen sowie auch Tools für die Optimierung für Google bereithält. Unter dem Menüpunkt „Wissen“ findet man wahrscheinlich mehr interessantes Material, als man je zu lesen die Zeit aufbringen dürfte. Dabei handelt es sich aber nicht um kurze Definitionen oder Hilfestellungen zu der einen oder anderen Toolfunktion, sondern man findet dort u. a. mehrstündige Videoaufzeichnungen von Konferenzen, ganze E- und Mediabooks und auch Codebeispiele, die man in die eigenen Webseiten einsetzen kann. Das Ganze wirkt wie eine kleine, aber sehr feine Buchhandlung für die Branche, in der ein Bibliothekar liebevoll Wichtiges gesammelt und sortiert hat.

Abbildung 1: Ein Ausschnitt aus der breiten Wissensdatenbank

Wie in Abbildung 2 zu sehen ist, hält das System derzeit 15 einzelne Module vor, drei weitere (grau dargestellt) sind aktuell in Entwicklung. Praktischerweise kann man sich die Kacheln nach eigenen Vorlieben sortieren und somit die häufiger genutzten Module zusammen weiter oben einstellen. Bis auf die Module „SEA Mitbewerber“ und „URL Shortener“ kann man die restlichen 13 für die SEO-Arbeit produktiv nutzen.

Abbildung 2: Die Werkzeugmodule von karlsCORE public im Überblick

Alle Module wurden mit einem einführenden und ausführlichen Screenvideo versehen, das Einsteigern hilft, sich auf Anhieb zurechtzufinden, und ganz nebenbei bekommen sie die ersten Tipps für eine effiziente Nutzung. Natürlich können wir hier wie immer aus Platzgründen nicht auf jedes einzelne Modul eines vorgestellten Tools eingehen, sondern haben subjektiv diejenigen ausgesucht, die wir für besonders wichtig oder nützlich halten.

Das Crawlertool

Der Crawler kann bis zu 10.000 URLs abholen und bei Bedarf auch mehr als fünf URLs pro Sekunde holen (aktuell bis zu 50 URLs/Sek.), falls man die eigene Domain analysiert und dazu dann eine spezielle vom Tool zur Verfügung gestellte Datei auf den Webserver hochlädt. Das dient zum Schutz, damit man nicht versehentlich eine Website durch zu viele Anfragen lahmlegt. Der Crawler geht auf Wunsch dabei intelligent vor und bevorzugt URLs höherer Hierarchieebenen. Sofern die Domain mehr als die 10.000 URLs hat, erwischt man so auf jeden Fall die wichtigeren Seiten. Laut dem Anbieter braucht das Crawlen von 5.000 URLs etwa eineinhalb Stunden. Wichtig zu wissen ist, dass sich „URLs“ tatsächlich auf die Anzahl der Dokumentseiten bezieht, nicht etwa auch auf alle Bilder, die oft ja bei anderen Tools den Großteil des Crawlingbugets beanspruchen. Nach dem Crawlvorgang erhält man Zugriff auf die sehr umfassende Auswertung.

Das Crawlermodul ist in verschiedene Reiter unterteilt: Technik, Indexierbarkeit, Onpage, Social, Ressourcen, Links, Report sowie ein Überblicksfenster. Diese Reiter halten dann jeweils eigene Unterreiter bereit, wie in Abbildung 4 beispielhaft zu sehen ist.

Abbildung 3: Eine erste Übersicht über die Websitestruktur (Modul Crawler, Übersicht)
Abbildung 4: Webtechnik im Durchblick: wichtige Parameter und Fehler im Check

Filter für die unten anstehenden URLs lassen sich in jeder Ansicht auf der rechten Seite per Mausklick aktivieren. Nach einem Klick auf „Ladezeit > 700 ms“ (Abbildung 4 Mitte rechts bei „Ladezeit“) werden dann nur noch die URLs angezeigt, um die man sich kümmern sollte. Das Tool folgt bei den Analysen der Empfehlung von Google für 200 ms für „Time to First Byte“. Ebenso bringt ein Klick auf den Filter „Statuscode 404“ sofort die Übeltäter ans Tageslicht.

Abbildung 5: Housekeeping und Textanalyse: Wie lang, lesbar und eindeutig sind Ihre Texte?

Bekanntlich ist die interne Verlinkung für das Ranking nicht unerheblich. Suchmaschinen wie Google werten nicht nur die Anzahl der eingehenden Links für eine URL aus, sondern u. a. auch die Ankertexte der Links. So sollte man tunlichst vermeiden, mit dem gleichen Textanker auf unterschiedliche Dokumente zu verlinken. Der Linktext sollte also immer „unique“ sein, ansonsten verwässert man für die maschinelle Analyse die Relevanz der Seite(n). Wie schnell verwendet man aber einen gleichen Linktext auf unterschiedliche Seiten? Nachdem noch immer weder Shopsystemhersteller noch solche für CMS sich darum scheren, den Anwender genau dies nicht tun zu lassen, muss man hier wie an so vielen anderen Stellen auch selbst dafür Sorge tragen. Das geht realistischerweise nur unter Zuhilfenahme entsprechender Tools. Hierfür listet das Modul sowohl interne als auch externe Ankertexte bzw. deren Anzahl entsprechend auf. Geprüft wird weiterhin die Existenz der angelinkten externen Ziele auf Erreichbarkeit oder Weiterleitung.

Eine Besonderheit, auf die man unbedingt extra hinweisen muss, ist die Berechnung des PageRanks sowie des CheiRanks und die Kombination aus beiden, der sog. HubRank. Die Theorie hinter dem PageRank dürfte hinlänglich bekannt sein: Je mehr wichtige Seiten auf eine andere Seite verlinken, umso bedeutender wird auch diese. Dabei teilen sich alle abgehenden Links von einer Seite diesen vererbbaren Wert auf. Gehen 100 Links ab, kann vereinfacht erklärt jeder ein Prozent davon an die verlinkte Seite vererben. Sind es 200, bleibt nur noch ein halbes Prozent. Man darf sicher davon ausgehen, dass Google bei der Berechnung mittlerweile gegenüber dem Originalpatent hier diverse Unterschiede macht und z. B. Footer- oder Sidebar-Links weniger und Links aus dem primären Contentbereich mehr Bedeutung mit auf den Weg gibt – was auch Sinn macht. Während der PageRank also die Anzahl, vor allem aber die Bedeutung der eingehenden Links aufsummiert, macht der sog. CheiRank genau das Gegenteil. Er wird von der Anzahl der abgehenden Links einer Seite bestimmt und misst somit vereinfacht erklärt das Zentralitätsmaß einer Seite. Die Frage dahinter: Von welchen Seiten kommt man mit möglichst wenig Klicks zu allen anderen Seiten? Es dürfte klar sein, dass eine solche Kennzahl sehr nützlich für die Ausspielung im Ranking sein kann. Im Zweifel oder bei Seiten, die ansonsten ähnliche Werte für eine Suchphrase aufweisen, sollte man die bevorzugen, von der aus der Suchende möglichst schnell überall anders hingelangt – und eben nicht in Ebene zwölf landet und einen weiten (Klick-)Weg zurücklegen müsste, falls die einzelne Seite nicht genau passend wäre.

Das Crawlertool errechnet nun als Kombination aus den beiden Werten PageRank und CheiRank den sog. HubRank. Er zeigt an, welche Seiten die wertvollsten internen Links aufsammeln und gleichzeitig vom Klickgraphen her gesehen eher in der „Mitte“ der Webseiten steht (bezogen auf die internen Linkbeziehungen). Ergeben sich krasse Abweichungen gegenüber dem Gewollten für die eigene Site, sollte man hier ggf. mit einer Linkoptimierung ansetzen. In Abbildung 6 ist im oberen Teil (Ziffer 1) sehr gut zu sehen, dass hier Handlungsbedarf besteht. Die Seite mit den Fachbüchern ist im Berechnungsgeflecht die wichtigste Seite. Sehr viel weiter unten kommt dann die eigentliche Startseite. Das sollte nicht so sein und muss „repariert“ werden.

Abbildung 6: Page-, Chei- oder HubRank – wie hätten Sie es denn gerne?

Im unteren Teil von Abbildung 6 erkennt man als Spaltenüberschrift (Ziffer 2) die drei Metriken nochmals, allerdings mit dem Präfix „Content“. Hier werden nur die Links zur Berechnung herangezogen, die im eigentlichen Contentbereich zu finden sind, also ohne Navigation, Kopf-, Fuß- oder Seitenbereich. Die Funktion ist laut dem Anbieter noch im Beta-Stadium. Die sog. „Boilerplate“ aus Webseiten herauszurechnen, ist kein einfaches Unterfangen, kommt aber wahrscheinlich dem, was Google mittlerweile tut, deutlich näher.

Ein besonderes Feature ist dabei die interne „Texteindeutigkeit“: Sie listet die URLs auf, deren Texte sich ähnlich sind – bis hin zur Dublettenerkennung.

Neben eigenen Reports über heruntergeladene Metriken bietet das Tool auch eine Reihe häufig von Nutzern nachgefragter fertiger Reports an (Abbildung 7). Wer hier etwas vermisst, meldet es dem Betreiber und die bauen das nach einer kurzen Prüfung ggf. für alle Nutzer ein.

Abbildung 7: Häufig gebrauchte Berichte stehen auf Knopfdruck zur Verfügung

Wie gesund sind Ihre Seiten? Der Website Health Index

Mit dem Modul „Website Health Index“ lassen sich einzelne URLs dauerhaft auf Veränderungen überwachen. Wie in Abbildung 8 zu sehen ist, wird dabei unterschieden (Ziffer 1) in die Kategorien Health Index (Übersicht), Indexierbarkeit, Inhalt, Onpage, Social, URL, Technik und Monitoring (Rankingüberwachung bei Google und Bing). Ein Klick auf eine Kategorie wechselt dann in diese und zeigt den zeitlichen Verlauf der Metrik (Ziffer 2). Unten werden dann die überwachten URLs gelistet und die einzelnen Metriken, die den Kategorieindex bilden. Diese Einzelwerte lassen sich ebenfalls anklicken (Ziffer 3) und weisen dann wiederum ihre innere Zusammensetzung auf. Im Beispiel wurde unter „Technik“ für eine URL der Wert „Caching“ aufgerufen. Von den beiden Werten ist einer die serverseitige Komprimierung, die man aus Performancegründen immer aktivieren sollte. Wie zu sehen ist, ist diese Komprimierung (GZip) nicht aktiv – warum auch immer. Auch das müsste gefixt werden und bringt natürlich ab sofort einen Geschwindigkeitsvorteil.

Das Website-Health-Index-Werkzeug liefert Online-Marketing-Verantwortlichen zwei wichtige Informationen:

  1. Einen dauerhaften Überblick über die „Gesundheit“ ihrer eigenen Website: Veränderungen können direkt analysiert und bis auf kleinste Details dargestellt werden. Gleichzeitig lassen sich für Veränderungen auch Benachrichtigungs-Prozesse für beliebig definierbare Teams festlegen: Dann erhält z. B. das Content-Team eine E-Mail, wenn sich wesentliche Ranking-Werte verändern.
  2. Einen detaillierten Einblick in die konkreten Tätigkeiten von Marktbegleitern: „Welcher Wettbewerber hat welche Änderungen an seiner Website vorgenommen und welche Auswirkungen, z. B. im Ranking, hatten diese?“ Mit wenigen Klicks kann eine dauerhafte Wettbewerbsanalyse erfolgen und zur Prävention automatisiert werden: Sobald ein Marktbegleiter zum Beispiel Texte intensiviert, wird das eigene Content-Team benachrichtigt. Das ermöglicht eine schnelle Handlung, bevor Ranking-Effekte beim Wettbewerber greifen.

Das Website-Health-Index-Werkzeug beendet so in gewisser Weise den „digitalen Blindflug“ und verschafft einen Überblick über die „Gesundheit“ der wichtigsten URLs einer Website – und die der Mitbewerber. Das Tool unterscheidet sich von anderen Monitoring-Werkzeugen unter anderem auch darin, dass der Anwender für sein Projekt individuell auf Domain- und URL-Ebene definieren kann, „was wichtig ist – und was nicht“.

Abbildung 8: Wie verändern sich wichtige Bestandteile der Website – wird sie gesünder oder immer kränklicher?

Expertenwissen strukturiert direkt anwenden

Mit dem Werkzeug Everythink greift der Benutzer direkt auf eine komplette Wissensdatenbank voller Expertenwissen in Form von „Karten“ zu: Aktuell ist in karlsCORE public ein Kartenset für professionelle Site-Kliniken hinterlegt.

Wer z. B. seine Website verbessern möchte, geht systematisch die vielfältigen Karten durch und wendet die Fragen auf seine Webseiten an. Relevante Karten/Fragen werden auf einem Dashboard nach ihrer Dringlichkeit bzw. Wichtigkeit abgelegt.

Abbildung 9: Das Kartenset in „Site-Clinic“ hilft u. a. beim Priorisieren

Mit dem Klick auf die Aufgaben-Liste erhält man eine priorisierte Liste, die gemeinsam mit Team-Kollegen oder externen Dienstleistern abgearbeitet werden kann. Dazu ist ein leicht bedienbares Berechtigungs-System bereits integriert. Durch die wirklich recht breit angesetzten Kartensets bleiben sowohl wichtige Details als auch übergreifende Dinge auf dem Radar.

Nach Angaben des Betreibers erscheint als Nächstes ein Kartenset zur technischen Analyse. Das soll es auch Nicht-Technikern erleichtern, z. B. ihre Agentur präzise zu briefen und die Tätigkeiten zu überwachen. Everythink ist übrigens auch in karlsCORE free komplett frei nutzbar unter www.online-marketing.net/karlscore-free/.

Die Contenterstellung

Für die Erstellung von Content kann man gleich mehrere Module nutzbringend einsetzen: das Fragen-Tool, das WDF*IDF-Tool, die Schnellanalyse, den Suchbegriff-Finder und das Content-Tool.

Das Fragen-Tool

Nach Eingabe eines Suchbegriffs sucht dieses Tool nach den typischen Wer-, Wie-, Was-Fragen zu diesem Wort im Web. Dabei lassen sich der Umfang und die Suchtiefe nach dem eigenen Bedarf einstellen. Die Fragen und ggf. die dafür zu findenden Antworten helfen der eigenen Inspiration beim Finden von sinnvollem Text, der Besucher (hoffentlich) interessiert.

In Kombination mit dem Ebenen-Modell aus dem Wissensbereich des Tools versetzt das Fragen-Tool Texter in die Lage, besonders effiziente Frage-Antwort-Kombination zu erstellen und tatsächlich eher wirklich einzigartige Inhalte zu generieren.

Abbildung 10: Fragensammlung zu einzelnen Themen: Das Fragen Tool

Das WDF*IDF-Tool

Zur Erklärung von WDF*IDF hatten wir in der Website Boosting schon vergleichsweise viele Beiträge (siehe auch den Titelbeitrag in Ausgabe 18 (online abrufbar unter einfach.st/wdf18). Daher hier nur kurz die Erklärung, dass man damit anhand zu einer Suchphrase rankender Dokumente versucht, die semantisch „wichtigsten“ Wörter zu extrahieren, die zu dieser Suchphrase gehören. Man geht davon aus, dass für Google & Co. erst dann für eine Phrase ein gutes Ranking erzielt werden kann, wenn häufige Kookkurrenzen bzw. Proof-Keywords ebenfalls auf der Seite vorhanden sind. Wer einen umfassenden Text über Schuhe schreibt, wird nicht umhinkommen, auch Wörter wie Leder, Größe, Sohle oder Schnürsenkel zu verwenden. Das Tool hilft dabei, solche Wörter zu identifizieren, um sie bei eigenen Texten zu ergänzen, sofern sie noch fehlen. Dadurch wird der Text für eine semantische Analyse „holistischer“.

Einzelseiten-Schnellanalyse

Nach der Eingabe einer URL analysiert dieses Modul die Verwendung einzelner Wörter und führt eine Termgewichtung durch. Eine solche Analyse der Startseite von websiteboosting.com (Abbildung 11) zeigt das Problem ständig wechselnden Contents. In der neuen Version werden jeweils einzelne Beiträge angeteasert, die man online lesen kann. Daher schwanken die Begrifflichkeiten nicht nur immer wieder, auch deren Zusammensetzung und -wirkung ist hinsichtlich bestimmter Rankingbegriffe so nicht mehr gut steuerbar. Für diese Startseite mag das hinsichtlich der Besucherabsichten zu vernachlässigen sein, aber für spezielle Landingpages zu besonderen Themen sollte man ggf. schon mehr darauf achten, dass bei einer maschinellen Analyse die richtigen Begriffe oben die Köpfe herausstrecken. In unserem Fall haben wir bei Terminen häufiger das Wort April verortet, daher dominiert dieses Wort rein technisch gesehen. Wie immer gilt, solche Auswertungslogiken nicht stur und ohne Einschalten des eigenen Verstandes eins zu eins zu übernehmen bzw. umsetzen zu wollen. Das und ähnliche Tools geben Hilfestellung und man sollte immer nur das ausführen, was auch inhaltlich Sinn macht. Oder wie Karl Kratz immer zu sagen pflegt: Versuche nicht, einen Text in eine Kurve einzuprügeln!

Abbildung 11: Oh, oh … Unsere Startseite sendet nicht unbedingt die besten Textsignale

Das Herzstück: Content-Tool

Im Modul „Content Tool“ findet man neben einer kleinen Verwaltungsebene einen umfassenden Editor zur Texterstellung inklusive einer HTML-Formatierungsmöglichkeit. Eingegebener oder einkopierter Text lässt sich hier nach allen Regeln der Kunst veredeln und sinnvoll ergänzen. Neben verschiedenen Metriken über den Text selbst (statistische Daten, struktureller Aufbau wie z. B. H1, Anzahl von Listen etc. sowie Lesbar- und Verständlichkeitsmaße), Termgewichtungen (auch sog. beweisführende Therme und die Textunterschiedlichkeit), gibt es auch nützliche Funktionen zur Recherche. Hier werden automatisch je nach dem verwendeten Text Fragen zum Thema angezeigt, KeywordIdeen und -Kombinationen und eine automatische Synonymdatenbank. Diese hilft, es zu vermeiden, ein bestimmtes Wort allzu oft in einem Text zu verwenden (Abbildung 12, Ziffer 1). Im Reiter „Briefing“ gibt es dann wirklich eine extrem umfangreiche Unterstützung bei der Erstellung von Briefings für (externe) Texter.

Nicht unterschätzen sollte man die zunächst unscheinbare Funktion „Unterschiedlichkeit“: Sie gibt wertvolle Hinweise, welche Begrifflichkeiten zu einem thematischen Begriffs-Cluster gehören, jedoch auf gut rankenden Wettbewerberseiten eben nicht maßgeblich vorkommen: Eine wirklich schlaue Methode, um systemunterstützt Einzigartigkeit und Unterschiedlichkeit gegenüber bereits rankenden Seiten zu erzeugen.

Bekanntlich wird ein zugelieferter oder zugekaufter Webtext nur so gut, wie es das Briefing erlaubt. Wer heute noch Texte bestellt, die einfach um ein bestimmtes Keyword herum geschrieben werden, ist selbst schuld, wenn die Besucher beim Lesen Unwohlsein verspüren und die Suchmaschine gelangweilt gähnt, weil sie diesen Text so ähnlich schon mehrfach gelesen hat. Was tun ungebriefte Texter? Sie googeln via Keyword und raspeln sich den Text aus den Fundstellen zusammen – jeder hat es ein klein wenig umgeschrieben, mit zum Teil anderen Wörtern. Das Problem ist nur, dass das eben alle externen Texter machen und am Ende ein Textpool von immer denselben zum Suchbegriff bereits rankenden (!) Seiten entsteht. So kann man nicht besser als andere werden – im Gegenteil baut man sich das Hinterherlaufen praktisch fest ins (Text-)Geschäftsmodell mit ein.

Hier helfen die vorgegebene Struktur und die vielen Informationen des Tools, individuell zusammenzustellen, was man wirklich haben möchte, wer Zielgruppe ist, welcher Wert vermittelt werden soll und noch sehr viel mehr. Das macht echte Mühe, all das zusammenzutragen. Aber am Ende fragt man sich, wie flach und unüberlegt dahingeworfen frühere Textaufträge nach außen (oder auch innen) weitergegeben wurden.

Abbildung 12: Das Content-Modul lässt praktisch keine Wünsche mehr offen

Service und Hilfe

Für jedes Modul hat Kratz ein Video aufgesetzt, in dem er den Einsatz erklärt. Gleich auf der Startseite gibt es ein für alle sichtbares Board, in dem man Fragen und Anregungen hinterlassen kann. Die Antworten kommen in der Regel sehr schnell. Hier wird also nichts versteckt und erfrischend offen kommuniziert. Im Hauptmenü gibt es eine eigene Funktion „Feedback“ (Abbildung 13). Witziges Detail am Rande: Man merkt an solchen Stellen, dass Kratz das von ihm ständig geforderte Thema Emotionalität auch in das eigene Tool packte. Klickt man das Feedback-Fenster auf, gibt es dort keinen schnöden „Abbrechen“-Button wie sonst üblich, sondern „Doch kein Feedback“. Hört man mit einem offenen Ohr in den eigenen Kopf, erkennt man, dass es einem irgendwie einen Tick schwerer fällt, das Formular unkommentiert einfach wieder zu schließen – oder? Abbrechen meint Rückzug, es ist nichts passiert bisher. Etwas „doch nicht zu machen“, zahlt gedanklich in eine andere Hirnschublade ein.

Vielleicht ist auch das eine weitere Art der Hilfe im Sinne eines Stupsers, aus der bei der Benutzung der Plattform zu spürenden Wärme in der Kommunikation etwas für die Kundenkommunikation auf der eigenen Website zu lernen. Das funktioniert natürlich nur, wenn man sich bewusst macht, welche Mechanismen dahinterstecken – oder eben die vielen hinterlegten E-Books liest. Theorie und Praxis.

Abbildung 13: Auf „Doch kein Feedback“ zu klicken, fällt psychologisch gesehen spürbar schwerer …

Ein kleines Erlebnis mit dem Betreiber verdeutlicht vielleicht, wie hoch man Service und Kundenzufriedenheit dort hält. Im Bereich der Werkzeuge gibt es eine Auswertung aller internen Links nach Page-, Chei- und HubRank sowie weitere berechnete Metriken. Diese Daten hätten wir gerne als Download gehabt, um intern selbst damit weiterarbeiten zu können. Eine kurze diesbezügliche Anfrage, dass dies doch ganz nützlich wäre – und es kam nach etwa 90 Minuten eine Mail zurück. Nicht etwa mit dem Hinweis, man werde das prüfen und ggf. auf die Updateliste setzen, sondern mit dem Hinweis, dass dieses Feature eben eingebaut wurde und ab sofort nutzbar sei (Abbildung 14).

Abbildung 14: Vorher – nachher: Nach ca. 90 Min. war die nachgefragte Funktion bereits verbaut …

Preise

Der Zugang zu karlsCORE public ist für 180.- zzgl. MwSt. pro Monat zu haben. Für einen Buchungszeitraum von drei Monaten (170.- €/Monat netto) und sechs Monate (160.- €/Monat netto) gibt es jeweils zehn Euro Rabatt auf den Monat. Bezahlt werden kann mit Kreditkarte oder PayPal. Je nach gewünschten Einstellungen verlängert sich der Account jeweils oder läuft einfach entsprechend aus. Es entstehen also keine automatischen Verlängerungsketten, wenn man dies nicht möchte bzw. Bedenken hat, eine Kündigung zu vergessen. Das ist fair.

Angesichts der nutzbaren Tools, aber unbedingt auch wegen des vielen dort abrufbaren Zusatzwissens lohnt sich karlsCORE public sicherlich für die allermeisten Unternehmen. Da es keinen Testzugang gibt, muss man sich entscheiden, ob man das Risiko eingeht, sich für einen Monat für 180.- € dort umzusehen. Auf jeden Fall sollte man hier einigen Zeitaufwand einplanen. Mal schnell reinsehen, ein wenig herumklicken und das eine oder andere Mediabook aufzuklicken, ist sicher keine gute Strategie. Für karlsCORE public sollte man sich Zeit nehmen und neben den SEO-Tools vor allem das dort abrufbare Wissen in Ruhe durchsehen. Erst dann kann man wirklich entscheiden, ob und wie lange dortzubleiben und sich für einen selbst lohnt.

Wie alle bisher getesteten Tool gilt auch und ganz besonders hier, dass kein Tool wirklich zu teuer ist. Es hängt ausschließlich davon ab, ob man es wirklich nutzt und, na ja, auch was man davon in die eigene Website einfließen lässt. Alles in allem erscheint karlsCORE public als eine wirklich gute Investition.

Tipp

Wer sich karlsCORE in einem allerdings sehr reduzierten Umfang ansehen möchte, meldet sich einfach zuerst bei karlsCORE free an: Diese Version umfasst das Everythink-System, das Fragen-Tool, den URL-Shortener und ein nützliches E-Book: www.online-marketing.net/karlscore-free/.

Fazit

karlsCORE public enthält, wie in Abbildung 2 bereits ersichtlich war, noch sehr viel mehr Module, als wir hier beschreiben konnten. Und es werden ständig mehr. Wir sind besonders auf das angekündigte Modul „Domainfokus“ gespannt. Bekanntlich gibt es Patente von Google, in denen man beschreibt, wie man domainweit Keyworddichte und einen WDF*IDF-Ansatz (US Patent 7996379 B1) durchführen kann, um die thematische Ausrichtung einer Domain zu analysieren. Und auch im Google Research Blog findet man dazu Hinweise mit dem vielsagenden Titel „Teaching machines to read between the lines“ (https://einfach.st/rbtl2).

Neben vielen nützlichen Tools zur Unterstützung der Optimierung für Suchmaschinen findet man bei karlsCORE public auch wie bereits erwähnt noch andere Funktionen für die Online-Arbeit und vor allem sehr viele weiterführende Dokumente und inspirierende E-Books. Darüber hinaus haben Nutzer, die am 25. Oktober 2019 ein aktives karlsCORE-public-Konto besitzen, freien Zugang zum jährlichen karlsCORE-Event mit vielen spannenden Themen. Und vielleicht ist es auch genau diese Mischung, die karlsCORE public so interessant macht? Nicht die ausschließliche Konzentration auf Suchmaschinenoptimierung, sondern eben auch die auf den Besucher und die nötige Prozessunterstützung. Wer Karl Kratz kennt bzw. ihn schon einmal auf der einen oder anderen Konferenz gehört hat, weiß, dass er oft von Herzblut spricht, das man in seine Webseiten legen sollte. Eben genau dieses spürt man auch in seinen Tools. Und damit sind sie in jedem Fall eine deutliche Empfehlung wert.

Weitere Infos unter www.online-marketing.net/karlscore-public/