Fuzzylogik – Non-Brand-Reporting im SEO – websiteboosting.com
Viele SEO-Reports zeichnen Woche für Woche dasselbe Bild. Die Kennzahlen organische Sessions, Bounce-Rate, Umsatz und diverse Sichtbarkeitsindizes werden gerne undifferenziert an das Management berichtet. Nur die wenigsten wissen, dass diese Kennzahlen nicht ausreichen, um die Performance von SEO…
Viele SEO-Reports zeichnen Woche für Woche dasselbe Bild. Die Kennzahlen organische Sessions, Bounce-Rate, Umsatz und diverse Sichtbarkeitsindizes werden gerne undifferenziert an das Management berichtet. Nur die wenigsten wissen, dass diese Kennzahlen nicht ausreichen, um die Performance von SEO richtig zu bewerten. Je nach Größe und Wachstum der eigenen Marke korreliert ein großer Anteil des SEO-Erfolgs mit anderen Marketingaktivitäten, die die SEO-Erfolgsmessung maßgeblich verzerren. Um diesen verfälschten Blick zu schärfen, ist es zwingend notwendig, die SEO-Ergebnisse differenziert zu betrachten. Eine Aufteilung des organischen Traffics zwischen Brand und Non-Brand ist hier ein erster richtiger Schritt.
Die Wege eines Kunden von der ersten Produktwahrnehmung bis hin zum finalen Kauf (Customer Journey) werden zunehmend komplexer. Diverse Marketingaktivitäten nehmen maßgeblichen Einfluss auf das Kaufverhalten der Kunden. Abbildung 1 soll diese Abhängigkeiten veranschaulichen.
Abbildung 1: Customer Journeys
In der ersten Customer Journey sieht der Kunde einen TV-Werbespot und sucht anschließend auf seinem Smartphone nach einem generischen Keyword plus Markenname. Mit dem Vince-Update aus dem Jahr 2009 erhalten Marken bei Google eine höhere Relevanz. Die Suchmaschine erkennt anhand von Suchbegriffen eine womöglich präferierte Marke und spielt diese bei entsprechenden Suchanfragen auf den oberen Positionen aus. Top-Positionen sind bei diesen Suchanfragen garantiert. SEOs sollten sich dementsprechend auf die Optimierungen im Non-Brand-Bereich konzentrieren.
Die zweite Customer Journey zeigt einen Kunden, der sein Fahrrad reparieren möchte. Es sucht nach passenden Ersatzteilen anhand diverser generischer Suchbegriffe und technischer Bezeichnungen. Dieser Kunde ist nicht voreingenommen und besitzt keine Markenpräferenz. Die Wahrscheinlichkeit, dass hinter dieser Customer Journey ein Neukunde steckt, ist hoch. Genau diese Suchanfragen sind es, die sich im Non-Brand-Traffic widerspiegeln und anhand derer der Performance-Marketing-Kanal SEO gesteuert und gemessen werden sollte.
Vorbereitung und Daten, Daten, Daten
Im Statistikunterricht wurde eines klar: Je größer die Stichprobe ist, desto genauer ist das Endresultat. Google stellt für Webmaster unter dem Namen Google Search Console (GSC) ein Tool zur Verfügung, mit dem sich die Performance der eigenen Website in der Google-Suche messen lässt. Öffnet man den Performance-Report in diesem Tool, ist es leider nur möglich, maximal 1.000 Zeilen eines konfigurierten Filters als CSV herunterzuladen. Bei bekannten Marken stecken in diesem Datensatz bereits viele Falschschreibweisen, die es möglichst genau zu kategorisieren gilt, um den Non-Brand-Traffic am Ende präzise bestimmen zu können.
Mehr Daten erhält man mit der von der GSC zur Verfügung gestellten Programmierschnittstelle (eng.: Application Programming Interface, kurz: API), mit der man mehr als 25.000 Datensätze pro Filter bekommt. Dieser umfangreiche Datensatz sorgt für eine höhere Genauigkeit im Endergebnis.
Da die Schnittstelle keine grafische Oberfläche zur Verfügung stellt, mit der die Daten gefiltert werden können, geschieht dies durch ein JSON(JavaScript Object Notation)-Objekt. Für diese Auswertung interessieren lediglich ein Start- und Enddatum sowie die Dimension Query (deutsch Suchbegriff). Das aktuelle RowLimit seitens Google liegt bei 25.000. Sollte dieser Filter mehr als 25.000 Zeilen liefern, können durch einen Offset und Paginierung weitere Zeilen abgefragt werden.
Abbildung 2: JSON-Filter
Das Ergebnis dieser Abfrage (Request) ist eine Liste (“rows”: []) mit Objekten ({…}). Jedes Objekt steht für eine Zeile, so wie sie im Frontend der Google Search Console zu sehen ist. Ein Objekt besitzt die in Abbildung 3 gezeigte Struktur.
Abbildung 3: Ergebnis der API-Abfrage
Google Search Console API mit Python abrufen
Um die Google Search Console API abfragen zu können, sind zwei Dinge wichtig: Einrichtung eines Dienstkontos unter console.cloud.google.com und die Authentifizierung gegenüber der API mit einem Client.
Zunächst wird nach erfolgreichem Log-in unter console.cloud.google.com ein Projekt und unter dem Menüpunkt IAM & Verwaltung/Dienstkonto ein neues Dienstkonto angelegt, bei dem darauf zu achten ist, dass ein JSON-Key generiert wird (siehe Abbildung 4). Dieser Key dient dem Programm als Authentifizierung.
Abbildung 4: Service-Account erstellen
Die E-Mail-Adresse des JSON-Keys muss anschließend als lesender Nutzer hinter die entsprechende Google Search Console Property gelegt werden. Nachdem der Service-Account erstellt und die E-Mail-Adresse eingerichtet ist, lässt sich die im Git Repository hinterlegte Datei api_requests.py ausführen. Dabei ist darauf zu achten, dass der Name des JSON-Key angepasst wird und die in Zeile 21 hinterlegte ‚siteURL‘ mit der URL der Property übereinstimmt. Die Zeilen 14–19 repräsentieren den in Abbildung 2 zu sehenden JSON-Filter.
Traffic klassifizieren
Mehr als 25.000 Datensätze händisch nach Brand- und Non-Brand-Begriffen zu klassifizieren, wäre zu aufwendig. Ein programmatischer Ansatz ist bei dieser Auswertung nicht von der Hand zu weisen. Um Brand-Falschschreibweisen zu definieren, könnte man auf die Idee kommen, eine Regular Expression (kurz: regex) zu definieren. Dies wird die Brand-Begriffe sicherlich sehr präzise definieren, jedoch rutschen möglicherweise auch ähnliche Non-Brand-Keywords in diesen Filter, die das Bild erneut verzerren. Beispielsweise würde die regex r\t(.)*ch(.)* die Brand-Falschschreibweise „tschibo” sowie das Wort „tisch” als Brand-Keyword klassifizieren, was falsch ist. Regular Expressions sind also zu fehleranfällig, um ein klares Bild des Brand- und Non-Brand-Traffics zu erhalten.
Abhilfe schafft hier eine unscharfe Suche (oder auch Fuzzy-Suche), die nicht darauf aus ist, einen exakten Suchbegriff in einer Zeichenkette zu finden, sondern ähnliche Suchbegriffe. Ein bekannter Algorithmus in diesem Kontext ist die sogenannte Levenshtein-Distanz, welche u. a. in der Rechtschreibprüfung oder in der Duplikat-Erkennung angewandt wird.
Für die Programmiersprache Python steht das Modul „fuzzywuzzy“ zur Verfügung, mit dem die Levenshtein-Distanz zwischen zwei Wörtern bestimmt werden kann. Möchte man beispielsweise die Ähnlichkeit zwischen den Strings „this is a test” und „this is a test!” bestimmen, reicht ein simpler Aufruf der Methode ratio() am importierten Fuzz-Objekt. Die Levenshtein-Distanz pendelt zwischen den Grenzwerten 0 und 100, wobei 100 eine exakte Übereinstimmung definiert.
Abbildung 5: Levenshtein-Distanz in Python
Sample Daten und Programmcode
Um den Artikel übersichtlich zu halten, analysiert dieser Beitrag einen Datensatz von 10 Zeilen mit fiktiven Keyword- und Klickdaten (siehe Tabelle 2).
Da Suchende bei ihrer Suchanfrage den Markenbegriff entweder voranstellen oder anhängen, müssen die Keywords zunächst in einzelne Suchwörter zerlegt, sortiert und Dubletten entfernt werden. Anschließend wird zu jedem Suchwort die Levensthein-Distanz (LD) zu dem Begriff „tchibo” bestimmt (siehe Tabelle 1).
Suchwort
Levenshtein-Distanz
LD – 67
Tchibo
100
33
Tchibio
92
25
Tchibop
92
25
Tchobi
67
0
Tisch
55
-12
Schuhe
33
-34
Brotbackschale
30
-37
duschschlauch
21
-46
bett
20
-47
mode
20
-47
online
17
-50
bademantel
12
-55
bettgestell
12
-55
kaffee
0
-67
kaufen
0
-67
Tabelle 1: Suchwörter mit Levensthein-Distanz
Interessant ist der Übergang der LD zwischen 55 und 67. Ab dieser Schwelle können Keywords nach subjektiver Wahrnehmung Brands zugeordnet werden. Besitzt eine Kernmarke mehrere Untermarken, müssen die Schwellenwerte entsprechend pro Brand-Begriff festgelegt werden. Diese mehrdimensionale Analyse würde jedoch den Umfang dieses Beitrags sprengen. Beispielsweise besitzt die Kurzschreibweise TCM (Tchibo Certified Merchandise) bei Tchibo Brand-Charakter. Der Schwellenwert für diesen Begriff ist aufgrund der geringen Zeichenanzahl relativ hoch.
Um Keywords (insbesondere über mehrere Markenbegriffe) besser zuordnen und vergleichen zu können, wird der Schwellenwert von der LD subtrahiert. Dadurch können alle Einzelwörter des Keywords mit einer modifizierten Levenshtein-Distanz von größer/gleich 0 eindeutig Brand zugeordnet werden.
Abbildung 6: Programmcode zur Berechnung der LD
Nachdem der Schwellwert (eng. Threshold) bestimmt wurde, gilt es, den Testdatensatz zeilenweise zu iterieren (siehe Abbildung 6, Zeile 1). Für jede Zeile wird eine neue Liste (res) angelegt, die am Ende die modifizierte LD pro Suchwort beinhaltet. In Zeile 3 wird jedes Keyword am Leerzeichen getrennt. Für die daraus resultierenden Suchwörter wird die modifizierte LD berechnet und in der Liste res gespeichert. Ist das Maximum dieser Liste größer oder gleich 0, wird die Zeile um die Spalte Brand erweitert und erhält den Wert True (Zeile 5 & Abbildung 7) andernfalls den Wert False. Das Ergebnis dieses Durchlaufs ist der Tabelle 2 zu entnehmen.
Abbildung 7: JSON Objekt um Spalte „brand“ erweitert
Keyword
Klicks
Matrix (Result)
Brand
tchibo duschschlauch kaufen
145
[33, -46, -67]
True
tchibo mode online kaufen
356
[33, -47, -50, -67]
True
tchibop kaffee kaufen
478
[25, -67, -67]
True
bett online
25
[-47, -50]
False
tchibio bademantel kaufen
789
[25, -55, -67]
True
bettgestell kaufen
389
[-55, -67]
False
schuhe online kaufen
323
[-34, -50, -67]
False
tisch kaufen
35
[-12, -67]
False
tchobi tisch kaufen
398
[0, -12, -67]
True
tchibo brotbackschale kaufen
334
[33, -37, -67]
True
Tabelle 2: Ergebnis des Programmcodes
Non-Brand-Verhältnis berechnen
Abbildung 8: Programmcode zur Berechnung des Non-Brand-Verhältnisses
Die Bestimmung des Non-Brand-Verhältnisses ist mathematisch relativ überschaubar. Der nun um die Spalte Brand erweiterte Datensatz (siehe Tabelle 2) wird zeilenweisen iteriert. Wenn der Brand-Wert einer Zeile den Wert True aufweist, werden die Klicks dieser Zeile auf die Variable brand_clicks addiert. Bei dem Wert False werden die Klicks entsprechend auf die Variable nonbrand_clicks addiert. Das Non-Brand-Verhältnis in dem festgelegten Zeitraum ist dann entsprechend:
Fazit und Zusammenfassung
Tchibo hat in Deutschland eine Markenbekanntheit von 99 %. Diese enorme Markenbekanntheit verursacht unzählige Falschschreibweisen und „Vertipper-Keywords“ auf deutschen Tastaturen. Mit dieser Methodik haben wir eine valide Grundlage geschaffen, die Erfolge unserer SEO-Abteilung fair zu bewerten.
Dass diese differenzierte Betrachtung nicht ausreicht, um die Performance von SEO zu beurteilen, ist eindeutig. Jedoch ist diese Methodik eine Grundlage für nachfolgende stichwortartige Gedankengänge, um den Non-Brand-Blick weiter zu schärfen:
Verbindung zwischen GSC und Google-Analytics-Daten via URL, um Non-Brand-Umsatz definieren zu können.
System sehr fehleranfällig bei generischen Marken wie bspw. „stoffe.de” oder „fahrrad.de“.
Non-Brand-Traffic pro URL/Kategorie und Zeiteinheit bestimmen, um den Erfolg von SEO-Tests zu messen, bspw. Änderungen der CTR im Non-Brand-Traffic bei der Änderung des Meta-Titles und der Meta-Description auf bestimmten URL.
Non-Brand-Ratio nicht sehr aussagekräftig! Interessant wird es, wenn Non-Brand-Traffic ins Verhältnis zu Suchvolumen-Potenzial gesetzt wird.
Report automatisiert pro Zeiteinheit ausführen und grafisch festhalten.
Risiken einer dauerhaften Verwendung von noindex, follow: Isolation von HTML-Dokumenten
Risiken einer dauerhaften Verwendung von noindex, follow: Isolation von HTML-Dokumenten – websiteboosting.com
Wenn Suchmaschinen Dokumente plötzlich anders bewerten, kann dies zu schwerwiegenden Folgen für Webseitenbetreiber führen. Auch wenn dies mit vorheriger Ansage – wie beim Langzeiteinsatz von noindex, follow – passiert, ignorieren einige SEOs die möglichen Konsequenzen. Zwei ausgewiesene…
Wenn Suchmaschinen Dokumente plötzlich anders bewerten, kann dies zu schwerwiegenden Folgen für Webseitenbetreiber führen. Auch wenn dies mit vorheriger Ansage – wie beim Langzeiteinsatz von noindex, follow – passiert, ignorieren einige SEOs die möglichen Konsequenzen. Zwei ausgewiesene SEO-Experten, Tobias Schwarz und Sören Bendig, erklären anhand eingängiger Beispiele, wie und warum Seiten vom Link-Graphen isoliert werden können.
Um das Internet crawlen zu können, müssen Suchmaschinen eine sehr große Menge an URLs erfassen. Damit dies sinnvoll und wirtschaftlich erfolgen kann, bedienen sich moderne Suchmaschinen einer Vielzahl an Techniken, um wichtige, weniger wichtige und unwichtige Dokumente effektiv zu crawlen. Sie passen diesen Prozess kontinuierlich an und versuchen dabei, ihre eigenen Ressourcen möglichst effizient einzusetzen.
Wenn Google noindex, follow nachträglich als noindex, nofollow interpretiert
Aus Sicht der Suchmaschinen ist das Crawlen von Dokumenten, die von der Indizierung ausgeschlossen sind, ineffektiv. Ende 2017 erklärte John Mueller (Google Webmaster Trends Analyst) in einem Google Webmaster Hangout (http://einfach.st/jmu43), dass sich die Bewertung von langfristig als noindex markierten Seiten im Laufe der Zeit ändern kann und somit Auswirkungen auf den Link-Graphen hat. Google interpretiert diese Seiten dann als noindex, nofollow und wertet die Links zu Folgeseiten in diesem Fall nicht mehr. Dies führt im schlimmsten Fall auch dazu, dass die weiterführenden Seiten nicht mehr gecrawlt werden, sofern diese keine weiteren starken Signale von außen bekommen.
Wie lange dauert es, bis Google die Direktive für sich ändert? Leider gibt es dazu keinen eindeutigen Zeitraum und es heißt wie so oft; „Es kommt darauf an …“
Ein Webmaster hat verschiedene Möglichkeiten, Suchmaschinen beim Crawling-Prozess zu unterstützen:
Um den Crawler zu steuern:
URLs in der robots.txt verbieten
Nofollow-Links
Um das Crawling zu optimieren, können Änderungen angegeben werden:
XML-Sitemap
lastmod
changefreq
Robots-Direktive
unavailable_after
Wie die Indexierbarkeit eines HTML-Dokuments andere Dokumente isoliert
Um die Problematik besser nachvollziehen zu können, werden im Folgenden ein paar einfache Beispiele mit drei Dokumenten (A, B und C) untersucht. Der Fokus liegt auf der Situation von Dokument C unter Berücksichtigung des Indexierungsstatus von B. In allen Szenarien gibt es interne Links zwischen A ⇆ B und B ⇆ C. Dokument A gilt immer als gecrawlt und hat die Robots-Direktive „index, follow“ gesetzt. Dokument C ist immer „index, follow“ und mit Dokument B verknüpft.
Normales Indexierungsverhalten: In diesem Beispiel erhält Dokument B eine „index, follow“-Direktive. Im Ergebnis können alle Dokumente gecrawlt und indiziert werden.
Abbildung 2: Normales Indexierungsverhalten
Langzeit-Noindex-Szenario: In diesem Beispiel erhält Dokument B eine „noindex, follow“-Direktive. Im kurzfristigen Ergebnis werden alle Dokumente gecrawlt und indiziert. Wenn eine Suchmaschine sich nach einiger Zeit dazu entschließt, die Direktive von Dokument B als „noindex, nofollow“ zu interpretieren, dann wird Dokument C isoliert wie in Abbildung 3 zu sehen.
Abbildung 3: Langzeit-Noindex-Szenario
Ähnlich könnte es sich in einem Langzeit-Rel-Canonical-Szenario verhalten. Auch wenn John Mueller dazu in Bezug auf Google keine explizite Aussage getroffen hat, entspricht die Logik nach Effizienz und Ressourcenschonung bei einer Rel-Canonical-Direktive dem gleichen Muster. Webmaster sollten sich gut überlegen, welche Inhalte sie aus dem Index von Suchmaschinen heraushalten wollen und ob die Seitenstruktur dafür geeignet ist. Eine häufige Fehlkonzeption sind umfangreiche Kategorie- oder Paginierungsstrukturen, wo der Webmaster zwar das einzelne Produkt, aber nicht die Übersicht indizieren möchte. In Abbildung 4 ist ein Beispiel zu sehen, wo 40 % der Seiten einer Domain von einem solchen Konstrukt betroffen sind.
Abbildung 4: Freizügiger Einsatz von „noindex, follow“ kann zur möglichen Isolation großer Teile der Seite führen
Bedeutung für Paginierung und andere komplexe Szenarien
Wenn die vorherigen Beispiele auf eine komplexere Seitenstruktur wie Paginierung, Kategorien oder ähnliche HTML-Sitemaps übertragen werden, zeigt sich deutlich das mögliche Ausmaß des Problems.
Beispiel Paginierung: Im Set-up haben wir eine Kategorie C mit einer „index, follow“-Direktive und den Seiten P1, P2 und P3 mit einer „noindex, follow“-Robots-Direktive. Alle diese Seiten verweisen auf eine Reihe von Item-Seiten mit einer „index“-Direktive. Wie in Abbildung 5 zu sehen, werden kurzfristig alle Seiten indexiert bis auf die Paginierungsseiten.
Abbildung 5: Kurzfristig werden alle Einzelseiten erreicht und indexiert
Wenn eine Suchmaschine sich nach einiger Zeit für die Neuinterpretation der Paginierungsseiten auf „noindex, nofollow“ festlegt, dann ergibt sich ein schwerwiegendes Problem (Abbildung 6), da die Einzelseiten isoliert werden. Wenn diese Seiten keine externen Signale besitzen oder neue Seiten auf bereits isolierten Paginierungsseiten verlinkt werden, werden Seiten ggf. gar nicht mehr indiziert. Insbesondere wenn regelmäßig neue Produkte oder Artikel der Webseite hinzugefügt werden, ist eine Vermeidung von Langzeit-Noindex notwendig, um eine direkte Isolierung neuer Elemente zu verhindern.
Abbildung 6: Bei einem langfristigen Einsatz von „noindex, follow“ entscheiden sich Suchmaschinen ggf. für eine „noindex, nofollow“-Interpretation
Bedeutung für komplexe Strukturen wie HTML-Sitemaps
Bei großen Portalen mit vielen unterschiedlichen Inhalten wächst historisch oft eine vielfältige Mischarchitektur. Verdeutlicht werden soll dies an einem weiteren Beispiel in Abbildung 7 und der Kombination von noindex und canonical. Im Set-up befinden sich eine Reihe von Dokumenten A bis I. Die Dokumente D und F haben eine „noindex, follow“-Direktive. Dokument B verweist per rel-canonical auf Dokument A. Die Dokumente A ⇆ I sind miteinander verlinkt.
Abbildung 7: Komplexere Struktur mit einer Mischung aus index, noindex, follow und canonical
Unter Berücksichtigung der Langzeiteffekte ändert sich die Interpretation der Dokumente D und F, daraus ergibt sich die Isolierung von Dokument E. Wenn zusätzlich Dokument B neu interpretiert wird, resultiert daraus die Isolierung von C, D und E, wie in Abbildung 8 zu sehen. Wären die Dokumente A ⇆ I nicht miteinander verknüpft, wären auch die Dokumente G, H und I von der Isolierung betroffen. Zu beachten ist zusätzlich, dass der kürzeste Pfad zu G von A → B → G auf den längeren Weg A → I → H → G wechselt.
Abbildung 8: Bei einem langfristigen Einsatz der Struktur aus Abb. 7 werden einzelne Seiten isoliert
Die Beispiele zeigen, dass selbst einzelne Aspekte in einer komplexen Webseitenstruktur sehr ins Detail gehen können. Dies ist gleichzeitig ein Indiz dafür, dass eine Strukturanalyse und die anschließende Strukturoptimierung für große Portale unabdingbar sind. Ungeeignete Strukturen bedeuten ein erhebliches Risiko für die Interpretation durch Suchmaschinen und mitunter stark negative Auswirkungen auf die wirtschaftliche Performance der Seite.
Zu einem Strukturkonzept gehören neben einer Lösung für die Noindex-Problematik auch für die Nutzerführung relevante Themen wie Seitentiefe, Autoritätenverteilung, Schaffung geeigneter Hubs und das Thema Paginierung. Allzu oft wird bei der Optimierung leider entweder nur auf den User oder auf den Bot geschaut, aber gerade das sinnvolle Zusammenspiel bringt den größten Mehrwert. Wenn erste Analysen in Teilbereichen bereits Probleme aufzeigen, dann ist eine ausführliche Strukturanalyse notwendig und möglicherweise eine Neukonzeption der verantwortlichen Struktur die beste Lösung.
Der ultimative LinkedIn Ads Guide
Der ultimative LinkedIn Ads Guide – websiteboosting.com
Zahlreiche Unternehmen nutzen LinkedIn, um sich als Arbeitgeber zu präsentieren und ihr Corporate-Marketing voranzutreiben. Viele übersehen dabei die Möglichkeiten, die LinkedIn im Bereich Anzeigen bietet. Auf LinkedIn befindet sich eine interessante Zielgruppe, die spannende Infos über sich und…
Zahlreiche Unternehmen nutzen LinkedIn, um sich als Arbeitgeber zu präsentieren und ihr Corporate-Marketing voranzutreiben. Viele übersehen dabei die Möglichkeiten, die LinkedIn im Bereich Anzeigen bietet. Auf LinkedIn befindet sich eine interessante Zielgruppe, die spannende Infos über sich und ihren Werdegang gibt. Im Raum Deutschland, Österreich und der Schweiz sind immerhin 12 Millionen Nutzer registriert. Eine recht aussichtsreiche Chance also, mit guten Kampagnen und dem richtigen Content eine passende Zielgruppe anzusprechen und direkte Conversions zu erzielen. Britta Kristin Böhle und Katharina Breuer zeigen auf, wie man dabei am besten vorgehen kann.
Die Werbeformate von LinkedIn
LinkedIn bietet mittlerweile zahlreiche Formate an, um seine Zielgruppe bestmöglich anzusprechen. Klassiker wie Brand Awareness und Website Visits finden sich auch bei LinkedIn wieder.
In diesem Beitrag wird auch auf das neue Format Lead Generation hingewiesen. Im Gegensatz zur Brand Awareness beispielsweise sollte dieses Format für einen tieferen Schritt im Funnel ausgewählt werden, da es direkt für die Erzielung von Conversions ausgelegt ist. Das Besondere an dem Format Lead Generation ist, dass die Zielgruppe nach Klicken auf die Anzeige den Kanal LinkedIn nicht verlassen muss, um auf eine Landingpage weitergeleitet zu werden, sondern bei LinkedIn bleibt. Nach Klick auf die Anzeige öffnet sich ein Fenster mit einem Formular, in dem Infos abgefragt werden können. Das Formular kann beim Aufsetzen der Kampagne individuell angepasst werden (siehe Schritt 5). Auch die Platzierungsmöglichkeiten bei diesem Format sind interessant. Es gibt neben der klassischen „Feed”-Platzierung (also eine Anzeige in der Timeline der Zielgruppe) die Möglichkeit, eine Nachricht direkt in das Postfach eines Users zu senden. Auch hier wird nach Klicken auf die Nachricht bzw. auf den Call-to-Action-Button ein Formular in LinkedIn geöffnet. Diese Platzierung bietet sich an, wenn zum Beispiel ein Event wie ein Webinar oder eine Messe empfohlen werden soll.
Vorteile des Lead-Generation-Formats sind eindeutig, denn bei einem Medienbruch gehen aufgrund langer Ladezeiten, schlechter Landingpages, fehlender mobiler Anpassung der Formulare oder allem zusammen viele Conversions verloren. Durch die Formulare bei LinkedIn werden die Nutzer best- und schnellstmöglich durch die Journey geleitet. Ein weiterer Vorteil ist, dass alle Infos, die LinkedIn vom Nutzer hat, im Formular schon vorausgefüllt werden. Das heißt, dass der User im besten Fall nur noch auf „OK” klicken muss und die Infos, die er haben möchte bzw. für die er sich interessiert, direkt erhält.
Ein Nachteil, der durch das „Nichtverlassen” von LinkedIn auftauchen kann, ist ein Trafficverlust, da die Nutzer nicht auf die eigene Landingpage weitergeleitet werden. Um den Trafficverlust so gering wie möglich zu halten, kann am Ende des Formulars ein beliebiger Link angegeben werden, um die User für weiterführende Infos doch auf die eigenen Seiten zu leiten.
Kampagne erstellen: Schritt für Schritt
Schritt 1: Das Kampagnen-Format auswählen
Bevor eine Kampagne auf LinkedIn erstellt wird, sollte entschieden werden, welches Ziel die Kampagne verfolgen soll. Je nachdem, für welches Ziel man sich entscheidet, bietet LinkedIn unterschiedliche Objectives an (siehe Abbildung 1).
Verfolgt man mit der Kampagne beispielsweise das Ziel, ein neues Video zu pushen, so wählt man das Objective „Video views”. Befindet sich das Ziel schon tiefer im Funnel, in der sogenannten Conversion-Stage, so gibt es Objectives wie das bereits beschriebene „Lead Generation”. Hierbei wird die Kampagne für mögliche Abschlüsse bzw. Leads ausgelegt und optimiert. Dieses Objective bietet außerdem die Möglichkeit, die Leads direkt über LinkedIn einzusammeln.
Schritt 2: Das Targeting auswählen
Das Targeting ist das Herzstück einer jeden Kampagne und sollte gut durchdacht sein. Bevor man sich für die verschiedenen Targeting-Möglichkeiten entscheidet, sollte bereits eine Analyse gemacht worden sein. Fragen, die dabei gestellt werden können, sind:
Wer ist überhaupt meine Zielgruppe? Welche Eigenschaften bringen die Personen in meiner Zielgruppe mit sich? Welche Berufe hat meine Zielgruppe und in welcher Branche arbeiten diese? Wie alt ist meine Zielgruppe?
Nachdem man diese Fragen schon vorher beantwortet hat, fällt die Auswahl für das Targeting deutlich leichter und ist effektiver.
Bei LinkedIn gibt es verschiedene Targeting-Optionen, wie in Abbildung 2 zu erkennen ist. Diese werden nun ausführlicher behandelt.
Als erste Option kann die Sprache ausgewählt werden. Je nach Markt sollten die gängigsten Sprachen gewählt werden. Aber Achtung! Englisch ist vor allem im Online-Marketing eine weitverbreitete Sprache. Viele haben ihre Browser-Einstellungen in Englisch bzw. haben in ihren LinkedIn-Settings die Sprache Englisch ausgewählt. Daher sollte Englisch als Sprache immer mit hinzugefügt werden. Denken Sie auch daran, dass in manchen Ländern mehrere Amtssprachen bestehen wie zum Beispiel in Spanien (Spanisch, Baskisch, Galicisch, Katalanisch).
Die nächste Targeting-Option ist die Standort-Auswahl. Hier kann von einem Kontinent bis zu einer Stadt alles ausgewählt werden. Achten Sie hier darauf, wo ihre Zielgruppe lebt und wo Sie sie am ehesten erreichen können.
Die letzte Option ist die eigentliche Audience. Hier haben Sie die Auswahl zwischen „Audience attributes” und „Matched Audiences”.
Bei Audience attributes wählen Sie zwischen Angaben der LinkedIn-User über sich selbst, wie z. B., in welchem Unternehmen sie arbeiten, welche Ausbildung sie gemacht haben oder welche Berufserfahrung sie aufweisen. Sie können dabei ganz bestimmte Unternehmen über den Namen finden und zielgerichtet ansprechen, aber Sie können zum Beispiel auch über die Berufserfahrung nur Absolventen oder Geschäftsführer auswählen. Hier haben Sie außerdem unterschiedliche Möglichkeiten, die verschiedenen Kriterien miteinander zu verknüpfen. Aber Achtung! Nie zu viele Kriterien miteinander verknüpfen. Das Targeting wird dadurch stark eingegrenzt. Manchmal auch zu weit, daher hat die Kampagne oft keine Reichweite bzw. hat nur schlechte Chancen, ausgespielt zu werden.
Die andere Möglichkeit sind Matched Audiences. Hier haben Sie die Möglichkeit, mit eigenen Kontaktlisten zu arbeiten und von Ihnen bestimmte Personen mit ihrer Kampagne anzusprechen. Dabei können Sie eigene Listen bei LinkedIn hochladen oder mit dem LinkedIn-Pixel arbeiten. Das sind ähnliche Möglichkeiten wie bei Facebook mit Custom Audiences. Sie installieren dabei den LinkedIn-Pixel auf Ihren Seiten und können so bei LinkedIn im Backend sogenannte Website Audiences bilden. Sie können Listen von Usern anlegen, die sich auf bestimmten Seiten oder auch auf all Ihren Seiten bewegt haben. Dadurch haben Sie die Möglichkeit für klassisches Retargeting.
Tipp: LinkedIn gibt Ihnen eine Schätzung, wie viele Leute Sie erreichen können mit Ihrer Kampagne, nachdem Sie Ihre Zielgruppe definiert haben. Eine Zielgruppengröße von 100.000-300.000 ist eine perfekte Basis.
Schritt 3: Das Anzeigenformat auswählen
Je nachdem, welches Objective ausgewählt wurde, haben Sie nun die Wahl zwischen verschiedenen Anzeigenformaten (siehe Abbildung 3).
Hier ist abzuwägen, welches Format am besten zu Ihrem geplanten Ziel passt. Eine Möglichkeit, die LinkedIn bietet, besteht darin, bezahlte Nachrichten in das Postfach Ihrer Zielgruppe zu schicken, wie bereits am Anfang des Artikels beschrieben. Dieses Format nennt sich Message ad. Eine andere beliebte Variante ist das klassische Single Image oder auch die Text ad. Sie wissen nicht, welches das passende Format für Ihre Kampagne ist? Probieren Sie mehrere Formate aus und testen Sie diese gegeneinander. So können Sie schnell herausfinden, welches Format das passende für Ihre Zielgruppe ist.
Schritt 4: Das Budget, den Zeitplan und die Gebotsstrategie festlegen
Nun können Sie ein Budget für Ihre Kampagne wählen. Sie haben die Möglichkeit, ein „totales Budget” oder ein „Tagesbudget” zu wählen. Haben Sie einen bestimmten Zeitraum (z. B. zwei Wochen), die Ihre Kampagne laufen soll, so sollten Sie ein Laufzeitbudget bzw. totales Budget wählen. Haben Sie noch kein Enddatum für Ihre Kampagne gewählt, so empfiehlt sich ein Tagesbudget. Bei einem Tagesbudget ist die Wahrscheinlichkeit höher, dass Anpassungen während der Laufzeit vorgenommen werden, wenn man sieht, dass die Kampagne gut oder schlecht läuft. Das Laufzeitbudget wird selten angepasst, da man sich bewusst ein Limit setzt.
Die beste Strategie dabei ist, erst mit einem höheren Budget zu starten, damit der LinkedIn-Algorithmus Zeit hat, die Kampagne bestmöglich auszuspielen. Nach ein paar Tagen kann das Budget dann, wenn gewollt, heruntergesetzt werden.
Bei dem Bid Type ist zu empfehlen, erst mit einem CTR-Gebot einzusteigen und, nachdem die Kampagne einige Zeit gelaufen ist, auf das CPM-Gebot zu wechseln.
Schritt 5: Anzeigen erstellen
Als letzten Schritt Ihrer LinkedIn-Kampagne erstellen Sie eine Anzeige.
Sie können einen bestehenden Post von Ihrer LinkedIn-Seite promoten oder eine neue Anzeige erstellen. Je nach dem gewählten Objective gibt es verschiedene Optionen und Größen der Anzeige. Beachten Sie die Zeichenanzahl und die passende Bildgröße für eine gute Anzeige. Wählen Sie außerdem für Ihre Zielgruppe passende Inhalte.
Haben Sie das Objective „Lead Ad” gewählt, so haben Sie jetzt die Möglichkeit, nach Auswahl einer Anzeige das Formular anzupassen (siehe Abbildung 4). Sie können selber bestimmen, welche Daten Sie in dem Formular abfragen möchten. Außerdem können Sie im Formular noch einmal Ihren Content wiedergeben, um das Interesse weiter zu bestärken. Und natürlich ein kleiner Hinweis: Denken Sie bei einer Datenabfrage immer an die aktuelle Rechtsprechung.
Tipp: Um für Ihre Kampagne die bestmöglichen Ergebnisse zu erhalten, sollten Sie verschiedene Anzeigen gegeneinander testen. Drei bis vier verschiedene Anzeigen pro Kampagne sind zu empfehlen. Nach ca. 3.000-5.000 Impressionen pro Anzeige können Sie Ihren Test auswerten und die beste Anzeige wählen.
Social-Media-Landschaft 2021 – Status quo der relevantesten Plattformen
Social-Media-Landschaft 2021 – Status quo der relevantesten Plattformen – websiteboosting.com
Wo früher Facebook allein die Social-Media-Welt bestimmte, verliert man bei all den heute verfügbaren Plattformen schnell den Überblick. Es wird deutlich, Social Media ist erwachsen geworden und hat in den vergangenen Jahren viel Nachwuchs bekommen. Denn für eine erfolgreiche digitale Kommunikation.…
Wo früher Facebook allein die Social-Media-Welt bestimmte, verliert man bei all den heute verfügbaren Plattformen schnell den Überblick. Es wird deutlich, Social Media ist erwachsen geworden und hat in den vergangenen Jahren viel Nachwuchs bekommen. Denn für eine erfolgreiche digitale Kommunikation ist Social Media in einer Unternehmensstrategie nicht mehr wegzudenken. Doch welche Plattform eignet sich am besten für meine Unternehmensziele und sollte daher unbedingt von mir bedient werden? Und wie funktioniert diese, sodass ich sie zielführend steuern kann. Antworten auf diese und weitere Fragen sowie einen Überblick des aktuellen Status quo der Social-Media-Landschaft liefert dieser Artikel.
Facebook, Instagram, Pinterest, LinkedIn, XING, YouTube, Snapchat und viele, viele mehr – weltweit tummeln sich hier tagtäglich Millionen von Usern, um sich persönlich auszutauschen, Bilder zu posten, Videos anzuschauen, Nachrichten zu lesen, Jobs zu finden, sich über Marken, Produkte oder Personen zu informieren und seit Neuestem auch verstärkt, um zu shoppen. Das zeigt: Social Media ist in den vergangenen Jahren viel mehr geworden als nur Plattformen für junge Menschen und lustige Katzenvideos. Das Konsum- und Kommunikationsverhalten hat sich im Laufe der Zeit radikal verändert und die Corona-Pandemie hat diese Entwicklung noch weiter verstärkt. Social Media ist erwachsen geworden und hat seine Stellung auch in Deutschland als Kommunikationskanal weiter ausgebaut: vom unreifen Kind über einen ziellosen Jugendlichen zum erfolgreichen Erwachsenen mit Werten, definierten Zielen und individuellen Eigenschaften. Während die sozialen Netzwerke früher von Unternehmensseite her eher stiefmütterlich behandelt wurden und in erster Linie Fans, Reichweite und Interaktionen (Likes, Kommentare und Shares) einbringen sollten, ist ihr Stellenwert heutzutage ein anderer. Follower werden noch immer, oft fälschlicherweise, als höchste Währung sozialer Netzwerke angesehen – obwohl die Anzahl der Abonnenten bei sinkender organischer Reichweite, wie es bei etablierten Kanälen der Fall ist, als Erfolgsindikator immer mehr in den Hintergrund rückt. Facebook, Instagram und Co. haben sich verstärkt zu Verkaufskanälen entwickelt, welche Klicks, Conversions und Leads generieren sollen. Denn Social Media kostet Geld sowie Ressourcen und muss demnach auch einen Ertrag erwirtschaften.
Am Ende ist es eine strategische Entscheidung, welche und wie viele Plattformen ein Unternehmen einsetzt. Doch dabei ist es unumgänglich, die einzelnen Plattformen zu kennen und deren Funktionen zu verstehen.
Die Phasen der Social-Media-Plattformen
In der Regel durchlaufen Social-Media-Plattformen drei große Phasen: Entstehungsphase, Boomphase und Sättigungsphase.
In der Entstehungsphase wird die neue Plattform meist von der jüngeren Zielgruppe wahrgenommen, die ihre Vorteile schnell identifiziert und ihre Funktionen leicht erlernt. Folglich wird die Plattform direkt gelebt. Diese entwickelt sich, gewinnt schnell an Nutzern. Parallel dazu steigt auch die Zeit, die auf dem Kanal verbracht wird. Laut einer Studie von Global Web Index (globalwebindex.com, 2021) verbringt ein deutscher User durchschnittlich eine Stunde und 24 Minuten seiner täglichen Zeit in den sozialen Netzwerken. Damit liegt Deutschland dennoch auf einem der hinteren Plätze, was die Nutzungsdauer von Social Media betrifft. Mit über vier Stunden sind die Philippinen Spitzenreiter. Schauen Sie doch mal auf die Bildschirmzeit Ihres Smartphones und die meistverwendeten Apps. Es wäre verwunderlich, wenn die Social-Media-Plattformen nicht die obersten Plätze einnehmen würden. Da fragt man sich doch, was man früher mit dieser Zeit angestellt hat
Auf die Entstehungsphase folgt die Boomphase: festzustellen an Millionen von Usern, enorm hohen täglichen Zugriffszahlen, monatelangen Top-3-Platzierungen in den App-Download-Charts des Google und Apple Stores, regelmäßigem Erscheinen neuer Funktionen und natürlich an Werbung, viel Werbung. Während in der Entstehungsphase der Plattform der Marketingleiter noch überzeugt werden muss, wieso es sich denn überhaupt lohnt, auf der noch jungen Plattform präsent zu sein und zu den First Movern zu gehören, erfolgt gegen Ende der Boomphase und sogar noch in der Sättigungsphase ein regelrechter Ansturm der Brands auf die nun nicht mehr neue Plattform. Zu diesem Zeitpunkt profitieren die Spätzünder-Marken beim Nutzen der Plattform für ihre Beiträge und die eigene Werbung nicht mehr von den anfänglich günstigen Reichweiten. Denn mit mehr Bekanntheit und mehr Nutzern steigt auch die Konkurrenz.
Daneben entstehen am Ende der Boomphase weitere „junge“ soziale Plattformen mit neuen Funktionen und Inhalten, die noch stärker an die entsprechenden Zielgruppen angepasst sind. Dadurch wandern die angesprochenen Zielgruppen von der „alten“ Plattform ab. Auch jüngere User verwenden diese kaum noch. Dieses Verhalten versetzt die Plattform in die Sättigungsphase. Eine solche Entwicklung konnte zum Beispiel sehr gut bei Facebook und Instagram beobachtet werden. Heute bestätigt die Plattform TikTok diesen Verlauf. Obwohl sich hier bereits die Entwicklung dynamisch anpasst, sodass „ältere“ Nutzer und Unternehmen frühzeitig die Chancen von TikTok erkennen und zu ihrem Nutzen verwenden möchten.
Das zeigt: Es wird immer diverse Social-Media-Plattformen mit jeweils eigenen Unique Selling Points (USP) in unterschiedlichen Stadien geben, die von jedem Unternehmen individuell für das eigene Engagement bewertet werden müssen. Heutzutage reicht es nicht mehr aus, die Kanäle nebenher von Praktikanten oder Werkstudenten betreuen zu lassen. Für einen erfolgreichen Social-Media-Auftritt bedarf es Ressourcen, eigener Mitarbeiter, ja sogar eigener Abteilungen oder der Auslagerung an externe Dienstleister oder Agenturen.
Social-Media-Landschaft in Deutschland 2021
Doch wie sieht es denn nun aus mit der Social-Media-Landschaft in Deutschland? Welche sind die meistgenutzten Social-Media-Plattformen in Deutschland? Abbildung 2 zeigt einen aktuellen Zwischenstand aus dem Jahr 2021 für den deutschen Markt. Beeindruckend zeigt sich weiterhin das Wachstum von TikTok. Das noch sehr junge soziale Netzwerk aus China entwickelt sich in einem rasanten Tempo. Die letzten veröffentlichten Zahlen von September 2020 mit 10,7 Millionen monatlich aktiven Usern sind bereits überholt, sodass die tatsächliche Anzahl laut dem TikTok-Werbeanzeigenmanager bereits bei über 15 Millionen liegen müsste. Die Plattform wird in den kommenden Jahren, vielleicht auch schon Monaten ganz oben ankommen und einen enormen Anstieg der Nutzer erfahren.
Aufgrund ungleicher Statistiken ist YouTube nicht in dem Diagramm vermerkt, laut www.internetworld.de können monatlich aber 47 Millionen User auf YouTube erreicht werden. Ob es sich hierbei aber um aktive oder passive User handelt, ging aus der Statistik nicht hervor.
Keine Überraschung an der Spitze – Facebook bleibt die Nummer 1
Facebook ist seit Jahren weiterhin an der Spitze in Bezug auf Nutzerzahlen und deckt mit seiner dazugehörigen Plattform Instagram den größten Teil an Usern ab. Infolgedessen ist es für Unternehmen beinahe unvermeidbar, diese beiden Plattformen zu verwenden, möchte man das Gros seiner Zielgruppe erreichen. Ein wichtiger Vorteil dieser Plattformen ist, dass sie beide zu Facebook gehören und viele Inhalte bzw. Werbeanzeigen mit wenigen Klicks auf beiden Plattformen ausgespielt bzw. gespiegelt werden können. Während früher noch versucht wurde, den Content an die USP der beiden Plattformen anzupassen, überwiegt heutzutage vielmehr die Reichweite, welche auf diesen beiden Plattformen generiert werden kann.
XING und LinkedIn bilden mit jeweils 16 Millionen monatlich aktiven Nutzern die „Business-Netzwerke“ ab. Im Vergleich zu Facebook und Instagram, bei denen der User vielmehr zu Unterhaltungszwecken scrollt, verfolgt der XING- bzw. LinkedIn-User in der Regel mit dem Beruf und dessen Weiterbildung zusammenhängende Ziele. So rezipiert er zum Beispiel Inhalte zu Weiter- und Fortbildungen, Jobsuche, berufliche Inspiration oder Beiträge und Blogs von Influencern, die oft Geschäftsführer und CEOs von großen Unternehmen sind. Hier sollte der Content definitiv zu Facebook und Instagram abgegrenzt und hochwertiger erstellt werden – mit dem Ziel, dem User einen wahren Mehrwert im Hinblick auf seine Karriere zu bieten.
Pinterest, früher eher bekannt als die „Hausfrauen-Plattform“, ist aus der Nische heraus, mit heute über 13 Millionen Nutzern auch in den Kreis der großen Player aufgestiegen und stellt im Vergleich zu allen anderen die „visuellste und ästhetischste“ Plattform dar. Posting-Texte, Beschreibungen und Call-to-Actions spielen hier auf den ersten Blick keine Rolle. Zunächst muss allein das Kreative überzeugen. Jedoch kann bei vielen Unternehmen und „Creatorn“ beobachtet werden, dass nun doch vermehrt Texte und Call-to-Actions in die Bilder und Videos integriert werden, um die Aufmerksamkeit zu erhöhen. Pinterest hat von Facebook und Google viel gelernt, nutzt Elemente beider Plattformen und hat diese Funktionen weiter ausgebaut. Ein großer Vorteil von Pinterest in Bezug auf Werbekampagnen ist zum Beispiel das Zielgruppen-Targeting, welches wir so ähnlich von Facebook und Instagram kennen. Gleichzeitig hat Pinterest aber auch eine Keyword-Funktion (siehe Google) integriert und kann auf diese Weise Anzeigen auch bei aktiver Suche der Nutzer gezielt ausspielen.
Laut eigenen Angaben von Twitter ist und bleibt Deutschland ein schwieriger Markt. Die Zahl der aktiven User stagnierte in den vergangenen Jahren (blog.hubspot.de, 2021). Während andere Plattformen sich und ihre Funktionen (Stories, Reels, Events etc.) stetig weiterentwickelten, blieben bei Twitter die großen Innovationen aus. Auch Twitter Fleets, der Versuch, die Instagram Stories zu kopieren, wurde nach nicht mal einem Jahr wieder eingestellt (www.heise.de, 2021). Trotz der vielen Jahre Vorsprung konnten jüngere Plattformen mit Twitter nicht nur gleichziehen, sondern es auch überholen. Global gesehen, insbesondere mit Blick nach England und in die USA, spielt der Kurznachrichten-Dienst mit täglich über 500 Mio. abgesetzten Tweets aber eine zentrale und wichtige Rolle (www.internetlivestats.com/twitter-statistics, 2021). Auch die hohe Zahl von beinahe 25 % verifizierten Accounts von Journalisten verleiht der Plattform einen einzigartigen Charakter. Aufgrund der schnellen Verbreitung von nachrichtenrelevanten Informationen und einer guten Abbildung von (Live-)Veranstaltungen bleibt Twitter für gewisse Branchen interessant und sollte bei den betreffenden Unternehmen Teil der Social-Media-Strategie sein.
TikTok, die aktuell wohl spannendste Plattform, hat sich in den vergangenen Monaten extrem stark entwickelt. Auch wenn das Durchschnittsalter heute noch unter 20 Jahren liegt, so wird auch TikTok „altern“ und in den kommenden Jahren eine relevante Zielgruppe bilden können. Das haben inzwischen immer mehr Unternehmen erkannt und von einem späten Einstieg bei Instagram gelernt. Aufgrund der noch hohen organischen Reichweiten und eines großzügigen Algorithmus gilt es jetzt, eine Community aufzubauen. Social-Media-Manager, die heutzutage für ihre Marken noch versuchen, Facebook-Follower zu gewinnen, wissen, wie extrem schwierig und teuer dieses Vorhaben im Vergleich zu früher ist. Hier spielt Schnelligkeit im Zusammenspiel mit Kreativität die wichtigste Rolle. Je früher Unternehmen ihren entsprechenden Kommunikationsstil auf TikTok finden, desto früher werden diese auch erfolgreich sein.
YouTube wird im Rahmen von Social-Media-Diskussionen aus unterschiedlichen Gründen etwas gesondert behandelt. Obwohl es sich hierbei auch um eine klassische Social-Media-Plattform handelt, sogar um eine der älteren und etablierten mit über 45 Millionen monatlichen Usern (www.internetworld.de, 2020), wird YouTube bei den wichtigsten Kanälen nicht immer aufgezählt. Als Videoplattform Nummer 1 mit extrem hohen Zugriffszahlen bietet YouTube ein enormes Potenzial für diverse Unternehmen aus allen Branchen. Zusätzlich spricht der Wandel, verstärkt Video-Creatives statt Text- und Bild-Creatives einzusetzen, für YouTube. Demnach war es auch nicht verwunderlich, dass Facebook vor einigen Jahren seinen Algorithmus umgestellt und begonnen hat, Bewegtbilder und Videoinhalte mit mehr Reichweite zu „belohnen“. Doch trotz zahlreicher Vorteile und zahlloser kreativer Möglichkeiten, Marken und ihre Produkte bzw. Dienstleistungen in Videos zu verpacken und zu vermarkten, schöpfen nicht alle dieses Potenzial aus. Ein YouTube-Kanal ist schnell erstellt und eingerichtet – die fortlaufende Pflege des Kanals und das regelmäßige Erstellen von Videos hingegen nicht. Dies stellt Unternehmen, trotz großen Interesses, immer wieder vor eine unüberwindbare Hürde. Auch hier gilt: Möchte man erfolgreich die Sichtbarkeit seiner Marke und Produkte verbessern, kommt man nicht an YouTube vorbei.
Weitere spannende Social-Media-Plattformen spielen definitiv auch eine wichtige Rolle. Dazu zählen: Snapchat, WhatsApp, Messenger, Twitch, Tumblr, Telegram, reddit und viele mehr, die alle ebenfalls etliche Vorteile und eine große Community vorweisen können. Dieser Artikel gibt jedoch einen Überblick über die „gängigsten“ und „am meisten nachgefragten“ Social-Media-Plattformen in Deutschland 2021.
Überblick über die wichtigsten Social-Media-Plattformen
Facebook
Größte & bekannteste Plattform mit enormem Reichweiten- & Traffic-Potenzial
Klassische & etablierte Nachrichtenplattform für Journalisten & Medienportale
Umfangreiche Möglichkeiten für eine erfolgreiche Cross-Channel-Kommunikation
Gute Hashtag-Bündelung zur Berichterstattung
Geeignete Plattform zur Abbildung & Verfolgung von Live-Events
TikTok
Stark aufstrebende & wachsende Plattform nicht nur bei der jüngeren Zielgruppe
Aufgrund großzügigen Algorithmus viel organische Reichweite
Größter Konkurrent für Facebook & Instagram
Ausgelegt für unterhaltsame, informative oder lehrreiche Kurzvideos
Analog zu Instagram: Influencer-/Creator-Inhalte sind wichtige Bestandteile der Plattform
YouTube
Global bekannteste & größte Videoplattform
Alle Alterszielgruppen breit vertreten
Möglichkeit zur Verbreitung von „längeren“ Videos im Vergleich zu Facebook, Instagram & TikTok
„Es kommt darauf an!“ Die beliebte Antwort eines jeden Social-Media-Beraters auf die oft gestellte Frage nach der richtigen Plattform. Pauschal lässt sich diese Frage ohnehin nicht so leicht beantworten. Es hängt tatsächlich von vielen Faktoren ab: Um welche Branche, Produkte oder Dienstleistungen handelt es sich? Welches Ziel soll verfolgt werden? Wo befindet sich die gewünschte Zielgruppe? Welche Ressourcen sind vorhanden bzw. können bereitgestellt werden? Branchen für breitere Zielgruppen und B2C-Geschäfte wie Automobil, Fashion, FMCG, Tourismus, Immobilien, Finanzen, Dienstleistungen etc. sollten definitiv auf Plattformen wie Facebook, Instagram, YouTube und schrittweise auch auf TikTok präsent sein. Jedoch finden sich für viele dieser Unternehmen auch entsprechende Themen, wie zum Beispiel Employer Branding, um diese zum Beispiel auf LinkedIn und XING zu beleuchten. Für Fashion, Kosmetik, FMCG, Tourismus, Möbelhäuser und Unternehmen mit bildhaften und innovativen Produkten eignet sich insbesondere die Shopping-Experience von Pinterest. User suchen diese Plattform auf, um neue Produkte kennenzulernen und sich von neuen Ideen inspirieren zu lassen. LinkedIn und XING hingegen sind besser für B2B-Kampagnen geeignet. Fachliche und spezifische Themen für Branchen wie Baugewerbe, Energie, Fertigung (Maschinenbau, Chemie, Pharmazie etc.), Immobilien, IT, Transport und Logistik etc. erreichen hier ihre gewünschte und „höher qualifizierte“ Zielgruppe. Von Awareness- bis Conversion-Zielen lassen sich die Netzwerke entlang des Marketing-Funnels breit einsetzen. Die Ziele Markenbekanntheit und Reichweite werden von den meisten Plattformen abgedeckt. Kleine bis mittlere Abverkäufe und Dienstleistungen funktionieren grundsätzlich auf Facebook, Instagram, Pinterest und TikTok, während hochwertige Conversions und Leads eher über LinkedIn generiert werden. Zur erwähnen sei, dass es sich hierbei um allgemeine und grundlegende Branchenerfahrungen handelt, gewiss existieren auch genügend Gegenbeispiele. Es kommt eben auch auf die Kreativität der Kampagnen an. TikTok wirbt nicht umsonst bei der Anzeigengestaltung mit dem Slogan: „Don´t make ads. Make TikToks!“ Dies gilt ebenso übergreifend für alle anderen Werbeplattformen, denn auch bei Social Media, den Kampagnen und bei der Anzeigengestaltung sollten keine Grenzen gesetzt werden: „Sky is, once again the limit!“
#FAKE – Warum wir auf Online-Fakes hereinfallen und wie wir uns (und unsere Lieben) davor schützen können
#FAKE – Warum wir auf Online-Fakes hereinfallen und wie wir uns (und unsere Lieben) davor schützen können – websiteboosting.com
Unser Leben wir immer digitaler. Persönliche Kontakte, der Informationsaustausch, das Versorgen mit Dingen und auch mit Know-how findet zunehmend über die Bildschirme von Smartphones und Computern statt. Geht man in einen Laden, kann man erkennen, dass er echt ist. Spricht man mit einem Menschen…
Unser Leben wir immer digitaler. Persönliche Kontakte, der Informationsaustausch, das Versorgen mit Dingen und auch mit Know-how findet zunehmend über die Bildschirme von Smartphones und Computern statt. Geht man in einen Laden, kann man erkennen, dass er echt ist. Spricht man mit einem Menschen von Gesicht zu Gesicht, weiß man ebenso, dass man es mit einer realen, echten Person zu tun hat. Versorgt man sich über Fernsehen oder die Presse mit Informationen, kann man zumindest in Ansätzen sicher sein, dass man dort recherchiert und gegeneinander abwägt, bevor man uns diese Informationen liefert. Dazu mag man sich stellen, wie man mag, aber richtig knallharte Lügen findet man z. B. im Rundfunk wirklich sehr selten. Ganz anderes ist es digital. Heutzutage kann jeder, aber wirklich jeder, für jeden weltweit sichtbar „publizieren“. Jeder mit ein wenig Geschick kann einen Online-Shop aufsetzen, der einer ersten Inaugenscheinnahme standhält. Nicht jeder prüft sofort via Impressum, ob alles mit rechten Dingen zugeht. Nicht jedem fällt auf, dass bei Behauptungen belastbare Quellen fehlen, falsch zitiert sind oder von ebenso dubiosem Hintergrund. Kurzum: Wir bekommen als Gesellschaft ein Problem durch das Entkoppeln von realer Welt und einem mehr oder weniger großem Teil unseres Lebens. Umso leichter fällt es Betrügern, Bauernfänger und virtuellen Taschenspielern, sich ihre Opfer digital zu suchen. Eine Wahl beeinflussen? Offenbar heute kein Problem mehr. Verschwurbelte „Fakten“ in die Welt zu setzen, dass Milliardäre heimlich Computerchips ins Essen mischen, um uns zu kontrollieren (was sonst sind die schwarzen Punkte im Vanillepudding?), make shit – a hit! Was können wir dagegen tun? Der renommierte Internet- und Social-Media-Experte Felix Beilharz hat sich dieses Problems großflächig und tiefgängig angenommen und gibt Tipps, auf was man achten sollte und kann, um möglichst wenigen Fakes aufzusitzen.
„Ich? Ich falle doch nicht auf Fakes im Internet rein! Da muss doch ziemlich blöd für sein, mir kann das nicht passieren!“ Genau diese Haltung erlebe ich regelmäßig, wenn es ums Thema „Online-Fakes“ geht.
In meinem eigenen Umfeld habe ich in den letzten Monaten verschiedenste Gegenbeispiele erlebt: Ein Psychologie-Professor teilt eine (eigentlich recht offensichtliche) Fake News, eine promovierte Digitalberaterin fällt auf ein Facebook-Fake-Gewinnspiel rein, ein erfolgreicher Unternehmer in der Nachbarschaft bestellt Luftfilter für sein Haus bei einem Fake-Shop, eine psychologisch und technisch versierte Unternehmensberaterin versenkt 2.000 Euro bei einer Fake-Hotline der Lufthansa – und ich selbst habe in Lockdown-Verzweiflung Kurzhanteln in einem chinesischen Fake-Shop bestellt. Dabei tröstet mich der Gedanke, dass ein recht angesehener Kollege auf den gleichen Shop und sogar das gleiche Produkt hereingefallen ist. All diese Fälle haben eines gemeinsam: Alle Opfer sind überdurchschnittlich medien- und digitalaffin, bestens gebildet und sogar beruflich im Internet tätig. Und trotzdem sind wir Opfer von Fakes geworden.
Ich behaupte: Jede/r ist bereits auf Fakes hereingefallen. Manche haben es nur noch nicht gemerkt. Die Fakes lauern an so vielen Stellen und in so vielen unterschiedlichen Formen, dass niemand verschont bleibt. Und ich glaube sogar, die obige Haltung „Das kann MIR doch nicht passieren“ macht uns besonders anfällig. Denn die Faker und Betrüger machen sich psychologische Trigger zunutze, die in jedem Gehirn greifen – egal ob Akademiker oder Auszubildender, egal ob jung oder alt.
Deswegen: Die Person, die noch keiner Fake News aufgesessen ist, noch nie einer gefakten Bewertung ihr Vertrauen geschenkt, noch nie auf einen Fake-Shop reingefallen ist oder die noch nie mit einem Fake-Profil gechattet hat, die möchte ich einmal kennenlernen. Ich vermute, die Auswahl ist sehr rar …
Doch die gute Nachricht: Wir können etwas dagegen tun. Und vor allem können wir unsere vielleicht weniger digitalaffinen Freunde, Familienmitglieder und Kollegen unterstützen, um sie ebenfalls vor den Gefahren zu schützen.
Warum wir auf Fakes reinfallen
Wenn es stimmt, dass wir alle auf Fakes reinfallen, muss es gute Gründe dafür geben. Und die gibt es tatsächlich. Ich habe im Laufe der Zeit vor allem drei Gründe identifiziert.
1. Wir sind oberflächlich
Ganz ehrlich: Hast du schon mal einen Artikel im Social Web oder auf WhatsApp geteilt, ohne ihn wirklich zu lesen? Einfach, weil dich die Überschrift so getriggert hat? Falls ja, bist du in bester Gesellschaft. Eine Studie der Columbia University hat bereits 2016 ergeben, dass 59 % der Links, die über Twitter geteilt wurden, keinen einzigen Klick erzielen – also nicht mal vom Absender selbst.
Ein interessantes Experiment dazu stammt vom Blog beefing.de (heute frisches-flensburg.de). Die Blogger erstellten einen Artikel mit einem sehr provokanten Open-Graph-Vorschau-Inhalt: Der Title besagt: „Unverschämt! Flensburger Flüchtlinge fordern mehr Geld!“ Auf dem Vorschaubild waren vier Flüchtlinge vor einem Wohncontainer zu sehen, die ein Plakat mit der Aufschrift „Wir fordern mehr Geld“ in die Höhe hielten.
Abbildung 1: Zumindest konnten die vermeintlichen Flüchtlinge ihr Plakat in fehlerfreiem Deutsch verfassen, was für die Kommentatoren eher nicht gilt
Im Artikel selbst wird nach zwei Zeilen aufgeklärt, dass es sich um ein Experiment handelte. Doch offensichtlich reichte für viele Menschen schon das Vorschaubild aus, um den Beitrag wütend zu teilen. Über 94.000 Interaktionen erhielt der Artikel auf Facebook, davon allein 23.500 Shares. Dazu kommt eine unbekannte Anzahl an WhatsApp- und weiteren Messenger-Shares, die ja leider nicht auswertbar sind.
Ein einziger Klick auf die Website und ein paar Sekunden Verweildauer hätten gereicht, um den Fake zu entlarven.
Und selbst wenn wir eine Website oder einen Shop besuchen, nehmen wir uns kaum Zeit, genau hinzuschauen. Viele Besuche dauern nur wenige Sekunden. Dabei könnte man z. B. Fake-Shops meist recht eindeutig entlarven, wenn man sich ein paar Sekunden mehr Zeit nehmen würde. Und auch so manches Angebot oder News erscheinen recht unglaubwürdig, wenn man mehr als einen Blick darauf verschwendet.
2. Wir sind medieninkompetent
Das gilt für die Leserschaft der Website Boosting mit Sicherheit weniger als für die breite Allgemeinheit, aber selbst unter uns: Hast du wirklich eine fundierte Ausbildung im Umgang mit Medien genossen? Oder dir mehr oder weniger alles selbst beigebracht? Dann dürfte die „unbewusste Inkompetenz“ groß sein – Dinge, von denen du gar nicht weißt, dass du sie nicht weißt.
Übrigens schieben sich bei diesem Thema gern Jung und Alt den schwarzen Peter zu. Die Jungen lachen über die Alten und ihre oft unbeholfene Art, mit Medien umzugehen. Und die Alten schimpfen auf die Jungen und ihren viel zu sorglosen Umgang mit digitalen Medien. Dabei nehmen sich beide nicht viel. Medienkompetenz wird weder automatisch mit den Lebensjahren erworben noch in ausreichendem Maße in den Schulen vermittelt. Erfahrungsgemäß können junge Nutzer zum Beispiel Werbung nicht mehr von (redaktionellen) Inhalten unterscheiden, dafür fallen ältere Nutzer eher auf Fake News, Spam-Mails oder sonstige Abzocken herein. Es dürfen sich also getrost alle Generationen an die eigene Nase fassen.
3. Wir sind psychologisch prädestiniert
Wie schon erwähnt: Die Faker und Abzocker nutzen gezielt psychologische Trigger und Verzerrungen. Da ist zum Beispiel der Confirmation Bias, der besagt, dass wir gezielt nach Informationen suchen, die unsere Meinung bestätigen. Und sie gezielt ignorieren, wenn sie uns widersprechen. Der Believe Bias geht in eine ähnliche Richtung: Wir glauben Informationen eher, die unser Weltbild bestätigen.
Hier liegt der Hase im Pfeffer: Wir WOLLEN oft einfach, dass der Fake wahr ist! Die Playstation 5 ist überall ausverkauft, aber in diesem einen Shop ist sie tatsächlich noch zu haben, und zwar 30 % günstiger als Marktpreis? Sollte suspekt klingen, aber ich WILL einfach, dass es stimmt.
Besonders deutlich werden diese Verzerrungen bei politischen Fake News. In den letzten Monaten und Jahren tauchten von jedem Spitzenkandidaten empörende Zitate auf, die eifrig geteilt wurden. Armin Laschet wird von Luisa Neubauer auf Twitter zum Beispiel das Zitat zugeschrieben: „Wir müssen besser darin werden, den jungen Menschen zu erklären, warum das mit dem Klimaschutz nicht so schnell geht.“
Dieses empörende Zitat wurde tausendfach mit entsprechenden Sharepics verbreitet. Dabei hat Armin Laschet das nie gesagt. Aber es würde einfach so wunderbar in manch ein Weltbild passen und so mancher WILL einfach, dass es wahr ist. Zack, der Believe Bias hat zugeschlagen.
Auch die Aussage von Annalena Baerbock, dass die private Tierhaltung aufgrund der hohen CO2-Emissionen von Haustieren ein Ende haben müsse, wurde tausendfach geteilt, entbehrt aber ebenso jeglicher Grundlage. Aber es passt halt so wunderbar in anti-grüne Weltbilder. Und macht uns daher wieder empfänglich für den Fake.
Abbildung 2: Ein empörendes Zitat, das so nie gefallen ist
Und von diesen kognitiven Verzerrungen gibt es noch einige mehr. Alle haben eines gemeinsam: Sie machen uns nicht gerade immun gegen Online-Fakes. Egal, wie jung, alt, erfahren oder gebildet wir sind. Dessen müssen wir uns einfach immer wieder bewusst sein.
Fake News
Manche Fakes im Netz sind zwar ärgerlich, aber nicht unbedingt dramatisch. Fake News sind beides – blöd für den, der drauf reinfällt, und existenziell gefährdend für eine Demokratie.
Ausmaß der Fake News
In unserer „aufgeklärten“ und maximal digitalversierten Website-Boosting-Bubble bekommen wir vermutlich gar nicht so wirklich mit, welches Ausmaß Fake News überhaupt annehmen. So manch ein Newsfeed da draußen wird dagegen fast ausschließlich aus Fakes, Lügen und Manipulationen bestehen. Buzzfeed untersuchte 2017 viele Tausend Artikel auf ihre virale Verbreitung im Social Web (insbesondere auf Facebook). Das Ergebnis: Die acht meistgeteilten Beiträge waren allesamt Fake News. Kein einziger Artikel der großen Medien wie Spiegel Online, Focus oder t-online.de konnte da mithalten. Auch aus den USA sind ähnliche Ergebnisse bekannt: Die meistgeteilten Fake News werden häufiger geshart als die meistgeteilten realen Nachrichten.
In der Studie „Infodemie“ der Vodafone-Stiftung von 2020 gaben 76 % der deutschen Jugendlichen an, mindestens wöchentlich mit Fake News im Netz konfrontiert zu sein, 21 % sogar mehrmals täglich. Beide Prozentzahlen steigen seit Jahren zweistellig pro Jahr.
Eine eigene Umfrage stützt diese Tendenz. 88,7 % der Befragten gaben an, in den letzten sechs Monaten mindestens eine Fake News im Social Web gesehen zu haben. Und 61,1 % berichten sogar, im eigenen Freundes- oder Familienkreis mindestens eine Person zu haben, die regelmäßig Fake News teilt (https://felixbeilharz.de/studie-fakes/).
Arten von Fake News
Dabei gibt es ganz unterschiedliche Klassen von Fake News. Nicht alles lässt sich als glatte Lüge einstufen. Der in der Buzzfeed-Analyse meistgeteilte Artikel (von anonymousnews.ru) bezog sich auf eine Studie, dass ungeimpfte Kinder signifikant weniger krank seien. So eine Studie gab es tatsächlich – allerdings wurde sie bereits lange vorher wegen eklatanter Mängel zurückgezogen.
Andere Fake News sind schlichtweg frei erfunden. Auf Platz drei der Buzzfeed-Analyse landete die Meldung, in McDonalds Fleischfabrik sei menschliches Fleisch gefunden worden. Da hätte es den Zusatz „+++++Bitte Teilen+++++“ eigentlich gar nicht gebraucht, um die Meldung als Blödsinn zu erkennen. Trotzdem erreichte sie 67.000 Interaktionen auf Facebook.
Und wie so oft bei Fake News ist die Meldung alt (die älteste Quelle, die ich gefunden habe, stammt von 2014) und kursiert auch 2021 immer noch munter im Netz.
Abbildung 3: Ein jahrtausendealtes Narrativ, das bis heute kursiert
Wieder andere Fake News fallen in die Kategorie „Irreführender Kontext“. Auch hier wird ein wahrer Kern verbreitet, jedoch in einem völlig falschen Zusammenhang, wodurch der Fake entsteht. Gerade Bilder tauchen in dieser Kategorie sehr oft auf.
Wie so viele Fakes wurden auch irreführende Bilder im Rahmen der Corona-Pandemie massenweise verbreitet. Im Dezember 2020 ging zum Beispiel ein Bild einer illustren Reihe von Politikern viral, die gemütlich bei einem Glühwein zusammenstehen, während das Volk im Shutdown eingesperrt ist. Da kann man sich schon mal aufregen. Das heißt, man könnte, wenn das Bild nicht aus dem Dezember 2019 stammen würde und damit deutlich VOR der Pandemie.
Abbildung 4: „Die da oben“ lassen es sich gut gehen, während „wir“ eingesperrt werden
Darüber hinaus gibt es noch zahlreiche weitere Formen der Fake News. Von manipulierten Bildern bis hin zu Deepfake-Videos, die uns in Zukunft noch größere Probleme machen werden, ist alles dabei.
Fake News erkennen
Auch ohne abgeschlossenes Studium der Medienwissenschaften sollte es möglich sein, die meisten Fake News recht schnell als solche zu entlarven. Allein schon eine gewisse Skepsis und das Wissen über den Believe Bias machen uns weniger anfällig. Wenn eine Nachricht einfach ZU gut in das eigene Weltbild passt, sollten wir zumindest mal nachprüfen, ob es sich vielleicht um eine Fake News handeln könnte. Praktisch kann das so aussehen:
Stammt die Nachricht von einer anerkannten, verlässlichen Quelle oder von einer völlig unbekannten, eher dubios anmutenden Seite?
Bezieht sich die Nachricht auf nachprüfbare Primärquellen? Werden solche Quellen verlinkt und sind diese ihrerseits glaubwürdig?
Was taucht auf, wenn du mal nach Stichwörtern aus der Nachricht googelst? Wurde die Nachricht bereits widerlegt? Gibt es andere Fundstellen, die die Nachricht stützen?
Entspricht die Gestaltung der Nachricht insgesamt journalistischen Maßstäben (Rechtschreibung, gemäßigter Tonfall, Trennung von Fakten und Meinung)?
Diese kleinen Tipps, verbunden mit der angesprochenen Selbstkritik und Skepsis, dienen uns schon als recht gutes Werkzeug, um nicht mehr auf Fake News hereinzufallen.
Abbildung 5: Checkliste Fake News (Design by Isabel Kulessa)
Fakes im E-Commerce
Für die Website-Boosting-Leser wird diese Fake-Kategorie sicherlich die geläufigste sein. Der Online-Handel boomt und mit ihm natürlich auch Betrug, Abzocke und Schindluder aller Art. Hier werden die Folgen der Fakes auch konkret im eigenen Geldbeutel spürbar. Während Fake News eher die Gesellschaft und Demokratie im Ganzen aushöhlen, langsam und schleichend, leidet der Einzelne unter den folgenden Fakes direkt und unmittelbar.
Fake-Bewertungen
Ganz ehrlich: Bevor ich für die Buch-Recherche richtig tief in das Thema eingestiegen bin, habe ich Bewertungen doch recht stark vertraut. Klar weiß man irgendwo im Hinterkopf, dass ein Teil der Bewertungen gekauft oder manipuliert ist, aber so insgesamt wird sich das doch in der Summe egalisieren.
Heute weiß ich: Nein, tut es nicht. Es ist äußerst einfach, Fake-Bewertungen zu erstellen (oder zu erhalten). Und das Ausmaß ist erschreckend. Experten schätzen, dass zwischen 30 und 42 % der Amazon-Bewertungen gefälscht sind. Allerdings sind die Fake-Bewertungen nicht gleich verteilt. Dazu später mehr.
Der Grund, warum gerade hier so viel gefakt wird, ist einfach: Kaufentscheidungen hängen ganz entscheidend von Bewertungen ab. 65 % der Befragten gaben in einer Bitkom-Studie an, dass Online-Bewertungen für sie das wichtigste Entscheidungskriterium im Online-Shopping überhaupt seien. Andere Studien bescheinigen den Bewertungen einen höheren Einfluss als der Unternehmenswebsite oder gar dem direkten Kontakt zum Unternehmen.
Bei den gefakten Bewertungen lassen sich grob zwei Kategorien unterscheiden: Bewertungen von Bots und solche von echten Menschen, die aber für ihre Bewertung eine Gegenleistung erhalten haben. Mit der ersten Kategorie brauchen wir uns nicht allzu sehr zu beschäftigen. Hier geben sich die Plattformen größte Mühe, solche Bewertungen zu erkennen und zu löschen.
Schwieriger wird das bei menschlich erstellten Reviews. Auch hier gibt es im Prinzip zwei Methoden: das direkte Generieren von Bewertungen (vor allem für Amazon-Produkte) und den Bewertungskauf über Dienstleister, die Pakete verschiedener Größen anbieten.
Letztere beschränken sich nicht nur auf Amazon. Für nahezu jede Plattform, die Bewertungen integriert, lassen sich Pakete kaufen: Google, die App-Stores, Kununu, Jameda, Tripadvisor, HolidayCheck, Lieferando, OTTO und viele mehr. Je nach Anbieter gehen die Bewertungen bei wenigen Euro Einkaufspreis los, je größer das Paket, desto günstiger. 100 Fünf-Sterne-Bewertungen für Google sind bereits für 699 Euro zu haben.
Der Markt für solche Bewertungshändler ist undurchschaubar. Viele der Dienstleister gehören zum gleichen Anbieter und viele weitere treten nur als Reseller unter eigener Marke auf. Ja, es stimmt: Es gibt auch im Bewertungshandel eine Art Dropshipping und Reseller-Markt.
Abbildung 6: Beim vermutlichen Marktführer FIVESTAR MARKETING sind Bewertungen für jede größere Plattform zu haben
Diese Bewertungen werden letztlich von freiberuflichen Autorinnen und Autoren verfasst, die sich für ein paar Euro pro Bewertung etwas Schönes ausdenken. Also eine Art Textbroker für Fake-Bewertungen.
Zumindest bei Amazon entsteht dabei aber ein Problem: Hier will man ja die vertrauenswürdigen „verifizierten Käufe“ für die Bewertungen (übrigens schreibt sogar die Bundesregierung auf ihrer Website: „Verifizierter Kauf steht für Seriosität …“). Und auch dafür gibt es natürlich eine Menge Agenturen, die das sogenannte „Cash Back“-Verfahren anbieten. Soll heißen: Du kaufst das Produkt bei Amazon, schreibst deine Rezension und bekommst dann dein Geld zurück. Das Produkt darfst du behalten.
Kann das wirklich so einfach sein? Das wollte ich ausprobieren. Wer nicht auf einen Dienstleister oder eine Agentur setzen will, findet bei Facebook und Telegram genug Angebote. Die Gruppen heißen „Deutschland Produkttester Amazon“ oder „Produkttester Deutschland AMAZON EBAY“ und haben alle das gleiche Prinzip: Händler oder sogenannte „Agenten“ stellen dort ihre Produkte ein, entweder direkt mit Link oder mit der Aufforderung, selbigen per DM zu erfragen. Der Rest läuft dann nach dem obigen Schema. Kauf, Review, Geld zurück.
Und in diesen Gruppen ist ganz schön was los. Teilweise werden über tausend Produkte pro Tag in diesen Gruppen gepostet, aus denen die Bewerter auswählen können. Dabei muss man gar nicht unbedingt selbst aktiv werden – als ich in einige dieser Gruppen eintrat, hatte ich unmittelbar einige Dutzend DM in meinem Postfach von „Agenten“, die mir freundlich in mittelmäßigem Englisch oder Deutsch ihre Produkte anboten. Einige der Anbieter schickten mir über 100 Bilder ihrer Produkte, aus denen ich auswählen konnte.
Das genaue Ausmaß der Fake-Bewertungen lässt sich nur erahnen. Analysen verschiedener Hochschulen und Medien zeigen aber: Betroffen sind weit überwiegend chinesische Billig- und No-Name-Produkte, kaum bekannte Marken. Von daher scheinen sich Marken doch wieder als Qualitätsanker zu etablieren – bei mir haben die Recherchen zum Buch jedenfalls diesen Effekt gehabt.
Wenn also die No-Name-Küchenschere über 3.000, der Billig-MP3-Player fast 4.000 und das markenlose Küchen-Schneidebrettchen über 1.500 Bewertungen hat (alles reale Beispiele von Produkten mit gefakten Bewertungen) – bleib skeptisch. Und gib im Zweifel lieber drei Euro mehr aus.
Tool-Tipp: www.reviewmeta.com rechnet die Fake-Bewertungen soweit möglich aus der Gesamtzahl raus und gibt eine realistische Gesamtbewertung von Amazon-Produkten an.
„Gehackte“ Amazon-Shops
Eine andere Kategorie der Fakes findet überwiegend bei Amazon statt. Auch auf diesen Fake bin ich um ein Haar hereingefallen. Und auch hier war wieder Corona schuld. Beim ersten Lockdown wollte ich, wie so viele, mein kleines Homegym aufrüsten und suchte nach einem passenden Crosstrainer. Klappbar sollte er sein und eine hohe Schwungmasse aufweisen. Im dreistelligen Preisbereich gibt es da genau ein Produkt: den MAXXUS CX 4.3F. Kostet allerdings 899 Euro. Also machte ich mich auf die Suche nach Schnäppchen. Nach ein paar Stunden Recherche war klar: Fehlanzeige. Das Ding gibt es nirgendwo billiger.
Huch, außer bei Amazon. Von einem Händler, neu und für starke 450 Euro. Da musste ich einfach zuschlagen. Leider währte die Freude nur wenige Minuten, da die Bestellung vom Händler storniert wurde. Also direkt noch mal bestellt – und wieder storniert. Was war da los? Ein Blick auf das Händlerprofil schaffte schnell Klarheit – der Account wurde offenbar von Betrügern gehijackt, also übernommen.
Die Masche ist dabei recht simpel: Die Faker verschaffen sich Zugang zu einem seriösen, aktiven Händleraccount, zum Beispiel durch eine Phishing-E-Mail oder ein leicht zu erratendes Passwort. Schon haben Sie Zugriff auf einen echten Account mit vielleicht schon Dutzenden oder Hunderten positiver (echter) Bewertungen.
Nun laden sie massenweise Produkte hoch. Das können schnell mal mehrere Tausend neue Produkte in wenigen Stunden sein. Dabei orientieren sich clevere Betrüger natürlich an Produkten und Kategorien, die stark nachgefragt sind – Bastelbedarf, Haushaltstechnik oder eben Sportgeräte zum Lockdown. Die Preise sind dabei so attraktiv, dass Otto Normalonlineshopper nicht lange nachdenkt, sondern zuschlägt.
Und jetzt kommt der Clou: Die Bestellungen werden storniert, verbunden mit dem Hinweis, dass man bitte die Verfügbarkeit erst per Mail abklären solle. In dieser Mail werden dann Kontodaten abseits Amazon genannt, auf die das Geld überwiesen werden solle.
Ich hatte im Rahmen der Buchrecherche die Gelegenheit, mit einem Amazon-Händler zu sprechen, dessen Konto ebenfalls auf diese Art missbraucht wurde. Innerhalb von nur einer Stunde gingen 3.500 Bestellungen bei ihm ein! Wenn nur 1 % der Besteller letztlich auch bezahlt, macht das bei Produktpreisen von durchschnittlich 300–500 Euro einen schönen Stundenlohn …
Abbildung 7: Echter Amazon-Händler, allerdings übernommen von einem Betrüger
Fake-Shops
Eine der größten Gefahren für Otto und Olga Normalonlineshopper/in dürfte in den Fake-Shops liegen, die an jeder Ecke aufploppen. Und leider sind die Faker auch hier in den letzten Jahren immer besser geworden. Während der beste Ratschlag vor wenigen Jahren noch lautete: „Prüfe, ob der Shop ein Impressum hat“, oder: „Werde misstrauisch, wenn zu viele Rechtschreibfehler in den Texten enthalten sind“, muss man heute schon SEHR genau hinschauen, um einen Fake-Shop als solchen zu erkennen.
Abbildung 8: 2RadWelten.de sieht aus wie echt – ist aber einfach ein gut gemachter Fake-Shop
Die gut gemachten Fake-Shops haben nicht nur einen gut klingenden Domainnamen, SSL-Verschlüsselung und ein seriöses Layout, sondern auch sonst alles, was zu einem regulären Online-Shop gehört: Impressum, Datenschutzhinweise, Cookie Consent, AGB und Widerrufsbelehrung, teilweise sogar Newsletter, Partnerprogramm und Sendungsverfolgung. Wer also nach solchen Signalen sucht, wiegt sich schnell in falscher Sicherheit.
Wie kann man also einen Fake-Shop erkennen, wenn die so gut gemacht sind? Ein paar Hinweise gibt es dann doch, an denen man die Fakes meistens erkennt:
Wenn eine Service-Telefonnummer angegeben ist, einfach mal anrufen. Bei Fake-Shops führt die in der Regel ins Leere oder zu einem falschen Anschluss.
Oft bauen die Fake-Shops Social-Media-Icons in den Footer oder Header ein, wie es ein regulärer Shop auch tun würde. Die Links führen dann aber nicht zum jeweiligen Auftritt im Social Web, sondern ins Leere.
Sind Siegel wie Trusted Shops oder eKomi angegeben? Dann mal draufklicken und prüfen, ob die Siegel mit den Profilen auf der Plattform verlinkt sind. Faker bauen nur die Bilder ein, legen normalerweise aber kein Profil bei dem jeweiligen Dienst an.
Ein wichtiges Warnsignal sind auch die Zahlungsmethoden. Fake-Shops bieten meist nur die Möglichkeit der Vorkasse an. Mittlerweile auch auf deutsche Konten, also fällt das Warnsignal „Konto im Ausland“ weg. Trotzdem sollte man bei Shops, die ausschließlich per Vorabüberweisung bezahlt werden wollen, vorsichtig sein. Es muss natürlich kein Fake sein, die Gefahr ist aber größer. Aber auch das alleine ist kein sicherer Weg mehr: Ich habe Fake-Shops gesehen, die neben Vorkasse auch Zahlung per Kreditkarte anbieten. Die Kreditkartenzahlung funktioniert dann zwar nicht und die meisten Besteller werden auf Vorkasse umswitchen, aber schon das Angebot der zweiten Zahlungsmethode „legitimiert“ den Shop. Also auch hier: Augen auf.
Alle diese Signale sind wichtig, aber nicht 100%ig sicher. Deshalb rate ich immer dazu: Wenn man bei einem unbekannten Shop bestellen will, erst einmal kurz googeln. Den Shop-Namen, die Domain, die Angaben im Impressum. Bei Fake-Shops findet sich sehr oft bereits ein Hinweis auf einer Liste der Verbraucherschutzeinrichtungen oder ein Eintrag in einem Forum, in dem sich Geschädigte austauschen. Das ist momentan die wohl sicherste Methode, Fake-Shops zu erkennen (zumindest, wenn sie bereits als solche aufgeflogen sind).
Wer sich fragt, wo solche Fake-Shops eigentlich herkommen: Wie so oft lautet die Antwort „Darknet“. Hier gibt es Foren, in denen Fake-Shops fix und fertig zum Kauf angeboten werden. Laut Beschreibung der Anbieter sind diese Shops in weniger als 60 Minuten völlig ohne Programmierkenntnisse fertig eingerichtet und umfassen bis zu 20.000 Produkte – auf Kundenwunsch gibt es sogar „Spezialanfertigungen“ mit bis zu einer Million Produkten. Das ist dreimal so viel, wie AboutYou.de gelistet hat … Kostenmäßig geht ein Fake-Shop mit einigen Hundert Produkten schlüsselfertig eingerichtet schon bei 500 Euro los. Das teuerste Angebot, was ich gesehen habe, war ein Shop mit vier Millionen Produkten, da lagen die Kosten dann bei 10.000 Euro in der Erstellung und 2.000 Euro monatlicher Shop-Miete. Dafür hat man dann aber auch einen Fake-Shop, der etwa viermal so groß wie Mediamarkt.de ist.
Abbildung 9: Fake-Shop-Angebot im Darknet – fix und fertig für 500 Euro
Fakes im Social Web
Es gibt kaum einen besseren Ort für Fakes als das Social Web, wo sich jeder Deutsche fast 1,5 h pro Tag aufhält. Dementsprechend groß ist hier die Bandbreite und Anzahl an Betrügereien, Lügen und Falschinhalten. Fake News werden überwiegend über das Social Web verbreitet. Und auch die bereits angesprochenen Fake-Shops finden ihre Opfer häufig über Facebook und Co. Teilweise schalten die Fake-Shops sogar Facebook Ads – das Geschäft scheint sich also zu lohnen.
Im Folgenden gehe ich auf eine kleine Auswahl der Social-Media-Fakes ein – im Buch sind natürlich noch deutlich mehr erklärt.
Fake-Gewinnspiele
Dieses Phänomen tritt, wie die anderen auch, überwiegend auf Facebook auf, mittlerweile jedoch auch bei Instagram und sogar TikTok. Das Schema ist meistens gleich: Es wird ein tolles Produkt verlost, das viele Menschen unbedingt haben wollen. Paradebeispiele dafür sind das Traumauto mit der roten Schleife auf der Motorhaube, das Tiny House, der Traumurlaub, aber auch technische Geräte oder einfach eine tolle Kaffeemaschine.
Die Faker legen eine neue Facebook-Seite an, die meistens eine bekannte Marke nachahmt. Bei genauerem Hinsehen wäre der Fake schnell zu durchschauen, aber wie wir bereits festgestellt haben – so ticken wir einfach nicht. Oft wird das Gewinnspiel auch durch einen nachvollziehbaren Grund legitimiert, zum Beispiel ein Jubiläum, beschädigte Verpackungen oder unverkäufliche Rücksendungen.
Die Teilnehmenden müssen nun in der Regel das Gewinnspiel teilen und kommentieren. Das eigentliche Ziel (neben der durch die Shares erzeugten Reichweite) liegt meist aber im Gewinnen von verifizierten Leads. Das passierte früher einfach durch einen Link im Gewinnspiel-Text, den man anklicken und das dortige Formular ausfüllen sollte. Heute gehen die Faker etwas cleverer vor: Oft wird man aufgefordert, mit einem bestimmten Wort zu kommentieren, zum Beispiel die Wunschfarbe des Traumautos. Durch den Kommentar wird dann ein Chatbot getriggert, der jedem Teilnehmenden automatisch eine Direktnachricht mit dem Link zuschickt. So ist „von außen“ kaum zu erkennen, welches Ziel hinter der Aktion steckt.
Da fällt doch niemand drauf rein, oder? Leider falsch gedacht – ich habe in den letzten Jahren ziemlich viele Beispiele gesammelt, die hohe fünf- oder gar sechsstellige Shares erhalten haben.
Abbildung 10: 259.282 Shares dürfte in eine hohe Millionen-Reichweite münden
Die so generierten Leads können dann gewinnbringend verkauft werden. Je nach Branche, Menge und Qualität lässt sich ein solcher Datensatz für 0,2 €–2 € verkaufen. Gehen wir mal davon aus, dass nur 10 % der Leute, die das Gewinnspiel in Abbildung 10 geteilt haben, auch den Datensatz ausgefüllt haben, dann haben die Betrüger auf jeden Fall einige Tausend Euro, vielleicht sogar gut fünfstellig, damit verdient.
Solche Fake-Gewinnspiele sind sehr einfach zu durchschauen:
Sie finden meist auf einer frisch angelegten Seite ohne Historie statt; oft ist das Gewinnspiel der erste Post überhaupt.
Viele der Seiten täuschen eine Markenseite vor (REWE, Aldi, BMW etc.) – es handelt sich aber nie um die echte Seite mit blauem Haken.
Das Versprechen ist oft sehr unrealistisch. Entgegen der Behauptung in Abbildung 10 werden teure Wohnmobile nicht einfach verschenkt, wenn sie „kleine Kratzer/Dellen“ haben.
Es fehlen meist alle relevanten Teilnahmebedingungen, Impressum etc. Allerdings haben manche Faker hier bereits nachgebessert und liefern diese Informationen, um das Gewinnspiel echt aussehen zu lassen.
Oft zeigt der Bearbeitungsverlauf des Beitrags, dass mehrfach Änderungen vorgenommen wurden, z. B. geänderte Bedingungen oder ein verschobenes Enddatum.
Der Link, unter dem man das Formular ausfüllen soll, hat nichts mehr mit dem angeblichen Unternehmen zu tun.
Fake-Anzeigen
Die meisten Online-Nutzerinnen und -Nutzer kennen dubiose Werbeanzeigen vor allem aus den Native-Advertising-Sektionen unter Artikeln diverser Portale. Da wird dann gern „dieses eine Lebensmittel“ angekündigt, das „deinen Bauch schmelzen lässt“. Ähnliches passiert auch im Social Web, aber mit einem anderen Hintergrund, der für uns Marketer wiederum sehr interessant ist.
Dieser Fake tritt überwiegend in zwei Arten auf: in Form von Abnehmtropfen und in Form von dubiosen Krypto-Investments. Eines haben beide gemeinsam: Sie werden von den Stars aus „Die Höhle der Löwen“ promotet. In der Abnehm-Anzeige hält Judith Williams ein Fläschen „K2“-Tropfen oder ähnliche Abnehmwunder hoch, in der anderen Anzeige empfiehlt Frank Thelen eindringlich, sich die Investment-Revolution genauer anzuschauen. Oder jede andere beliebige Kombination.
Abbildung 11: Eine verifizierte Seite macht Werbung für Abnehm-Spam?
Das Kuriose dabei ist, dass die Ads (wieder meist auf Facebook) von eigentlich seriösen Seiten verbreitet werden, teilweise sogar mit blauem Haken verifiziert. Wie kann das sein?
Hier passiert Ähnliches wie bei den Fake-Produkten auf Amazon. Betrüger übernehmen Facebook-Seiten seriöser Unternehmen. Meist passiert das über Phishing-Links, die zum Beispiel in Direktnachrichten verschickt werden. Der Vorwand ist zum Beispiel ein angeblicher Urheberrechtsverstoß, der geprüft werden solle, oder – noch cleverer – die Behauptung, dass man für den blauen Haken berechtigt sei und diesen nun beanspruchen könne. Klickt das Opfer auf den Link, landet es auf einer nachgemachten Facebook- oder Instagram-Log-in-Seite. Auch diese könnte man mit etwas genauerem Hinschauen schnell entlarven, aber das hatten wir ja schon. Gibt man nun dort seine Zugangsdaten ein (und hat keine 2-Faktor-Authentifizierung aktiviert), ist das Profil futsch – und damit auch die Seite und vielleicht sogar der Werbeanzeigenmanager.
Nun schalten die Betrüger ihre Werbung „auf deinen Nacken“, so lange, bis der Schwindel auffällt. Ich habe im Rahmen der Buchrecherche Dutzende solcher Fälle gesehen – von kleinen lokalen Unternehmen bis hin zu einem Bundesliga-Profi, dessen Konto ebenfalls für diese Masche missbraucht wurde. In Abbildung 11 ist es übrigens ein verifiziertes peruanisches Immobilienunternehmen, die mir das Abnehmwunder anpreist.
Der Vollständigkeit halber: Klickt man auf den Link in der Ad, landet man auf einer Landingpage, die einen Newsartikel nachahmt, z. B. von CNN, USA Today oder MSN. Dort wird dann eine ausführliche Story erzählt, im Falle der Abnehmtropfen zum Beispiel über die angeblichen Erfinderinnen und ihre Erfolgsstory bei „Die Höhle der Löwen“, die alle Löwen so dermaßen begeistert hat, dass es kaum zu glauben war. Untermauert mit zahlreichen Testimonials berühmter Persönlichkeiten, die mit diesen Tropfen rank und schlank geworden sind. Bestellt man die Tropfen dann, erhält man irgendwas zwischen nichts und Fläschchen mit undeklariertem Inhalt unbekannter Herkunft, die ICH mir jedenfalls nicht einverleiben würde.
Im Falle der Krypto-Investments läuft es ganz ähnlich, nur dass eben auf die enormen Gewinnmöglichkeiten mit der geheimen Blockchain-Methode hingewiesen wird. Dahinter stecken dann meist Investment Scams oder Pyramidensysteme – ebenfalls nichts, wo ich mein Geld hineinpacken würde …
Wie kann man sich als Unternehmen vor solchen Fakes schützen? Generell gilt: Für alle Dienste wie Facebook, Instagram, Google und Co. die 2-Faktor-Authentifizierung aktivieren (die direkten Links aller relevanten Dienste habe ich auf https://fakebu.ch zusammengestellt). Und zweitens: Genau prüfen, wo man seine Zugangsdaten eingibt. Handelt es sich WIRKLICH um die Domain instagram.com? Oder taucht instagram.com vielleicht in der Domain auf, aber nur als Subdomain oder Tippfehler-Variante? Hier können zehn Sekunden genaues Hinschauen eine Menge Ärger ersparen.
Fake-Livestreams
Den letzten Fake aus dem großen Sammelsurium der Online-Fakes habe ich für diesen Artikel ausgewählt, weil er erstens recht neu ist und zweitens eine clevere Weiterentwicklung und Zusammenführung verschiedener bewährter Online-Marketing-Methoden.
Die Rede ist von Fake-Livestreams. Hier mischen die Faker wirklich alles zusammen. Aber der Reihe nach.
Primär scheint dieses Phänomen auf Facebook und TikTok aufzutreten. Ähnlich wie bei den Fake-Gewinnspielen legen die Betrüger eine Seite an, die vorgibt, eine berühmte Persönlichkeit zu sein, zum Beispiel ein Sportler oder eine Musikerin.
Dann startet die Seite einen Livestream (bei Facebook geht das ja direkt, bei TikTok müsste man 1.000 Follower haben, weshalb etwas Vorarbeit nötig ist oder einfach das Übernehmen eines Accounts nach dem gerade beschriebenen Muster). Der Livestream besteht aus dem Abspielen eines Videos, das der/die Prominente selbst einmal gepostet hat. In Abbildung 12 ist das Beispiel einer gefakten Thomas-Müller-Seite zu sehen. Und hier wird auch gleich der nächste Mechanismus klar: Neben den Livestream wird eines der von Facebook bekannten Rätsel präsentiert. Das Lösen des Rätsels ist dann Voraussetzung für die Teilnahme am Gewinnspiel.
Abbildung 12: Thomas-Muller Live – seems legit
Der Rest läuft analog zu den Fake-Gewinnspielen: Kommentar abgeben, Chatbot springt an, Link zur Leadgen-Seite kommt. Interessant sind hier aber die Bedingungen, die laut erstem Kommentar über den üblichen Like hinaus noch gestellt werden: „Teilen Sie diese Live-Übertragung jetzt mit den 10 Gruppen.“ Das ist schon dreist.
Das Prinzip funktioniert aber: Der Livestream läuft seit 23 Minuten, die Seite hat nur 17 Abonnenten – es schauen aber 108 Menschen zu und der Stream wurde bereits 158-mal geteilt.
Dass das Rätsel mit dem Inhalt des Videos überhaupt nichts zu tun hat und Thomas Müller auch überhaupt keinen Bezug zum Gewinnspiel oder Rätsel nimmt, fällt offenbar ebenso wenig auf wie der kursiv geschriebene Name der Fanpage (wegen Unicode-Sonderzeichen), die seltsame Grammatik oder der falsch geschriebene Nachname (der entsteht, weil das ü im verwendeten Zeichensatz nicht existiert).
Fazit
In diesem Artikel habe ich eine kleine Auswahl an Online-Fakes gezeigt, die deutlich machen soll, wie verbreitet und „bunt“ diese Betrügereien mittlerweile sind. Und wir alle sind potenzielle Opfer, egal wie medienaffin oder digitalversiert wir sind. Deshalb lohnt es sich, die Augen offen zu halten. Ich bin überzeugt, die allermeisten Fakes lassen sich leicht entschärfen, wenn wir genau hinschauen, uns selbst hinterfragen und kurz innehalten, damit das kritische Denkvermögen wieder übernehmen und dem Reptilienhirn Einhalt gebieten kann. So lässt sich nicht nur Schaden von uns selbst und unseren Lieben abhalten, sondern sogar von unserer Demokratie und Gesellschaft. Und das ist so dringend nötig wie nie zuvor.
Frischer Wind im Google-Index: Wie Ihre Inhalte schneller (neu) gecrawlt und indexiert werden
Frischer Wind im Google-Index: Wie Ihre Inhalte schneller (neu) gecrawlt und indexiert werden – websiteboosting.com
Sie haben neue Inhalte veröffentlicht oder eine bestehende Webseite umfassend überarbeitet? Und anschließend passiert bei Google in den Suchergebnissen erst mal … nichts? Solange Suchmaschinen diese neuen Inhalte nicht (erneut) indexieren, können diese natürlich auch nicht gefunden werden. Was so…
Sie haben neue Inhalte veröffentlicht oder eine bestehende Webseite umfassend überarbeitet? Und anschließend passiert bei Google in den Suchergebnissen erst mal … nichts? Solange Suchmaschinen diese neuen Inhalte nicht (erneut) indexieren, können diese natürlich auch nicht gefunden werden. Was so gesehen fast banal klingt, wird in der Praxis von Unternehmen oftmals leicht übersehen. Nicht immer ist also Google schuld bzw. zu träge, wenn man die neuen Inhalte noch nicht über eine Suche finden kann. Die gute Nachricht ist: Es gibt zum Glück Abhilfe. Die schlechte: Man muss selbst aktiv werden. Eine zeitnahe Indexierung ist für Sitebetreiber meist sehr wichtig. Je früher potenzielle Kunden das neue Angebot finden, desto schneller kommt auch frischer Umsatz rein. Wie Sie die wichtige Indexierung Ihrer neuen Inhalte beschleunigen können, erfahren Sie in diesem Beitrag des bekannten Experten Stephan Czysch.
Das Internet wächst und wächst: Jeden Tag werden unzählige neue Inhalte veröffentlicht. Damit diese von Suchmaschinen gefunden werden können, sind eingehende Verlinkungen auf diese Inhalte beziehungsweise deren Adressen (oder auch URL: Uniform Resource Locator) essenziell wichtig. Denn durch das Folgen von Links lässt sich das Web wesentlich effizienter crawlen, als wenn Suchmaschinen durch Raten von beliebigen Buchstaben- und Zeichenfolgen versuchen würden, erfolgreich aufrufbare Adressen und damit deren Inhalte zu finden.
Doch es sind nicht nur neue Inhalte, die von Suchmaschinen erfasst werden wollen, sondern auch bereits bekannte Adressen müssen wiederholt aufgerufen werden. Denn wer weiß, ob diese nicht zum Beispiel offline genommen oder überarbeitet wurden?
Das Web zu crawlen und zu indexieren, ist ein Mammutprojekt, für das nicht nur Google unzählige Serverzentren rund um den Erdball einsetzt. Diese Server zu betreiben und zu unterhalten, ist eine kostspielige Angelegenheit und zugleich ein Service, der für Webmaster kostenlos angeboten wird.
Es handelt sich dabei um ein Geben und Nehmen, denn Google benötigt die über das Crawling gefundenen Informationen, um sein zentrales Produkt, die Websuche, zu betreiben. Und je häufiger diese aufgrund hoher erlebter Ergebnisqualität von Nutzern verwendet wird, desto interessanter ist sie als Werbeumfeld.
Ohne Crawling keine Indexierung
Als Crawling wird der Prozess bezeichnet, durch den Suchmaschinen wie Google oder Bing das Web erfassen. Stark vereinfacht läuft dabei der folgende Prozess ab:
Eine bekannte Adresse wird vom Crawler (oder auch Spider bzw. Robot) angesteuert. Der Quelltext wird abgespeichert und über Zwischenschritte werden u. a. die Verlinkungen extrahiert.
Die so gefundenen Adressen werden der Datenbank der zu crawlenden Adressen hinzugefügt.
Crawler kontrollieren, ob der Zugriff auf die Adresse vom Webmaster verboten wurde. Dazu wird die robots.txt der Website abgerufen und nach Crawling-Ausschlüssen (mittels Disallow-Angabe) für die gefundene Adresse geschaut.
Ist kein Crawling-Ausschluss für die Adresse in der robots.txt zu finden, wird die Crawling-Priorität der Adresse bestimmt und die URL nach einiger Zeit gecrawlt.
Nach einem erfolgreichen Aufruf der Adresse (der Server beantwortet die Anfrage mit dem HTTP-Statuscode 200) wird der Quelltext der Seite analysiert.
Sofern die Seite zur Indexierung freigegeben ist (also kein Indexierungsausschluss durch die Noindex-Angabe vorliegt oder per Canonical-Tag eine andere Adresse referenziert wird), kann diese dem Index der Suchmaschine hinzugefügt werden.
Nach erfolgreicher Indexierung ist es möglich, den Seiteninhalt über die Websuche zu finden.
Im Hinblick auf das Crawling müssen Sie wissen, dass es für Suchmaschinenbetreiber eine finanzielle Notwendigkeit ist, mit den vorhandenen Serverressourcen sorgsam umzugehen. Jeder Seitenaufruf bindet Kapazitäten und es muss aus diesem Grund abgewogen werden, welchen Webseiten diese Ressourcen zur Verfügung gestellt werden. Faktoren wie das Linkprofil einer Website und eine generelle Einschätzung der Qualität des gesamten Webauftritts in den Augen der Suchmaschinen dürften dabei Einflussgrößen darauf sein, wie regelmäßig Crawler die jeweilige Website ansteuern.
Das Crawling-Aufkommen quantitativ auswerten
Wie aktiv ist Google eigentlich auf meiner Website? Wer nicht direkt einen Blick in die Server-Logfiles werfen möchte, der findet auf diese Frage in der Google Search Console eine Antwort. Denn dort zeigt Google die Crawling-Statistiken der Website an.
In den Wert der pro Tag gecrawlten Seiten fließen dabei übrigens alle Adressen ein, die auf der bestätigten Website zu finden sind. Das sind neben „normalen“ Webseiten die üblichen Verdächtigen wie Bilder, JavaScript- und CSS-Dateien, um nur einige zu nennen.
Abbildung 1: In der Google Search Console können Sie die Crawling-Statistiken Ihrer Website einsehen
Jeder Zugriff wird dabei als einzelne „gecrawlte Seite“ gezählt. Ruft der Googlebot folglich fünfmal innerhalb eines Tages die Startseite auf, dann geht dies als fünf Zugriffe in die Statistik ein.
Was aber, wenn Bilder von einer anderen Website (oder Hostnamen, also z. B. bilder.meinedomain.de) eingebunden sind? Sehr gute Frage! In diesem Fall tauchen diese Zugriffe folgerichtig in den Crawling-Statistiken der Website auf, unter der das Bild aufrufbar ist. Und noch ein Hinweis: Die Zeitzone der Angabe bezieht sich immer auf GMT-8, also die Zeitzone, in der Google seinen Hauptsitz hat (Mountain View in Kalifornien).
Was sagen Ihnen diese Daten? Nichts wirklich Genaues, denn es handelt sich nur um Werte. Sie sehen also nicht, welche Adresse wann abgerufen wurde. Aber durch einen Vergleich der Werte mit der Anzahl der auf Ihrer Website verfügbaren Adressen bekommen Sie Aussagekraft in die Daten – wenn auch stark vereinfacht.
Im Durchschnitt werden auf der in Abbildung 1 zu sehenden Website 202.565 Adressen aufgerufen. Da Mehrfachzugriffe einzeln gezählt werden, sind es in aller Regel deutlich weniger einzigartige Adressen, die vom Crawler aufgerufen werden. Wenn auf der Seite eine Million Adressen der Suchmaschine bekannt sind, dann heißt das folglich, dass jede Adresse ungefähr einmal innerhalb von fünf Tagen angesteuert wird. Doch das ist sehr stark vereinfacht.
Macht es überhaupt Sinn, jede Adresse gleichhäufig anzusteuern? Natürlich nicht, denn viele Seiten ändern sich so selten, dass es nicht sinnvoll ist, wenn diese z. B. jede Woche oder gar jeden Tag gecrawlt werden. Denken Sie daran: Auch die Mittel von Google & Co sind endlich. Es ist also nur logisch, dass Suchmaschinen ihre Crawling-Aktivitäten priorisieren und Websites mit einer hohen Frequenz neuer oder geänderter Inhalte häufiger ansteuern. So dürfte es nicht verwundern, wenn die Startseiten großer Zeitungen mehrmals pro Stunde oder gar Minute abgerufen werden, während eine private Website eine niedrigere Crawling-Priorität genießt. Was für Websites insgesamt gilt, trifft auch für einzelne URLs zu: Wenn Google merkt, dass sich der Inhalt einer Seite zwischen den letzten Crawls nicht (signifikant) unterscheidet, warum dann diese Adresse häufig crawlen?
Einblicke in den Google-Index: URL-Prüfung in der Search Console
Wer umfassend analysieren und verstehen möchte, welche Adressen Google auf der eigenen Website aufruft, der kommt um einen Blick in die Server-Logfiles nicht herum. Um diese Information für einzelne Adressen abzufragen, kann allerdings ganz komfortabel auf die „URL-Prüfung“ in der Google Search Console (Beta) zurückgegriffen werden. Einfach eine beliebige Adresse in das Suchfeld eingeben und schon sind die aktuellen Daten für diese Adresse einsehbar.
Abbildung 2: Google kennt diese Adresse und hat sie indexiert – allerdings wurde sie zuletzt Mitte Dezember gecrawlt
Bei der in Abbildung 2 abgerufenen Adresse liegt der letzte Crawl einige Wochen zurück. Das ist in diesem Fall zu verschmerzen, denn der Seiteninhalt wurde seit der Veröffentlichung der Seite nicht mehr angepasst. Folglich entspricht die aktuell bei Google bekannte Version der Seite dem Inhalt, den ein Nutzer beim Aufruf der Adresse sehen würde.
Hätte ich den Inhalt allerdings seit dem 18. Dezember verändert, dann stünde ich vor einem Problem: Google wäre der neue Inhalt nicht bekannt und ich könnte für den aktualisierten Inhalt nicht gefunden werden. Was also tun, um das Crawling und die Indexierung zu beschleunigen?
So können Sie das Crawling sowie die Indexierung beschleunigen
XML-Sitemaps einrichten und segmentieren
Wie viele Seiten umfasst Ihr Webauftritt? Und wie viele davon haben Sie in den letzten Monaten aktualisiert oder selbst angesurft? Und wie viele Seiten wurden insgesamt (regelmäßig) besucht? Viele Seiten sind statisch und auch die Website-Struktur ändert sich nur in geringem Umfang. Kein Wunder also, dass es etwas dauern kann, bis Google Änderungen an tief in der Website-Struktur zu findenden Seiten mitbekommt.
Eine von der Website-Struktur unabhängige Erschließung der Website ist über XML-Sitemaps möglich. Sitemaps listen dabei eine beliebige Auswahl an Adressen der Website auf und erzeugen direkte Verweise zwischen der Sitemap und einzelnen URLs. Durch die optionale <lastmod>-Angabe als Hinweis auf das letzte Aktualisierungsdatum ist die Verwendung von Sitemaps eine wunderbare Möglichkeit, um Suchmaschinen über Aktualisierungen und neue Inhalte zu informieren.
Abbildung 3: In dieser XML-Sitemap wird zusätzlich der Zeitpunkt der letzten Aktualisierung (lastmod) übermittelt
Eine Segmentierung der Sitemaps ist in diesem Kontext hilfreich. Denn Google hat zwar keine Probleme, einzelne Sitemaps mit bis zu 50.000 Adressen zu verarbeiten, die Erfahrung zeigt aber, dass kleinere Sitemaps das Crawling positiv beeinflussen. Wieso nicht separate XML-Sitemaps mit den neuen Seiten des letzten Monats erstellen oder Sitemaps nach Seitenbereich aufbauen? Die Möglichkeiten sind vielfältig.
Wer mehr über XML-Sitemaps und deren Optimierung erfahren möchte, dem sei der hervorragende Artikel von Anke Probst in der Website Boosting Ausgabe 53 ans Herz gelegt.
Ein kleiner Tipp: In der neuen Google Search Console werden maximal 1.000 URLs einer Sitemap direkt angezeigt. Warum also nicht die Anzahl der Adressen pro Sitemap auf 1.000 begrenzen? Dann lässt sich wunderbar nachvollziehen, was alles (nicht) indexiert ist.
Und noch ein Tipp: Wenn Sie Inhalte schnell aus dem Google-Index bekommen möchten und das Search-Console-Tool zur Entfernung von URLs in Ihrem Fall nicht hilft, dann denken Sie auch hier an XML-Sitemaps. Denn diese lassen sich auch nutzen, um das Crawling für nicht mehr vorhandene, aber indexierte Adressen anzustoßen.
Website entrümpeln und die Struktur optimieren
Jede den Crawlern bekannte Adresse will gecrawlt werden. Zwar führen z. B. Weiterleitungen oder Crawling-Fehler dazu, dass die Crawling-Frequenz für die nicht mehr erfolgreich abrufbaren Adressen zurückgeht, aber wer sagt, dass eine 404-Seite morgen nicht doch wieder online ist? Von daher müssen auch 404-Seiten kontinuierlich überprüft werden – Google möchte ja keinen relevanten Inhalt verpassen. Über je mehr Adressen Ihr Webauftritt verfügt, desto mehr muss Google crawlen.
Warum also nicht mal über einen Frühjahrsputz nachdenken? Welche Seiten braucht es nicht mehr? Gibt es durch interne oder externe Links erzeugte Crawling-Fehler? Sind Weiterleitungsketten vorhanden? Welche URLs können per robots.txt vom Crawling ausgeschlossen werden? Welche URLs können problemlos auf noindex gestellt werden?
Trauen Sie sich, nicht mehr benötigte Seiten offline zu nehmen! Je weniger Adressen es auf Ihrer Website gibt, desto geringer ist der Crawlbedarf – zudem müssen weniger Adressen intern verlinkt werden. Werfen Sie ruhig einen Blick in Ihre Webanalyse – wie viele Adressen gibt es, die seit Längerem keinen oder nur wenige Besucher begrüßen konnten? Und was ist auf den einzelnen Adressen überhaupt an Inhalten drauf? Sind diese noch aktuell? Müssen Sie diese Seiten eventuell aktualisieren?
Bei der in Abbildung 4 dargestellten Website ist es so, dass über 75 % der SEO-Besucher auf gerade einmal 50 Adressen einsteigen – bei einem Webauftritt mit mehreren Tausend indexierten Seiten und einer fast sechsstelligen Anzahl an SEO-Besuchern. Warum so viele Adressen der Website keine oder nur eine geringe Sichtbarkeit in der unbezahlten Google-Suche haben? Eine ausgezeichnete Frage, der nachgegangen werden sollte!
Abbildung 4: Bei dieser Website sind 50 Adressen für über 75 % der SEO-Zugriffe verantwortlich
Wenn Sie sich intensiv mit Ihrer Website auseinandersetzen, dann stellen Sie sich die Frage, ob es nicht an der Zeit ist, die Website-Struktur kritisch zu hinterfragen. Crawling-Tools wie Screaming Frog, Ryte oder audisto helfen Ihnen dabei, die Struktur Ihrer Website abzubilden.
Bewerten Sie aber nicht nur den Status quo, sondern schauen Sie, ob es Bedarf für neue Übersichtsseiten gibt, die die Inhalte noch besser als bisher zusammenfassen. Dadurch haben Sie nicht nur potenziell neue relevante Einstiegsseiten für Suchmaschinennutzer zur Hand, sondern erleichtern zudem jedem Besucher die Navigation durch die Website.
Ladegeschwindigkeit verbessern
Auf SEO-Konferenzen und in Bezug auf Logfile-Analysen ist regelmäßig der Begriff Crawlbudget zu hören. Damit wird beschrieben, wie viel Aufmerksamkeit in Form von Serverressourcen Google einer Website zum Crawling der Inhalte zur Verfügung stellt. Dabei handelt es sich nicht um eine feste Adressanzahl, sondern eher um ein Zeitbudget. Und auch dieses ist nicht statisch.
Wie Sie in Abbildung 1 sehen konnten, lag das Crawling-Volumen im November deutlich über dem der Folgemonate. Gründe für ein temporär höheres Crawling sind vielfältig. Mal ist es eine umfassende Überarbeitung der Website, mal viele neue Inhalte oder Links und mal will Google die Website in großen Teilen neu erfassen.
Wie Sie wissen, sind Googles Crawling-Ressourcen limitiert, von daher möchte Google diese möglichst effizient einsetzen. Eine wesentliche Einflusskomponente auf das Crawling-Volumen ist die Ladegeschwindigkeit einer Website. Wer diese über Optimierungen wie beispielsweise eine bessere Komprimierung von Bildern, eine Reduzierung der Anzahl der zu ladenden Dateien, schnellere Datenbankabfragen oder Nutzung von Caching (Zwischenspeichern) verbessern kann, der tut nicht nur Nutzern einen Gefallen, sondern auch Google honoriert den verbesserten Pagespeed regelmäßig mit mehr Zugriffen des Googlebot.
Einzelne Adressen über die URL-Überprüfung einreichen
Mit der „URL-Überprüfung“ der Google Search Console können Sie nicht nur überprüfen, ob eine Seite aktuell im Index enthalten ist und wann diese zuletzt gecrawlt wurde! Das Tool lässt sich dazu verwenden, Google über Aktualisierungen bereits bekannter sowie neue Adressen zu informieren.
Vermutlich kennen Sie das bisher dafür von Google angebotene Tool „Abruf wie durch Google“. Dieses wird mittelfristig durch die URL-Überprüfung ersetzt, kann bis dahin aber natürlich genauso für die Benachrichtigung von Google über aktualisierte oder neue Inhalte verwendet werden. Innerhalb weniger Augenblicke sollte Google die neue Seitenversion vorliegen.
Abbildung 5: Durch einen Klick auf „Indexierung beantragen“ kann Google über aktualisierte oder neue Adressen informiert werden
Bald kommt sie: die Google-Indexing-API
Um aktuell Jobanzeigen und Livestream-Inhalte noch schneller indexiert zu bekommen, bietet Google eine eigene API (Schnittstelle) zur Einreichung dieser Inhalte an. Über die Schnittstelle kann Google unabhängig von einem Interface über aktualisierte oder neue Adressen informiert werden – quasi die URL-Überprüfung der Search Console zeitgleich für mehrere Adressen. Wer sich schon jetzt mit der API vertraut machen möchte, der findet unter developers.google.com/search/apis/indexing-api/v3/quickstart alle notwendigen Informationen.
Auch von Bing ist zu hören, dass eine ähnliche API in Planung ist. Vielleicht steht uns ja mittelfristig eine schrittweise Abkehr von den bisherigen Crawling-Aktivitäten bevor? Suchmaschinen könnten Webmaster dazu „erziehen“, neue Inhalte über API-Schnittstellen einzureichen und das Crawling wie bisher z. B. nur noch jeden Monat anzustoßen, um eine Gesamtanalyse der Website inklusive ihrer Struktur durchzuführen. Das würde sowohl für Website-Betreiber als auch für Suchmaschinen zu einer deutlich verbesserten Nutzung der vorhanden Server- bzw. Crawling-Kapazitäten führen. Man darf also gespannt sein, was die Zukunft bringt.
Zehn Dinge, die Chefs über SEO wissen sollten
Zehn Dinge, die Chefs über SEO wissen sollten – websiteboosting.com
Entscheider haben viel zu tun und meistens keine Zeit, sich selbst in das komplexe Thema Suchmaschinenoptimierung (SEO) einzuarbeiten. Trotzdem müssen sie grundlegende Entscheidungen treffen, ob und wie viel SEO eingekauft wird und wer es letztlich umsetzt. Ob SEO gelingt oder nicht, entscheidet…
Entscheider haben viel zu tun und meistens keine Zeit, sich selbst in das komplexe Thema Suchmaschinenoptimierung (SEO) einzuarbeiten. Trotzdem müssen sie grundlegende Entscheidungen treffen, ob und wie viel SEO eingekauft wird und wer es letztlich umsetzt. Ob SEO gelingt oder nicht, entscheidet sich bereits in der Planung. Diese zehn Punkte sollen dabei helfen, die richtigen Entscheidungen zu treffen, auch ohne selbst SEO-Experte zu sein.
Suchmaschinenoptimierung scheitert meistens bereits in der Planungsphase. Viele Marketing-Entscheider können SEO naturgemäß nicht richtig einschätzen und setzen stattdessen auf klassisches Marketing und ein diffuses Bauchgefühl. Das ist auch nachvollziehbar, es fehlt in Deutschland an gut ausgebildetem Personal und das Budget gibt die Investition in teure Agenturen oder Freelancer oftmals nicht her. Die Folge: Die Unternehmenswebsite wird vernachlässigt, verwahrlost zusehends und wird für wichtige Suchbegriffe nicht gefunden. Gleichzeitig jagt Ihnen der Wettbewerb online signifikante Marktanteile ab, ohne dass Sie es mitbekommen. Ohne SEO fehlen Ihnen die Instrumente und der Kompass, Sie sind im Blindflug unterwegs und es droht der Absturz!
Das muss nicht sein! Auch ohne sich selbst mit der komplexen praktischen Umsetzung von SEO im Detail auszukennen, gibt es einige Dinge, die Geschäftsführung oder Marketingleitung wissen müssen, um die Suchmaschinenoptimierung richtig einschätzen und sicher planen zu können.
Abbildung 1: Wissen Sie, wie viele Klicks über Suchmaschinen generiert werden? (Google Search Console)
1. SEO ist die wichtigste Marketingdisziplin
Es gibt unzählige TV-Kanäle, Radiosender, Printmagazine oder Social Networks für ganz unterschiedliche Zielgruppen, Altersgruppen und Bedürfnisse. Aber all diese Menschen nutzen Suchmaschinen! Und fast alle verwenden dafür Google, mobil sogar weit über 90 Prozent. Schauen Sie einfach mal in Ihren Analytics-Daten nach, wie viele Menschen via Google auf Ihre Unternehmensseite kommen. Wenn Sie nicht alles falsch gemacht haben, dürfte dieser Anteil bei mindestens 60 bis 70 Prozent liegen, häufig sogar mehr. Diese Marktdominanz wird sich in den nächsten Jahren vermutlich kaum verändern, aufgrund des riesigen technologischen Vorsprungs, den Google in den letzten 20 Jahren – zumindest in der westlichen Welt – aufgebaut hat. Alle Suchmaschinen verfolgen dasselbe Ziel: Suchenden die möglichst besten Treffer für ihre Suchbegriffe zu zeigen, und zwar genau in dem Moment, wenn sie aktiv danach suchen. Es lohnt sich also, genauer anzusehen, wie Suchmaschinen funktionieren und wie Sie mit Ihrer Expertise auf Google und Co. auffindbar werden. Dafür brauchen Sie SEO.
2. SEO ist eine nachhaltige Investition in eigene Kanäle
Anders als viele Online-Geschäftsmodelle versorgt Google Milliarden Websites mit mehr oder weniger stabiler, weitgehend kostenloser Reichweite. Im Durchschnitt werden über 50 Prozent des gesamten Website-Traffics durch unbezahlte Suchergebnisse generiert, während 15 Prozent über bezahlte Anzeigen und nur rund 4 Prozent der Besucher von sozialen Medien kommen (https://videos.brightedge.com/research-report/BrightEdge_ChannelReport2019_FINAL.pdf). In sozialen Netzwerken hat ein erfolgreicher Post eine Lebensdauer von ein paar Stunden, auf Suchmaschinen ist eine gut rankende Seite häufig über Monate und Jahre auffindbar. Häufig werden die Follower auf sozialen Netzwerken heute gar nicht mehr erreicht, wenn keine Werbeanzeige gebucht wird. Über Suchmaschinen erreichen Sie hingegen Menschen, die Ihr Unternehmen bis dato noch gar nicht kennen und erst über die Suche darauf aufmerksam werden. Diese Menschen landen dann am Ende der Suche auf Ihrer eigenen Website und bleiben nicht in einem sozialen Netzwerk gefangen, das Ihnen nicht gehört. SEO ist also eine gut angelegte Investition in eigene Kanäle, nicht in die großen US-Plattformen. Suchmaschinenoptimierung kostet zwar auch Geld, aber kein einziger Euro fließt dabei an Google, Facebook oder Amazon, sondern direkt in den nachhaltigen Erfolg Ihrer Website.
3. Klicks gibt es nur ganz vorne in den Suchergebnissen
Suchmaschinen crawlen Milliarden von Websites und ranken dann zu jedem Suchbegriff nur die vermeintlich 100 besten als Suchergebnis. Täglich wächst der Wettbewerb auf Google. 99,1 Prozent aller Nutzer vertrauen allerdings nur den Suchergebnissen auf der ersten Seite, also den ersten zehn Treffern! Davon klicken wiederum durchschnittlich ca. 30 Prozent auf das erste Suchergebnis (http://einfach.st/sistrixctr). Umgekehrt bedeutet das: Wer erst auf der zweiten Suchergebnisseite auftaucht, bekommt so gut wie gar keine Klicks mehr, bleibt also unsichtbar. Es ist in den meisten Fällen völlig ausgeschlossen, heute noch zufällig und ohne eine kluge SEO-Strategie in diese Top 10 oder sogar Top 3 zu kommen, wo potenzielle Kunden Sie auch tatsächlich finden. Die Konkurrenz schläft nicht und investiert längst in SEO.
4. Erreichen Sie die „digitale Laufkundschaft“, wenn sie nach Ihrem Angebot sucht
Bei einem lokalen Geschäft entscheidet die Lage darüber, ob auch Laufkundschaft in den Laden findet. Suchmaschinen sind im Internet der Ort, an dem Sie die surfende „Laufkundschaft“ online erreichen, und zwar genau in dem Moment, wenn sie aktiv etwas sucht. In diesem Moment sind diese potenziellen Kunden sehr aufmerksam und offen, anders als bei Werbung, wo Sie eventuell Menschen ansprechen, die in diesem Moment gar nicht offen für Ihre Angebote sind. Ihre Website ist das Schaufenster, und wenn sie gut gemacht ist, kommen die Nutzer von selbst hinein und kaufen etwas oder abonnieren Ihren Newsletter. Was genau Menschen auf Ihrer Website machen sollen, entscheiden Sie selbst, Suchmaschinenoptimierung sorgt zunächst nur dafür, dass sie überhaupt vorbeikommen und Ihr Angebot wahrnehmen. Suchmaschinen-Sichtbarkeit ist also gleichbedeutend mit der „Lage“ in der Online-Welt. Eine gute Lage ist zwar immer teurer (ja, auch SEO kostet Geld, alle großen Online-Brands investieren sehr hohe Beträge in SEO!), zahlt sich aber in der Regel und abhängig vom Geschäftsmodell durch signifikant steigende Reichweiten wieder aus. Bauen Sie Ihr Unternehmen also nicht einfach auf die grüne Wiese, sondern in zentraler Lage, dort, wo Menschen tatsächlich unterwegs sind und nach Ihren Themen suchen. Und die beste Lage im Netz gibt es nur mithilfe von SEO!
5. Suchmaschinen bieten jedem eine Chance
Suchmaschinen versuchen, für jede Suchanfrage das inhaltlich beste Ergebnis zu liefern. Grundsätzlich hat jeder – unabhängig von Größe oder Budget des Unternehmens – die Chance, für relevante Suchbegriffe auf Position 1 von Google gefunden zu werden. In vielen Bereichen wurden die großen und oft schwerfälligen Marktführer sogar von kleinen, agilen Unternehmen im Netz überholt, weil diese früher und konsequenter in den reichweitenstärksten Kanal Suchmaschinen investiert haben und mit mehr Fokus auf ihre Kunden agieren. Manche von diesen ehemaligen Giganten sind heute sogar ganz verschwunden und längst vergessen. Kaufen kann man sich gute organische Rankings übrigens nicht, man muss sie sich hart erarbeiten und das dauert mehrere Monate bis Jahre. Das gilt für globale Konzerne genauso wie für Start-ups oder Kleinstunternehmen. Jeder hat eine Chance, bei Google gefunden zu werden. Ähnlich wie bei Social Media reicht es allerdings nicht aus, nur einmal „SEO zu machen“, Sie posten ja auch nicht nur einmal auf Facebook und stellen Ihre Social-Media-Aktivitäten dann ein. Alles, was Sie auf Ihrer Website machen, sollte strategisch geplant werden und eine nachhaltig gesteigerte Sichtbarkeit in Suchmaschinen zur Folge haben. Viele Unternehmen glauben heute immer noch, dass die Menschen irgendwie auf magische Weise von selbst auf ihre Website kommen. Das ist aber nicht der Fall! Niemand kommt auf Ihre Website, wenn Sie nichts dafür tun.
Abbildung 2: Unter „Akquisition/Channels“ sehen Sie, wie hoch der Traffic-Anteil von Suchmaschinen ist (Google Analytics)
6. Auf Suchmaschinenoptimierung zu verzichten ist sehr teuer
Wer nicht zu den richtigen Suchanfragen in Suchmaschinen gefunden wird, muss zwangsläufig Anzeigen schalten, um auf sein Angebot aufmerksam zu machen und Kunden darauf zu locken. Und das kann auf Dauer sehr teuer werden. Während Sie für jeden einzelnen Klick auf eine Anzeige in Suchmaschinen immer Geld bezahlen müssen, bringen organische Rankings in Suchmaschinen über Monate und Jahre kostenlos potenzielle Kunden auf Ihre Seite und sorgen durch SEO für stetiges Wachstum.
Zwar kostet auch Suchmaschinenoptimierung Geld, schließlich muss zunächst geplant, recherchiert und umgesetzt werden. Doch der Ertrag ist am Ende meistens ungleich höher als die Investition, weil Sie damit überhaupt erst die Grundlage für organisches Wachstum schaffen. In der Regel werden Anfangsinvestition und laufende Kosten für gute Suchmaschinenoptimierung früher oder später vom zusätzlichen Traffic und der damit verbundenen Skalierung gedeckt. Sobald dieser Break-Even erreicht wird, generieren Sie mehr Umsatz und Gewinn als die laufenden Kosten für SEO. Dadurch hat SEO mittel- bis langfristig den besten ROI (Return on Investment) aller Online-Marketingkanäle.
7. SEO senkt das Unternehmensrisiko
Durch ihre Nachhaltigkeit ist die Suchmaschinenoptimierung langfristig betrachtet nicht nur die erfolgversprechendste, sondern auch die günstigste Marketingdisziplin. Aber mehr als das: Nur mit konsequenter Suchmaschinenoptimierung erkennen Sie frühzeitig Fehler, etwa nach Relaunches oder anderen technischen oder inhaltlichen Änderungen auf der Website. SEO behält fortlaufend alle wichtigen Kennzahlen und Metriken Ihrer Website und auch die der wichtigsten Wettbewerber ständig im Blick und gibt damit wichtige Anhaltspunkte, welche Themen am häufigsten gesucht werden und damit am erfolgversprechendsten für Ihr Unternehmen sind. Selbst wenn die Stundensätze kompetenter SEO-Consultants oder Agenturen oft stattlich sind, zahlt sich eine fortlaufende und konsequente Optimierung langfristig immer aus und bietet nur Chancen, birgt aber kaum Risiken, außer das, an eine inkompetente Agentur zu geraten. Dieses Risiko können Sie am effektivsten durch einen initialen SEO-Workshop mit dem gesamten Team minimieren. Dabei können Sie prüfen, ob Sie die ausgewählte SEO-Agentur bzw. den SEO-Berater überhaupt verstehen und ob die vorgeschlagenen Maßnahmen für Ihr Team umsetzbar sind. Erst wenn Sie vom Erfolg einer Zusammenarbeit überzeugt sind, sollten Sie einen längerfristigen Vertrag unterschreiben. Fragen Sie also einfach nach einem Workshop, die meisten seriösen SEO-Agenturen werden Ihnen so ein Format anbieten können. Es ist auch im Interesse der Agentur, Ihr Unternehmen kennenzulernen und herauszufinden, ob eine Zusammenarbeit fruchten würde und ob die Chemie stimmt.
8. Suchmaschinenoptimierung ist (relativ) einfach zu erlernen
Zwar ist die genaue Zusammensetzung von Googles Algorithmus ein extrem gut gehütetes Geheimnis, dennoch gibt es ein paar grundlegende Rankingfaktoren (https://www.searchmetrics.com/de/knowledge-hub/studien/ranking-faktoren-nischen/), über die sich alle SEO-Experten weitgehend einig sind. Mit Raketenwissenschaft oder Zauberei hat all das nichts zu tun, sondern viel mehr mit Handwerk und dem Sammeln von Erfahrungswerten sowie testen, testen, testen! Auch der Austausch zwischen SEOs – zum Beispiel in der Website Boosting – gibt immer wieder wertvolle Hinweise über zielführende Strategien oder den richtigen Umgang mit Problemen. Theoretisch kann jeder Mitarbeiter und jede Mitarbeiterin die Grundlagen von SEO erlernen und selbst zum SEO-Crack werden, was aber sehr viel Zeit erfordert und nur unter Anleitung erfahrener SEO-Berater gelingen wird. Da es heute extrem schwierig geworden ist, erfahrene SEO-Experten fest an ein Unternehmen zu binden, sollten Sie sich deshalb immer auch Unterstützung von außen holen und auf das Know-how bewährter Agenturen oder Berater zugreifen und sich dieses Wissen permanent ins Unternehmen holen und dort verankern. Entwickeln Sie Interesse für SEO und lassen Sie sich nicht nur bedienen. Das Thema ist zu wichtig, um es einfach auszulagern. Es sollten darüber hinaus mehrere Personen im Haus mit Suchmaschinenoptimierung verantwortlich betraut werden, damit es täglich ein Stück vorangeht und der gesammelte Erfahrungsschatz auch nach internen Umbesetzungen im Unternehmen bleibt und nicht zum Wettbewerb abwandert. Diese Mitarbeiter sollten regelmäßig an Schulungen teilnehmen, um ihren SEO-Horizont ständig zu erweitern, jeden Tag ein Stück zum Erfolg Ihrer Website beitragen zu können und das über lange Zeit intern als festen Bestandteil der Marketingaktivitäten zu etablieren.
9. SEO bringt zufriedenere Kunden und Mitarbeiter
Google möchte für Nutzer auch künftig die beste Suchmaschine bleiben und die bestmöglichen Resultate bieten. Neue Suchmaschinen müssen sich künftig daran messen lassen. Selbst wenn Amazon, Apple oder andere Anbieter Google künftig Marktanteile abnehmen wollen, müssten diese an Google erst einmal vorbeikommen. Das ist in den vergangenen 20 Jahren keinem mehr gelungen, selbst Microsoft hat sich an der Dominanz von Google die Zähne ausgebissen, auch wenn Bing eine erstklassige Suchmaschine und ernst zu nehmender Wettbewerber ist. Die führende Marktposition erreichte Google dadurch, die Interessen der Nutzer vor die eigenen geschäftlichen Interessen zu stellen. Das oberste Prinzip seriöser Suchmaschinenoptimierung ist also: Was gut für Internetnutzer ist, ist meistens auch gut für Suchmaschinen. Egal ob schnelle Ladezeiten, nützliche und informative Inhalte oder leicht verständliche Sprache: Alles, was eine positive Nutzererfahrung erzeugt, wird sich über kurz oder lang auch positiv auf Rankings und damit früher oder später auf Ihren Umsatz niederschlagen. Bieten Sie also erstklassigen Service für Ihre Zielgruppen und empfehlen Sie sich durch informative und nützliche Inhalte statt eitler Selbstdarstellung. Denken Sie immer daran, dass die Aufmerksamkeit Ihrer Besucher extrem limitiert ist. Führt eine Suche nicht sofort zum Erfolg, wird sehr schnell abgebrochen und neu gesucht und das ist das schlechteste Signal, was Sie an eine Suchmaschine senden können. SEO heißt also letztlich auch, seine Website auf Grundlage von Nutzerdaten immer besser zu machen. Und auf Grundlage von Daten zu arbeiten, macht es Mitarbeitern einfacher, den Sinn ihrer Arbeit nachzuvollziehen. Sie werden sich dank der SEO-Instrumente sicherer fühlen und die Erfolge ihrer Arbeit schwarz auf weiß sehen können, anhand von Metriken wie steigender Sichtbarkeit, mehr Klicks und am Ende: mehr Umsatz.
10. Menschen werden auch künftig suchen
Suchmaschinenoptimierung ist eine vergleichsweise junge Marketingdisziplin und dennoch eine sichere Investition in die Zukunft, denn keine neue App, kein neues Start-up wird es je mit der Vielfalt und der unerschöpflichen Informationsmenge des World Wide Web aufnehmen können. Zwar werden sich die Geräte und auch die bevorzugten Plattformen alle paar Jahre wandeln, doch es wird immer gesucht werden, um sich im Zeitalter des Informationsüberflusses zurechtzufinden. Ob Siri uns künftig das Suchergebnis sagt oder Google uns irgendwann jeden Wunsch von den Lippen abliest: Wer heute startet, wird auch morgen noch gefunden werden, sofern man dabeibleibt und nicht nach ein paar Monaten schon wieder die Flinte ins Korn wirft, weil es länger dauert, bis sich Erfolge zeigen. Es lohnt sich also, am Ball zu bleiben und die Performance der eigenen Website nicht nur dem Zufall zu überlassen.
Tipp
Udo Raaf hat mit „Der SEO Planer“ einen angenehm kompakten, gut recherchierten Einstieg in das Thema Suchmaschinenoptimierung geschrieben. Wer sich neu mit der Materie vertraut machen will und sich einen aktuellen Überblick über modernes SEO verschaffen möchte, wird hier fündig. 1. Aufl. 2021, XIII, 66 Seiten und 15 Abbildungen. Als Softcover (14,99 € (D)) und als E-Book (4,48 € (D)) im Fachhandel oder direkt bei Springer erhältlich.
Aller Anfang ist schwer: So gelingt der Start in SEO
Man muss nicht unbedingt wissen, wie SEO im Detail funktioniert, und man muss auch kein Entwickler sein. Viele Entwickler verstehen sogar überhaupt nichts von Suchmaschinenoptimierung und bekommen trotzdem immer wieder die Verantwortung zugeschoben. Wer möchte, dass eine Website erfolgreich wird, muss SEO vernünftig planen und die notwendigen Voraussetzungen dafür schaffen und das bedeutet:
SEO in die Budget- und Personalplanung mit einbeziehen.
Personal schulen und Verantwortlichkeiten klären (Technik, Webdesign und Inhalte).
Eine gute SEO-Agentur oder Freelancer anheuern, um eine Strategie zu erarbeiten und das Team zu coachen, sowie als Sicherheitsnetz bei Fehlern oder internen Umbesetzungen.
SEO macht man nicht mal so eben nebenbei, sondern es ist die Grundlage der täglichen Arbeit mit einer professionellen Website. SEO ist kein einmaliges Projekt, sondern genauso wie alle anderen Marketingdisziplinen tägliches Brot – und die Grundlage Ihres Erfolgs im Internet.
Abbildung 3: SEO-Seminare können Mitarbeitern ohne Vorwissen wichtige Kenntnisse vermitteln (Foto: Julia Müller)
Budgetplanung: Was kostet SEO?
Seriöse Suchmaschinenoptimierung gibt es erfahrungsgemäß ab ca. 1.000 Euro pro Monat bei Freelancern und ab ca. 3.000 Euro bei Agenturen, die Stundensätze von SEO-Beratern mit mehreren Jahren Berufserfahrung liegen ungefähr zwischen 100 und 200 Euro je nach Erfahrung und Auslastung. Wie viel SEO tatsächlich sinnvoll ist, hängt vom Umfang der Website und den gesteckten Zielen ab. Ob ein SEO-Berater oder eine große Agentur die richtige Wahl ist, hängt auch davon ab, wie viel im Unternehmen selbst umgesetzt werden kann und wie hoch das Budget ist. Wenn das Personal für Technik und Inhalte im Haus ist und nur gecoacht werden soll, genügt häufig bereits ein Freelancer. Möchte man die inhaltliche Arbeit und auch die Umsetzung größtenteils auslagern und nur intern steuern oder basiert das gesamte Geschäftsmodell auf Online-Sales, sollte man eine vielköpfige Agentur mit vielen verschiedenen Expertisen wählen und muss entsprechend mehr einplanen.
Doch diese Investition lohnt sich in der Regel langfristig durch signifikant mehr Reichweiten und Umsatz. Je mehr Sie selbst im Haus umsetzen können, desto günstiger wird es, und je besser die SEO-Beratung, desto nachhaltiger sind die Erfolge.
Gute SEO-Berater können sowohl mit den Entwicklern besprechen, welche technischen Dinge es umzusetzen gibt, und den Erfolg der Umsetzung prüfen als auch mit Redaktionen die Inhalte für Suchmaschinen optimieren.
Eine SEO-Agentur ist allerdings immer nur so gut, wie Sie es zulassen: Wird eine ausgearbeitete Strategie nicht konsequent umgesetzt, hilft auch kein SEO-Audit mehr weiter. Räumen Sie SEO also ausreichend Zeit ein, damit täglich Fortschritte erzielt werden können. Priorisieren Sie die Arbeit an der Website für Ihre Mitarbeiter und stellen Sie sicher, dass täglich daran gearbeitet wird. SEO ist keine Aufgabe, die man mal eben kurz vor Feierabend macht, sondern dafür braucht es Zeit.
Ihr Vorteil: SEO ist messbar, Erfolge oder Probleme können von einer Agentur in regelmäßigen Abständen, zum Beispiel monatlich oder quartalsweise, berichtet werden. So sind Sie jederzeit im Bild über die Fortschritte der eigenen Website und können bei Bedarf nachjustieren oder bestimmte Themen priorisieren. Es lohnt sich, garantiert! Man muss es einfach nur machen.
Für Einsteiger: Back to the Roots – Remarketing!
Für Einsteiger: Back to the Roots – Remarketing! – websiteboosting.com
Mit Remarketing werden User durch Werbung angesprochen, nachdem sie bereits mit Ihrem Unternehmen interagiert haben. Im klassischen Fall besucht ein User Ihre Website, verlässt diese wieder und erhält nun Anzeigen der besuchten Site auf anderen Websites eingespielt. In der Regel bringen die so…
Mit Remarketing werden User durch Werbung angesprochen, nachdem sie bereits mit Ihrem Unternehmen interagiert haben. Im klassischen Fall besucht ein User Ihre Website, verlässt diese wieder und erhält nun Anzeigen der besuchten Site auf anderen Websites eingespielt. In der Regel bringen die so „zurückgeholten“ Besucher eine deutlich höhere Kaufneigung und damit Konversionsrate mit. Der Einsatz von Remarketing gehört daher seit dem Bestehen für viele zum festen Repertoire beim Online-Marketing. Lesen Sie im folgenden „Back to the Roots“-Artikel des Google-Ads-Experten Alexander Beck, was es dabei zu beachten gibt.
Die Gründe für Remarketing können unterschiedlichster Natur sein: So können Sie beispielsweise Produkte oder Dienstleistungen bewerben, die ein User auf Ihrer Website angesehen, aber nicht gekauft hat – selbstverständlich mit dem Ziel, dass der User sie bei einem erneuten Besuch der Website dann doch kauft. Sie können nach einem erfolgten Kauf Cross- und Upselling-Angebote anpreisen. Oder es kann auf den Download eines ergänzenden Informations-PDFs hingewiesen werden, nachdem sich der User bereits die Unterseite für eine bestimmte Dienstleistung angesehen hat. Der Fantasie sind hier kaum Grenzen gesetzt.
Deshalb stehen Ihnen zahlreiche Möglichkeiten zur Verfügung. Sie können je nach Kampagnenziel individuelle Anzeigenbotschaften formulieren und aus zahlreichen Formaten wählen. Sie können Remarketing nicht nur auf anderen Websites, sondern auch in Apps, in der Suche, auf YouTube oder in Gmail ausspielen. Sie können auf das statische Remarketing zurückgreifen, bei dem allen Mitgliedern einer Zielgruppe die gleichen Anzeigen ausgespielt werden, oder Sie nutzen das dynamische Remarketing für die User, bei dem individuelle Anzeigen erstellt werden.
In allen Fällen müssen Sie drei Schritte absolvieren: das Remarketing-Tag implementieren, Zielgruppenlisten bzw. Segmente erstellen (was Ihnen beim dynamischen Remarketing Google abnimmt) sowie die Kampagnen anlegen.
Google-Ads-Remarketing-Tag
Remarketing mit Google können Sie über Google Ads oder Google Analytics aktivieren. Die Tags fügen Sie dann jeweils direkt auf der Website ein oder installieren sie über einen Tag-Manager, etwa den Google-Tag-Manager. Unbedingt sollten Sie die Besucher Ihrer Website an geeigneter Stelle darüber informieren, die Cookie-Zustimmung regelkonform einholen sowie natürlich auch die Richtlinien von Google beachten (siehe Google-Ads-Hilfe: https://support.google.com/adspolicy/answer/143465).
Ihre Anlaufstelle rund ums Remarketing ist im Google-Ads-Account die Zielgruppenverwaltung, welche Sie über das Symbol des Werkzeugschlüssels (Tools und Einstellungen) unter Gemeinsam genutzte Bibliothek erreichen (siehe Abb. 1). Dort werden die Begrifflichkeiten gerade umgestellt, sodass Sie in der linken Navigation entweder schon auf Segmente, Ihre Datenstatistik und Ihre Datenquellen oder noch auf Zielgruppenlisten, Zielgruppeninformationen und Zielgruppenquellen treffen (siehe Google-Ads-Hilfe: https://support.google.com/google-ads/answer/10566701).
Abbildung 01: Tools > Zielgruppenverwaltung
Google-Ads-Remarketing-Tag
Zum Remarketing-Tag gelangen Sie, indem Sie Ihre Datenquellen (bzw. Zielgruppenquellen) öffnen und dann auf Details im Bereich Google-Ads-Tag klicken. Auf der Folgeseite können Sie das Remarketing-Tag auf drei Arten abrufen: um es selbst zu implementieren, um es unmittelbar an eine dritte Person wie etwa einen Webmaster oder Techniker zu senden oder um es über den Google-Tag-Manager einzubauen (siehe Abbildung 02: Remarketing-Tag abrufen inkl. Global Site Tag).
Abbildung 02: Remarketing-Tag abrufen inkl. Global Site Tag
Das Global-Tag fügt Besucher den Remarketinglisten zu. Es entspricht dem Global-Tag, das auch beim Google-Ads-Conversion-Tracking einzubauen ist. Haben Sie es bei dieser Gelegenheit also bereits verbaut, so müssen Sie dies für das Remarketing nicht nochmals tun. Im Umkehrschluss bedeutet dies allerdings auch, dass Sie bereits Besucher für Remarketinglisten gesammelt haben. Sollte dies unwissentlich und unabsichtlich geschehen sein, so ist es spätestens jetzt an der Zeit, die Nutzerhinweise zum Datenschutz auf der Website zu aktualisieren.
Dynamisches Remarketing
Damit Sie das statische Remarketing nutzen können, genügt das Global Site Tag. Ihm können über die eindeutige ID (in Abbildung 02 ausgegraut) zusätzliche Informationen übergeben werden: Beim Conversion-Tracking wird über das Event-Snippet etwa erfasst, ob eine Conversion stattgefunden hat und gezählt werden soll. Beim Remarketing wird ein zusätzliches Event-Snippet z. B. dann benötigt, wenn dynamisches Remarketing eingesetzt werden soll. Hierfür müssen Sie auf die Eingabeseite Quelle bearbeiten gehen. Diese finden Sie auf Ihre Datenquellen über die drei Punkte oben rechts.
Für das dynamische Remarketing stellen Sie die Auswahl unter „Remarketing“ um. Denn die voreingestellte erste Option gilt für das statische Remarketing, die zweite Option für das dynamische Remarketing. Es öffnet sich sodann der Bereich „Unternehmenstyp“, welcher alle Produkte und Dienstleistungen auflistet, die für das dynamische Remarketing zur Verfügung stehen. Fehlt die für Ihr Unternehmen passende Auswahlmöglichkeit, so können Sie die Option benutzerdefiniert verwenden. Für Einzelhändler muss ein entsprechender Produktfeed im Merchant Center hinterlegt sein; die weiteren Unternehmenstypen laden ihre Feeds hinter dem Werkzeugschlüssel unter Geschäftsdaten hoch.
Speichern Sie die eingegebenen Angaben ab, so erstellen Sie ein Event- (oder Ereignis-)Snippet. Dieses erfasst Aktionen und Parameter und wird gemeinsam mit dem Global Site Tag aufgerufen. Je nach gewähltem Unternehmenstyp sind andere Parameter zu übergeben – für den Einzelhandel ist eine eindeutige Produkt-ID zwingend erforderlich, Wert oder Feedtyp werden empfohlen (siehe z. B. Google-Ads-Hilfe: https://support.google.com/google-ads/answer/7305793).
Mit einem Chrome-Plug-in wie dem Google Tag Assistent können Sie nachvollziehen und prüfen, ob und welche Parameter übergeben werden. In Abbildung 03 (Google Tag Assistent) erkennen Sie beispielsweise, dass als Ereignis der Aufruf einer Produktseite (Event), als Feedtyp „retail“ für einen Einzelhändler (google_business_vertical) und letztendlich die Produktkennzeichnung (ID) übergeben wird. Letztere muss mit dem Produkt im Datenfeed übereinstimmen, sodass sich Google die korrekten Daten für die Erstellung der Anzeige ziehen kann.
Abbildung 03: Google Tag Assistent
Einbau über den Google-Tag-Manager
Im Google-Tag-Manager steht für die Tag-Konfiguration bereits Google-Ads-Remarketing als Tag-Typ zur Auswahl. Wählen Sie diesen aus, so hinterlegen Sie im nächsten Schritt die Conversion-ID – also jene ID, die Sie als dritte Option im Ads-Konto abrufen können (siehe Abbildung 02: Remarketing-Tag abrufen) und die der eindeutigen ID im Global- Tag entspricht.
Im Google-Tag-Manager müssen Sie festlegen, bei welchen Ereignissen das Tag ausgelöst werden soll. Dies machen Sie über sogenannte Trigger. Um als Ereignis den Aufruf irgendeiner Seite Ihrer Website festzulegen, wählen Sie alle Seiten. Und nach mindestens diesen Schritten ist das Remarketing-Tag für das statische Remarketing dann auch schon implementiert. (Für das dynamische Remarketing müssen noch weitere Informationen übergeben werden.)
Zielgruppen (bzw. Segmente) erstellen
Die Remarketinglisten erstellen Sie im Bereich Segmente (bzw. Zielgruppenlisten) – wie im Ads-Account üblich über das blau markierte Pluszeichen.
Im Dropdown erkennen Sie, dass Sie Remarketinglisten nicht nur durch Besuche auf Ihrer Website, sondern auch aufgrund von Interaktionen der User mit Ihrer App sowie Ihren YouTube-Videos und -Kanal sowie über den Upload bestehender Kundenlisten (Customer Match) füllen können. Durch benutzerdefinierte Kombinationen können Sie Ihre Remarketinglisten dann mit Und- sowie Oder-Verknüpfungen kombinieren und weiter schärfen.
Für die klassischen Websitebesucher müssen Sie folgende Angaben tätigen (siehe Abbildung 5):
Name und Beschreibung des Segments (bzw. der Zielgruppe) sollten so eindeutig sein, dass Sie die Zielgruppe wiederfinden bzw. die gesammelten Nutzer eindeutig erkennen.
Als Mitglieder können Sie Besucher der Website insbesondere anhand der aufgerufenen URLs segmentieren. In Abbildung 05 (Remarketingliste Websitebesucher erstellen) erkennen Sie etwa, dass ein User
auf Seiten gewesen sein muss, die shop in der URL enthalten,
nicht aber auf Seiten gewesen sein darf, die danke enthalten.
Damit sollen alle Besucher erfasst werden, die zwar den Shop-Bereich der Website aufgerufen, jedoch nichts gekauft haben. Diese Einstellung muss natürlich so angepasst werden, wie es Ihre URL-Struktur hergibt.
Sie haben die Möglichkeit, in eine neu erstellte Liste bereits die Besucher der letzten 30 Tage einfließen zu lassen, die Ihren gewählten Kriterien entsprechen. Ist dies möglich, so sollten Sie dies unter Optionen vorausfüllen voreingestellt belassen.
Die Gültigkeitsdauer gibt an, wie lange ein Nutzer in der Remarketingliste bleiben soll. Grundsätzlich ist dies bis zu 540 Tagen möglich. Jedoch sollten Sie abklären, ob dies in datenschutzrechtlicher Sicht bei Ihnen erlaubt ist. Je nach Ihren angebotenen Produkten und Dienstleistungen macht eine längere oder kürzere Dauer Sinn: Je länger der Entscheidungsprozess bis zur Conversion typischerweise dauert, umso länger sollte der Nutzer über Remarketing ansprechbar sein. Es spricht aber auch nichts dagegen, die gleiche Liste mehrmals mit unterschiedlichen Gültigkeitsdauern anzulegen.
Die eben definierten Segmentmitglieder können auch über benutzerdefinierte Kombinationen angelegt werden. Dafür müssten Sie zunächst zwei Remarketinglisten erstellen:
Liste 1 enthält alle Besucher, die auf Seiten mit shop in der URL waren
Liste 2 enthält alle Besucher, die auf Seiten mit danke in der URL waren
Nun nehmen Sie als Grundlage also Liste 1 und schließen Liste 2 davon aus (siehe Abbildung 06: Benutzerdefinierte Kombinationen). Damit sprechen Sie am Ende wiederum nur diejenigen Nutzer an, die zwar im Shop waren, aber die Danke-Seite nicht erreicht, somit keine Conversion getätigt haben.
Abbildung 06: Benutzerdefinierte Kombinationen
Beim Remarketing über Google Ads segmentieren Sie Ihre Besucher zumeist über die URL. Trotzdem ist es möglich, Listen anhand von Zeiträumen sowie anhand von Tags zu erstellen: Bei Ersterem werden alle Besucher innerhalb zeitlicher Daten gesammelt, bei Letzterem werden Besucher gesammelt, die Seiten mit bestimmten Tags aufgerufen haben, etwa Conversion-Tracking-Tags. Noch deutlich differenziertere Auswahlkriterien haben Sie dann jedoch über das Remarketing mit Google Analytics.
Google-Analytics-Tag
Für Remarketinglisten in Google Analytics stehen Ihnen über 250 Metriken zur Verfügung, mit denen Sie Ihre Besuchersegmente definieren können. So können Sie etwa nach Kennzahlen des Websitebesuchs wie Dauer oder Seitenanzahl segmentieren, nach Channels, über die User gekommen sind, nach Geräten, nach Engagement, nach der Anzahl der durchgeführten Transaktionen oder nach Warenwerten – unterm Strich nach deutlich mehr Größen als mit Google Ads (siehe Abbildung 07: Zielgruppendefinitionen in Google Analytics). Daher ist es dann auch in den meisten Fällen vorteilhafter, Google Analytics für die Erstellung von Remarketinglisten zu nutzen.
Abbildung 07: Zielgruppendefinitionen in Google Analytics
Angelegt werden die Zielgruppen auf Property-Ebene unter Zielgruppendefinitionen. In Abbildung 08 erkennen Sie beispielsweise eine Zielgruppe mit Abfolgen und Bedingungen. Grundgedanke ist es, über Remarketing User anzusprechen, die sich Seiten zu einem bestimmten Thema (Seite: enthält „/sea“) angesehen haben, dann sogar auf die Kontaktseite gegangen sind (Seite: enthält „/kontakt“), letztendlich das Formular jedoch nicht abgeschickt haben (Kontaktformular abgesendet (Wert für Zielvorhaben 1) = 0).
Abbildung 08: Beispiel-Zielgruppe in Google Analytics
Neben der manuellen Definition können Sie über den Button aus der Galerie importieren vordefinierte Remarketinglisten auswählen, die Sie per Knopfdruck übernehmen können. Zudem können Sie Zielgruppen direkt aus bereits hinterlegten Segmenten bilden (Button Segment importieren).
Haben Sie Ihre Zielgruppe definiert, so müssen Sie das Zielkonto für Google Ads auswählen und damit festlegen, in welchem Google-Ads-Konto die Zielgruppe veröffentlicht werden soll. Dort finden Sie die Liste dann im Bereich der Zielgruppenverwaltung gemeinsam mit eventuellen Google-Ads-Remarketinglisten, wo Sie Ihnen für eventuelle Remarketing-Kampagnen bereitstehen.
Um Analytics nutzen zu können, müssen Sie Remarketing aktivieren und Ihren Account mit dem Google-Ads-Konto verknüpfen. Zudem sind die Voraussetzungen des Datenschutzes einzuhalten, der Vertrag zur Auftragsverarbeitung zu akzeptieren und die Anonymisierung der IP-Adressen durchzuführen.
Remarketing-Kampagne anlegen
Sinn des Remarketings ist es letztendlich immer, die User weiter im Conversion-Prozess zu bringen. Denn letztendlich sollen sie eine Handlung ausüben, die für das Unternehmen einen Wert darstellt. Entsprechend macht es Sinn, sich vor dem Einsatz des Remarketings das Ziel der Kampagnen, die geeigneten Mittel und daraus letztendlich die Strategie zu überlegen. Dabei hilft es, einzelne Zielgruppen ansprechen, mehrere Zielgruppen verknüpfen oder gar Zielgruppen mit anderen interessen- oder kontextbezogenen Ausrichtungen kombinieren zu können.
Typische Strategien sind die Ansprache aller Besucher, aller Besucher ohne Kauf, entlang des Conversion-Funnels, für Produkte, Produktgruppen und Marken oder auch für bestimmte Services auf der Website.
Häufig vergessen wird Remarketing in der Suche (RLSA). Hier können Keywords und Keyword-Optionen zum Einsatz kommen, die sich für User, die noch nie auf der Website waren, nicht lohnen. Ebenso können ehemalige Besucher bei einer erneuten Suche komplett ausgeschlossen oder bewusst mit höheren Geboten belegt werden. Gleichzeitig profitieren auch Smart-Bidding-Algorithmen von dieser höheren Datengrundlage.
Grundsätzlich möglich ist die Schaltung von Remarketing im Displaynetzwerk auf Websites und in Apps, im Suchnetzwerk, für YouTube sowie für Gmail- bzw. Discovery-Kampagnen. Die Mindestgröße, damit die Liste genutzt werden kann, beträgt 100 Cookies im GDN, beim Rest jeweils 1.000 Cookies.
In Ihrem Ads-Konto finden Sie die verfügbaren Zielgruppen unter Zielgruppenverwaltung > Segmente – seien es von Ihnen in Ads oder Analytics selbst angelegte oder von Google automatisch erstellte Listen. Zudem erkennen Sie, für welche Netzwerke sie in welcher Größe verfügbar sind.
Zielgruppen werden bei Ads-Kampagnen auf Anzeigengruppen- oder Kampagnenebene hinterlegt. Hinterlegen Sie diese nicht direkt beim Erstellen einer Kampagne, so können Sie dies unter dem Tab Zielgruppen nachholen. Sie finden Ihre Remarketinglisten im Unterbereich Bisherige Interaktionen mit Ihrem Unternehmen (siehe Abbildung 9).
Abbildung 09: Zielgruppensegmente hinterlegen
Mit Remarketing wollen Sie in der Regel nur Ihre ehemaligen Websitebesucher ansprechen. Um dies zu gewährleisten, sind zwei Einstellungen zu beachten – was in Folge natürlich zu einem Rückgang der Impressions führen kann. So muss die voreingestellte Auswahl Beobachtung in Ausrichtung geändert werden (siehe Abbildung 09). Denn nur so werden ausschließlich die Ex-Besucher angesprochen. Zudem müssen Targeting Expansions wie etwa die optimierte Ausrichtung oder die Ausweitung der Ausrichtung (Zielgruppenerweiterung) deaktiviert werden. Denn mit diesen Einstellungen werden automatisch weitere Nutzer angesprochen, die Ihr Kampagnenziel nach Einschätzung von Google erreichen werden bzw. Ihren ursprünglichen Nutzern ähneln. Was auch immer Google macht und wie auch immer Sie die Qualität beurteilen: Dies sind keine ehemaligen Besucher Ihrer Website und damit keine legitimen Mitglieder einer Remarketingliste. Deaktivieren lassen Sie sich auf Anzeigengruppenebene unter Einstellungen.
Fazit
Standalone-Remarketing-Kampagnen haben mittlerweile einen schweren Stand, da sie von Smart-Kampagnen wie Smart Shopping oder Smart Display bereits abgedeckt und in Bezug auf ihren Erfolg dadurch natürlich beeinflusst werden. Zudem arbeitet Remarketing mit Third-Party-Cookies, was für diverse Schwierigkeiten mit diversen Browsern sorgt – etwa, dass diese Art der Cookies bei Safari oder Firefox bereits abgelehnt wird.
Trotzdem kann Remarketing noch immer ein lohnender Kampagnentyp sein und sollte in Ads-Accounts mindestens getestet werden. Häufig sind ehemalige Besucher qualitativ hochwertiger und näher an der Conversion als User, die Ihre Website noch nicht besucht haben. Ihr Potenzial sind alle Besucher, die nicht konvertiert haben – leicht zu errechnen, wenn Sie sich Ihre aktuelle Conversion-Rate ansehen. Zudem ist es in immer komplexeren Entscheidungsprozessen wichtig, User an mehreren Touchpoints anzusprechen und mit der dann richtigen Anzeige zu konfrontieren.
Ignoriert Google deine Meta-Description?
Ignoriert Google deine Meta-Description? Wie du Abweichungen identifizierst und Optimierungspotenziale aufdeckst – websiteboosting.com
Jaja, die Meta-Description. Dieser kurze Text wird von vielen Seiten entweder gar nicht definiert oder mit irgendetwas wenig Relevantem befüllt. Ganz nach dem Motto: Die sieht man doch eh nicht, warum also Zeit dafür investieren? Dieser fehlende Optimierungswille trifft nicht auf dich zu? Du…
Wie du Abweichungen identifizierst und Optimierungspotenziale aufdeckst
Jaja, die Meta-Description. Dieser kurze Text wird von vielen Seiten entweder gar nicht definiert oder mit irgendetwas wenig Relevantem befüllt. Ganz nach dem Motto: Die sieht man doch eh nicht, warum also Zeit dafür investieren? Dieser fehlende Optimierungswille trifft nicht auf dich zu? Du optimierst die Meta-Description deiner wichtigsten Seiten bereits? Das ist erfreulich zu hören! Doch prüfst du auch, ob Google deine Meta-Description wie gewünscht anzeigt? Als Fortsetzung des Artikels von Mario Fischer in der letzten Ausgabe 69 erfährst du in diesem Artikel, wie du die aktuell von Google angezeigte Meta-Description herausfindest.
Ein gutes Ranking für häufig gesuchte Keywords ist nur der erste Schritt, denn noch ist der Nutzer nicht auf der eigenen Website. Und die gewünschte Aktion, ob Anmeldung zum Newsletter, Kauf eines Produkts oder der Klick auf eine Werbeanzeige, ist schon mal gar nicht passiert. Entsprechend ist es definitiv zu früh, den (vermeintlichen) Erfolg zu feiern. Und was man nicht aus den Augen lassen sollte: Für den Großteil der Suchanfragen, besonders mit kommerzieller Intention, ist es egal, ob der Nutzer sich für Ergebnis 1 oder 6 entscheidet – vermutlich findet er dort dieselben oder ähnliche Produkte zu ähnlichen Preisen – und häufig mit vergleichbar ausbaufähigem Service. Doch das ist noch mal ein komplett anderes Thema.
Durch die Onpage-Optimierung wird der Grundstein für ein gutes Ranking gelegt, doch erst durch eine wie auch immer definierte Konversion wird aus einem Website-Besuch ein (finanzieller) Wert generiert. Damit diese Konversion überhaupt stattfinden kann, muss sich der Suchendende für einen Besuch deiner Website entscheiden.
Einen deutlichen Einfluss auf die Klickrate hat neben der Position (oder auch dem Pixelrank, siehe Ausgabe 69) natürlich auch das sogenannte SERP-Snippet, in der Regel bestehend aus der Adresse, einem Titel und einem Beschreibungstext. Wer denkt, dass Google hier stets auf den Seitentitel und die Meta-Description der angezeigten Seite zurückgreift, der täuscht sich. Das macht Google selbst dann nicht zuverlässig, wenn die Texte von der Länge her problemlos dargestellt werden könnten und zur Suchanfrage passen.
Identische Einstiegsseite, viele Beschreibungstexte – der Beschreibungstext ist von der Suchanfrage abhängig
Den ersten Schock verdaut? Dann direkt eine weitere Schockwelle hinterher: Es ist nicht mal der Fall, dass Google für dieselbe Seite immer dasselbe Snippet verwendet!
Schon eine kleine Anpassung der Suchanfrage kann dazu führen, dass Google für die exakt identische Adresse einen anderen Vorschautext anzeigt. Wirf dazu einen Blick auf Abbildung 1 – die Reihenfolge der Wörter wurde in der Suchanfrage von „online Englisch lernen“ zu „Englisch online lernen“ verändert, was bei dem orange beziehungsweise blau umrandeten Suchtreffer zu einem veränderten Beschreibungstext führt.
Abbildung 1: Bei den umrandeten Seiten zeigt Google für die nur etwas veränderte Suchanfrage einen anderen Vorschautext; beim blau umrandeten Ergebnis wird zumindest links der Text der Meta-Description angezeigt
Die orange umrandete Seite verwendet als Meta-Description aktuell: „Verbessere dein Englisch schnell und einfach in nur 10 Minuten am Tag mit unterhaltsamen Onlinekursen, die auf deine Bedürfnisse zugeschnitten sind.“ Vermutlich, weil die Suchanfragen in der hinterlegten Description nicht vorhanden sind, wählt Google einen Seitenausschnitt als Beschreibungstext aus. Beim blau umrandeten Suchtreffer wird zumindest für die links gezeigte Suchanfrage „online Englisch lernen“ die Meta-Description wie gewünscht dargestellt.
Ein Blick in ein SEO-Tool wie SISTRIX zeigt, dass die Meta-Description der orange umrandeten Seite insgesamt nicht ideal gestaltet ist. Denn das Thema der Seite wird von Nutzern besonders häufig in den Suchanfragen „Englisch lernen“ beziehungsweise „Englisch lernen online“ ausgedrückt. Im Seitentitel wird die aus drei Wörtern bestehende Suchanfrage noch exakt wie gesucht hinterlegt, in der Meta-Description ist der Term „lernen“ allerdings gar nicht enthalten. Auch „online“ ist nur als Teil von „Onlinekursen“ zu finden. Hier handelt es sich also um ein Snippet, das besser auf die Hauptsuchanfragen abgestimmt werden sollte!
Abbildung 2: Anhand des Suchvolumens sind „Englisch lernen“ und „Englisch lernen online“ die wichtigsten exakt auf die Seite passenden Suchanfragen; die einzelnen Wörter der beiden Suchanfragen kommen allerdings nicht in der Meta-Description vor
Wie du von Google umgeschriebene Meta-Descriptions findest
Gut, Google ignoriert also von Zeit zu Zeit die hinterlegte Description und zeigt je nach Suchanfrage für die exakt identische Einstiegsseite ein unterschiedliches SERP-Snippet an. Das muss nicht schlecht sein, da sich die Klickrate durch den von Google gezeigten Text verbessern kann. Doch das gilt es herauszufinden.
Wer (wieder) die Kontrolle über die Meta-Descriptions (der wichtigsten Seiten) übernehmen will, der kommt um eine Detailanalyse und anschließende Anpassung des Beschreibungstexts nicht herum. Zunächst einmal steht deshalb eine Bestandsaufnahme auf dem Aufgabenzettel. Die meisten SEO-Tools zeigen in der Standardansicht nur die aktuelle Position für ein Suchergebnis an, allerdings nicht, wie das für die Suchanfrage angezeigte SERP-Snippet aussieht. Mal werden die Daten gar nicht erhoben und mal sind diese Infos in separaten Funktionen zu finden.
Doch der Reihe nach! Denn auch ohne ein kostenpflichtiges SEO-Tool lässt sich das Snippet mit wenig Aufwand ermitteln. Lass uns mit der folgenden Anleitung schauen, wie der Status quo deiner Snippets erhoben werden kann.
Schritt 1: Die wichtigsten Suchanfragen identifizieren
Ein kurzer Blick in die Google Search Console (kurz: GSC) zeigt bereits, dass sowohl einzelne Suchanfragen als auch einzelne Einstiegsseiten für den Großteil der Zugriffe über die unbezahlte Google-Suche sorgen. Es empfiehlt sich also, die wichtigsten Suchanfragen der trafficstärksten Seiten einer näheren Prüfung hinsichtlich des angezeigten SERP-Snippets zu unterziehen.
In der GSC lässt sich die Kombination aus Suchanfrage und Einstiegsseite nicht direkt über mehrere Seiten hinweg abfragen. Hierfür wird am besten die Google Search Console API verwendet. Ein kostenfreies Tool zur Abfrage der Daten über die GSC-API in der Kombination aus Suchanfrage und Einstiegsseite ist Search Analytics for Sheets (https://searchanalyticsforsheets.com/).
Liegen die Daten in der gewünschten Konfiguration vor, markierst du am besten die drei bis fünf wichtigsten Suchanfragen für deine wichtigsten Seiten – idealerweise Non-Brand, da Suchanfragen mit deinem Markennamen darauf schließen lassen, dass der Nutzer sowieso zu dir kommen möchte. Deshalb ist es hier nicht von gesteigerter Relevanz, wie das Snippet aussieht.
Wenn du ohne die GSC-API arbeiten möchtest, dann setze den URL-Filter in der Google Search Console und schaue dir die Suchanfragen an. Denn dann siehst du nur die Suchanfragen, die zur definierten Adresse gehören.
Schritt 2: Das angezeigte SERP-Snippet erheben
Mit der Liste deiner wichtigsten Suchanfragen zur Hand geht es nun darum, dein aktuelles SERP-Snippet für diese Suchanfragen zu erheben. Um an diese Daten zu gelangen, gibt es unterschiedliche Möglichkeiten – ich stelle dir drei Optionen vor.
Option 1: Manuelle Abfrage des SERP-Snippets mit dem SERP Snippet Scraper
Wer selbst einen Blick auf die Suchergebnisse wirft, der bekommt einen umfangreichen Überblick über die aktuell von Google angezeigten Seiten und SERP-Features. Zudem liefert dir die Suchergebnisseite unter Umständen neue Keyword-Ideen – von daher hat die manuelle Abfrage einige Vorteile.
Den angezeigten Titel und Beschreibungstext manuell zu kopieren ist mühselig. Deshalb habe ich das kostenlose Browser-Plug-in „SERP Snippet Scraper by searchanalyzer“ (https://www.searchanalyzer.de/serp-snippet-scraper/) für Chrome und Firefox herausgebracht. Nachdem das Plug-in aktiviert ist, kann durch einen Klick auf das Plug-in-Logo das angezeigte Snippet aller (normalen) organischen Ergebnisse ausgelesen werden. Die Daten werden in die Zwischenablage kopiert und können anschließend z. B. in Microsoft Excel oder ähnlich eingefügt werden. Wenn du die extrahierten Snippet-Daten auf deine Domain einschränkst, dann siehst du sehr schnell, wie die Snippets deiner Seiten für die abgefragten Suchanfragen aussehen.
Wer den gerade definierten Seitentitel sowie die Description der eigenen Seiten nicht im Kopf hat, der kann diese Daten z. B. per Crawler oder per Scraping abfragen und damit die vom Plug-in extrahierten Daten anreichern. Wie das z. B. mit Google Sheets einfach geht, dazu gleich mehr!
Option 2: Automatische Abfrage des SERP-Snippets mit dem RankTank Keyword Position Tool
Mit Google Sheets lassen sich, wie bereits anhand von Search Analytics for Sheets zu sehen, erstaunliche Dinge umsetzen. So bietet ranktank.org ein Tool an, mit dem die aktuelle Position einer Website für unterschiedliche Suchanfragen abgefragt werden kann.
Eine Kopie des Tools kann kostenfrei unter www.ranktank.org/free-keyword-position-rank-checker-tool/ bezogen werden (am besten etwas runterscrollen, der Link zur Datei wird nämlich auch ohne Newsletter-Anmeldung angezeigt). Einfach die gewünschte Konfiguration im Tool vornehmen und schon wird nicht nur das Ranking, sondern auch der angezeigte Titel und Beschreibungstext des eigenen Ergebnisses angezeigt. Bis zu 1.000 Abfragen sind pro Monat komplett kostenfrei mit dem Tool möglich.
Abbildung 3: Mit dem „Keyword Position Tracker“ von RankTank kann für mehrere Keywords das angezeigte Snippet abgefragt werden
Eventuell erinnerst du dich an meinen Artikel über das Scraping von Seitentitel und Co. in der Ausgabe 61 der Website Boosting. Da Google Sheets mit =IMPORTXML(URL;“xpath“) eine sehr einfache Möglichkeit bietet, diverse Daten aus Webseiten auszulesen, kann der Nutzerwert des Tools noch erweitert werden. Dazu werden einfach zwei weitere Spalten hinzugefügt und über die beiden Formeln
wird der Seitentitel bzw. die aktuelle Meta-Description abgefragt. Damit das funktioniert, muss natürlich in Zelle F11 die für die Suchanfrage angezeigte Adresse stehen. Es funktioniert etwas nicht? Dann liegt das vermutlich an deiner Spracheinstellung in Google Sheets. Je nach Sprache wird zur Trennung von Angaben in der Formel entweder ein Komma oder ein Semikolon verwendet.
Excel-Ninjas und alle, die es werden wollen, können mit weiteren Formeln die Daten nochmals erweitern. So lässt sich der Inhalt zwischen der angezeigten Meta-Description und der per IMPORTXML ausgelesenen Description miteinander vergleichen. Am einfachsten geht das mit =ZELLE1=ZELLE2 – stimmt der Wert überein, dann gibt Excel ein WAHR zurück. Da die hinterlegte Meta-Description allerdings für die vollständige Anzeige in den Suchergebnissen zu lang sein kann, lässt sich der zu vergleichende Text vorher einkürzen. Mit =LINKS(ZELLE1;30)=LINKS(ZELLE2;30) werden z. B. nur die ersten 30 Zeichen miteinander vergleichen. Anstatt ZELLE1 muss in der Formel z. B. N11 stehen – denn das ist die Zelle, in der standardmäßig der Beschreibungstext des Suchtreffers für das erste Keyword zu finden ist.
Wenn du die mit meinem Plug-in extrahierten Daten in Google Sheets einfügst, dann steht die Adresse des Suchtreffers standardmäßig in Spalte C. Rankst du auf Platz 1 für die Suchanfrage, dann kannst du mit =IMPORTXML(C1,“//title“) den Seitentitel in Google Sheets integrieren.
Option 3: SERP-Snippet-Informationen mit SISTRIX analysieren
SISTRIX erhebt nicht nur Ranking-Positionen, sondern zudem das angezeigte SERP-Snippet. Diese Daten stellt SISTRIX unter SERPS => SERP-Snippets zur Verfügung. Dank der Gegenüberstellung von URL und Keyword ist es schnell möglich, die Relevanz des angezeigten Snippets zu bewerten. Doch nicht nur das – da Google, ähnlich zur vorgestellten Option 1, einen Blick auf die SERP-Features erlaubt, ergeben sich über diese Daten häufig weitere Optimierungspotenziale. Zeigt Google z. B. regelmäßig Bilder an, dann ist Bilder-SEO für die Website wichtig.
Abbildung 4: Mit SISTRIX lassen sich die gerade angezeigten SERP-Snippets analysieren
Wie von SISTRIX gewohnt, lassen sich die Daten umfangreich filtern, z. B. nach einer einzelnen Adresse oder einem Mindest-Suchvolumen. Hilfreich sind zudem die Filter für gekürzte Snippets. Hiermit lassen sich schnell Seitentitel oder Beschreibungstexte finden, die von Google mit „…“ eingekürzt wurden.
Da in dieser Funktion nicht der im Quelltext hinterlegte Titel sowie der Beschreibungstext sichtbar sind, ist ein Blick auf die Funktion „Compare Snippets“ (bzw. „Snippet-Vergleich“) empfehlenswert. Hier zeigt SISTRIX den aus der Webseite extrahierten Seitentitel und die Meta-Description im Vergleich zu den SERP-Snippets der Seite für unterschiedliche Suchanfragen an.
Schritt 3: Meta-Description optimieren und den Erfolg prüfen
Alle drei vorgestellten Optionen bieten eine einfache Möglichkeit, um das aktuell angezeigte SERP-Snippet zu erheben und anhand dieser Daten Optimierungspotenziale zu identifizieren. Nun heißt es, mit diesen Daten zu arbeiten und die Beschreibungstexte wo nötig weiter zu optimieren.
Inwieweit die Optimierungen zu mehr Besuchern führen, kann mit der Google Search Console nachverfolgt werden, da hier die Klickrate zu sehen ist. In der Regel sind die in den Suchergebnissen angezeigten Ergebnistypen (z. B. News, Bilder, …) stabil, weshalb die Daten über einen längeren Zeitraum hinweg vergleichbar sind.
Es empfiehlt sich dringend, den Länder-Filter zu nutzen und hier das wichtigste Land auszuwählen, da die Search Console ansonsten einen globalen Durchschnittswert zeigt. Da kann ein Ranking auf einer niedrigen Position in einem weniger wichtigen Land schnell den Wert zerschießen.
Und wenn wir schon beim Filtern sind: Wenn der Großteil deiner Zugriffe über Mobilgeräte stattfindet, dann solltest du vor allem auf das Snippet in den Suchergebnissen für Mobilgeräte achten und optimieren. Denn hier gelten nochmals andere Längenbegrenzungen und das Snippet kann sich zwischen Desktop und Mobile deutlich unterscheiden – ganz zu schweigen von den angezeigten SERP-Features und der „wirklichen“ Ergebnisposition (Stichwort: Pixelrank).
An deinem Computer kannst du die Ergebnisse für Mobilgeräte sehen, wenn du deinen sogenannten User-Agent änderst. Im Chrome Browser geht das ganz einfach: Klicke auf deiner Tastatur F12 und wähle anschließend neben „Elements“ das Icon für unterschiedliche Geräte (englisch: Devices) an. Dieses Menü lässt sich alternativ nach dem Öffnen der Chrome DevTools über die Tastenkombination STRG + Shift + M aufrufen (auf Mac entsprechend CMD + Shift + M). Oberhalb der aufgerufenen Website kann anschließend der User-Agent geändert werden. Alternativ lässt sich der User-Agent in unterschiedlichen Browsern über Plug-ins anpassen.
Abbildung 5: Nach dem Aufruf des Chrome DevTools mittels F12 lässt sich durch einen Klick auf das Symbol links von „Elements“ der User-Agent im Chrome-Browser auf ein anderes Gerät ändern – die vordefinierten User-Agents stehen im Dropdown oberhalb der Website zur Verfügung (aktuell bei mir auf „Responsive“ eingestellt)
Doch zurück zur Optimierung der Meta-Description: Du siehst, dass die Optimierung nichts ist, was einfach mal so nebenbei stattfindet. Der Artikel von Mario Fischer in der letzten Ausgabe und dieser hier bieten dir eine super Anleitung, wie du die Meta-Description verbessern kannst.
Und die Kontrolle des eigenen Snippets wurde gerade noch wichtiger, da Google seit Mitte August auch den Seitentitel häufiger umschreibt (siehe einfach.st/updatetitle). SISTRIX war hier wieder sehr schnell und bietet einen Filter innerhalb von „SERP-Snippets“ an, um geänderte Seitentitel anzuzeigen. Mach dich also an die Arbeit und analysiere sowie optimiere deine Snippets!
Die Description – einfach unbeschreiblich?
Die Description – einfach unbeschreiblich? SEO für Einsteiger – Teil 2 – websiteboosting.com
Aufgrund vieler Anfragen und Anregungen unserer Leser starteten wir in der letzten Ausgabe erneut eine kleine Serie mit SEO-Basics für Einsteiger und motiviert Fortgeschrittene. In diesem ersten Teil ging es ausführlich um das Title-Element. Bereits da, weil fast untrennbar miteinander verbunden,…
Neue Serie: SEO für Einsteiger – Teil 2
Aufgrund vieler Anfragen und Anregungen unserer Leser starteten wir in der letzten Ausgabe erneut eine kleine Serie mit SEO-Basics für Einsteiger und motiviert Fortgeschrittene. In diesem ersten Teil ging es ausführlich um das Title-Element. Bereits da, weil fast untrennbar miteinander verbunden, wurde das Meta-Tag „Description“ erwähnt. Zusammen mit dem Title ist es für die Klickentscheidung von Suchenden essenziell, da diese immer zusammen mit anderen Ergebnissen nur diese wenigen Textteilchen sehen. Gelingt es genau an dieser Stelle nicht, zu überzeugen, nützt die investierte Arbeit in alles andere bei der Suchmaschinenoptimierung ziemlich wenig. Ohne Traffic bringen gute Positionen beim Ranking keinen Umsatz oder Anfragen. Wer sich mit SEO zumindest schon rudimentär auskennt, der wird vielleicht zu Recht einwenden, dass die Einträge im Meta-Tag Description überhaupt nicht rankingrelevant sind. Das ist richtig. Lesen Sie hier, warum der in der „Desc“ hinterlegte Text trotzdem eines der wichtigsten Elemente einer guten Optimierung darstellt.
You never get a second chance to make a first impression! Der frühere Werbespruch für Schuppenshampoo gilt auch und oft ganz besonders für die Suchmaschinenoptimierung. Rankt eine Ihrer URLs bei Google, wird bis auf sehr wenige Ausnahme direkt das Title-Element ausgegeben und meist, aber beileibe nicht immer, darunter zwei Zeilen der Description. Wer an dieser Stelle nicht textlich überzeugt, verpasst den Klick. Erweisen sich ein oder zwei Ergebnisse darüber oder auch darunter als gute Eyecatcher, ist die Chance auf einen Klick und damit einen Besucher und potenziellen Käufer dahin. No second chance. Was bereits in der ersten Folge an dieser Stelle gesagt wurde, muss hier in jedem Fall nochmals in aller Deutlichkeit wiederholt werden: Das Texten von Titel und Desc darf man nicht einem Praktikanten überlassen. Das ist „Chefsache“, wie sich viele Experten einig sind. Das meint natürlich nicht, dass der CEO diese Texte schreibt – sondern der mit der meisten Online-Erfahrung am Tisch und nicht die günstigste Arbeitskraft. Schaut man kritisch in die Suchergebnisse bei Google, scheint dies bei gefühlt mindestens der Hälfte der Unternehmen noch nicht bekannt zu sein. Am liebsten lässt man die Beschreibungen automatisiert oder aus Textfitzeln des Contents erstellen. Bei einem Beratungsprojekt meinte der Leiter der Online-Abteilung, die Mitarbeiter hätten mit dem Erstellen des Contents schon genügend zu tun. Erst beim Hinweis bzw. der Frage, dass da jemand für eine Seite fast 2.000 Wörter verfasst, dann aber keine Zeit hätte, zwei vernünftige Zeilen zu texten, kam er ins Grübeln. Seither hat man dort deutlich bessere Snippets und die Klickrate hat sich bezogen auf die Rankingposition innerhalb weniger Monate im Schnitt fast verdoppelt. Zwei Zeilen, doppelte Umsatzchance – kein schlechtes Investment, oder?
<meta name="description" content="Hier steht ein guter Text, der den Inhalt einer einzelnen Seite möglichst passend beschreibt!" />
Descriptions unter der Lupe – werden Sie zum Experten
Sehen Sie sich doch einfach mal die Beispiele in Abbildung 1 genauer an. An der Mischung der Ergebnisse lässt sich gut ablesen, dass Google sich nicht sicher ist über die Suchabsicht. Möchte man vergleichen, wenn man „Schuppenshampoo“ eingibt, oder möchte man kaufen? Die ersten beiden Ergebnisse zeigen Vergleiche an (Ziffer 1 und 2). Wo würden Sie klicken? Auf das Ergebnis von Ökotest, wo in der Description bereits Marken genannt werden, oder auf das Ergebnis vom Stern, der mit Haken, Pfeilen und einem gelben Sternchen sichtlich um Aufmerksamkeit buhlt? Es fällt zumindest auf, dass die erste Zeile der Description inhaltlich mit dem Title übereinstimmt. Hier wird also wertvoller Platz verschenkt. Gut ist hingegen sicher der Hinweis auf Vor- und Nachteile sowie die direkte Aufforderung, jetzt zu lesen.
Beim Ranking 3 und 4 handelt es sich offenbar um einen Rankingunfall. Die Ergebnisse sind fast identisch und hätten so eigentlich hier nichts zu suchen. Zumindest nicht (fast) doppelt. Das Ergebnis 4 hat als des Rätsels Lösung den Zusatz „Frauen“ und damit eine andere Landingpage. Google hat immer wieder erklärt, sie wollen keine Suchergebnisse anderer Suchmaschinen als Ergebnis listen. Dass es sich bei der Amazon-Produktsuche natürlich auch um eine Suchmaschine handelt, sogar um eine der besten, hat man offenbar nach 20 Jahren noch immer nicht bemerkt bei Google. Oder – und das erscheint viel wahrscheinlicher – die Amazon-Domain hat eine algorithmisch bei Google derart starke Autorität, dass hinterlegte Regeln wie „nimm keine Suchergebnisse anderer als eigene Suchergebnisse“ davon ausgehebelt werden. Möglicherweise kam auch bei Tests heraus, dass auf solche Amazon-eigenen Suchergebnisse überproportional oft geklickt wird, weil die Suchenden diese mögen.
Interessant ist wieder das Snippet 5. Dort kommt ein scheinbar völlig unpassender Text in der zweiten Zeile der Description. „Wir danken für Ihre Anfrage…“ – solche Texte wirken natürlich völlig deplatziert. Was der Grund dafür sein könnte, dazu später mehr. Im Snippet 6 von Friseurverband.com findet man eine seltsam unverständliche Aufzählung von Wörtern: „Instant Clear Anti Schuppenshampoo Loreal Profi Friseurshampoo Instant Clear Shampoo.“ Noch viel schlimmer wirkt: „Ideal zum Entfernen der Kopfhaut von …“ Wer mag sich schon gerne die Kopfhaut entfernen lassen, da kommen schlimme Bilder aus alten Westernfilmen ins Kopfkino. Der Grund ist auch hier die Entscheidung von Google, eben nicht die hinterlegte Description im <head> der Seite zu verwenden. Auch dazu später mehr. Wie finden Sie die letzten drei Snippets? Würden Sie dort klicken? Und warum bzw. warum nicht? Je kritischer Sie sich solche Textschnipsel ansehen, desto mehr lernen Sie. Ein häufiger Fehler liegt darin begründet, dass man sich immer die eigenen Snippets ansieht – und die dann meist als schon o. k. empfindet. Wenn Sie häufiger mal andere Ergebnisse wirklich mit der kritischen Lupe betrachten, lernen Sie am meisten! Hören Sie dabei immer in sich hinein und fragen Sie sich, was Ihnen genau ge- oder missfällt! Sie werden merken, dass Sie nicht nur in kürzester Zeit zum Experten werden, sondern ab dann werden Sie auch Ihre eigenen Ergebnistexte mit anderen Augen sehen und mühelos wertvolles Optimierungspotenzial heben.
Abbildung 1: Beispielhafte Suchtreffer für Schuppenshampoo bei Google
Ja, die Description ist nicht rankingrelevant!
Google sagt selbst, dass die Einträge in der Description nicht für die Berechnung des Rankings herangezogen werden. Das haben auch über die Jahre hinweg praktisch alle Tests gezeigt. Die Bedeutung liegt aber nicht nur in der Überzeugung der Suchenden, die wegen eines guten Textes klicken, sondern in der wahrscheinlichen Messung von Google, ob und wie oft bezogen auf die Position eines Ergebnisses sie das tun. Mit anderen Worten liefert ein schlechter Text eine schlechte Performance und Google kann oder könnte potenziell erkennen, dass algorithmisch dieses Ergebnis zwar genau an diese Position „hingerechnet“ wurde, die Suchenden es aber ganz offensichtlich nicht mögen, weil sie nicht daraufklicken. Umgekehrt wäre eine Klickrate von 50 % auf ein Ergebnis auf Platz 3 zumindest statistisch sicherlich deutlich über den Erwartungen und eine Belohnung im Ranking wert? Zeigen nicht die Klicks deutlich, dass die Menschen das besser finden, als die Algorithmen „gedacht“ haben?
Google wird nicht müde, in allen Kanälen zu verneinen, dass die Klickrate für Rankingkorrekturen verwendet würde. Verschiedene (nicht eindeutig valide) Tests haben allerdings gegenteilige Wirkungen gezeigt.
„Ohne Rankingrelevanz bringt eine Optimierung doch gar nichts?“
Auch im (teils geschwärzten) Staff-Memorandum, Filenr. 111.0163, das versehentlich von der amerikanischen FTC an das Wall Street Journal freigegeben wurde und das Website Boosting vorliegt, heißt es auf Seite 12: „… The Ranking itself ist affected by the click data …“, auf Seite 16: „Google tracks user click-through rates (and relies on such click-through data to improve its web search results in a number of ways“, sowie auf Seite 82 „… based on the crawled text, the pages are rated using such factors as click-through rates …“. In dem US-Patent US9727653B2 vom 8. August 2017 (http://einfach.st/patents553) beschreibt Google ein „System and Method for indentifying and ranking user preferences“.
Andererseits haben bekannte und bedeutende Googler wie John Müller oder Paul Haar immer wieder darauf hingewiesen, dass die CTR zu „noisy“ wäre, also zu viel Rauschen in den Daten hätte. Gary Illyes hat eine diesbezügliche Aussage von Rand Fiskhin sogar als „made up crap“ bezeichnet (http://einfach.st/garycrap). Einen eindeutigen Beweis gibt es also nicht, unter Experten gilt die Verwendung allerdings als trotzdem wahrscheinlich. Politisch wäre es auch sehr schwierig für Google, vor einer breiten Öffentlichkeit zuzugeben, dass man die Userklicks aufzeichnet. Man bekommt dort ja schließlich schon genug von den Medien ab, was das Datensammeln angeht. Online-Marketers würden sich nicht über so ein Vorgehen wundern, schließlich geht es im Ziel um das Erkennen von Verbesserungspotenzial, was den Suchenden zugutekäme. Aber alle ohne Kenntnisse aus dem Online-Business würden sich erneut, aufgeheizt durch bestimmte Medien, überwacht fühlen.
„Wenn Klicks zählen, klauen wir sie einfach.“
Und noch ein letzter, aber vielleicht wichtigster Punkt, weswegen Google gar nicht zugeben sollte oder dürfte, dass die Klicks tatsächlich Auswirkungen hätten. Die Spammer fänden sofort technische Möglichkeiten, künstliche Klicks auf deren Suchtreffer zu generieren. Stumpfe Klickbots kann Google zwar erkennen und diese Signale separieren, aber gegen bewusst böse gestaltete Browser-Plug-ins, die im Hintergrund und ohne Wissen des Nutzers unsichtbar Suchergebnisse und Klicks auslösen, wäre wenig Kraut gewachsen. Und in der Tat soll es dem Vernehmen nach einige Unternehmen geben, die sich auf derartige Weise Traffic verschaffen. Dieser ist zwar nichts wert, aber ahnungslose Chefs, die für Traffic Provisionen zahlen, kann man damit allemal über den Tisch ziehen. Ein osteuropäisches Unternehmen hat Gerüchten zufolge mittels Bestechung sogar geschafft, sog. Rootkits in Neugeräte eines deutschen Mobilfunkproviders einzusetzen, die fernsteuerbar im Hintergrund still „surfen“ und somit Traffic von „echten“ Nutzern erzeugen. Solche Betrügereien sind für Google sicherlich sehr schwer auszufiltern, wenn sie gut und ohne auffällige Muster gemacht werden.
Abbildung 2: Also doch? Ausschnitt aus dem versehentlich freigegebenen FTC-Staff-Memorandum vom 08.08.2012, S. 14
Wie lange oder wie kurz sollte die optimale Description sein?
Darüber herrscht bunte Verwirrung im Netz und dass SEO-Agentur A für ihr „Glossar“ von SEO-Agentur B abschreibt, die ihren Content wiederum von Agentur C für sich „umgeschrieben“ hat, macht es nicht besser. Die meisten Quellen gehen davon aus, dass man etwa 160 Zeichen oder 500 Pixel Raum zur Verfügung hat. Der Toolanbieter SISTRIX nennt allerdings 990 Pixel für Desktop und 1.300 Pixel für die Anzeige auf Smartphones.
Google selbst sagt, es gebe keine vorgeschriebene Länge und je nach Endgerät werde ein Text abgeschnitten, falls er nicht mehr angezeigt werden könne (Abbildung 3 und Abbildung 4). Da man auch nicht weiß, welche Anzeigegeräte in Zukunft verwendet werden, geht man am besten pragmatisch vor und schreibt die wichtigen Dinge vorne in die Description. Die Warnungen vieler SEO-Tools, dass soundso viel Description „zu lang“ sei, muss man unter dem Verständnis „zu lang für eine komplette Anzeige“ sehen. Keinesfalls ist hier dringender Handlungsbedarf, die Texte gar einzukürzen. Sofern der Grundsatz eingehalten wurde: Wichtiges vorne.
Abbildung 3: John Müller auf Twitter: Es gibt kein Limit bei der Desc-LängeAbbildung 4: Danny Sullivan von Google bestätigt 2018 erneut, dass es keine definierte Länge gibtAbbildung 5: Suchbegriffe werden in der Description fett und damit optisch hervorgehen dargestellt
Immer wieder fallen Snippets auf, die mit farbigen Sonderzeichen hervorstechen. Wer so etwas verwenden möchte, kopiert sich am besten den entsprechenden Quellcode bzw. die Symbole aus einer in der Suche so angezeigten Seite heraus. So ist man sicher, dass genau das auch angezeigt werden kann. Google heißt solche optischen Eskapaden nicht gut und entfernt sie regelmäßig immer wieder, vor allem dann, wenn zu heftiger Gebrauch davon gemacht wird.
Warum wird die hinterlegte Description von Google nicht immer verwendet?
Wie oben bereits erwähnt, spielt Google nicht immer die explizit hinterlegte Description aus dem <head> einer Seite aus. Hierfür gibt es mehrere Gründe:
Der von Suchenden eingegebene Begriff oder die Begriffe finden sich nicht in der Description. In diesem Fall nimmt Google Text direkt aus dem Content der Seite, wo die Suchbegriffe (algorithmisch gesehen) prominent auftauchen. Das führt dann zu den bekannten, zusammengestückelt wirkenden Texten. In Abbildung 1, Ziffern 5 und 6 ist das als Beispiel zu sehen.
Google misstraut den Inhalten, weil sie z. B. 1:1-Kopien des Titels oder einer Überschrift (Hx), reine Aufzählungen mit oder ohne Komma getrennt oder sprachlich „auffällig“ sind. Ebenso ist es möglich, dass die Domain als Ganzes ein gewisses Misstrauen genießt – wobei man sie dann in der Regel nicht beim normalen Ranking zu sehen bekommt.
Google testet mal wieder.
Es gibt einen Erkennungsfehler, d. h., die Algorithmen kommen durcheinander.
Der letzte Punkt 4, also eine Fehlererkennung, könnte beim Suchergebnis der Domain friseurversand.com aus Abbildung 1 passiert sein. Dort ist im <head> des Quelltexts hinterlegt:
<meta name="description" content="Hier finden Sie Schuppenshampoos welche Haarschuppen teilweise sehr effektiv bekämpfen können. Von Herstellern wie Goldwell – Loreal – Wella – Schwarzkopf."/>
Ausgespielt im Ergebnis-Snippet wird aber der Text aus der folgenden Passage des Quelltexts:
<div class="product--description"> Instant Clear Anti Schuppenshampoo Loreal Profi Friseurshampoo Instant Clear Shampoo für normales bis fettiges Haar. Ideal zum Entfernen der Kopfhaut von Schuppen …
Gut möglich, dass Google die „product-description“ vorzieht oder missinterpretiert.
Bei test.de hat sich Google dagegen entschieden, den Text aus einer (fälschlich eingesetzten) H4-Überschrift anzuzeigen (Abbildung 8). Korrekt hinterlegt ist:
<meta name="description" lang="de" content="Wenn ständig feine Schuppen vom Kopf rieseln, ist das lästig. Ein unlösbares Problem ist es aber nicht, wie unser Test zeigt. Wir haben elf..." />
Sieht man sich den Content der Seite an (Abbildung 6), fällt sofort auf, dass hier mechanisch einfach der Artikeltext als Desc eingeschoben wurde. Google hat hier möglicherweise per Mustererkennung entdeckt, dass der Textangang wiederholt bzw. einfach kopiert wurde. Den ersten und zweiten Satz eines Artikels als zusammenfassende Beschreibung für den gesamten Artikel zu verwenden u wollen, ist sicherlich auch keine so gute Strategie.
„Wenn Google nicht die hinterlegte Desc anzeigt, ist oft ein wenig Detektivarbeit nötig.“
Abbildung 6: Darum mag Google die Desc von test.de wahrscheinlich nicht – der Inhalt ist einfach der Anfang des FließtextesAbbildung 7: Von dieser Stelle ist der Text für das Snippet aus Abbildung 1, Ziffer 6Abbildung 8: Und aus diesen H4-Elementen im Quelltext hat Google die Beschreibung extrahiert
Woher stammt dann der Text im Suchsnippet? Den hat Google von ganz unten auf der Seite aus dem ersten Kommentarfeld gezogen (Abbildung 7). Wie kommt so etwas zustande? Dazu braucht es etwas Detektivarbeit. Sieht man sich nämlich die Templates der Artikel auf test.de an, erkennt man eine missbräuchliche Verwendung bei den Überschriften. Wie Abbildung 9 ganz gut zeigt, wurde hier aus der Navigation bzw. den Navigationsbegriffen eine Überschrift gemacht, also einer Hx zugeordnet. Zur Erinnerung: Hx-Elemente sollen zur Strukturierung von individuellem Text eingesetzt werden und diesem eine sinnvolle Hierarchie geben. Man kann sie zwar auch wie hier zur Formatierung einsetzen, das ist auf den ersten Blick nicht weiter schlimm. Allerdings erschwert man damit natürlich Suchmaschinen die Erkennung der Textstruktur. Hier kommt mit aller Wahrscheinlichkeit zum Tragen, dass die in Abbildung 9 gezeigten Überschriften auf allen Seiten gleich oder fast gleich sind. Google rechnet sie somit nicht zum sog. Primary Content, sondern zur Boilerplate. Mit anderen Worten: Für Google sieht dieser Bereich so aus, als würde er auf allen oder vielen Seiten 1:1 so verwendet. Damit ist er kein unterscheidendes Merkmal mehr! Was sich aber ganz eindeutig unterscheidet von Seite zu Seite, sind …? Die Kommentare (Abbildung 8)! Diesen „uniquen“ Überschriftentext schnappt sich die Suchmaschine, hält ihn für – weil individuell – gut und gibt ihn als Beschreibung für die gesamte Seite aus. Das ist natürlich ein Fehler, aber für eine Maschine wohl nur folgerichtig bzw. nachvollziehbar. Rekapitulation: Die hinterlegte Desc ist ein kopierter Starttext aus dem Contentbereich, fast alle Überschriften sind auf allen Seiten nur knappe Stichworte und nahezu identisch – was soll ein Algorithmus da anderes verwenden als den erst besten Individualtext in bewusst ausgezeichneten (Unter-)Überschriften?
Das Beispiel zeigt, wie wichtig auch die Strukturhygiene ist und dass man gut daran tut, wenigstens die einfachsten Basics der Suchmaschinenoptimierung zu beachten. Der Stiftung Warentest kann das (wohl) egal sein, deren Domain ist so stark, dass sie meist weit oben mitspielt, wenn Google eine Vergleichsabsicht in Suchphrasen erahnt. Das ist auch richtig so, denn die Domain ist vertrauenswürdig und eine Institution genau dafür. Der Content rankt quasi „trotzdem“ gut.
Abbildung 9: Des „Desc“-Rätsels Lösung: Man hat aus Navigationsbegriffen Überschriften gemacht!
Wann ist es besser, keine Description zu hinterlegen?
Nicht immer ist es gut, eine klar definierte Description zu hinterlegen. Verfügt eine Seite über eine leere oder gar keine Anweisung im <head>, zieht sich Google die Suchphrase aus dem fließenden Text und baut eine eigene Beschreibung. Der Effekt wurde ja gerade oben gezeigt, wenn auch aus anderen Gründen.
Hat eine Seite wirklich sehr viele sog. Longtail-Treffer, rankt sie also für sehr viele Mehrwort-Kombinationen, kann es Sinn machen, das Meta-Tag Description tatsächlich wegzulassen. Das hat mit dem beschränkten Platz zu tun. Am einfachsten kann man sich das vorstellen z. B. für eine Badehose, die es auf der Zielseite in 20 Farben gibt. In der Description lassen sich allerdings nicht alle Farben unterbringen. Gibt ein Suchender jetzt „hellgrüne Badehose Herren“ ein, findet er möglicherweise einige Farbangaben im Ergebnis-Snippet, aber eben ausgerechnet nicht seine gesuchte Farbe – obwohl sie auf der Seite selbst verfügbar wäre. Der Klick unterbleibt.
Dieses Beispiel macht deutlich, dass keine (eigene) Beschreibung bei Seiten, die zu vielen Suchtreffern passen oder passen sollen, besser sein kann als eine falsche oder unvollständige. In solchen Fällen sollte man versuchen, mit einfachen A/B-Tests mehr Klarheit zu bekommen. Dazu löscht man die Desc aus der entsprechenden Seite und verändert ggf. noch sanft den Content, damit Google erkennt, dass sich auch im Text etwas verändert hat. Eine Änderung nur im „unsichtbaren“ Bereich einer Seite führt in der Regel nicht zu einer Neuindexierung. Will man ganz sichergehen, ruft man die Seite zum Rendern in der Search Console auf und zeigt Google damit den „neuen“ Content. Anschließend überwacht man Änderungen in der Klickrate. Steigt diese an – Achtung! Bei gleicher Position und gleichen Suchergebnissen (siehe den Titelbeitrag „Pixelrank“ in dieser Ausgabe) wird die von Google jetzt zusammengesuchte Beschreibung von den Suchenden besser angenommen als vorher die eigene. Da Google die Texte dynamisch auf die Suchphrase bezogen ausgibt, würde in dem Beispiel oben auch der Text mit „hellgrün“ im Snippet auftauchen, sofern er tatsächlich auf der Seite steht, was natürlich eine Voraussetzung ist.
Möchte man generell unterbinden, dass Google Beschreibungstext im Snippet ausgibt, kann man das über eine Anweisung tun. Der Eintrag im <head> dazu lautet:
<meta name="googlebot" content="nosnippet">
Es können auch unterschiedliche Bots angesteuert werden, wie hier der Newsbot von Google:
<meta name="googlebot-news" content="nosnippet">
Wenn eine Newseite also nicht möchte, dass Google vorausschauenden Text in der Suche anzeigt, könnte man das mit einer Zeile Code abstellen. Vermutlich weiß man aber genau, dass mit der dann übrigen Minimalanzeige keine Klicks und damit kein Traffic käme. Daher versucht man es eher auf dem Klageweg und möchte Geld von Google für diese Art der Vorschau, die eigentlich dem Suchenden die Klickentscheidung ermöglichen soll. Damit ist auch gleichzeitig die Frage beantwortet, ob es Sinn macht, das No-Snippet-Tag einzusetzen. Wohl eher nicht.
„You can prevent Google from generating snippets altogether by specifying the „nosnippet“ robots directive. There’s no way to prevent using page contents as snippet while allowing other sources“ (Gary Illyes, http://einfach.st/gary49).
Fazit
Das Snippet in den Suchergebnissen ist der erste Kontakt eines Suchenden zu Ihnen. Sie haben in der Regel drei Zeilen, eine für den Title und zwei für die Description, um jemanden zum Klick zu überzeugen. Verpassen Sie diese Chance, diesen Moment of truth nicht bzw. überlassen Sie ihn nicht dem Zufall oder dem Textgespür eines Amateurs. Sie können den einfachen Weg gehen und die Description automatisch von Ihrem System erzeugen lassen, weil es Ihnen zu viel Mühe macht, einen wirklich guten ersten Eindruck zu machen. Oder Sie gehen die Extrameile und machen einfach einmal ein paar ambitionierte Tests, um zu sehen, was Ihnen das wirklich bringt.