#FAKE – Warum wir auf Online-Fakes hereinfallen und wie wir uns (und unsere Lieben) davor schützen können

Unser Leben wir immer digitaler. Persönliche Kontakte, der Informationsaustausch, das Versorgen mit Dingen und auch mit Know-how findet zunehmend über die Bildschirme von Smartphones und Computern statt. Geht man in einen Laden, kann man erkennen, dass er echt ist. Spricht man mit einem Menschen von Gesicht zu Gesicht, weiß man ebenso, dass man es mit einer realen, echten Person zu tun hat. Versorgt man sich über Fernsehen oder die Presse mit Informationen, kann man zumindest in Ansätzen sicher sein, dass man dort recherchiert und gegeneinander abwägt, bevor man uns diese Informationen liefert. Dazu mag man sich stellen, wie man mag, aber richtig knallharte Lügen findet man z. B. im Rundfunk wirklich sehr selten. Ganz anderes ist es digital. Heutzutage kann jeder, aber wirklich jeder, für jeden weltweit sichtbar „publizieren“. Jeder mit ein wenig Geschick kann einen Online-Shop aufsetzen, der einer ersten Inaugenscheinnahme standhält. Nicht jeder prüft sofort via Impressum, ob alles mit rechten Dingen zugeht. Nicht jedem fällt auf, dass bei Behauptungen belastbare Quellen fehlen, falsch zitiert sind oder von ebenso dubiosem Hintergrund. Kurzum: Wir bekommen als Gesellschaft ein Problem durch das Entkoppeln von realer Welt und einem mehr oder weniger großem Teil unseres Lebens. Umso leichter fällt es Betrügern, Bauernfänger und virtuellen Taschenspielern, sich ihre Opfer digital zu suchen. Eine Wahl beeinflussen? Offenbar heute kein Problem mehr. Verschwurbelte „Fakten“ in die Welt zu setzen, dass Milliardäre heimlich Computerchips ins Essen mischen, um uns zu kontrollieren (was sonst sind die schwarzen Punkte im Vanillepudding?), make shit – a hit! Was können wir dagegen tun? Der renommierte Internet- und Social-Media-Experte Felix Beilharz hat sich dieses Problems großflächig und tiefgängig angenommen und gibt Tipps, auf was man achten sollte und kann, um möglichst wenigen Fakes aufzusitzen.

„Ich? Ich falle doch nicht auf Fakes im Internet rein! Da muss doch ziemlich blöd für sein, mir kann das nicht passieren!“ Genau diese Haltung erlebe ich regelmäßig, wenn es ums Thema „Online-Fakes“ geht.

In meinem eigenen Umfeld habe ich in den letzten Monaten verschiedenste Gegenbeispiele erlebt: Ein Psychologie-Professor teilt eine (eigentlich recht offensichtliche) Fake News, eine promovierte Digitalberaterin fällt auf ein Facebook-Fake-Gewinnspiel rein, ein erfolgreicher Unternehmer in der Nachbarschaft bestellt Luftfilter für sein Haus bei einem Fake-Shop, eine psychologisch und technisch versierte Unternehmensberaterin versenkt 2.000 Euro bei einer Fake-Hotline der Lufthansa – und ich selbst habe in Lockdown-Verzweiflung Kurzhanteln in einem chinesischen Fake-Shop bestellt. Dabei tröstet mich der Gedanke, dass ein recht angesehener Kollege auf den gleichen Shop und sogar das gleiche Produkt hereingefallen ist. All diese Fälle haben eines gemeinsam: Alle Opfer sind überdurchschnittlich medien- und digitalaffin, bestens gebildet und sogar beruflich im Internet tätig. Und trotzdem sind wir Opfer von Fakes geworden.

Ich behaupte: Jede/r ist bereits auf Fakes hereingefallen. Manche haben es nur noch nicht gemerkt. Die Fakes lauern an so vielen Stellen und in so vielen unterschiedlichen Formen, dass niemand verschont bleibt. Und ich glaube sogar, die obige Haltung „Das kann MIR doch nicht passieren“ macht uns besonders anfällig. Denn die Faker und Betrüger machen sich psychologische Trigger zunutze, die in jedem Gehirn greifen – egal ob Akademiker oder Auszubildender, egal ob jung oder alt.

Deswegen: Die Person, die noch keiner Fake News aufgesessen ist, noch nie einer gefakten Bewertung ihr Vertrauen geschenkt, noch nie auf einen Fake-Shop reingefallen ist oder die noch nie mit einem Fake-Profil gechattet hat, die möchte ich einmal kennenlernen. Ich vermute, die Auswahl ist sehr rar …

Doch die gute Nachricht: Wir können etwas dagegen tun. Und vor allem können wir unsere vielleicht weniger digitalaffinen Freunde, Familienmitglieder und Kollegen unterstützen, um sie ebenfalls vor den Gefahren zu schützen.

Warum wir auf Fakes reinfallen

Wenn es stimmt, dass wir alle auf Fakes reinfallen, muss es gute Gründe dafür geben. Und die gibt es tatsächlich. Ich habe im Laufe der Zeit vor allem drei Gründe identifiziert.

1. Wir sind oberflächlich

Ganz ehrlich: Hast du schon mal einen Artikel im Social Web oder auf WhatsApp geteilt, ohne ihn wirklich zu lesen? Einfach, weil dich die Überschrift so getriggert hat? Falls ja, bist du in bester Gesellschaft. Eine Studie der Columbia University hat bereits 2016 ergeben, dass 59 % der Links, die über Twitter geteilt wurden, keinen einzigen Klick erzielen – also nicht mal vom Absender selbst.

Ein interessantes Experiment dazu stammt vom Blog beefing.de (heute frisches-flensburg.de). Die Blogger erstellten einen Artikel mit einem sehr provokanten Open-Graph-Vorschau-Inhalt: Der Title besagt: „Unverschämt! Flensburger Flüchtlinge fordern mehr Geld!“ Auf dem Vorschaubild waren vier Flüchtlinge vor einem Wohncontainer zu sehen, die ein Plakat mit der Aufschrift „Wir fordern mehr Geld“ in die Höhe hielten.

Abbildung 1: Zumindest konnten die vermeintlichen Flüchtlinge ihr Plakat in fehlerfreiem Deutsch verfassen, was für die Kommentatoren eher nicht gilt

Im Artikel selbst wird nach zwei Zeilen aufgeklärt, dass es sich um ein Experiment handelte. Doch offensichtlich reichte für viele Menschen schon das Vorschaubild aus, um den Beitrag wütend zu teilen. Über 94.000 Interaktionen erhielt der Artikel auf Facebook, davon allein 23.500 Shares. Dazu kommt eine unbekannte Anzahl an WhatsApp- und weiteren Messenger-Shares, die ja leider nicht auswertbar sind.

Ein einziger Klick auf die Website und ein paar Sekunden Verweildauer hätten gereicht, um den Fake zu entlarven.

Und selbst wenn wir eine Website oder einen Shop besuchen, nehmen wir uns kaum Zeit, genau hinzuschauen. Viele Besuche dauern nur wenige Sekunden. Dabei könnte man z. B. Fake-Shops meist recht eindeutig entlarven, wenn man sich ein paar Sekunden mehr Zeit nehmen würde. Und auch so manches Angebot oder News erscheinen recht unglaubwürdig, wenn man mehr als einen Blick darauf verschwendet.

2. Wir sind medieninkompetent

Das gilt für die Leserschaft der Website Boosting mit Sicherheit weniger als für die breite Allgemeinheit, aber selbst unter uns: Hast du wirklich eine fundierte Ausbildung im Umgang mit Medien genossen? Oder dir mehr oder weniger alles selbst beigebracht? Dann dürfte die „unbewusste Inkompetenz“ groß sein – Dinge, von denen du gar nicht weißt, dass du sie nicht weißt.

Übrigens schieben sich bei diesem Thema gern Jung und Alt den schwarzen Peter zu. Die Jungen lachen über die Alten und ihre oft unbeholfene Art, mit Medien umzugehen. Und die Alten schimpfen auf die Jungen und ihren viel zu sorglosen Umgang mit digitalen Medien. Dabei nehmen sich beide nicht viel. Medienkompetenz wird weder automatisch mit den Lebensjahren erworben noch in ausreichendem Maße in den Schulen vermittelt. Erfahrungsgemäß können junge Nutzer zum Beispiel Werbung nicht mehr von (redaktionellen) Inhalten unterscheiden, dafür fallen ältere Nutzer eher auf Fake News, Spam-Mails oder sonstige Abzocken herein. Es dürfen sich also getrost alle Generationen an die eigene Nase fassen.

3. Wir sind psychologisch prädestiniert

Wie schon erwähnt: Die Faker und Abzocker nutzen gezielt psychologische Trigger und Verzerrungen. Da ist zum Beispiel der Confirmation Bias, der besagt, dass wir gezielt nach Informationen suchen, die unsere Meinung bestätigen. Und sie gezielt ignorieren, wenn sie uns widersprechen. Der Believe Bias geht in eine ähnliche Richtung: Wir glauben Informationen eher, die unser Weltbild bestätigen.

Hier liegt der Hase im Pfeffer: Wir WOLLEN oft einfach, dass der Fake wahr ist! Die Playstation 5 ist überall ausverkauft, aber in diesem einen Shop ist sie tatsächlich noch zu haben, und zwar 30 % günstiger als Marktpreis? Sollte suspekt klingen, aber ich WILL einfach, dass es stimmt.

Besonders deutlich werden diese Verzerrungen bei politischen Fake News. In den letzten Monaten und Jahren tauchten von jedem Spitzenkandidaten empörende Zitate auf, die eifrig geteilt wurden. Armin Laschet wird von Luisa Neubauer auf Twitter zum Beispiel das Zitat zugeschrieben: „Wir müssen besser darin werden, den jungen Menschen zu erklären, warum das mit dem Klimaschutz nicht so schnell geht.“

Dieses empörende Zitat wurde tausendfach mit entsprechenden Sharepics verbreitet. Dabei hat Armin Laschet das nie gesagt. Aber es würde einfach so wunderbar in manch ein Weltbild passen und so mancher WILL einfach, dass es wahr ist. Zack, der Believe Bias hat zugeschlagen.

Auch die Aussage von Annalena Baerbock, dass die private Tierhaltung aufgrund der hohen CO2-Emissionen von Haustieren ein Ende haben müsse, wurde tausendfach geteilt, entbehrt aber ebenso jeglicher Grundlage. Aber es passt halt so wunderbar in anti-grüne Weltbilder. Und macht uns daher wieder empfänglich für den Fake.

Abbildung 2: Ein empörendes Zitat, das so nie gefallen ist

Und von diesen kognitiven Verzerrungen gibt es noch einige mehr. Alle haben eines gemeinsam: Sie machen uns nicht gerade immun gegen Online-Fakes. Egal, wie jung, alt, erfahren oder gebildet wir sind. Dessen müssen wir uns einfach immer wieder bewusst sein.

Fake News

Manche Fakes im Netz sind zwar ärgerlich, aber nicht unbedingt dramatisch. Fake News sind beides – blöd für den, der drauf reinfällt, und existenziell gefährdend für eine Demokratie.

Ausmaß der Fake News

In unserer „aufgeklärten“ und maximal digitalversierten Website-Boosting-Bubble bekommen wir vermutlich gar nicht so wirklich mit, welches Ausmaß Fake News überhaupt annehmen. So manch ein Newsfeed da draußen wird dagegen fast ausschließlich aus Fakes, Lügen und Manipulationen bestehen. Buzzfeed untersuchte 2017 viele Tausend Artikel auf ihre virale Verbreitung im Social Web (insbesondere auf Facebook). Das Ergebnis: Die acht meistgeteilten Beiträge waren allesamt Fake News. Kein einziger Artikel der großen Medien wie Spiegel Online, Focus oder t-online.de konnte da mithalten. Auch aus den USA sind ähnliche Ergebnisse bekannt: Die meistgeteilten Fake News werden häufiger geshart als die meistgeteilten realen Nachrichten. 

In der Studie „Infodemie“ der Vodafone-Stiftung von 2020 gaben 76 % der deutschen Jugendlichen an, mindestens wöchentlich mit Fake News im Netz konfrontiert zu sein, 21 % sogar mehrmals täglich. Beide Prozentzahlen steigen seit Jahren zweistellig pro Jahr.

Eine eigene Umfrage stützt diese Tendenz. 88,7 % der Befragten gaben an, in den letzten sechs Monaten mindestens eine Fake News im Social Web gesehen zu haben. Und 61,1 % berichten sogar, im eigenen Freundes- oder Familienkreis mindestens eine Person zu haben, die regelmäßig Fake News teilt (https://felixbeilharz.de/studie-fakes/).

Arten von Fake News

Dabei gibt es ganz unterschiedliche Klassen von Fake News. Nicht alles lässt sich als glatte Lüge einstufen. Der in der Buzzfeed-Analyse meistgeteilte Artikel (von anonymousnews.ru) bezog sich auf eine Studie, dass ungeimpfte Kinder signifikant weniger krank seien. So eine Studie gab es tatsächlich – allerdings wurde sie bereits lange vorher wegen eklatanter Mängel zurückgezogen.

Andere Fake News sind schlichtweg frei erfunden. Auf Platz drei der Buzzfeed-Analyse landete die Meldung, in McDonalds Fleischfabrik sei menschliches Fleisch gefunden worden. Da hätte es den Zusatz „+++++Bitte Teilen+++++“ eigentlich gar nicht gebraucht, um die Meldung als Blödsinn zu erkennen. Trotzdem erreichte sie 67.000 Interaktionen auf Facebook.

Und wie so oft bei Fake News ist die Meldung alt (die älteste Quelle, die ich gefunden habe, stammt von 2014) und kursiert auch 2021 immer noch munter im Netz.

Abbildung 3: Ein jahrtausendealtes Narrativ, das bis heute kursiert

Wieder andere Fake News fallen in die Kategorie „Irreführender Kontext“. Auch hier wird ein wahrer Kern verbreitet, jedoch in einem völlig falschen Zusammenhang, wodurch der Fake entsteht. Gerade Bilder tauchen in dieser Kategorie sehr oft auf.

Wie so viele Fakes wurden auch irreführende Bilder im Rahmen der Corona-Pandemie massenweise verbreitet. Im Dezember 2020 ging zum Beispiel ein Bild einer illustren Reihe von Politikern viral, die gemütlich bei einem Glühwein zusammenstehen, während das Volk im Shutdown eingesperrt ist. Da kann man sich schon mal aufregen. Das heißt, man könnte, wenn das Bild nicht aus dem Dezember 2019 stammen würde und damit deutlich VOR der Pandemie.

Abbildung 4: „Die da oben“ lassen es sich gut gehen, während „wir“ eingesperrt werden

Darüber hinaus gibt es noch zahlreiche weitere Formen der Fake News. Von manipulierten Bildern bis hin zu Deepfake-Videos, die uns in Zukunft noch größere Probleme machen werden, ist alles dabei.

Fake News erkennen

Auch ohne abgeschlossenes Studium der Medienwissenschaften sollte es möglich sein, die meisten Fake News recht schnell als solche zu entlarven. Allein schon eine gewisse Skepsis und das Wissen über den Believe Bias machen uns weniger anfällig. Wenn eine Nachricht einfach ZU gut in das eigene Weltbild passt, sollten wir zumindest mal nachprüfen, ob es sich vielleicht um eine Fake News handeln könnte. Praktisch kann das so aussehen:

  • Stammt die Nachricht von einer anerkannten, verlässlichen Quelle oder von einer völlig unbekannten, eher dubios anmutenden Seite?
  • Bezieht sich die Nachricht auf nachprüfbare Primärquellen? Werden solche Quellen verlinkt und sind diese ihrerseits glaubwürdig?
  • Was taucht auf, wenn du mal nach Stichwörtern aus der Nachricht googelst? Wurde die Nachricht bereits widerlegt? Gibt es andere Fundstellen, die die Nachricht stützen?
  • Entspricht die Gestaltung der Nachricht insgesamt journalistischen Maßstäben (Rechtschreibung, gemäßigter Tonfall, Trennung von Fakten und Meinung)?

Diese kleinen Tipps, verbunden mit der angesprochenen Selbstkritik und Skepsis, dienen uns schon als recht gutes Werkzeug, um nicht mehr auf Fake News hereinzufallen.

Abbildung 5: Checkliste Fake News (Design by Isabel Kulessa)

Fakes im E-Commerce

Für die Website-Boosting-Leser wird diese Fake-Kategorie sicherlich die geläufigste sein. Der Online-Handel boomt und mit ihm natürlich auch Betrug, Abzocke und Schindluder aller Art. Hier werden die Folgen der Fakes auch konkret im eigenen Geldbeutel spürbar. Während Fake News eher die Gesellschaft und Demokratie im Ganzen aushöhlen, langsam und schleichend, leidet der Einzelne unter den folgenden Fakes direkt und unmittelbar.

Fake-Bewertungen

Ganz ehrlich: Bevor ich für die Buch-Recherche richtig tief in das Thema eingestiegen bin, habe ich Bewertungen doch recht stark vertraut. Klar weiß man irgendwo im Hinterkopf, dass ein Teil der Bewertungen gekauft oder manipuliert ist, aber so insgesamt wird sich das doch in der Summe egalisieren.

Heute weiß ich: Nein, tut es nicht. Es ist äußerst einfach, Fake-Bewertungen zu erstellen (oder zu erhalten). Und das Ausmaß ist erschreckend. Experten schätzen, dass zwischen 30 und 42 % der Amazon-Bewertungen gefälscht sind. Allerdings sind die Fake-Bewertungen nicht gleich verteilt. Dazu später mehr.

Der Grund, warum gerade hier so viel gefakt wird, ist einfach: Kaufentscheidungen hängen ganz entscheidend von Bewertungen ab. 65 % der Befragten gaben in einer Bitkom-Studie an, dass Online-Bewertungen für sie das wichtigste Entscheidungskriterium im Online-Shopping überhaupt seien. Andere Studien bescheinigen den Bewertungen einen höheren Einfluss als der Unternehmenswebsite oder gar dem direkten Kontakt zum Unternehmen.

Bei den gefakten Bewertungen lassen sich grob zwei Kategorien unterscheiden: Bewertungen von Bots und solche von echten Menschen, die aber für ihre Bewertung eine Gegenleistung erhalten haben. Mit der ersten Kategorie brauchen wir uns nicht allzu sehr zu beschäftigen. Hier geben sich die Plattformen größte Mühe, solche Bewertungen zu erkennen und zu löschen.

Schwieriger wird das bei menschlich erstellten Reviews. Auch hier gibt es im Prinzip zwei Methoden: das direkte Generieren von Bewertungen (vor allem für Amazon-Produkte) und den Bewertungskauf über Dienstleister, die Pakete verschiedener Größen anbieten.

Letztere beschränken sich nicht nur auf Amazon. Für nahezu jede Plattform, die Bewertungen integriert, lassen sich Pakete kaufen: Google, die App-Stores, Kununu, Jameda, Tripadvisor, HolidayCheck, Lieferando, OTTO und viele mehr. Je nach Anbieter gehen die Bewertungen bei wenigen Euro Einkaufspreis los, je größer das Paket, desto günstiger. 100 Fünf-Sterne-Bewertungen für Google sind bereits für 699 Euro zu haben.

Der Markt für solche Bewertungshändler ist undurchschaubar. Viele der Dienstleister gehören zum gleichen Anbieter und viele weitere treten nur als Reseller unter eigener Marke auf. Ja, es stimmt: Es gibt auch im Bewertungshandel eine Art Dropshipping und Reseller-Markt.

Abbildung 6: Beim vermutlichen Marktführer FIVESTAR MARKETING sind Bewertungen für jede größere Plattform zu haben

Diese Bewertungen werden letztlich von freiberuflichen Autorinnen und Autoren verfasst, die sich für ein paar Euro pro Bewertung etwas Schönes ausdenken. Also eine Art Textbroker für Fake-Bewertungen.

Zumindest bei Amazon entsteht dabei aber ein Problem: Hier will man ja die vertrauenswürdigen „verifizierten Käufe“ für die Bewertungen (übrigens schreibt sogar die Bundesregierung auf ihrer Website: „Verifizierter Kauf steht für Seriosität …“). Und auch dafür gibt es natürlich eine Menge Agenturen, die das sogenannte „Cash Back“-Verfahren anbieten. Soll heißen: Du kaufst das Produkt bei Amazon, schreibst deine Rezension und bekommst dann dein Geld zurück. Das Produkt darfst du behalten.

Kann das wirklich so einfach sein? Das wollte ich ausprobieren. Wer nicht auf einen Dienstleister oder eine Agentur setzen will, findet bei Facebook und Telegram genug Angebote. Die Gruppen heißen „Deutschland Produkttester Amazon“ oder „Produkttester Deutschland AMAZON EBAY“ und haben alle das gleiche Prinzip: Händler oder sogenannte „Agenten“ stellen dort ihre Produkte ein, entweder direkt mit Link oder mit der Aufforderung, selbigen per DM zu erfragen. Der Rest läuft dann nach dem obigen Schema. Kauf, Review, Geld zurück.

Und in diesen Gruppen ist ganz schön was los. Teilweise werden über tausend Produkte pro Tag in diesen Gruppen gepostet, aus denen die Bewerter auswählen können. Dabei muss man gar nicht unbedingt selbst aktiv werden – als ich in einige dieser Gruppen eintrat, hatte ich unmittelbar einige Dutzend DM in meinem Postfach von „Agenten“, die mir freundlich in mittelmäßigem Englisch oder Deutsch ihre Produkte anboten. Einige der Anbieter schickten mir über 100 Bilder ihrer Produkte, aus denen ich auswählen konnte.

Das genaue Ausmaß der Fake-Bewertungen lässt sich nur erahnen. Analysen verschiedener Hochschulen und Medien zeigen aber: Betroffen sind weit überwiegend chinesische Billig- und No-Name-Produkte, kaum bekannte Marken. Von daher scheinen sich Marken doch wieder als Qualitätsanker zu etablieren – bei mir haben die Recherchen zum Buch jedenfalls diesen Effekt gehabt.

Wenn also die No-Name-Küchenschere über 3.000, der Billig-MP3-Player fast 4.000 und das markenlose Küchen-Schneidebrettchen über 1.500 Bewertungen hat (alles reale Beispiele von Produkten mit gefakten Bewertungen) – bleib skeptisch. Und gib im Zweifel lieber drei Euro mehr aus.

Tool-Tipp: www.reviewmeta.com rechnet die Fake-Bewertungen soweit möglich aus der Gesamtzahl raus und gibt eine realistische Gesamtbewertung von Amazon-Produkten an.

„Gehackte“ Amazon-Shops

Eine andere Kategorie der Fakes findet überwiegend bei Amazon statt. Auch auf diesen Fake bin ich um ein Haar hereingefallen. Und auch hier war wieder Corona schuld. Beim ersten Lockdown wollte ich, wie so viele, mein kleines Homegym aufrüsten und suchte nach einem passenden Crosstrainer. Klappbar sollte er sein und eine hohe Schwungmasse aufweisen. Im dreistelligen Preisbereich gibt es da genau ein Produkt: den MAXXUS CX 4.3F. Kostet allerdings 899 Euro. Also machte ich mich auf die Suche nach Schnäppchen. Nach ein paar Stunden Recherche war klar: Fehlanzeige. Das Ding gibt es nirgendwo billiger.

Huch, außer bei Amazon. Von einem Händler, neu und für starke 450 Euro. Da musste ich einfach zuschlagen. Leider währte die Freude nur wenige Minuten, da die Bestellung vom Händler storniert wurde. Also direkt noch mal bestellt – und wieder storniert. Was war da los? Ein Blick auf das Händlerprofil schaffte schnell Klarheit – der Account wurde offenbar von Betrügern gehijackt, also übernommen.

Die Masche ist dabei recht simpel: Die Faker verschaffen sich Zugang zu einem seriösen, aktiven Händleraccount, zum Beispiel durch eine Phishing-E-Mail oder ein leicht zu erratendes Passwort. Schon haben Sie Zugriff auf einen echten Account mit vielleicht schon Dutzenden oder Hunderten positiver (echter) Bewertungen.

Nun laden sie massenweise Produkte hoch. Das können schnell mal mehrere Tausend neue Produkte in wenigen Stunden sein. Dabei orientieren sich clevere Betrüger natürlich an Produkten und Kategorien, die stark nachgefragt sind – Bastelbedarf, Haushaltstechnik oder eben Sportgeräte zum Lockdown. Die Preise sind dabei so attraktiv, dass Otto Normalonlineshopper nicht lange nachdenkt, sondern zuschlägt.

Und jetzt kommt der Clou: Die Bestellungen werden storniert, verbunden mit dem Hinweis, dass man bitte die Verfügbarkeit erst per Mail abklären solle. In dieser Mail werden dann Kontodaten abseits Amazon genannt, auf die das Geld überwiesen werden solle.

Ich hatte im Rahmen der Buchrecherche die Gelegenheit, mit einem Amazon-Händler zu sprechen, dessen Konto ebenfalls auf diese Art missbraucht wurde. Innerhalb von nur einer Stunde gingen 3.500 Bestellungen bei ihm ein! Wenn nur 1 % der Besteller letztlich auch bezahlt, macht das bei Produktpreisen von durchschnittlich 300–500 Euro einen schönen Stundenlohn …

Abbildung 7: Echter Amazon-Händler, allerdings übernommen von einem Betrüger

Fake-Shops

Eine der größten Gefahren für Otto und Olga Normalonlineshopper/in dürfte in den Fake-Shops liegen, die an jeder Ecke aufploppen. Und leider sind die Faker auch hier in den letzten Jahren immer besser geworden. Während der beste Ratschlag vor wenigen Jahren noch lautete: „Prüfe, ob der Shop ein Impressum hat“, oder: „Werde misstrauisch, wenn zu viele Rechtschreibfehler in den Texten enthalten sind“, muss man heute schon SEHR genau hinschauen, um einen Fake-Shop als solchen zu erkennen.

Abbildung 8: 2RadWelten.de sieht aus wie echt – ist aber einfach ein gut gemachter Fake-Shop

Die gut gemachten Fake-Shops haben nicht nur einen gut klingenden Domainnamen, SSL-Verschlüsselung und ein seriöses Layout, sondern auch sonst alles, was zu einem regulären Online-Shop gehört: Impressum, Datenschutzhinweise, Cookie Consent, AGB und Widerrufsbelehrung, teilweise sogar Newsletter, Partnerprogramm und Sendungsverfolgung. Wer also nach solchen Signalen sucht, wiegt sich schnell in falscher Sicherheit.

Wie kann man also einen Fake-Shop erkennen, wenn die so gut gemacht sind? Ein paar Hinweise gibt es dann doch, an denen man die Fakes meistens erkennt:

  • Wenn eine Service-Telefonnummer angegeben ist, einfach mal anrufen. Bei Fake-Shops führt die in der Regel ins Leere oder zu einem falschen Anschluss.
  • Oft bauen die Fake-Shops Social-Media-Icons in den Footer oder Header ein, wie es ein regulärer Shop auch tun würde. Die Links führen dann aber nicht zum jeweiligen Auftritt im Social Web, sondern ins Leere.
  • Sind Siegel wie Trusted Shops oder eKomi angegeben? Dann mal draufklicken und prüfen, ob die Siegel mit den Profilen auf der Plattform verlinkt sind. Faker bauen nur die Bilder ein, legen normalerweise aber kein Profil bei dem jeweiligen Dienst an.
  • Ein wichtiges Warnsignal sind auch die Zahlungsmethoden. Fake-Shops bieten meist nur die Möglichkeit der Vorkasse an. Mittlerweile auch auf deutsche Konten, also fällt das Warnsignal „Konto im Ausland“ weg. Trotzdem sollte man bei Shops, die ausschließlich per Vorabüberweisung bezahlt werden wollen, vorsichtig sein. Es muss natürlich kein Fake sein, die Gefahr ist aber größer. Aber auch das alleine ist kein sicherer Weg mehr: Ich habe Fake-Shops gesehen, die neben Vorkasse auch Zahlung per Kreditkarte anbieten. Die Kreditkartenzahlung funktioniert dann zwar nicht und die meisten Besteller werden auf Vorkasse umswitchen, aber schon das Angebot der zweiten Zahlungsmethode „legitimiert“ den Shop. Also auch hier: Augen auf.

Alle diese Signale sind wichtig, aber nicht 100%ig sicher. Deshalb rate ich immer dazu: Wenn man bei einem unbekannten Shop bestellen will, erst einmal kurz googeln. Den Shop-Namen, die Domain, die Angaben im Impressum. Bei Fake-Shops findet sich sehr oft bereits ein Hinweis auf einer Liste der Verbraucherschutzeinrichtungen oder ein Eintrag in einem Forum, in dem sich Geschädigte austauschen. Das ist momentan die wohl sicherste Methode, Fake-Shops zu erkennen (zumindest, wenn sie bereits als solche aufgeflogen sind).

Wer sich fragt, wo solche Fake-Shops eigentlich herkommen: Wie so oft lautet die Antwort „Darknet“. Hier gibt es Foren, in denen Fake-Shops fix und fertig zum Kauf angeboten werden. Laut Beschreibung der Anbieter sind diese Shops in weniger als 60 Minuten völlig ohne Programmierkenntnisse fertig eingerichtet und umfassen bis zu 20.000 Produkte – auf Kundenwunsch gibt es sogar „Spezialanfertigungen“ mit bis zu einer Million Produkten. Das ist dreimal so viel, wie AboutYou.de gelistet hat … Kostenmäßig geht ein Fake-Shop mit einigen Hundert Produkten schlüsselfertig eingerichtet schon bei 500 Euro los. Das teuerste Angebot, was ich gesehen habe, war ein Shop mit vier Millionen Produkten, da lagen die Kosten dann bei 10.000 Euro in der Erstellung und 2.000 Euro monatlicher Shop-Miete. Dafür hat man dann aber auch einen Fake-Shop, der etwa viermal so groß wie Mediamarkt.de ist.

Abbildung 9: Fake-Shop-Angebot im Darknet – fix und fertig für 500 Euro

Fakes im Social Web

Es gibt kaum einen besseren Ort für Fakes als das Social Web, wo sich jeder Deutsche fast 1,5 h pro Tag aufhält. Dementsprechend groß ist hier die Bandbreite und Anzahl an Betrügereien, Lügen und Falschinhalten. Fake News werden überwiegend über das Social Web verbreitet. Und auch die bereits angesprochenen Fake-Shops finden ihre Opfer häufig über Facebook und Co. Teilweise schalten die Fake-Shops sogar Facebook Ads – das Geschäft scheint sich also zu lohnen.

Im Folgenden gehe ich auf eine kleine Auswahl der Social-Media-Fakes ein – im Buch sind natürlich noch deutlich mehr erklärt.

Fake-Gewinnspiele

Dieses Phänomen tritt, wie die anderen auch, überwiegend auf Facebook auf, mittlerweile jedoch auch bei Instagram und sogar TikTok. Das Schema ist meistens gleich: Es wird ein tolles Produkt verlost, das viele Menschen unbedingt haben wollen. Paradebeispiele dafür sind das Traumauto mit der roten Schleife auf der Motorhaube, das Tiny House, der Traumurlaub, aber auch technische Geräte oder einfach eine tolle Kaffeemaschine.

Die Faker legen eine neue Facebook-Seite an, die meistens eine bekannte Marke nachahmt. Bei genauerem Hinsehen wäre der Fake schnell zu durchschauen, aber wie wir bereits festgestellt haben – so ticken wir einfach nicht. Oft wird das Gewinnspiel auch durch einen nachvollziehbaren Grund legitimiert, zum Beispiel ein Jubiläum, beschädigte Verpackungen oder unverkäufliche Rücksendungen.

Die Teilnehmenden müssen nun in der Regel das Gewinnspiel teilen und kommentieren. Das eigentliche Ziel (neben der durch die Shares erzeugten Reichweite) liegt meist aber im Gewinnen von verifizierten Leads. Das passierte früher einfach durch einen Link im Gewinnspiel-Text, den man anklicken und das dortige Formular ausfüllen sollte. Heute gehen die Faker etwas cleverer vor: Oft wird man aufgefordert, mit einem bestimmten Wort zu kommentieren, zum Beispiel die Wunschfarbe des Traumautos. Durch den Kommentar wird dann ein Chatbot getriggert, der jedem Teilnehmenden automatisch eine Direktnachricht mit dem Link zuschickt. So ist „von außen“ kaum zu erkennen, welches Ziel hinter der Aktion steckt.

Da fällt doch niemand drauf rein, oder? Leider falsch gedacht – ich habe in den letzten Jahren ziemlich viele Beispiele gesammelt, die hohe fünf- oder gar sechsstellige Shares erhalten haben.

Abbildung 10: 259.282 Shares dürfte in eine hohe Millionen-Reichweite münden

Die so generierten Leads können dann gewinnbringend verkauft werden. Je nach Branche, Menge und Qualität lässt sich ein solcher Datensatz für 0,2 €–2 € verkaufen. Gehen wir mal davon aus, dass nur 10 % der Leute, die das Gewinnspiel in Abbildung 10 geteilt haben, auch den Datensatz ausgefüllt haben, dann haben die Betrüger auf jeden Fall einige Tausend Euro, vielleicht sogar gut fünfstellig, damit verdient.

Solche Fake-Gewinnspiele sind sehr einfach zu durchschauen:

  • Sie finden meist auf einer frisch angelegten Seite ohne Historie statt; oft ist das Gewinnspiel der erste Post überhaupt. 
  • Viele der Seiten täuschen eine Markenseite vor (REWE, Aldi, BMW etc.) – es handelt sich aber nie um die echte Seite mit blauem Haken.
  • Das Versprechen ist oft sehr unrealistisch. Entgegen der Behauptung in Abbildung 10 werden teure Wohnmobile nicht einfach verschenkt, wenn sie „kleine Kratzer/Dellen“ haben.
  • Es fehlen meist alle relevanten Teilnahmebedingungen, Impressum etc. Allerdings haben manche Faker hier bereits nachgebessert und liefern diese Informationen, um das Gewinnspiel echt aussehen zu lassen.
  • Oft zeigt der Bearbeitungsverlauf des Beitrags, dass mehrfach Änderungen vorgenommen wurden, z. B. geänderte Bedingungen oder ein verschobenes Enddatum.
  • Der Link, unter dem man das Formular ausfüllen soll, hat nichts mehr mit dem angeblichen Unternehmen zu tun.

Fake-Anzeigen

Die meisten Online-Nutzerinnen und -Nutzer kennen dubiose Werbeanzeigen vor allem aus den Native-Advertising-Sektionen unter Artikeln diverser Portale. Da wird dann gern „dieses eine Lebensmittel“ angekündigt, das „deinen Bauch schmelzen lässt“. Ähnliches passiert auch im Social Web, aber mit einem anderen Hintergrund, der für uns Marketer wiederum sehr interessant ist.

Dieser Fake tritt überwiegend in zwei Arten auf: in Form von Abnehmtropfen und in Form von dubiosen Krypto-Investments. Eines haben beide gemeinsam: Sie werden von den Stars aus „Die Höhle der Löwen“ promotet. In der Abnehm-Anzeige hält Judith Williams ein Fläschen „K2“-Tropfen oder ähnliche Abnehmwunder hoch, in der anderen Anzeige empfiehlt Frank Thelen eindringlich, sich die Investment-Revolution genauer anzuschauen. Oder jede andere beliebige Kombination.

Abbildung 11: Eine verifizierte Seite macht Werbung für Abnehm-Spam?

Das Kuriose dabei ist, dass die Ads (wieder meist auf Facebook) von eigentlich seriösen Seiten verbreitet werden, teilweise sogar mit blauem Haken verifiziert. Wie kann das sein?

Hier passiert Ähnliches wie bei den Fake-Produkten auf Amazon. Betrüger übernehmen Facebook-Seiten seriöser Unternehmen. Meist passiert das über Phishing-Links, die zum Beispiel in Direktnachrichten verschickt werden. Der Vorwand ist zum Beispiel ein angeblicher Urheberrechtsverstoß, der geprüft werden solle, oder – noch cleverer – die Behauptung, dass man für den blauen Haken berechtigt sei und diesen nun beanspruchen könne. Klickt das Opfer auf den Link, landet es auf einer nachgemachten Facebook- oder Instagram-Log-in-Seite. Auch diese könnte man mit etwas genauerem Hinschauen schnell entlarven, aber das hatten wir ja schon. Gibt man nun dort seine Zugangsdaten ein (und hat keine 2-Faktor-Authentifizierung aktiviert), ist das Profil futsch – und damit auch die Seite und vielleicht sogar der Werbeanzeigenmanager.

Nun schalten die Betrüger ihre Werbung „auf deinen Nacken“, so lange, bis der Schwindel auffällt. Ich habe im Rahmen der Buchrecherche Dutzende solcher Fälle gesehen – von kleinen lokalen Unternehmen bis hin zu einem Bundesliga-Profi, dessen Konto ebenfalls für diese Masche missbraucht wurde. In Abbildung 11 ist es übrigens ein verifiziertes peruanisches Immobilienunternehmen, die mir das Abnehmwunder anpreist.

Der Vollständigkeit halber: Klickt man auf den Link in der Ad, landet man auf einer Landingpage, die einen Newsartikel nachahmt, z. B. von CNN, USA Today oder MSN. Dort wird dann eine ausführliche Story erzählt, im Falle der Abnehmtropfen zum Beispiel über die angeblichen Erfinderinnen und ihre Erfolgsstory bei „Die Höhle der Löwen“, die alle Löwen so dermaßen begeistert hat, dass es kaum zu glauben war. Untermauert mit zahlreichen Testimonials berühmter Persönlichkeiten, die mit diesen Tropfen rank und schlank geworden sind. Bestellt man die Tropfen dann, erhält man irgendwas zwischen nichts und Fläschchen mit undeklariertem Inhalt unbekannter Herkunft, die ICH mir jedenfalls nicht einverleiben würde.

Im Falle der Krypto-Investments läuft es ganz ähnlich, nur dass eben auf die enormen Gewinnmöglichkeiten mit der geheimen Blockchain-Methode hingewiesen wird. Dahinter stecken dann meist Investment Scams oder Pyramidensysteme – ebenfalls nichts, wo ich mein Geld hineinpacken würde …

Wie kann man sich als Unternehmen vor solchen Fakes schützen? Generell gilt: Für alle Dienste wie Facebook, Instagram, Google und Co. die 2-Faktor-Authentifizierung aktivieren (die direkten Links aller relevanten Dienste habe ich auf https://fakebu.ch zusammengestellt). Und zweitens: Genau prüfen, wo man seine Zugangsdaten eingibt. Handelt es sich WIRKLICH um die Domain instagram.com? Oder taucht instagram.com vielleicht in der Domain auf, aber nur als Subdomain oder Tippfehler-Variante? Hier können zehn Sekunden genaues Hinschauen eine Menge Ärger ersparen.

Fake-Livestreams

Den letzten Fake aus dem großen Sammelsurium der Online-Fakes habe ich für diesen Artikel ausgewählt, weil er erstens recht neu ist und zweitens eine clevere Weiterentwicklung und Zusammenführung verschiedener bewährter Online-Marketing-Methoden.

Die Rede ist von Fake-Livestreams. Hier mischen die Faker wirklich alles zusammen. Aber der Reihe nach.

Primär scheint dieses Phänomen auf Facebook und TikTok aufzutreten. Ähnlich wie bei den Fake-Gewinnspielen legen die Betrüger eine Seite an, die vorgibt, eine berühmte Persönlichkeit zu sein, zum Beispiel ein Sportler oder eine Musikerin.

Dann startet die Seite einen Livestream (bei Facebook geht das ja direkt, bei TikTok müsste man 1.000 Follower haben, weshalb etwas Vorarbeit nötig ist oder einfach das Übernehmen eines Accounts nach dem gerade beschriebenen Muster). Der Livestream besteht aus dem Abspielen eines Videos, das der/die Prominente selbst einmal gepostet hat. In Abbildung 12 ist das Beispiel einer gefakten Thomas-Müller-Seite zu sehen. Und hier wird auch gleich der nächste Mechanismus klar: Neben den Livestream wird eines der von Facebook bekannten Rätsel präsentiert. Das Lösen des Rätsels ist dann Voraussetzung für die Teilnahme am Gewinnspiel.

Abbildung 12: Thomas-Muller Live – seems legit

Der Rest läuft analog zu den Fake-Gewinnspielen: Kommentar abgeben, Chatbot springt an, Link zur Leadgen-Seite kommt. Interessant sind hier aber die Bedingungen, die laut erstem Kommentar über den üblichen Like hinaus noch gestellt werden: „Teilen Sie diese Live-Übertragung jetzt mit den 10 Gruppen.“ Das ist schon dreist.

Das Prinzip funktioniert aber: Der Livestream läuft seit 23 Minuten, die Seite hat nur 17 Abonnenten – es schauen aber 108 Menschen zu und der Stream wurde bereits 158-mal geteilt.

Dass das Rätsel mit dem Inhalt des Videos überhaupt nichts zu tun hat und Thomas Müller auch überhaupt keinen Bezug zum Gewinnspiel oder Rätsel nimmt, fällt offenbar ebenso wenig auf wie der kursiv geschriebene Name der Fanpage (wegen Unicode-Sonderzeichen), die seltsame Grammatik oder der falsch geschriebene Nachname (der entsteht, weil das ü im verwendeten Zeichensatz nicht existiert).

Fazit

In diesem Artikel habe ich eine kleine Auswahl an Online-Fakes gezeigt, die deutlich machen soll, wie verbreitet und „bunt“ diese Betrügereien mittlerweile sind. Und wir alle sind potenzielle Opfer, egal wie medienaffin oder digitalversiert wir sind. Deshalb lohnt es sich, die Augen offen zu halten. Ich bin überzeugt, die allermeisten Fakes lassen sich leicht entschärfen, wenn wir genau hinschauen, uns selbst hinterfragen und kurz innehalten, damit das kritische Denkvermögen wieder übernehmen und dem Reptilienhirn Einhalt gebieten kann. So lässt sich nicht nur Schaden von uns selbst und unseren Lieben abhalten, sondern sogar von unserer Demokratie und Gesellschaft. Und das ist so dringend nötig wie nie zuvor.




Frischer Wind im Google-Index: Wie Ihre Inhalte schneller (neu) gecrawlt und indexiert werden

Sie haben neue Inhalte veröffentlicht oder eine bestehende Webseite umfassend überarbeitet? Und anschließend passiert bei Google in den Suchergebnissen erst mal … nichts? Solange Suchmaschinen diese neuen Inhalte nicht (erneut) indexieren, können diese natürlich auch nicht gefunden werden. Was so gesehen fast banal klingt, wird in der Praxis von Unternehmen oftmals leicht übersehen. Nicht immer ist also Google schuld bzw. zu träge, wenn man die neuen Inhalte noch nicht über eine Suche finden kann. Die gute Nachricht ist: Es gibt zum Glück Abhilfe. Die schlechte: Man muss selbst aktiv werden. Eine zeitnahe Indexierung ist für Sitebetreiber meist sehr wichtig. Je früher potenzielle Kunden das neue Angebot finden, desto schneller kommt auch frischer Umsatz rein. Wie Sie die wichtige Indexierung Ihrer neuen Inhalte beschleunigen können, erfahren Sie in diesem Beitrag des bekannten Experten Stephan Czysch.

Das Internet wächst und wächst: Jeden Tag werden unzählige neue Inhalte veröffentlicht. Damit diese von Suchmaschinen gefunden werden können, sind eingehende Verlinkungen auf diese Inhalte beziehungsweise deren Adressen (oder auch URL: Uniform Resource Locator) essenziell wichtig. Denn durch das Folgen von Links lässt sich das Web wesentlich effizienter crawlen, als wenn Suchmaschinen durch Raten von beliebigen Buchstaben- und Zeichenfolgen versuchen würden, erfolgreich aufrufbare Adressen und damit deren Inhalte zu finden.

Doch es sind nicht nur neue Inhalte, die von Suchmaschinen erfasst werden wollen, sondern auch bereits bekannte Adressen müssen wiederholt aufgerufen werden. Denn wer weiß, ob diese nicht zum Beispiel offline genommen oder überarbeitet wurden?

Das Web zu crawlen und zu indexieren, ist ein Mammutprojekt, für das nicht nur Google unzählige Serverzentren rund um den Erdball einsetzt. Diese Server zu betreiben und zu unterhalten, ist eine kostspielige Angelegenheit und zugleich ein Service, der für Webmaster kostenlos angeboten wird.

Es handelt sich dabei um ein Geben und Nehmen, denn Google benötigt die über das Crawling gefundenen Informationen, um sein zentrales Produkt, die Websuche, zu betreiben. Und je häufiger diese aufgrund hoher erlebter Ergebnisqualität von Nutzern verwendet wird, desto interessanter ist sie als Werbeumfeld.

Ohne Crawling keine Indexierung

Als Crawling wird der Prozess bezeichnet, durch den Suchmaschinen wie Google oder Bing das Web erfassen. Stark vereinfacht läuft dabei der folgende Prozess ab:

  • Eine bekannte Adresse wird vom Crawler (oder auch Spider bzw. Robot) angesteuert. Der Quelltext wird abgespeichert und über Zwischenschritte werden u. a. die Verlinkungen extrahiert.
  • Die so gefundenen Adressen werden der Datenbank der zu crawlenden Adressen hinzugefügt.
  • Crawler kontrollieren, ob der Zugriff auf die Adresse vom Webmaster verboten wurde. Dazu wird die robots.txt der Website abgerufen und nach Crawling-Ausschlüssen (mittels Disallow-Angabe) für die gefundene Adresse geschaut.
  • Ist kein Crawling-Ausschluss für die Adresse in der robots.txt zu finden, wird die Crawling-Priorität der Adresse bestimmt und die URL nach einiger Zeit gecrawlt.
  • Nach einem erfolgreichen Aufruf der Adresse (der Server beantwortet die Anfrage mit dem HTTP-Statuscode 200) wird der Quelltext der Seite analysiert.
  • Sofern die Seite zur Indexierung freigegeben ist (also kein Indexierungsausschluss durch die Noindex-Angabe vorliegt oder per Canonical-Tag eine andere Adresse referenziert wird), kann diese dem Index der Suchmaschine hinzugefügt werden.
  • Nach erfolgreicher Indexierung ist es möglich, den Seiteninhalt über die Websuche zu finden.

Im Hinblick auf das Crawling müssen Sie wissen, dass es für Suchmaschinenbetreiber eine finanzielle Notwendigkeit ist, mit den vorhandenen Serverressourcen sorgsam umzugehen. Jeder Seitenaufruf bindet Kapazitäten und es muss aus diesem Grund abgewogen werden, welchen Webseiten diese Ressourcen zur Verfügung gestellt werden. Faktoren wie das Linkprofil einer Website und eine generelle Einschätzung der Qualität des gesamten Webauftritts in den Augen der Suchmaschinen dürften dabei Einflussgrößen darauf sein, wie regelmäßig Crawler die jeweilige Website ansteuern.

Das Crawling-Aufkommen quantitativ auswerten

Wie aktiv ist Google eigentlich auf meiner Website? Wer nicht direkt einen Blick in die Server-Logfiles werfen möchte, der findet auf diese Frage in der Google Search Console eine Antwort. Denn dort zeigt Google die Crawling-Statistiken der Website an.

In den Wert der pro Tag gecrawlten Seiten fließen dabei übrigens alle Adressen ein, die auf der bestätigten Website zu finden sind. Das sind neben „normalen“ Webseiten die üblichen Verdächtigen wie Bilder, JavaScript- und CSS-Dateien, um nur einige zu nennen.

Abbildung 1: In der Google Search Console können Sie die Crawling-Statistiken Ihrer Website einsehen

Jeder Zugriff wird dabei als einzelne „gecrawlte Seite“ gezählt. Ruft der Googlebot folglich fünfmal innerhalb eines Tages die Startseite auf, dann geht dies als fünf Zugriffe in die Statistik ein.

Was aber, wenn Bilder von einer anderen Website (oder Hostnamen, also z. B. bilder.meinedomain.de) eingebunden sind? Sehr gute Frage! In diesem Fall tauchen diese Zugriffe folgerichtig in den Crawling-Statistiken der Website auf, unter der das Bild aufrufbar ist. Und noch ein Hinweis: Die Zeitzone der Angabe bezieht sich immer auf GMT-8, also die Zeitzone, in der Google seinen Hauptsitz hat (Mountain View in Kalifornien).

Was sagen Ihnen diese Daten? Nichts wirklich Genaues, denn es handelt sich nur um Werte. Sie sehen also nicht, welche Adresse wann abgerufen wurde. Aber durch einen Vergleich der Werte mit der Anzahl der auf Ihrer Website verfügbaren Adressen bekommen Sie Aussagekraft in die Daten – wenn auch stark vereinfacht.

Im Durchschnitt werden auf der in Abbildung 1 zu sehenden Website 202.565 Adressen aufgerufen. Da Mehrfachzugriffe einzeln gezählt werden, sind es in aller Regel deutlich weniger einzigartige Adressen, die vom Crawler aufgerufen werden. Wenn auf der Seite eine Million Adressen der Suchmaschine bekannt sind, dann heißt das folglich, dass jede Adresse ungefähr einmal innerhalb von fünf Tagen angesteuert wird. Doch das ist sehr stark vereinfacht.

Macht es überhaupt Sinn, jede Adresse gleichhäufig anzusteuern? Natürlich nicht, denn viele Seiten ändern sich so selten, dass es nicht sinnvoll ist, wenn diese z. B. jede Woche oder gar jeden Tag gecrawlt werden. Denken Sie daran: Auch die Mittel von Google & Co sind endlich. Es ist also nur logisch, dass Suchmaschinen ihre Crawling-Aktivitäten priorisieren und Websites mit einer hohen Frequenz neuer oder geänderter Inhalte häufiger ansteuern. So dürfte es nicht verwundern, wenn die Startseiten großer Zeitungen mehrmals pro Stunde oder gar Minute abgerufen werden, während eine private Website eine niedrigere Crawling-Priorität genießt. Was für Websites insgesamt gilt, trifft auch für einzelne URLs zu: Wenn Google merkt, dass sich der Inhalt einer Seite zwischen den letzten Crawls nicht (signifikant) unterscheidet, warum dann diese Adresse häufig crawlen?

Einblicke in den Google-Index: URL-Prüfung in der Search Console

Wer umfassend analysieren und verstehen möchte, welche Adressen Google auf der eigenen Website aufruft, der kommt um einen Blick in die Server-Logfiles nicht herum. Um diese Information für einzelne Adressen abzufragen, kann allerdings ganz komfortabel auf die „URL-Prüfung“ in der Google Search Console (Beta) zurückgegriffen werden. Einfach eine beliebige Adresse in das Suchfeld eingeben und schon sind die aktuellen Daten für diese Adresse einsehbar.

Abbildung 2: Google kennt diese Adresse und hat sie indexiert – allerdings wurde sie zuletzt Mitte Dezember gecrawlt

Bei der in Abbildung 2 abgerufenen Adresse liegt der letzte Crawl einige Wochen zurück. Das ist in diesem Fall zu verschmerzen, denn der Seiteninhalt wurde seit der Veröffentlichung der Seite nicht mehr angepasst. Folglich entspricht die aktuell bei Google bekannte Version der Seite dem Inhalt, den ein Nutzer beim Aufruf der Adresse sehen würde.

Hätte ich den Inhalt allerdings seit dem 18. Dezember verändert, dann stünde ich vor einem Problem: Google wäre der neue Inhalt nicht bekannt und ich könnte für den aktualisierten Inhalt nicht gefunden werden. Was also tun, um das Crawling und die Indexierung zu beschleunigen?

So können Sie das Crawling sowie die Indexierung beschleunigen

XML-Sitemaps einrichten und segmentieren

Wie viele Seiten umfasst Ihr Webauftritt? Und wie viele davon haben Sie in den letzten Monaten aktualisiert oder selbst angesurft? Und wie viele Seiten wurden insgesamt (regelmäßig) besucht? Viele Seiten sind statisch und auch die Website-Struktur ändert sich nur in geringem Umfang. Kein Wunder also, dass es etwas dauern kann, bis Google Änderungen an tief in der Website-Struktur zu findenden Seiten mitbekommt.

Eine von der Website-Struktur unabhängige Erschließung der Website ist über XML-Sitemaps möglich. Sitemaps listen dabei eine beliebige Auswahl an Adressen der Website auf und erzeugen direkte Verweise zwischen der Sitemap und einzelnen URLs. Durch die optionale <lastmod>-Angabe als Hinweis auf das letzte Aktualisierungsdatum ist die Verwendung von Sitemaps eine wunderbare Möglichkeit, um Suchmaschinen über Aktualisierungen und neue Inhalte zu informieren.

Abbildung 3: In dieser XML-Sitemap wird zusätzlich der Zeitpunkt der letzten Aktualisierung (lastmod) übermittelt

Eine Segmentierung der Sitemaps ist in diesem Kontext hilfreich. Denn Google hat zwar keine Probleme, einzelne Sitemaps mit bis zu 50.000 Adressen zu verarbeiten, die Erfahrung zeigt aber, dass kleinere Sitemaps das Crawling positiv beeinflussen. Wieso nicht separate XML-Sitemaps mit den neuen Seiten des letzten Monats erstellen oder Sitemaps nach Seitenbereich aufbauen? Die Möglichkeiten sind vielfältig.

Wer mehr über XML-Sitemaps und deren Optimierung erfahren möchte, dem sei der hervorragende Artikel von Anke Probst in der Website Boosting Ausgabe 53 ans Herz gelegt.

Ein kleiner Tipp: In der neuen Google Search Console werden maximal 1.000 URLs einer Sitemap direkt angezeigt. Warum also nicht die Anzahl der Adressen pro Sitemap auf 1.000 begrenzen? Dann lässt sich wunderbar nachvollziehen, was alles (nicht) indexiert ist.

Und noch ein Tipp: Wenn Sie Inhalte schnell aus dem Google-Index bekommen möchten und das Search-Console-Tool zur Entfernung von URLs in Ihrem Fall nicht hilft, dann denken Sie auch hier an XML-Sitemaps. Denn diese lassen sich auch nutzen, um das Crawling für nicht mehr vorhandene, aber indexierte Adressen anzustoßen.

Website entrümpeln und die Struktur optimieren

Jede den Crawlern bekannte Adresse will gecrawlt werden. Zwar führen z. B. Weiterleitungen oder Crawling-Fehler dazu, dass die Crawling-Frequenz für die nicht mehr erfolgreich abrufbaren Adressen zurückgeht, aber wer sagt, dass eine 404-Seite morgen nicht doch wieder online ist? Von daher müssen auch 404-Seiten kontinuierlich überprüft werden – Google möchte ja keinen relevanten Inhalt verpassen. Über je mehr Adressen Ihr Webauftritt verfügt, desto mehr muss Google crawlen.

Warum also nicht mal über einen Frühjahrsputz nachdenken? Welche Seiten braucht es nicht mehr? Gibt es durch interne oder externe Links erzeugte Crawling-Fehler? Sind Weiterleitungsketten vorhanden? Welche URLs können per robots.txt vom Crawling ausgeschlossen werden? Welche URLs können problemlos auf noindex gestellt werden?

Trauen Sie sich, nicht mehr benötigte Seiten offline zu nehmen! Je weniger Adressen es auf Ihrer Website gibt, desto geringer ist der Crawlbedarf – zudem müssen weniger Adressen intern verlinkt werden. Werfen Sie ruhig einen Blick in Ihre Webanalyse – wie viele Adressen gibt es, die seit Längerem keinen oder nur wenige Besucher begrüßen konnten? Und was ist auf den einzelnen Adressen überhaupt an Inhalten drauf? Sind diese noch aktuell? Müssen Sie diese Seiten eventuell aktualisieren?

Bei der in Abbildung 4 dargestellten Website ist es so, dass über 75 % der SEO-Besucher auf gerade einmal 50 Adressen einsteigen – bei einem Webauftritt mit mehreren Tausend indexierten Seiten und einer fast sechsstelligen Anzahl an SEO-Besuchern. Warum so viele Adressen der Website keine oder nur eine geringe Sichtbarkeit in der unbezahlten Google-Suche haben? Eine ausgezeichnete Frage, der nachgegangen werden sollte!

Abbildung 4: Bei dieser Website sind 50 Adressen für über 75 % der SEO-Zugriffe verantwortlich

Wenn Sie sich intensiv mit Ihrer Website auseinandersetzen, dann stellen Sie sich die Frage, ob es nicht an der Zeit ist, die Website-Struktur kritisch zu hinterfragen. Crawling-Tools wie Screaming Frog, Ryte oder audisto helfen Ihnen dabei, die Struktur Ihrer Website abzubilden.

Bewerten Sie aber nicht nur den Status quo, sondern schauen Sie, ob es Bedarf für neue Übersichtsseiten gibt, die die Inhalte noch besser als bisher zusammenfassen. Dadurch haben Sie nicht nur potenziell neue relevante Einstiegsseiten für Suchmaschinennutzer zur Hand, sondern erleichtern zudem jedem Besucher die Navigation durch die Website.

Ladegeschwindigkeit verbessern

Auf SEO-Konferenzen und in Bezug auf Logfile-Analysen ist regelmäßig der Begriff Crawlbudget zu hören. Damit wird beschrieben, wie viel Aufmerksamkeit in Form von Serverressourcen Google einer Website zum Crawling der Inhalte zur Verfügung stellt. Dabei handelt es sich nicht um eine feste Adressanzahl, sondern eher um ein Zeitbudget. Und auch dieses ist nicht statisch.

Wie Sie in Abbildung 1 sehen konnten, lag das Crawling-Volumen im November deutlich über dem der Folgemonate. Gründe für ein temporär höheres Crawling sind vielfältig. Mal ist es eine umfassende Überarbeitung der Website, mal viele neue Inhalte oder Links und mal will Google die Website in großen Teilen neu erfassen.

Wie Sie wissen, sind Googles Crawling-Ressourcen limitiert, von daher möchte Google diese möglichst effizient einsetzen. Eine wesentliche Einflusskomponente auf das Crawling-Volumen ist die Ladegeschwindigkeit einer Website. Wer diese über Optimierungen wie beispielsweise eine bessere Komprimierung von Bildern, eine Reduzierung der Anzahl der zu ladenden Dateien, schnellere Datenbankabfragen oder Nutzung von Caching (Zwischenspeichern) verbessern kann, der tut nicht nur Nutzern einen Gefallen, sondern auch Google honoriert den verbesserten Pagespeed regelmäßig mit mehr Zugriffen des Googlebot.

Einzelne Adressen über die URL-Überprüfung einreichen

Mit der „URL-Überprüfung“ der Google Search Console können Sie nicht nur überprüfen, ob eine Seite aktuell im Index enthalten ist und wann diese zuletzt gecrawlt wurde! Das Tool lässt sich dazu verwenden, Google über Aktualisierungen bereits bekannter sowie neue Adressen zu informieren.

Vermutlich kennen Sie das bisher dafür von Google angebotene Tool „Abruf wie durch Google“. Dieses wird mittelfristig durch die URL-Überprüfung ersetzt, kann bis dahin aber natürlich genauso für die Benachrichtigung von Google über aktualisierte oder neue Inhalte verwendet werden. Innerhalb weniger Augenblicke sollte Google die neue Seitenversion vorliegen.

Abbildung 5: Durch einen Klick auf „Indexierung beantragen“ kann Google über aktualisierte oder neue Adressen informiert werden

Bald kommt sie: die Google-Indexing-API

Um aktuell Jobanzeigen und Livestream-Inhalte noch schneller indexiert zu bekommen, bietet Google eine eigene API (Schnittstelle) zur Einreichung dieser Inhalte an. Über die Schnittstelle kann Google unabhängig von einem Interface über aktualisierte oder neue Adressen informiert werden – quasi die URL-Überprüfung der Search Console zeitgleich für mehrere Adressen. Wer sich schon jetzt mit der API vertraut machen möchte, der findet unter developers.google.com/search/apis/indexing-api/v3/quickstart alle notwendigen Informationen.

Auch von Bing ist zu hören, dass eine ähnliche API in Planung ist. Vielleicht steht uns ja mittelfristig eine schrittweise Abkehr von den bisherigen Crawling-Aktivitäten bevor? Suchmaschinen könnten Webmaster dazu „erziehen“, neue Inhalte über API-Schnittstellen einzureichen und das Crawling wie bisher z. B. nur noch jeden Monat anzustoßen, um eine Gesamtanalyse der Website inklusive ihrer Struktur durchzuführen. Das würde sowohl für Website-Betreiber als auch für Suchmaschinen zu einer deutlich verbesserten Nutzung der vorhanden Server- bzw. Crawling-Kapazitäten führen. Man darf also gespannt sein, was die Zukunft bringt.




Zehn Dinge, die Chefs über SEO wissen sollten

Entscheider haben viel zu tun und meistens keine Zeit, sich selbst in das komplexe Thema Suchmaschinenoptimierung (SEO) einzuarbeiten. Trotzdem müssen sie grundlegende Entscheidungen treffen, ob und wie viel SEO eingekauft wird und wer es letztlich umsetzt. Ob SEO gelingt oder nicht, entscheidet sich bereits in der Planung. Diese zehn Punkte sollen dabei helfen, die richtigen Entscheidungen zu treffen, auch ohne selbst SEO-Experte zu sein.

Suchmaschinenoptimierung scheitert meistens bereits in der Planungsphase. Viele Marketing-Entscheider können SEO naturgemäß nicht richtig einschätzen und setzen stattdessen auf klassisches Marketing und ein diffuses Bauchgefühl. Das ist auch nachvollziehbar, es fehlt in Deutschland an gut ausgebildetem Personal und das Budget gibt die Investition in teure Agenturen oder Freelancer oftmals nicht her. Die Folge: Die Unternehmenswebsite wird vernachlässigt, verwahrlost zusehends und wird für wichtige Suchbegriffe nicht gefunden. Gleichzeitig jagt Ihnen der Wettbewerb online signifikante Marktanteile ab, ohne dass Sie es mitbekommen. Ohne SEO fehlen Ihnen die Instrumente und der Kompass, Sie sind im Blindflug unterwegs und es droht der Absturz!

Das muss nicht sein! Auch ohne sich selbst mit der komplexen praktischen Umsetzung von SEO im Detail auszukennen, gibt es einige Dinge, die Geschäftsführung oder Marketingleitung wissen müssen, um die Suchmaschinenoptimierung richtig einschätzen und sicher planen zu können.

Abbildung 1: Wissen Sie, wie viele Klicks über Suchmaschinen generiert werden? (Google Search Console)

1. SEO ist die wichtigste Marketingdisziplin

Es gibt unzählige TV-Kanäle, Radiosender, Printmagazine oder Social Networks für ganz unterschiedliche Zielgruppen, Altersgruppen und Bedürfnisse. Aber all diese Menschen nutzen Suchmaschinen! Und fast alle verwenden dafür Google, mobil sogar weit über 90 Prozent. Schauen Sie einfach mal in Ihren Analytics-Daten nach, wie viele Menschen via Google auf Ihre Unternehmensseite kommen. Wenn Sie nicht alles falsch gemacht haben, dürfte dieser Anteil bei mindestens 60 bis 70 Prozent liegen, häufig sogar mehr. Diese Marktdominanz wird sich in den nächsten Jahren vermutlich kaum verändern, aufgrund des riesigen technologischen Vorsprungs, den Google in den letzten 20 Jahren – zumindest in der westlichen Welt – aufgebaut hat. Alle Suchmaschinen verfolgen dasselbe Ziel: Suchenden die möglichst besten Treffer für ihre Suchbegriffe zu zeigen, und zwar genau in dem Moment, wenn sie aktiv danach suchen. Es lohnt sich also, genauer anzusehen, wie Suchmaschinen funktionieren und wie Sie mit Ihrer Expertise auf Google und Co. auffindbar werden. Dafür brauchen Sie SEO.

2. SEO ist eine nachhaltige Investition in eigene Kanäle

Anders als viele Online-Geschäftsmodelle versorgt Google Milliarden Websites mit mehr oder weniger stabiler, weitgehend kostenloser Reichweite. Im Durchschnitt werden über 50 Prozent des gesamten Website-Traffics durch unbezahlte Suchergebnisse generiert, während 15 Prozent über bezahlte Anzeigen und nur rund 4 Prozent der Besucher von sozialen Medien kommen (https://videos.brightedge.com/research-report/BrightEdge_ChannelReport2019_FINAL.pdf). In sozialen Netzwerken hat ein erfolgreicher Post eine Lebensdauer von ein paar Stunden, auf Suchmaschinen ist eine gut rankende Seite häufig über Monate und Jahre auffindbar. Häufig werden die Follower auf sozialen Netzwerken heute gar nicht mehr erreicht, wenn keine Werbeanzeige gebucht wird. Über Suchmaschinen erreichen Sie hingegen Menschen, die Ihr Unternehmen bis dato noch gar nicht kennen und erst über die Suche darauf aufmerksam werden. Diese Menschen landen dann am Ende der Suche auf Ihrer eigenen Website und bleiben nicht in einem sozialen Netzwerk gefangen, das Ihnen nicht gehört. SEO ist also eine gut angelegte Investition in eigene Kanäle, nicht in die großen US-Plattformen. Suchmaschinenoptimierung kostet zwar auch Geld, aber kein einziger Euro fließt dabei an Google, Facebook oder Amazon, sondern direkt in den nachhaltigen Erfolg Ihrer Website.

3. Klicks gibt es nur ganz vorne in den Suchergebnissen

Suchmaschinen crawlen Milliarden von Websites und ranken dann zu jedem Suchbegriff nur die vermeintlich 100 besten als Suchergebnis. Täglich wächst der Wettbewerb auf Google. 99,1 Prozent aller Nutzer vertrauen allerdings nur den Suchergebnissen auf der ersten Seite, also den ersten zehn Treffern! Davon klicken wiederum durchschnittlich ca. 30 Prozent auf das erste Suchergebnis (http://einfach.st/sistrixctr). Umgekehrt bedeutet das: Wer erst auf der zweiten Suchergebnisseite auftaucht, bekommt so gut wie gar keine Klicks mehr, bleibt also unsichtbar. Es ist in den meisten Fällen völlig ausgeschlossen, heute noch zufällig und ohne eine kluge SEO-Strategie in diese Top 10 oder sogar Top 3 zu kommen, wo potenzielle Kunden Sie auch tatsächlich finden. Die Konkurrenz schläft nicht und investiert längst in SEO.

4. Erreichen Sie die „digitale Laufkundschaft“, wenn sie nach Ihrem Angebot sucht

Bei einem lokalen Geschäft entscheidet die Lage darüber, ob auch Laufkundschaft in den Laden findet. Suchmaschinen sind im Internet der Ort, an dem Sie die surfende „Laufkundschaft“ online erreichen, und zwar genau in dem Moment, wenn sie aktiv etwas sucht. In diesem Moment sind diese potenziellen Kunden sehr aufmerksam und offen, anders als bei Werbung, wo Sie eventuell Menschen ansprechen, die in diesem Moment gar nicht offen für Ihre Angebote sind. Ihre Website ist das Schaufenster, und wenn sie gut gemacht ist, kommen die Nutzer von selbst hinein und kaufen etwas oder abonnieren Ihren Newsletter. Was genau Menschen auf Ihrer Website machen sollen, entscheiden Sie selbst, Suchmaschinenoptimierung sorgt zunächst nur dafür, dass sie überhaupt vorbeikommen und Ihr Angebot wahrnehmen. Suchmaschinen-Sichtbarkeit ist also gleichbedeutend mit der „Lage“ in der Online-Welt. Eine gute Lage ist zwar immer teurer (ja, auch SEO kostet Geld, alle großen Online-Brands investieren sehr hohe Beträge in SEO!), zahlt sich aber in der Regel und abhängig vom Geschäftsmodell durch signifikant steigende Reichweiten wieder aus. Bauen Sie Ihr Unternehmen also nicht einfach auf die grüne Wiese, sondern in zentraler Lage, dort, wo Menschen tatsächlich unterwegs sind und nach Ihren Themen suchen. Und die beste Lage im Netz gibt es nur mithilfe von SEO!

5. Suchmaschinen bieten jedem eine Chance

Suchmaschinen versuchen, für jede Suchanfrage das inhaltlich beste Ergebnis zu liefern. Grundsätzlich hat jeder – unabhängig von Größe oder Budget des Unternehmens – die Chance, für relevante Suchbegriffe auf Position 1 von Google gefunden zu werden. In vielen Bereichen wurden die großen und oft schwerfälligen Marktführer sogar von kleinen, agilen Unternehmen im Netz überholt, weil diese früher und konsequenter in den reichweitenstärksten Kanal Suchmaschinen investiert haben und mit mehr Fokus auf ihre Kunden agieren. Manche von diesen ehemaligen Giganten sind heute sogar ganz verschwunden und längst vergessen. Kaufen kann man sich gute organische Rankings übrigens nicht, man muss sie sich hart erarbeiten und das dauert mehrere Monate bis Jahre. Das gilt für globale Konzerne genauso wie für Start-ups oder Kleinstunternehmen. Jeder hat eine Chance, bei Google gefunden zu werden. Ähnlich wie bei Social Media reicht es allerdings nicht aus, nur einmal „SEO zu machen“, Sie posten ja auch nicht nur einmal auf Facebook und stellen Ihre Social-Media-Aktivitäten dann ein. Alles, was Sie auf Ihrer Website machen, sollte strategisch geplant werden und eine nachhaltig gesteigerte Sichtbarkeit in Suchmaschinen zur Folge haben. Viele Unternehmen glauben heute immer noch, dass die Menschen irgendwie auf magische Weise von selbst auf ihre Website kommen. Das ist aber nicht der Fall! Niemand kommt auf Ihre Website, wenn Sie nichts dafür tun.

Abbildung 2: Unter „Akquisition/Channels“ sehen Sie, wie hoch der Traffic-Anteil von Suchmaschinen ist (Google Analytics)

6. Auf Suchmaschinenoptimierung zu verzichten ist sehr teuer

Wer nicht zu den richtigen Suchanfragen in Suchmaschinen gefunden wird, muss zwangsläufig Anzeigen schalten, um auf sein Angebot aufmerksam zu machen und Kunden darauf zu locken. Und das kann auf Dauer sehr teuer werden. Während Sie für jeden einzelnen Klick auf eine Anzeige in Suchmaschinen immer Geld bezahlen müssen, bringen organische Rankings in Suchmaschinen über Monate und Jahre kostenlos potenzielle Kunden auf Ihre Seite und sorgen durch SEO für stetiges Wachstum.

Zwar kostet auch Suchmaschinenoptimierung Geld, schließlich muss zunächst geplant, recherchiert und umgesetzt werden. Doch der Ertrag ist am Ende meistens ungleich höher als die Investition, weil Sie damit überhaupt erst die Grundlage für organisches Wachstum schaffen. In der Regel werden Anfangsinvestition und laufende Kosten für gute Suchmaschinenoptimierung früher oder später vom zusätzlichen Traffic und der damit verbundenen Skalierung gedeckt. Sobald dieser Break-Even erreicht wird, generieren Sie mehr Umsatz und Gewinn als die laufenden Kosten für SEO. Dadurch hat SEO mittel- bis langfristig den besten ROI (Return on Investment) aller Online-Marketingkanäle.

7. SEO senkt das Unternehmensrisiko

Durch ihre Nachhaltigkeit ist die Suchmaschinenoptimierung langfristig betrachtet nicht nur die erfolgversprechendste, sondern auch die günstigste Marketingdisziplin. Aber mehr als das: Nur mit konsequenter Suchmaschinenoptimierung erkennen Sie frühzeitig Fehler, etwa nach Relaunches oder anderen technischen oder inhaltlichen Änderungen auf der Website. SEO behält fortlaufend alle wichtigen Kennzahlen und Metriken Ihrer Website und auch die der wichtigsten Wettbewerber ständig im Blick und gibt damit wichtige Anhaltspunkte, welche Themen am häufigsten gesucht werden und damit am erfolgversprechendsten für Ihr Unternehmen sind. Selbst wenn die Stundensätze kompetenter SEO-Consultants oder Agenturen oft stattlich sind, zahlt sich eine fortlaufende und konsequente Optimierung langfristig immer aus und bietet nur Chancen, birgt aber kaum Risiken, außer das, an eine inkompetente Agentur zu geraten. Dieses Risiko können Sie am effektivsten durch einen initialen SEO-Workshop mit dem gesamten Team minimieren. Dabei können Sie prüfen, ob Sie die ausgewählte SEO-Agentur bzw. den SEO-Berater überhaupt verstehen und ob die vorgeschlagenen Maßnahmen für Ihr Team umsetzbar sind. Erst wenn Sie vom Erfolg einer Zusammenarbeit überzeugt sind, sollten Sie einen längerfristigen Vertrag unterschreiben. Fragen Sie also einfach nach einem Workshop, die meisten seriösen SEO-Agenturen werden Ihnen so ein Format anbieten können. Es ist auch im Interesse der Agentur, Ihr Unternehmen kennenzulernen und herauszufinden, ob eine Zusammenarbeit fruchten würde und ob die Chemie stimmt.

8. Suchmaschinenoptimierung ist (relativ) einfach zu erlernen

Zwar ist die genaue Zusammensetzung von Googles Algorithmus ein extrem gut gehütetes Geheimnis, dennoch gibt es ein paar grundlegende Rankingfaktoren (https://www.searchmetrics.com/de/knowledge-hub/studien/ranking-faktoren-nischen/), über die sich alle SEO-Experten weitgehend einig sind. Mit Raketenwissenschaft oder Zauberei hat all das nichts zu tun, sondern viel mehr mit Handwerk und dem Sammeln von Erfahrungswerten sowie testen, testen, testen! Auch der Austausch zwischen SEOs – zum Beispiel in der Website Boosting – gibt immer wieder wertvolle Hinweise über zielführende Strategien oder den richtigen Umgang mit Problemen. Theoretisch kann jeder Mitarbeiter und jede Mitarbeiterin die Grundlagen von SEO erlernen und selbst zum SEO-Crack werden, was aber sehr viel Zeit erfordert und nur unter Anleitung erfahrener SEO-Berater gelingen wird. Da es heute extrem schwierig geworden ist, erfahrene SEO-Experten fest an ein Unternehmen zu binden, sollten Sie sich deshalb immer auch Unterstützung von außen holen und auf das Know-how bewährter Agenturen oder Berater zugreifen und sich dieses Wissen permanent ins Unternehmen holen und dort verankern. Entwickeln Sie Interesse für SEO und lassen Sie sich nicht nur bedienen. Das Thema ist zu wichtig, um es einfach auszulagern. Es sollten darüber hinaus mehrere Personen im Haus mit Suchmaschinenoptimierung verantwortlich betraut werden, damit es täglich ein Stück vorangeht und der gesammelte Erfahrungsschatz auch nach internen Umbesetzungen im Unternehmen bleibt und nicht zum Wettbewerb abwandert. Diese Mitarbeiter sollten regelmäßig an Schulungen teilnehmen, um ihren SEO-Horizont ständig zu erweitern, jeden Tag ein Stück zum Erfolg Ihrer Website beitragen zu können und das über lange Zeit intern als festen Bestandteil der Marketingaktivitäten zu etablieren.

9. SEO bringt zufriedenere Kunden und Mitarbeiter

Google möchte für Nutzer auch künftig die beste Suchmaschine bleiben und die bestmöglichen Resultate bieten. Neue Suchmaschinen müssen sich künftig daran messen lassen. Selbst wenn Amazon, Apple oder andere Anbieter Google künftig Marktanteile abnehmen wollen, müssten diese an Google erst einmal vorbeikommen. Das ist in den vergangenen 20 Jahren keinem mehr gelungen, selbst Microsoft hat sich an der Dominanz von Google die Zähne ausgebissen, auch wenn Bing eine erstklassige Suchmaschine und ernst zu nehmender Wettbewerber ist. Die führende Marktposition erreichte Google dadurch, die Interessen der Nutzer vor die eigenen geschäftlichen Interessen zu stellen. Das oberste Prinzip seriöser Suchmaschinenoptimierung ist also: Was gut für Internetnutzer ist, ist meistens auch gut für Suchmaschinen. Egal ob schnelle Ladezeiten, nützliche und informative Inhalte oder leicht verständliche Sprache: Alles, was eine positive Nutzererfahrung erzeugt, wird sich über kurz oder lang auch positiv auf Rankings und damit früher oder später auf Ihren Umsatz niederschlagen. Bieten Sie also erstklassigen Service für Ihre Zielgruppen und empfehlen Sie sich durch informative und nützliche Inhalte statt eitler Selbstdarstellung. Denken Sie immer daran, dass die Aufmerksamkeit Ihrer Besucher extrem limitiert ist. Führt eine Suche nicht sofort zum Erfolg, wird sehr schnell abgebrochen und neu gesucht und das ist das schlechteste Signal, was Sie an eine Suchmaschine senden können. SEO heißt also letztlich auch, seine Website auf Grundlage von Nutzerdaten immer besser zu machen. Und auf Grundlage von Daten zu arbeiten, macht es Mitarbeitern einfacher, den Sinn ihrer Arbeit nachzuvollziehen. Sie werden sich dank der SEO-Instrumente sicherer fühlen und die Erfolge ihrer Arbeit schwarz auf weiß sehen können, anhand von Metriken wie steigender Sichtbarkeit, mehr Klicks und am Ende: mehr Umsatz.

10. Menschen werden auch künftig suchen

Suchmaschinenoptimierung ist eine vergleichsweise junge Marketingdisziplin und dennoch eine sichere Investition in die Zukunft, denn keine neue App, kein neues Start-up wird es je mit der Vielfalt und der unerschöpflichen Informationsmenge des World Wide Web aufnehmen können. Zwar werden sich die Geräte und auch die bevorzugten Plattformen alle paar Jahre wandeln, doch es wird immer gesucht werden, um sich im Zeitalter des Informationsüberflusses zurechtzufinden. Ob Siri uns künftig das Suchergebnis sagt oder Google uns irgendwann jeden Wunsch von den Lippen abliest: Wer heute startet, wird auch morgen noch gefunden werden, sofern man dabeibleibt und nicht nach ein paar Monaten schon wieder die Flinte ins Korn wirft, weil es länger dauert, bis sich Erfolge zeigen. Es lohnt sich also, am Ball zu bleiben und die Performance der eigenen Website nicht nur dem Zufall zu überlassen.

Tipp

Udo Raaf hat mit „Der SEO Planer“ einen angenehm kompakten, gut recherchierten Einstieg in das Thema Suchmaschinenoptimierung geschrieben. Wer sich neu mit der Materie vertraut machen will und sich einen aktuellen Überblick über modernes SEO verschaffen möchte, wird hier fündig.
1. Aufl. 2021, XIII, 66 Seiten und 15 Abbildungen. Als Softcover (14,99 € (D)) und als E-Book (4,48 € (D)) im Fachhandel oder direkt bei Springer erhältlich.

Aller Anfang ist schwer: So gelingt der Start in SEO

Man muss nicht unbedingt wissen, wie SEO im Detail funktioniert, und man muss auch kein Entwickler sein. Viele Entwickler verstehen sogar überhaupt nichts von Suchmaschinenoptimierung und bekommen trotzdem immer wieder die Verantwortung zugeschoben. Wer möchte, dass eine Website erfolgreich wird, muss SEO vernünftig planen und die notwendigen Voraussetzungen dafür schaffen und das bedeutet:

  1. SEO in die Budget- und Personalplanung mit einbeziehen.
  2. Personal schulen und Verantwortlichkeiten klären (Technik, Webdesign und Inhalte).
  3. Eine gute SEO-Agentur oder Freelancer anheuern, um eine Strategie zu erarbeiten und das Team zu coachen, sowie als Sicherheitsnetz bei Fehlern oder internen Umbesetzungen.

SEO macht man nicht mal so eben nebenbei, sondern es ist die Grundlage der täglichen Arbeit mit einer professionellen Website. SEO ist kein einmaliges Projekt, sondern genauso wie alle anderen Marketingdisziplinen tägliches Brot – und die Grundlage Ihres Erfolgs im Internet.

Abbildung 3: SEO-Seminare können Mitarbeitern ohne Vorwissen wichtige Kenntnisse vermitteln (Foto: Julia Müller)

Budgetplanung: Was kostet SEO?

Seriöse Suchmaschinenoptimierung gibt es erfahrungsgemäß ab ca. 1.000 Euro pro Monat bei Freelancern und ab ca. 3.000 Euro bei Agenturen, die Stundensätze von SEO-Beratern mit mehreren Jahren Berufserfahrung liegen ungefähr zwischen 100 und 200 Euro je nach Erfahrung und Auslastung. Wie viel SEO tatsächlich sinnvoll ist, hängt vom Umfang der Website und den gesteckten Zielen ab. Ob ein SEO-Berater oder eine große Agentur die richtige Wahl ist, hängt auch davon ab, wie viel im Unternehmen selbst umgesetzt werden kann und wie hoch das Budget ist. Wenn das Personal für Technik und Inhalte im Haus ist und nur gecoacht werden soll, genügt häufig bereits ein Freelancer. Möchte man die inhaltliche Arbeit und auch die Umsetzung größtenteils auslagern und nur intern steuern oder basiert das gesamte Geschäftsmodell auf Online-Sales, sollte man eine vielköpfige Agentur mit vielen verschiedenen Expertisen wählen und muss entsprechend mehr einplanen.

Doch diese Investition lohnt sich in der Regel langfristig durch signifikant mehr Reichweiten und Umsatz. Je mehr Sie selbst im Haus umsetzen können, desto günstiger wird es, und je besser die SEO-Beratung, desto nachhaltiger sind die Erfolge.

Gute SEO-Berater können sowohl mit den Entwicklern besprechen, welche technischen Dinge es umzusetzen gibt, und den Erfolg der Umsetzung prüfen als auch mit Redaktionen die Inhalte für Suchmaschinen optimieren.

Eine SEO-Agentur ist allerdings immer nur so gut, wie Sie es zulassen: Wird eine ausgearbeitete Strategie nicht konsequent umgesetzt, hilft auch kein SEO-Audit mehr weiter. Räumen Sie SEO also ausreichend Zeit ein, damit täglich Fortschritte erzielt werden können. Priorisieren Sie die Arbeit an der Website für Ihre Mitarbeiter und stellen Sie sicher, dass täglich daran gearbeitet wird. SEO ist keine Aufgabe, die man mal eben kurz vor Feierabend macht, sondern dafür braucht es Zeit.

Ihr Vorteil: SEO ist messbar, Erfolge oder Probleme können von einer Agentur in regelmäßigen Abständen, zum Beispiel monatlich oder quartalsweise, berichtet werden. So sind Sie jederzeit im Bild über die Fortschritte der eigenen Website und können bei Bedarf nachjustieren oder bestimmte Themen priorisieren. Es lohnt sich, garantiert! Man muss es einfach nur machen.




Für Einsteiger: Back to the Roots – Remarketing!

Mit Remarketing werden User durch Werbung angesprochen, nachdem sie bereits mit Ihrem Unternehmen interagiert haben. Im klassischen Fall besucht ein User Ihre Website, verlässt diese wieder und erhält nun Anzeigen der besuchten Site auf anderen Websites eingespielt. In der Regel bringen die so „zurückgeholten“ Besucher eine deutlich höhere Kaufneigung und damit Konversionsrate mit. Der Einsatz von Remarketing gehört daher seit dem Bestehen für viele zum festen Repertoire beim Online-Marketing. Lesen Sie im folgenden „Back to the Roots“-Artikel des Google-Ads-Experten Alexander Beck, was es dabei zu beachten gibt.

Die Gründe für Remarketing können unterschiedlichster Natur sein: So können Sie beispielsweise Produkte oder Dienstleistungen bewerben, die ein User auf Ihrer Website angesehen, aber nicht gekauft hat – selbstverständlich mit dem Ziel, dass der User sie bei einem erneuten Besuch der Website dann doch kauft. Sie können nach einem erfolgten Kauf Cross- und Upselling-Angebote anpreisen. Oder es kann auf den Download eines ergänzenden Informations-PDFs hingewiesen werden, nachdem sich der User bereits die Unterseite für eine bestimmte Dienstleistung angesehen hat. Der Fantasie sind hier kaum Grenzen gesetzt.

Deshalb stehen Ihnen zahlreiche Möglichkeiten zur Verfügung. Sie können je nach Kampagnenziel individuelle Anzeigenbotschaften formulieren und aus zahlreichen Formaten wählen. Sie können Remarketing nicht nur auf anderen Websites, sondern auch in Apps, in der Suche, auf YouTube oder in Gmail ausspielen. Sie können auf das statische Remarketing zurückgreifen, bei dem allen Mitgliedern einer Zielgruppe die gleichen Anzeigen ausgespielt werden, oder Sie nutzen das dynamische Remarketing für die User, bei dem individuelle Anzeigen erstellt werden.

In allen Fällen müssen Sie drei Schritte absolvieren: das Remarketing-Tag implementieren, Zielgruppenlisten bzw. Segmente erstellen (was Ihnen beim dynamischen Remarketing Google abnimmt) sowie die Kampagnen anlegen.

Google-Ads-Remarketing-Tag

Remarketing mit Google können Sie über Google Ads oder Google Analytics aktivieren. Die Tags fügen Sie dann jeweils direkt auf der Website ein oder installieren sie über einen Tag-Manager, etwa den Google-Tag-Manager. Unbedingt sollten Sie die Besucher Ihrer Website an geeigneter Stelle darüber informieren, die Cookie-Zustimmung regelkonform einholen sowie natürlich auch die Richtlinien von Google beachten (siehe Google-Ads-Hilfe: https://support.google.com/adspolicy/answer/143465).

Ihre Anlaufstelle rund ums Remarketing ist im Google-Ads-Account die Zielgruppenverwaltung, welche Sie über das Symbol des Werkzeugschlüssels (Tools und Einstellungen) unter Gemeinsam genutzte Bibliothek erreichen (siehe Abb. 1). Dort werden die Begrifflichkeiten gerade umgestellt, sodass Sie in der linken Navigation entweder schon auf Segmente, Ihre Datenstatistik und Ihre Datenquellen oder noch auf Zielgruppenlisten, Zielgruppeninformationen und Zielgruppenquellen treffen (siehe Google-Ads-Hilfe: https://support.google.com/google-ads/answer/10566701).

Abbildung 01: Tools > Zielgruppenverwaltung

Google-Ads-Remarketing-Tag

Zum Remarketing-Tag gelangen Sie, indem Sie Ihre Datenquellen (bzw. Zielgruppenquellen) öffnen und dann auf Details im Bereich Google-Ads-Tag klicken. Auf der Folgeseite können Sie das Remarketing-Tag auf drei Arten abrufen: um es selbst zu implementieren, um es unmittelbar an eine dritte Person wie etwa einen Webmaster oder Techniker zu senden oder um es über den Google-Tag-Manager einzubauen (siehe Abbildung 02: Remarketing-Tag abrufen inkl. Global Site Tag).

Abbildung 02: Remarketing-Tag abrufen inkl. Global Site Tag

Das Global-Tag fügt Besucher den Remarketinglisten zu. Es entspricht dem Global-Tag, das auch beim Google-Ads-Conversion-Tracking einzubauen ist. Haben Sie es bei dieser Gelegenheit also bereits verbaut, so müssen Sie dies für das Remarketing nicht nochmals tun. Im Umkehrschluss bedeutet dies allerdings auch, dass Sie bereits Besucher für Remarketinglisten gesammelt haben. Sollte dies unwissentlich und unabsichtlich geschehen sein, so ist es spätestens jetzt an der Zeit, die Nutzerhinweise zum Datenschutz auf der Website zu aktualisieren.

Dynamisches Remarketing

Damit Sie das statische Remarketing nutzen können, genügt das Global Site Tag. Ihm können über die eindeutige ID (in Abbildung 02 ausgegraut) zusätzliche Informationen übergeben werden: Beim Conversion-Tracking wird über das Event-Snippet etwa erfasst, ob eine Conversion stattgefunden hat und gezählt werden soll. Beim Remarketing wird ein zusätzliches Event-Snippet z. B. dann benötigt, wenn dynamisches Remarketing eingesetzt werden soll. Hierfür müssen Sie auf die Eingabeseite Quelle bearbeiten gehen. Diese finden Sie auf Ihre Datenquellen über die drei Punkte oben rechts.

Für das dynamische Remarketing stellen Sie die Auswahl unter „Remarketing“ um. Denn die voreingestellte erste Option gilt für das statische Remarketing, die zweite Option für das dynamische Remarketing. Es öffnet sich sodann der Bereich „Unternehmenstyp“, welcher alle Produkte und Dienstleistungen auflistet, die für das dynamische Remarketing zur Verfügung stehen. Fehlt die für Ihr Unternehmen passende Auswahlmöglichkeit, so können Sie die Option benutzerdefiniert verwenden. Für Einzelhändler muss ein entsprechender Produktfeed im Merchant Center hinterlegt sein; die weiteren Unternehmenstypen laden ihre Feeds hinter dem Werkzeugschlüssel unter Geschäftsdaten hoch.

Speichern Sie die eingegebenen Angaben ab, so erstellen Sie ein Event- (oder Ereignis-)Snippet. Dieses erfasst Aktionen und Parameter und wird gemeinsam mit dem Global Site Tag aufgerufen. Je nach gewähltem Unternehmenstyp sind andere Parameter zu übergeben – für den Einzelhandel ist eine eindeutige Produkt-ID zwingend erforderlich, Wert oder Feedtyp werden empfohlen (siehe z. B. Google-Ads-Hilfe: https://support.google.com/google-ads/answer/7305793).

Mit einem Chrome-Plug-in wie dem Google Tag Assistent können Sie nachvollziehen und prüfen, ob und welche Parameter übergeben werden. In Abbildung 03 (Google Tag Assistent) erkennen Sie beispielsweise, dass als Ereignis der Aufruf einer Produktseite (Event), als Feedtyp „retail“ für einen Einzelhändler (google_business_vertical) und letztendlich die Produktkennzeichnung (ID) übergeben wird. Letztere muss mit dem Produkt im Datenfeed übereinstimmen, sodass sich Google die korrekten Daten für die Erstellung der Anzeige ziehen kann.

Abbildung 03: Google Tag Assistent

Einbau über den Google-Tag-Manager

Im Google-Tag-Manager steht für die Tag-Konfiguration bereits Google-Ads-Remarketing als Tag-Typ zur Auswahl. Wählen Sie diesen aus, so hinterlegen Sie im nächsten Schritt die Conversion-ID – also jene ID, die Sie als dritte Option im Ads-Konto abrufen können (siehe Abbildung 02: Remarketing-Tag abrufen) und die der eindeutigen ID im Global- Tag entspricht.

Im Google-Tag-Manager müssen Sie festlegen, bei welchen Ereignissen das Tag ausgelöst werden soll. Dies machen Sie über sogenannte Trigger. Um als Ereignis den Aufruf irgendeiner Seite Ihrer Website festzulegen, wählen Sie alle Seiten. Und nach mindestens diesen Schritten ist das Remarketing-Tag für das statische Remarketing dann auch schon implementiert. (Für das dynamische Remarketing müssen noch weitere Informationen übergeben werden.)

Zielgruppen (bzw. Segmente) erstellen

Die Remarketinglisten erstellen Sie im Bereich Segmente (bzw. Zielgruppenlisten) – wie im Ads-Account üblich über das blau markierte Pluszeichen.

Im Dropdown erkennen Sie, dass Sie Remarketinglisten nicht nur durch Besuche auf Ihrer Website, sondern auch aufgrund von Interaktionen der User mit Ihrer App sowie Ihren YouTube-Videos und -Kanal sowie über den Upload bestehender Kundenlisten (Customer Match) füllen können. Durch benutzerdefinierte Kombinationen können Sie Ihre Remarketinglisten dann mit Und- sowie Oder-Verknüpfungen kombinieren und weiter schärfen.

Für die klassischen Websitebesucher müssen Sie folgende Angaben tätigen (siehe Abbildung 5):

  • Name und Beschreibung des Segments (bzw. der Zielgruppe) sollten so eindeutig sein, dass Sie die Zielgruppe wiederfinden bzw. die gesammelten Nutzer eindeutig erkennen.
  • Als Mitglieder können Sie Besucher der Website insbesondere anhand der aufgerufenen URLs segmentieren. In Abbildung 05 (Remarketingliste Websitebesucher erstellen) erkennen Sie etwa, dass ein User
  • auf Seiten gewesen sein muss, die shop in der URL enthalten,
  • nicht aber auf Seiten gewesen sein darf, die danke enthalten.

Damit sollen alle Besucher erfasst werden, die zwar den Shop-Bereich der Website aufgerufen, jedoch nichts gekauft haben. Diese Einstellung muss natürlich so angepasst werden, wie es Ihre URL-Struktur hergibt.

Abbildung 05: Remarketingliste Websitebesucher erstellen

  • Sie haben die Möglichkeit, in eine neu erstellte Liste bereits die Besucher der letzten 30 Tage einfließen zu lassen, die Ihren gewählten Kriterien entsprechen. Ist dies möglich, so sollten Sie dies unter Optionen vorausfüllen voreingestellt belassen.
  • Die Gültigkeitsdauer gibt an, wie lange ein Nutzer in der Remarketingliste bleiben soll. Grundsätzlich ist dies bis zu 540 Tagen möglich. Jedoch sollten Sie abklären, ob dies in datenschutzrechtlicher Sicht bei Ihnen erlaubt ist.
    Je nach Ihren angebotenen Produkten und Dienstleistungen macht eine längere oder kürzere Dauer Sinn: Je länger der Entscheidungsprozess bis zur Conversion typischerweise dauert, umso länger sollte der Nutzer über Remarketing ansprechbar sein. Es spricht aber auch nichts dagegen, die gleiche Liste mehrmals mit unterschiedlichen Gültigkeitsdauern anzulegen.

Die eben definierten Segmentmitglieder können auch über benutzerdefinierte Kombinationen angelegt werden. Dafür müssten Sie zunächst zwei Remarketinglisten erstellen:

  • Liste 1 enthält alle Besucher, die auf Seiten mit shop in der URL waren
  • Liste 2 enthält alle Besucher, die auf Seiten mit danke in der URL waren

Nun nehmen Sie als Grundlage also Liste 1 und schließen Liste 2 davon aus (siehe Abbildung 06: Benutzerdefinierte Kombinationen). Damit sprechen Sie am Ende wiederum nur diejenigen Nutzer an, die zwar im Shop waren, aber die Danke-Seite nicht erreicht, somit keine Conversion getätigt haben.

Abbildung 06: Benutzerdefinierte Kombinationen

Beim Remarketing über Google Ads segmentieren Sie Ihre Besucher zumeist über die URL. Trotzdem ist es möglich, Listen anhand von Zeiträumen sowie anhand von Tags zu erstellen: Bei Ersterem werden alle Besucher innerhalb zeitlicher Daten gesammelt, bei Letzterem werden Besucher gesammelt, die Seiten mit bestimmten Tags aufgerufen haben, etwa Conversion-Tracking-Tags. Noch deutlich differenziertere Auswahlkriterien haben Sie dann jedoch über das Remarketing mit Google Analytics.

Google-Analytics-Tag

Für Remarketinglisten in Google Analytics stehen Ihnen über 250 Metriken zur Verfügung, mit denen Sie Ihre Besuchersegmente definieren können. So können Sie etwa nach Kennzahlen des Websitebesuchs wie Dauer oder Seitenanzahl segmentieren, nach Channels, über die User gekommen sind, nach Geräten, nach Engagement, nach der Anzahl der durchgeführten Transaktionen oder nach Warenwerten – unterm Strich nach deutlich mehr Größen als mit Google Ads (siehe Abbildung 07: Zielgruppendefinitionen in Google Analytics). Daher ist es dann auch in den meisten Fällen vorteilhafter, Google Analytics für die Erstellung von Remarketinglisten zu nutzen.

Abbildung 07: Zielgruppendefinitionen in Google Analytics

Angelegt werden die Zielgruppen auf Property-Ebene unter Zielgruppendefinitionen. In Abbildung 08 erkennen Sie beispielsweise eine Zielgruppe mit Abfolgen und Bedingungen. Grundgedanke ist es, über Remarketing User anzusprechen, die sich Seiten zu einem bestimmten Thema (Seite: enthält „/sea“) angesehen haben, dann sogar auf die Kontaktseite gegangen sind (Seite: enthält „/kontakt“), letztendlich das Formular jedoch nicht abgeschickt haben (Kontaktformular abgesendet (Wert für Zielvorhaben 1) = 0).

Abbildung 08: Beispiel-Zielgruppe in Google Analytics

Neben der manuellen Definition können Sie über den Button aus der Galerie importieren vordefinierte Remarketinglisten auswählen, die Sie per Knopfdruck übernehmen können. Zudem können Sie Zielgruppen direkt aus bereits hinterlegten Segmenten bilden (Button Segment importieren).

Haben Sie Ihre Zielgruppe definiert, so müssen Sie das Zielkonto für Google Ads auswählen und damit festlegen, in welchem Google-Ads-Konto die Zielgruppe veröffentlicht werden soll. Dort finden Sie die Liste dann im Bereich der Zielgruppenverwaltung gemeinsam mit eventuellen Google-Ads-Remarketinglisten, wo Sie Ihnen für eventuelle Remarketing-Kampagnen bereitstehen.

Um Analytics nutzen zu können, müssen Sie Remarketing aktivieren und Ihren Account mit dem Google-Ads-Konto verknüpfen. Zudem sind die Voraussetzungen des Datenschutzes einzuhalten, der Vertrag zur Auftragsverarbeitung zu akzeptieren und die Anonymisierung der IP-Adressen durchzuführen.

Remarketing-Kampagne anlegen

Sinn des Remarketings ist es letztendlich immer, die User weiter im Conversion-Prozess zu bringen. Denn letztendlich sollen sie eine Handlung ausüben, die für das Unternehmen einen Wert darstellt. Entsprechend macht es Sinn, sich vor dem Einsatz des Remarketings das Ziel der Kampagnen, die geeigneten Mittel und daraus letztendlich die Strategie zu überlegen. Dabei hilft es, einzelne Zielgruppen ansprechen, mehrere Zielgruppen verknüpfen oder gar Zielgruppen mit anderen interessen- oder kontextbezogenen Ausrichtungen kombinieren zu können.

Typische Strategien sind die Ansprache aller Besucher, aller Besucher ohne Kauf, entlang des Conversion-Funnels, für Produkte, Produktgruppen und Marken oder auch für bestimmte Services auf der Website.

Häufig vergessen wird Remarketing in der Suche (RLSA). Hier können Keywords und Keyword-Optionen zum Einsatz kommen, die sich für User, die noch nie auf der Website waren, nicht lohnen. Ebenso können ehemalige Besucher bei einer erneuten Suche komplett ausgeschlossen oder bewusst mit höheren Geboten belegt werden. Gleichzeitig profitieren auch Smart-Bidding-Algorithmen von dieser höheren Datengrundlage.

Grundsätzlich möglich ist die Schaltung von Remarketing im Displaynetzwerk auf Websites und in Apps, im Suchnetzwerk, für YouTube sowie für Gmail- bzw. Discovery-Kampagnen. Die Mindestgröße, damit die Liste genutzt werden kann, beträgt 100 Cookies im GDN, beim Rest jeweils 1.000 Cookies.

In Ihrem Ads-Konto finden Sie die verfügbaren Zielgruppen unter Zielgruppenverwaltung > Segmente – seien es von Ihnen in Ads oder Analytics selbst angelegte oder von Google automatisch erstellte Listen. Zudem erkennen Sie, für welche Netzwerke sie in welcher Größe verfügbar sind.

Zielgruppen werden bei Ads-Kampagnen auf Anzeigengruppen- oder Kampagnenebene hinterlegt. Hinterlegen Sie diese nicht direkt beim Erstellen einer Kampagne, so können Sie dies unter dem Tab Zielgruppen nachholen. Sie finden Ihre Remarketinglisten im Unterbereich Bisherige Interaktionen mit Ihrem Unternehmen (siehe Abbildung 9).

Abbildung 09: Zielgruppensegmente hinterlegen

Mit Remarketing wollen Sie in der Regel nur Ihre ehemaligen Websitebesucher ansprechen. Um dies zu gewährleisten, sind zwei Einstellungen zu beachten – was in Folge natürlich zu einem Rückgang der Impressions führen kann. So muss die voreingestellte Auswahl Beobachtung in Ausrichtung geändert werden (siehe Abbildung 09). Denn nur so werden ausschließlich die Ex-Besucher angesprochen. Zudem müssen Targeting Expansions wie etwa die optimierte Ausrichtung oder die Ausweitung der Ausrichtung (Zielgruppenerweiterung) deaktiviert werden. Denn mit diesen Einstellungen werden automatisch weitere Nutzer angesprochen, die Ihr Kampagnenziel nach Einschätzung von Google erreichen werden bzw. Ihren ursprünglichen Nutzern ähneln. Was auch immer Google macht und wie auch immer Sie die Qualität beurteilen: Dies sind keine ehemaligen Besucher Ihrer Website und damit keine legitimen Mitglieder einer Remarketingliste. Deaktivieren lassen Sie sich auf Anzeigengruppenebene unter Einstellungen.

Fazit

Standalone-Remarketing-Kampagnen haben mittlerweile einen schweren Stand, da sie von Smart-Kampagnen wie Smart Shopping oder Smart Display bereits abgedeckt und in Bezug auf ihren Erfolg dadurch natürlich beeinflusst werden. Zudem arbeitet Remarketing mit Third-Party-Cookies, was für diverse Schwierigkeiten mit diversen Browsern sorgt – etwa, dass diese Art der Cookies bei Safari oder Firefox bereits abgelehnt wird.

Trotzdem kann Remarketing noch immer ein lohnender Kampagnentyp sein und sollte in Ads-Accounts mindestens getestet werden. Häufig sind ehemalige Besucher qualitativ hochwertiger und näher an der Conversion als User, die Ihre Website noch nicht besucht haben. Ihr Potenzial sind alle Besucher, die nicht konvertiert haben – leicht zu errechnen, wenn Sie sich Ihre aktuelle Conversion-Rate ansehen. Zudem ist es in immer komplexeren Entscheidungsprozessen wichtig, User an mehreren Touchpoints anzusprechen und mit der dann richtigen Anzeige zu konfrontieren.




Ignoriert Google deine Meta-Description?

Wie du Abweichungen identifizierst und Optimierungspotenziale aufdeckst

Jaja, die Meta-Description. Dieser kurze Text wird von vielen Seiten entweder gar nicht definiert oder mit irgendetwas wenig Relevantem befüllt. Ganz nach dem Motto: Die sieht man doch eh nicht, warum also Zeit dafür investieren? Dieser fehlende Optimierungswille trifft nicht auf dich zu? Du optimierst die Meta-Description deiner wichtigsten Seiten bereits? Das ist erfreulich zu hören! Doch prüfst du auch, ob Google deine Meta-Description wie gewünscht anzeigt? Als Fortsetzung des Artikels von Mario Fischer in der letzten Ausgabe 69 erfährst du in diesem Artikel, wie du die aktuell von Google angezeigte Meta-Description herausfindest.

Ein gutes Ranking für häufig gesuchte Keywords ist nur der erste Schritt, denn noch ist der Nutzer nicht auf der eigenen Website. Und die gewünschte Aktion, ob Anmeldung zum Newsletter, Kauf eines Produkts oder der Klick auf eine Werbeanzeige, ist schon mal gar nicht passiert. Entsprechend ist es definitiv zu früh, den (vermeintlichen) Erfolg zu feiern. Und was man nicht aus den Augen lassen sollte: Für den Großteil der Suchanfragen, besonders mit kommerzieller Intention, ist es egal, ob der Nutzer sich für Ergebnis 1 oder 6 entscheidet – vermutlich findet er dort dieselben oder ähnliche Produkte zu ähnlichen Preisen – und häufig mit vergleichbar ausbaufähigem Service. Doch das ist noch mal ein komplett anderes Thema.

Durch die Onpage-Optimierung wird der Grundstein für ein gutes Ranking gelegt, doch erst durch eine wie auch immer definierte Konversion wird aus einem Website-Besuch ein (finanzieller) Wert generiert. Damit diese Konversion überhaupt stattfinden kann, muss sich der Suchendende für einen Besuch deiner Website entscheiden.

Einen deutlichen Einfluss auf die Klickrate hat neben der Position (oder auch dem Pixelrank, siehe Ausgabe 69) natürlich auch das sogenannte SERP-Snippet, in der Regel bestehend aus der Adresse, einem Titel und einem Beschreibungstext. Wer denkt, dass Google hier stets auf den Seitentitel und die Meta-Description der angezeigten Seite zurückgreift, der täuscht sich. Das macht Google selbst dann nicht zuverlässig, wenn die Texte von der Länge her problemlos dargestellt werden könnten und zur Suchanfrage passen.

Identische Einstiegsseite, viele Beschreibungstexte – der Beschreibungstext ist von der Suchanfrage abhängig

Den ersten Schock verdaut? Dann direkt eine weitere Schockwelle hinterher: Es ist nicht mal der Fall, dass Google für dieselbe Seite immer dasselbe Snippet verwendet!

Schon eine kleine Anpassung der Suchanfrage kann dazu führen, dass Google für die exakt identische Adresse einen anderen Vorschautext anzeigt. Wirf dazu einen Blick auf Abbildung 1 – die Reihenfolge der Wörter wurde in der Suchanfrage von „online Englisch lernen“ zu „Englisch online lernen“ verändert, was bei dem orange beziehungsweise blau umrandeten Suchtreffer zu einem veränderten Beschreibungstext führt.

Abbildung 1: Bei den umrandeten Seiten zeigt Google für die nur etwas veränderte Suchanfrage einen anderen Vorschautext; beim blau umrandeten Ergebnis wird zumindest links der Text der Meta-Description angezeigt

Die orange umrandete Seite verwendet als Meta-Description aktuell: „Verbessere dein Englisch schnell und einfach in nur 10 Minuten am Tag mit unterhaltsamen Onlinekursen, die auf deine Bedürfnisse zugeschnitten sind.“ Vermutlich, weil die Suchanfragen in der hinterlegten Description nicht vorhanden sind, wählt Google einen Seitenausschnitt als Beschreibungstext aus. Beim blau umrandeten Suchtreffer wird zumindest für die links gezeigte Suchanfrage „online Englisch lernen“ die Meta-Description wie gewünscht dargestellt.

Ein Blick in ein SEO-Tool wie SISTRIX zeigt, dass die Meta-Description der orange umrandeten Seite insgesamt nicht ideal gestaltet ist. Denn das Thema der Seite wird von Nutzern besonders häufig in den Suchanfragen „Englisch lernen“ beziehungsweise „Englisch lernen online“ ausgedrückt. Im Seitentitel wird die aus drei Wörtern bestehende Suchanfrage noch exakt wie gesucht hinterlegt, in der Meta-Description ist der Term „lernen“ allerdings gar nicht enthalten. Auch „online“ ist nur als Teil von „Onlinekursen“ zu finden. Hier handelt es sich also um ein Snippet, das besser auf die Hauptsuchanfragen abgestimmt werden sollte!

Abbildung 2: Anhand des Suchvolumens sind „Englisch lernen“ und „Englisch lernen online“ die wichtigsten exakt auf die Seite passenden Suchanfragen; die einzelnen Wörter der beiden Suchanfragen kommen allerdings nicht in der Meta-Description vor

Wie du von Google umgeschriebene Meta-Descriptions findest

Gut, Google ignoriert also von Zeit zu Zeit die hinterlegte Description und zeigt je nach Suchanfrage für die exakt identische Einstiegsseite ein unterschiedliches SERP-Snippet an. Das muss nicht schlecht sein, da sich die Klickrate durch den von Google gezeigten Text verbessern kann. Doch das gilt es herauszufinden.

Wer (wieder) die Kontrolle über die Meta-Descriptions (der wichtigsten Seiten) übernehmen will, der kommt um eine Detailanalyse und anschließende Anpassung des Beschreibungstexts nicht herum. Zunächst einmal steht deshalb eine Bestandsaufnahme auf dem Aufgabenzettel. Die meisten SEO-Tools zeigen in der Standardansicht nur die aktuelle Position für ein Suchergebnis an, allerdings nicht, wie das für die Suchanfrage angezeigte SERP-Snippet aussieht. Mal werden die Daten gar nicht erhoben und mal sind diese Infos in separaten Funktionen zu finden.

Doch der Reihe nach! Denn auch ohne ein kostenpflichtiges SEO-Tool lässt sich das Snippet mit wenig Aufwand ermitteln. Lass uns mit der folgenden Anleitung schauen, wie der Status quo deiner Snippets erhoben werden kann.

Schritt 1: Die wichtigsten Suchanfragen identifizieren

Ein kurzer Blick in die Google Search Console (kurz: GSC) zeigt bereits, dass sowohl einzelne Suchanfragen als auch einzelne Einstiegsseiten für den Großteil der Zugriffe über die unbezahlte Google-Suche sorgen. Es empfiehlt sich also, die wichtigsten Suchanfragen der trafficstärksten Seiten einer näheren Prüfung hinsichtlich des angezeigten SERP-Snippets zu unterziehen.

In der GSC lässt sich die Kombination aus Suchanfrage und Einstiegsseite nicht direkt über mehrere Seiten hinweg abfragen. Hierfür wird am besten die Google Search Console API verwendet. Ein kostenfreies Tool zur Abfrage der Daten über die GSC-API in der Kombination aus Suchanfrage und Einstiegsseite ist Search Analytics for Sheets (https://searchanalyticsforsheets.com/).

Liegen die Daten in der gewünschten Konfiguration vor, markierst du am besten die drei bis fünf wichtigsten Suchanfragen für deine wichtigsten Seiten – idealerweise Non-Brand, da Suchanfragen mit deinem Markennamen darauf schließen lassen, dass der Nutzer sowieso zu dir kommen möchte. Deshalb ist es hier nicht von gesteigerter Relevanz, wie das Snippet aussieht.

Wenn du ohne die GSC-API arbeiten möchtest, dann setze den URL-Filter in der Google Search Console und schaue dir die Suchanfragen an. Denn dann siehst du nur die Suchanfragen, die zur definierten Adresse gehören.

Schritt 2: Das angezeigte SERP-Snippet erheben

Mit der Liste deiner wichtigsten Suchanfragen zur Hand geht es nun darum, dein aktuelles SERP-Snippet für diese Suchanfragen zu erheben. Um an diese Daten zu gelangen, gibt es unterschiedliche Möglichkeiten – ich stelle dir drei Optionen vor.

Option 1: Manuelle Abfrage des SERP-Snippets mit dem SERP Snippet Scraper

Wer selbst einen Blick auf die Suchergebnisse wirft, der bekommt einen umfangreichen Überblick über die aktuell von Google angezeigten Seiten und SERP-Features. Zudem liefert dir die Suchergebnisseite unter Umständen neue Keyword-Ideen – von daher hat die manuelle Abfrage einige Vorteile.

Den angezeigten Titel und Beschreibungstext manuell zu kopieren ist mühselig. Deshalb habe ich das kostenlose Browser-Plug-in „SERP Snippet Scraper by searchanalyzer“ (https://www.searchanalyzer.de/serp-snippet-scraper/) für Chrome und Firefox herausgebracht. Nachdem das Plug-in aktiviert ist, kann durch einen Klick auf das Plug-in-Logo das angezeigte Snippet aller (normalen) organischen Ergebnisse ausgelesen werden. Die Daten werden in die Zwischenablage kopiert und können anschließend z. B. in Microsoft Excel oder ähnlich eingefügt werden. Wenn du die extrahierten Snippet-Daten auf deine Domain einschränkst, dann siehst du sehr schnell, wie die Snippets deiner Seiten für die abgefragten Suchanfragen aussehen.

Wer den gerade definierten Seitentitel sowie die Description der eigenen Seiten nicht im Kopf hat, der kann diese Daten z. B. per Crawler oder per Scraping abfragen und damit die vom Plug-in extrahierten Daten anreichern. Wie das z. B. mit Google Sheets einfach geht, dazu gleich mehr!

Option 2: Automatische Abfrage des SERP-Snippets mit dem RankTank Keyword Position Tool

Mit Google Sheets lassen sich, wie bereits anhand von Search Analytics for Sheets zu sehen, erstaunliche Dinge umsetzen. So bietet ranktank.org ein Tool an, mit dem die aktuelle Position einer Website für unterschiedliche Suchanfragen abgefragt werden kann.

Eine Kopie des Tools kann kostenfrei unter www.ranktank.org/free-keyword-position-rank-checker-tool/ bezogen werden (am besten etwas runterscrollen, der Link zur Datei wird nämlich auch ohne Newsletter-Anmeldung angezeigt). Einfach die gewünschte Konfiguration im Tool vornehmen und schon wird nicht nur das Ranking, sondern auch der angezeigte Titel und Beschreibungstext des eigenen Ergebnisses angezeigt. Bis zu 1.000 Abfragen sind pro Monat komplett kostenfrei mit dem Tool möglich.

Abbildung 3: Mit dem „Keyword Position Tracker“ von RankTank kann für mehrere Keywords das angezeigte Snippet abgefragt werden

Eventuell erinnerst du dich an meinen Artikel über das Scraping von Seitentitel und Co. in der Ausgabe 61 der Website Boosting. Da Google Sheets mit =IMPORTXML(URL;“xpath“) eine sehr einfache Möglichkeit bietet, diverse Daten aus Webseiten auszulesen, kann der Nutzerwert des Tools noch erweitert werden. Dazu werden einfach zwei weitere Spalten hinzugefügt und über die beiden Formeln

  • =IMPORTXML(F11,“//title“)
  • =IMPORTXML(F11,“//meta[@name=’description‘]/@content“)

wird der Seitentitel bzw. die aktuelle Meta-Description abgefragt. Damit das funktioniert, muss natürlich in Zelle F11 die für die Suchanfrage angezeigte Adresse stehen. Es funktioniert etwas nicht? Dann liegt das vermutlich an deiner Spracheinstellung in Google Sheets. Je nach Sprache wird zur Trennung von Angaben in der Formel entweder ein Komma oder ein Semikolon verwendet.

Excel-Ninjas und alle, die es werden wollen, können mit weiteren Formeln die Daten nochmals erweitern. So lässt sich der Inhalt zwischen der angezeigten Meta-Description und der per IMPORTXML ausgelesenen Description miteinander vergleichen. Am einfachsten geht das mit =ZELLE1=ZELLE2 – stimmt der Wert überein, dann gibt Excel ein WAHR zurück. Da die hinterlegte Meta-Description allerdings für die vollständige Anzeige in den Suchergebnissen zu lang sein kann, lässt sich der zu vergleichende Text vorher einkürzen. Mit =LINKS(ZELLE1;30)=LINKS(ZELLE2;30) werden z. B. nur die ersten 30 Zeichen miteinander vergleichen. Anstatt ZELLE1 muss in der Formel z. B. N11 stehen – denn das ist die Zelle, in der standardmäßig der Beschreibungstext des Suchtreffers für das erste Keyword zu finden ist.

Wenn du die mit meinem Plug-in extrahierten Daten in Google Sheets einfügst, dann steht die Adresse des Suchtreffers standardmäßig in Spalte C. Rankst du auf Platz 1 für die Suchanfrage, dann kannst du mit =IMPORTXML(C1,“//title“) den Seitentitel in Google Sheets integrieren.

Option 3: SERP-Snippet-Informationen mit SISTRIX analysieren

SISTRIX erhebt nicht nur Ranking-Positionen, sondern zudem das angezeigte SERP-Snippet. Diese Daten stellt SISTRIX unter SERPS => SERP-Snippets zur Verfügung. Dank der Gegenüberstellung von URL und Keyword ist es schnell möglich, die Relevanz des angezeigten Snippets zu bewerten. Doch nicht nur das – da Google, ähnlich zur vorgestellten Option 1, einen Blick auf die SERP-Features erlaubt, ergeben sich über diese Daten häufig weitere Optimierungspotenziale. Zeigt Google z. B. regelmäßig Bilder an, dann ist Bilder-SEO für die Website wichtig.

Abbildung 4: Mit SISTRIX lassen sich die gerade angezeigten SERP-Snippets analysieren

Wie von SISTRIX gewohnt, lassen sich die Daten umfangreich filtern, z. B. nach einer einzelnen Adresse oder einem Mindest-Suchvolumen. Hilfreich sind zudem die Filter für gekürzte Snippets. Hiermit lassen sich schnell Seitentitel oder Beschreibungstexte finden, die von Google mit „…“ eingekürzt wurden.

Da in dieser Funktion nicht der im Quelltext hinterlegte Titel sowie der Beschreibungstext sichtbar sind, ist ein Blick auf die Funktion „Compare Snippets“ (bzw. „Snippet-Vergleich“) empfehlenswert. Hier zeigt SISTRIX den aus der Webseite extrahierten Seitentitel und die Meta-Description im Vergleich zu den SERP-Snippets der Seite für unterschiedliche Suchanfragen an.

Schritt 3: Meta-Description optimieren und den Erfolg prüfen

Alle drei vorgestellten Optionen bieten eine einfache Möglichkeit, um das aktuell angezeigte SERP-Snippet zu erheben und anhand dieser Daten Optimierungspotenziale zu identifizieren. Nun heißt es, mit diesen Daten zu arbeiten und die Beschreibungstexte wo nötig weiter zu optimieren.

Inwieweit die Optimierungen zu mehr Besuchern führen, kann mit der Google Search Console nachverfolgt werden, da hier die Klickrate zu sehen ist. In der Regel sind die in den Suchergebnissen angezeigten Ergebnistypen (z. B. News, Bilder, …) stabil, weshalb die Daten über einen längeren Zeitraum hinweg vergleichbar sind.

Es empfiehlt sich dringend, den Länder-Filter zu nutzen und hier das wichtigste Land auszuwählen, da die Search Console ansonsten einen globalen Durchschnittswert zeigt. Da kann ein Ranking auf einer niedrigen Position in einem weniger wichtigen Land schnell den Wert zerschießen.

Und wenn wir schon beim Filtern sind: Wenn der Großteil deiner Zugriffe über Mobilgeräte stattfindet, dann solltest du vor allem auf das Snippet in den Suchergebnissen für Mobilgeräte achten und optimieren. Denn hier gelten nochmals andere Längenbegrenzungen und das Snippet kann sich zwischen Desktop und Mobile deutlich unterscheiden – ganz zu schweigen von den angezeigten SERP-Features und der „wirklichen“ Ergebnisposition (Stichwort: Pixelrank).

An deinem Computer kannst du die Ergebnisse für Mobilgeräte sehen, wenn du deinen sogenannten User-Agent änderst. Im Chrome Browser geht das ganz einfach: Klicke auf deiner Tastatur F12 und wähle anschließend neben „Elements“ das Icon für unterschiedliche Geräte (englisch: Devices) an. Dieses Menü lässt sich alternativ nach dem Öffnen der Chrome DevTools über die Tastenkombination STRG + Shift + M aufrufen (auf Mac entsprechend CMD + Shift + M). Oberhalb der aufgerufenen Website kann anschließend der User-Agent geändert werden. Alternativ lässt sich der User-Agent in unterschiedlichen Browsern über Plug-ins anpassen.

Abbildung 5: Nach dem Aufruf des Chrome DevTools mittels F12 lässt sich durch einen Klick auf das Symbol links von „Elements“ der User-Agent im Chrome-Browser auf ein anderes Gerät ändern – die vordefinierten User-Agents stehen im Dropdown oberhalb der Website zur Verfügung (aktuell bei mir auf „Responsive“ eingestellt)

Doch zurück zur Optimierung der Meta-Description: Du siehst, dass die Optimierung nichts ist, was einfach mal so nebenbei stattfindet. Der Artikel von Mario Fischer in der letzten Ausgabe und dieser hier bieten dir eine super Anleitung, wie du die Meta-Description verbessern kannst.

Und die Kontrolle des eigenen Snippets wurde gerade noch wichtiger, da Google seit Mitte August auch den Seitentitel häufiger umschreibt (siehe einfach.st/updatetitle). SISTRIX war hier wieder sehr schnell und bietet einen Filter innerhalb von „SERP-Snippets“ an, um geänderte Seitentitel anzuzeigen. Mach dich also an die Arbeit und analysiere sowie optimiere deine Snippets!




Die Description – einfach unbeschreiblich?

Neue Serie: SEO für Einsteiger – Teil 2

Aufgrund vieler Anfragen und Anregungen unserer Leser starteten wir in der letzten Ausgabe erneut eine kleine Serie mit SEO-Basics für Einsteiger und motiviert Fortgeschrittene. In diesem ersten Teil ging es ausführlich um das Title-Element. Bereits da, weil fast untrennbar miteinander verbunden, wurde das Meta-Tag „Description“ erwähnt. Zusammen mit dem Title ist es für die Klickentscheidung von Suchenden essenziell, da diese immer zusammen mit anderen Ergebnissen nur diese wenigen Textteilchen sehen. Gelingt es genau an dieser Stelle nicht, zu überzeugen, nützt die investierte Arbeit in alles andere bei der Suchmaschinenoptimierung ziemlich wenig. Ohne Traffic bringen gute Positionen beim Ranking keinen Umsatz oder Anfragen. Wer sich mit SEO zumindest schon rudimentär auskennt, der wird vielleicht zu Recht einwenden, dass die Einträge im Meta-Tag Description überhaupt nicht rankingrelevant sind. Das ist richtig. Lesen Sie hier, warum der in der „Desc“ hinterlegte Text trotzdem eines der wichtigsten Elemente einer guten Optimierung darstellt.

You never get a second chance to make a first impression! Der frühere Werbespruch für Schuppenshampoo gilt auch und oft ganz besonders für die Suchmaschinenoptimierung. Rankt eine Ihrer URLs bei Google, wird bis auf sehr wenige Ausnahme direkt das Title-Element ausgegeben und meist, aber beileibe nicht immer, darunter zwei Zeilen der Description. Wer an dieser Stelle nicht textlich überzeugt, verpasst den Klick. Erweisen sich ein oder zwei Ergebnisse darüber oder auch darunter als gute Eyecatcher, ist die Chance auf einen Klick und damit einen Besucher und potenziellen Käufer dahin. No second chance. Was bereits in der ersten Folge an dieser Stelle gesagt wurde, muss hier in jedem Fall nochmals in aller Deutlichkeit wiederholt werden: Das Texten von Titel und Desc darf man nicht einem Praktikanten überlassen. Das ist „Chefsache“, wie sich viele Experten einig sind. Das meint natürlich nicht, dass der CEO diese Texte schreibt – sondern der mit der meisten Online-Erfahrung am Tisch und nicht die günstigste Arbeitskraft. Schaut man kritisch in die Suchergebnisse bei Google, scheint dies bei gefühlt mindestens der Hälfte der Unternehmen noch nicht bekannt zu sein. Am liebsten lässt man die Beschreibungen automatisiert oder aus Textfitzeln des Contents erstellen. Bei einem Beratungsprojekt meinte der Leiter der Online-Abteilung, die Mitarbeiter hätten mit dem Erstellen des Contents schon genügend zu tun. Erst beim Hinweis bzw. der Frage, dass da jemand für eine Seite fast 2.000 Wörter verfasst, dann aber keine Zeit hätte, zwei vernünftige Zeilen zu texten, kam er ins Grübeln. Seither hat man dort deutlich bessere Snippets und die Klickrate hat sich bezogen auf die Rankingposition innerhalb weniger Monate im Schnitt fast verdoppelt. Zwei Zeilen, doppelte Umsatzchance – kein schlechtes Investment, oder?

<meta name="description" content="Hier steht ein guter Text, der den Inhalt einer einzelnen Seite möglichst passend beschreibt!" />

Descriptions unter der Lupe – werden Sie zum Experten

Sehen Sie sich doch einfach mal die Beispiele in Abbildung 1 genauer an. An der Mischung der Ergebnisse lässt sich gut ablesen, dass Google sich nicht sicher ist über die Suchabsicht. Möchte man vergleichen, wenn man „Schuppenshampoo“ eingibt, oder möchte man kaufen? Die ersten beiden Ergebnisse zeigen Vergleiche an (Ziffer 1 und 2). Wo würden Sie klicken? Auf das Ergebnis von Ökotest, wo in der Description bereits Marken genannt werden, oder auf das Ergebnis vom Stern, der mit Haken, Pfeilen und einem gelben Sternchen sichtlich um Aufmerksamkeit buhlt? Es fällt zumindest auf, dass die erste Zeile der Description inhaltlich mit dem Title übereinstimmt. Hier wird also wertvoller Platz verschenkt. Gut ist hingegen sicher der Hinweis auf Vor- und Nachteile sowie die direkte Aufforderung, jetzt zu lesen.

Beim Ranking 3 und 4 handelt es sich offenbar um einen Rankingunfall. Die Ergebnisse sind fast identisch und hätten so eigentlich hier nichts zu suchen. Zumindest nicht (fast) doppelt. Das Ergebnis 4 hat als des Rätsels Lösung den Zusatz „Frauen“ und damit eine andere Landingpage. Google hat immer wieder erklärt, sie wollen keine Suchergebnisse anderer Suchmaschinen als Ergebnis listen. Dass es sich bei der Amazon-Produktsuche natürlich auch um eine Suchmaschine handelt, sogar um eine der besten, hat man offenbar nach 20 Jahren noch immer nicht bemerkt bei Google. Oder – und das erscheint viel wahrscheinlicher – die Amazon-Domain hat eine algorithmisch bei Google derart starke Autorität, dass hinterlegte Regeln wie „nimm keine Suchergebnisse anderer als eigene Suchergebnisse“ davon ausgehebelt werden. Möglicherweise kam auch bei Tests heraus, dass auf solche Amazon-eigenen Suchergebnisse überproportional oft geklickt wird, weil die Suchenden diese mögen.

Interessant ist wieder das Snippet 5. Dort kommt ein scheinbar völlig unpassender Text in der zweiten Zeile der Description. „Wir danken für Ihre Anfrage…“ – solche Texte wirken natürlich völlig deplatziert. Was der Grund dafür sein könnte, dazu später mehr. Im Snippet 6 von Friseurverband.com findet man eine seltsam unverständliche Aufzählung von Wörtern: „Instant Clear Anti Schuppenshampoo Loreal Profi Friseurshampoo Instant Clear Shampoo.“ Noch viel schlimmer wirkt: „Ideal zum Entfernen der Kopfhaut von …“ Wer mag sich schon gerne die Kopfhaut entfernen lassen, da kommen schlimme Bilder aus alten Westernfilmen ins Kopfkino. Der Grund ist auch hier die Entscheidung von Google, eben nicht die hinterlegte Description im <head> der Seite zu verwenden. Auch dazu später mehr. Wie finden Sie die letzten drei Snippets? Würden Sie dort klicken? Und warum bzw. warum nicht? Je kritischer Sie sich solche Textschnipsel ansehen, desto mehr lernen Sie. Ein häufiger Fehler liegt darin begründet, dass man sich immer die eigenen Snippets ansieht – und die dann meist als schon o. k. empfindet. Wenn Sie häufiger mal andere Ergebnisse wirklich mit der kritischen Lupe betrachten, lernen Sie am meisten! Hören Sie dabei immer in sich hinein und fragen Sie sich, was Ihnen genau ge- oder missfällt! Sie werden merken, dass Sie nicht nur in kürzester Zeit zum Experten werden, sondern ab dann werden Sie auch Ihre eigenen Ergebnistexte mit anderen Augen sehen und mühelos wertvolles Optimierungspotenzial heben.  

Abbildung 1: Beispielhafte Suchtreffer für Schuppenshampoo bei Google

Ja, die Description ist nicht rankingrelevant!

Google sagt selbst, dass die Einträge in der Description nicht für die Berechnung des Rankings herangezogen werden. Das haben auch über die Jahre hinweg praktisch alle Tests gezeigt. Die Bedeutung liegt aber nicht nur in der Überzeugung der Suchenden, die wegen eines guten Textes klicken, sondern in der wahrscheinlichen Messung von Google, ob und wie oft bezogen auf die Position eines Ergebnisses sie das tun. Mit anderen Worten liefert ein schlechter Text eine schlechte Performance und Google kann oder könnte potenziell erkennen, dass algorithmisch dieses Ergebnis zwar genau an diese Position „hingerechnet“ wurde, die Suchenden es aber ganz offensichtlich nicht mögen, weil sie nicht daraufklicken. Umgekehrt wäre eine Klickrate von 50 % auf ein Ergebnis auf Platz 3 zumindest statistisch sicherlich deutlich über den Erwartungen und eine Belohnung im Ranking wert? Zeigen nicht die Klicks deutlich, dass die Menschen das besser finden, als die Algorithmen „gedacht“ haben?

Google wird nicht müde, in allen Kanälen zu verneinen, dass die Klickrate für Rankingkorrekturen verwendet würde. Verschiedene (nicht eindeutig valide) Tests haben allerdings gegenteilige Wirkungen gezeigt.

„Ohne Rankingrelevanz bringt eine Optimierung doch gar nichts?“

Auch im (teils geschwärzten) Staff-Memorandum, Filenr. 111.0163, das versehentlich von der amerikanischen FTC an das Wall Street Journal freigegeben wurde und das Website Boosting vorliegt, heißt es auf Seite 12: „… The Ranking itself ist affected by the click data …“, auf Seite 16: „Google tracks user click-through rates (and relies on such click-through data to improve its web search results in a number of ways“, sowie auf Seite 82 „… based on the crawled text, the pages are rated using such factors as click-through rates …“. In dem US-Patent US9727653B2 vom 8. August 2017 (http://einfach.st/patents553) beschreibt Google ein „System and Method for indentifying and ranking user preferences“.

Andererseits haben bekannte und bedeutende Googler wie John Müller oder Paul Haar immer wieder darauf hingewiesen, dass die CTR zu „noisy“ wäre, also zu viel Rauschen in den Daten hätte. Gary Illyes hat eine diesbezügliche Aussage von Rand Fiskhin sogar als „made up crap“ bezeichnet (http://einfach.st/garycrap). Einen eindeutigen Beweis gibt es also nicht, unter Experten gilt die Verwendung allerdings als trotzdem wahrscheinlich. Politisch wäre es auch sehr schwierig für Google, vor einer breiten Öffentlichkeit zuzugeben, dass man die Userklicks aufzeichnet. Man bekommt dort ja schließlich schon genug von den Medien ab, was das Datensammeln angeht. Online-Marketers würden sich nicht über so ein Vorgehen wundern, schließlich geht es im Ziel um das Erkennen von Verbesserungspotenzial, was den Suchenden zugutekäme. Aber alle ohne Kenntnisse aus dem Online-Business würden sich erneut, aufgeheizt durch bestimmte Medien, überwacht fühlen.

„Wenn Klicks zählen, klauen wir sie einfach.“

Und noch ein letzter, aber vielleicht wichtigster Punkt, weswegen Google gar nicht zugeben sollte oder dürfte, dass die Klicks tatsächlich Auswirkungen hätten. Die Spammer fänden sofort technische Möglichkeiten, künstliche Klicks auf deren Suchtreffer zu generieren. Stumpfe Klickbots kann Google zwar erkennen und diese Signale separieren, aber gegen bewusst böse gestaltete Browser-Plug-ins, die im Hintergrund und ohne Wissen des Nutzers unsichtbar Suchergebnisse und Klicks auslösen, wäre wenig Kraut gewachsen. Und in der Tat soll es dem Vernehmen nach einige Unternehmen geben, die sich auf derartige Weise Traffic verschaffen. Dieser ist zwar nichts wert, aber ahnungslose Chefs, die für Traffic Provisionen zahlen, kann man damit allemal über den Tisch ziehen. Ein osteuropäisches Unternehmen hat Gerüchten zufolge mittels Bestechung sogar geschafft, sog. Rootkits in Neugeräte eines deutschen Mobilfunkproviders einzusetzen, die fernsteuerbar im Hintergrund still „surfen“ und somit Traffic von „echten“ Nutzern erzeugen. Solche Betrügereien sind für Google sicherlich sehr schwer auszufiltern, wenn sie gut und ohne auffällige Muster gemacht werden.

Abbildung 2: Also doch? Ausschnitt aus dem versehentlich freigegebenen FTC-Staff-Memorandum vom 08.08.2012, S. 14

Wie lange oder wie kurz sollte die optimale Description sein?

Darüber herrscht bunte Verwirrung im Netz und dass SEO-Agentur A für ihr „Glossar“ von SEO-Agentur B abschreibt, die ihren Content wiederum von Agentur C für sich „umgeschrieben“ hat, macht es nicht besser. Die meisten Quellen gehen davon aus, dass man etwa 160 Zeichen oder 500 Pixel Raum zur Verfügung hat. Der Toolanbieter SISTRIX nennt allerdings 990 Pixel für Desktop und 1.300 Pixel für die Anzeige auf Smartphones.

Google selbst sagt, es gebe keine vorgeschriebene Länge und je nach Endgerät werde ein Text abgeschnitten, falls er nicht mehr angezeigt werden könne (Abbildung 3 und Abbildung 4). Da man auch nicht weiß, welche Anzeigegeräte in Zukunft verwendet werden, geht man am besten pragmatisch vor und schreibt die wichtigen Dinge vorne in die Description. Die Warnungen vieler SEO-Tools, dass soundso viel Description „zu lang“ sei, muss man unter dem Verständnis „zu lang für eine komplette Anzeige“ sehen. Keinesfalls ist hier dringender Handlungsbedarf, die Texte gar einzukürzen. Sofern der Grundsatz eingehalten wurde: Wichtiges vorne.

Abbildung 3: John Müller auf Twitter: Es gibt kein Limit bei der Desc-Länge
Abbildung 4: Danny Sullivan von Google bestätigt 2018 erneut, dass es keine definierte Länge gibt
Abbildung 5: Suchbegriffe werden in der Description fett und damit optisch hervorgehen dargestellt

Immer wieder fallen Snippets auf, die mit farbigen Sonderzeichen hervorstechen. Wer so etwas verwenden möchte, kopiert sich am besten den entsprechenden Quellcode bzw. die Symbole aus einer in der Suche so angezeigten Seite heraus. So ist man sicher, dass genau das auch angezeigt werden kann. Google heißt solche optischen Eskapaden nicht gut und entfernt sie regelmäßig immer wieder, vor allem dann, wenn zu heftiger Gebrauch davon gemacht wird.

Warum wird die hinterlegte Description von Google nicht immer verwendet?

Wie oben bereits erwähnt, spielt Google nicht immer die explizit hinterlegte Description aus dem <head> einer Seite aus. Hierfür gibt es mehrere Gründe:

  1. Der von Suchenden eingegebene Begriff oder die Begriffe finden sich nicht in der Description. In diesem Fall nimmt Google Text direkt aus dem Content der Seite, wo die Suchbegriffe (algorithmisch gesehen) prominent auftauchen. Das führt dann zu den bekannten, zusammengestückelt wirkenden Texten. In Abbildung 1, Ziffern 5 und 6 ist das als Beispiel zu sehen.
  2. Google misstraut den Inhalten, weil sie z. B. 1:1-Kopien des Titels oder einer Überschrift (Hx), reine Aufzählungen mit oder ohne Komma getrennt oder sprachlich „auffällig“ sind. Ebenso ist es möglich, dass die Domain als Ganzes ein gewisses Misstrauen genießt – wobei man sie dann in der Regel nicht beim normalen Ranking zu sehen bekommt.
  3. Google testet mal wieder.
  4. Es gibt einen Erkennungsfehler, d. h., die Algorithmen kommen durcheinander.

Der letzte Punkt 4, also eine Fehlererkennung, könnte beim Suchergebnis der Domain friseurversand.com aus Abbildung 1 passiert sein. Dort ist im <head> des Quelltexts hinterlegt:

<meta name="description" content="Hier finden Sie Schuppenshampoos welche Haarschuppen teilweise sehr effektiv bekämpfen können. Von Herstellern wie Goldwell – Loreal – Wella – Schwarzkopf."/>

Ausgespielt im Ergebnis-Snippet wird aber der Text aus der folgenden Passage des Quelltexts:

<div class="product--description"> Instant Clear Anti Schuppenshampoo Loreal Profi Friseurshampoo Instant Clear Shampoo für normales bis fettiges Haar. Ideal zum Entfernen der Kopfhaut von Schuppen …

Gut möglich, dass Google die „product-description“ vorzieht oder missinterpretiert.

Bei test.de hat sich Google dagegen entschieden, den Text aus einer (fälschlich eingesetzten) H4-Überschrift anzuzeigen (Abbildung 8). Korrekt hinterlegt ist:

<meta name="description" lang="de" content="Wenn ständig feine Schuppen vom Kopf rieseln, ist das lästig. Ein unlösbares Problem ist es aber nicht, wie unser Test zeigt. Wir haben elf..." />

Sieht man sich den Content der Seite an (Abbildung 6), fällt sofort auf, dass hier mechanisch einfach der Artikeltext als Desc eingeschoben wurde. Google hat hier möglicherweise per Mustererkennung entdeckt, dass der Textangang wiederholt bzw. einfach kopiert wurde. Den ersten und zweiten Satz eines Artikels als zusammenfassende Beschreibung für den gesamten Artikel zu verwenden u wollen, ist sicherlich auch keine so gute Strategie.  

„Wenn Google nicht die hinterlegte Desc anzeigt, ist oft ein wenig Detektivarbeit nötig.“

Abbildung 6: Darum mag Google die Desc von test.de wahrscheinlich nicht – der Inhalt ist einfach der Anfang des Fließtextes
Abbildung 7: Von dieser Stelle ist der Text für das Snippet aus Abbildung 1, Ziffer 6
Abbildung 8: Und aus diesen H4-Elementen im Quelltext hat Google die Beschreibung extrahiert

Woher stammt dann der Text im Suchsnippet? Den hat Google von ganz unten auf der Seite aus dem ersten Kommentarfeld gezogen (Abbildung 7). Wie kommt so etwas zustande? Dazu braucht es etwas Detektivarbeit. Sieht man sich nämlich die Templates der Artikel auf test.de an, erkennt man eine missbräuchliche Verwendung bei den Überschriften. Wie Abbildung 9 ganz gut zeigt, wurde hier aus der Navigation bzw. den Navigationsbegriffen eine Überschrift gemacht, also einer Hx zugeordnet. Zur Erinnerung: Hx-Elemente sollen zur Strukturierung von individuellem Text eingesetzt werden und diesem eine sinnvolle Hierarchie geben. Man kann sie zwar auch wie hier zur Formatierung einsetzen, das ist auf den ersten Blick nicht weiter schlimm. Allerdings erschwert man damit natürlich Suchmaschinen die Erkennung der Textstruktur. Hier kommt mit aller Wahrscheinlichkeit zum Tragen, dass die in Abbildung 9 gezeigten Überschriften auf allen Seiten gleich oder fast gleich sind. Google rechnet sie somit nicht zum sog. Primary Content, sondern zur Boilerplate. Mit anderen Worten: Für Google sieht dieser Bereich so aus, als würde er auf allen oder vielen Seiten 1:1 so verwendet. Damit ist er kein unterscheidendes Merkmal mehr! Was sich aber ganz eindeutig unterscheidet von Seite zu Seite, sind …? Die Kommentare (Abbildung 8)! Diesen „uniquen“ Überschriftentext schnappt sich die Suchmaschine, hält ihn für – weil individuell – gut und gibt ihn als Beschreibung für die gesamte Seite aus. Das ist natürlich ein Fehler, aber für eine Maschine wohl nur folgerichtig bzw. nachvollziehbar. Rekapitulation: Die hinterlegte Desc ist ein kopierter Starttext aus dem Contentbereich, fast alle Überschriften sind auf allen Seiten nur knappe Stichworte und nahezu identisch – was soll ein Algorithmus da anderes verwenden als den erst besten Individualtext in bewusst ausgezeichneten (Unter-)Überschriften?

Das Beispiel zeigt, wie wichtig auch die Strukturhygiene ist und dass man gut daran tut, wenigstens die einfachsten Basics der Suchmaschinenoptimierung zu beachten. Der Stiftung Warentest kann das (wohl) egal sein, deren Domain ist so stark, dass sie meist weit oben mitspielt, wenn Google eine Vergleichsabsicht in Suchphrasen erahnt. Das ist auch richtig so, denn die Domain ist vertrauenswürdig und eine Institution genau dafür. Der Content rankt quasi „trotzdem“ gut.

Abbildung 9: Des „Desc“-Rätsels Lösung: Man hat aus Navigationsbegriffen Überschriften gemacht!

Wann ist es besser, keine Description zu hinterlegen?

Nicht immer ist es gut, eine klar definierte Description zu hinterlegen. Verfügt eine Seite über eine leere oder gar keine Anweisung im <head>, zieht sich Google die Suchphrase aus dem fließenden Text und baut eine eigene Beschreibung. Der Effekt wurde ja gerade oben gezeigt, wenn auch aus anderen Gründen.

Hat eine Seite wirklich sehr viele sog. Longtail-Treffer, rankt sie also für sehr viele Mehrwort-Kombinationen, kann es Sinn machen, das Meta-Tag Description tatsächlich wegzulassen. Das hat mit dem beschränkten Platz zu tun. Am einfachsten kann man sich das vorstellen z. B. für eine Badehose, die es auf der Zielseite in 20 Farben gibt. In der Description lassen sich allerdings nicht alle Farben unterbringen. Gibt ein Suchender jetzt „hellgrüne Badehose Herren“ ein, findet er möglicherweise einige Farbangaben im Ergebnis-Snippet, aber eben ausgerechnet nicht seine gesuchte Farbe – obwohl sie auf der Seite selbst verfügbar wäre. Der Klick unterbleibt.

Dieses Beispiel macht deutlich, dass keine (eigene) Beschreibung bei Seiten, die zu vielen Suchtreffern passen oder passen sollen, besser sein kann als eine falsche oder unvollständige. In solchen Fällen sollte man versuchen, mit einfachen A/B-Tests mehr Klarheit zu bekommen. Dazu löscht man die Desc aus der entsprechenden Seite und verändert ggf. noch sanft den Content, damit Google erkennt, dass sich auch im Text etwas verändert hat. Eine Änderung nur im „unsichtbaren“ Bereich einer Seite führt in der Regel nicht zu einer Neuindexierung. Will man ganz sichergehen, ruft man die Seite zum Rendern in der Search Console auf und zeigt Google damit den „neuen“ Content. Anschließend überwacht man Änderungen in der Klickrate. Steigt diese an – Achtung! Bei gleicher Position und gleichen Suchergebnissen (siehe den Titelbeitrag „Pixelrank“ in dieser Ausgabe) wird die von Google jetzt zusammengesuchte Beschreibung von den Suchenden besser angenommen als vorher die eigene. Da Google die Texte dynamisch auf die Suchphrase bezogen ausgibt, würde in dem Beispiel oben auch der Text mit „hellgrün“ im Snippet auftauchen, sofern er tatsächlich auf der Seite steht, was natürlich eine Voraussetzung ist.

Möchte man generell unterbinden, dass Google Beschreibungstext im Snippet ausgibt, kann man das über eine Anweisung tun. Der Eintrag im <head> dazu lautet:

<meta name="googlebot" content="nosnippet">

 Es können auch unterschiedliche Bots angesteuert werden, wie hier der Newsbot von Google:

<meta name="googlebot-news" content="nosnippet">

Wenn eine Newseite also nicht möchte, dass Google vorausschauenden Text in der Suche anzeigt, könnte man das mit einer Zeile Code abstellen. Vermutlich weiß man aber genau, dass mit der dann übrigen Minimalanzeige keine Klicks und damit kein Traffic käme. Daher versucht man es eher auf dem Klageweg und möchte Geld von Google für diese Art der Vorschau, die eigentlich dem Suchenden die Klickentscheidung ermöglichen soll. Damit ist auch gleichzeitig die Frage beantwortet, ob es Sinn macht, das No-Snippet-Tag einzusetzen. Wohl eher nicht.

„You can prevent Google from generating snippets altogether by specifying the „nosnippet“ robots directive. There’s no way to prevent using page contents as snippet while allowing other sources“ (Gary Illyes, http://einfach.st/gary49).

Fazit

Das Snippet in den Suchergebnissen ist der erste Kontakt eines Suchenden zu Ihnen. Sie haben in der Regel drei Zeilen, eine für den Title und zwei für die Description, um jemanden zum Klick zu überzeugen. Verpassen Sie diese Chance, diesen Moment of truth nicht bzw. überlassen Sie ihn nicht dem Zufall oder dem Textgespür eines Amateurs. Sie können den einfachen Weg gehen und die Description automatisch von Ihrem System erzeugen lassen, weil es Ihnen zu viel Mühe macht, einen wirklich guten ersten Eindruck zu machen. Oder Sie gehen die Extrameile und machen einfach einmal ein paar ambitionierte Tests, um zu sehen, was Ihnen das wirklich bringt.




Bessere Landingpages – smarte Ansätze im Performance-Marketing

Was unterscheidet eigentlich eine gut funktionierende Landingpage von anderen Webseiten? In diesem Artikel werden smarte Ansätze für bessere Landingpages im Performance-Marketing – im Speziellen für bezahlte Kanäle – vorgestellt und auf deren Potenziale im Vergleich zu anderen Traffic-Kanälen eingegangen. Jeder Klick auf Werbeanzeigen kostet Geld. Und jeder Absprung von der Seite birgt nicht nur das Risiko, Potenzial zu verschenken, sondern auch einen schlechteren Return on Ad Spend für den Werbetreibenden zu erzielen.

Bei Paid Advertising geht es um Geld. Viel Geld. Im Jahr 2020 wurden allein in Europa über 69,4 Milliarden Euro in bezahlte Werbeanzeigen investiert (Quelle: IAB Adex Benchmark Study 2020), Tendenz stark steigend. Unternehmen wie Google und Facebook, deren Geschäftsmodell die digitale Werbung ist, freut es. Werbetreibende jedoch bekommen mehr Wettbewerb bei den Geboten um Anzeigenplätze und ärgern sich über immer weiter steigende Klick- und Impressionspreise. Gründe, weshalb die Konversionsrate von Kampagnen optimiert werden sollte, damit sich die Werbemaßnahmen im Paid-Bereich auch langfristig lohnen.

Im Vergleich zur Gestaltung von Werbeanzeigen wird die Landingpage als erster direkter Touchpoint mit der eigenen Website immer noch verhältnismäßig wenig getestet und optimiert, da der Änderungsaufwand gegenüber Werbeanzeigen oder Bannern deutlich größer ist. Dabei liegt gerade hier so viel Potenzial, welches genutzt werden könnte. Die folgenden Ansätze dienen als Inspiration und können für das eigene Unternehmen oder Kunden adaptiert und getestet werden.

So sieht die ideale Landingpage aus

Wie sieht also die ideale Landingpage aus? Sorry, aber so einfach kann das leider nicht beantwortet werden. Denn die ideale Landingpage gibt es schlicht nicht. Würde es sie geben, wäre sie bereits überall im Einsatz. Man kann sich allerdings dem Ziel einer idealen Landingpage für die eigenen Anwendungsfälle mithilfe von Tests Schritt für Schritt annähern.

Aber fangen wir einmal anders an: Welche Elemente sollten Landingpages grundsätzlich beinhalten? Elemente in Abbildung 1 haben sich laut Meinung verschiedener Experten und durch eigene A/B-Tests als wichtig herauskristallisiert:

  1. Das Logo/die Marke sowie die Art des Produkts oder der Dienstleistung sollten im sichtbaren Bereich sein, damit direkt erfasst werden kann, um welche Art von Anbieter es sich handelt.
  2. Prüfe, ob oder inwiefern eine Navigation mit weiterführenden Links wirklich nötig für die Page ist oder ob diese dazu führt, dass der Besucher vom Ziel der Website weggeführt wird und möglicherweise verloren geht.
  3. Darstellung der Headline & kurze Copy, worum es auf der Website geht, um dem Besucher unmissverständlich (!) zu vermitteln, dass er auf der Seite richtig ist.
  4. Die Formulierung oder die Ausgestaltung eines persönlichen Nutzens, der durch eine klare Vorteilskommunikation sichtbar gemacht wird. Welchen Grund haben Besucher, genau hier und jetzt zu kaufen?
  5. Nur für Shops: Visualisierung von Preisen oder einer Preisindikation, um einschätzen zu können, ob das Gesuchte im festgelegten Budget liegt. Dies impliziert dem Besucher gleichzeitig auch, sich in einem Shop zu befinden, in dem Produkte/Dienstleistungen erworben werden können.
  6. Eindeutiger Call-to-Action, in der Regel als Button dargestellt, damit der User unmissverständlich weiß, wo er klicken muss, um das Gesuchte zu finden oder die gewünschte Aktion durchzuführen.
  7. Veranschaulichung des Funktionsprinzips bzw. eine Vorschau, welches die Funktion des Produkts bzw. den weiteren Ablauf einer Dienstleistung oder eines Prozesses zeigt.
  8. Zusätzlich kann auch ein Erklärungsvideo oder eine Produktdemo eingebunden werden, um den Service oder das Produkt besser oder visueller zu beschreiben.
  9. Darstellung von Elementen, die Vertrauen erzeugen wie Prüfsiegel, Zertifikate oder Presse-Erwähnungen – auch Kundenstimmen können hilfreich sein.
Abbildung 1: Darstellung relevanter Elemente einer Landingpage

Neben den wichtigen Elementen für eine Landingpage sollte immer getestet werden, welche Besonderheiten in der eigenen Branche gut funktionieren. Hat man die in Abbildung 1 genannten Basics implementiert, kann man sich weiteren Ansätzen für eine Optimierung widmen. Nun existieren immer noch unzählige Webseiten, die nicht alle diese Basics erfüllen. Woran liegt das?

Nutzt man die Google-Suche, um ein bestimmtes Produkt zu finden, landet man nach dem Klick auf ein organisches (nicht bezahltes) Suchergebnis auf einer Landingpage. Meist fällt hier sofort auf, dass diese Landingpage deutlich mehr Inhalte und weiterführende Links zeigt, als nötig wären, um das gesuchte Produkt zu kaufen. Suchmaschinen brauchen diese zusätzlichen Inhalte und internen Verlinkungen, um interpretieren zu können, wie relevant die Seite für den Suchenden und dessen Intention ist. Auf organischen Landingpages werden daher SEO-relevante Onpage-Faktoren berücksichtigt und mittlerweile wird auch die Usability deutlich stärker für das Ranking von Seiten gewichtet.

Doch die Usability allein, also die Bedienbarkeit einer Website, sorgt nicht dafür, dass Besucher schlussendlich auch kaufen. Sie ist nicht gleichzusetzen mit der User Experience, welche für das subjektive Erlebnis des Besuchers auf der Website während seiner gesamten Journey steht. Letztendlich entscheidet also nicht die Usability, sondern eine gute User Experience darüber, ob ein Besucher das Gefühl hat, sich beim richtigen Produkt und beim richtigen Anbieter zu befinden.

Bei Paid Search, Paid Social oder E-Mail-Marketing können Landingpages auf wesentliche Inhalte reduziert und der Fokus auf die Intention der Besucher und somit auf ein positives Nutzererlebnis gelegt werden. Die Seiten müssen daher nicht auf einen externen Suchalgorithmus abgestimmt sein. Die Möglichkeit, zielgerichtete Landingpages einzusetzen, erhöht die Wahrscheinlichkeit für den Erfolg. Vor allem dann, wenn Informationen zum eingehenden Traffic vorhanden sind und entsprechend richtig interpretiert und genutzt werden.

Auf die Details kommt es an

Ansprechend, interessant und stimulierend – so sollten Webseiten auf Besucher wirken. Die Besucher möchten sich mit dem Anbieter, der Marke und dem Produkt identifizieren können. Doch erfüllt die Webseite alle Ansprüche, die der Seitenbesucher hat? Kann das Produkt einfach und unkompliziert gekauft werden? Ist die Website ansprechend? Ist die sie bekannt oder wirkt sie seriös? Mit all diesen Fragen setzt sich der Suchende auf einer Landingpage auseinander – oft völlig unbewusst. Dementsprechend ist es wichtig, dass sich der Besucher auf der Seite gut abgeholt fühlt und der Seite vertraut.

Über Besucher, die zum ersten Mal via Direkteinstieg auf eine Website gelangen, weiß man erst einmal sehr wenig. Man weiß lediglich, dass der oder diejenige die URL wahrscheinlich direkt im Browser eingetippt hat. Die meisten Direkteinstiege misst man in der Regel auf der Startseite einer Website. Bei der Startseite empfiehlt es sich deshalb, diese möglichst umfangreich mit Informationen zu gestalten und verschiedene Einstiege zum Produkt oder zur Dienstleistung zu schaffen. Je mehr Informationen über eine Besuchergruppe im Vorfeld bekannt sind, desto sinnvoller ist es, spezifische auf die Besuchergruppen zugeschnittene Landingpages einzusetzen.

Beachte: Innerhalb der ersten fünf Sekunden entscheiden Menschen, ob der Inhalt einer Landingpage für sie relevant ist. Der erste Eindruck zählt! Daher muss die Erwartungshaltung der Besucher schnell zufriedengestellt werden.

Das folgende Beispiel zeigt eine Werbekampagne mit einer nicht auf die Anzeige abgestimmten Landingpage. Eine Person sucht nach einer „Youngtimer Versicherung” (spezifischerer Begriff für Oldtimer-Versicherung).

Als Suchergebnis zeigt Abbildung 2 die entsprechende Werbeanzeige, die einem Suchenden ausgespielt wird, wenn er nach „Youngtimer Versicherung” sucht. Dieser klickt auf die Anzeige und wird auf die Landingpage aus Abbildung 3 weitergeleitet.

Abbildung 2: Anzeige für den Begriff „Youngtimer Versicherung”
Abbildung 3: Landingpage, auf die der Nutzer geleitet wird, wenn er die Anzeige für „Youngtimer Versicherungen” anklickt – der Begriff taucht auf der Landingpage nicht auf

Die Erwartungshaltung des Suchenden ist folgende: Er möchte sofort sehen, dass er eine Versicherung für Youngtimer abschließen kann. Leider wird das Keyword „Youngtimer” aus der Suchanfrage und der Werbeanzeige auf der Landingpage nicht erneut aufgegriffen. Zusätzlich impliziert auch der abgebildete Pkw für einen erfahrenen Youngtimer-Eigentümer, dass es sich hier um keinen Youngtimer, sondern um einen Oldtimer handelt.

Tipp für Fortgeschrittene: Nutze die Google Ads Keyword Insertion nicht nur bei deinen Google Ads, sondern auch auf deinen Landingpages. Die Keyword Insertion für Google Ads kann für mehr Relevanz in den Anzeigen sorgen, indem die eingegebene Suchphrase anstelle eines fest definierten Anzeigentextes in der Anzeige übernommen wird. Denkt man das Konzept weiter, dann kann diese Suchphrase auch auf der Landingpage nach demselben Prinzip, beispielsweise in der Headline, ausgespielt werden. Dabei wird die Kampagne so aufgesetzt, dass der Suchbegriff via URL-Parameter auch an die entsprechende Landingpage übergeben wird. Einmal aufgesetzt, kann eine Landingpage dann für alle Keywords an Relevanz gewinnen und noch relevanter sein, als wenn man für alle definierten Synonyme oder Begriffe eine eigene Landingpage erstellt hätte.

Mit spezifischem Targeting noch mehr herausholen

Beim Schalten von digitaler Werbung gibt es im Vergleich zur organischen Suche oder dem direkten Einstieg auf der Website einen großen Vorteil. Er liegt darin, dass der smarte Performance-Marketer bestimmte Zielgruppen mithilfe von Ads-Plattformen identifizieren und zielgerichtet mit passender Werbung ansprechen kann. Diese Targeting-Informationen können und sollten nun ebenfalls auf der Landingpage genutzt werden, um die Botschaft und das Gefühl, welches die Anzeige beim Interessenten erzeugt hat, auch auf der Landingpage aufzugreifen und weiterzuführen.

Beim Paid Advertising gibt es verschiedene Targeting-Arten, die auf unterschiedlichen Plattformen und Systemen zum Einsatz kommen, wie beispielsweise:

  • Keyword-Targeting
  • Interessenbasiertes Targeting
  • Soziodemografisches Targeting
  • Behavioral Targeting
  • Geotargeting
  • Retargeting

Nachfolgend werden ein paar dieser Targeting-Arten genauer erläutert und ihr Potenzial für das Performance-Marketing exemplarisch dargestellt.

Keyword-Targeting

Keyword-Targeting wird durch das Schalten von Werbeanzeigen in Suchmaschinen wie Google angewendet. Hierbei nutzt der Werbetreibende den Begriff, der vom Suchenden in die Suchmaske eingegeben wurde, um ihn mit zielgerichteten Textanzeigen auf die eigene Webseite zu locken. Anhand des Suchbegriffs wird auf den möglichen Bedarf des Suchenden geschlossen, woraus wiederum die Werbebotschaft der Textanzeige entwickelt wird, mit welcher der Suchende beworben wird.

Performance-Marketer bekommen so die Chance, genau diesen vom Suchenden explizit ausgedrückten Bedarf nicht nur in der Anzeige zu nutzen, sondern eben auch auf diesen Bedarf auf der Landingpage einzugehen. Eine zur Werbeanzeige passende Landingpage sorgt so schlussendlich für eine relevantere Wahrnehmung der Webseite.

Stellen wir uns folgenden Use Case vor: Eine Frau, die sich selbst etwas gönnen möchte und auf der Suche nach einer schicken Halskette ist, hat ganz andere Bedürfnisse und Emotionen als ein Mann, der seiner Frau zum Jahrestag eine Halskette schenken möchte. Es wird zwar unter Umständen das gleiche Produkt gesucht, aber die Intentionen sind unterschiedlich. Die Werbeanzeigen werden von Suchmaschinen zwar häufig textuell unterschieden, nur leiten beide Werbeanzeigen auf ein und dieselbe Landingpage. In unserem Fall ist die Landingpage für Damen optimiert, die sich gerne selbst eine schöne Halskette kaufen möchten (siehe Abbildung 4).

Abbildung 4: Der Online-Shop für Schmuck ist auf die Frau optimiert, die sich selbst etwas kaufen möchte

Fakt ist, dass der Suchende nicht nur mit der Werbeanzeige, sondern auch auf der Landingpage entsprechend seiner Intention angesprochen werden sollte. Für den suchenden Mann, der ein Schmuckstück verschenken möchte, sollte die Kommunikation durch ein entsprechendes Wording wie beispielsweise „Eine besondere Halskette für einen besonderen Tag und eine besondere Frau“ hervorgehoben werden. Denn dieser stellt sich andere Fragen beim Kauf einer Halskette als eine Frau, die sich selbst etwas Schönes kauft: „Wird es meiner Frau gefallen? Ist es angesagt? Kann ich das Schmuckstück zurücksenden, falls es ihr nicht gefällt?“

Diese Aspekte sollten beachtet werden und dementsprechend in die Gestaltung der Landingpage einfließen (siehe Abbildung 4 und 5).

Abbildung 5: Demo Schmuck-Shop, welches auf die Zielgruppe Mann optimiert ist, der seine Partnerin beschenken möchte

Interessenbasiertes Targeting

Beim interessenbasierten Targeting werden Werbeanzeigen nur Personen ausgespielt, die Interesse an bestimmten Themen bekunden. Interessenbasiertes Targeting wird beispielsweise auf Social-Media-Plattformen wie LinkedIn oder Facebook eingesetzt. Oft wird in mühevoller Arbeit die Anzeige erstellt, ohne jedoch spezielle Anpassungen an die Landingpage in Betracht zu ziehen. Wenn es möglich ist, Leads oder auch Kunden zielgerichtet nach Interessen anzusteuern, sollten sich idealerweise auch deren Interessen oder verwandte Themen auf der Landingpage wiederfinden. Denn genau das ist der Vorteil bei dieser Art von Targeting: Der Nutzer wird passend zu seinen bisherigen Aktionen angesprochen und fühlt sich dadurch abgeholt und verstanden.

Als Beispiel für eine interessenbasierte Landingpage wird hier ein griechisches Restaurant angeführt. Dieses wirbt für sein spezielles Angebot in einer mittelgroßen deutschen Stadt auf Facebook. Die Speisekarte des Restaurants dient in diesem Use Case als Landingpage (siehe Abbildung 6).

Abbildung 6: Einfache Speisekarte des Restaurants „The Greek” als Landingpage

Da sich immer mehr Leute für eine fleischfreie Ernährung begeistern, könnte eine weitere Anzeigengruppe erstellt werden, wo zusätzlich zu dem bereits vorhandenen Targeting das Interesse „Vegetarische Ernährung”, was auf eine fleischfreie Ernährung schließen lässt, angegeben wird. Die entsprechende Landingpage könnte dann für diese Zielgruppe deutlich relevanter sein, wenn:

  • Die Kategorie „Vegetarisch” vorausgewählt ist
  • Eine passende Headline gesetzt ist, die das Thema oder den Begriff „Vegetarisch” aufgreift
  • Ein Hero Image eine vegetarische Spezialität visualisiert, um die Lust auf eines der Menüs zu verstärken

Die optimierte Landingpage, welches das Thema „Vegetarische Ernährung” nicht nur auf Anzeigenebene aufgreift, sondern auch auf der Zielseite, ist für den Benutzer nun deutlich relevanter (siehe Abbildung 7).

lseite, ist für den Benutzer nun deutlich relevanter (siehe Abbildung 7).

Abbildung 7: Eine auf vegetarische Speisen optimierte Landingpage des Restaurants „The Greek”

Soziodemografisches Targeting

Das soziodemografische Targeting beschreibt das zielgerichtete Ausspielen von Werbung an Zielgruppen mit bestimmten demografischen Eigenschaften wie Alter, Geschlecht, Herkunft oder beispielsweise auch die Angaben zu Beziehungsstatus und Familienmitgliedern.

Im nachfolgenden Beispiel sollen Personen angesprochen werden, die einen Familienurlaub in Griechenland buchen möchten. Eine Familie ist beim soziodemografischen Targeting dadurch definiert, dass der Suchende in einer Beziehung ist und Kinder hat. Eine Reisebuchung ist mit vielen Emotionen und Bedürfnissen verbunden. Dabei muss berücksichtigt werden, dass eine Familie mit Kindern ganz andere Bedürfnisse bei der Reisebuchung hat, als wenn jemand als Single verreisen möchte. Eine Familie ist meistens auf der Suche nach entspannten Pauschalreisen. Dazu gehört häufig ein Rundum-Sorglos-Paket mit all-inclusive, großen Familienzimmern sowie Animationen, Kinderpools und Wasserrutschen für die Kleinsten.

Abbildung 8 zeigt eine typische Suchergebnisseite eines Reiseportals. Schaut man genauer hin, sieht man auch, dass der Filter auf „Familiengeeignet” gesetzt ist. Diese Information kann jedoch schnell übersehen werden, was die aufgelisteten Hotels und dadurch auch die komplette Seite weniger relevant wirken lassen kann.

Abbildung 8: Wenig optimierte Landingpage eines Reiseportals in Griechenland für Familien

Die Landingpage könnte durch die Abbildung einer Familie im Headerbild in Kombination mit einer dazu passenden Headline die gewünschte emotionale Wirkung hervorrufen und an Relevanz gewinnen. Außerdem könnte mit zusätzlichen Elementen wie Badges die Familienfreundlichkeit der angezeigten Hotels weiter unterstrichen werden (siehe Abbildung 9).

Abbildung 9: Optimierte Landingpage für Hotels in Griechenland für Familien: Die Headline, Subheadline und das Teaserbild zeigen den Zielzustand der Besucher

Weitere Optimierungen könnten sein:

  • Kundenbewertungen von Familien, Gütesiegel und ein gutes Preis-Leistungs-Verhältnis.
  • Insgesamt sollte die Seite eher ruhig gestaltet sein und genau die Vorteile in den Vordergrund stellen, die für Familien wichtig sind.
  • Hervorheben von besonders für Familien wichtigen Leistungsangeboten wie Animationsangeboten, Wasserrutsche, Pool etc.

Das Beispiel wäre analog auch auf Reisen für Singles anwendbar. Für Alleinstehende würden im Vergleich andere Aspekte im Vordergrund stehen. Anders als bei Familien sind Singles meistens auf der Suche nach viel Abwechslung und Abenteuer. Zudem werden bei der Auswahl vermutlich Hotels, die erst ab einem Alter von 18 Jahren zugänglich sind, relevant sein.

Die im Artikel visualisierten Landingpages geben eine kleine Vorschau auf das vorhandene Potenzial, welches mit der Darstellung von zielgruppenspezifisch relevanten Landingpages im Performance-Marketing möglich ist. Analog können auch mit allen anderen Targeting-Arten relevante Landingpages erstellt werden.

Wenn du dir nun denkst, dass die Beispiele zwar Sinn ergeben, du dich aber schwertust, diese bei dir auf deiner Seite umzusetzen, dann solltest du dir entsprechende Personalisierungstools, Landingpage-Dynamisierungstools oder Landingpage-Baukästen anschauen, mit denen du einfache Änderungen deiner Webseite oder Landingpage schnell und einfach durchführen kannst. Häufig sind es nur wenige Änderungen, die bereits ausreichen, damit eine Landingpage von der Zielgruppe als deutlich relevanter empfunden wird. Folgende Optimierungen im Paid Advertising sind häufig einfach und schnell umsetzbar und können dir bei deiner Optimierung helfen:

  • Die Headline auf der Landingpage muss zum Anzeigentext und der Botschaft in der Werbeanzeige passen.
  • Prüfe, ob die Navigation zielführend ist oder eher ablenkt, und entferne sie ggf. oder Teile davon.
  • Wähle deine Hero Shots entsprechend deiner Zielgruppe aus und achte dabei auf eine stimmige Ansprache in deiner Anzeige sowie auf deiner Landingpage. Zeige abhängig von deiner Zielgruppe relevante Informationen und Vorteile an.
  • Wiederhole Vorteile aus deiner Werbeanzeige auch auf deiner Webseite und zeige dem Besucher, dass er hier richtig ist.
  • Greife die erzeugte Stimulanz der Anzeige auf – so sollte ein Besucher, der durch einen attraktiven Preis in der Anzeige auf die Landingpage gelockt wurde, sich auch dort wiederfinden.
  • Blende abhängig von deiner Zielgruppe und deren Bedürfnissen nicht relevante Elemente und Textpassagen aus oder ersetze diese durch relevanteren Content.
  • Nutze das Vorfiltern, Vorselektieren und Vorsortieren bei Produktlisten, damit der Besucher sofort das gewünschte Suchergebnis wiederfindet.

Fazit

Sehr viele Paid-Kampagnen haben auch heute noch ein enormes Potenzial. Häufig reichen bereits kleine Änderungen auf den entsprechenden Landingpages aus, damit sich der Besucher besser abgeholt fühlt und folglich auch konvertiert. Parallel zur klassischen Conversion-Optimierung einzelner Webseiten kann die spezifische Optimierung von Kampagnen-Landingpages eine zusätzliche Maßnahme sein, um bei bezahlten Kampagnen die Konversionsrate noch weiter zu erhöhen.

Die Denkweise, dass Performance-Marketer nur „den Traffic beschaffen”, sollte infrage gestellt und überdacht werden. Mittlerweile stehen auch Performance-Marketern zahlreiche Möglichkeiten zur Verfügung, um aktiv Einfluss auf die Konversionsrate zu nehmen. Gerade in sehr umkämpften Märkten ist es nötig, sich gegenüber seinen Mitbewerbern durchzusetzen, um schlussendlich einen besseren Return on Ad Spend zu erwirtschaften. Wir hoffen, dass dir der Artikel einen Impuls geben konnte, um das volle Potenzial im Performance-Marketing zu schöpfen, und wünschen dir viel Erfolg beim Optimieren.




Kopflos bei Headlines! – Wie setzt man die Hx richtig ein?

Aufgrund vieler Anfragen und Anregungen unserer Leser starteten wir in Ausgabe 68 erneut eine kleine Serie mit SEO-Basics für Einsteiger und motiviert Fortgeschrittene. In diesem ersten Teil ging es um die Überschriften für HTML-Dokumente, also die „Headline“ H1 bis H6. Diese Tags sind vorgesehen, Überschriften eine Reihenfolge gemäß einer Hierarchie zuzuweisen. Leider kann man in einem HTML-Text auch manuell oder auf andere Arten optisch (!) Überschriften erzeugen, ohne das Headline-Tag zu verwenden. Ebenso kann man es hierarchisch falsch einsetzen, und was sieht man auf der Webseite im Browser? Keinerlei Fehler! Daher das „leider“ zwei Sätze wieder oben, denn sie tun es fast alle – die Headlines falsch einzusetzen. Man merkt es beim Betrachten eben nicht, nichts fällt auf. Nur wer wie Maschinen in den Quellcode sieht bzw. sehen muss, dem stellt sich oft ein völlig anderes, leicht oder komplett falsches Bild dieser Überschriften dar. Wie häufig gibt es in der SEO-Community auch hier keine komplette Einigung, wie wichtig das korrekte Ausgestalten der Hx-Tags für das Ranking ist. Nachdem Google aber mit dem sog. Passage-Ranking und zuletzt mit dem „Title-Update“ (siehe diese Ausgabe) gezeigt hat, dass man auch einzelne Abschnitte für ein Ranking heranziehen oder den Title einer Seite mit dem Eintrag in der H1 im Suchergebnis ersetzen kann, sollte man vielleicht doch eher sicherheitshalber auf diejenigen hören, die das Optimieren der Hx schon immer empfehlen. Ein Ignorieren der Hx schadet dem Ranking nicht im eigentlichen Sinn – aber man vergibt wie immer Gestaltungsmöglichkeiten, um mitzubestimmen, welche Wörter für eine Seite besonders wichtig sind. Mit anderen Worten verzichtet man auf gewisse Bonuspunkte, die tatsächlich leicht zu bekommen sind.

Was ist Hx überhaupt?

In HTML kann und sollte man Überschriften über Textblöcken entsprechend mit Tags kenntlich machen. Möchte man eine Überschrift auf der ersten, obersten Ebene verwenden, kleidet man den Text z. B. einer H1-Überschrift mit einem öffnenden <h1> und einem schließenden </h1> ein. Das sieht dann in der Praxis so aus wie derzeit auf galeria.de für einen Adidas-Sportschuh:

<h3 class="g-pds__brand-logo product-brands">
 <a href="https://www.galeria.de/search?q=adidas"> […] </a>
</h3>
[…]
<h1 class="g-headline g-headline--level1">
 adidas Hallenschuh &quot;Court Team Bounce&quot;, Halt, flexibel, D&auml;mpfung, f&uuml;r Damen
</h1>

Hier werden die Überschriften übrigens nicht konform eingesetzt, aber dazu später mehr.

Wie sieht eine korrekte Dokumentenstruktur aus?

Für HTML stehen sechs Überschriftenlevel zur Verfügung und die Tags unterscheiden sich lediglich in der Ziffer 1 bis 6 für die einzelnen Levels:

<h1>Headline Level 1</h1>
 <h2> Headline Level 2</h2>
 <h3> Headline Level 3</h3>
 <h4> Headline Level 4</h4>
 <h5> Headline Level 5</h5>
 <h6> Headline Level 6</h6>

Wie diese Überschriften dann auf der Seite selbst optisch dargestellt werden, größer, fett, kursiv, farblich, Schriftart etc., wird vom Contentmanagement bestimmt, vom Template (Vorlage) oder hinterlegten CSS-Dateien. Man kann also auch eine H1 optisch genauso wie normalen Text darstellen bzw. nach Belieben anders. Wichtig hierbei ist zu verstehen, dass im Quelltext eben der Zusatz <h1> verwendet wird, was einer Maschine per Mustererkennung anzeigt, dass der folgende Text kein „normaler“ Fließtext ist oder ein abgesetzter Satz, sondern wirklich eine Überschrift für den kommenden Absatz. Oder eben eine Ober-Überschrift für weitere, tieferliegende Absätze. Eine Gliederung.

Es versteht sich von selbst, dass eine H2, also eine Überschrift auf der zweiten Ebene, auch die tieferliegenden Abschnitte mit H3, H4 etc. miteinschließt. Die folgenden Unterpunkte sind stets eine Art Untermenge oder Unterteilung der darüber liegenden Überschrift. Insofern hat die Gliederung nicht nur die Funktion, mit wenigen treffenden Worten eine Zusammenfassung/Vorschau auf den jeweiligen Fließtextinhalt dieses Kapitels zu geben, sondern eben auch eine Hierarchieinformation. In Abbildung 1 kann man das recht gut erkennen. H3: Marktanteile erhält mehr Sinn, weil darüber in der H2 Apple steht. Es handelt sich um Marktanteile von Apple. Nimmt man noch die H1 dazu, erfährt man, dass es um die Smartphones der (nachfolgenden) Hersteller geht. Das Beispiel ist sicherlich dahingehend nicht optimal, weil die Überschriften eigentlich viel zu knapp sind. Um die Zusatzinfo besser zu verdeutlichen, die durch die Hierarchie entsteht, wurde dies aber hier absichtlich so knapp gehalten. Gleichzeitig zeigt das Beispiel auf der rechten Seite auch, dass eine falsche Strukturierung dies gerade nicht leisten kann. Würde man hier auflösen, wäre „Apple“ mit H1 die oberste Instanz und z. B. Samsung und Huawei Unterpunkte davon.  

Abbildung 1: Welche Gliederung kommt Ihnen schlüssig(er) vor – links oder rechts?

Wie kann man die Überschriften schnell mit Bordmitteln prüfen?

Möchte man nun prüfen, ob die eigenen Webseiten die Überschriften-Tags strukturell richtig einsetzen, was in den Überschriften eigentlich steht bzw. ob überhaupt Überschriften verwendet werden, kann man entsprechend SEO-Tools verwenden. Das schnellste und noch dazu kostenlose Tool ist wahrscheinlich das Browser-Plug-in „Webdeveloper“ von Chris Pederick (https://chrispederick.com/work/web-developer/), das sowieso auf jeden Computer eines Online-Verantwortlichen gehört. Es ist eines der nützlichsten Tools, eine Art Schweizer „Online-Messer“, um schnell Dinge auf einer Webseite zu prüfen oder zu verändern. Ein Klick auf das Zahnrad-Symbol (Abbildung 3, Ziffer 1) für das Plug-in nach der Installation, anschließend auf die Registerkarte „Information“ (Ziffer 2) und dort auf „View Document Outline“ (Ziffer 3) rippt aus der im Browser sichtbaren Webseite alles bis auf die Überschriften ab.

Das Beispiel in Abbildung 3 zeigt auch sofort, wo hier das Problem liegt. Man hat nicht mit H1 und H2 (Markierung A) begonnen, sondern mit dem Level 3, also der H3. Dort steht etwas in Klammern, was nie und nimmer eine aussagekräftige Überschrift für die willkürlich gewählte Seite (www.galeria.de/adidas-Hallenschuh-Court-Team-Bounce-Halt-flexibel-Daempfung-fuer-Damen/55490166.html) sein dürfte (Abbildung 2).  

Abbildung 2: So sieht die Seite für Besucher aus
Abbildung 3. Einfacher gehts nicht mehr – Webseite aufrufen und mit drei Mausklicks sehen, was Hx-Sache ist (Webdeveloper-Plug-in von Chris Pederick)

Die Markierungen B, C und D in Abbildung 3 lassen ganz eindeutig erkennen, dass die meisten Überschriften gar keine Überschriften für das Produkt sind, sondern die Namen von anderen „Kunden interessierte auch“-Produkten. Headline 4 und 5 wurden ausgespart und unter H6 (Markierung D) wurde ein Teil der Navigation („Über uns“, „Mein Konto“ etc.) als Überschrift deklariert. Als Fazit bleibt festzuhalten, dass man mit den hier hinterlegten Überschriften außer der an vierter Stelle stehenden H1 „Adidas Hallenschuh…“ für das Ranking rein gar nichts anfangen kann. Im Gegenteil, hier steht in den Überschriften Text, für den die Seite gerade NICHT ranken sollte, weil es um andere Produkte geht oder schlicht um generische Navigationstexte im Footer.

Was würden Sie tun, wenn Sie als „Maschine“ auf eine solche Struktur stoßen? Ausgelassene Levels, alles völlig durcheinander, ein Teil der „Überschriften“ ist auf allen Seiten gleich (Footernavigation)? Falls Sie den Missbrauch der Überschriften-Tags zur reinen Formatierung und eben nicht zur Strukturierung erkennen können, würden Sie sich wohl merken, die Hx-Einträge auf dieser Domain besser zu ignorieren, oder? Was würde Google tun?

Ignorieren bedeutet wie erwähnt nicht, dass es hier ein negatives Signal gibt oder so eine Seite am Ende sogar nicht rankt, das wäre ein Trugschluss. Sie kann natürlich „trotzdem“ ranken, da Google viele Hundert Signale auswertet. Hier hat man einfach darauf verzichtet, ein Dokument für Maschinen nicht nur nicht gut, sondern eben überhaupt vernünftig zu strukturieren – und damit auf einen möglichen Bonus verzichtet.

Die Domain wurde tatsächlich willkürlich ausgewählt. Es ist nicht schwer, Seiten zu finden, die Headlines falsch einsetzen, wie Sie selbst mit der Nutzung des oben erwähnten Tools testen können. Im Gegenteil ist es sehr schwer, gut strukturierte Dokumente zu finden. Die meisten Webmaster wissen offenbar nicht, was Hx tatsächlich bedeutet, und nehmen die Standardvorlagen ihrer Shopsoftware oder ihres CMS. Und dort sind sie fast immer out-of-the-box falsch definiert. Programmierer und Designer sind halt in der Regel keine SEOs und wollen es auch nicht werden.

Was empfiehlt Google im Leitfaden für SEO-Anfänger?

Überschrifts-Tags verwenden, um wichtigen Text hervorzuheben
Verwende aussagekräftige Überschriften, um wichtige Themen zu kennzeichnen und dadurch eine hierarchische Struktur für deine Inhalte zu schaffen. So hilfst du Nutzern, sich in deinem Dokument zurechtzufinden.

Sich vorstellen, eine Gliederung zu schreiben
Mach dir, ähnlich wie beim Schreiben einer Gliederung für ein umfangreiches Dokument, Gedanken darüber, welches die inhaltlichen Haupt- und Unterpunkte auf der Seite sind, und lege fest, an welchen Stellen die Verwendung von Überschrifts-Tags angemessen ist.

Zu vermeiden:

  • Platzieren von Text in Überschrifts-Tags, der bei der Definition der Seitenstruktur nicht hilfreich ist
  • Verwenden von Überschrifts-Tags an Stellen, an denen andere Tags wie <em> und <strong> sinnvoller sind
  • Unregelmäßiger Wechsel zwischen verschiedenen Überschrifts-Tag-Größen

Nicht zu viele Überschriften auf einer Seite verwenden
Nutze Überschrifts-Tags dort, wo es sinnvoll ist. Eine zu große Anzahl von Überschrifts-Tags auf einer Seite kann es Nutzern erschweren, sich einen Überblick über den Inhalt zu verschaffen und zu erkennen, wo ein Thema endet und ein anderes beginnt.

Zu vermeiden:

  • Verwenden übermäßig vieler Überschrifts-Tags auf einer Seite
  • Sehr lange Überschriften
  • Verwenden von Überschrifts-Tags als reines Gestaltungselement für Text, ohne dass eine Struktur erkennbar wird

Quelle: https://developers.google.com/search/docs/beginner/seo-starter-guide

Missverständnisse und Fehlschlüsse?

Wie wichtig ist denn nun das korrekte Gliedern? Darf man eine H1 mehrfach verwenden? Bekommen Wörter in einer Hx-Überschrift tatsächlich mehr Gewicht? Das ist durchaus nicht unumstritten. Zumindest früher war Google noch stärker auf einzelne HTML-Elemente bzw. deren Ausgestaltung angewiesen, um die echten Topics einer Seite für die Relevanz für das Ranking bestimmen zu können. Diese Bedeutung hat im Lauf der Zeit abgenommen, nicht zuletzt, weil man heute über Machine Learning und semantische Analysen sehr viel mehr herausrechnen kann, als das früher der Fall war. Das bedeutet allerdings noch nicht, dass man Hx und seine Struktur einfach links liegen lassen kann.

John Müller von Google hat mehrmals betont, dass man kein Problem damit hätte, wenn eine H1 mehrfach auf einer Seite vorkäme. Auch als man ihn gefragt hat, ob eine Seite ohne H1 mit dem Text aus einer H2 ranken könne, hat er geantwortet: „Of course […] it can. It can absolutely.“ Daraus hat die SEO-Gemeinde eigentlich unzulässig abgeleitet, dass eine H1 nicht wichtig wäre. Das hat Müller nicht gesagt. Nur dass sie auch ohne H1 gut ranken kann. Müller meinte auf Nachfrage, die H1-Headings „aren’t critical“ für das Ranking. Nun, wann hat Google ehrlicherweise schon mal öffentlich erklärt, ob ein einzelner Rankingfaktor „kritisch“ für das Ranking ist? Bei mehreren Hundert Signalen ist wohl keines alleine besonders kritisch und das macht auch Sinn.

In einer Webmaster-Sprechstunde am 11.08.2020 ging er ausführlicher auf das Thema ein. Wesentliche Teile seiner Antwort waren:

So headings on a page help us to better understand the content on the page. Headings on the page are not the only ranking factor that we have. We look at the content on its own as well. But sometimes having a clear heading on a page gives us a little bit more information on what that section is about. […] So in particular when it comes to images, that’s something where headings and the context of that image helps us a lot to understand where we should be showing that image in search”,

und später:

„And when it comes to text on a page, a heading is a really strong signal telling us this part of the page is about this topic. […] whether you put that into an H1 tag or an H2 tag or H5 or whatever, that doesn’t matter so much. But rather kind of this general signal that you give us that says… this part of the page is about this topic. And this other part of the page is maybe about a different topic.“

Was nicht gesagt wurde bzw. worauf Müller (noch) nicht eingegangen ist, wäre die Frage, ob ein unstrukturiertes Dokument im Sinne eines falschen Einsatzes der Hx „schlechter“ zu verstehen ist für die Suchmaschine. Man erfährt nur, dass es weniger wichtig ist. Umgekehrt sind „clear headings“ wohl durchaus ein wichtiger Punkt, den Content und die Teil-Topics besser zu verstehen. Auch im Zusammenhang mit der Interpretation mit Bildern sind die Hx wichtig. Herauszuheben ist sicherlich hier nochmals die Aussage: „A heading is a really strong signal.

Man muss und sollte bei Aussagen von Google-Mitarbeitern wirklich immer vorsichtig und genau hinhören. Heißt es da „ich glaube“ oder „nach meiner Einschätzung“, bedeutet das nicht unbedingt, dass man wirklich genau wüsste, dass A oder B tatsächlich von den Algorithmen für ein Ranking verwendet würde. Auch die oft verwendete Redewendung „mache es so, wie es für deine Besucher gut ist“ ist kein eindeutiges Signal, dass das Gefragte nicht rankingrelevant wäre. Natürlich (!) sagt niemand von Google, das oder jenes ist ein starkes Rankingsignal und wenn du das nicht hast, wirst du kein gutes Ranking bekommen. Zudem weiß man dort, dass jedes Wort, jeder Satz tausendfach (über-)interpretiert wird, und ist auch entsprechend vorsichtig.

Fazit

Man kann sich sicherlich trefflich streiten, ob die Auswirkungen einer korrekten Hx-Ausgestaltung heute wirklich noch messbar sind beim Ranking. Umgekehrt macht es fast keine Mühe, es richtig zu machen und der Maschine bessere Signale zum Verständnis des nachfolgenden Fließtextes an die algorithmische Hand zu geben. Sicherlich wenig Sinn macht es, sich Hx-Formatierungen zu bedienen für Dinge, die tatsächlich in gar keiner Weise Überschriften darstellen, wie Footernavigationen, die Bread-Crumb-Navigation oder sogar noch Empfehlungen für anderes, was genau ja eben auf dieser Seite NICHT zu finden ist, sprich Produktempfehlungen. Viele SEO raten daher, die Hx anständig zu setzen, vernünftigen Überschriftentext zu verwenden und damit ein Dokument maschinenlesbar sauber zu strukturieren. In der Regel muss oft nur eine oder wenige Vorlagen angepasst werden, die vorher unbedacht mit falschen Hx-Strukturen programmiert wurden. Wer etwas neu aufsetzt, kann natürlich ohne Zusatz-/Änderungsaufwand gleich von Beginn an korrekte Überschriften erzeugen. Ohne Not sollte man wohl nicht darauf verzichten.




Klare Pfade: Xpath

Klare Pfade: Xpath

Sebastian Adler erklärte, was ein Xpath ist und wie man ihn für SEO-Zwecke einsetzen kann. Im Prinzip ist der Xpath die Adresse eines einzelnen Teils eines HMTL-Dokuments. Die URL selbst stellt die Adresse dar, wo ein Dokument zu finden ist im Web, und der Xpath zeigt die genaue Adresse, mit der man eine Information im sog. DOM, dem Objektbaum des Dokuments, ansprechen kann. Stellt man sich ein Worddokument vor, bei dem vereinfacht erklärt jeder Satz und jedes Objekt eine eigene Gliederungsnummer hätte, könnte man mit dem Dateinamen (wo liegt die Datei) und dem Gliederungspunkt (wo im Dokument liegt das Objekt, das man haben möchte) eben nur dieses eine Objekt „herauskopieren“. Nichts anderes macht man mit dem Xpath. Er stellt quasi die Wegbeschreibung zu einem gesuchten Element dar. Da der Xpath Groß- und Kleinschreibung unterscheidet, liegt hier manchmal die erste Stolperfalle bei der Anwendung. <div> ist eben nicht gleich <Div> und so empfahl Adler dringend, alles jeweils sauber zu testen, bevor man großflächig Daten einsammeln möchte.

Typische Anwendungen für SEO wären Fragen wie: Was steht im Title, welche Bilder gibt es auf einer Seite, welche externen Links gehen von einer Seite weg, wann wurde der Beitrag publiziert und einige andere mehr. So liefert zum Beispiel der Xpath „//title“ oder „//H1“ zusammen mit der URL eines HTML-Dokuments alle Title- und H1-Einträge zurück. Für den Chrome-Browser gibt es das kostenlose Add-in „Xpather“, für Firefox „Try Xpath“, mit denen man gut testen kann, ob man die richtigen Adressen ermittelt hat. Toolgestützt, etwa via SEO-Tools für Excel, Google Spreadsheets oder den Screaming Frog kann man beim Crawlen von Dokumenten unter Angabe es Xpath gleichzeitig ohne Zusatzaufwand die entsprechenden Informationen mit wegschreiben. Natürlich lassen sich damit auch Preise, Verfügbarkeiten, die Anzahl Bewertungssterne etc. adressieren.

Sebastian Adler zeigte einige praktikable Beispiele, die relativ leicht umsetzbar sind und mit denen man via Xpath an Daten bzw. Erkenntnisse kommen kann. Eines der Beispiele bezog sich auf Featured Snippets in den Google Suchergebnissen. Im konkreten Fall ging es darum, den Text von Featured Snippets für verschiedene Suchbegriffe zu extrahieren. Dazu sucht man im Quelltext der Suchergebnisseite von Google das Element, das den Textinhalt trägt:

<div>
<div> hier steht viel Zeug (u.a. das Bild)</div>
<div class="mod"> Featured Snippet Text</div>
<div class="g">Title + URL mit Link</div>
</div>

Über den Xpath

//*[@class='mod']/..

und die zugehörige URL wie z. B. www.google.de/search?q=“Suchwort“&hl=de lässt sich dann eine automatische Abfrage zusammenbauen. Statt „Suchwort“ muss natürlich das jeweilige Keyword verwendet werden.

So erzeugt z. B. www.google.de/search?q=“geldmarktzins“&hl=de eine Suchergebnisseite mit einem Featured Snippet, wie in Abbildung 7 zu sehen ist. Den Text „Der Geldmarktzins ist der Zins…“ kann man dann mit dem Xpath //*[@class=’mod‘]/.. extrahieren. Besonders leicht lässt sich das dann z. B. mit den SEO Tools für Excel lösen. Man hinterlegt in der Spalte A alle Keywords in Zeilen und fügt diese dann über eine Formel rechts daneben in Spalte B in die Google-Such-URL ein bzw. „baut diese zusammen“. Das sieht dann z. B, so aus:

https://www.google.de/search?q="&A1&"&hl=de

Erzeugt wird durch diese Formel die vorherige URL www.google.de/search?q=“geldmarktzins“&hl=de. In der Spalte daneben an den Xpath ein und über das automatische Ausfüllen nach unten über alle befüllten Zeilen wird das Abholen aller Daten ausgelöst. Allerdings sollte man hier nicht zu viele Abfragen auf einmal machen, damit Google den (eigenen) Client nicht kurzzeitig sperrt.

Abbildung 7: Per Xpath Texte aus Suchergebnissen holen
Abbildung 8: Mit Tools wie Xpather zieht man Elemente direkt und einzeln von jeder HTML-Seite (Quelle: Sebastian Adler)

Adlers besonderer Tipp galt der Dokumentation. Man solle lieber ausführlicher als zu knapp dokumentieren, was man mit einem oder mehreren Xpath-Anweisungen beabsichtigt hat. Das hilft später enorm bei erneuter Verwendung.  




Wie Sie Neukunden souverän für sich gewinnen

So manch ein Agenturbetreiber hat sich schon hoch motiviert selbstständig gemacht, um nach ein paar Monaten ernüchtert festzustellen, dass er – zumindest wirtschaftlich gesehen – besser im vorherigen Angestelltenverhältnis geblieben wäre. Eine Selbstständigkeit hat zwar viele Vorteile, aber spätestens dann, wenn man merkt, dass einem die Kosten davonlaufen und man selbst für seine eigene Rente nichts sparen kann, stellt sich die Frage, woher neue Umsätze und Gewinne kommen. Auch wenn so manche Agenturen vollmundig mit Thesen wie „Kaltakquise ist tot!“ in den sozialen Medien auf Kundenfang gehen, merken sie auch selbst oft, dass sie noch weitere Register ziehen müssen, um an interessante Projekte zu gelangen. Denn es ist etwas anderes, Zielkunden die Hoffnung auf neue Kunden zu verkaufen, als für sich selbst erfolgreich Kunden zu gewinnen.

Für zahlreiche Unternehmen ist die Wahl der richtigen Agentur schwer und mühsam. Versetzen Sie sich doch dazu einfach mal in einen Interessenten, der einen Dienstleister sucht, welcher ihm dabei hilft, dass sein Unternehmen nicht nur besser im Internet gefunden wird, sondern dass er auch mehr Anfragen und im Idealfall mehr Aufträge bekommt. Für Laien sind die meisten Webseiten von Agenturen austauschbar, da – etwas böse gesagt – nahezu alle dasselbe schreiben:

  • Wir sind ein tolles Team und motiviert.
  • Wir bringen Sie nach vorne – mit SEO und SEA.
  • Wir haben schon ganz viele Kunden, schauen Sie sich die Logos an!

Doch jetzt mal Hand aufs Herz: Nur weil sich anscheinend viele Agenturbetreiber von ihren Mitbewerbern bei der Gestaltung ihrer eigenen Webseite stark inspirieren lassen – reicht das, um neue Kunden zu gewinnen? Natürlich betrifft diese Austauschbarkeit von Webseiten nahezu alle Branchen. So sind beispielsweise auch von uns Verkaufstrainern Webseiten oft sehr ähnlich. Aber letztlich verdeutlicht dies ein großes Problem für Interessenten jeglicher Couleur: Auf den Internetauftritt alleine kann man sich nicht verlassen.
Wenn eine Anfrage über die eigene Webseite von jemandem kommt, der bisher noch keinen Kontakt mit dem Betreiber hatte, dann ist die Wahrscheinlichkeit groß, dass sich dieser auch noch Angebote von Mitbewerbern holt, die ähnlich austauschbar auftreten, getreu dem Motto: „Wir schreiben erst mal fünf Agenturen an und filtern dann weiter aus.“

„Wer beim Erstkontakt nicht gleich originell positiv auffällt, geht in der Masse unter.“

Machen Sie sich also Gedanken, wie Sie mit Ihrer Webseite origineller auftreten können. Haben Sie Mut zur Polarisierung. Seitdem ich beispielsweise den Slogan „Ehrlichkeit verkauft“ habe, bekomme ich von gewissen Branchen gar keine Anfragen mehr, dafür aber von Unternehmen, die ähnliche Werte wie ich haben, denen also nicht der kurzfristige Abschluss am Herzen liegt, sondern die beiderseitige langfristige erfolgreiche Geschäftsbeziehung. Darüber hinaus sollten Sie konkrete Ideen haben, wie Sie sich beim ersten Telefonat bzw. Online-Meeting originell von Ihren Mitbewerbern abgrenzen. Seien Sie am besten kein Schönredner, sondern gehen Sie auch durchaus kritisch an die Anfrage ran – sodass Ihr Gegenüber schnell spürt, dass Sie nicht nur verkaufen wollen, sondern wirklich Interesse daran haben, dass Ihr Interessent tatsächlich mit Ihnen Erfolg hat.

Wann Telefonakquise scheitern muss

„Guten Tag, ich bin gerade auf Ihrer Webseite gewesen und dabei ist mir aufgefallen, dass diese nicht mehr zeitgemäß ist/fünf Fehler zu finden sind/sie im Internet nicht auffindbar ist!“ Das sind Einstiegssätze unerfahrener Mitarbeiter am Telefon, die es vielleicht gut meinen, aber damit nicht gut ankommen. Denn wer will schon von einem fremden Menschen gleich in den ersten Minuten hören, dass er einen Fehlgriff mit seiner jetzigen Agentur getätigt hat bzw. seinen Laden (oder zumindest seine Webseite) nicht im Griff hat?

Vorwürfe werden bei der Kaltakquise oft ausgesprochen, obwohl man es selbst vielleicht gar nicht so böse meint, wie es beim Gegenüber ankommt. Als unbedarfter Agenturmitarbeiter ist man vielleicht sogar dafür dankbar, Fehler auf einer Webseite bei einem Zielkunden zu finden, weil man glaubt, so einen guten Gesprächsaufhänger zu haben.

„Nicht alles, was man gut meint, kommt gut an.“

Sie sollten sich fragen, ob Unternehmen, die keine guten Webseiten haben, überhaupt Ihre Zielkunden sind. Denn möglicherweise ist ja den Betreibern dieser Seiten die Webseite gar nicht so wichtig. Wäre es nicht vielleicht sogar besser, Unternehmen gezielt anzusprechen, die gute Seiten haben, weil diese offensichtlich erkannt haben, dass eine gute Webseite bzw. funktionierende Social-Media-Kampagnen ideal für sie sind? Denn wenn Ihr Zielkunde das toll findet, was Agenturen machen, dann ist das Thema Geld oft zweitrangig, da diese Kunden den Sinn und dann meist auch den Wert der Leistung verstehen.

Fail: Bewerben Sie sich!

Seit einigen Jahren ist es üblich geworden, dass sich Interessenten bei Anbietern „bewerben“ sollen. So verschicken manche Agenturen fleißig Briefe per Post, was an sich nicht falsch ist, und fordern ihre Leser auf, sich doch umgehend bei Interesse beim Absender zu bewerben. Falls Sie gerne auf Interessenten, Geschäftsführer und Entscheider von oben herabblicken, dann ist das Wort „bewerben“ richtig. Sie sollten aber davon ausgehen, dass kein Mensch sich bei Ihnen bewerben will, damit er Ihnen sein Geld geben darf. Eher sollten Sie davon ausgehen, dass bodenständige Unternehmer einen großen Weg um Sie machen, weil sie denken: „Was sind denn das für arrogante Säcke, halten sich wohl für was Besonderes.“

Verlierer erkennt man am Start

Denken Sie daran, dass ein Kunde bei der Wahl seiner Agentur ein großes Risiko eingeht. Denn verkauft die Agentur überwiegend nur heiße Luft, verliert ein Unternehmer nicht nur schnell viel Geld und Nerven, sondern im Zweifelsfalle auch Marktanteile und Ansehen bei seinen Mitarbeitern. Darum greifen auch so manche Entscheider gerne selbst spontan zum Telefon – und rufen bei potenziellen Agenturen an. Die entscheidende Frage ist nun: Wie professionell wird dieser Erstkontakt von Ihnen gestaltet?

„Jeder Ihrer Mitarbeiter ist die Visitenkarte Ihrer Unternehmung.“

Im schlimmsten Fall geht nun ein Mitarbeiter ans Telefon, der zwar ein Telefon bedienen kann, sich aber noch nie mit richtigem Telefonieren beschäftigt hat. Mit Sätzen wie: „Wie war noch mal Ihr Name?“, oder: „Der Kollege, der das macht, ist gerade nicht da. Wann der wiederkommt, weiß ich nicht – können Sie wieder anrufen?“, manövrieren sich viele schnell ins Aus. Natürlich auch die, bei denen nach ein paarmal klingeln nicht mal ein Anrufbeantworter mit einem vernünftig besprochenen Text „rangeht.“ Vielen Agenturbetreibern ist gar nicht klar, dass jeder einzelne Mitarbeiter entscheidend zur Wahrnehmung der Agentur beiträgt – und somit sowohl zur Kundenbindung als auch zum Kundenverlust.

Betreiben Sie Gesichtsmarketing

„Sie müssen da sein, wo Ihre Kunden sind.“

Anzeige

Kunden können nur von denen kaufen, die sie kennen. Das bedeutet, dass Sie durchaus die beste Agentur in Ihrer Stadt betreiben können, dies aber wenig bringt, wenn Ihre potenziellen Kunden Sie gar nicht auf ihrer mentalen Anfrageliste haben. Darum sollten Sie jede Woche zumindest einmal „raus“, um eine Veranstaltung zu besuchen, auf der potenzielle Geschäftspartner für Sie sind. Ob das nun Treffen vom BVMW, dem Marketingclub oder der regionalen Wirtschaftsförderung sind, ist ganz egal – wichtig ist, dass Sie rauskommen! Denn wenn man mal miteinander gesprochen hat oder sich vom Sehen kennt, fällt die Kontaktaufnahme deutlich leichter – auch nach Jahren.

Sie werden merken, dass es manche Veranstaltungen gibt, die Ihnen wenig Freude bereiten – und andere dafür umso mehr. Bevor Sie also gleich nach der ersten Veranstaltung sagen: „Da gehe ich nie wieder hin, nur verklemmte Leute dort!“, sollten Sie sich fragen, was Sie dort überhaupt gemacht haben. Gehen Sie ruhig mutig auf Personen, die Sie noch nicht kennen, zu. Wenn ich auf Veranstaltungen bin, auf denen ich niemanden kenne, gucke ich einfach, wo ein Stehtisch mit mir fremden Personen ist, wo noch etwas Platz ist. Dann gehe ich dort hin und sage: „Hallo, ich bin Oliver Schumacher, darf ich mich dazustellen?!“ In der Regel wird man immer offen aufgenommen. Wichtig ist nun, nicht gleich verkaufen zu wollen, sondern sich einfach nur zu unterhalten. Beispielsweise über die Veranstaltung selbst, über den gerade erlebten Vortrag, über die Anreise oder Ähnliches. Passen Sie auf, dass Sie hier nicht gleich etwas verkaufen wollen, außer Ihr Gegenüber bekundet wirklich konkretes Interesse. Nutzen Sie die Gelegenheit, Ihr Gegenüber zu verstehen – und rufen im Zweifelsfalle am Folgetag an, um weiter ins Detail zu gehen. Auch können Sie XING und LinkedIn nutzen, um sich mit Ihren Gesprächspartnern zu verknüpfen. Zum Beziehungsaufbau sollten Sie aber auch etwas schreiben und nicht einfach eine plumpe Kontaktanfrage schicken.

Genial wäre es natürlich, wenn Sie auf der Bühne stehen und dort etwas Gehaltvolles erzählen. Verbände sind immer auf der Suche nach guten Rednern, die etwas zu sagen haben. Doch unterschätzen Sie den Aufwand nicht – und überschätzen Sie das daraus resultierende Geschäft nicht. Sehr häufig sind Teilnehmer auf Veranstaltungen, um sich inspirieren zu lassen, sich mit Leuten zu unterhalten – und das war‘s. Nur sehr wenige werden zu einer Veranstaltung mit der Haltung gehen: „Da hält jemand einen Vortrag zum Thema x. Wenn der gut ist, dann buche ich den Referenten.“ Mittelfristig tun Sie sich aber dennoch mit Vorträgen den Gefallen, zunehmend bekannter zu werden.

„Schließlich ist nicht Ihr Mitbewerber Ihr größter Gegner, sondern Ihre Unbekanntheit.“

Wenn Sie in Ihrer Heimatregion ein- bis zweimal im Jahr einen Vortrag halten, wird man Sie in gewissen Unternehmerkreisen kennen. Darüber hinaus können Sie solche Vorträge auch zur Akquise nutzen, indem Sie dann in der dortigen Region bei potenziellen Kunden anrufen und beispielsweise sagen: „Guten Tag, ich halte für den Verband x bei Ihnen im Ort einen Vortrag zum Thema y – und da wollte ich Sie einfach mal anrufen und fragen, ob Sie nicht auch dazukommen wollen?!“ Selbstverständlich muss dies mit Ihrem Veranstalter abgesprochen sein, doch auch dieser freut sich ja meist über Gäste, da Verbände schließlich auch immer auf Mitgliedersuche sind.

Klären Sie aber, bevor Sie einen Vortrag halten, immer die Erwartungshaltung des Veranstalters sowie seiner Gäste. Denn für diese ist Ihr Vortrag gedacht. Sollten Sie fachlich die Teilnehmer verlieren, besteht einfach das Risiko, dass Sie zwar von den Teilnehmern einen Applaus bekommen, aber im schlimmsten Falle nicht mal im Entferntesten eine Chance auf eine Anfrage haben, weil das Publikum im Zweifelsfall denkt: „Den verstehe ich nicht, schade, dann habe ich auch keine Lust, mit dem zu reden.“

Reden Sie offen über Risiken!

Natürlich ist es Ihre Aufgabe, zu verkaufen, aber nicht um jeden Preis. Schließlich soll sich ja eine Geschäftsbeziehung auf Augenhöhe entwickeln. Das Risiko besteht aber immer, dass sich der Anfragende für Ihren Mitbewerber entscheidet, selbst dann, wenn Sie das bessere Angebot haben. Darum biete ich beispielsweise als Verkaufstrainer das E-Book „Verkaufstraining mit Wirkung – Wie Ihre Mitarbeiter erfolgreicher werden und bleiben“ an. Denn die größte Sorge, die meine (potenziellen) Kunden umtreibt, ist die Frage: „Setzen meine Mitarbeiter auch wirklich Inhalte aus dem Training um, sodass sich letztlich die Investition auch rechnet?“ Dieses E-Book stelle ich jedem kostenlos auf meiner Webseite zur Verfügung – und sende es allen Interessenten sofort, die bei mir anfragen. Wie wäre es, wenn auch Sie sich überlegen, was mögliche Hindernisse und Probleme bei der Zusammenarbeit mit einer Agentur sind – und dass Sie Lösungsvorschläge offen kommunizieren? Ich glaube, jeder Kunde geht davon aus, dass mal etwas schiefgehen kann. Die Frage ist aber, wie sich das auf die Zusammenarbeit auswirkt. Und welche Lösungen haben Sie parat?

Nachfolgend einfach mal ein paar Probleme, die bei der Zusammenarbeit mit einer Agentur entstehen können:

  • Wie ist der Abrechnungsmodus? (So musste ich mal 30 Minuten bezahlen, nur, damit eine JPG-Datei auf meiner Webseite ausgetauscht werden konnte, die ich der Agentur aber bereits komprimiert sandte.)
  • Welche Folgekosten und laufenden Kosten entstehen? (Manche Agenturen programmieren tatsächlich Webseiten, bieten aber nicht einmal regelmäßige Updates an.)
  • Muss der Kunde Gebühren an die Künstlersozialkasse abführen? (So manche Agenturbetreiber lassen hier ihre Kunden ins offene Messer laufen – und erwähnen nicht einmal, dass ihre Leistungen der Künstlersozialkasse zu unterwerfen sind.)
  • Was sind verbindliche Termine? (In manche AGB schreiben Agenturen hinein, dass ihre genannten Fertigstellungstermine ohne Entschädigungen für ihre Kunden um x Wochen überschritten werden können.)
  • Wie lange dürfen Fehler in der Programmierung reklamiert werden? (Eine sehr spannende Frage, da ja in der Regel Kunden oft gar nicht verstehen, was die Agentur programmiert – wie sollen sie dann Fehler finden?)
  • Wie qualifiziert ist die Projektleitung? (Es gibt Agenturen, die Projektleiter beschäftigen, die selbst nicht mal kleinste Aussagen bzw. Zusagen treffen können, weil sie beispielsweise die Programmiersprache nicht verstehen und immer erst einmal zum Programmierer laufen müssen.)
  • Ansprechpartnerwechsel (In manchen Agenturen wechseln die Ansprechpartner im Laufe der Geschäftsbeziehung, ohne dass Kunden darüber informiert werden. Wenn eine Einarbeitung des neuen Mitarbeiters durch den Kunden erfolgen muss – muss der Kunde diesen Workshop bezahlen?)
  • Wie sehr werden Kunden eingebunden? (Welche Texte müssen freigegeben werden? Wie viel Freiraum hat die Agentur?)
  • Was sind die Standards? (Manche Agenturen programmieren Seiten, die nicht mal über Social Media mit dem richtigen Vorschaubild teilbar sind.)
  • Ab wann entstehen Zusatzkosten? (Durch die Arbeit am Projekt entstehen oft neue Ideen, manchmal kleine und manchmal große. Ab wann gehört die Leistung zum erteilten Auftrag dazu, ab wann entstehen Extrakosten – wann werden diese kommuniziert?)
  • Wie leicht ist der Austausch der Agentur möglich? (Manche Agenturen geben erst auf Anfrage Passwörter raus, weitere ändern Programmiercode, ohne dies zu dokumentieren – was wird also getan, damit der Kunde Flexibilität und Freiheit behält?)
  • Wie viel Zeit hat die Agentur, wenn der Kunde Bugs findet, diese zu beseitigen? Wird der Kunde über die erfolgreiche Beseitigung informiert oder kann er davon ausgehen, dass nach x Stunden diese immer erledigt sind?

Sie sehen an diesen Beispielfragen, dass auch Kunden mit der Wahl der Agentur ein großes Risiko eingehen. Denn zu Beginn einer Geschäftsbeziehung ist für beide Seiten oft alles rosarot. Nur die wenigsten Kunden werden, erst recht, wenn sie zum ersten Male mit einer Agentur zusammenarbeiten, Fragen wie die zuvor genannten in Erwägung ziehen, weil sie teilweise gar nicht so kompliziert denken können, wie dann doch die Realität ist. Denken Sie immer daran: Kunden sind Laien – sie haben oft wenig Verständnis für gewisse Notwendigkeiten und komplexe Zusammenhänge.

„Seien Sie kein Dummschwätzer, sondern thematisieren Sie von sich aus mögliche kritische Punkte – und was Sie tun werden, damit diese nicht eintreten, bzw. was getan wird, wenn diese eintreten.“

Aber Achtung: Es geht nicht darum, gleich beim Erstkontakt Ihren Kunden Angst zu machen im Sinne von: „Ach übrigens, wussten Sie schon, wenn Sie uns beauftragen, haben Sie folgende Risiken!“, sondern darum, Vertrauen während der Angebotsphase aufzubauen. Sie sollten sich nicht hinter Ihren AGB verstecken, sondern Lösungen für typische Probleme haben, die wahrscheinlich auftreten, damit es für beide Seiten eine gute und zielführende Zusammenarbeit wird. Für welchen Verkaufstrainer würden Sie sich eigentlich entscheiden: Für den einen, der immer sagt: „Kein Problem!“, und: „Ja, machen wir so!“, oder für den, der sagt: „Lassen Sie uns auch mal darüber reden, was wir gemeinsam machen können, damit Ihre Mitarbeiter auch Inhalte aus dem Training umsetzen und sich so das Training für Sie rechnet“?