Benötigt man eine robots.txt – Datei für gutes SEO?
WordPress und die robots.txt-Datei
Standardmäßig bietet WordPress keine robots.txt-Datei an. Verwendet man das Plugin Yoast SEO, wird über die Menüfolge Werkzeuge->Datei->Editor erkannt, ob in WordPress eine robots.txt – Datei vorhanden ist.
User-agent: *
Disallow: /
Reaktion nach Sperrung der Mail-Domain ct.de von Google
Google sagt: Microsoft ist schuld
Mitte Juni nahm Google plötzlich keine Mails von ct.de mehr an, die Reputation der Domain sei zu gering. Jetzt hat sich das Unternehmen geäußert und zeigt mit dem Finger auf Microsoft.
Mitte Juni nahm Google plötzlich keine Mails von ct.de mehr an, die Reputation der Domain sei zu gering. Jetzt hat sich das Unternehmen geäußert und zeigt mit dem Finger auf Microsoft.
Von Michael Fischer von Mollard und Jan Mahn
Fast einen Monat lang konnten Mitarbeiter der c’t mit einer @ct.de-Adresse nicht an Server von Google mailen – weder an @gmail.com noch an die zahlreichen Unternehmen, die ihre Mails bei Google verwalten lassen. In der Fehlermeldung beklagten sich die Server über mangelnde Reputation der Domain ct.de [1]. Die Postmaster-Tools, die Google für solche Fälle für Mail-Admins bereitstellt, halfen nicht weiter. In seinen FAQ spricht Google selbst davon, dass die Informationen erst bei einer Größenordnung von Hunderten Mails pro Tag aussagekräftig sind – und diese Grenze erreicht die Domain nicht. Im Juli war das Problem dann so plötzlich verschwunden, wie es gekommen war.
Postmaster-Tools von Google: Die Anlaufstelle für Mailserverbetreiber liefert nicht immer aussagekräftige Informationen, wenn es bei der Zustellung Probleme gibt.
Mit einer Erklärung ließ sich Google bis Ende August Zeit, doch die hatte es in sich: Schuld sei Microsoft. Weil der Verlag für Videotelefonie Teams einsetzt, enthielt der SPF-Eintrag (Sender Policy Framework) im DNS für ct.de den Eintrag: include:spf.protection.outlook.com
Empfangende Mailserver können diesen Eintrag auswerten und ihm entnehmen, wer Mails im Namen einer Domain versenden darf. Dass Microsofts Server berechtigt wurden, ist Standard für Unternehmen, die Teams nutzen und das System zum Beispiel Termineinladungen verschicken lassen wollen. Zum Problem wurde der SPF-Eintrag, weil Microsofts Server eine extrem ungewöhnliche Art der direkten Weiterleitung einsetzen, die Spammer ausnutzen können. Beschrieben wird das Problem auch in einem wissenschaftlichen Paper aus dem April [2].
Um das Problem zu verstehen, muss man wissen, dass es auf Ebene des Mailprotokolls SMTP einen für die Nutzer meist unsichtbaren Envelope-Absender gibt, der von dem Absender abweichen kann, den Sender und Empfänger in ihren Mailprogrammen sehen (dem From-Header). Für SPF ist der Envelope-Absender entscheidend.
Offene Weiterleitung
Die Spammer nutzen aus, dass Microsofts Mailserver sogenanntes Open Forwarding erlauben – als Nutzer kann man eine dauerhafte Weiterleitung einrichten. Bei Accounts von Privatnutzern, die über outlook.com senden, setzt Microsoft in dem Fall den Envelope-Absender auf die Domain outlook.com, bei Geschäftskunden jedoch nicht. Bei ihnen wird beim Weiterleiten der Absender aus dem From-Header als Envelope-Absender übernommen und die Mail so an die eingestellte Adresse gesendet. Spammer brauchen also Zugriff auf ein Geschäftskundenkonto, hinterlegen dort die Adresse ihres Spam-Opfers (in diesem Fall ein Konto bei Google) als Weiterleitungsadresse.
Dann müssen sie sich nur eine beliebige Domain aussuchen, die den gängigen SPF-Eintrag für Microsoft-Server enthält. Von ihrer eigenen Adresse senden sie Mails an das Konto bei Microsoft, setzen aber als From-Header zum Beispiel eine ct.de-Adresse. Microsoft nimmt die Mail an, ändert den Envelope-Absender und leitet sie direkt an das Opfer weiter. Genau das ist laut Google mit der Domain ct.de passiert: Am 15. Juni stieg das Mailvolumen von der Domain um rund den Faktor 2000, alle problematischen Mails kamen über Microsoft-Server. Anstatt diese Server auszubremsen, entschied sich Google dafür, die Reputation der Domain zu senken.
Googles Reaktion ist teilweise verständlich, die nicht funktionierenden Postmaster-Tools, die Reaktionszeiten und das Kommunikationsverhalten sind für Mail-Admins jedoch extrem unbefriedigend. Microsofts Vorgehen dagegen ist ein echtes Sicherheitsproblem: Weil Teams-Admins den entsprechenden SPF-Eintrag massenhaft setzen, haben Microsofts Mailserver eine exponierte Rolle – die spammerfreundliche Weiterleitung ist dann schlicht unangemessen. Mitte August erfuhren wir über DMARC-Reports von einem ähnlichen Vorfall – diesmal schickten die Microsoft-Server im Namen von ct.de an Yahoo-Adressen. Der SPF-Eintrag für ct.de ist seitdem geändert und Microsofts Server sind entfernt.
Der Vorfall macht aber auch deutlich, dass SPF aus einer anderen Zeit stammt, in der es noch üblich war, dass Mailserver dezentral von Organisationen betrieben werden. Heute ist es dagegen üblich, dass große Provider die Mails für ihre Kunden abwickeln und mit dem dann unvermeidlichen include: im SPF-Eintrag gibt man als Admin die Kontrolle über die ausgehenden Server aus der Hand – das verwässert den Wert eines SPF-Eintrags.
Google kennt und unterscheidet zwischen einer Reihe aus Top-Level-Domains (TLD). Die meistgenutzten Typen sind die generischen Top-Level-Domains (gTLDs) sowie die länderspezifischen Top-Level-Domains (ccTLDs). Doch welchen Einfluss haben diese und anderen Domeinendungen auf Google?
Wie unterscheiden sich gTLDs und ccTLDs?
Eine generische Top-Level-Domain besitzt für Google im Vergleich zu einer Country-Code-Top-Level-Domain (ccTLD) kein Attribut einer regionalen Zugehörigkeit und kann z. B. mit der hreflang-Anmerkung jeder beliebigen Region/Sprache zugeordnet werden.
Die länderspezifische ccTLD (zum Beispiel: .de für Deutschland, .fr für Frankreich oder .es für Spanien) ist für Google hingegen ein starkes Signal, dass der Inhalt der Domain überwiegend für das jeweilige Land bzw. dessen Suchmarkt bestimmt ist.
Welchen Einfluss haben die neuen geoTLDs?
Derzeit noch keinen. geoTLDs können in Zukunft an Einfluss gewinnen, wenn sie ausreichend genutzt werden und Google hierzu genug verlässliche Daten gesammelt hat, um zu lernen wie mit den neuen Domainendungen umzugehen ist.
geoTLDs sollen einen klaren Fokus auf eine geographische, geopolitische, ethnische, sprachliche oder kulturelle Gemeinschaft legen und könnten von Google dementsprechend gewichtet werden.
Wie gewichtet Google neue Top-Level-Domains?
Google prüft und gewichtet von Zeit zu Zeit das öffentliche Interesse und die Nutzung neuer Domainendungen und entscheidet meist im Einzelfall, ob und wie etwas an der Ausrichtung der TLD zu ändern ist.
Wie auch bei der neuen geografischen Top-Level-Domain wartet Google erst die Nutzung und Verbreitung von geoTLDs ab und entscheidet erst wenn ausreichend Daten vorliegen, ob durch geoTLDs eine regionale und/oder lokale Zuordnung des Suchmarktes bzw. der Inhalte und dessen Leser möglich ist.
Beispiel anhand der Domainendung „.io“
Die Domainendung .io steht für die Region des indischen Ozeans. Google hat anhand des Nutzungsverhaltens jedoch herausgefunden, dass diese Domainendung weltweit von z. B. vielen technologie StartUps und jungen Unternehmungen genutzt wird, da io in der Informatik für Input/Output steht, und die Kommunikation zwischen einem informationsverarbeitendem System und dessen Umwelt steht.
Eine klare Zuordnung zum indischen Ozean war durch die unterschiedliche Nutzung der Domainendung .io nicht mehr gegen und Google nahm die Domainendung als neue generische Top-Level-Domain (gTLD) mit auf, welche folglich kein Attribut einer regionalen Zugehörigkeit mehr aufweißt.
Was sagt Google?
Grundsätzlich kannst du jede Domainendung wählen, die du willst. (…) Sei dir aber bewusst, dass die meisten länderspezifischen TLDs auch auf die entsprechenden Länder ausgerichtet sind. Wenn du also eine Domain nutzt, die sonst nur in einem bestimmten Land gängig ist, gehen wir davon aus, dass Webseiten mit dieser Domainendung auch nur für dieses konkrete Land relevant sind.
Leichter arbeiten mit dem Google Ads Editor – websiteboosting.com
Der Google Ads Editor ist ein kostenloses Google-Tool, welches das Offline-Bearbeiten von Google-Ads-Kampagnen erlaubt. Trotz vieler Gemeinsamkeiten mit dem Web-Account gibt es einige hilfreiche Features, die vom Web-Interface abweichen oder dort erst gar nicht verfügbar sind. Auf diese Weise…
Der Google Ads Editor ist ein kostenloses Google-Tool, welches das Offline-Bearbeiten von Google-Ads-Kampagnen erlaubt. Trotz vieler Gemeinsamkeiten mit dem Web-Account gibt es einige hilfreiche Features, die vom Web-Interface abweichen oder dort erst gar nicht verfügbar sind. Auf diese Weise stellt der Editor eine mögliche Alternative, auf jeden Fall aber eine wertvolle Ergänzung für das Erstellen und Verwalten von Kampagnen dar. Lesen Sie eine Einführung und einen Überblick über besonders nützliche Funktionen.
Der Google Ads Editor ist einigen Werbetreibenden von früher her sicherlich noch als AdWords Editor geläufig. Er ist nicht mehr im Account selbst erhältlich, kann dafür in der aktuellen Version 12.6. für Windows und Mac unter https://ads.google.com/home/tools/ads-editor/ heruntergeladen werden. Sobald der Download abgeschlossen ist, starten Sie per Doppelklick den Installationsvorgang. Nach erfolgreicher Installation öffnen Sie den Editor. Um den Ads Editor zu verwenden, müssen Sie zunächst mindestens ein Konto herunterladen.
Übersicht
Der Aufbau des Google Ads Editors weist zahlreiche Parallelen zum aktuellen Web-Interface auf.
Im oberen Bereich gibt es die sogenannte Toolbar (1) mit zahlreichen Funktionen wie dem Öffnen, Herunterladen und Hochladen von Konten.
Mit der Baumansicht (2) wählen Sie die Elemente, die Sie aufrufen wollen: Konto, Kampagnen, Anzeigengruppen. Über das Trichtersymbol oberhalb können Sie Filter und Gruppierungen setzen.
Die Typliste (3) gibt vor, welche Inhalte Sie sich ansehen: Kampagnen, Anzeigengruppen, Keywords, Anzeigen oder Anzeigengruppen. Ebenfalls in diesem Bereich sind die Gemeinsam genutzte Bibliothek sowie die benutzerdefinierten Regeln.
In der Datenansicht (4) sehen Sie nun das, was Sie in Baumansicht und Typliste eingestellt haben. Sobald Sie hier einzelne oder mehrere Elemente markieren, können Sie diese im darunterliegenden Bearbeitungsfeld ändern und neu einstellen.
Abb. 01: Navigation Google Ads Editor (Quelle: https://support.google.com/adwords/editor/answer/30535)
Grundsätzliche Funktionsweise
Wichtig ist es, die Funktionsweise des Editors zu verstehen. So lassen sich unangenehme Überraschungen beim Verwalten der Konten vermeiden.
Mit dem Editor laden Sie Ihr Google-Ads-Konto oder einzelne Kampagnen auf Ihren Desktop herunter, nehmen die Bearbeitungen offline vor und laden die Änderungen wieder hoch. Sie vollführen den Download und Upload wahlweise über die Buttons in der Toolbar oder unter dem Dropdown Konto, das Sie noch oberhalb der Toolbar finden: mit Letzte Änderungen herunterladen bzw. (Änderungen)Hochladen.
Abb. 02: Download- und Upload-Funktionen im Editor
Unbedingt sicherstellen sollten Sie hierbei, dass Sie immer mit der aktuellen Version Ihres Google-Ads-Kontos arbeiten. Stimmen Google-Ads-Konto und -Editor nicht überein, so überschreiben Sie beim Upload die zwischenzeitlich online getätigten Bearbeitungen wieder.
Änderungen an einem Element im Konto, das dort mittlerweile gelöscht wurde, können Sie nicht einspielen. Vielmehr müssen Sie zuvor die letzten Änderungen herunterladen.
Haben Sie im Editor beispielsweise eine Kampagne angelegt, die es im Konto noch nicht gibt, so wird diese mit der Funktion Letzte Änderungen herunterladen nicht gelöscht. Während die übereinstimmenden Elemente geändert werden, bleibt sie im Editor weiterhin vorhanden. Möchten Sie den tatsächlichen Ist-Stand des Kontos im Web-Interface vorfinden, so müssen Sie den Download über Konto > Alles herunterladen durchführen.
Probleme mit unterschiedlichen Versionen im Konto und im Editor können natürlich erst recht auftreten, wenn mehrere Zugriffsberechtigte im gleichen Konto arbeiten. Für eine bessere Absprache und gelungene Zusammenarbeit stehen Ihnen im Editor Möglichkeiten zur Verfügung, um die Daten zu exportieren und Kollegen zuzusenden. Diese können Ihre Änderungen dann prüfen, freigeben oder ablehnen und sogar kommentieren.
Auch die Funktion Exportieren finden Sie unter dem Dropdown Konto. Exportiert werden können das gesamte Konto, ausgewählte Kampagnen und Anzeigengruppen, die aktuelle Ansicht sowie benutzerdefinierte Regeln. Verfügbare Formate sind:
CSV (für Tabellen)
ZIP (für Tabellen mit Bildern)
AEA (die Google-Ads-Editor-Archivdatei als Back-up inklusive Kommentare, Entwürfe und noch nicht hochgeladener Änderungen)
AES (die Ads-Editor-Share-Datei speziell zum Teilen mit anderen Nutzern)
Ebenfalls unter Konto haben Sie die Möglichkeit, exportierte und gegebenenfalls bearbeitete Editor- oder CSV-Dateien als Bulk-Upload zu importieren.
Verwalten der Kampagnen
Im Editor können Sie mehrere Konten herunterladen. Zum Bearbeiten können Sie einfach zwischen ihnen wechseln.
Copy & Paste
Ein großer Vorteil des Editors gegenüber dem Web-Interface ist dabei das einfache Kopieren ganzer Kampagnen, Anzeigengruppen, Keyword-/Placementlisten, Ausrichtungen sowie Anzeigen und Anzeigenerweiterungen – innerhalb eines Kontos, aber auch zwischen allen heruntergeladenen Konten. Dies funktioniert einfach mit Copy & Paste. Beim Kopieren von Kampagnen sollten Sie jedoch unbedingt prüfen, ob tatsächlich alle Einstellungen korrekt übernommen wurden.
Beachten Sie zudem, dass die Zuordnung mit Copy & Paste nicht immer erhalten bleibt – etwa wenn Sie alle Keywords oder alle Anzeigen eines Kontos auf diese Weise kopieren. So werden die Keywords bzw. Anzeigen nicht nur in der originalen Anzeigengruppe dupliziert. Vielmehr werden alle Keywords bzw. alle Anzeigen in jede einzelne Anzeigengruppe des Kontos kopiert – was selten tatsächlich so gewünscht ist.
Um die Zuordnung sicherzustellen, müssen entweder die Elemente jeder einzelnen Anzeigengruppe separat kopiert werden oder Sie setzen die Funktion Text ersetzen ein.
Dropdown Text ersetzen
Möchten Sie etwa alle Anzeigen eines Kontos kopieren, so wählen Sie das gesamte Konto in der Baumansicht, öffnen in der Typliste den entsprechenden Anzeigentyp und markieren die Anzeigen in der Datenansicht. Rufen Sie nun das über der Anzeigenliste befindliche Dropdown Text ersetzen auf. Hier finden Sie zahlreiche Bearbeitungsmöglichkeiten von Text ersetzen und anfügen, Großschreibungen ändern bis zu URLs ändern. Eine 1:1-Kopie ist beispielsweise möglich, indem Sie Leerzeichen durch Leerzeichen ersetzen.
Klicken Sie unbedingt die Checkbox Änderungen an doppelten Elementen vornehmen und auch Neu erstellte Elemente auswählen an. Nur so werden Ihre Anzeigen kopiert, ansonsten ergänzen Sie nur die bestehenden. Zudem bleiben die Kopien für eine weitere Bearbeitung gleich markiert.
Abb. 03: Dropdown Text ersetzen
Keyword-Optionen bearbeiten
Auch Keyword-Optionen können einfach umgestellt oder ergänzt werden. Als Beispiel haben Sie in einem übernommenen Konto oder im Rahmen eines Set-ups bislang nur eine Liste mit Broad-Match-Keywords vorliegen. Diese sollen nunmehr in Broad Modifier und Exact Match geändert werden. Sie gehen vor wie folgt:
Wiederum markieren Sie die gewünschten Elemente in der Baumansicht, klicken Keywords in der Typliste und wählen diese dann in der Datenansicht aus.
Im ersten Schritt stellen Sie nun die aktuellen Broad-Match-Keywords auf Exact Match um. Dies geht einfach über das Dropdown Keyword-Option im Bearbeitungsfeld unterhalb der Keyword-Liste.
Abb. 04: Keyword-Option umstellen
Für die Broad-Modifier-Option soll in diesem Beispiel vor jedes einzelne Wort ein Pluszeichen gesetzt werden. Hierfür rufen Sie wiederum das über der Liste befindliche Dropdown Text ersetzen auf.
Zuerst fügen Sie mit der Option Text anhängen ein Pluszeichen vor bestehendem Text ein. Vergessen Sie auch hier nicht, die Checkboxen Änderungen an doppelten Elementen vornehmen und Neu erstellte Elemente auswählen zu aktivieren.
Bislang haben Sie das Pluszeichen nur vor das jeweils erste Wort der Keywords gesetzt. Da typischerweise aber nicht alle Keywords aus Ein-Wort-Begriffen bestehen, so muss auch den folgenden Worten noch ein Pluszeichen vorangestellt werden.
Rufen Sie deshalb nochmals Text ersetzen auf, bleiben Sie auf dem Tab Ersetzen und machen Sie folgende Eingaben: unter Folgenden Text suchen ein Leerzeichen, unter Ersetzen durch ein Leerzeichen gefolgt von einem Pluszeichen.
Was passiert? Sie ersetzen die Leerzeichen vor dem zweiten, dritten, vierten … Wort eines Keywords durch die Kombination aus Leerzeichen und Pluszeichen – was eben genau ein Pluszeichen voranstellt. Das erste Wort wird nicht angesprochen, da diesem kein Leerzeichen vorangeht.
Deaktivieren Sie diesmal die beiden Checkboxen Änderungen an doppelten Elementen vornehmen und Neu erstellte Elemente auswählen, da Sie nunmehr ja keine weiteren Kopien benötigen.
Stellen Sie abschließend die Broad-Modifier-Keywords im Dropdown Keyword-Optionen von Exact Match auf Broad Match um.
Sehr geschickt ist zudem das Ändern von Einstellungen über mehrere Elemente hinweg – beispielsweise Status, Bietpreise oder auch Pfade der Anzeigen-URL und finale URLs. Gerade Letzteres kann bei einem umfangreichen Konto im Web-Interface zur echten Fleißaufgabe werden. Im Editor öffnen Sie hierfür den Bereich Anzeigen, markieren die zu bearbeitenden Anzeigen und geben die neue URL im entsprechenden Textfeld unterhalb der Tabelle ein. Diese wird für alle markierten Anzeigen übernommen.
Im Google-Ads-Konto sollten keine doppelten Keywords hinterlegt sein, so sie sich denn gegenseitig Konkurrenz machen können. Im Web-Interface ist eine entsprechende Prüfung jedoch ziemlich umständlich. Im Editor gibt es dafür eine spezielle Funktion: Sie finden sie unter Tools, klicken Identische Keywords suchen an und starten die Abfrage nach Ihren eingestellten Kriterien.
Mehrere Änderungen vornehmen
Der Editor lässt sich insbesondere gut in Kombination mit Excel einsetzen. Dies erkennen Sie bereits an den verfügbaren Formaten beim Export. Noch einfacher kann die jeweilige Datenansicht mit Copy & Paste in ein geöffnetes Excelsheet übertragen werden.
So stehen dort zum einen gleich die korrekten Spaltenüberschriften, die zum Import nötig sind. Zum anderen können natürlich alle Vereinfachungen und Formeln von Excel genutzt werden.
Haben Sie Ihre Erweiterungen, Änderungen oder gar ein komplettes Set-up in Excel durchgeführt, so können Sie Ihre Kampagnen und Elemente in den Editor spielen. Nutzen sie für umfassende Bulk-Aktionen die Funktion Mehrere Änderungen vornehmen oberhalb der Datenansicht und kopieren Sie Ihr Excel einfach in die Tabelle.
Dabei muss immer die eindeutige Zuordnung der Elemente sichergestellt sein. In Abbildung 05 sehen Sie am Beispiel Bulk-Upload für Keywords beide Möglichkeiten: Entweder geben Sie bei jedem Keyword eindeutig Anzeigengruppe und Kampagne mit an und können so auch das gesamte Konto einspielen. Oder Sie nehmen den Import in mehreren Schritten vor und hangeln sich von Anzeigengruppe zu Anzeigengruppe.
Abb. 05: Bulk-Upload von Keywords
Prüfen von Änderungen
Laden Sie Ihre bearbeiteten Kampagnen aus dem Editor ins Konto hoch, so kann es vorkommen, dass sie gegen Richtlinien verstoßen und daher als Fehler- oder Warnmeldung angezeigt werden. Die korrekten Änderungen werden trotzdem verarbeitet.
Prüfungen sind auch vor dem Upload möglich. Klicken Sie in der Symbolleiste auf Änderungen überprüfen, so zeigt Ihnen Google alle Problemfälle an, die das System erkennt. Mit den benutzerdefinierten Regeln können Sie sich selbst Benachrichtigungen erstellen, um eigene Best Practices sicherzustellen oder häufige Fehlerquellen zu umgehen.
Sonstige sinnvolle Funktionen
Mehrere Daten können zusätzlich in den Editor heruntergeladen werden. Wählen Sie in der Typliste etwa Keywords aus, so erhalten Sie über den Button Suchbegriffe oberhalb der Datenansicht die tatsächlichen Suchanfragen mit Statistiken angezeigt.
Auch die Leistungsdaten Ihrer Keywords werden standardmäßig nicht angezeigt. Wollen Sie sie auch im Editor sehen, so öffnen Sie den Button Statistiken anzeigen in der schwarzen Navigationszeile, wählen den Abfragezeitraum aus und laden die Werte nach. In der Praxis bleiben Auswertungen wahrscheinlich aber trotzdem eher im Web-Interface angesiedelt.
Fazit
Der Google Ads Editor ist ein kostenloses Tool, mit dem viel Zeit gespart werden kann. Seine Stärke liegt insbesondere beim Set-up von Kampagnen oder bei großen Änderungen im Konto, da hier zahlreiche Bearbeitungen leichter und schneller als im Web-Interface und insbesondere offline durchgeführt werden können. So stellt es für alle Kontobetreuer ein hilfreiches Tool dar, das extrem wertvolle Dienste leistet. Hilfeseiten dazu gibt es unter https://support.google.com/adwords/editor.
Responsive Suchanzeigen
Responsive Suchanzeigen – websiteboosting.com
Responsive Suchanzeigen oder auch Responsive Search Ads (RSA) sind bereits seit einiger Zeit in Google Ads als flexibles Anzeigenformat verfügbar. Was steckt genau hinter diesem Anzeigenformat und wie gut ist es wirklich? Lohnt sich die Erstellung dieser Anzeigen? Diese Frage beantwortet André…
Responsive Suchanzeigen oder auch Responsive Search Ads (RSA) sind bereits seit einiger Zeit in Google Ads als flexibles Anzeigenformat verfügbar. Was steckt genau hinter diesem Anzeigenformat und wie gut ist es wirklich? Lohnt sich die Erstellung dieser Anzeigen? Diese Frage beantwortet André Preukszat in diesem Beitrag.
Was sind responsive Suchanzeigen und welche Vorteile bieten sie?
Responsive Suchanzeigen sind ein flexibles Anzeigenformat für die bezahlte Google-Suche. Es können aktuell drei bis 15 Anzeigentitel vergeben werden. Jeder Anzeigentitel darf bis zu 30 Zeichen lang sein. Zudem kann jeder Werbetreibende bis zu vier Beschreibungstexte hinterlegen, die jeweils bis zu 90 Zeichen lang sein dürfen.
Auf Basis der eingetragenen Daten testet Google automatisch verschiedene Kombinationen von Überschriften und Beschreibungen (siehe Abbildung 1) und ermittelt somit, welche Text-Kombinationen aus Anzeigentitel und Beschreibung die besten Ergebnisse liefern, und optimiert die Auslieferung je nach Suchbegriff.
Abbildung 1: Kombinationen aus Anzeigentitel und Beschreibungen
Verglichen mit den erweiterten Textanzeigen ergeben sich folgende Unterschiede:
Somit steht jedem Advertiser mit diesem Anzeigenformat mehr an Platz zur Verfügung, um die jeweiligen Werbebotschaften unterzubringen.
Selbstverständlich werden auch die Anzeigenerweiterungen weiterhin geschaltet, falls hier bereits welche erstellt wurden.
Das bedeutet allerdings nicht, dass dadurch komplett auf die erweiterten Textanzeigen verzichtet werden sollte. Im Idealfall besitzt jede Anzeigengruppe neben den beschriebenen responsiven Suchanzeigen auch immer ein bis zwei erweiterte Textanzeigen. Dadurch wird sichergestellt, dass die Anzeigen so oft wie möglich ausgespielt werden.
Erstellung responsiver Suchanzeigen in Google Ads
Die Erstellung einer entsprechenden Anzeige erfolgt – wie bei anderen Anzeigenformaten auch – auf der Ebene „Anzeigen und Erweiterungen“ im Google Ads Interface.
Bei einem Klick auf das +-Zeichen (siehe Abbildung 2) öffnet sich ein Menü, in dem man das entsprechende Anzeigenformat auswählen kann:
Abbildung 2: Responsive Suchanzeige erstellen
Die sich dann öffnende Seite (siehe Abbildung 3) fordert anschließend dazu auf, die einzelnen Inhalte einer Responsive-Suchanzeige zu befüllen. Hierzu zählen die finale URL, die angezeigte URL inkl. der beiden Pfadfelder, bis zu 15 unterschiedliche Anzeigentitel und bis zu vier verschiedene Beschreibungen.
Zudem können Werbetreibende auch weitere URL-Optionen für die Anzeigen verwenden.
Abbildung 3: Titel und Beschreibung definieren
Nachdem alle entsprechenden Felder ausgefüllt wurden, wird mit einem Klick auf „Neue Anzeige speichern“ die neue Responsive Search Ad überprüft und im Idealfall genehmigt und freigeschaltet.
Während der Anzeigenerstellung gibt das Google Ads Interface auch einen Hinweis bzgl. „Effektivität der Anzeige“ (siehe Abbildung 4):
Abbildung 4: Effektivität der Anzeige
Hierbei handelt es sich natürlich nur um recht grobe Hinweise, aber wenn das Anzeigenformat zum ersten Mal verwendet wird, dann können diese Hinweise durchaus sinnvoll und hilfreich sein. Google hält übrigens unter einfach.st/gads73 weitere Tipps für das responsive Anzeigenformat bereit.
Wie performen die responsiven Suchanzeigen von Google Ads?
Laut Google besitzt dieses Anzeigenformat eine höhere Klickrate (CTR) im Vergleich mit den erweiterten Textanzeigen. Die Anzeigen sind größer und dynamischer bzw. flexibler und werden daher besser von den Usern angenommen.
Eigene interne Analysen bestätigen diese Aussage, wie ein Report (siehe Abbildung 5) zeigt:
Abbildung 5: Performance der responsiven Suchanzeigen
Ausgewertet wurden mehrere Brand-Kampagnen, wo die responsiven Suchanzeigen erstellt und aktiviert wurden. Im zeitlichen Verlauf über bisher fünf Monate ist zu erkennen, dass sich die Klickrate (CTR = Click-Through-Rate) der Responsive Ads bisher sehr positiv entwickelt. Bei den erweiterten Textanzeigen ist dagegen ein leichter Rückgang zu verzeichnen.
Best Practice
Damit die responsiven Suchanzeigen möglichst optimal genutzt werden, sollten einige Best-Practice-Methoden berücksichtigt werden.
Die sehr gute Leistung erzielt dieses Anzeigenformat, wenn möglichst viele Anzeigentitel und Beschreibungen eingesetzt werden. Dadurch können mehr Anzeigen-Varianten durch Google kombiniert und getestet werden. Im Idealfall werden gleichzeitig bis zu 15 Anzeigentitel und bis zu vier Beschreibungen zeitgleich getestet und kombiniert. Mindestens sollten allerdings drei Anzeigentitel und zwei Beschreibungen definiert werden, damit die Anzeige verwendet werden kann.
In jedem Titel und in jeder Beschreibung sollten andere Inhalte hervorgehoben werden. Dies können u. a. unterschiedlichen Angebote, USPs oder Call-to-Actions (CTA) sein.
Bei der Erstellung des Anzeigentitels sollten auch die entsprechenden Keywords berücksichtigt und mindestens auch ein Keyword im Titel aufgenommen werden.
Sinnvoll sind auch Titel und Beschreibungen mit unterschiedlicher Textlänge. Dadurch erhöhen sich die Chancen, dass auch die dritte Überschrift oder auch die zweite Beschreibung in den Anzeigenausspielungen verwendet wird.
Überschriften und Beschreibungen können auf bestimmten Positionen fixiert werden
Die verschiedenen Anzeigentitel und Beschreibungen werden bei den responsiven Suchanzeigen an unterschiedlichen Positionen getestet. Das bedeutet, dass bei den Anzeigenausspielungen ein bestimmter Titel entweder auf Position 1, Position 2 oder auch auf Position 3 dargestellt wird. Auch die unterschiedlichen Beschreibungen werden an diversen Positionen in der Anzeige rotiert. Durch diese unterschiedlichen Anzeigen-Kombinationen kann Google herausfinden, welche Variante für den entsprechenden Nutzer eine hohe Relevanz besitzt, und diese Anzeige dann ausspielen.
Möchte man diese Kombinationen etwas einschränken, da man zum Beispiel bestimmte Inhalte immer am Anfang einer Anzeige darstellen möchte, so kann man über das Google Ads Interface bestimmte Titel und Beschreibungen „an einer Position fixieren“. Dadurch kann man sicherstellen, dann eine wichtige Botschaft immer an Position 1 oder 2 usw. gezeigt wird.
Wie wird eine Position fixiert?
Wird zum Beispiel ein Anzeigentitel erstellt, der immer angezeigt werden soll, so erscheint bei einer Bewegung des Mauszeigers rechts neben der Überschrift ein kleines „Pin-Symbol“ (siehe Abbildung 6).
Bei einem Klick auf das Symbol werden verschiedene Optionen angeboten, mit denen man die gewünschten fixierten Positionen festlegen kann.
Abbildung 6: Eine Position fixieren
Dieses Vorgehen funktioniert auch bei jeweiligen Beschreibungstexten.
Man muss hier allerdings bedenken, dass der dritte Anzeigentitel und die zweite Beschreibung nicht immer angezeigt werden. Wichtige Botschaften sollten also nicht unbedingt auf diesen Positionen fixiert werden. Ansonsten kann es passieren, dass genau diese Inhalte bei einigen Kombinationen nicht ausgespielt werden.
Welche Nachteile können durch fixierte Positionen entstehen?
Legt man fixierte Positionen fest, so wird Google bei der Erstellung der einzelnen Anzeigenvarianten eingeschränkt, was sich ggf. negativ auf die Anzeigenoptimierung auswirken könnte. Google kann somit nicht mehr so viele unterschiedliche Anzeigenvarianten erstellen und testen, wie normalerweise möglich wäre.
Reporting der einzelnen Assets und Text-Kombinationen
Die Auswertung der verschiedenen Text-Varianten ist aktuell noch nicht so ganz ausgereift. Derzeit werden lediglich die jeweiligen Impressionen pro Anzeigentitel bzw. Text-Variante angezeigt.
Eine Übersicht wird dargestellt, sobald auf „Assetdetails aufrufen“ direkt unterhalb der jeweiligen responsiven Anzeige geklickt wird (siehe Abbildung 7 und 8).
Tiefere Daten wie zum Beispiel Klickrate, Conversion-Rate oder Ähnliches sind aktuell nicht einzusehen.
Abbildung 7: Asset-Status aufrufenAbbildung 8: Kombinationen von responsiven Suchanzeigen
Fazit
Die bisherigen Ergebnisse der responsiven Suchanzeigen sind insgesamt positiv. Dieses Anzeigenformat bietet eine einfache Möglichkeit, mehrere Anzeigen-Variationen in kurzer Zeit zu erstellen. Aus diesem Grund besitzt man mehr Flexibilität in der Ausspielung und kann die Anzeigenperformance je nach Suchanfrage des Users verbessern. Die responsiven Suchanzeigen sollten daher von jedem Werbetreibenden ausprobiert werden. Für die Zukunft bleib zu hoffen, dass Google die Auswertemöglichkeiten weiter ausbaut und damit jede Anzeigen-Kombination genauer analysiert werden kann.
Frischer Wind im Google-Index: Wie Ihre Inhalte schneller (neu) gecrawlt und indexiert werden
Frischer Wind im Google-Index: Wie Ihre Inhalte schneller (neu) gecrawlt und indexiert werden – websiteboosting.com
Sie haben neue Inhalte veröffentlicht oder eine bestehende Webseite umfassend überarbeitet? Und anschließend passiert bei Google in den Suchergebnissen erst mal … nichts? Solange Suchmaschinen diese neuen Inhalte nicht (erneut) indexieren, können diese natürlich auch nicht gefunden werden. Was so…
Sie haben neue Inhalte veröffentlicht oder eine bestehende Webseite umfassend überarbeitet? Und anschließend passiert bei Google in den Suchergebnissen erst mal … nichts? Solange Suchmaschinen diese neuen Inhalte nicht (erneut) indexieren, können diese natürlich auch nicht gefunden werden. Was so gesehen fast banal klingt, wird in der Praxis von Unternehmen oftmals leicht übersehen. Nicht immer ist also Google schuld bzw. zu träge, wenn man die neuen Inhalte noch nicht über eine Suche finden kann. Die gute Nachricht ist: Es gibt zum Glück Abhilfe. Die schlechte: Man muss selbst aktiv werden. Eine zeitnahe Indexierung ist für Sitebetreiber meist sehr wichtig. Je früher potenzielle Kunden das neue Angebot finden, desto schneller kommt auch frischer Umsatz rein. Wie Sie die wichtige Indexierung Ihrer neuen Inhalte beschleunigen können, erfahren Sie in diesem Beitrag des bekannten Experten Stephan Czysch.
Das Internet wächst und wächst: Jeden Tag werden unzählige neue Inhalte veröffentlicht. Damit diese von Suchmaschinen gefunden werden können, sind eingehende Verlinkungen auf diese Inhalte beziehungsweise deren Adressen (oder auch URL: Uniform Resource Locator) essenziell wichtig. Denn durch das Folgen von Links lässt sich das Web wesentlich effizienter crawlen, als wenn Suchmaschinen durch Raten von beliebigen Buchstaben- und Zeichenfolgen versuchen würden, erfolgreich aufrufbare Adressen und damit deren Inhalte zu finden.
Doch es sind nicht nur neue Inhalte, die von Suchmaschinen erfasst werden wollen, sondern auch bereits bekannte Adressen müssen wiederholt aufgerufen werden. Denn wer weiß, ob diese nicht zum Beispiel offline genommen oder überarbeitet wurden?
Das Web zu crawlen und zu indexieren, ist ein Mammutprojekt, für das nicht nur Google unzählige Serverzentren rund um den Erdball einsetzt. Diese Server zu betreiben und zu unterhalten, ist eine kostspielige Angelegenheit und zugleich ein Service, der für Webmaster kostenlos angeboten wird.
Es handelt sich dabei um ein Geben und Nehmen, denn Google benötigt die über das Crawling gefundenen Informationen, um sein zentrales Produkt, die Websuche, zu betreiben. Und je häufiger diese aufgrund hoher erlebter Ergebnisqualität von Nutzern verwendet wird, desto interessanter ist sie als Werbeumfeld.
Ohne Crawling keine Indexierung
Als Crawling wird der Prozess bezeichnet, durch den Suchmaschinen wie Google oder Bing das Web erfassen. Stark vereinfacht läuft dabei der folgende Prozess ab:
Eine bekannte Adresse wird vom Crawler (oder auch Spider bzw. Robot) angesteuert. Der Quelltext wird abgespeichert und über Zwischenschritte werden u. a. die Verlinkungen extrahiert.
Die so gefundenen Adressen werden der Datenbank der zu crawlenden Adressen hinzugefügt.
Crawler kontrollieren, ob der Zugriff auf die Adresse vom Webmaster verboten wurde. Dazu wird die robots.txt der Website abgerufen und nach Crawling-Ausschlüssen (mittels Disallow-Angabe) für die gefundene Adresse geschaut.
Ist kein Crawling-Ausschluss für die Adresse in der robots.txt zu finden, wird die Crawling-Priorität der Adresse bestimmt und die URL nach einiger Zeit gecrawlt.
Nach einem erfolgreichen Aufruf der Adresse (der Server beantwortet die Anfrage mit dem HTTP-Statuscode 200) wird der Quelltext der Seite analysiert.
Sofern die Seite zur Indexierung freigegeben ist (also kein Indexierungsausschluss durch die Noindex-Angabe vorliegt oder per Canonical-Tag eine andere Adresse referenziert wird), kann diese dem Index der Suchmaschine hinzugefügt werden.
Nach erfolgreicher Indexierung ist es möglich, den Seiteninhalt über die Websuche zu finden.
Im Hinblick auf das Crawling müssen Sie wissen, dass es für Suchmaschinenbetreiber eine finanzielle Notwendigkeit ist, mit den vorhandenen Serverressourcen sorgsam umzugehen. Jeder Seitenaufruf bindet Kapazitäten und es muss aus diesem Grund abgewogen werden, welchen Webseiten diese Ressourcen zur Verfügung gestellt werden. Faktoren wie das Linkprofil einer Website und eine generelle Einschätzung der Qualität des gesamten Webauftritts in den Augen der Suchmaschinen dürften dabei Einflussgrößen darauf sein, wie regelmäßig Crawler die jeweilige Website ansteuern.
Das Crawling-Aufkommen quantitativ auswerten
Wie aktiv ist Google eigentlich auf meiner Website? Wer nicht direkt einen Blick in die Server-Logfiles werfen möchte, der findet auf diese Frage in der Google Search Console eine Antwort. Denn dort zeigt Google die Crawling-Statistiken der Website an.
In den Wert der pro Tag gecrawlten Seiten fließen dabei übrigens alle Adressen ein, die auf der bestätigten Website zu finden sind. Das sind neben „normalen“ Webseiten die üblichen Verdächtigen wie Bilder, JavaScript- und CSS-Dateien, um nur einige zu nennen.
Abbildung 1: In der Google Search Console können Sie die Crawling-Statistiken Ihrer Website einsehen
Jeder Zugriff wird dabei als einzelne „gecrawlte Seite“ gezählt. Ruft der Googlebot folglich fünfmal innerhalb eines Tages die Startseite auf, dann geht dies als fünf Zugriffe in die Statistik ein.
Was aber, wenn Bilder von einer anderen Website (oder Hostnamen, also z. B. bilder.meinedomain.de) eingebunden sind? Sehr gute Frage! In diesem Fall tauchen diese Zugriffe folgerichtig in den Crawling-Statistiken der Website auf, unter der das Bild aufrufbar ist. Und noch ein Hinweis: Die Zeitzone der Angabe bezieht sich immer auf GMT-8, also die Zeitzone, in der Google seinen Hauptsitz hat (Mountain View in Kalifornien).
Was sagen Ihnen diese Daten? Nichts wirklich Genaues, denn es handelt sich nur um Werte. Sie sehen also nicht, welche Adresse wann abgerufen wurde. Aber durch einen Vergleich der Werte mit der Anzahl der auf Ihrer Website verfügbaren Adressen bekommen Sie Aussagekraft in die Daten – wenn auch stark vereinfacht.
Im Durchschnitt werden auf der in Abbildung 1 zu sehenden Website 202.565 Adressen aufgerufen. Da Mehrfachzugriffe einzeln gezählt werden, sind es in aller Regel deutlich weniger einzigartige Adressen, die vom Crawler aufgerufen werden. Wenn auf der Seite eine Million Adressen der Suchmaschine bekannt sind, dann heißt das folglich, dass jede Adresse ungefähr einmal innerhalb von fünf Tagen angesteuert wird. Doch das ist sehr stark vereinfacht.
Macht es überhaupt Sinn, jede Adresse gleichhäufig anzusteuern? Natürlich nicht, denn viele Seiten ändern sich so selten, dass es nicht sinnvoll ist, wenn diese z. B. jede Woche oder gar jeden Tag gecrawlt werden. Denken Sie daran: Auch die Mittel von Google & Co sind endlich. Es ist also nur logisch, dass Suchmaschinen ihre Crawling-Aktivitäten priorisieren und Websites mit einer hohen Frequenz neuer oder geänderter Inhalte häufiger ansteuern. So dürfte es nicht verwundern, wenn die Startseiten großer Zeitungen mehrmals pro Stunde oder gar Minute abgerufen werden, während eine private Website eine niedrigere Crawling-Priorität genießt. Was für Websites insgesamt gilt, trifft auch für einzelne URLs zu: Wenn Google merkt, dass sich der Inhalt einer Seite zwischen den letzten Crawls nicht (signifikant) unterscheidet, warum dann diese Adresse häufig crawlen?
Einblicke in den Google-Index: URL-Prüfung in der Search Console
Wer umfassend analysieren und verstehen möchte, welche Adressen Google auf der eigenen Website aufruft, der kommt um einen Blick in die Server-Logfiles nicht herum. Um diese Information für einzelne Adressen abzufragen, kann allerdings ganz komfortabel auf die „URL-Prüfung“ in der Google Search Console (Beta) zurückgegriffen werden. Einfach eine beliebige Adresse in das Suchfeld eingeben und schon sind die aktuellen Daten für diese Adresse einsehbar.
Abbildung 2: Google kennt diese Adresse und hat sie indexiert – allerdings wurde sie zuletzt Mitte Dezember gecrawlt
Bei der in Abbildung 2 abgerufenen Adresse liegt der letzte Crawl einige Wochen zurück. Das ist in diesem Fall zu verschmerzen, denn der Seiteninhalt wurde seit der Veröffentlichung der Seite nicht mehr angepasst. Folglich entspricht die aktuell bei Google bekannte Version der Seite dem Inhalt, den ein Nutzer beim Aufruf der Adresse sehen würde.
Hätte ich den Inhalt allerdings seit dem 18. Dezember verändert, dann stünde ich vor einem Problem: Google wäre der neue Inhalt nicht bekannt und ich könnte für den aktualisierten Inhalt nicht gefunden werden. Was also tun, um das Crawling und die Indexierung zu beschleunigen?
So können Sie das Crawling sowie die Indexierung beschleunigen
XML-Sitemaps einrichten und segmentieren
Wie viele Seiten umfasst Ihr Webauftritt? Und wie viele davon haben Sie in den letzten Monaten aktualisiert oder selbst angesurft? Und wie viele Seiten wurden insgesamt (regelmäßig) besucht? Viele Seiten sind statisch und auch die Website-Struktur ändert sich nur in geringem Umfang. Kein Wunder also, dass es etwas dauern kann, bis Google Änderungen an tief in der Website-Struktur zu findenden Seiten mitbekommt.
Eine von der Website-Struktur unabhängige Erschließung der Website ist über XML-Sitemaps möglich. Sitemaps listen dabei eine beliebige Auswahl an Adressen der Website auf und erzeugen direkte Verweise zwischen der Sitemap und einzelnen URLs. Durch die optionale <lastmod>-Angabe als Hinweis auf das letzte Aktualisierungsdatum ist die Verwendung von Sitemaps eine wunderbare Möglichkeit, um Suchmaschinen über Aktualisierungen und neue Inhalte zu informieren.
Abbildung 3: In dieser XML-Sitemap wird zusätzlich der Zeitpunkt der letzten Aktualisierung (lastmod) übermittelt
Eine Segmentierung der Sitemaps ist in diesem Kontext hilfreich. Denn Google hat zwar keine Probleme, einzelne Sitemaps mit bis zu 50.000 Adressen zu verarbeiten, die Erfahrung zeigt aber, dass kleinere Sitemaps das Crawling positiv beeinflussen. Wieso nicht separate XML-Sitemaps mit den neuen Seiten des letzten Monats erstellen oder Sitemaps nach Seitenbereich aufbauen? Die Möglichkeiten sind vielfältig.
Wer mehr über XML-Sitemaps und deren Optimierung erfahren möchte, dem sei der hervorragende Artikel von Anke Probst in der Website Boosting Ausgabe 53 ans Herz gelegt.
Ein kleiner Tipp: In der neuen Google Search Console werden maximal 1.000 URLs einer Sitemap direkt angezeigt. Warum also nicht die Anzahl der Adressen pro Sitemap auf 1.000 begrenzen? Dann lässt sich wunderbar nachvollziehen, was alles (nicht) indexiert ist.
Und noch ein Tipp: Wenn Sie Inhalte schnell aus dem Google-Index bekommen möchten und das Search-Console-Tool zur Entfernung von URLs in Ihrem Fall nicht hilft, dann denken Sie auch hier an XML-Sitemaps. Denn diese lassen sich auch nutzen, um das Crawling für nicht mehr vorhandene, aber indexierte Adressen anzustoßen.
Website entrümpeln und die Struktur optimieren
Jede den Crawlern bekannte Adresse will gecrawlt werden. Zwar führen z. B. Weiterleitungen oder Crawling-Fehler dazu, dass die Crawling-Frequenz für die nicht mehr erfolgreich abrufbaren Adressen zurückgeht, aber wer sagt, dass eine 404-Seite morgen nicht doch wieder online ist? Von daher müssen auch 404-Seiten kontinuierlich überprüft werden – Google möchte ja keinen relevanten Inhalt verpassen. Über je mehr Adressen Ihr Webauftritt verfügt, desto mehr muss Google crawlen.
Warum also nicht mal über einen Frühjahrsputz nachdenken? Welche Seiten braucht es nicht mehr? Gibt es durch interne oder externe Links erzeugte Crawling-Fehler? Sind Weiterleitungsketten vorhanden? Welche URLs können per robots.txt vom Crawling ausgeschlossen werden? Welche URLs können problemlos auf noindex gestellt werden?
Trauen Sie sich, nicht mehr benötigte Seiten offline zu nehmen! Je weniger Adressen es auf Ihrer Website gibt, desto geringer ist der Crawlbedarf – zudem müssen weniger Adressen intern verlinkt werden. Werfen Sie ruhig einen Blick in Ihre Webanalyse – wie viele Adressen gibt es, die seit Längerem keinen oder nur wenige Besucher begrüßen konnten? Und was ist auf den einzelnen Adressen überhaupt an Inhalten drauf? Sind diese noch aktuell? Müssen Sie diese Seiten eventuell aktualisieren?
Bei der in Abbildung 4 dargestellten Website ist es so, dass über 75 % der SEO-Besucher auf gerade einmal 50 Adressen einsteigen – bei einem Webauftritt mit mehreren Tausend indexierten Seiten und einer fast sechsstelligen Anzahl an SEO-Besuchern. Warum so viele Adressen der Website keine oder nur eine geringe Sichtbarkeit in der unbezahlten Google-Suche haben? Eine ausgezeichnete Frage, der nachgegangen werden sollte!
Abbildung 4: Bei dieser Website sind 50 Adressen für über 75 % der SEO-Zugriffe verantwortlich
Wenn Sie sich intensiv mit Ihrer Website auseinandersetzen, dann stellen Sie sich die Frage, ob es nicht an der Zeit ist, die Website-Struktur kritisch zu hinterfragen. Crawling-Tools wie Screaming Frog, Ryte oder audisto helfen Ihnen dabei, die Struktur Ihrer Website abzubilden.
Bewerten Sie aber nicht nur den Status quo, sondern schauen Sie, ob es Bedarf für neue Übersichtsseiten gibt, die die Inhalte noch besser als bisher zusammenfassen. Dadurch haben Sie nicht nur potenziell neue relevante Einstiegsseiten für Suchmaschinennutzer zur Hand, sondern erleichtern zudem jedem Besucher die Navigation durch die Website.
Ladegeschwindigkeit verbessern
Auf SEO-Konferenzen und in Bezug auf Logfile-Analysen ist regelmäßig der Begriff Crawlbudget zu hören. Damit wird beschrieben, wie viel Aufmerksamkeit in Form von Serverressourcen Google einer Website zum Crawling der Inhalte zur Verfügung stellt. Dabei handelt es sich nicht um eine feste Adressanzahl, sondern eher um ein Zeitbudget. Und auch dieses ist nicht statisch.
Wie Sie in Abbildung 1 sehen konnten, lag das Crawling-Volumen im November deutlich über dem der Folgemonate. Gründe für ein temporär höheres Crawling sind vielfältig. Mal ist es eine umfassende Überarbeitung der Website, mal viele neue Inhalte oder Links und mal will Google die Website in großen Teilen neu erfassen.
Wie Sie wissen, sind Googles Crawling-Ressourcen limitiert, von daher möchte Google diese möglichst effizient einsetzen. Eine wesentliche Einflusskomponente auf das Crawling-Volumen ist die Ladegeschwindigkeit einer Website. Wer diese über Optimierungen wie beispielsweise eine bessere Komprimierung von Bildern, eine Reduzierung der Anzahl der zu ladenden Dateien, schnellere Datenbankabfragen oder Nutzung von Caching (Zwischenspeichern) verbessern kann, der tut nicht nur Nutzern einen Gefallen, sondern auch Google honoriert den verbesserten Pagespeed regelmäßig mit mehr Zugriffen des Googlebot.
Einzelne Adressen über die URL-Überprüfung einreichen
Mit der „URL-Überprüfung“ der Google Search Console können Sie nicht nur überprüfen, ob eine Seite aktuell im Index enthalten ist und wann diese zuletzt gecrawlt wurde! Das Tool lässt sich dazu verwenden, Google über Aktualisierungen bereits bekannter sowie neue Adressen zu informieren.
Vermutlich kennen Sie das bisher dafür von Google angebotene Tool „Abruf wie durch Google“. Dieses wird mittelfristig durch die URL-Überprüfung ersetzt, kann bis dahin aber natürlich genauso für die Benachrichtigung von Google über aktualisierte oder neue Inhalte verwendet werden. Innerhalb weniger Augenblicke sollte Google die neue Seitenversion vorliegen.
Abbildung 5: Durch einen Klick auf „Indexierung beantragen“ kann Google über aktualisierte oder neue Adressen informiert werden
Bald kommt sie: die Google-Indexing-API
Um aktuell Jobanzeigen und Livestream-Inhalte noch schneller indexiert zu bekommen, bietet Google eine eigene API (Schnittstelle) zur Einreichung dieser Inhalte an. Über die Schnittstelle kann Google unabhängig von einem Interface über aktualisierte oder neue Adressen informiert werden – quasi die URL-Überprüfung der Search Console zeitgleich für mehrere Adressen. Wer sich schon jetzt mit der API vertraut machen möchte, der findet unter developers.google.com/search/apis/indexing-api/v3/quickstart alle notwendigen Informationen.
Auch von Bing ist zu hören, dass eine ähnliche API in Planung ist. Vielleicht steht uns ja mittelfristig eine schrittweise Abkehr von den bisherigen Crawling-Aktivitäten bevor? Suchmaschinen könnten Webmaster dazu „erziehen“, neue Inhalte über API-Schnittstellen einzureichen und das Crawling wie bisher z. B. nur noch jeden Monat anzustoßen, um eine Gesamtanalyse der Website inklusive ihrer Struktur durchzuführen. Das würde sowohl für Website-Betreiber als auch für Suchmaschinen zu einer deutlich verbesserten Nutzung der vorhanden Server- bzw. Crawling-Kapazitäten führen. Man darf also gespannt sein, was die Zukunft bringt.
Ignoriert Google deine Meta-Description?
Ignoriert Google deine Meta-Description? Wie du Abweichungen identifizierst und Optimierungspotenziale aufdeckst – websiteboosting.com
Jaja, die Meta-Description. Dieser kurze Text wird von vielen Seiten entweder gar nicht definiert oder mit irgendetwas wenig Relevantem befüllt. Ganz nach dem Motto: Die sieht man doch eh nicht, warum also Zeit dafür investieren? Dieser fehlende Optimierungswille trifft nicht auf dich zu? Du…
Wie du Abweichungen identifizierst und Optimierungspotenziale aufdeckst
Jaja, die Meta-Description. Dieser kurze Text wird von vielen Seiten entweder gar nicht definiert oder mit irgendetwas wenig Relevantem befüllt. Ganz nach dem Motto: Die sieht man doch eh nicht, warum also Zeit dafür investieren? Dieser fehlende Optimierungswille trifft nicht auf dich zu? Du optimierst die Meta-Description deiner wichtigsten Seiten bereits? Das ist erfreulich zu hören! Doch prüfst du auch, ob Google deine Meta-Description wie gewünscht anzeigt? Als Fortsetzung des Artikels von Mario Fischer in der letzten Ausgabe 69 erfährst du in diesem Artikel, wie du die aktuell von Google angezeigte Meta-Description herausfindest.
Ein gutes Ranking für häufig gesuchte Keywords ist nur der erste Schritt, denn noch ist der Nutzer nicht auf der eigenen Website. Und die gewünschte Aktion, ob Anmeldung zum Newsletter, Kauf eines Produkts oder der Klick auf eine Werbeanzeige, ist schon mal gar nicht passiert. Entsprechend ist es definitiv zu früh, den (vermeintlichen) Erfolg zu feiern. Und was man nicht aus den Augen lassen sollte: Für den Großteil der Suchanfragen, besonders mit kommerzieller Intention, ist es egal, ob der Nutzer sich für Ergebnis 1 oder 6 entscheidet – vermutlich findet er dort dieselben oder ähnliche Produkte zu ähnlichen Preisen – und häufig mit vergleichbar ausbaufähigem Service. Doch das ist noch mal ein komplett anderes Thema.
Durch die Onpage-Optimierung wird der Grundstein für ein gutes Ranking gelegt, doch erst durch eine wie auch immer definierte Konversion wird aus einem Website-Besuch ein (finanzieller) Wert generiert. Damit diese Konversion überhaupt stattfinden kann, muss sich der Suchendende für einen Besuch deiner Website entscheiden.
Einen deutlichen Einfluss auf die Klickrate hat neben der Position (oder auch dem Pixelrank, siehe Ausgabe 69) natürlich auch das sogenannte SERP-Snippet, in der Regel bestehend aus der Adresse, einem Titel und einem Beschreibungstext. Wer denkt, dass Google hier stets auf den Seitentitel und die Meta-Description der angezeigten Seite zurückgreift, der täuscht sich. Das macht Google selbst dann nicht zuverlässig, wenn die Texte von der Länge her problemlos dargestellt werden könnten und zur Suchanfrage passen.
Identische Einstiegsseite, viele Beschreibungstexte – der Beschreibungstext ist von der Suchanfrage abhängig
Den ersten Schock verdaut? Dann direkt eine weitere Schockwelle hinterher: Es ist nicht mal der Fall, dass Google für dieselbe Seite immer dasselbe Snippet verwendet!
Schon eine kleine Anpassung der Suchanfrage kann dazu führen, dass Google für die exakt identische Adresse einen anderen Vorschautext anzeigt. Wirf dazu einen Blick auf Abbildung 1 – die Reihenfolge der Wörter wurde in der Suchanfrage von „online Englisch lernen“ zu „Englisch online lernen“ verändert, was bei dem orange beziehungsweise blau umrandeten Suchtreffer zu einem veränderten Beschreibungstext führt.
Abbildung 1: Bei den umrandeten Seiten zeigt Google für die nur etwas veränderte Suchanfrage einen anderen Vorschautext; beim blau umrandeten Ergebnis wird zumindest links der Text der Meta-Description angezeigt
Die orange umrandete Seite verwendet als Meta-Description aktuell: „Verbessere dein Englisch schnell und einfach in nur 10 Minuten am Tag mit unterhaltsamen Onlinekursen, die auf deine Bedürfnisse zugeschnitten sind.“ Vermutlich, weil die Suchanfragen in der hinterlegten Description nicht vorhanden sind, wählt Google einen Seitenausschnitt als Beschreibungstext aus. Beim blau umrandeten Suchtreffer wird zumindest für die links gezeigte Suchanfrage „online Englisch lernen“ die Meta-Description wie gewünscht dargestellt.
Ein Blick in ein SEO-Tool wie SISTRIX zeigt, dass die Meta-Description der orange umrandeten Seite insgesamt nicht ideal gestaltet ist. Denn das Thema der Seite wird von Nutzern besonders häufig in den Suchanfragen „Englisch lernen“ beziehungsweise „Englisch lernen online“ ausgedrückt. Im Seitentitel wird die aus drei Wörtern bestehende Suchanfrage noch exakt wie gesucht hinterlegt, in der Meta-Description ist der Term „lernen“ allerdings gar nicht enthalten. Auch „online“ ist nur als Teil von „Onlinekursen“ zu finden. Hier handelt es sich also um ein Snippet, das besser auf die Hauptsuchanfragen abgestimmt werden sollte!
Abbildung 2: Anhand des Suchvolumens sind „Englisch lernen“ und „Englisch lernen online“ die wichtigsten exakt auf die Seite passenden Suchanfragen; die einzelnen Wörter der beiden Suchanfragen kommen allerdings nicht in der Meta-Description vor
Wie du von Google umgeschriebene Meta-Descriptions findest
Gut, Google ignoriert also von Zeit zu Zeit die hinterlegte Description und zeigt je nach Suchanfrage für die exakt identische Einstiegsseite ein unterschiedliches SERP-Snippet an. Das muss nicht schlecht sein, da sich die Klickrate durch den von Google gezeigten Text verbessern kann. Doch das gilt es herauszufinden.
Wer (wieder) die Kontrolle über die Meta-Descriptions (der wichtigsten Seiten) übernehmen will, der kommt um eine Detailanalyse und anschließende Anpassung des Beschreibungstexts nicht herum. Zunächst einmal steht deshalb eine Bestandsaufnahme auf dem Aufgabenzettel. Die meisten SEO-Tools zeigen in der Standardansicht nur die aktuelle Position für ein Suchergebnis an, allerdings nicht, wie das für die Suchanfrage angezeigte SERP-Snippet aussieht. Mal werden die Daten gar nicht erhoben und mal sind diese Infos in separaten Funktionen zu finden.
Doch der Reihe nach! Denn auch ohne ein kostenpflichtiges SEO-Tool lässt sich das Snippet mit wenig Aufwand ermitteln. Lass uns mit der folgenden Anleitung schauen, wie der Status quo deiner Snippets erhoben werden kann.
Schritt 1: Die wichtigsten Suchanfragen identifizieren
Ein kurzer Blick in die Google Search Console (kurz: GSC) zeigt bereits, dass sowohl einzelne Suchanfragen als auch einzelne Einstiegsseiten für den Großteil der Zugriffe über die unbezahlte Google-Suche sorgen. Es empfiehlt sich also, die wichtigsten Suchanfragen der trafficstärksten Seiten einer näheren Prüfung hinsichtlich des angezeigten SERP-Snippets zu unterziehen.
In der GSC lässt sich die Kombination aus Suchanfrage und Einstiegsseite nicht direkt über mehrere Seiten hinweg abfragen. Hierfür wird am besten die Google Search Console API verwendet. Ein kostenfreies Tool zur Abfrage der Daten über die GSC-API in der Kombination aus Suchanfrage und Einstiegsseite ist Search Analytics for Sheets (https://searchanalyticsforsheets.com/).
Liegen die Daten in der gewünschten Konfiguration vor, markierst du am besten die drei bis fünf wichtigsten Suchanfragen für deine wichtigsten Seiten – idealerweise Non-Brand, da Suchanfragen mit deinem Markennamen darauf schließen lassen, dass der Nutzer sowieso zu dir kommen möchte. Deshalb ist es hier nicht von gesteigerter Relevanz, wie das Snippet aussieht.
Wenn du ohne die GSC-API arbeiten möchtest, dann setze den URL-Filter in der Google Search Console und schaue dir die Suchanfragen an. Denn dann siehst du nur die Suchanfragen, die zur definierten Adresse gehören.
Schritt 2: Das angezeigte SERP-Snippet erheben
Mit der Liste deiner wichtigsten Suchanfragen zur Hand geht es nun darum, dein aktuelles SERP-Snippet für diese Suchanfragen zu erheben. Um an diese Daten zu gelangen, gibt es unterschiedliche Möglichkeiten – ich stelle dir drei Optionen vor.
Option 1: Manuelle Abfrage des SERP-Snippets mit dem SERP Snippet Scraper
Wer selbst einen Blick auf die Suchergebnisse wirft, der bekommt einen umfangreichen Überblick über die aktuell von Google angezeigten Seiten und SERP-Features. Zudem liefert dir die Suchergebnisseite unter Umständen neue Keyword-Ideen – von daher hat die manuelle Abfrage einige Vorteile.
Den angezeigten Titel und Beschreibungstext manuell zu kopieren ist mühselig. Deshalb habe ich das kostenlose Browser-Plug-in „SERP Snippet Scraper by searchanalyzer“ (https://www.searchanalyzer.de/serp-snippet-scraper/) für Chrome und Firefox herausgebracht. Nachdem das Plug-in aktiviert ist, kann durch einen Klick auf das Plug-in-Logo das angezeigte Snippet aller (normalen) organischen Ergebnisse ausgelesen werden. Die Daten werden in die Zwischenablage kopiert und können anschließend z. B. in Microsoft Excel oder ähnlich eingefügt werden. Wenn du die extrahierten Snippet-Daten auf deine Domain einschränkst, dann siehst du sehr schnell, wie die Snippets deiner Seiten für die abgefragten Suchanfragen aussehen.
Wer den gerade definierten Seitentitel sowie die Description der eigenen Seiten nicht im Kopf hat, der kann diese Daten z. B. per Crawler oder per Scraping abfragen und damit die vom Plug-in extrahierten Daten anreichern. Wie das z. B. mit Google Sheets einfach geht, dazu gleich mehr!
Option 2: Automatische Abfrage des SERP-Snippets mit dem RankTank Keyword Position Tool
Mit Google Sheets lassen sich, wie bereits anhand von Search Analytics for Sheets zu sehen, erstaunliche Dinge umsetzen. So bietet ranktank.org ein Tool an, mit dem die aktuelle Position einer Website für unterschiedliche Suchanfragen abgefragt werden kann.
Eine Kopie des Tools kann kostenfrei unter www.ranktank.org/free-keyword-position-rank-checker-tool/ bezogen werden (am besten etwas runterscrollen, der Link zur Datei wird nämlich auch ohne Newsletter-Anmeldung angezeigt). Einfach die gewünschte Konfiguration im Tool vornehmen und schon wird nicht nur das Ranking, sondern auch der angezeigte Titel und Beschreibungstext des eigenen Ergebnisses angezeigt. Bis zu 1.000 Abfragen sind pro Monat komplett kostenfrei mit dem Tool möglich.
Abbildung 3: Mit dem „Keyword Position Tracker“ von RankTank kann für mehrere Keywords das angezeigte Snippet abgefragt werden
Eventuell erinnerst du dich an meinen Artikel über das Scraping von Seitentitel und Co. in der Ausgabe 61 der Website Boosting. Da Google Sheets mit =IMPORTXML(URL;“xpath“) eine sehr einfache Möglichkeit bietet, diverse Daten aus Webseiten auszulesen, kann der Nutzerwert des Tools noch erweitert werden. Dazu werden einfach zwei weitere Spalten hinzugefügt und über die beiden Formeln
wird der Seitentitel bzw. die aktuelle Meta-Description abgefragt. Damit das funktioniert, muss natürlich in Zelle F11 die für die Suchanfrage angezeigte Adresse stehen. Es funktioniert etwas nicht? Dann liegt das vermutlich an deiner Spracheinstellung in Google Sheets. Je nach Sprache wird zur Trennung von Angaben in der Formel entweder ein Komma oder ein Semikolon verwendet.
Excel-Ninjas und alle, die es werden wollen, können mit weiteren Formeln die Daten nochmals erweitern. So lässt sich der Inhalt zwischen der angezeigten Meta-Description und der per IMPORTXML ausgelesenen Description miteinander vergleichen. Am einfachsten geht das mit =ZELLE1=ZELLE2 – stimmt der Wert überein, dann gibt Excel ein WAHR zurück. Da die hinterlegte Meta-Description allerdings für die vollständige Anzeige in den Suchergebnissen zu lang sein kann, lässt sich der zu vergleichende Text vorher einkürzen. Mit =LINKS(ZELLE1;30)=LINKS(ZELLE2;30) werden z. B. nur die ersten 30 Zeichen miteinander vergleichen. Anstatt ZELLE1 muss in der Formel z. B. N11 stehen – denn das ist die Zelle, in der standardmäßig der Beschreibungstext des Suchtreffers für das erste Keyword zu finden ist.
Wenn du die mit meinem Plug-in extrahierten Daten in Google Sheets einfügst, dann steht die Adresse des Suchtreffers standardmäßig in Spalte C. Rankst du auf Platz 1 für die Suchanfrage, dann kannst du mit =IMPORTXML(C1,“//title“) den Seitentitel in Google Sheets integrieren.
Option 3: SERP-Snippet-Informationen mit SISTRIX analysieren
SISTRIX erhebt nicht nur Ranking-Positionen, sondern zudem das angezeigte SERP-Snippet. Diese Daten stellt SISTRIX unter SERPS => SERP-Snippets zur Verfügung. Dank der Gegenüberstellung von URL und Keyword ist es schnell möglich, die Relevanz des angezeigten Snippets zu bewerten. Doch nicht nur das – da Google, ähnlich zur vorgestellten Option 1, einen Blick auf die SERP-Features erlaubt, ergeben sich über diese Daten häufig weitere Optimierungspotenziale. Zeigt Google z. B. regelmäßig Bilder an, dann ist Bilder-SEO für die Website wichtig.
Abbildung 4: Mit SISTRIX lassen sich die gerade angezeigten SERP-Snippets analysieren
Wie von SISTRIX gewohnt, lassen sich die Daten umfangreich filtern, z. B. nach einer einzelnen Adresse oder einem Mindest-Suchvolumen. Hilfreich sind zudem die Filter für gekürzte Snippets. Hiermit lassen sich schnell Seitentitel oder Beschreibungstexte finden, die von Google mit „…“ eingekürzt wurden.
Da in dieser Funktion nicht der im Quelltext hinterlegte Titel sowie der Beschreibungstext sichtbar sind, ist ein Blick auf die Funktion „Compare Snippets“ (bzw. „Snippet-Vergleich“) empfehlenswert. Hier zeigt SISTRIX den aus der Webseite extrahierten Seitentitel und die Meta-Description im Vergleich zu den SERP-Snippets der Seite für unterschiedliche Suchanfragen an.
Schritt 3: Meta-Description optimieren und den Erfolg prüfen
Alle drei vorgestellten Optionen bieten eine einfache Möglichkeit, um das aktuell angezeigte SERP-Snippet zu erheben und anhand dieser Daten Optimierungspotenziale zu identifizieren. Nun heißt es, mit diesen Daten zu arbeiten und die Beschreibungstexte wo nötig weiter zu optimieren.
Inwieweit die Optimierungen zu mehr Besuchern führen, kann mit der Google Search Console nachverfolgt werden, da hier die Klickrate zu sehen ist. In der Regel sind die in den Suchergebnissen angezeigten Ergebnistypen (z. B. News, Bilder, …) stabil, weshalb die Daten über einen längeren Zeitraum hinweg vergleichbar sind.
Es empfiehlt sich dringend, den Länder-Filter zu nutzen und hier das wichtigste Land auszuwählen, da die Search Console ansonsten einen globalen Durchschnittswert zeigt. Da kann ein Ranking auf einer niedrigen Position in einem weniger wichtigen Land schnell den Wert zerschießen.
Und wenn wir schon beim Filtern sind: Wenn der Großteil deiner Zugriffe über Mobilgeräte stattfindet, dann solltest du vor allem auf das Snippet in den Suchergebnissen für Mobilgeräte achten und optimieren. Denn hier gelten nochmals andere Längenbegrenzungen und das Snippet kann sich zwischen Desktop und Mobile deutlich unterscheiden – ganz zu schweigen von den angezeigten SERP-Features und der „wirklichen“ Ergebnisposition (Stichwort: Pixelrank).
An deinem Computer kannst du die Ergebnisse für Mobilgeräte sehen, wenn du deinen sogenannten User-Agent änderst. Im Chrome Browser geht das ganz einfach: Klicke auf deiner Tastatur F12 und wähle anschließend neben „Elements“ das Icon für unterschiedliche Geräte (englisch: Devices) an. Dieses Menü lässt sich alternativ nach dem Öffnen der Chrome DevTools über die Tastenkombination STRG + Shift + M aufrufen (auf Mac entsprechend CMD + Shift + M). Oberhalb der aufgerufenen Website kann anschließend der User-Agent geändert werden. Alternativ lässt sich der User-Agent in unterschiedlichen Browsern über Plug-ins anpassen.
Abbildung 5: Nach dem Aufruf des Chrome DevTools mittels F12 lässt sich durch einen Klick auf das Symbol links von „Elements“ der User-Agent im Chrome-Browser auf ein anderes Gerät ändern – die vordefinierten User-Agents stehen im Dropdown oberhalb der Website zur Verfügung (aktuell bei mir auf „Responsive“ eingestellt)
Doch zurück zur Optimierung der Meta-Description: Du siehst, dass die Optimierung nichts ist, was einfach mal so nebenbei stattfindet. Der Artikel von Mario Fischer in der letzten Ausgabe und dieser hier bieten dir eine super Anleitung, wie du die Meta-Description verbessern kannst.
Und die Kontrolle des eigenen Snippets wurde gerade noch wichtiger, da Google seit Mitte August auch den Seitentitel häufiger umschreibt (siehe einfach.st/updatetitle). SISTRIX war hier wieder sehr schnell und bietet einen Filter innerhalb von „SERP-Snippets“ an, um geänderte Seitentitel anzuzeigen. Mach dich also an die Arbeit und analysiere sowie optimiere deine Snippets!
Die Description – einfach unbeschreiblich?
Die Description – einfach unbeschreiblich? SEO für Einsteiger – Teil 2 – websiteboosting.com
Aufgrund vieler Anfragen und Anregungen unserer Leser starteten wir in der letzten Ausgabe erneut eine kleine Serie mit SEO-Basics für Einsteiger und motiviert Fortgeschrittene. In diesem ersten Teil ging es ausführlich um das Title-Element. Bereits da, weil fast untrennbar miteinander verbunden,…
Neue Serie: SEO für Einsteiger – Teil 2
Aufgrund vieler Anfragen und Anregungen unserer Leser starteten wir in der letzten Ausgabe erneut eine kleine Serie mit SEO-Basics für Einsteiger und motiviert Fortgeschrittene. In diesem ersten Teil ging es ausführlich um das Title-Element. Bereits da, weil fast untrennbar miteinander verbunden, wurde das Meta-Tag „Description“ erwähnt. Zusammen mit dem Title ist es für die Klickentscheidung von Suchenden essenziell, da diese immer zusammen mit anderen Ergebnissen nur diese wenigen Textteilchen sehen. Gelingt es genau an dieser Stelle nicht, zu überzeugen, nützt die investierte Arbeit in alles andere bei der Suchmaschinenoptimierung ziemlich wenig. Ohne Traffic bringen gute Positionen beim Ranking keinen Umsatz oder Anfragen. Wer sich mit SEO zumindest schon rudimentär auskennt, der wird vielleicht zu Recht einwenden, dass die Einträge im Meta-Tag Description überhaupt nicht rankingrelevant sind. Das ist richtig. Lesen Sie hier, warum der in der „Desc“ hinterlegte Text trotzdem eines der wichtigsten Elemente einer guten Optimierung darstellt.
You never get a second chance to make a first impression! Der frühere Werbespruch für Schuppenshampoo gilt auch und oft ganz besonders für die Suchmaschinenoptimierung. Rankt eine Ihrer URLs bei Google, wird bis auf sehr wenige Ausnahme direkt das Title-Element ausgegeben und meist, aber beileibe nicht immer, darunter zwei Zeilen der Description. Wer an dieser Stelle nicht textlich überzeugt, verpasst den Klick. Erweisen sich ein oder zwei Ergebnisse darüber oder auch darunter als gute Eyecatcher, ist die Chance auf einen Klick und damit einen Besucher und potenziellen Käufer dahin. No second chance. Was bereits in der ersten Folge an dieser Stelle gesagt wurde, muss hier in jedem Fall nochmals in aller Deutlichkeit wiederholt werden: Das Texten von Titel und Desc darf man nicht einem Praktikanten überlassen. Das ist „Chefsache“, wie sich viele Experten einig sind. Das meint natürlich nicht, dass der CEO diese Texte schreibt – sondern der mit der meisten Online-Erfahrung am Tisch und nicht die günstigste Arbeitskraft. Schaut man kritisch in die Suchergebnisse bei Google, scheint dies bei gefühlt mindestens der Hälfte der Unternehmen noch nicht bekannt zu sein. Am liebsten lässt man die Beschreibungen automatisiert oder aus Textfitzeln des Contents erstellen. Bei einem Beratungsprojekt meinte der Leiter der Online-Abteilung, die Mitarbeiter hätten mit dem Erstellen des Contents schon genügend zu tun. Erst beim Hinweis bzw. der Frage, dass da jemand für eine Seite fast 2.000 Wörter verfasst, dann aber keine Zeit hätte, zwei vernünftige Zeilen zu texten, kam er ins Grübeln. Seither hat man dort deutlich bessere Snippets und die Klickrate hat sich bezogen auf die Rankingposition innerhalb weniger Monate im Schnitt fast verdoppelt. Zwei Zeilen, doppelte Umsatzchance – kein schlechtes Investment, oder?
<meta name="description" content="Hier steht ein guter Text, der den Inhalt einer einzelnen Seite möglichst passend beschreibt!" />
Descriptions unter der Lupe – werden Sie zum Experten
Sehen Sie sich doch einfach mal die Beispiele in Abbildung 1 genauer an. An der Mischung der Ergebnisse lässt sich gut ablesen, dass Google sich nicht sicher ist über die Suchabsicht. Möchte man vergleichen, wenn man „Schuppenshampoo“ eingibt, oder möchte man kaufen? Die ersten beiden Ergebnisse zeigen Vergleiche an (Ziffer 1 und 2). Wo würden Sie klicken? Auf das Ergebnis von Ökotest, wo in der Description bereits Marken genannt werden, oder auf das Ergebnis vom Stern, der mit Haken, Pfeilen und einem gelben Sternchen sichtlich um Aufmerksamkeit buhlt? Es fällt zumindest auf, dass die erste Zeile der Description inhaltlich mit dem Title übereinstimmt. Hier wird also wertvoller Platz verschenkt. Gut ist hingegen sicher der Hinweis auf Vor- und Nachteile sowie die direkte Aufforderung, jetzt zu lesen.
Beim Ranking 3 und 4 handelt es sich offenbar um einen Rankingunfall. Die Ergebnisse sind fast identisch und hätten so eigentlich hier nichts zu suchen. Zumindest nicht (fast) doppelt. Das Ergebnis 4 hat als des Rätsels Lösung den Zusatz „Frauen“ und damit eine andere Landingpage. Google hat immer wieder erklärt, sie wollen keine Suchergebnisse anderer Suchmaschinen als Ergebnis listen. Dass es sich bei der Amazon-Produktsuche natürlich auch um eine Suchmaschine handelt, sogar um eine der besten, hat man offenbar nach 20 Jahren noch immer nicht bemerkt bei Google. Oder – und das erscheint viel wahrscheinlicher – die Amazon-Domain hat eine algorithmisch bei Google derart starke Autorität, dass hinterlegte Regeln wie „nimm keine Suchergebnisse anderer als eigene Suchergebnisse“ davon ausgehebelt werden. Möglicherweise kam auch bei Tests heraus, dass auf solche Amazon-eigenen Suchergebnisse überproportional oft geklickt wird, weil die Suchenden diese mögen.
Interessant ist wieder das Snippet 5. Dort kommt ein scheinbar völlig unpassender Text in der zweiten Zeile der Description. „Wir danken für Ihre Anfrage…“ – solche Texte wirken natürlich völlig deplatziert. Was der Grund dafür sein könnte, dazu später mehr. Im Snippet 6 von Friseurverband.com findet man eine seltsam unverständliche Aufzählung von Wörtern: „Instant Clear Anti Schuppenshampoo Loreal Profi Friseurshampoo Instant Clear Shampoo.“ Noch viel schlimmer wirkt: „Ideal zum Entfernen der Kopfhaut von …“ Wer mag sich schon gerne die Kopfhaut entfernen lassen, da kommen schlimme Bilder aus alten Westernfilmen ins Kopfkino. Der Grund ist auch hier die Entscheidung von Google, eben nicht die hinterlegte Description im <head> der Seite zu verwenden. Auch dazu später mehr. Wie finden Sie die letzten drei Snippets? Würden Sie dort klicken? Und warum bzw. warum nicht? Je kritischer Sie sich solche Textschnipsel ansehen, desto mehr lernen Sie. Ein häufiger Fehler liegt darin begründet, dass man sich immer die eigenen Snippets ansieht – und die dann meist als schon o. k. empfindet. Wenn Sie häufiger mal andere Ergebnisse wirklich mit der kritischen Lupe betrachten, lernen Sie am meisten! Hören Sie dabei immer in sich hinein und fragen Sie sich, was Ihnen genau ge- oder missfällt! Sie werden merken, dass Sie nicht nur in kürzester Zeit zum Experten werden, sondern ab dann werden Sie auch Ihre eigenen Ergebnistexte mit anderen Augen sehen und mühelos wertvolles Optimierungspotenzial heben.
Abbildung 1: Beispielhafte Suchtreffer für Schuppenshampoo bei Google
Ja, die Description ist nicht rankingrelevant!
Google sagt selbst, dass die Einträge in der Description nicht für die Berechnung des Rankings herangezogen werden. Das haben auch über die Jahre hinweg praktisch alle Tests gezeigt. Die Bedeutung liegt aber nicht nur in der Überzeugung der Suchenden, die wegen eines guten Textes klicken, sondern in der wahrscheinlichen Messung von Google, ob und wie oft bezogen auf die Position eines Ergebnisses sie das tun. Mit anderen Worten liefert ein schlechter Text eine schlechte Performance und Google kann oder könnte potenziell erkennen, dass algorithmisch dieses Ergebnis zwar genau an diese Position „hingerechnet“ wurde, die Suchenden es aber ganz offensichtlich nicht mögen, weil sie nicht daraufklicken. Umgekehrt wäre eine Klickrate von 50 % auf ein Ergebnis auf Platz 3 zumindest statistisch sicherlich deutlich über den Erwartungen und eine Belohnung im Ranking wert? Zeigen nicht die Klicks deutlich, dass die Menschen das besser finden, als die Algorithmen „gedacht“ haben?
Google wird nicht müde, in allen Kanälen zu verneinen, dass die Klickrate für Rankingkorrekturen verwendet würde. Verschiedene (nicht eindeutig valide) Tests haben allerdings gegenteilige Wirkungen gezeigt.
„Ohne Rankingrelevanz bringt eine Optimierung doch gar nichts?“
Auch im (teils geschwärzten) Staff-Memorandum, Filenr. 111.0163, das versehentlich von der amerikanischen FTC an das Wall Street Journal freigegeben wurde und das Website Boosting vorliegt, heißt es auf Seite 12: „… The Ranking itself ist affected by the click data …“, auf Seite 16: „Google tracks user click-through rates (and relies on such click-through data to improve its web search results in a number of ways“, sowie auf Seite 82 „… based on the crawled text, the pages are rated using such factors as click-through rates …“. In dem US-Patent US9727653B2 vom 8. August 2017 (http://einfach.st/patents553) beschreibt Google ein „System and Method for indentifying and ranking user preferences“.
Andererseits haben bekannte und bedeutende Googler wie John Müller oder Paul Haar immer wieder darauf hingewiesen, dass die CTR zu „noisy“ wäre, also zu viel Rauschen in den Daten hätte. Gary Illyes hat eine diesbezügliche Aussage von Rand Fiskhin sogar als „made up crap“ bezeichnet (http://einfach.st/garycrap). Einen eindeutigen Beweis gibt es also nicht, unter Experten gilt die Verwendung allerdings als trotzdem wahrscheinlich. Politisch wäre es auch sehr schwierig für Google, vor einer breiten Öffentlichkeit zuzugeben, dass man die Userklicks aufzeichnet. Man bekommt dort ja schließlich schon genug von den Medien ab, was das Datensammeln angeht. Online-Marketers würden sich nicht über so ein Vorgehen wundern, schließlich geht es im Ziel um das Erkennen von Verbesserungspotenzial, was den Suchenden zugutekäme. Aber alle ohne Kenntnisse aus dem Online-Business würden sich erneut, aufgeheizt durch bestimmte Medien, überwacht fühlen.
„Wenn Klicks zählen, klauen wir sie einfach.“
Und noch ein letzter, aber vielleicht wichtigster Punkt, weswegen Google gar nicht zugeben sollte oder dürfte, dass die Klicks tatsächlich Auswirkungen hätten. Die Spammer fänden sofort technische Möglichkeiten, künstliche Klicks auf deren Suchtreffer zu generieren. Stumpfe Klickbots kann Google zwar erkennen und diese Signale separieren, aber gegen bewusst böse gestaltete Browser-Plug-ins, die im Hintergrund und ohne Wissen des Nutzers unsichtbar Suchergebnisse und Klicks auslösen, wäre wenig Kraut gewachsen. Und in der Tat soll es dem Vernehmen nach einige Unternehmen geben, die sich auf derartige Weise Traffic verschaffen. Dieser ist zwar nichts wert, aber ahnungslose Chefs, die für Traffic Provisionen zahlen, kann man damit allemal über den Tisch ziehen. Ein osteuropäisches Unternehmen hat Gerüchten zufolge mittels Bestechung sogar geschafft, sog. Rootkits in Neugeräte eines deutschen Mobilfunkproviders einzusetzen, die fernsteuerbar im Hintergrund still „surfen“ und somit Traffic von „echten“ Nutzern erzeugen. Solche Betrügereien sind für Google sicherlich sehr schwer auszufiltern, wenn sie gut und ohne auffällige Muster gemacht werden.
Abbildung 2: Also doch? Ausschnitt aus dem versehentlich freigegebenen FTC-Staff-Memorandum vom 08.08.2012, S. 14
Wie lange oder wie kurz sollte die optimale Description sein?
Darüber herrscht bunte Verwirrung im Netz und dass SEO-Agentur A für ihr „Glossar“ von SEO-Agentur B abschreibt, die ihren Content wiederum von Agentur C für sich „umgeschrieben“ hat, macht es nicht besser. Die meisten Quellen gehen davon aus, dass man etwa 160 Zeichen oder 500 Pixel Raum zur Verfügung hat. Der Toolanbieter SISTRIX nennt allerdings 990 Pixel für Desktop und 1.300 Pixel für die Anzeige auf Smartphones.
Google selbst sagt, es gebe keine vorgeschriebene Länge und je nach Endgerät werde ein Text abgeschnitten, falls er nicht mehr angezeigt werden könne (Abbildung 3 und Abbildung 4). Da man auch nicht weiß, welche Anzeigegeräte in Zukunft verwendet werden, geht man am besten pragmatisch vor und schreibt die wichtigen Dinge vorne in die Description. Die Warnungen vieler SEO-Tools, dass soundso viel Description „zu lang“ sei, muss man unter dem Verständnis „zu lang für eine komplette Anzeige“ sehen. Keinesfalls ist hier dringender Handlungsbedarf, die Texte gar einzukürzen. Sofern der Grundsatz eingehalten wurde: Wichtiges vorne.
Abbildung 3: John Müller auf Twitter: Es gibt kein Limit bei der Desc-LängeAbbildung 4: Danny Sullivan von Google bestätigt 2018 erneut, dass es keine definierte Länge gibtAbbildung 5: Suchbegriffe werden in der Description fett und damit optisch hervorgehen dargestellt
Immer wieder fallen Snippets auf, die mit farbigen Sonderzeichen hervorstechen. Wer so etwas verwenden möchte, kopiert sich am besten den entsprechenden Quellcode bzw. die Symbole aus einer in der Suche so angezeigten Seite heraus. So ist man sicher, dass genau das auch angezeigt werden kann. Google heißt solche optischen Eskapaden nicht gut und entfernt sie regelmäßig immer wieder, vor allem dann, wenn zu heftiger Gebrauch davon gemacht wird.
Warum wird die hinterlegte Description von Google nicht immer verwendet?
Wie oben bereits erwähnt, spielt Google nicht immer die explizit hinterlegte Description aus dem <head> einer Seite aus. Hierfür gibt es mehrere Gründe:
Der von Suchenden eingegebene Begriff oder die Begriffe finden sich nicht in der Description. In diesem Fall nimmt Google Text direkt aus dem Content der Seite, wo die Suchbegriffe (algorithmisch gesehen) prominent auftauchen. Das führt dann zu den bekannten, zusammengestückelt wirkenden Texten. In Abbildung 1, Ziffern 5 und 6 ist das als Beispiel zu sehen.
Google misstraut den Inhalten, weil sie z. B. 1:1-Kopien des Titels oder einer Überschrift (Hx), reine Aufzählungen mit oder ohne Komma getrennt oder sprachlich „auffällig“ sind. Ebenso ist es möglich, dass die Domain als Ganzes ein gewisses Misstrauen genießt – wobei man sie dann in der Regel nicht beim normalen Ranking zu sehen bekommt.
Google testet mal wieder.
Es gibt einen Erkennungsfehler, d. h., die Algorithmen kommen durcheinander.
Der letzte Punkt 4, also eine Fehlererkennung, könnte beim Suchergebnis der Domain friseurversand.com aus Abbildung 1 passiert sein. Dort ist im <head> des Quelltexts hinterlegt:
<meta name="description" content="Hier finden Sie Schuppenshampoos welche Haarschuppen teilweise sehr effektiv bekämpfen können. Von Herstellern wie Goldwell – Loreal – Wella – Schwarzkopf."/>
Ausgespielt im Ergebnis-Snippet wird aber der Text aus der folgenden Passage des Quelltexts:
<div class="product--description"> Instant Clear Anti Schuppenshampoo Loreal Profi Friseurshampoo Instant Clear Shampoo für normales bis fettiges Haar. Ideal zum Entfernen der Kopfhaut von Schuppen …
Gut möglich, dass Google die „product-description“ vorzieht oder missinterpretiert.
Bei test.de hat sich Google dagegen entschieden, den Text aus einer (fälschlich eingesetzten) H4-Überschrift anzuzeigen (Abbildung 8). Korrekt hinterlegt ist:
<meta name="description" lang="de" content="Wenn ständig feine Schuppen vom Kopf rieseln, ist das lästig. Ein unlösbares Problem ist es aber nicht, wie unser Test zeigt. Wir haben elf..." />
Sieht man sich den Content der Seite an (Abbildung 6), fällt sofort auf, dass hier mechanisch einfach der Artikeltext als Desc eingeschoben wurde. Google hat hier möglicherweise per Mustererkennung entdeckt, dass der Textangang wiederholt bzw. einfach kopiert wurde. Den ersten und zweiten Satz eines Artikels als zusammenfassende Beschreibung für den gesamten Artikel zu verwenden u wollen, ist sicherlich auch keine so gute Strategie.
„Wenn Google nicht die hinterlegte Desc anzeigt, ist oft ein wenig Detektivarbeit nötig.“
Abbildung 6: Darum mag Google die Desc von test.de wahrscheinlich nicht – der Inhalt ist einfach der Anfang des FließtextesAbbildung 7: Von dieser Stelle ist der Text für das Snippet aus Abbildung 1, Ziffer 6Abbildung 8: Und aus diesen H4-Elementen im Quelltext hat Google die Beschreibung extrahiert
Woher stammt dann der Text im Suchsnippet? Den hat Google von ganz unten auf der Seite aus dem ersten Kommentarfeld gezogen (Abbildung 7). Wie kommt so etwas zustande? Dazu braucht es etwas Detektivarbeit. Sieht man sich nämlich die Templates der Artikel auf test.de an, erkennt man eine missbräuchliche Verwendung bei den Überschriften. Wie Abbildung 9 ganz gut zeigt, wurde hier aus der Navigation bzw. den Navigationsbegriffen eine Überschrift gemacht, also einer Hx zugeordnet. Zur Erinnerung: Hx-Elemente sollen zur Strukturierung von individuellem Text eingesetzt werden und diesem eine sinnvolle Hierarchie geben. Man kann sie zwar auch wie hier zur Formatierung einsetzen, das ist auf den ersten Blick nicht weiter schlimm. Allerdings erschwert man damit natürlich Suchmaschinen die Erkennung der Textstruktur. Hier kommt mit aller Wahrscheinlichkeit zum Tragen, dass die in Abbildung 9 gezeigten Überschriften auf allen Seiten gleich oder fast gleich sind. Google rechnet sie somit nicht zum sog. Primary Content, sondern zur Boilerplate. Mit anderen Worten: Für Google sieht dieser Bereich so aus, als würde er auf allen oder vielen Seiten 1:1 so verwendet. Damit ist er kein unterscheidendes Merkmal mehr! Was sich aber ganz eindeutig unterscheidet von Seite zu Seite, sind …? Die Kommentare (Abbildung 8)! Diesen „uniquen“ Überschriftentext schnappt sich die Suchmaschine, hält ihn für – weil individuell – gut und gibt ihn als Beschreibung für die gesamte Seite aus. Das ist natürlich ein Fehler, aber für eine Maschine wohl nur folgerichtig bzw. nachvollziehbar. Rekapitulation: Die hinterlegte Desc ist ein kopierter Starttext aus dem Contentbereich, fast alle Überschriften sind auf allen Seiten nur knappe Stichworte und nahezu identisch – was soll ein Algorithmus da anderes verwenden als den erst besten Individualtext in bewusst ausgezeichneten (Unter-)Überschriften?
Das Beispiel zeigt, wie wichtig auch die Strukturhygiene ist und dass man gut daran tut, wenigstens die einfachsten Basics der Suchmaschinenoptimierung zu beachten. Der Stiftung Warentest kann das (wohl) egal sein, deren Domain ist so stark, dass sie meist weit oben mitspielt, wenn Google eine Vergleichsabsicht in Suchphrasen erahnt. Das ist auch richtig so, denn die Domain ist vertrauenswürdig und eine Institution genau dafür. Der Content rankt quasi „trotzdem“ gut.
Abbildung 9: Des „Desc“-Rätsels Lösung: Man hat aus Navigationsbegriffen Überschriften gemacht!
Wann ist es besser, keine Description zu hinterlegen?
Nicht immer ist es gut, eine klar definierte Description zu hinterlegen. Verfügt eine Seite über eine leere oder gar keine Anweisung im <head>, zieht sich Google die Suchphrase aus dem fließenden Text und baut eine eigene Beschreibung. Der Effekt wurde ja gerade oben gezeigt, wenn auch aus anderen Gründen.
Hat eine Seite wirklich sehr viele sog. Longtail-Treffer, rankt sie also für sehr viele Mehrwort-Kombinationen, kann es Sinn machen, das Meta-Tag Description tatsächlich wegzulassen. Das hat mit dem beschränkten Platz zu tun. Am einfachsten kann man sich das vorstellen z. B. für eine Badehose, die es auf der Zielseite in 20 Farben gibt. In der Description lassen sich allerdings nicht alle Farben unterbringen. Gibt ein Suchender jetzt „hellgrüne Badehose Herren“ ein, findet er möglicherweise einige Farbangaben im Ergebnis-Snippet, aber eben ausgerechnet nicht seine gesuchte Farbe – obwohl sie auf der Seite selbst verfügbar wäre. Der Klick unterbleibt.
Dieses Beispiel macht deutlich, dass keine (eigene) Beschreibung bei Seiten, die zu vielen Suchtreffern passen oder passen sollen, besser sein kann als eine falsche oder unvollständige. In solchen Fällen sollte man versuchen, mit einfachen A/B-Tests mehr Klarheit zu bekommen. Dazu löscht man die Desc aus der entsprechenden Seite und verändert ggf. noch sanft den Content, damit Google erkennt, dass sich auch im Text etwas verändert hat. Eine Änderung nur im „unsichtbaren“ Bereich einer Seite führt in der Regel nicht zu einer Neuindexierung. Will man ganz sichergehen, ruft man die Seite zum Rendern in der Search Console auf und zeigt Google damit den „neuen“ Content. Anschließend überwacht man Änderungen in der Klickrate. Steigt diese an – Achtung! Bei gleicher Position und gleichen Suchergebnissen (siehe den Titelbeitrag „Pixelrank“ in dieser Ausgabe) wird die von Google jetzt zusammengesuchte Beschreibung von den Suchenden besser angenommen als vorher die eigene. Da Google die Texte dynamisch auf die Suchphrase bezogen ausgibt, würde in dem Beispiel oben auch der Text mit „hellgrün“ im Snippet auftauchen, sofern er tatsächlich auf der Seite steht, was natürlich eine Voraussetzung ist.
Möchte man generell unterbinden, dass Google Beschreibungstext im Snippet ausgibt, kann man das über eine Anweisung tun. Der Eintrag im <head> dazu lautet:
<meta name="googlebot" content="nosnippet">
Es können auch unterschiedliche Bots angesteuert werden, wie hier der Newsbot von Google:
<meta name="googlebot-news" content="nosnippet">
Wenn eine Newseite also nicht möchte, dass Google vorausschauenden Text in der Suche anzeigt, könnte man das mit einer Zeile Code abstellen. Vermutlich weiß man aber genau, dass mit der dann übrigen Minimalanzeige keine Klicks und damit kein Traffic käme. Daher versucht man es eher auf dem Klageweg und möchte Geld von Google für diese Art der Vorschau, die eigentlich dem Suchenden die Klickentscheidung ermöglichen soll. Damit ist auch gleichzeitig die Frage beantwortet, ob es Sinn macht, das No-Snippet-Tag einzusetzen. Wohl eher nicht.
„You can prevent Google from generating snippets altogether by specifying the „nosnippet“ robots directive. There’s no way to prevent using page contents as snippet while allowing other sources“ (Gary Illyes, http://einfach.st/gary49).
Fazit
Das Snippet in den Suchergebnissen ist der erste Kontakt eines Suchenden zu Ihnen. Sie haben in der Regel drei Zeilen, eine für den Title und zwei für die Description, um jemanden zum Klick zu überzeugen. Verpassen Sie diese Chance, diesen Moment of truth nicht bzw. überlassen Sie ihn nicht dem Zufall oder dem Textgespür eines Amateurs. Sie können den einfachen Weg gehen und die Description automatisch von Ihrem System erzeugen lassen, weil es Ihnen zu viel Mühe macht, einen wirklich guten ersten Eindruck zu machen. Oder Sie gehen die Extrameile und machen einfach einmal ein paar ambitionierte Tests, um zu sehen, was Ihnen das wirklich bringt.
Kartellamt: Google dominiert die Online-Werbe-Wertschöpfungskette
Kartellamt: Google dominiert die Online-Werbe-Wertschöpfungskette
Das Bundeskartellamt nimmt Google verstärkt ins Visier. Die Behörde erwägt in einem Bericht „breiter angelegte, möglicherweise strukturelle Eingriffe“, die über Einzelmaßnahmen hinausgehen.
Das 232 Seiten starke Diskussionspapier des Bundeskartellamts erklärt die verschiedenen Werbeformen und Geschäftsmodelle im Detail.
Das Bundeskartellamt hat in einem Diskussionsbericht dargestellt, wie es den nicht an Suchmaschinen gebundenen Teil des Online-Werbemarktes einschätzt. Dabei handelt es sich zum Beispiel um die Banner, die viele Medienangebote (mit-)finanzieren. Allein in Deutschland werden laut dem Bericht pro Jahr vier bis fünf Milliarden Euro mit solcher Werbung umgesetzt. Dahinter stecke ein „hochkomplexes, für viele recht intransparentes System des automatisierten Handels mit Online-Werbeplätzen“, das der Bericht auf etlichen Seiten erklärt.
Im Rahmen der Untersuchung, so die Wettbewerbshüter, habe sich vor allem die Vormachtstellung Googles gezeigt: „Google ist auf nahezu allen Stufen der Wertschöpfungskette und bei praktisch allen relevanten Dienstleistungen vertreten und hat dabei in den meisten Fällen eine sehr starke Marktposition inne.“ Das Unternehmen kontrolliere wichtige Teile der nutzerseitigen Software-Infrastruktur wie den Browser Chrome und das mobile Betriebssystem Android. Damit bestimme es letztlich über die technischen Möglichkeiten mit, um Online-Werbung zu realisieren.
Der Bericht beurteilt nicht, ob Google seine Dominanz wettbewerbsschädigend ausnutzt, das Kartellamt will das aber weiter prüfen. Generell habe es neue Instrumente an die Hand bekommen, mit denen es gut gegen einzelne Praktiken vorgehen könne. Dazu zählt Andreas Mundt, der Präsident des Amts, den relativ neuen Paragrafen 19a des Gesetzes gegen Wettbewerbsbeschränkungen und den europäischen Digital Markets Act.
Bei Google könnte es aber nicht reichen, an einzelnen Stellschrauben zu drehen. Hier spricht der Bericht über „breiter angelegte, möglicherweise strukturelle Eingriffe“ – ohne diese weiter auszuführen. Das Bundeskartellamt ermöglicht es Marktteilnehmern und interessierten Kreisen, bis zum 28. Oktober 2022 Stellung zu dem Bericht zu beziehen. (jo@ct.de)
Podcasts bei YouTube und Twitter
YouTubeist bereits riesiger Anbieter von (Video-) Podcasts. Dieses Geschäft will die Plattform anscheinend weiter ausbauen, denn unter der URL youtube.com/podcasts bietet YouTube gezielt Podcasts an. Bis Redaktionsschluss war die Seite allerdings nur in den USA verfügbar; wann sie in Deutschland freigeschaltet wird, ist unklar.
Ebenfalls zunächst nur in den USA verfügbar ist eine neue Podcast-Funktion bei Twitter. Podcaster können ihre Sendungen dort veröffentlichen. Mit der Neugestaltung führt Twitter personalisierte Hubs für Nutzer ein, die sogenannten Stations. Sie gruppieren mehrere Inhalte auf Basis verschiedener Themen wie Nachrichten, Musik und Sport. (jo@ct.de)
Post: Digitaler Briefversand nun bei 1&1
Die Post kooperiert mit Web.de und GMX beim digitalen Briefversand. Inhaber eines E-Mail-Kontos bei den 1&1-Diensten GMX und Web.de können künftig Briefe digital aus einem neuen Online-Office heraus an die Deutsche Post übermitteln. Dort werden sie ausgedruckt, frankiert und auf dem Postweg als gedruckter Brief an die Empfängeradresse zugestellt. Der Dienst ist bis Jahresende für monatlich drei Briefe pro E-Mail-Konto gratis. Was er danach kosten wird, steht noch nicht fest.
Parallel zur Einführung des neuen Dienstes stellt die Deutsche Post ihren eigenen Service „E-Post“ für Privatkunden bis Ende November 2022 ein. Für Geschäftskunden werde E-Post als Plattform zur Digitalisierung der Briefkommunikation hingegen unverändert fortgeführt und weiter ausgebaut. (jo@ct.de)