Keynote Vortrag – Action Replay: Alles auf Anfang?
Die SEOkomm startet mit der Keynote von Bastian Grimm. Zu Beginn seines Vortrages zeigt er einen Rückblick auf das Jahr 2021 und damit auf unzählige Updates. Der „Sommer der Updates“ hat sich zu einem „Jahr der Updates“ entwickelt. Dies bekräftigt nochmals das aktuellste Core-Update von Mitte November, welches zum Zeitpunkt der Konferenz noch nicht vollständig ausgerollt ist. Des Weiteren fügt Bastian Grimm an, dass die Update-Frequenz in Zukunft noch weiter steigen wird. Weitere Kernaussagen seines Vortrages sind:
- Suchintention wird wichtiger und daher sollten Intent-Maps erstellt werden.
- Google entwickelt sich zu einem komplett automatisierten Recommender-System, das fast ohne klassische Suchanfragen auskommt.
- Technisches SEO wird eine untergeordnete Rolle spielen, da CMS wie WordPress sich stets weiterentwickeln und intelligent genug sein werden, um die technischen Anforderungen selbst zu organisieren.
- Die Aufgaben der SEOs werden sich in Zukunft ändern.
Screaming Frog für Fortgeschrittene
In diesem Vortrag zeigt Stephan Czysch, welche Möglichkeiten uns das Tool Screaming Frog bietet. Zunächst erläutert er, welche Daten mit Hilfe der Customer Extraction zusätzlich ausgelesen werden können und nennt als Beispiele die Produktanzahl, den Preis, Schlagwörter, Breadcrumbs oder alte Jahresangaben. Nach Jahresangaben Ausschau zu halten, kann insbesondere jetzt zum Jahresende sinnvoll sein.
Als Nächstes präsentiert er, welche Möglichkeiten der in diesem Jahr neu hinzugekommene Crawl-Abgleich-Modus bietet. Als Anwendungsbeispiele nennt er den Vergleich der Desktop-Version mit der Mobile-Version oder den Abgleich eines Crawls mit und ohne Java Script. Auch bei einem Relaunch kann ein Vergleich des Testsystems mit dem Live-System nützlich sein.
Zum Schluss geht er noch auf die Automatisierung des Crawlings ein. Er rät, die Konfiguration zu speichern und den Export auf Google Drive hochzuladen. Dadurch lassen sich die Daten des Crawls in Google Data Studio bringen. Mit der Schedule-Funktion kann der Crawl dann automatisiert werden.
So nutzt du die Google-Search-Console-API wie ein Profi – ohne zu programmieren
Bei dem nächsten Vortrag geht es um die API der Google Search Console. In seinem Vortrag erklärt uns Stefan Fischerländer, wie man auch ohne tiefergehende technische Kenntnisse die Daten aus der API speichert und auswertet. Zunächst nennt er die Vorteile, die die API zu bieten hat: mehr Daten, mehr Filter, Automatisierung und Datenspeicherung über einen längeren Zeitraum. Neben all diesen Vorteilen muss jedoch bedacht werden, dass die API nicht alle Daten anzeigt und der Filter auf maximal 50.000 Ergebnisse beschränkt ist. Dies ist vor allem für sehr große Domains zu berücksichtigen.
Für weniger technikaffine SEOs hat Stefan extra ein eigenes Tool entwickelt. Mit Hilfe dieses Tools sollte es jedem gelingen, die Daten aus der GSC zu holen. Wer möchte, kann dieses gerne mal ausprobieren.
Featured Snippets + Rich Results: CTR-Booster oder Gefahr?
Der nächste Vortrag von Markus Hövener handelt von Featured Snippets und Rich Results. Gleich zu Beginn erläutert er, worum es bei den Featured Snippets und Rich Results geht: möglichst viel Platz in der SERP einnehmen und gleichzeitig etwas Sinnvolles mit dem eigenen Snippet erzählen. Bei dem ersten Teil des Vortrages geht er zunächst auf die Featured Snippets ein und nennt direkt das größte Problem: sie sind schwer messbar. Da in der Google Search Console nicht nach Ausspielungsart gefiltert werden kann, ist es schwer nachzuvollziehen, ob die Rankings mit Featured Snippet besser performen als die Rankings ohne. Des Weiteren rät er, bereits bei der Texterstellung darauf zu achten, dass der Inhalt als Featured Snippet ausgespielt wird. Dies gelingt beispielsweise, indem mit Tabellen oder Bullet-Points gearbeitet wird.
Im zweiten Teil seines Vortrages geht es um die Rich Results. Bei diesen betont er, dass diese nicht nur technisch implementiert werden müssen, sondern dass man sich auch immer überlegen soll, wie man diese bekommt (z. B. Produktbewertungen). Außerdem erwähnt er, dass Rich Results auch einen negativen Effekt haben können. Zum Beispiel, wenn die Produktbewertungen nur durchschnittlich sind oder ein Produkt nicht mehr vorrätig ist. Daher sollte stets geprüft werden, auf welchen Seiten Rich Results implementiert sind und ob diese Sinn machen.
Core Web Vitals – Beyond the basics
Nun kommen wir zu einem der wohl populärsten SEO-Themen des vergangenen Jahres: Core Web Vitals. In einem Vortrag zu diesem Thema zeigt Maximilian Schirmer anhand von drei Websites konkrete Optimierungsmaßnahmen, um die Core Web Vital Werte zu verbessern. Zunächst nennt er jedoch drei Möglichkeiten, eine Consent Management-Plattform (CMP) einzubauen. Diese sind:
- Header Sync: unterbricht Parsing, kontrolliert späteren DOM (Document Object Model), CMP wird frühestmöglich gerendert
- Header Async: Trennt Download & Execution, unterbricht nur während Execution, CMP wird frühestmöglich gerendert
- Header Deferred: Trennt Download & Execution, unterbricht Parsing nicht, Execution erfolgt am Ende, CMP wird erst am Schluss gerendert.
Als Nächstes rät er, das CSS (Cascading Style Sheets) so kompakt wie möglich zu halten. Dabei können Webseitenbetreiber, die Bootstrap nutzen, sehr viel einsparen, indem sie beispielsweise den Dark-Mode streichen. Außerdem betont er, dass man nicht das ganze CSS inlinen soll, da dadurch kein Caching möglich ist. Als Tool, mit dem kritisches CSS leicht ermittelt werden kann, nennt er CriticalCSS.com.
Zum Schluss gibt er noch ein paar schnelle Tipps auf den Weg. Die wichtigsten sind:
- Ein kurzes CMP verhindert, dass dieses als LCP (Largest Contentful Paint) erkannt wird.
- Java Script nicht in den Footer, sondern deferren
- Kein Lazyload above-the-fold
Serverless SEO: Ein Hands-On Guide
Der nächste Vortrag fühlt sich an wie ein YouTube-Video auf 1,5-facher Geschwindigkeit. Bastian Grimm, der kurzfristig mit diesem Vortrag eingesprungen ist, hält nun eine für 45 Minuten angedachte Präsentation in 30 Minuten. In diesem Vortrag geht es um Edge SEO und welche Herausforderungen damit schnell und einfach gelöst werden können. Als Tool seiner Wahl zeigt er Cloudflare. Mit diesem Tool können viele verschiedene SEO-Maßnahmen durchgeführt werden, ohne Zugriff auf den Server oder das Backend zu haben. Es lassen sich beispielsweise der Header, die robots.txt oder auch die Meta-Angaben ändern. Dabei lassen sich auch Bedingungen einstellen. Bei den Meta-Angaben beispielsweise ist es möglich, dass nur die angepasst werden, die eine bestimmte Länge nicht erreichen oder bei denen die CTA fehlt.
In seinem Vortrag geht Bastian Grimm ebenfalls auf die Risiken ein, die so ein Tool mit sich bringt. So lassen sich zum Beispiel Freigaben einfach übergehen oder es kann zu einem Konflikt mit dem bestehenden Code kommen. Deswegen sollte man genau wissen, was man damit macht.
SEO Patterns: Typische Website-Probleme & deren Lösung
Nun kommen wir zum zweiten Vortrag von Markus Hövener. In diesem stellt er die typischen Website-Probleme vor, die er häufig erlebt, und gibt passende Lösungsvorschläge. Eines der üblichen Website-Probleme sind Produktvarianten. Viele Shops lassen immer noch jede Variante eines Produktes indexieren. Dabei macht dies bei mehreren hundert Varianten keinen Sinn. Lediglich bei zwei oder drei verschiedenen Varianten sollten diese indexiert werden. Außerdem sollte das Canonical-Tag stets auf die kleinste/günstigste Seite gehen. Als Nächstes nennt Markus Hövener fehlende Meta-Angaben. Hier sollten regelbasierte Meta-Angaben erstellt werden, bevor gar nichts drinnen steht. Allerdings sollten diese auch geprüft werden. Als Beispiel nennt er einen regelbasierten Title in dem der Nutzer „Kinder kaufen“ kann.
Nun geht er auf Parameter-URLs ein. Diese sollten grundsätzlich ausgeschlossen werden bzw. sollte mit diesen erst gar nicht gearbeitet werden. Der Canonical-Tag soll stets auf die feste URL gehen. Die Ausnahme bilden relevante Parameter, die die Seite maßgeblich ändern und daher auf sich selbst referenzieren können.
On-SERP SEO in turbulent times
Den darauffolgenden Vortrag hält Izzi Smith. Bei diesem geht es um die SERPs und die Herausforderungen, die durch die letzten Updates hinzugekommen sind. Als größte Herausforderung nennt sie die Tatsache, dass Google in jüngster Vergangenheit nicht mehr den Title, sondern immer öfter die H1-Überschrift ausgespielt hat. Des Weiteren meint sie, dass es wichtig ist, zu wissen, wann Google die eigene Seite testet und empfiehlt daher ein Monitoring für die SERPs. Außerdem sollte man sich stets um ein besseres SERP-Engagement bemühen. Mit Hilfe von A/B-Testings kann das perfekte Snippet ermittelt werden.
So hast du das noch nie gesehen: Interne Verlinkungsanalyse like a pro
Den letzten Vortrag auf der Main Stage hält Johan von Hülsen. Er befasst sich mit dem sehr wichtigen Thema interne Verlinkung. Zu Beginn geht Johan von Hülsen kurz auf die Grundlagen der internen Verlinkung ein. Anschließend zeigt er uns ein paar Tipps. Sein erster Tipp ist es, eine site-Abfrage auf Google zu einem Themencluster zu machen und zu prüfen, welche Seiten bereits ranken. Diese Seiten sind eine ideale Linkquelle für die interne Verlinkung. Bei seinem nächsten Tipp rät er, die Linktexte so deutlich zu machen, dass es keinen Umgebungstext braucht. Der Nutzer soll nicht erst den Umgebungstext lesen müssen, um zu verstehen, wohin dieser Link führt. Als letzten Tipp empfiehlt er, auf Qualität anstatt auf Quantität zu setzen. Hierfür sollte eine PageRank-Berechnung durchgeführt werden. Dies können zwar die gängigen Tools wie Screaming-Frog, Audisto oder Ryte. Jedoch werden die Links bei diesen Tools nicht individuell gewichtet, wodurch der PageRank nicht ganz so aussagekräftig ist. Deswegen ist es sinnvoll den PageRank selbst zu berechnen.
Zum Schluss gibt Johan von Hülsen noch einen Selbsttest mit auf dem Weg: Man solle testen, ob man die wichtigsten Seiten in der mobilen Version ohne Navi, ohne Footer und ohne Paginierung finden kann. Wenn nicht, dann macht man wohl etwas falsch, sollte die interne Verlinkungsstruktur nochmal anpassen und mehr nach oben und unten verlinken.
Fazit
Auf der SEOkomm 2021 gab es wieder viele spannende Vorträge zu hören, bei denen man einige Learnings mitnehmen konnte. Ein Besuch hat sich auf jeden Fall gelohnt. Die Veranstaltung war gut organisiert und auch der sehr kurzfristig organisierte Stream hat sehr gut funktioniert. Wir freuen uns schon auf die Konferenz im nächsten Jahr.