Das Relaunch-Magazin zur Wiederbelebung Ihrer Website.
6. Februar 2020

Holistische Suchmaschinenoptimierung

Suchmaschinenoptimierung ist nichts, was sich allein mit einer einzigen Maßnahme erledigt hat – stattdessen ist eine ganzheitliche Perspektive wichtig. Wir zeigen die wichtigsten Aspekte, die dafür zu beachten sind.

Dass Suchmaschinenoptimierung keine Marketing-Aufgabe ist, die sich nebenher aus dem Handgelenk schütteln lässt, dürfte sich inzwischen herumgesprochen haben – aber es schreckt doch leider noch oft ab, wie viele unterschiedliche Aspekte im Bereich SEO eine Rolle spielen.

Dabei wäre es eigentlich wichtig, dieses Thema ganzheitlich zu betrachten, also eine holistische Perspektive einzunehmen, die alle Stellschrauben einschließt, mit denen positive SEO-Effekte verbunden sind: Onpage wie Offpage, technisch wie textlich.

Wie auch beim holistischen Webdesign führt eine ganzheitliche Perspektive dazu, dass Probleme gar nicht erst entstehen, weil alle Aspekte des komplexen Themas SEO stets bei jeder Änderung mitgedacht werden, idealerweise von Anfang an („SEO by design“). Deshalb möchten wir hier den Versuch wagen, die wichtigsten SEO-Aspekte zusammenzutragen – eine Zusammenstellung, die in diesem durchaus vielfältigen und schnelllebigen Geschäft allerdings nicht beanspruchen kann, vollständig zu sein.

Inhaltsverzeichnis

Wer optimiert hier eigentlich was?

Gleich zu Beginn lohnt es sich, noch einmal klar zu stellen, was „Suchmaschinenoptimierung“ eigentlich bedeutet. Oft wird der Begriff vereinfacht darauf reduziert, dass man seine Website darauf optimiert, dass sie leichter und besser von den Suchmaschinen (also vor allem Google) indiziert wird.

Tatsächlich kann man die Bedeutung aber auch ins Wörtliche umdrehen: SEO betrifft alle Maßnahmen, die den Suchmaschinen helfen, besser zu werden. Denn es geht nicht unbedingt um eine bessere, höhere Platzierung der eigenen Website bei bestimmten Suchbegriffen (obwohl dies die messbaren Ergebnisse sind), sondern darum, dass über die Suchmaschinen besserer Traffic auf eine Website kommt, also jene Nutzer, deren Bedürfnisse und Fragen mit einer Website genauer angesprochen oder beantwortet werden.

Der Unterschied zwischen diesen beiden Beschreibungen mag an der Oberfläche gering sein, tatsächlich verändert er die Blickweise aber ganz und gar, weil es die Richtung der Optimierung verändert. Das Ziel einer Website muss es zuallererst sein, nützliche Informationen so aufzubereiten, dass die Nutzer (und auch die Suchmaschinen) damit möglichst viel anfangen können. Denn so wird optimiert, wer auf die Seite findet – und damit vor allem, wer auch bleibt und wiederkehrt.

Grundlagen

Suchmaschinen bewerten eine Menge unterschiedlicher Faktoren, die nicht immer vollständig klar sind; Google spricht von mehreren Hundert Faktoren, die für das Ranking einer Website von Bedeutung sind. Wir haben hier nur die wichtigsten Aspekte zusammengetragen, die Sie sinnvoll beeinflussen, wenn nicht sogar steuern können.

E-A-T

Einer der wichtigsten Rankingfaktoren für Google wird mit dem Akronym E-A-T umschrieben: “Expertise, Authoritativeness and Trustworthiness”. Auf Deutsch etwa: Expertise, Autorität und Vertrauenswürdigkeit. Der Algorithmus versucht also jene Websites besonders weit vorne anzuzeigen, die zu einer bestimmten Suchanfrage mit Fachwissen auftreten können, das begründet ist und die Basis für Vertrauen bietet.

Die drei Begriffe beschreiben allerdings schon jeder für sich komplexe Phänomene, die der Algorithmus mit Hilfe zahlreicher, sehr viel spezifischer und kleinerer Phänomene nur ableiten kann. Die meisten der hier im Folgenden beschriebenen Punkte dienen für die Suchmaschinen letztlich dazu, Hinweise auf Expertise, Autorität und Vertrauenswürdigkeit zu sammeln – entweder auf Ihrer eigenen Website oder in der Art und Weise, wie Ihre Website im Rest des Internet wahrgenommen und verlinkt wird.

Theoretisch hieße das natürlich, dass Qualität immer gewinnt. Ganz so einfach ist es natürlich nicht, und schließlich gibt es neben uns selbst, so klug und erfahren und wortgewandt wir auch sein mögen, immer noch sehr viele andere Experten zu fast allen Themen auf der weiten Welt.

Und schließlich: Wir kommen nicht umhin, uns in die Mühen der Ebene, der Erstellung und Präsentation unserer Inhalte, hineinzubegeben. Also auf!

Onpage-Optimierung

Text und Inhalt („Content SEO“)

Der Text, der lesbare Inhalt einer Website ist von zentraler Bedeutung für Suchmaschinen: Nur so können sie überhaupt einordnen, welche Informationen dort zu finden sind, um welche Themen es geht, mit welchen Fragen und Interessen Nutzer sinnvollerweise auf eine Website schauen sollten. Wir haben ein paar Aspekte zusammengetragen, die dabei wichtig sind.

Textlänge (“Content-Größe”)

Es gibt unterschiedliche Konzepte, wie umfangreich einzelne Content-Elemente sein sollen.

  • Holistischer Content: Der Begriff des Holismus wird im Bereich SEO meist für sogenannten „holistischen Content“ verwendet. Damit ist die Empfehlung gemeint, zu den wichtigsten Themen einer Website jeweils auf einzelnen Seiten möglichst lange und vollständige Texte zu platzieren, die die jeweiligen Themen idealerweise erschöpfend behandeln. Aufbereitung und Pflege einer solchen Seite ist natürlich anspruchsvoll – da sie das Thema umfassend beschreiben sollen, müssen sie auch zutreffende Informationen enthalten. Bedenken Sie auch, dass längere Texte leichter dazu führen, dass Ihre Leser sich langweilen – ausführliche Inhalte wollen gut strukturiert und aufbereitet sein.
  • Häppchen-Content: Eine ganz andere Empfehlung geht in die Richtung, eher kleine Informationshappen pro Seite zu produzieren, die fokussiert eine Antwort auf jeweils eine bestimmte Frage geben. Dass es dabei nicht sinnvoll ist, wirklich nur kürzeste Texte zu produzieren, sollte allerdings auch klar sein. Und: Qualität geht auch hier immer vor Quantität!
  • Cornerstone-Content: Dieses Konzept beschreibt im Grunde eine Mischform: Neben vielen kleinen Seiten mit mehr oder minder spezifischen, jedenfalls nicht zu ausführlichen Texten gibt es einige „Ecksteine“, in denen Themen ausführlich präsentiert und diskutiert werden. Von dieser Seite aus können leicht Links zu Seiten gesetzt werden, die sich mit sehr spezifischen Einzelfragen, vor allem aber mit benachbarten Themen beschäftigen. Wichtig ist dabei, dass die „Eckpfeiler“-Seite nicht nur inhaltlich ausführlich ist, sondern auch in der Linkhierarchie der Website eine entsprechend herausragende Position bekommt – ein Thema für die Informationsarchitektur.

Die unterschiedlichen Konzepte, wie Inhalt auf der Seite strukturiert sein soll, sind nur in Grenzen in sich widersprüchlich; derzeit wird meist eine Mischform wie das „Cornerstone“-Konzept empfohlen, weil sich dies auch in der täglichen Praxis bewährt hat.

Für Suchmaschinen ist es allerdings in der Regel nicht so entscheidend, ob Sie auf Ihrer Website sehr regelmäßig und nur selten neue Inhalte publizieren – auch spielt es keine Rolle, ob die Inhalte kontinuierlich aktualisiert werden („content freshness“).

Die Entscheidung für eines der Konzepte orientiert sich also wahrscheinlich besser und vor allem an der Frage, was Sie selbst am besten bewältigen können und was den Interessen Ihrer Kunden und Leser am stärksten entgegenkommt –  schließlich erstellen Sie die Inhalte für sie, nicht für die Suchmaschine.

Es kann auch sinnvoll sein, zunächst viele kleine Informationshäppchen zu publizieren und dabei Stück für Stück einen ausführlichen „Eckstein“ vorzubereiten. Eine solche strategische Vorgehensweise hat auch den Vorteil, dass der Prozess der Content-Produktion und des Publizierens kontinuierlich und an überschaubaren Objekten eingeübt werden kann.

Textqualität und -struktur

Dass der eigentliche Text auf einer Website für die Suchmaschinen entscheidend ist, ist natürlich ein Gemeinplatz. Inzwischen hat sich auch herumgesprochen, dass sich die „Qualität“ eines Textes auch für Google, Bing & Co. nicht mehr nach möglichst vielen und dicht gesetzten Keywords bemisst.

Wichtiger ist, dass der Text gut und leicht lesbar ist – sowohl für Menschen als auch für Algorithmen.

Guter Text für Menschen (und Maschinen)

Menschen mögen es nicht, wenn sie ausschließlich mit langen Schachtelsätzen konfrontiert werden. Kurze Sätze bringen Klarheit. Je mehr Klarheit sie transportieren, desto zufriedener sind die Leser. Und bevor es zu schlicht wird, lässt sich zur Abwechslung wieder ein längerer Satz einfügen, der die Komplexität ein wenig erhöht.

Wenn Sie um den heißen Brei herumreden, verlieren Sie alle Leser, die hauptsächlich nach einer bestimmten Information suchen. Kommen Sie also zum Punkt. Geben Sie Ihrem Text eine klare Struktur, einen Anfang, einen Mittelteil, ein klares Ende – und verraten Sie Ihren Lesern schon früh, was Sie vorhaben. Dann bringen diese auch die Geduld auf, Ihnen ein Stück länger zu folgen. Das ist auch deshalb wichtig, weil die Suchmaschinen inzwischen bewerten, wie lange die Nutzer auf Ihrer Seite bleiben.

Was für Menschen gilt, gilt auch für die Algorithmen: Klare, aktive Sätze verstehen sie besser als verschachteltes Geschwurbel. Je klarer und strukturierter Sie sich also äußern, desto eher finden Leser wie Algorithmen bei Ihnen die entscheidenden Informationen. (Wir haben anderswo schon einmal Gründe dafür gesammelt, warum guter Text wichtig ist – ebenso wie entscheidende Texter-Tipps für SEO-Zwecke und bessere Conversions.)

Guter Text für Maschinen (und für Menschen)

Damit die Crawler der Suchmaschinen Struktur und Inhalt eines Textes gut erfassen können, ist es wichtig, dass insbesondere die Struktur klar durch die tags im HTML-Code beschrieben wird. Das bedeutet insbesondere:

  • Der Text sollte eine konsistente Struktur mit Überschrift und Zwischenüberschriften besitzen. Die Überschrift der Seite wird mit einem <h1>-Tag markiert (von diesem sollte es in der Regel nur einen geben), die verschiedenen Zwischenüberschriften markieren einzelne Abschnitte, klar hierarchisch nach <h2>, <h3> usw.
  • Listen, Zitate und andere Strukturelemente sollten durch die entsprechenden tags markiert aus ausgezeichnet sein.
  • Tabellen können für die Aufbereitung von vergleichbaren Informationen ebenfalls sehr sinnvoll sein.

Fürs menschliche Auge bieten Listen und Tabellen zudem den Vorteil, dass sie nicht nur Abwechslung zum Fließtext bieten, sondern Informationen auch sinnvoll strukturieren, Ähnliches vergleichbar machen usw.

Dass der verwendete HTML-Code standardkonform sein sollte, ist streng genommen ein eher technisches Thema, sollte aber heutzutage eigentlich gar nicht mehr erwähnt werden müssen.

Keywords

„Keyword-Stuffing“ ist schon lange nicht mehr in Mode: Das Vollstopfen eines Textes mit den Schlüsselbegriffen, nach denen Nutzer womöglich suchen könnten, als würde man einen ausgenommenen Truthahn mit Bratensauce und Esskastanien stopfen, bevor man ihn in den Ofen schiebt. (Oder was auch immer Ihnen der Appetit eingibt.)

Die oberste Direktive lautet stattdessen, siehe oben: Lesbarkeit. Ein Text, den ich gerne lesen mag und der mich gut über ein bestimmtes Thema informiert, wird die entsprechenden Schlüsselbegriffe nahezu zwangsläufig schon enthalten – auch in hinreichender Häufigkeit. Eine sogenannte WDF/IDF-Analyse (Within Document Frequency/Inverse Document Frequency) kann und sollte allenfalls dazu dienen, auf möglicherweise fehlende Aspekte und Begriffe hinzuweisen. Es geht dabei also nicht um “Keyword-Dichte”, sondern darum sicherzustellen, dass alle wichtigen Begriffe und Themen auch wirklich vorkommen.

Es kann allerdings hilfreich sein, die entscheidenden Termini dort unterzubringen, wo Menschen und Suchmaschinen sie auch herausgehoben wahrnehmen: In den Überschriften und Zwischenüberschriften.

Bilder

Bilder stellen für Suchmaschinen ein gewisses Problem dar, weil sie sich nicht so leicht auslesen lassen wie Text. Freilich lernen die Systeme inzwischen auch das  – aber bis die Google-KI alle Bilder selbständig erkennt und richtig einzuordnen versteht, wird noch etwas Zeit ins Land gehen.

Da ist es doch besser, auf die Reihe von einfachen Maßnahmen zurückzugreifen, die es Google & Co. leichter machen, auch die Bilder, ihre Verwendung und Bedeutung zu verstehen:

  • Verwenden Sie sprechende Dateinamen, die das abgebildete Motiv oder Thema beschreiben, also statt “pic_09ax34.jpg” etwa “schwarzwaelder-kirschtorte.jpg”
  • Benutzen Sie das alt-Attribut im HTML-Code, um das Motiv zu beschreiben. Dieses wird auch von sog. Screen Readern genutzt, um barrierefreien Zugang z.B. für sehbehinderte Menschen zu erleichtern.
  • Verwenden Sie Bildunterschriften und title-Attribut, um Bedeutung und Kontext des Bildes klar zu beschreiben.

Zusätzlich sollte auch darauf geachtet werden, dass Bilder in einem geeigneten Bildformat integriert werden und Bildgröße wie Dateigröße angemessen sind.

Technik („Technical SEO“)

Auch technische Aspekte wie Servergeschwindigkeit und URLs beeinflussen das Ranking bei den Suchmaschinen.

Ladezeiten

Google bevorzugt unter gleichwertigen Seiten grundsätzlich jene, die schneller laden, d.h. die dem Nutzer nach dem Aufruf schneller zur Verfügung stellen. Das dahinterliegende Argument ist, dass bei Ladezeiten über 3 Sekunden die Wahrscheinlichkeit auf 90% steigt, dass Nutzer abspringen.

Es gibt eine Reihe von unterschiedlichen Werten, die sich für die Geschwindigkeitsmessung erfassen lassen, die wichtigsten sind diese vier:

  • Time To First Byte/Response Time („Serverantwortzeit“): Zeitpunkt, zu dem der Website-Server erstmals eine Antwort sendet.
  • First View/First Contentful Paint („Erste Inhalte“): Zeitpunkt, zu dem der erste Text oder das erste Bild angezeigt wird.
  • Time To Interactive („Zeit bis Interaktivität“): Zu diesem Zeitpunkt ist die Seite vollständig interaktiv, d.h. sie reagiert auf alle Eingaben und Klicks.
  • Page Load Time („Ladezeit“): Zeit, bis die Seite vollständig geladen ist.

Die Page Speed Insights von Google analysieren die Geschwindigkeit Ihrer Website und geben auch gleich hilfreiche Tipps, was sich noch wie verbessern ließe. Webpagetest.org und Pingdom messen auch die Zugriffszeiten von verschiedenen Standorten weltweit.

Die Gründe für langsame Ladezeiten sind vielfältig; es beginnt bei der Leistungsfähigkeit und Anbindung des betroffenen Webservers, schließt die Dateigröße von integrierten Bildern und Videos natürlich ein und endet noch lange nicht damit, dass manche modernen Content Management Systeme (CMS)  relativ viel Code aufrufen, bevor eine Seite angezeigt werden kann.

Entsprechend unterschiedlich sind die Möglichkeiten, schlechte Ladezeiten zu verbessern: Besserer Server, schlankerer Code – oft hilft auch das Zwischenspeichern („Caching“) von einzelnen Seiten, um signifikante Verbesserungen zu erzielen. Auf jeden Fall sollte sich ein Experte dieser Angelegenheit annehmen.

Mobile Nutzbarkeit

Bereits seit 2015 wertet Google es als positiv, wenn eine Website sich mobilfreundlich („Mobile Friendliness“) darstellen lässt, wenn sie also auf Smartphones und Tablets gut angezeigt wird. Drei Jahre später wurde der sogenannte „Mobile-First-Index“ eingeführt, bei dem die Suchmaschine für einige Websites (und immer bei neu registrierten Websites) ausschließlich jene Ergebnisse indiziert, die sich über die mobile Website aufrufen lassen.

Google reagierte mit diesen Updates insbesondere darauf, dass inzwischen zwei Drittel aller Suchanfragen von mobilen Endgeräten kommen – und die Nutzer natürlich auch erwarten, dass sie sich die Suchanfragen dann auch angemessen anzeigen lassen können.

Das bedeutet: Das Zeitalter von reduzierten „mobilen Versionen“ einer Website mit weniger Informationsgehalt ist endgültig vorbei. Stattdessen sollten Websites bei Neuerstellung oder Relaunch immer so geplant werden, dass sie entweder vollständig auch mobil aufgerufen werden können – beziehungsweise, dass sie direkt mit responsive Webdesign so geplant sind, dass sie auf allen Endgeräten gleichermaßen darstellbar sind.

Secure Sockets Layer (SSL)/https

Wenn eine Website per SSL (inzwischen eigentlich Transport Layer Security, TLS) aufgerufen wird, baut sich eine verschlüsselte Verbindung zwischen dem Webserver und dem Browser des Nutzers auf – von außen ist dann nicht mehr erkennbar, welche Daten genau zwischen den beiden Verbindungspartnern versandt wurden. Erkennbar ist das in der Regel am „https“ (statt „http“) zu Beginn der Adresszeile. Moderne Browser zeigen sichere Verbindungen auch durch ein grünes Schloss oder ein vergleichbares Icon in der URL-Zeile an.

Google wertet eine Verwendung des HTTPS-Protokolls schon seit 2014 als positiven Ranking-Faktor; inzwischen warnt Googles Browser Chrome ausdrücklich und sichtbar vor Seiten, die diesen Sicherheitsstandard nicht einhalten.

Sollten Sie über die Website personenbezogene Daten versenden (lassen), etwa über Kontaktformulare oder während Kaufvorgängen, verpflichtet Sie das Europäische Datenschutzrecht sowieso zur Nutzung von HTTPS, da sonst übertragene Informationen (also ggf. auch Adress- oder Kreditkartendaten) abgefangen bzw. mitgelesen werden könnten.

Suchmaschinenfreundliche URLs

Welche Bedeutung lesbare URLs für die Suchmaschinenoptimierung haben, ist umstritten. Von den Spezialisten bei Google war immer wieder zu hören, dass Keywords in der URL keine besondere Bedeutung für das Ranking haben; dass man aber zum Beispiel einen Domainnamen verwenden sollte, der dem eigenen Markennamen idealerweise entspricht, ist sicherlich keine Überraschung.

Trotzdem sollte eine ideale URL ein paar Kriterien erfüllen:

  • Sie ist nicht zu lang (idealerweise zwischen 50 und 80 Zeichen)
  • Sie endet auf einen Schrägstrich (ist nicht zu lang https://baecker-kruse.biz/kuchen/ statt https://baecker-kruse.biz/kuchen).
  • Sie ist nicht kryptisch, sondern sprechend: statt https://baecker-kruse.biz/geb-001.html empfehlen wir eher https://baecker-kruse.biz/hier-gibt-es-kuchen/.
  • Sprechende URLs enthalten fast zwangsläufig und sinnvollerweise auch das für Ihre Seite entscheidende Keyword.
  • Wörter in der URL sind idealerweise durch einen Bindestrich getrennt.

Was auch noch helfen kann: https://baecker-kruse.biz/gebaeck/kekse/ erlaubt schon in der URL einen Blick auf die Struktur der Website – dies reicht dann aber schon in den Bereich der Informationsarchitektur hinein.

Bei größeren Arbeiten an der Website, einem großen Relaunch oder einer nicht ganz so großen Umstrukturierung, kann es passieren, dass sich die URL einzelner Seiten verändert.

Damit diese Seiten dabei nicht einfach aus dem Index fallen (weil sie für die Bots der Suchmaschinen einfach verschwunden sind) und die mit ihnen erarbeitete Reputation wegfällt, muss zum Relaunch darauf geachtet werden, dass für die alten URLs feste Weiterleitungen auf die neuen URLs eingerichtet werden; dies ist auf Webservern aller Arten eigentlich problemlos möglich. Die Weiterleitungen sollten ohne zeitliche Begrenzung aufrecht erhalten bleiben, damit auch Nutzer, die über alte Verlinkungen auf Ihre Website kommen, nicht unnötigerweise auf einer 404-Seite („Page not found“) landen.

XML-Sitemap

Eine maschinenlesbare Sitemap, also eine strukturierte Liste der auf einer Website vorhandenen EInzelseiten, hilft den Bots der Suchmaschinen, sich schnell einen Überblick über die einzelnen Seiten zu verschaffen und diese korrekt und vollständig zu indizieren.

Nofollow/Noindex

Mit den Meta-Informationen “noindex” und “nofollow” werden Suchmaschinen-Bots darüber informiert, dass sie ein bestimmte Seite explizit nicht in den Index mit aufnehmen sollen bzw. den Links von einer Seite (oder einem spezifischen Link) nicht weiter folgen sollen.

Der Einsatz dieser Tags sollte zurückhaltend und mit Augenmaß erfolgen; er ist vor allem sinnvoll für Seiten, die inhaltlich nicht für Ihr Angebot relevant sind, aber dennoch eingebunden werden müssen.

Informationsarchitektur („Structural SEO“)

Die innere Struktur einer Website, d.h. wie Informationen verteilt oder wo welche Inhalte präsentiert werden, gehört zu den Kernaufgaben der Informationsarchitektur (Information Architecture oder IA). Hier ist es besonders sinnvoll, wenn SEO-Themen bereits bei der Planung einer Website oder eines Relaunches frühzeitig berücksichtigt werden, weil spätere strukturelle Änderungen natürlich immer besonders viel Aufwand mit sich bringen.

Inhaltliche Strukturen schaffen

Zusammenhängende Themen sollten auch miteinander verknüpft werden – was sich unmittelbar logisch anhört, kann aber bei der Planung komplexer Websites auch einmal etwas in Vergessenheit geraten.

Die Verknüpfungen von inhaltlich verwandten Seiten kann und sollte auf zweierlei Weisen geschehen: Zum einen ist es sinnvoll, sie unmittelbar als hierarchisch zusammenhängende Seiten anzubieten – mit Übersichtsseite auf den höheren Ebenen, Detailseiten auf tieferen – und dies z.B. auch in der URL-Struktur mit abzubilden. So wird für den Googlebot der Zusammenhang zwischen den Seiten unmittelbar sichtbar.

Zum anderen sollten natürlich auch die Verlinkungen diese Hierarchie abbilden bzw. dafür sorgen, dass thematische bzw. semantische Cluster (also Ansammlungen von Seiten, die inhaltlich von einem Thema bzw. einer Keyword-Gruppe handeln – dies ist nicht zuletzt für den oben beschriebenen Cornerstone-Content von Bedeutung) auch besonders eng und sinnvoll miteinander verlinkt sind.

Sinnvolle interne Verlinkungen und Link-Benennungen

Die gleiche Regel gilt auch für alle Seiten einer Website, die thematische Bezüge zueinander aufweisen: Verlinkungen sollten gesetzt werden, wann immer sie sinnvoll sind – und dann ist es auch sinnvoll, dass der auf einer Seite verlinkte Text tatsächlich klar und nachvollziehbar andeutet, auf welchen Inhalt verlinkt wird.

Für Suchmaschinen ist eine Formulierung wie „Das Dokument zur Anmeldung finden Sie hier.“, bei der nur das „hier“ verlinkt ist, nur mit Mühe sinnvoll interpretierbar. „Melden Sie sich jetzt an!“ oder „Hier direkt zur Anmeldung!“ bietet nicht nur einen sprechenden Linktext für die Bots, sondern enthält auch gleich noch eine direkte Ansprache und Aufforderung für Ihre Nutzer.

Hierarchie abbilden

Idealerweise wird die Struktur der Website – die thematischen Verbindungen der einzelnen Seiten auch in der Hierarchie der Navigation und in den URLs sichtbar. Dann gäbe es etwa beim fiktiven Bäcker Kruse Seiten zu “Brötchen” und zum Thema “Kuchen”, die aber beide dem Thema “Backen” untergeordnet sind – die URLs wären dann entsprechend https://baecker-kruse.biz/backen/broetchen/ sowie https://baecker-kruse.biz/backen/kuchen/, nicht aber https://baecker-kruse.biz/backen/ neben https://baecker-kruse.biz/broetchen/ und https://baecker-kruse.biz/kuchen/. 

Wie Hänsel und Gretel im Märchen können Sie für den Nutzer – und für die Suchmaschinen – “Brotkrumen” hinterlassen, die ihnen helfen sollen, sich auf Ihrer Website zurechtzufinden.

Diese “Breadcrumbs” lassen sich idealerweise auf Ihrer eigenen Website integrieren und helfen dem Nutzer, sich innerhalb des Angebots und der Hierarchie zu orientieren; das kann dann zum Beispiel so aussehen:

Breadcrumbs auf der Seite des Bundesministeriums für Ernährung und Landwirtschaft

Die gleiche Seite sieht dann in der Übersicht der Suchergebnisse so aus:

Breadcrumbs in einem Google-Suchergebnis für das Bundesministerium für Ernährung und Landwirtschaft

Auch dort werden also die Breadcrumbs (ganz oben) direkt mit übernommen, um so dem Nutzer zu zeigen, in welchem Bereich der Zielseite er ankommen wird, wenn er auf den Link klickt.

Duplicate Content vermeiden

Suchmaschinen freuen sich besonders über einzigartige Inhalte – also Content, den sie nur an einer Stelle finden. Sogenannter „Duplicate Content“ („Verdoppelter Inhalt“) beschreibt identische Inhalte, die unter verschiedenen URLs im Netz zu finden sind. Duplicate Content kann zu schlechteren Rankings in den Suchmaschinen führen, da überall und mehrfach verfügbare Inhalte von den Algorithmen als nicht so wertvoll erachtet werden.

Man unterscheidet zwischen externem und internem Duplicate Content – also doppelten Inhalten, die sich auf verschiedenen Domains oder unter Ihrer eigenen Domain finden.

Externer Duplicate Content

Es gibt verschiedene Ursachen für externe Duplicate Content ­– manche nimmt man sogar gerne in Kauf. Pressemitteilungen zum Beispiel sollen durchaus ihren Weg zu Nachrichtendiensten und Presseportalen finden, Ihre Produktbeschreibungen vielleicht in Shops auftauchen. Ärgerlicher sind dann schon Websites, die Inhalte in identischer Form kopieren, um ihre eigenen Seiten aufzuwerten („Content Scraping“) oder sich jedenfalls den Aufwand zu sparen, der mit der Erstellung der Inhalte verbunden wäre.

Es gibt eine Reihe von Tools, mit denen sich (teilweise) Kopien Ihrer Seite auffinden lassen; ein solches Werkzeug ist Copyscape, das eine erste Suche auch kostenlos erlaubt und mögliche Plagiate oder Dopplungen zusammenträgt.

Interner Duplicate Content

Interner Duplicate Content entsteht auf Seiten mit großen Inhaltsmengen relativ leicht – etwa durch

  • Identische oder sehr ähnliche Produktbeschreibungen
  • Übersichtsseiten für Filter oder Schlagwörter, Archive und Kategorien
  • Suchergebnisseiten

100% „Unique Content“ – also einzigartigen Inhalt – werden Sie in der Regel nicht erreichen, weil es immer geringe Übereinstimmung auf den Seiten Ihrer Website geben wird – und sei es nur im Bereich der Navigation oder den Kerninformationen über Ihr Unternehmen. Das ist aber für die Suchmaschinen auch kein Problem.

Das Tool Siteliner erlaubt einen schnellen Überblick über Duplicate Content auf Ihrer Website. Sie erhalten eine detaillierte Aufstellung der Ergebnisse und insbesondere eine prozentuale Angabe, wie hoch der Anteil an doppelten Inhalten ist. Auch das Tool Screaming Frog kann da hilfreich sein.

Weitgehend identische Seiten sollten allerdings vermieden werden. Für die Indizierung durch Suchmaschinen kann es hilfreich sein, Übersichtsseiten und Suchergebnisse per „noindex“-Metatag im HTML-Code so zu markieren, dass sie von den Bots nicht indiziert werden.

Es gibt darüber hinaus auch noch ein paar Gründe für internen Duplicate Content, die eher in technischen Rahmenbedingungen zu suchen sind – und auch leicht technisch gelöst werden können:

  • Webseite ist mit und ohne „www“ in der URL erreichbar
  • Webseite ist per „http“ und per „https“ erreichbar
  • URL-Parameter und Session-IDs
  • Eigene Webseite für mobile Endgeräte mit identischem Inhalt

Für die technischen Probleme lassen sich relativ leicht Lösungen umsetzen: Ihre Website sollte (auch aus anderen Gründen) immer nur per „https“ aufgerufen werden können, ob mit oder „www“ in der URL muss einmal entschieden und dann per Weiterleitungen fest eingerichtet werden. Und für die mobile Website empfiehlt sich entweder ein Relaunch mit responsive Webdesign – oder in einem technisch etwas weniger aufwändigen Schritt der konsequente Einsatz des canonical-Tags.

Das gleiche gilt für Seiten, die durch URL-Parameter und/oder Session IDs mehrfach auftauchen könnten: Auch sie sollten mit einem „canonical URL“-Tag auf die zu indizierende „Haupt-URL“ verweisen.

Meta-Daten

Aus den sogenannten „Meta-Tags“ des HTML-Codes beziehen die Suchmaschinen wesentliche Informationen über die indizierte Seite; wichtig sind dort zunächst vor allem zwei Elemente, deren Inhalte auf den Suchmaschinenergebnisseiten (Search Engine Result Pages, SERP) angezeigt werden:

  • title: Hier verbirgt sich der Titel der Website, wie er im Suchergebnis angezeigt wird. Er wird von den Suchmaschinen indiziert und muss nicht mit der auf der Website angezeigten Haupt-Überschrift (korrekterweise im <h1>-Tag) übereinstimmen.
  • description: Die Beschreibung der Seite fasst idealerweise präzise zusammen, was die Nutzer auf der Website erwarten können – oder bringt sie jedenfalls dazu, auf das entsprechende Suchergebnis zu klicken. Sie spielt für die Indizierung durch Google keine Rolle.

Die entscheidende Bedeutung dieser beiden Meta-Tags liegt darin, dass sie mit darüber bestimmen, ob die Nutzer auf das entsprechende Suchergebnis klicken oder nicht – und ihr Verhalten hat dann wieder Einfluss auf das Ranking der Seite, also ihre Position in den Suchergebnissen. Auf die Formulierungen in diesen beiden Elementen sollten Sie also besonders viel Sorgfalt verwenden. Sowohl der Meta-Titel als auch die Meta-Beschreibung sollten jeweils eine bestimmte Zeichenlänge (70 bzw. 160 Zeichen) keinesfalls überschreiten.

Mit geeigneten Tools, z.B. dem SERP Snippet Generator von Sistrix, lassen sich die eigenen Ideen schon einmal überprüfen und im Design der SERP anzeigen:

Meta-Tags ausprobieren im SERP Snippet Generator von Sistrix

Neben den Meta-Tags für Suchmaschinen gibt es außerdem noch die sogenannten Open Graph- und Twitter:Cards-Tags, die ähnliche Informationen für Social Media-Plattformen wie Facebook und Twitter bereitstellen; hier können auch noch weitere Informationen eingebunden werden, etwa ein Bild, das bei Verlinkungen dargestellt werden soll, der Name und die Social Media-Präsenz des Autors usw.

Strukturierte Daten

Mit „strukturierten Daten“ werden Informationen beschrieben, die nach fest vorgegebenen Schemata eine konkrete, maschinenlesbare Beschreibung des Inhalts einer Seite (oder von Teilen davon) enthalten.

Der Suchmaschinenalgorithmus erkennt zum Beispiel die Postanschrift Ihres Unternehmens nicht automatisch – auch wenn er inzwischen wahrscheinlich gut erraten kann, was genau die Adresse ist. Wenn Sie ihm die Anschrift jedoch präzise strukturiert vorlegen, kann er sie auch korrekt wiedergeben – und zum Beispiel den Nutzern auch gleich für Karten- und Navigationsdienste anbieten.

Der plattformübergreifend am weitesten verbreitete Standard für strukturierte Daten stammt von der Initiative schema.org. Das „Vokabular“ dieses Standards kann in verschiedener Art und Weise technisch eingebunden werden, zum Beispiel über Microdata, JSON-LD und RDFa.

Strukturierte Daten lassen sich zuallererst dafür verwenden, einzelne Seiten oder Seitenelemente als eine bestimmte Textform zu kennzeichnen: So erkennt die Suchmaschine sofort, ob es sich um einen Blog- oder Zeitungsartikel, ein Kochrezept oder eine Produktbeschreibung handelt. Darüber hinaus können so z.B. Kundenbewertungen markiert, Videos und Adressen genauer beschrieben werden.

Google hat auch ausführliche Anleitungen dazu bereitgestellt, wie strukturierte Daten funktionieren und in eine Website integriert werden können.

Gut mit strukturierten Daten erläuterte Seiten können von Google bevorzugt werden, wenn sie inhaltlich wie technisch korrekt implementiert wurden – insbesondere dürfen sie auf keinen Fall Inhalte oder Inhaltsformen vortäuschen, die dann für die Nutzer nicht zu finden sind.

Strukturierte Daten können sich auch sichtbar in den SERP-Ergebnissen niederschlagen; Google gibt bei entsprechenden Auszeichnungen zum Teil sogenannte „Rich Snippets“ aus, also Suchergebnisse, die mit weiteren Informationen wie dem Namen des Autors oder aggregierten Kundenbewertungen versehen sind. Das könnte dann z.B. so aussehen:

Rich Snippet: Suchergebnis mit Zusatzinformationen
Für Internationales: Domainstrategie

Für Unternehmen, die in verschiedenen Ländern aktiv sind, kann es sinnvoll sein, für jedes dieser Länder eine eigene Webpräsenz mit entsprechender Länderdomain anzulegen (also z.B. für die deutsche Präsenz mit .de-Top Level Domain, für Großbritannien mit .co.uk etc.). Sinnvollerweise können diese Seiten dann auch in der bzw. den jeweiligen Landessprache(n) publiziert werden.

Dies sollte aber im Rahmen einer übergreifenden Strategie geschehen, die verschiedene Faktoren mit berücksichtigt – das beginnt mit einer Content-Strategie, die überflüssige Mehrarbeit ebenso vermeidet wie Duplicate Content, und endet noch nicht bei einer wohl überlegten Domainstrategie. Wir haben in einem eigenen Artikel beschrieben, welche wichtigen Erfolgsfaktoren es für internationale SEO-Strategien zu beachten gibt.

Offpage-Optimierung

Mit “Offpage-SEO” sind alle SEO-Maßnahmen gemeint, die nicht auf der eigenen Website stattfinden – also auf anderen Websites, aber auch in Sozialen Netzwerken und anderswo.

Linkbuilding

“Linkbuilding” gehörte zu den frühesten SEO-Maßnahmen überhaupt und spielte eine große Rolle, als die Suchmaschinen einer Seite vor allem dann Qualität zusprachen, wenn sie von vielen anderen Seiten verlinkt wurde. In den Wildwest-Zeiten des Linkbuilding versuchte man deshalb noch, wahllos Links zur eigenen Seite ohne Kontext auf irgendwelchen Websites zu platzieren.

Heute würden solche Praktiken eher abgestraft, Google zum Beispiel legt auch bei den Links wesentlich größeren Wert auf Qualität denn auf Quantität. Auch eine schnelle, wahllose Zunahme von externen Links würde der Algorithmus womöglich skeptisch beäugen – für die Suchmaschinen sollen Links erarbeitet werden, nicht erkauft.

Links von manchen Seiten, die als problematisch oder als “Linkschleudern” gelten, können für das eigene Ranking sogar schädlich sein; es besteht dann im Einzelfall die Möglichkeit, diese von Google ignorieren zu lassen. Hier kann ein Experte sinnvolle Einschätzungen abgeben und ggf. weiterhelfen.

Markennennungen

Aktuelle Suchmaschinen gehen inzwischen weit über die reine Bewertung von Links hinaus. Gerade was Personennamen und Markenbezeichnungen angeht, spielen auch andere Faktoren noch eine Rolle. So können Beiträge auf anderen Seiten durchaus für die generelle Bedeutung eines Markennamens eine Rolle spielen, etwa Zeitungsberichte, und das selbst dann wenn der jeweilige Name (oder gar der ganze Artikel) nicht mit einem Link zu Ihrer Website versehen ist.

Daraus folgt aber natürlich auch, dass sich die Reputation des eigenen Namens und der eigenen Website auch gezielt durch (Gast-)Beiträge auf anderen Websites (Zeitschriften, Blogs, Podcasts) steigern lässt. Links schaden dann selbstverständlich nicht, ganz im Gegenteil; die Reputation und Vertrauenswürdigkeit der Websites, auf denen publiziert wird, spielt hingegen eine große Rolle

Social Signals

Auch an den Suchmaschinen sind Soziale Netzwerke nicht vorbeigegangen. Auch wenn sich diese zum Teil notorisch schlecht indizieren lassen (Facebook z.B. taucht in Google-Ergebnissen nur sporadisch auf, und stark visuell orientierte Plattformen wie Instagram, Pinterest oder TikTok bringen eigene Probleme mit sich), so fließen häufige Nennungen von Markennamen, Links, die auf den Plattformen zu Ihrer Website gepostet werden, sowie Likes, Reposts und andere Reaktionen anscheinend doch in die Bewertung der Algorithmen mit ein.

Die tatsächliche Bedeutung der Social Signals fürs SEO ist jedoch unklar und sollte nicht überbewertet werden; sie können aber natürlich auf Ihre Weise wichtige Traffic-Quellen für Ihre Website sein.

Fazit

Wie diese – wie gesagt bewusst unvollständige – Übersicht zeigt, gibt es viele unterschiedliche Aspekte, die für das Ranking Ihrer Website bei Suchmaschinen eine Rolle spielen. SEO ist keine Aufgabe, die sich mit wenigen Klicks abhaken lässt, sondern eben das ganzheitliche Zusammenspiel zahlreicher Einzelmaßnahmen.

Beim kompletten Relaunch einer Website ist es deshalb von großer Bedeutung, SEO von Grund auf und in allen wichtigen Fragen mitzudenken – und die Gestaltung und den Aufbau der Website danach auszurichten (“SEO by design”).

Nicht alle Aspekte sind für jede Website von gleich großer Bedeutung; in bestimmten Fällen können sogar in einzelnen Bereichen ganz andere Regeln gelten. Es empfiehlt sich deshalb immer, einen SEO-Experten hinzuzuziehen, der schon bei einer ersten Analyse wichtige Gebiete und Themen identifizieren kann.

Bei allen erforderlichen Maßnahmen gilt natürlich, wie stets: Analysieren, priorisieren, planen, umsetzen – und anschließend nicht vergessen, auch zu messen, ob der erwünschte Erfolg sich auch eingestellt hat. Denn SEO ist ja nicht mit einem Arbeitsgang erledigt, sondern muss kontinuierlich mitgedacht und verbessert, auch immer wieder neu angegangen werden. Dafür sorgen allein schon die regelmäßigen Google Updates (wie zuletzt BERT).

TEILEN
Tags

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

Top