Onpage-Optimierung

Was bedeutet eigentlich Onpage-Optimierung? Nachfolgend werden die Aufgaben und Ziele einer Verbesserung der eigenen Website im Rahmen der Suchmaschinenoptimierung formuliert und in die Arbeitsbereiche positionieren, aggregieren, präsentieren eingeteilt. Ein Maßnahmenkatalog wird vorgestellt und an einigen Beispielen der Umfang der Möglichkeiten angedeutet und die Verflechtung von technischen und inhaltlichen Methoden skizziert.

Aufgaben und Ziele der Onpage-Optimierung

Im Rahmen der Suchmaschinenoptimierung konzentriert sich der Teilbereich Onpage-Optimierung oder auch Onsite-Optimierung auf die Verbesserungsmöglichkeiten, die auf der zu verbessernden Website selbst durchführbar sind (im Gegensatz zur Offpage-Optimierung, bei der versucht wird, Einfluss auf fremde Seiten zu nehmen). Ziel ist stets, die eigenen Internetseiten bzw. die des Auftraggebers bei konkreten Suchanfragen möglichst hoch in den sogenannten organischen Suchergebnissen von Google und Co. erscheinen zu lassen - die ersten drei bis fünf Ergebnisplätze sind hierbei besonders relevant.

Above the fold
Above the fold (Zeitung) = above the scroll (Display): Die auf dem Bildschirm zuerst sichtbaren Suchergebnisse werden besonders häufig angeklickt. Erst wenn diese Ergebnisse uninteressant wirken, werden weitere Treffer in den Sichtbereich gescrollt. Und nur aus Not werden nachfolgende Erbegnisseiten aufgerufen.

Zudem ist es Aufgabe der Onpage-Optimierung, die Suchergebniss-Darstellung in der SERP (Search Engine Results Page) einladend zu gestalten, um das Interesse der Suchenden zu wecken und sie von dort abzuholen, neue Leserinnen und Leser zu aggregieren.

Yoast WordPress-SEO: Snippet-Vorschau
Snippet-Vorschau im WordPress-SEO-Plugin von Yoast. So kann das sogenannte Snippet auf der Trefferseite einer Suchmaschine aussehen. Eine Garantie gibt es allerdings nicht: Google passt die Informationen zum Link nach eigenem Geschmack bzw. Algorithmus an.

Und schließlich sollte im Sinne einer 'ganzheitlichen' Onpage-Optimierung dafür Sorge getragen werden, dass die Ankunft der Besucher möglichst angenehm ausfällt: Die sogenannte Landingpage, die Landebahn also, die den Erstkontakt der Internetreisenden mit der Website darstellt, sollte übersichtlich, informativ, benutzerfreundlich gestaltet sein und direkten Bezug zum gesuchten Stichwort bzw. zur Keyword-Kombination aufweisen.

Onpage optimieren: positionieren → aggregieren → präsentieren

  1. die eigenen Seiten in den SERPs positionieren
  2. Leserinnen und Leser mittels der Suchmaschinen aggregieren
  3. den Besuchern relevante Informationen auf den Landingpages präsentieren

Maßnahmen zur Onpage-Optimierung einer Website

Die Maßnahmen zur Onpage-Optimierung einer Website erstrecken sich von rein technischen Verbesserungen der Serverkonfiguration über technisch-syntaktische Eingriffe in den Quelltext der Seiten bis hin zu strukturellen und semantischen Veränderungen auf der Inhaltsebene. Hierbei sind die Übergänge von technischen Optimierungen zu inhaltlichen Verbesserungen fließend.

Auf der technischen Seite bilden folgende Aspekte einen Schwerpunkt:

  • die Performance des Servers und des benutzten Content-Management-Systems
  • die Einhaltung, Fehlerfreiheit und möglichst 'schlanke' Ausführung von Internetstandards
  • die interne Verlinkung und daher gute Auffindbarkeit der einzelnen Seiten
  • das Vermeiden von Duplicate Content innerhalb der Website
  • die Beschleunigung oder die Vermeidung des Nachladens externer Resourcen

Verbesserungen im Verantwortungsbereich des Autors sind beispielsweise:

  • zielgerichtete Formulierung von Beitragstiteln und -beschreibungen
  • regelkonforme Strukturierung der Texte mit HTML-Syntax
  • Hervorhebung von Schlüsselbegriffen mit HTML-Syntax
  • Interne Verlinkung über Keywords innerhalb des Textes
  • Anreicherung der Beiträge mit Bildern, Videos, Auflistungen, Tabellen

Beispiele technischer und inhaltlicher Optimierungsmaßnahmen

Nachfolgend sollen einige Beispiele den Umfang der Onpage-Optimierungsmöglichkeiten andeuten sowie die Verflechtung der Arbeitsbereiche von Techniker und Autor, von Syntax und Semantik, aufzeigen.

Ladezeiten der Website verbessern und Absprungrate reduzieren

Die Zeit, die ein Server zum Ausliefern einer aufgerufenen Internetseite benötigt, ist nicht nur für den wartenden Betrachter ein Qualitäts- oder aber K.o.-Kriterium. Auch die Suchmaschinen messen und bewerten die durchschnittlichen Ladezeiten, um ihren Kundinnen und Kunden, den Suchenden, ein optimiertes Ergebnis oder optimales Erlebnis sogar noch beim Weg-Klick von der Suchseite zu bieten. Dauert der Aufbau der angeklickten Seite zu lange, ist der Suchende mit dem Back-Button des Browsers schnell wieder auf Ausgangsposition, um ein nächstes Suchergebnis auszuwählen.

Diese sogenannte Absprungrate (Bounce Rate) weist die Suchmaschinen nicht nur auf technische Probleme der verlinkten Seite hin. Sie kann auch auf mangelnde Inhalte deuten, die den Besucher nicht befriedigten und somit bezüglich seiner Suchanfrage vielleicht doch nicht den Stellenwert aufweisen, die die Suchmaschine ursprünglich für die Seite berechnet hatte. Häuft sich dieses Absprung- bzw. Rücksprungverhalten, ist eine Abwertung der betroffenen Internetseite naheliegend.

Die technischen Möglichkeiten zur Verbesserung von Ladezeiten bzw. zur Reduzierung der Bounce Rate beginnen bereits bei der Wahl des Providers. Die beworbenen Servereigenschaften sind diesbezüglich allerdings nur selten aufschlussreich. Angaben beispielsweise zur Anzahl der Kunden, die sich einen Server teilen müssen, finden sich kaum, obwohl sie doch relevanter wären als die Taktung des Prozessors oder die Größe des Festplattenspeichers. Bedingt hilfreich sind hier Tools zur Ladezeitenanalyse, die zudem weiteres technisches Optimierungspotential auflisten, zum Beispiel den serverseitigen Einsatz von Komprimierungsverfahren oder Caching-Methoden.

Webmaster-Tools Ladezeiten
Die Google Webmaster-Tools geben einen grafischen Hinweis auf die Ladezeiten einer Website - auch Googles Crawler möchte fertig werden, Zeit ist Geld. Alles unter 1.400ms kann als gut hingenommen werden, Ausreißer sind uninteressant.

Auch die Wahl des Content-Management-Systems kann positiven Einfluss auf die Performance der Website haben, bestimmt doch die Programmarchitektur nicht unerheblich die Geschwindigkeit, mit der die Quelltexte an den Browser ausgeliefert werden. Unnötige Zusatzfunktionen oder schlecht programmierte Plugins können hier ebenso störend wirken wie der Einsatz von Cache- und Komprimierungs-Plugins förderlich sein kann. Auch kann die Einbindung externer Resourcen den Seitenaufbau hemmen, beispielsweise die unnötige Einbindung von Web-Fonts oder die Nutzung von Gravatar-Bildern, die extern geladen werden und so den eigenen Seitenaufbau abhängig machen können von den Antwortzeiten fremder Server.

Nicht zuletzt sind die Inhalte selbst verantwortlich für deren schnelle Übertragung. Die Textlänge spielt hier keine signifikante Rolle, wohl aber die Größe von Bildern und Videos sowie Musikdateien. Spätestens an diesem Punkt ist die Mitarbeit der 'Content-Maker', der Autorinnen und Autoren, gefragt. Die richtige Art der Komprimierung ist hier ebenso relevant wie zum Beispiel die Entscheidung, ob die Einbindung von Hintergrundmusik sinnig ist, ob ein Video in die Seite integriert werden muss oder eine Verlinkung und eventuell Auslagerung auf einen spezialisierten Server ausreicht.

Verdopplung von Inhalten vermeiden und Trust-Flow optimieren

Duplicate Content, also duplizierter Inhalt, entsteht nicht nur durch Content-Scraping oder das Paraphrasieren von Texten fremder Internetseiten. Auch die eigene Website kann intern für eine Verfielfachung von Inhalten sorgen. Einfachstes Beispiel ist die Erreichbarkeit einer Internetseite sowohl über domainname.de als auch über www.domainname.de - hierdurch wird gleich die komplette Website gespiegelt, also verdoppelt. Das Problem entsteht stets, wenn ein Beitrag über mehrere Internetadressen aufrufbar ist. So kann beispielsweise ein Autorenarchiv, die Kategorisierung, die Verschlagwortung von Beiträgen oder auch die Bereitstellung von Druckversionen oder Versionen für mobile Geräte für die Verfielfachung des Uniform-Resource-Locators (URL) verantwortlich sein.

Unterschiedliche Adressen für ein- und denselben Beitrag:
www.domainname.de/mein-beitrag
www.domainname.de/?p=13
www.domainname.de/kategoriename/mein-beitrag
www.domainname.de/autorenname/mein-beitrag
www.domainname.de/schlagwort/mein-beitrag

Es gibt mehrere technische Möglichkeit, Suchmaschinen auf die 'richtige' Beitragsadresse hinzuweisen. Zum Beispiel lassen sich über eine robots.txt, eine speziell für die Suchmaschinen-Robots angelegte Text-Datei, einzelne Seiten oder komplette Bereiche einer Website von der Indexierung ausschließen. Automatisierte Weiterleitungen hingegen sorgen dafür, dass beim Aufruf einer Adresse auf die zur Indexierung vorgesehene umgeleitet wird. Sowohl die Suchmaschinen-Crawler als auch die Leser/innen sind hiervon betroffen. Außerdem lässt sich über den sogenannten Canonical-Tag, der in den Quelltext einer Seite eingebaut wird, auf die für die Suchmaschine vorgesehene Version bzw. Adresse hinweisen.

Wozu dieser Aufwand? Sobald mehrere Versionen eines Beitrags in einer Suchmaschine verzeichnet sind, machen sie sich gegenseitig Konkurrenz. Außerdem verteilen sich eventuell die hereinkommenden Links auf die unterschiedlichen Versionen, anstatt die gesamte 'Linkpower' auf den einen Beitrag zu konzentrieren. Über diese Verweise von anderen Seiten fließt 'Vertrauen' auf die eigenen Seiten. Und dieser 'Trust', der von Suchmaschinen zur Gewichtung der Seiten herangezogen wird, sollte sich nicht unkontrolliert auf mehrere Beitrags-Varianten verteilen, sondern kanalisiert werden.

Der Trust-Flow kommt zunächst von anderen Internetseiten auf die jeweils verlinkte eigene Seite. Hier versickert der Vertrauens-Strom nicht, sondern kann nun seinerseits durch Links weitergeleitet werden - auf eigene interne oder auf externe Internetseiten. Der Trust-Flow teilt sich hierbei gleichmäßig auf alle abgehenden Links auf. Je mehr Verweise von einer Seite abgehen, desto geringer ist die Referenz-Kraft des einzelnen Links.

Trust-Flow
Der Trust-Flow von externen Seiten auf die eigenen und die interne Verteilung dieser Vertrauens-Ströme. Seiten wie das Impressum, die nicht zur Indexierung freigegeben sind (noindex), sollten durch Links auf wichtige Seiten ihren 'Trust' weiterreichen.

Aufgabe der Technik ist es nun, den Vertrauens-Fluss über ein seitenweites Linkgerüst, unter anderem über die auf jeder Beitragsseite eingeblendete Hauptnavigation, gleichmäßig und/oder zielgerichtet durch die Website zu leiten. Aufgabe der Autorinnen und Autoren ist es, über Einzelverweise innerhalb ihrer Beiträge andere Seiten mit Linkpower zu versorgen.

Fazit

Professionelle Onpage-Optimierung ist komplex. Planung und Geduld sind wichtige Voraussetzungen, um eine Website 'ganzheitlich' zu verbessern. Im Gegensatz zu den vielen im Netz zu findenden "10 besten Tricks", die einen leichten und schnellen Optimierungserfolg suggerieren, wollte diese Einführung hierüber lediglich informieren. Konkrete Handlungsempfehlungen gibt's in der Rubrik "optimieren" -> Onpage-Optimierung für Journalistinnen und Journalisten.