Ihre Homepage für Google optimieren
Was sind aktuell die effektivsten SEO-Hebel und Bestandteile der Onpage-Optimierung?
Gute Planung und Umsetzung sind das A und O im SEO: Im Idealfall werden die Faktoren schon beim Erstellen der Webseite miteinbezogen, aber auch im Nachhinein lassen sich mit kleinen Änderungen oft große Erfolge erzielen. Oftmals wird behauptet, dass gute Onpage-Optimierung sehr komplex ist. Doch mit Geduld, Ausdauer und unseren SEO-Tipps, kann die Verbesserung der Suchergebnis-Positionen gelingen. Hier erfahren Sie von den effektivsten Hebeln, um ihre Homepage für Google zu optimieren:
Was ist Onpage Optimierung?
Neben der Offpage-Optimierung bildet Onpage-SEO die zweite Säule erfolgreicher Suchmaschinenoptimierung. Ziel ist es, durch technische, inhaltliche und strukturelle Anpassungen der eigenen Webseite, langfristig Suchmaschinenrankings zu verbessern und die Relevanz, Struktur und Crawlbarkeit Ihre Homepage für Google zu optimieren. Onpage-Optimierung bildet zudem die Voraussetzung für erfolgreiche OffPage-Suchmaschinenoptimierung, da der Aufbau von Backlinks ohne entsprechend optimierter Pages wenig effizient ist. Usern und Google soll eine Webseite zur Verfügung gestellt werden, die ihre jeweilige Suchintention genau trifft und ihr Bedürfnis optimal stillt. Denn vielleicht möchte sich der Besucher gar nicht informieren, sondern ist bereits informiert und möchte direkt ein bestimmtes Produkt kaufen. Oder der User möchte Kontakt mit Ihrem Unternehmen aufnehmen und sucht Ihre Kontaktdaten wie eine Telefonnummer, ein Kontaktformular oder eine E-Mail-Adresse. Es gibt also verschiedene Motive, die sich im Suchverhalten Ihrer Besucher wiederspiegeln. Man unterteilt sie in folgende Arten von Suchanfragen:
- transaktionale
- informationale und
- navigationale Suchanfragen zu denen auch Brandanfragen gehörten.
Diese Unterscheidung sollte in der SEO-Keywordrecherche beachtet werden. Um die Intention der Nutzer verstehen zu können, muss man sich in die Perspektive der User hineinversetzen. In der Praxis gestaltet sich dies jedoch schwer bis unmöglich, da nicht genügend Zeit und Ressourcen vorhanden sind, um die Intentionen einer großen Gruppe von Menschen für jedes einzelne Keyword zu erforschen. Daher ist es für Ihr SEO Gold wert, sich einmal die organischen Suchergebnisse in der Google Suche anzuschauen.
Wie man genau das Suchverhalten seiner Besucher herausfindet und analysiert, würde den Rahmen des Artikels sprengen, aber das werden wir in einem anderen Artikel zu einem späteren Zeitpunkt behandeln.
1. Sinnvolle und intuitive Webseitenstruktur und interne Verlinkung
Jeder von uns möchte schnell und ohne Umwege von A nach B kommen. Dies gilt nicht nur für Wege zu Fuß oder mit dem Auto, sondern erst recht im Internet. Nutzern soll der schnellste und einfachste Weg zum gewünschten Produkt oder zur Dienstleistung aufgezeigt werden. Dies gilt auch für den Googlebot, der sich auf Ihrer Homepage von „von Link zu Link hangelt“. Daher ist die interne Verlinkung ein wichtiger SEO-Bestandteil, um Ihre Homepage erfolgreich für Google zu optimieren. Die einzelnen Seiten sollten miteinander logisch verknüpft sein, damit sich User und Crawler optimal zurechtfinden können. Liegt eine Seite mit schlechter Struktur vor, kann sie nur schwer vom Googlebot gefunden und entsprechend aufgenommen bzw. aktualisiert werden. Dabei ist eine intuitive und sinnvolle Navigationsstruktur ein absolutes MUSS, da Nutzer sonst schnell verwirrt sind und die Webseite in kürzester Zeit wieder verlassen werden.
Hierzu gibt es einige Herangehensweisen:
Vertikale und horizontale Navigationsstruktur:
Im Laufe der Zeit haben sich zwei Navigationstypen durchgesetzt: Bei der vertikalen Navigation befindet sich die Navigationsleiste im linken Bereich und bei der horizontalen Variante im oberen Bereich. Nachteil der horizontalen Navigation ist der schnell ausgeschöpfte Platz, während die vertikale Variante beliebig erweitert werden kann.

Footer Navigation
Zusätzlich besitzen viele Webseiten außerdem eine Footer-Navigation am unteren Ende der Webseite, in der alle oder die wichtigsten Punkte des Hauptmenüs nochmal aufgeführt werden.

Primäre und sekundäre Navigation

Beispiel: Primäre und sekundäre Navigation
Hierbei werden vertikale und horizontale Navigation kombiniert. Die primäre Navigation beinhaltet dabei die klassischen Hauptmenüpunkte, wie „Unternehmen“, „Leistungen“ und „Kontakt“. Wenn der Nutzer diese Punkte berührt, erscheinen untergeordnete Punkte in einer sekundären Navigation. Diese Variante ist dem klassischen Drop-Down-Menü ähnlich. Wichtig zu beachten ist, dass der Übersichtlichkeit halber nicht mehr als zwei Navigationsebenen miteinander verknüpft werden sollten.
Beispiel: Primäre und sekundäre Navigation
Burger-Menü

Der schmackhaft klingende Name geht auf die drei übereinander liegenden Striche zurück: Manch einer mag darin ein Patty, der in zwei Brötchenhälften liegt, sehen. Dabei handelt es sich um eine Variante der versteckten Navigation, das heißt sie sind erst durch eine explizite Nutzeraktion sichtbar, z. B. durch Klick auf das Burger-Icon. Diese neue Menü-Art kommt vor allem bei Mobil-Nutzern gut an, bei Desktop-Usern kommt es häufig zu Usability-Problemen. Denn das kleine Icon kann schnell zwischen den anderen Elementen untergehen und ist so schlecht auffindbar.
SEO-TIPP: Egel für welche Art der Navigation man sich entscheidet, bietet sich bei Seiten mit mehreren Hierarchieebenen zusätzlich eine Breadcrumb-Navigation an. Diese bietet Usern noch mehr Orientierung. Sie lässt sie jederzeit wissen, wo sie sich in der Hierarchie einer Domain befinden. Diese Struktur trägt zur leichten, intuitiven Bedienbarkeit bei und unterstützt die Suchmaschinenoptimierung.
SEO-TIPP: Wir empfehlen für bessere Orientierung und Themenklarheit in Online-Shops mit übergeordneten Kategorien und Produktseiten zu arbeiten.
2. Mit interner Verlinkung Inhalte erreichbar machen
Die Optimierung der internen Verlinkung ist ein sehr mächtiges SEO-Werkzeug und gehört zu den wichtigsten Rankingfaktoren im Google-Algorithmus. Der Googlebot ruft einzelne Seiten auf und folgt den Links auf diesen Seiten. So gelangt er von Seite zu Seite, untersucht die Inhalte und speichert Informationen auf dem Google Server. Das komplette Verhalten des Googlebots beim Auffinden neuer Inhalte und Verstehen der Struktur beruht also auf Links. Da bei internen – anders als bei externen Links – kein Spamfilter bekannt ist, kann der Ankertext Keyword-relevant gewählt werden. Das widerspricht in keinster Weise den Google Richtlinien, es wird dazu im Google-Blog sogar geraten. Obwohl die interne Verlinkung zu einem signifikanten Faktor der Onpage-Optimierung von Homepages gehört, schöpfen die meisten Homepages diese Möglichkeit nicht ausreichend bzw. konsequent aus. Dabei ist darauf zu achten, dass keine Seite mehr als drei Klicks von der Startseite entfernt sein sollte, die in den Suchergebnissen gut platziert sein sollen. Bei kleineren Seiten sollte es besser nur ein Klick sein. Von den Unterseiten sollte zudem unbedingt ein Link zurück auf die Startseite gehen z.B. über das Logo. Außerdem sollte je Unterseite nur ein eingehender Ankertext verwendet werden und je Ankertext nur eine Unterseite. Ein Link mit dem Ankertext „Produkte“ sollte demnach auf die Produktseite der Website verweisen und auf sonst keine andere Seite.
Die Strategie ist für die Suchmaschinenoptimierung entscheidend. Je nachdem welche Keywords und welche Seiten (z.B. Kategorie-, Übersichts- oder Produktdetailseiten) ranken sollen, muss die sie prominent auf der Website verlinkt. Die Auswahl der Ankertexte oder Alt-Texte bei Bildlinks muss entsprechend angepasst werden. Sollen beispielsweise bestimmte Produkte ranken, sollten sie auf der Startseite mit dem richtigem Ankertext oder Alt-Text bei Bildlinks verlinkt werden. Gegebenenfalls bietet es sich auch an eine Produkt-Sitemap zu erstellen.

TOP-TIPP: Mit SEO-Tools wie dem Screaming Frog (bei Websites unter 500 Seiten sogar kostenlos nutzbar) kann die durchschnittliche Klicktiefe einer Webseite eingesehen werden. Sollten Sie feststellen, dass ein Großteil Ihrer Inhalte durchschnittlich mit mehr als 3-4 Klicks zu erreichen ist, sollten Sie die interne Verlinkung Ihrer Homepage optimieren.

3. SSL-Zertifikat als Vertrauenssignal für User und als Rankingfaktor für Google
Bereits 2014 gab Google bekannt, dass das SSL-Zertifikat in das Ranking einfließt. Spätestens seit dem Inkrafttreten der DSGVO im Mai 2018, müssten alle Homepages, die Nutzerdaten übermitteln oder Kontaktformulare besitzen, auf https umgestellt haben. Durch das Zertifikat wird gewährleistet, dass eine sichere Verbindung zwischen einem Webserver und dem Browser aufgebaut wird und vertrauliche Userdaten von Dritten nicht abgefangen und mutwillig verarbeitet werden können. User können dies an dem grünen Schloss ganz links in der Adresszeile des Browsers erkennen. Hier gibt es drei Sicherheitsstufen mit unterschiedlichen Anforderungen, klickt man auf das Schloss-Icon, bekommt man weitere Informationen, um welches Zertifikat es sich handelt. Für Suchmaschinen macht diese Unterscheidung allerdings bislang keinen Unterschied.
4. Metadaten: Titles und Descriptions für höhere Klickraten optimieren
Allem voran, sollten die anvisierten Suchbegriffe und Synonyme in aussagekräftigen Meta Descriptions und Title Tags vorkommen. Früher waren Beschreibungen eine gute SEO-Möglichkeit, die Positionierungen zu beeinflussen. Seit Jahren zieht Google die Meta Beschreibung nicht mehr heran, es sei denn sie fällt negativ auf: Wird sie mit zu vielen und manipulativen Keywords überfüllt, wird sie als Spamversuch gewertet. Wenn sie attraktiv geschrieben ist und den Suchbegriff enthält, fördert sie die Klickrate auf das Ergebnis.
SEO-TIPP: Seit einiger Zeit verändert Google laufend die Descriptions: Die Länge verändert sich ständig, Google nimmt vermehrt Content von der Seite. Featured Snippets stehen als Direktantwort vor den organischen Suchergebnissen– auf „Position 0“! Diese geben zum einen den entscheidenden Vorteil in der Sprachsuche und zum anderen haben sie eine sehr positive Auswirkung auf die CTR der für die Antwort genutzten Seite. Die anderen neun Ergebnisse verlieren dagegen maßgeblich Klicks.
TOP-TIPP: Weitere Tipps für Descriptions und wie man am besten Featured Snippets generiert, finden Sie in unserem aktuellen Blogbeitrag.

5. JavaScript und Webseiten-Darstellung mit den Augen von Google sehen
Google kann mittlerweile JavaScript sehr gut rendern, das ist aber aufwendig und teuer. Neben dem altbekannten Crawlbudget gibt es auch ein Renderbudget (Martin Splitt, Google auf der SEOkomm 11.2018). JavaScript Rendering braucht sehr viel mehr Ressourcen als HTML. Webmaster, die sicherstellen wollen, dass alle Inhalte gefunden werden, sollten so viel wie möglich serverseitig rendern und ausliefern. Nach wie vor scheint es, als ziehe Google HTML Seiten, Seiten mit einfachem Code oder auch AMP Seiten (Accelerated Mobile Pages) gegenüber JavaScript-reichen Sites vor. Sie sparen Ressourcen und die Seitenladezeit wird sehr viel attraktiver.
Hinweise, ob es zu Fehlern beim Crawlen und Indexieren kommt, kann man in der Search Console einsehen. Das URL-Prüftool von Google liefert Informationen über die indexierte und die Live-Version einer URL.
Man weiß, dass Google Probleme mit Single Page Applications (SPA) hat. Bei dieser Webanwendung werden Inhalte auf der Seite stetig nachgeladen jedoch ohne Änderung der URL. Wird also etwas nicht initial geladen, bleibt es für den Bot meist unsichtbar.
6. Sitemap für eine reibungslose Indexierung
Abschließend und wenn die Homepage fertig ist, empfiehlt es sich – vor allem für große Homepages – eine XML-Sitemap zu erstellen. Sie ist ebenfalls hilfreich um eine reibungslose Indexierung zu erreichen und empfiehlt sich für neue Sites, die kaum mit externen Sites verlinkt sind, da sie ohne Sitemap von Crawlern möglicherweise gar nicht gefunden werden. Google stellt weitere Informationen über Sitemaps bereit:
http://support.google.com/webmasters/bin/answer.py?hl=en&answer=156184
SEO-TIPP: Aus der XML-Sitemaps erkennt der Crawler die Struktur einer Homepage schneller und findet auch die Unterseiten einer Domain leichter. Damit alle Seiten, die indexiert werden sollen, auch wirklich indexiert werden, ist die Bereitstellung sehr empfehlenswert!
7. Crawlingsteuerung und robots.txt
Um das Crawling steuern zu können ist es erst einmal wichtig zu verstehen, wie Suchmaschinen funktionieren. Suchmaschinen wie Google oder Bing beginnen nicht erst mit der Suche, wenn Nutzer eine Anfrage stellen, sondern verwenden einen algorithmischen Prozess, der festlegt, wann und wie viele Seiten einer Homepage aufgerufen werden. Nach jedem Suchlauf des Crawlers wird der Google-Index mit neuen Websites, aktualisierten Seiten und neuen Inhalten gefüttert, während veraltete Links korrigiert werden. Dieses Crawl-Budget ist nicht für alle Webauftritte gleich, sondern hängt von einigen Faktoren ab. Neben Links weisen Metadaten den Crawler an, welche Seiten nicht indexiert werden sollen.
Die kleine Text-Datei „robots.txt“ ist ein kleines Stück Technik, das man – sofern man Suchmaschinenoptimierung betreibt – verstehen sollte. Mit der robots.txt steuert man die Crawler der Suchmaschinen über die eigene Webseite. Oder, besser gesagt: In der robots.txt kann man die Suchmaschinen-Bots bitten, bestimmte Bereiche der Webseite in Ruhe zu lassen. Es besteht allerdings keinerlei Garantie, dass sich die Suchmaschinen an diese Verbote halten. Google hält sich in fast allen Fällen an den Befehl die URL nicht zu crawlen, Bing jedoch meist nicht. Zeigen Links auf die URLs, werden sie möglicherweise dennoch in den Google-Index übernommen. Hier ist sehr wichtig, dass bei der Erstellung der robots.txt keine Fehler auftreten, denn so können wichtige Seiten oder ganze Webseiten unerreichbar werden, da die URLs überhaupt nicht gecrawlt werden und somit nicht im Index der Suchmaschinen vorkommen können. Mit dieser Crawlingsteuerung kann die Arbeit der Suchmaschinenbots gesteuert und das Crawl-Budget optimal genutzt werden.
Mit dem Meta-Tag „noindex“ wird einem Suchmaschinen-Robot mitgeteilt, dass die besuchte Seite nicht in den Index aufgenommen werden soll. So können SEOs und Webmaster aktiv beeinflussen, welche URLs indexiert werden sollen und welche nicht. Ergänzt wird das ganze durch die Attribute „follow“ oder „nofollow“. Um zu kontrollieren, ob der Meta-Tag gelesen und beachtet wird, kann die Site-Abfrage für die betreffende Seite helfen. Der Meta-Tag in Verbindung mit dem Attribut „nofollow“ kann beispielsweise bei doppelten Kategorieseiten, urheberrechtlich geschützten Inhalten oder paginierten Seiten zum Einsatz kommen.
SEO-TIPP: Jeder menschliche Webnutzer, Suchmaschinen-Crawler und andere Tools zum Crawlen hinterlassen charakteristische Spuren, oftmals treten aber auch Fehler beim Crawlen auf. Auf diese Crawling-Fehler wird in der Search Console hingewiesen, die Google-Bot Aktivitäten werden grob aufgezeigt sowie die robots.txt kann überprüft werden. Um eine detaillierte Analyse zu erhalten, lohnt sich die genauere Betrachtung der Logfiles. Das Logfile, oft auch als Logdatei oder Protokolldatei bezeichnet, ist eine Datei, in der Ereignisse auf Computersystemen oder in Netzwerken protokolliert werden. So lässt sich das Verhalten von Crawlern analysieren und es lässt sich erkennen, welche Seiten in Relation zu häufig gecrawlt wurden und wo Probleme bestehen.
SEO-TIPP: So banal es klingen mag: Prüfen Sie, ob Ihre Seiten überhaupt für Suchmaschinen freigegeben sind. In manchen CMS-Systemen reicht es bereits aus, einen Haken zu setzen bzw. vergessen zu setzen und schon fliegt die Seite aus dem Index oder wird gar nicht erst indexiert – Stichwort „noindex“. Dabei helfen kann die sog. Site-Abfrage bei Google.
8. Schnelle Homepages werden von Google bevorzugt
Google möchte seinen Nutzern möglichst interessante Suchergebnisse liefern und eine großartige Nutzererfahrung bieten. Dazu gehört auch Schnelligkeit. Google bevorzugt schnelle Websites, damit Surfer mit einer langsamen Internetverbindung nicht auf die Geduldsprobe gestellt werden. Für mobile Endgeräte beispielsweise sind schnelle Ladezeiten noch wichtiger.
SEO-TIPP: Hier ist allerdings anzumerken, dass die Ladezeit eine eher untergeordnete Rolle bei der Suchmaschinenoptimierung Ihrer Homepage für Google spielt und eine weitere Verbesserung der Ladezeit (von schnell auf sehr schnell) keine positiven Signale an Google aussendet. Bei großen Seiten wirken sich lange Ladezeiten allerdings negativ auf das Crawl-Budget aus und insbesondere für Smartphone-User sollte eine positive Nutzererfahrung durch schnelle Ladezeiten geschaffen werden. Wenn die Ladezeit über einem Wert von 3 Sekunden liegt und das gewünschte Ziel nicht schnell genug erreicht wird, verlässt ein Großteil der Besucher die Webseite wieder. Hohe Ladezeiten im Online-Shop können daher als wahre „Umsatzkiller“ wirken. Dauert der Ladevorgang von Produktbildern zu lange oder dauert der Kaufprozess zu lange (aufgrund der Ladezeit), warten Onlinekäufer in der Regel nicht lange und brechen den Einkaufsprozess ab. So werden Conversions potentieller Kunden verschenkt.
9. Kann Google Bildinhalte lesen und braucht es einzigartige Bilder und Videos?
Google gibt dazu außerdem an, man solle den Besuchern durch Alt-Texte ein „hervorragendes Nutzererlebnis“ bieten und die Seite barrierefrei gestalten, sodass z.B. Menschen mit Sehbehinderung sich die Bildbeschreibungen vorlesen lassen können. Diese Technik wird in Zukunft für die Suchmaschinenoptimierung immer wichtiger werden, denn der Alt-Text ermöglicht Screenreadern bzw. Voicebrowsern den Informationsgehalt des Bildes vorzulesen. Zudem wird diese Einstellung auch von Google belohnt, vor allem wenn die Beschreibung zur Suchintention passt.
Alt-Texte bzw. die alternative Beschreibung sollten sich auf den Inhalt im Text und natürlich auf den Inhalt des Bildes beziehen, denn Google kann bisher nur bis zu einem gewissen Maße „sehen“, was sich auf den Bildern befindet. Wenn auf einem Bild zum Beispiel ein grüner Tisch zu sehen ist und wenn in den Bilddaten und in der Bildumgebung auch noch so oft von einem blauen Stuhl die Rede ist – lässt sich Google davon ebenso wenig überzeugen wie die Webseitenbesucher. Mit der Cloud-Vision-API lässt sich testen, wie viel des Bildinhaltes Google erkennen kann.
SEO-TIPP: Indem Sie in der Google-Bildersuche ganz weit vorne auftauchen, können mehr Besucher auf die Seite gelockt werden. Außerdem wird mit Videos die Verweildauer erhöht und es werden gleich mehrere Sinne angesprochen! Bisher kann Google zwar noch nicht genau den Inhalt von Videos und Bildern optimal interpretieren, jedoch kann gutes Bilder und Video-SEO zu mehr Traffic verhelfen.
SEO-TIPP: In der Regel sollte das Hauptkeyword der Unterseite in den Alt-Tag mitaufgenommen werden, sofern es mit dem Inhalt des Bildes übereinstimmt.
TOP-INFO: Unsere Tests haben außerdem gezeigt, dass Google keinen Unterschied macht, ob eigene Fotos oder Grafiken von Plattformen wie Shutterstock, iStock und Co. verwendet werden. Auch eigene – meist sehr aufwendige – Videos, statt eingebundene YouTube-Videos, werden nicht bevorzugt. Für Webseitenbesucher macht es aber sehr wohl einen Unterschied: Bilder, die bereits auf tausenden von Seiten eingebunden wurden, wirken sehr schnell langweilig oder lieblos, daher lieber selber machen, wenn die Ressourcen ausreichen!
10. Mobile Darstellung optimieren und Roll-out des mobilen Indexes
Eigentlich kann es sich kein Seitenbetreiber – der mehr leisten, seinen Besuchern eine nicht mobil optimierte Webseite zu präsentieren. Wer das noch nicht macht, für den ist es allerhöchste Zeit!
Mobil-First: Der Epochenwechsel ist vollzogen – bisher wurde die Desktop-Versionen einer URL als Hauptindex von Google für die Evaluation von Webseiten und zur Ermittlung von Rankings verwendet, seit des Roll-outs des Mobil-First-Indexes erfolgt dies nun durch die mobile Version einer Seite. Das heißt also, es gibt weiterhin nur einen Index, jedoch ändert sich die Grundlage der Seiten, die in den Index kommen werden. Auch alle Webseiten mit separater Mobilversion sollten auf responsives Design umgestellt werden. Dies macht es Google einfacher, für beide Ansichten dieselben Inhalte zu interpretieren.
Die Optimierung für mobile Endgeräte hat sich zu einem wichtigen Rankingfaktor entwickelt. Daher ist es jetzt besonders wichtig für die optimale Suchmaschinenoptimierung, die Performance Ihrer Website in den mobilen Suchergebnissen zu überprüfen. Das heißt das Monitoring sollte sich auf mobil umstellen oder zusätzlich eingeführt werden.
Während viele Business to Business Unternehmen noch immer von mehr Desktop Nutzer besucht werden als von Nutzern mit mobilen Endgeräten, sind Endkonsumenten vorwiegend auf Mobiltelefonen im Netz unterwegs.
SEO-TIPP: Eins der mächtigsten SEO-Tools nutzen: In der Search Console erhält man hilfreiche Hinweise zu Problemen mit der Mobilfreundlichkeit einer Webseite, diese sollten regelmäßig überprüft und behoben werden.
SEO-TIPP: Wir empfehlen bei einem Redesign der Webseite erst die mobile und dann die Desktop-Variante bzw. Ansicht zu designen.
TOP-INFOS:
- Google kann„versteckte“ Inhalte in Tabs oder Akkordeons (die für das Smartphone durchaus Sinn machen) teilweise zwar auslesen, sie wurden aber teilweise nicht indexiert. Wir empfehlen wichtige Inhalte nicht in Akkordeons zu packen und falls nicht darauf verzichtet werden kann, sollte auf CSS Accordeons ohne Javascript zurückgegriffen werden.
11. Content is King, but SEO is Queen
Das “Content is King”-Mantra wird überall bis zum Erbrechen wiederholt. Doch stimmt es wirklich?
Blogger, die Suchmaschinenoptimierung ablehnen, wollen Ihnen weismachen, dass guter Content ausreicht und sich von selbst herumspricht. Das allein reicht selten aus! Sie brauchen einzigartigen Content, gutes Marketing UND ihre Homepage muss für Google optimiert sein. Google liebt zwar nach wie vor Unique Content, doch es ist ähnlich wie beim Schach: Ihre Homepage ist nichts ohne König. Sie brauchen aber auch andere Figuren wie eine Dame oder Springer und dazu eine Strategie, um zu gewinnen. Doch wir haben einzigartige Tipps, die nicht in jedem SEO-Ratgeber zu finden sind und zeigen wie Sie Ihren Content aufwerten können:
SEO-TIPP: Google liebt Artikel die aktuell sind oder Inhalte, die stetig um Informationen erweitert bzw. Änderungen vorgenommen werden. Alte Artikel sollten auch im Laufe der Zeit entweder gelöscht oder auf den neuesten Stand gebracht werden.
SEO-TIPP: Wir empfehlen mehrere hundert Wörter pro Artikel. So können alle Keywords eingebaut werden ohne Keyword-Spaming zu betreiben. Eine genaue Angabe von Wörtern ist hier schwierig, da die Algorithmen von Google so vielfältig ineinandergreifen und nicht einfach einen Text mit mindestens Wortlänge X bevorzugen. Google achtet und honoriert vielmehr einzigartige, hoch qualitative und unwiderstehliche, fesselnde und gute Inhalte. Primäres Ziel ist es also, „den besten Inhalt zu einem bestimmten Thema“ zu verfassen. Während ein Produkttext einige hundert Wörter haben sollte, können es bei einem Blogbeitrag auch gerne mehrere tausend sein.
Ebenso helfen Absätze und Aufzählungszeichen, sowie weitere Formatierungselemente, um die Lesbarkeit für User und Suchmaschinen zu verbessern.
SEO-TIPP: Gute Homepage-Suchmaschinenptimierung für Google soll unsichtbar sein. Sie soll nur dafür sorgen, dass Ihre Homepage gefunden, besucht und dort die vom Betreiber gewünschten Aktionen durchgeführt werden. Doch warum hat SEO bei vielen Menschen einen negativen Beigeschmack? Oftmals wird SEO mit trashig vollgestopften Keyword-Texten und Webseiten assoziiert. Dies sollte aber unbedingt vermieden werden, es sollen in gleicher Weise für Google UND User gut lesbare Texte verfasst werden.
SEO-TIPP: Innerhalb der Texte kann zusätzlich mit Sprungmarken gearbeitet werden, damit der Nutzer noch schneller – ohne Umwege- zu seinem gewünschten Produkt, Dienstleistung oder Information gelangt.
SEO-TIPP: Interaktionen! Ermöglichen Sie Kommentare und fragen Sie ihre Besucher, was sie gerne lesen würden. So erhalten Sie ganz nebenbei wertvolle Tipps und Anregungen, wie Sie ihren Content verbessern können. Dies kann zum Beispiel durch Kommentare oder Umfragen erreicht werden.
SEO-TIPP: Unbedingt sollten Videos und Bilder eingebunden werden. Dies lockert den Text für den User auf und dient zur verbesserten Lesbarkeit des Textes, zudem werden Bilder auch von Google honoriert.
12. BONUS: In den Suchergebnissen herausstechen durch Verwendung von strukturierten Daten
Mit strukturierten Daten können Informationen Google-gerecht aufbereitet werden, denn Google ist mit so manchen Daten schlichtweg überfordert. Um einen einheitlichen Standard für die Auszeichnung strukturierter Daten zu schaffen, haben die großen Suchmaschinen Google, Bing, Yahoo und Yandex das Projekt Schema.org gegründet. Für die Auszeichnung nach Schema.org sind die Formate RDFa, Microdata und JSON-LD.
Beispiel: Eine lange Telefonnummer auf der Seite könnte die eigentliche Telefonnummer sein, aber auch beispielsweise für die Umsatzsteueridentifikationsnummer gehalten werden. Mit der Auszeichnung von Informationen durch strukturierte Daten mit schema.org gelingt die Zuordnung zweifellos und einwandfrei.
Google hat keine Schwierigkeiten mehr mit Daten und als Bonus sind nette Möglichkeiten gegeben, sich in den Suchergebnissen optisch hervorzuheben und damit die Klickraten auf das eigene Ergebnis positiv zu beeinflussen.
Bonus-Tipp: In den SERPS mit Rich Snippets für Aufsehen sorgen: Die schema.org – Auszeichnung ist für die Rich-Snippet-Optimierung unabdingbar. Mehr Traffik und höhere Klickraten durch sauber formatierte und nützliche Listungen in den Suchergebnissen: So können mit strukturierten Daten etliche zusätzliche Inhalte in den SERPs/Rich Snippets ermöglicht werden, wie etwa die Anzeige von Kundenbewertungen in Form von Sternchen, was vor allem einen optischen Vorteil bringt und die Klickrate/CTR steigert.

11 Comments
Torsten
16. März 2011
Danke für die gute Einführung in die Suchmaschinenoptimierung.
Sigrid
20. März 2019
Gerne, vielen Dank 🙂
aprilbowers21
15. August 2011
This is a wonderful article, I located your weblog researching bing for a related subject matter and came to this.
Sigrid
20. März 2019
Thank you very much 🙂
Chorizo45
1. September 2016
Wer seine Seite bislang nicht für die mobile Suche optimiert hat weil er auf den Mobile-Traffic „verzichtet“ hat, wird es auch getrost weiter tun, außer auch der letzte hört den Knall.
Fakt ist dass ca. 20 % des Traffics über mobile Geräte stattfindet und trotzdem ein Großteil ihre Seite für Smartphones & Co. nicht optimiert und wahrscheinlich trotz mehrfacher Ankündigungen durch Google u.a. in den Webmastertools etc. nicht tun wird.
Sigrid
20. März 2019
Das stimmt, nun ist es höchste Zeit was zu machen.
Dennis Otterpohl
9. Oktober 2019
Hi,
ein sehr informativer Bericht über Seo. Genau so etwas habe ich gesucht. Besonders die interne Verlinkung ist interessant, darüber habe ich noch garnicht nachgedacht.
Grüße
Hannes
14. Oktober 2019
Danke für die gute Zusammenfassung 🙂
Lukas Winterschmid
14. Januar 2020
Google – Fluch und Segen.
Ein sehr informativer Beitrag, bei dem ich wieder einiges gelernt habe und umsetzen werde.
Danke!
Jürgen
25. August 2022
Schöner Artikel und gut zu lesen. Es gibt so viele Tools und Möglichkeiten seine Website oder Onlineshop zu optimieren. Da verliert man schonmal schnell den Überblick wenn man nicht gerade ein Profi ist. Zum Glück gibt es viele Agenturen mit Experten, die sich dem Thema SEO widmen und auch dabei helfen Onlineshops aufzubauen und zu entwickeln.
Bernd
29. August 2022
Danke für den ausführlichen Artikel. Wirklich spannend und wichtig, das zu verstehen. Allerdings weiß ich, wie viel Arbeit dahinter steckt und dass man eben kontinuierlich optimieren muss. Nicht ohne Grund gibt es unzählige Agenturen und Freelancer, die sich darauf spezialisiert haben … Gott sei Dank. Außerdem gilt es auch, sich rechtlich abzusichern, gerade was den Datenschutz angeht.