Seit Jahren ist Suchmaschinenoptimierung in aller Munde und doch werden immer wieder schwerwiegende Fehler gemacht. Auch wir haben es in unserer SEO-Agentur tagtäglich mit Webseiten zu tun, bei denen schon die rudimentärsten Maßnahmen für die Optimierung völlig fehlen oder Fehler in der Content-Erstellung gemacht werden. Dabei ist es mittlerweile enorm wichtig, in den Google-Suchergebnissen recht weit vorne zu stehen, um gegen den Wettbewerb bestehen zu können. Zunächst dachten wir bei der Planung des Beitrages, dass wir mit einer kurzen Liste von vielleicht 5 häufigen Fehlern auskommen, doch am Ende sind es nun 15 SEO-Fehler geworden, die wir unbedingt ansprechen wollen. Fehlern, die uns im Speziellen bei Online-Shops begegnen, werden wir uns in einem gesonderten Artikel widmen.
1. Fehlende Title Tags
Bei der OnPage-Optimierung kommt man eigentlich nicht um einen Title-Tag herum. Und dennoch finden wir immer wieder viele HTML-Dokumente, in denen kein Title-Tag im Quelltext eingebaut ist und die veröffentlicht sind. Der anklickbare Seitentitel ist das erste und prominenteste, was Suchende in den SERP´s sehen und sollte dementsprechend gepflegt werden.
2. Fehlende Meta-Description
Die Meta-Description hat zwar nicht den entscheidenden Einfluss auf das Ranking, doch bei vielen fehlen die Beschreibungen völlig. Wenn man bedenkt, dass man mit einer guten Meta-Beschreibung mit wirklich wenig Aufwand auf viel höhere Klickraten kommen kann, lohnt es sich, die wenigen Minuten zu investieren. Was nützt ein hohes Ranking, wenn keiner auf das Suchergebnis klickt, weil durch schlechte oder fehlende Meta-Tags wie Description und oben erwähnten Title keiner darauf klickt?!
3. Fehlende oder mangelhafte Bild-Attribute
Bilder unterstützen Produkte und Content auf der Webseite, erhöhen die Themenrelevanz und verbessern die User Experience. Der Google Robot tut sich allerdings schwer, sie zu lesen. Deswegen ist es so enorm wichtig, auch die Bilder zu optimieren. Am häufigsten fehlen die Alt-Attribute bei den Bildern, aber auch Dateinamen, Bildtitel und Beschreibungen fördern die Auffindbarkeit der Webseite. Lesen Sie bei uns, was alles bei der Bildoptimierung für Google zu beachten ist.
4. Zu wenig oder schlechter Content
Seit einigen Jahren kursiert das Schlagwort Content is King in der Online-Marketing-Branche. Auch wir als SEO-Agentur setzen in hohem Maße auf hochwertigen Content. Sehr oft finden wir aber auf sehr wenig oder schlechte Inhalte auf den von uns analysierten Webseiten. Einzigartiger Content mit hohem Mehrwert sollte nicht nur für die Suchmaschine geschrieben werden, die natürlich seit einiger Zeit verstärkt auf Unique Content achtet und diesen positiv bewertet, sondern vor allem für die Nutzer der Webseite erstellt werden. Aussagekräftige Inhalte und Texte binden den Nutzer an die Webseite, erhöhen die Verweildauer, senken die Absprungrate, laden zum Wiederbesuch ein und ja, sie erhöhen ganz nebenbei auch die Platzierung in den Suchergebnissen. Das sind gleich eine Handvoll Gründe, Wert auf gute Inhalte zu legen.
Außerdem sollte der Content gut strukturiert sein. Fehlende oder nichtssagende Überschriften sind ebenfalls ein häufiger SEO-Fehler. Die Strukturierung eines Textes mit Überschriften sollte zudem nicht grafisch, sondern im HTML-Format, also mit den bekannten h-Tags von 1 bis 6 erfolgen.
5. Doppelter Content / Duplicated Content
Doppelter oder Duplicated Content meint, dass zwei oder mehr Seiten in der weiten Welt des Webs den gleichen oder auch fast den gleichen (Near Content) Inhalt haben. Statt eigenhändig qualitativ hochwertige und einzigartige Texte für die Webseite selbst zu schreiben oder eine Content- oder SEO-Agentur, die etwas davon versteht, damit zu beauftragen, sieht man es immer wieder, dass Texte einfach kopiert und in die eigene Webseite eingebunden werden. Dies muss nicht einmal absichtlich mit dem Wissen um die negativen Auswirkungen solcher Inhalte passieren. Letztendlich schadet doppelter Content aber nur und führt dazu, dass die Webseite abgewertet oder sogar bestraft wird, in dem sie aus den Suchergebnissen herausgefiltert wird.
6. Schlechte, unpassende Keywords
Eines der grundlegenden Elemente der Suchmaschinenoptimierung ist und bleibt das Keyword. Die Optimierung der Suchbegriffe ist das Non-Plus-Ultra für gute Positionierungen in den Suchergebnissen der Suchmaschinen. Leider treffen wir oft auf Webseiten, die sehr schlechte oder gar völlig unpassende Keywords verwenden. In den Meta-Angaben sind sie mittlerweile gar nicht so bis überhaupt nicht wichtig, aber die Texte auf den Webseiten, egal, ob im Shop oder im Blog, sollten mit den richtigen Keywords bestückt sein – und das möglichst noch an den richtigen Stellen. Viele unserer Kunden wählen die falschen Keywords oder versuchen, Traffic abzugreifen mit Keywords, die für ihre jeweilige Dienstleistung irrelevant sind. Eine gute Keyword-Recherche und die genaue Vorstellung darüber, unter welchem Suchbegriff oder Suchbegriffen die Seite gefunden werden soll, ist eine wichtige Grundlage für die Optimierung auf Keywords.
7. Keywordspam
Die Zeiten, in denen man Texte auf Webseiten mit enorm vielen Keywords bestückte, sind schon lange vorbei. Und doch finden wir, wenn Texte vorhanden sind, häufig eine unnötig hohe Dichte von Keywords, die bis hinauf zu 8 Prozent geht. Wenn es um die Keyword-Density geht, findet man im Netz ganz unterschiedliche optimale Prozentvorgaben, die zwischen 0,5 und sogar 7 Prozent schwanken. Wir empfehlen eine Dichte von 0,5 bis 2,5 Prozent, wobei es nicht nur darauf ankommt, wie häufig die Keywords vorkommen, sondern vor allem auch, an welchen Stellen im Text bzw. auf der Webseite sie verwendet werden. Tauchen die relevanten Keywords zum Beispiel nur am Ende eines Textes oder in den Bildbeschreibungen auf, werden sie keine gleichwertig hohe Relevanz haben wie am Anfang der Texte und in Überschriften (h-Tags) verwendete Suchbegriffe.
Die Weiterentwicklung der Keyword Density ist WDF*IDF-Analyse, mit Hilfe derer man sich zusätzliche zur reinen Keyword-Dichtemessung die Wichtigkeit eines Wortes innerhalb der Domain und die Häufigkeit des Suchbegriffs im Thema bei den Rankings misst. WDF*IDF werden wir uns noch ausführlicher in einem Blog-Artikel widmen.
8. Backlinkspam
Natürlich kann man weiterhin viel Wert auf ausgehende Links, Backlinks legen. Allerdings kommt es hier mittlerweile viel mehr auf die Qualität als die Quantität an. Sinnvolle Linkpartnerschaften zu suchen, ist das A und O der Backlinkerstellung. Man sollte sich aber auch bewusst sein, dass die Gewichtung von Backlinks in Zeiten des Einflusses sozialer Medien wie Facebook, Twitter, Pinterest und Co. wohl immer weiter abnehmen wird. Dennoch ist der Linkaufbau immer noch ein wesentlicher Ansatzpunkt für starke Rankings.
9. Zu wenig interne Verlinkung
Sind Content oder eben Texte auf einer Webseite zu finden, begegnet uns im Agentur-Alltag oft eine fehlende oder mangelnde interne Verlinkung. Es ist wichtig, die eigenen internen Seiten gut miteinander zu verlinken, denn so werden sie von den Crawlern der Suchmaschinen optimal indexiert. Seiten , die miteinander in Beziehung stehen, sollten möglichst als sprechende Links (also einer kurzen Beschreibung, was einen unter dem Link erwartet) miteinander verknüpft werden. Verlinkungen wie „Hier klicken“ sind nichtssagend und führen nicht zum gewünschten Ergebnis. Vermeiden sollte man dabei aber auch bei der internen Verlinkung Massen-Links im Footer, die in der Suchmaschinenoptimierung sowieso fast gar keine Bedeutung mehr haben.
10. Lange Ladezeiten
Es gibt kaum etwas Schlimmeres als langsame Internetseiten. Das finden nicht nur die Nutzer, sondern auch die Suchmaschinen. Unkomprimierte Bilder oder Bilder, die per Code skaliert sind und unglaublich viele Scripte überladen die Webseite unnötig und verlangsamen sie. Mit Google PageSpeed zum Beispiel kann man die Ladezeiten seiner Webseite gut untersuchen und bekommt gleichzeitig auch noch wertvolle Tipps, wie man die Ladezeiten verbessern kann.
11. Keine Responsivität
Auch wenn immer mehr Menschen mit Tablet und Smartphone surfen und die Inhalte von Webseiten konsumieren, ist es leider noch lange nicht zum Standard geworden, die Seiten auch für die mobile Nutzung zu optimieren. Ein responsives Design ist unverzichtbar geworden und doch trifft man es viel zu selten an. Statt zusätzlich eine mobile Webseite auf einer Subdomain einzurichten, sollte man von Grund auf an die mobile Nutzung denken und seine Webseite für Smartphones und Tablets optimieren. Dabei gilt es einiges, wie die Optimierung der Ladezeiten, den Verzicht auf Flash-Inhalte oder die userfreundliche Bedienung, zu beachten.
12. Flash und Javascript
Oft noch findet man Menüs und Buttons, die dynamisch mit JavaScript generiert werden, Ja, es bietet viele Möglichkeiten der optischen und interaktiven Gestaltung einer Webseite, aber die meisten Funktionen können mittlerweile problemlos von HTML5 übernommen werden oder in Teilen auch durch CSS realisiert werden. Eine Unsitte, die mit der offiziellen Ankündigung von Adobe die Weiterentwicklung ab 2020 einzustellen, nun langsam wirklich jeder sein lassen sollte, ist das Einbinden von Flash-Inhalten unterschiedlichster Art. In den Anfängen des WWW hatte Flash sicher noch seine Daseinsberechtigung und viele Videos, Spiele und 3D-Realisierungen liefen mit der Software. Nicht nur, dass mobile Geräte Flash-Formate sowieso nicht wiedergeben können, sondern auch wahnsinnig viel Performance kosten, sind gute Gründe, auf dieses Format schon jetzt (und nicht erst ab 2020) zu verzichten. HTML5 heißt das neue Flash!
13. Schlechte URL Strukturen
Eine Webseite sollte natürlich nicht nur für Google, sondern auch für den Nutzer gut lesbar und bedienbar sein. Ein häufiger SEO-Fehler sind hier schlechte URL-Strukturen. Nicht nur, dass das Keyword möglichst weit vorn stehen sollte, sondern auch undurchschaubare und nichtssagende Sonderzeichen, Zahlenkolonnen oder die Session-ID-Anzeige sind immer wieder ein Problem.
14. Keine Sitemap.xml
Mit einer XML-Sitemap kann man den Suchmaschinen helfen, die Webseite zu interpretieren und korrekt zu indexieren. Bei recht kleinen Webseiten und Seiten mit einer wirklich guten Linkstruktur ist das Anlegen einer Sitemap nicht unbedingt notwendig. Da diese kleine Hilfe aber nun wirklich nicht stört, ganz einfach über die Webmaster-Tools einzubinden ist und wir als SEO-Agentur meist nicht besonders gut strukturierten Webseiten mit mangelnder interner Verlinkung begegnen, soll sie hier in dieser Liste der häufigsten SEO-Fehler doch ihren Platz bekommen.
15. Fehlende robots txt
Die robots.txt ist ein wichtiges Instrument, um den Suchmaschinen zu sagen, welche Seiten sie indexieren können und welche nicht. Eigentlich ist es reine Technik, aber man sollte es zur SEO dazuzählen. Denn nicht nur ganze Seiten können vom Crawlen ausgeschlossen werden, sondern auch feinere Einheiten wie zum Beispiel bestimmte Bildformate.
Comments are closed.