SEO Fehler

SEO Fehler bei der Webseitenoptimierung:

Optimierungsfehler an der Webseite die zu einem Rankingverlust führen könnten:

Überoptimierung durch zu hohe Keyword-Dichte!

  • Das übermäßige Einsetzen von Keywords und unnatürlich häufige Wiederholung derselben Begriffe oder Wortgruppen innerhalb der Seitentexte, mit dem Ziel, für die entsprechenden Suchbegriffe gut zu ranken, kann das Gegenteil bewirken.
  • Überflüssige Keywords erscheinen häufig in einer Liste oder Gruppe ohne jeglichen Kontext (Suchwolken).
  • Auch Textblöcke mit Städten und Ländern, können zu einem schlechten Ranking für die betreffenden Keywords führen.

 

Externe Links im Fußbereich!

Der Fußbereich einer Webseite sollte nur interne Links enthalten. Links zu externen Webseiten (insbesondere weitere eigene Webseiten) werden von Suchmaschinen häufig als schlechte Links aus Linktausch-Geschäften gewertet.

 

Ebenfalls problematisch ist die Verwendung von harten „Money-Keywords“ als Ankertexte für Hyperlinks im Textbereich.

 

Gleiche oder ähnliche Texte innerhalb einer Domain (Near Duplicate Content)!

  • Nur einzelne Wörter in den Inhalten der eigenen Unterseiten auszutauschen bietet den Besuchern keinen Mehrwert und wird deshalb als “minderwertiger Content” bewertet.
  • Auch sogenannte „boilerplates“ und „Dummytexte“, die abwechselnd auf den Unterseiten geschaltet werden, sollten Sie deshalb besser nicht verwenden.

Gleiche oder ähnliche Webseiteninhalte auf unterschiedlichen URLs (Duplicate Content)!

  • Zusätzliche Domains mit ähnlichen Inhalten im Netz, werden als Manipulationsversuch bewertet, da sie letztlich nur mit dem Ziel erstellt wurden, in den Suchergebnislisten öfters geschaltet zu werden.
  • Auch Seitentexte, die von fremden Webseiten zusammengetragen wurden, können Ihrem Ranking schaden.

 

Kompletter Ausschluss Ihrer Webseite! (Bann)

Einige Optimierungstechniken versprechen kurzfristige Erfolge, können jedoch zum kompletten Ausschluss (Bann) der Webseite führen und dürfen deshalb grundsätzlich nicht benutzt werden!
Dazu gehören:

 

  • Manipulierte Inhalte, wie nicht sichtbarer Text, oder nicht sichtbare Verweise, die nur von Suchmaschinen gesehen werden. Zum Beispiel: Weißer Text auf weißem Hintergrund. | Platzieren von Text hinter einem Bild. | Verwendung der Schriftgröße 0 | Verbergen eines Links, indem nur ein Zeichen verlinkt wird (Bindestrich, Komma, Punkt usw.)
  • Cloaking (cloak: verhüllen) sind irreführende Weiterleitungen um Suchmaschinen zu täuschen. Zum Beispiel werden Besucher weitergeleitet, um ihnen eine andere Seite zu zeigen als dem Suchmaschinen-Crawler. Oder Besuchern werden eine Seite mit Bildern oder Flash-Elementen gezeigt, während für Suchmaschinen eine Seite mit HTML-Text bereitgestellt wird.
  • Brückenseiten: Hierbei handelt es sich um Seiten mit geringer Qualität, die nur für einen bestimmten Suchbegriff oder eine bestimmte Wortgruppe optimiert wurden. Ganz gleich, ob Brückenseiten nun domainübergreifend, oder innerhalb (Introseite) einer Domain verwendet werden. Sie gelten als Manipulationsversuch. (Domainübergreifende Brückenseiten leiten die Besucher sofort entweder über eine Weiterleitung oder über große und deutlich sichtbare “Hier klicken”-Links auf eine andere Webseite weiter.)
  • Auch Satelitenseiten können zum kompletten Ausschluss der Webseite führen. Es sind Zusatzdomains um sein eigenes Linknetzwerk aufzubauen. (Eigene zusätzliche Domains mit Links zur Hauptdomain.)   

 Derartig manipulierte Webseiten werden meist dauerhaft aus dem Index der Suchmaschinen ausgeschlossen. Dann werden Sie garantiert nicht mehr gefunden!

Quelle: bio-seo.de


 

VORSICHT Info an SEO selbst gemacht:

Suchmaschinen lernen immer mehr dazu
und können entsprechende Maßnahmen immer besser erkennen.
Wer sich entschließt, die Suchmaschinenoptimierung selbst in die Hand zu nehmen, sollte bedenken,
dass man vielleicht aus Unwissenheit etwas unternimmt, was fatale Folgen haben kann.

Quelle: bio-seo.de


 

GZIP_ Kompression

GZIP_ Kompression

Nahezu alle Browser unterstützen seit vielen Jahren die Gzip-Kompression. Die Anwenderseite ist also bestens auf diese Webseiten-Komprimierungstechnik vorbereitet.

Nun müssen Sie nur noch Ihren Webspace entsprechend anpassen.

Wie das auf einfachste Art und Weise geschehen kann, wird hier beschrieben.

Was ist eigentlich eine GZIP_Kompression?

Gzip ist ein Kompressions-Algorhythmus, welcher ähnlich wie das RAR- oder ZIP-Format sehr verbreitet ist.

Es lassen sich bei Aufruf eines Web-Dokuments über die GZIP-Kompression etwa vierzig bis neunzig Prozent des Datenvolumens einsparen.

Das spart nicht nur zu übertragende Daten ein.

Zugleich werden die Dokumente schneller angezeigt.

Das läßt sich in den Grafiken von Google Analytics© sehr schön nachvollziehen.

Eine Bild-Datei allerdings ist im JPG- oder GIF-Format bereits komprimiert.

Dort bringt GZIP nicht mehr große Einsparungen.

Andererseits können Sie Ihre Bilder in besserer Qualität, also mit höherer Auflösung ins Web stellen.

Durch die GZIP_ Kompression werden diese ebenso schnell auf dem Besucher-Rechner angezeigt wie von vornherein stark komprimierte Bilder.

Alle anderen Daten eines Webseiten-Dokuments lassen sich jedoch hervorragend verkleinern, weil viele ihrer Bestandteile wie Tags etc. mehrfach vorkommen.

Und weil diese dann um soviel kleiner als das Original sind, braucht es vor allem für Dial up und ISDN-User signifikant weniger Zeit zum Übertragen.

Die dominierenden Apache und IIS Web-Server, auf denen die Domains gehostet sind, erlauben eine serverseitige Gzip- oder Deflate-Komprimierung.

Die gesparte Bandbreite geht hierbei allerdings zu Lasten der Server-CPU, weil sie das Umrechnen übernimmt.

Dies ist normalerweise unproblematisch, weil in der Regel nur einfach zu komprimierende HTML-, CSS- und PHP-Textinhalte komprimiert werden.

Zudem wird die Komprimierung nur dann durchgeführt, wenn der Besucher-Browser oder Suchmaschinen-Crawler sie unterstützt.

Wenn Ihre Server-CPU jedoch durch die Bereitstellung dynamischen Contents schon stark belastet ist, könnte eine Komprimierung des Contents nachteilig sein. Besser ist daher eine clientseitige Gzip-Komprimierung, welche den Server unbeteiligt läßt..

Gzip ist wegen seiner Prüfsumme und seines vollständigen Headers eine robustere Kodierung als Deflate – sie funktioniert immer.

Trotz ansonsten weitgehend ähnlicher Komprimierungsalgorithmen.

Quelle: chinnow.net