Hier im Blog findet ihr Informationen zu den Google Updates, Filter und Abstrafungen mit Tipps und Hilfe um die Website von dem jeweiligen Filter wieder zu befreien. 

Ist eine Seite in einem der Filter gelandet, dann muss erst einmal die Onpage Optimierung bereinigt und
wie im eBook beschrieben neu aufgebaut werden. Dann wertet man die falsch gesetzten
Backlinks selbst ab, dazu kann das Disavow Tool von Google genutzt werden. Dazu werden die
betreffenden Links in das Tool eingegeben und per Button markiert und abgewertet.

Wichtig zu wissen ist, dass Panda und Penguin Update immer zusammen spielen. Nur eine Web-Seite,
die vorher schon durch das Panda Update abgewertet wurde, kann auch Abstrafungen durch das
Penguin Update erleiden.

Falls eine Webseite nach einem Update 2,3,4,5,6 oder mehr Plätze verliert, ist das keine Abstrafung in
dem Sinne, sondern diese Webseite hat Backlinks verloren. Dies wiederum weil Google Backlinks
abwertet, die von einer abgestraften Seite stammen. Schlagen oder Panda oder Penguin zu, verliert eine
Webseite deutlich mehr als nur ein paar Plätze.

Das Penguin 2.0 hat praktisch noch einmal nachgeräumt und hat alle Webseiten abgestraft, die zu viel
Backlinks von Seiten enthielten, die vom Panda-Update abgestraft wurden.

Kommt es bei einer Webseite zur Abstrafung wegen Panda oder Pinguin wird die Ursache häufig in den
Backlinks gesucht. In der Regel liegt das Problem jedoch nicht dort, sondern im Aufbau der Webseite
und/oder darin, dass Duplicate Content vorhanden ist. Doppelte Inhalte auf einer Webseite gehören
nach wie vor zu den wichtigsten Gründen, aus denen eine Webseite abgewertet wird und in ein Filter landet. Gleiche oder
auffällig ähnliche Inhalte auf einzelnen Webseiten oder den Unterseiten einer Domain lassen Google
vermuten, dass es sich hier um eine absichtliche Täuschung geht - die Abstrafung der Seite durch
Abwertung ist die Folge.

DC kann übrigens auch ganz unbeabsichtigt entstehen, zum Beispiel wenn eine Webseite sowohl über
„www.webseite.de“ wie auch „webseite.de“ erreichbar ist und keine Weiterleitung von der einen zur
anderen Seite vorhanden ist.

Entdeckt Google Duplicate Content, wird automatisch nur eine Webseite indiziert, welche das ist, kann
der Seitenbetreiber nur bedingt beeinflussen. So kann es geschehen, dass zum Beispiel auch die
Druckversion einer Seite (falls vorhanden) indiziert wird. Maßnahmen zur Verhinderung von DC sind zum
Beispiel die Einrichtung einer 301-Weiterleitung, bei der der Nutzer automatisch auf die gewünschte
Seite umgeleitet wird oder die Kanoninisierung, bei der im HTML-Code die für die Indizierung
bevorzugte Seite angegeben ist.

Doppelter Content lässt sich mit Hilfe verschiedener Tools aufspüren, zum Teil sind diese auch kostenlos.
Die einfachste Möglichkeit ist die Eingabe einer Phrase aus einem Text in Anführungszeichen bei Google.
Um doppelte Inhalte innerhalb einer Webseite aufzuspüren, gibt es im Netz ebenfalls zahlreiche Tools.

Das EMD-Update von Google im September 2012 zielte auf Keyword-Domains mit “minderwertigem
Content ab, die es dennoch geschafft hatten, in den SERPs ganz oben zu stehen. Letztendlich war dieses
Update nicht anders als das Panda-Update, nur eben auf Keywords bezogen. Diese waren nämlich im
ersten Durchgang sozusagen „durchgerutscht“.

Die Abstrafung betraf in erster Linie Seiten, bei denen nicht nur auf das Haupt-Keyword, sondern
zusätzlich auf stark verwandte, aber dennoch nicht exakt passende Keys optimiert wurde. Dies betraf
Keywords im Content ebenso wie solche in den Kategorien. Hier ein Beispiel für eigentlich recht
passende Kategorien, die dennoch zur Abstrafung führten:

Wird eine Homepage mit dem Domainnamen spruechezumnachdenken auf das Keyword „Sprüche“
optimiert und nicht auf „Sprüche zum Nachdenken“, dann passiert jetzt – fast gar nichts, zumindest was
das Ranking angeht. Vor dem EMD-Update war eine derartige Optimierungs-Technik
erfolgversprechend, nach dem Update funktioniert sie nicht mehr.

Früher hat diese Form der Optimierung vor allem auch deshalb funktioniert, weil jede Seite einer
Homepage für sich stand und einzeln gewertet wurde. Da konnte die eine Unterseite super ranken und
die andere war eben in einem Filter gelandet. Heute zählt jede Seite bei der Entscheidung, ob die
komplette Homepage ranken wird oder nicht. Verliert eine Seite ihre Rankings innerhalb der Homepage,
dann werden aller Wahrscheinlichkeit auch die anderen folgen.

Von einer Abstrafung verschont geblieben wäre die Domain zum Beispiel dann, wenn statt auf „Männer
Sprüche“, „Männer Sprüche zum Nachdenken“ als zusätzliches Key optimiert worden wäre. Um jetzt auf das Keyword „Sprüche“ zu optimieren, hätten die Kategorien der Webseite etwa „Männer Sprüche zum
Nachdenken“, „Liebes Sprüche zum Nachdenken“ usw. lauten müssen.

Wo liegt jetzt aber der entscheidende Unterschied, die Keywords sind ja eigentlich bei beiden
Beispielen die gleichen?
Entscheidend ist das Hauptkeyword. Lautet die Keyword-Domain „Sprüche zum Nachdenken“, dann
muss auch genau darauf optimiert werden, damit die Seite nicht unter die Filter des Updates fällt. Zieht
man diese Optimierung bis zur letzten Konsequenz, das heißt bis in die unterste Ebene, durch, ergibt
sich ein positiver Effekt: Da jetzt auch alle Keys für das Keyword „Sprüche“ eingebaut sind, wird die Seite
auch dafür ranken, obwohl die Seite an sich auf „Sprüche zum Nachdenken“ optimiert wurde.

Das Penguin Update im April 2012 sollte Webspam in den Suchergebnissen möglichst radikal
dezimieren. Für Google sind alle Techniken, die nur dem Zweck einer guten Positionierung in den
Suchergebnissen dienen und dem Seitenbesucher keinen Mehrwert bieten, als Webspam einzuordnen.
In den Webmaster Guidelines verbieten Google konkret den Einsatz von Techniken wie Cloaking,
Doorway-Pages, Keyword-Stuffing oder Linkfarmen. Das Penguin Update erweiterte das Panda Update.
Während dieses Onpage Fehler abstrafte, kümmerte sich Penguin noch einmal intensiv um die
Backlinks.

Die „falschen“ Backlinks waren logischerweise eine Folge der unpassenden Onpage-Optimierung. Um
bei unserem Beispiel zu bleiben: Heißt eine Domain „Auto kaufen“, dann darf der
Anchortext für die Backlinks nicht „Auto“ heißen. Seiten, die bereits beim Panda Update aufgrund
der Onpage-Optimierung abgestraft wurden, bekamen mit Penguin nochmal eins drüber, diesmal aber
aufgrund des Linkbuildings.

Im Mai 2013 wurde dieses Update nochmals in überarbeiteter Form aufgerollt. Damit nutzt Google die
immer ausgefeilteren Techniken, die sich im Bereich der Webspam-Erkennung bieten.
In diesem Zusammenhang stellt sich häufig die Frage, ob es sich beim Penguin Update 2.0 nicht
eigentlich um ein Data-Refresh des Penguin Updates handelt. Die Frage lässt sich klar mit nein
beantworten, denn bei einem Data Refresh ändert sich lediglich die Datenbasis, um die Gewichtung des
Algorithmus zu optimieren. Beim Update dagegen werden Änderungen am Algorithmus selbst
vorgenommen. Data Refreshs haben im Vergleich zum Update deutlich weniger Auswirkungen, da nur
geringfügige Faktoren in ihrer Wichtigkeit neu eingestuft werden.

Das Penguin 2.0 wurde in SEO-Kreisen stark gefürchtet, im Juni 2013 sieht es bisher allerdings so aus, als
würde sich der Schaden für die Webseiten in Grenzen halten.

Das Google Panda Update wurde im August 2011 weltweit ausgerollt, der Ranking-Algorithmus von
Google wurde dabei tiefgreifend verändert. Es wurde ein neuer Filter eingesetzt, den in regelmäßigen
Abständen alle Seiten im Google-Index durchlaufen. Webseiten mit niedriger Qualität rutschen dabei in
der Sichtbarkeit auf die hinteren Plätze.

Im Unterschied zu früheren Veränderungen in den Algorithmen hat sich Google bei diesem Update
erstmals auf die gesamte Webseite, bzw. auf zusammenhängende Teilbereiche konzentriert. Die
vorherigen Updates bezogen sich auf die einzelnen Unterseiten: Auch wenn eine Unterseite abgewertet
wurde, konnten weitere Seiten durchaus noch gut ranken. Dies ist nun nicht mehr der Fall.
Ziel des Updates war es für Google, die Qualität der Suchergebnisse zu verbessern und Seiten mit
minderwertigen oder wenigen Inhalten aus der Sichtbarkeit zu nehmen.
Nach der Einführung haben sich folgende Faktoren ergeben, die den Wert einer Seite bestimmt, bzw. Sie
abwertet:

  • Wenig Unique Content
  • Wenige oder keine hochwertigen Backlinks
  • Geringe Verweildauer der Besucher
  • Hoher Anteil an DC (Duplicate Content)
  • Hohe Absprungrate
  • Hoher Anteil an Seiten mit geringem Unique Content
  • Hoher Anteil an Boilerplate Inhalten (gleichartige Texte oder Links auf jeder Unterseite)
  • Seiteninhalt und Seitentitel passen nicht zur Suchanfrage
  • Übermäßig hohe Keyworddichte innerhalb eines Textes
  • Falsche Onpage Optimierung, wer unpassende Keywords nutzt, wird durch das Panda

Update abgestraft. Diese Regel gilt für Keyworddomains ebenso wie für alle anderen Domains.

Werden mehrere dieser Faktoren auf einer Webseite identifiziert, führt dies möglicherweise zu einem
Sichtbarkeitsverlust innerhalb der Suchergebnisse. Laut Angaben von Google beträgt der Anteil an
Abstrafungen für englischsprachige Seiten 12%, für alle anderen Sprachen 6 bis 9%.

Im Zusammenhang mit dem Panda Update ist auch der Begriff “low quality” gefallen. In der Praxis hat
sich herausgestellt, dass Keyworddomains als “low quality” abgestuft werden, wenn neben dem
Hauptkeyword noch auf zwar verwandte, aber dennoch artfremde Keys optimiert wird. Überträgt man
diese Definition auf die Homepage hier wäre es also
kontraproduktiv, hier plötzlich Keywords wie “Versicherung” oder “Immobilien” zu finden.

Unterkategorien

Hier sind alle aktuellen Google Updates beschrieben.

Cookies

© 2014 SEO mit Keyworddomains

Please publish modules in offcanvas position.