SEO 2.0 – natürlicher Linkaufbau ohne schlechtes Gewissen

Webmaster auf der Suche nach einer zeitgemäßen Linkstrategie

 

Linkbuilding

Seit Googles Penguin Update im April 2012 hat sich die SEO-Welt drastisch verändert. Viele Webmaster, die jahrelang auf die falschen Strategien (z. B. nach dem Motto „Viel hilft viel“) gesetzt haben, sind nach wie vor konsterniert und so manches Projekt, das über Jahre hinweg prächtige Umsätze generierte, wurde aus Verzweiflung in die Tonne gekloppt, weil es in den Augen Googles als Spam eingestuft wurde. Das Problem liegt darin, dass Google seit der Einführung des link-orientierten Bewertungssystems auf keyword-orientierte Links angewiesen war, um Websites ein Keyword-Ranking zu errechnen und zuzuweisen.

Zuvor richteten sich Suchmaschinen nach den Keyword-Metatags, was von Spammer so exzessiv ausgenutzt wurde, dass Google sich das linkorientierte System ausdachte und die Keyword-Metas fortan ignorierte. Dass Keywords innerhalb des Contents nur noch wirkten, wenn adäquate Backlinks vorhanden waren, wurde schnell erkannt und von etlichen Webmastern und SEOs dann ebenso schamlos ausgenutzt, indem sie grenzenlos Keywordlinks sammelten, kauften, tauschten, verkauften und sich auf dubiosen Webkatalogen und Artikelverzeichnissen besorgten. Nur war das Ganze wesentlich komplizierter und aufwendiger, als mal eben ein Metatag mit Suchbegriffen vollzustopfen, denn dafür benötigte man ja externe Sites, die bereit waren auf einen zu verlinken. So entstanden eben Linktausch und mit dem Linkverkauf und der Linkmiete ein riesiger Seifenblasen-Markt, der mit dem Google-PageRank als Währung sogar in Euro skalierbar war, obwohl dieser Faktor eigentlich nichts über das Ranking aussagte. Millionen, wenn nicht sogar Milliarden von Euro wurden hiermit umgesetzt!

Schon vor etlichen Jahren war mir bewusst, dass Google das 1. so nicht auf sich sitzen lässt und 2. dass der Konzern über genügend Macht und Mittel verfügt, neue Technologien zu entwickeln, die allzu plumpe Verlinkungsstrategien detektieren und die das Ranking von Links unabhängiger machen werden. Mit der Social-Media-Welle war dann spätestens klar, dass auch irgendwann andere Aspekte zur Rankingbestimmung verwerten werden können. Mittlerweile spricht man von Hunderten Faktoren, die mit verwertet werden. Dennoch setzte jeder nach wie vor  Keywordlinks bis zum Abwinken, denn es half ja. Und wenn einen der Konkurrent eben mit einem Keyword überholt hat, bestellte man sich ein weiteres, um dies wieder wettzumachen. Ob der dadurch entstandene Linkmix einer Domain dann einen natürlichen Charakter aufwies oder nicht, war allen „Optimierern“ völlig egal – denn Anchortext-Links halfen ja quasi immer.

Fakt ist:

  • dass jahrelang eindringlich davor gewarnt Google hat, auf falsche Linkstrategien zu setzen.
  • dass ein Mensch, der freiwillig einen Link auf eine Website setzt, niemals oder nur in ganz seltenen Fällen ein Keyword verlinken würde.
  • dass sämtliche Domains, die künstlich nach oben manipuliert wurden, nur bzw. fast nur Keyword-Links aufwiesen.
  • dass sämtliche Expert Sites und Shops großer Marken fast nur URLs, bzw. natürlich aussehende Texte verlinkt waren und der Keyword-Link Anteil nur ganz gering war.
  • dass jeder Wald- und Wiesen- Programmierer daraus eine Formel umsetzen kann, mit welcher er bestimmen kann, ob eine Domain natürliche Links hat, oder von SEOs nach oben gepusht wurde.
  • mit dem Penguin Update wurde das umgesetzt, was die logische Konsequenz aus den fragwürdigen Ansammlungen an Keywordlinks der „optimierten“ Domains im Web war.

Dennoch hat das Google Penguin-Update das gesamte SEO-Web dermaßen überrollt, dass ganze Existenzen dabei draufgingen. Und viele Webmaster fluchten und schimpften über Google, wie man sich derartige Frechheiten erlauben konnte. Dazu kam auch noch, dass viele Spamseiten nach vorne kamen, die mit ein paar billigen Bloglinks aus dem Ausland umkämpfte „Moneykeys“ nach vorne spülten, was für zusätzlichen Ärger und Unverständnis bei den Webmastern sorgte. Mittlerweile hat der amerikanische Suchdienst-Riese aber auch diese Fehler erkannt, das Update mehrfach nachgebessert und unliebsame Websites von vorderen Positionen verbannt.

Wie soll es nun weitergehen?

Eindeutig kann man sagen, dass man den Linkmix einer Domain so gestalten muss, dass er nicht als Keywordlink-Spam eingestuft wird. Das ist aber mit einer Domain, die bspw. jahrelang 10.000 Keywordlinks gesammelt hat – kaum mehr machbar, denn um einen natürlichen Linkmix herzustellen, würde diese Domain weitere 200.000 natürliche Links (bestehend aus URLs oder verlinkten Strings oder Wörtern wie „hier“ „zur Seite“ „Homepage“ etc.) benötigen. Dies ist technisch und zeitlich gesehen quasi unmöglich. Deshalb muss man sich hier Gedanken machen, wie man die vorhandenen Links ändert oder entfernen lässt. Zwar ist es bei einem kleineren Projekt, welches nur 50 Keywordlinks hat, erheblich einfacher genügend natürliche Links nachzubestücken. Ich gehe jedoch für mich von einem max. Anteil von 5- 7% Keywordlinks aus. Also müsste man hier 1.000 natürliche Links nachrüsten, was dennoch relativ aufwendig wäre. Zudem muss man auch hier aufpassen, das dies in einem natürlich wirkenden Zeitramen geschieht, denn keine Domain mit 50 existierenden Backlinks, bekommt binnen weniger Tage oder Wochen auf natürliche Weise 1.000 neue Links hinzu. Auch hier ist zu überlegen, ob man nicht lieber die 50 reduzieren und/oder einen erheblichen Anteil davon in „natürliche“ umwandeln soll, was ich für die einfachere Lösung halte.

Welche Rolle spielt Nofollow?

Auch der „Nofollow“ Anteil spielt eine gewaltige Rolle, denn keine Expert Domain hat beispielsweise ausschließlich Follow Links, sondern realistisch betrachtet wohl eher eine recht hohe Anzahl mit „Nofollow“. Jeder clevere Website oder Blog, respektive interaktive Website mit user-generiertem Content wird seine zahlreichen ausgehenden Links „Nofollow“ setzen. Schon allein, um nicht unnötige Domainpower an Seiten weiterzugeben, die man noch nicht einmal kennt. Die würde die Reputation und auch das Ranking der eigenen Website erheblich gefährden.

Webkataloge, Linklisten und Artikelverzeichnisse haben genau das Gegenteil getan und erlaubten durchwegs echte FOLLOW Links (zumeist wurde der Titel oder beliebige Deywords verlinkt), damit sie an minderwertigen Content von Usern kommen, um weitere neue Adsense und Affiliate Seiten automatisch zu generieren. Der Deal lautete „gib mir Content und Du kriegst ’nen Link“.

Gute und gepflegte Presseportale hingegen wurden nicht abgestraft, weil diese ihre Links von Anfang an „Nofollow“ setzten und sie – dank redaktioneller Pflege und Kompetenz – zudem besseren Content aufweisen als Kataloge. Im Prinzip setzt man Nofollow Links ein, wenn man auf Ziele linkt, die man nicht kennt oder die man niemals mit gutem Gewissen empfehlen würde. Ein echter Follow-Link gibt einen Anteil der eigenen Reputation an die Zielseite weiter, weshalb das Verlinken dubioser Ziele oder bei Google herabgestufter Websites immer Nofollow sein sollte.

Es kann durchaus sinnvoll sein, seine Website via Pressemitteilung in ein paar Presseportale einzutragen, um den Anteil an Nofollow und reine URL-Links im Gesamt-Linkmix zu erhöhen. Die Pressemitteilung sollte aber hochwertig geschrieben sein, so dass sie den Leser auch begeistert und dazu animiert, einen vorhandenen Link zu benutzen.

Weitere Informationen zur Verbesserung des eigenen Linkmixes sowie konkrete Angebote, die einem kein schlechtes Gewissen oder Kopfzerbrechen bereiten, gibt es auf meiner neuen Website.

TrustValue.de

Foto: © Cla78 – Fotolia.com