Marcus Tandler | Mediadonis | Just another Online-Marketing Superhero
 

Deep Thinking about Deep Linking

Andreas Bruckschlögl

Gast-Beitrag von Andi Bruckschlögl

Hi, ich bin Andi und als Head of Linkbuilding bei Tandler.Doerje.Partner für sämtliche Linkaquisitions verantwortlich. Aktuell koordiniere ich ein Team aus zehn freiberuflichen Linkbuildern, krempel aber auch noch immer selber gerne die Ärmel hoch, und helfe aktiv mit, die besten Links für unsere Kunden ranzuholen. Ich freue mich sehr, heute meinen ersten Gastbeitrag schreiben zu dürfen.

Gutes organisches Linkbuilding ist in den vergangenen Jahren kontinuierlich schwerer geworden. Ich arbeite nun schon seit ca. 4 Jahren mit Marcus zusammen, und der Aufwand in meinem Bereich hat sich in dieser Zeit gefühlt mindestens vervierfacht – gute Links zu aquirieren ist mittlerweile ein ziemlicher Knochenjob geworden, der weit über das simple Anschreiben & Betteln vergangener Zeiten hinausgeht. Außerdem ist bei weitem nicht mehr so einfach, mit einer handvoll Links beim Wunschkey zu ranken.
Deshalb muss ein guter Linkbuilder heutzutage eine Menge Faktoren beachten, wie z.B.:

  • den Mix von “nofollow” und “follow”-Links
  • ein ausgewogenes Verhältnis der Seitentypen (Blog, Forum, Portal etc.)
  • wie viele Links eine Domain täglich/wöchentlich/monatlich verträgt
  • die Anzahl an Trusted-Links und schwachem Backfill
  • Facebook-Likes, Shares, Tweets & andere Social Mentions
  • eine richtige Gewichtung von Brand- & Keywordlinks

Zur Gewichtung von Brand- und Keywordlinks hat Marcus erst im Dezember einen Artikel mit einer sehr ausführlichen Analyse veröffentlicht. Wer ihn noch nicht gelesen hat, sollte das unbedingt nachholen!

Lustigerweise konnte ich in den letzten Monaten viele Jungs und Mädels aus der Branche beobachten, die fast ausschließlich Brandlinks gebuildet haben, mit der Hoffnung, ihre Rankings entsprechend zu boosten. Aber leider schien die Rechnung allzuoft nicht ganz aufzugehen, denn wie ich bereits im oberen Absatz beschrieben habe, ist Linkbuilding mit der Absicht langfristig erfolgreich zu ranken, weitaus umfangreicher als das stupide Beachten einer Handvoll von Regeln! Die Tipps auf Blogs oder auch Konferenzen, ohne eigene Analysen und vor allem, der wichtigsten Waffe im Arsenal eines jeden SEOs, dem common sense, zu verwenden, geht, wenn überhaupt, nur kurzfristig gut (oder für vergleichsweise einfache Keywords).

Richtig bewusst wurden mir die Interpretationsfehler erst, als ich eine bestimmte “Problem-Seite", die ein bis dahin mir unbekanntes Gesamtbild abgegeben hat, genauer analysiert habe. Die Website besitzt einen großen Backfill (Domainpop > 1.000), darunter auch ein paar extrem starke Authorities. Die Anchors haben einen natürlichen Mix, so verlinken 70% mit “Brand”, “Quelle”, “hier” etc. und nur 30% mit spezifischen Keywords, meist aber keine Einzelkeys, sondern vielmehr Keywordkombis. OnPage ist die Seite ebenfalls sehr gut optimiert, und auf den ersten Blick offenbart sich nichts wirklich unnatürliches. Allerdings rankt sie für den vorhandenen Backfill verhältnismäßig schlecht. Aus diesem Grund habe ich mir die Daten bei Sistrix und in den Linkresearchtools genauer angesehen.

Auffällig war folgender Graph ->

Nur durchschnittlich 3,8% der Keywords ranken auf der ersten Seite.
Nehmen wir zum Vergleich die Rankingverteilung einer anderen Domain -> Sueddeutsche.de sieht das Ganze schon ganz anders aus ->

Hier ranken im Schnitt 11% der Keywords in der Top10. Zudem nimmt die Rankingverteilung von Seite 2 bis Seite 10 kontinuierlich ab.

Im oberen Graph ist die Verteilung von Seite 3 bis Seite 10 ziemlich gleich bei 11%. Zuerst dachte ich, dass die Seite evtl. eine -30 oder auch -950 Penalty haben könnte, was bspl. durch folgende von Google unerwünschte Maßnahmen geschehen kann ->

  • Keyword-Stuffing
  • Links auf Linkfarmen oder Seiten mit Bad Neighbourhood
  • Cloaking / Doorway Pages
  • Unkonsequentes Linkbuilding
  • Zu viele Keywordlinks, auch BLOOP genannt (Backlink Over Optimization Penalty)

Aber die Seite schien sauber zu sein, so konnte ich dort keine der oben aufgeführten Techniken entdecken. Ein weiterer Grund könnte sein, dass die Seite bspl. nach einem Relaunch (im schlimmsten Fall mit URL-Umstellung) für ein paar Monate in einem Filter hängen bleibt – auch ein recht typisches Muster, dass bspl. so aussehen kann ->

Diesen Verlauf sieht man im Moment nicht selten, selbst bei größeren Portalen, die zu viel am Code umstellen. Der Worst-Case ist natürlich eine schlagartige Umstellung der kompletten URL-Struktur inkl. der internen Links. Da kommt der Google-Crawler ganz schön ins Schwitzen, und bis die Seite anhand der neuen Datenbasis neu evaluiert wurde, kann schon mal etwas Zeit vergehen. Meistens erriechen solche Seiten erst nach einigen Wochen oder Monaten wieder ihre alten Rankings, und teilweise verlieren sie diese sogar dauerhaft… Allerdings wäre die Rankingverteilung dann zumindestens vor dieser Umstellung auf einem normalen Niveau gewesen. Also bin ich in 3-Monatsschritten bis zum 25.02.2008 zuürckgegangen (da hat Johannes angefangen mit Sistrix Daten zu sammeln), aber auch dieser Weg war eine Sackgasse…

Deshalb habe ich noch einmal jedes noch so kleine Detail analysiert, bis mir dann die Deeplink-Ratio ins Auge fiel ->

90,99% der Links verweisen auf die Startseite, und lediglich 9,01% auf Unterseiten. Da die Seite so aufgebaut ist, dass eine Verlinkung auf die Startseite durchaus natürlich ist (was natürlich fast schon ein Sonderfall ist), ist mir das bei der reinen Backlinkanalyse nicht weiter aufgefallen. Alle anderen Faktoren weisen definitv keine untypischen Kriterien auf, weshalb es also fast daran liegen muss, dass die Unterseiten zu wenig externen Linkjuice erhalten.
Es macht natürlich auch aus Google´s Sicht extrem viel Sinn, Seiten mit zu vielen Startseitenlinks in Relation zu Links auf Unterseiten ein wenig kritischer zu beäugen! Warum? Weil genau das früher die Masse an Hobby-Affiliates und -SEOs en masse praktiziert haben. Hier fallen mir die ganzen Blogs ein, für die wie wild Blogroll-Links getauscht wurden, die alle auf die Startseite führten, und zudem auch noch Sitewide waren. Dann natürlich auch die “Kredit-ohne-Schufa“-Vergleicher, die nicht mehr als fünf Seiten Content gebaut, und massenhaft Links mit dem Key “Kredit ohne Schufa” direkt auf die Startseite geballert haben. Zum Glück hat es sich ja heutzutage in die richtige Richtung entwickelt, so versuchen Affiliates viel häufiger richtigen Mehrwert zu schaffen, und im besten Fall sogar einen richtigen Brand aufzubauen.

Technisch gesehen ist es für Tante Google keine große Kunst, die Deeplinkratio zu messen und dann entsprechende Seiten abzuwerten.

Richtig lustig wird es erst, wenn man die Rankingverteilung von zwei Seiten betrachtet, wovon eine in diesem "Deeplink-Filter" zu sein scheint (rot), die andere aber wiederum nicht (blau):

Beinahe vier mal so viele Keys ranken bei der “normalen” Seite in den ersten 10 Ergebnissen! Was das an Traffic- und folglich Einnahmenverlust bedeuted, die durch diesen Filter entstehen, könnt ihr euch sicher denken. Selbst auf der zweiten Seite ist die abgewertete Domain gerade mal halb so gut verteten. Bei Themen, bei denen User bis in die Top20 durchklicken, ist das ebenfalls nochmal ein nicht unbedeutender Anteil, der hierdurch verloren geht.

Klar, eigentlich nichts wirklich Neues – auch Marcus erwähnt in seinen Vorträgen ja schon seit Ewigkeiten, dass es mindestens genauso wichtig ist, auf Unterseiten zu verlinken, und man nicht nur für die Startseite Links builden sollte. Neu war für mich allerdings, dass hier scheinbar ein richtiger Filter getriggert wird, und selbst Seiten mit guten Backlinks davon betroffen sein können. Dies ist wiederum eine Chance für viele Seiten da draußen, mit ein paar richtig gesetzten Links, die Sichtbarkeit ihrer gesamten Seite zu erhöhen!

Probieren geht über studieren

Um meine Annahme auch empirisch mit entsprechenden Daten zu belegen, habe ich eine größere Analyse durchgeführt. Gesamt habe ich mir 200 Seiten angesehen. Jeweils 20 Domains aus zehn komplett verschiedenen Themen, wie bspl. Gutscheine, Auto, Technik, Medizin, etc.
Zudem habe ich nur Domains untersucht, die eine Domainpopularität von mindestens 600 haben, und seit mindestens 2 Jahren auch kontinuierlich ranken. Hier konnte ich Faktoren wie den “Newbie-Bonus”, oder auch andere kurzfristige Filter ausschließen. Domains, die zum Beispiel zu viele Keywords-Backlinks, oder schlechte Links besitzen, habe ich ebenfalls aussortiert.

Durch die Analyse habe ich erschreckend viele Domains gefunden, die dem obigen Muster stark ähneln! Hier einmal vier Beispiel-Graphen der Rankingverläufe verschiedener Domains aus unterschiedlichen Themengebieten, die sich in diesem "Deeplink-Filter" zu befinden scheinen. Da es hier um den Filter an sich geht, und nicht um spezielle Domains, habe ich die Url absichtlich weggelassen.

Thema: Gutscheine

Startseitenlinks: 73,56% / Unterseitenlinks: 26,44%

Thema: Technik

Startseitenlinks: 94,02% / Unterseitenlinks: 5,98%

Thema: Auto

Startseitenlinks: 90,12% / Unterseitenlinks: 9,88%

Thema: Dating

Startseitenlinks: 69,90% Unterseitenlinks: 30,10%

Die Graphen haben alle ein ähnliches Muster. Das wohl markanteste ist sicherlich, dass die Keywords der Domains mit nur 2-4% in den Top10 ranken und auch die Platzierung auf Seite 2 schlechter ist als die einer nicht betroffenen Seite. Die Ratio der Startseitenlinks bewegt sich bei den Beispielen zwischen 69-94%. Im Gegenzug fand ich jedoch auch Domains mit 89% Startseitenlinks, die nicht im Filter zu sein schienen. Hier muss man natürlich ganz klar auch die Linkstärke beachten! Eine Seite, die nur Powerlinks auf die Startseite, und viele billige Social-Bookmark, AVZ- & Webkatalog-Links auf die Unterseite hat, kann trotzdem in diesem Deeplink-Filter landen. Umgekehrt allerdings gibt es auch Domains mit gerade mal 10% Unterseitenlinks, die einen gewöhnlichen Rankingverlauf aufzeigen, aber hier war der Trust / die Authority der Startseitenlinks schon wirklich extrem. Man muss hier einfach wieder das Gesamtbild betrachten, und darf sich nicht nur auf die Ratio stürzen! Also bitte keine Gegenbeispiele anbringen, die ein unausgewogenes Linkprofil haben, aber trotzdem normale Rankings aufweisen.

Auch Dixon Jones hat bei seinem Vortrag “Panda – The Quality Bear of Search Eats Affiliates” auf der A4U hier in München entsprechende Beispiele vorgebracht. Er hatte in den letzten Wochen die Backlinks der Seiten analysiert, die vom Panda-Update betroffen sind, und kam zu dem Ergebnis, dass unter anderem die Qualität der externen Links, die auf Unterseiten verweisen, einer der “Panda-Faktoren” sein könnte.

Wie bereits erwähnt, habe ich diesen Faktor auch genauer betrachtet, und kann hier zwei entsprechende Beispiele zeigen.

Betroffene Domain

Startseitenlinks: 21,50%
Unterseitenlinks: 78,50%

Nicht betroffene Domain

Startseitenlinks: 59,90%
Unterseitenlinks: 40,01%

Die betroffene Domain besitzt zwar einen sehr großen Anteil an Deeplinks, allerdings sind diese sehr schwach, und größtenteils niedriger Qualität. Aus dem Grund könnte die Domain vom Filter betroffen sein. Bei der nicht betroffenen Website das genau entgegengesetzte Muster. Es verweisen laut Deeplinkratio prozentual mehr Links auf die Startseite, jedoch fließt 77,67% des gesamten Linkjuices auf die Unterseiten.

Wie sieht eine natürliche Ratio aus?

Das ist ganz klar themen- und juiceabhängig! Trotzdem möchte ich euch hier ein paar Zahlen bekannter Domains zeigen, die ein natürliches Linkmuster aufweisen und keine (oder nur sehr wenig) Links tauschen oder kaufen. Der Klassiker ist natürlich das gute alte Wikipedia – hier verlinken die meisten Webmaster direkt auf die entsprechende Unterseite, und nicht auf die Startseite. Hier noch ein paar andere Beispiele ->

  • welt.de Startseitenlinks: 13,36%
    Unterseitenlinks: 86,64%
  • stern.de Startseitenlinks: 29,60%
    Unterseitenlinks: 70,40%
  • bild.de Startseitenlinks: 44,62%
    Unterseitenlinks: 55,38%
  • alternate.de Startseitenlinks: 24,23%
    Unterseitenlinks: 75,77%
  • samsung.com Startseitenlinks: 17,19%
    Unterseitenlinks: 82,81%
  • apple.com Startseitenlinks: 2,61%
    Unterseitenlinks: 97,39%

Aus meinen Analysen kann ich entnehmen, dass der Großteil der Domains, mit einem natürlichen Linkmuster, überwiegend Links auf Unterseiten besitzen. Das ist auch logisch, wenn man die Sache mit gesundem Menschenverstand sieht. Möchte ich in einem Blogpost auf das IPhone hinwiesen, verlinke ich natürlich nicht die Apple.com, sondern direkt die Produktseite, um meinem Leser auch nicht unnötig zu verwirren, bzw. ihm nerviges rumgesuche zu ersparen.

Mediadonis meint

Was sollte man jetzt am besten tun?

Brand-Links zu builden ist definitiv ein Schritt in die richtige Richtung. Allerdings ist es nicht sinnvoll, diese nur auf die Startseite zu builden. Nehmen wir doch einmal das Beispiel, dass ihr Links in PR-Portalen sammelt. Geht hier doch einfach zuvor her und veröffentlicht diese mit zusätzlichen Informationen auf einer Unterseite. Dann verlinkt ihr in den PR-Portalen nicht eure Root, sondern mit dem Hinweis, zusätzliche Infos zu erhalten, auf die Unterseite. Und genau so sollte natürlicher Linkaufbau aussehen! Ihr setzt einen Link, um dem Leser weitere Informationen anzubieten oder ihn direkt auf ein Produkt hinzuweisen. Beides wird er wohl eher weniger auf eurer Startseite finden.

Auch im Hinblick auf das bevorstehende Panda-Update macht es Sinn, seinen Backfill jetzt in Ordnung zu bringen, falls unnatürliche Muster vorliegen.

Was meint ihr dazu? Postet doch einfach eure Meinungen oder Einschätzungen zu diesem Thema als Kommentar.

77 Comments on "Deep Thinking about Deep Linking"

  1. Niels Doerje sagt:

    Great post Master;) Kaum bin ich mal nicht da.

    Cheers Niels

  2. StarKiss sagt:

    Super post, mein Lieber!

  3. xeomed sagt:

    Sehr hilfreich und nützlich, Deine Ausführungen. Freue mich schon auf den nächsten Beitrag!

  4. Christian sagt:

    Endlich mal ein richtig guter und hilfreicher Artikel über Linkaufbau und wirklich super uns Detail gegangen.

  5. Peter sagt:

    Wirklich toller Artikel.
    Eine Frage hab ich noch: dass die Unterseiten nicht ranken, wenn sie nicht verlinkt werden, klingt nur plausibel.
    Aber wie ist es mit der gut verlinkten Startseite? Rankt die dann wenigstens gut für die eingesetzten Keys? Doof wärs ja wenn die trotz guter Links durch den Filter auch nach hinten rutscht…

  6. Hi Andi,

    ein wirklich mächtig guter Post mit vielen Guten Material, dass das alte wissen über DLR wieder ausgräbt und zur Diskussion anregt.

    Natürlich sind wie Marcus richtig sagt, div. Verallgemeinerungen und Vereinfachungen mit Vorsicht zu genießen.

    Aus diesem Grund werden wir demnächst die DLR SEO Metric auch für alle sichtbar in den LinkResearchTools haben, d.h. dort v.a. mit dem CLA solch Auswertungen auf Themenbasis beschleunigen.

    VG aus Wien
    Christoph

  7. Dan sagt:

    Hola Chico Andi,

    seit langem mal wieder ein richtig “bemerkenswerter” Post mit schönen Daten unterfüttert in der “SEO-Welt”. Weiter so, ich hoffe Marcus lässt dich nun öfters mal “ran” ;)

    SERPDOM!

  8. [...] Top-Artikel: “Natürliche Linkverteilung” und wie das Startseiten-zu-Deep-Link-Verhältnis für gute Rankings aussehen sollte [...]

  9. Tamer sagt:

    Great, was ein Artikel! Respekt! Es wurde alles dazu geschrieben und kommentiert. Ich hab allerdings nur noch eine Frage. Wenn wir tollen SEO’s jetzt anfangen einen sog. natürlichen Linkaufbau nachzubauen, geht das doch wieder in die gleiche Richtung wie mit den KW-Links?

    Wir werden jetzt wieder die neue Marschrichtung einschlagen bis Google sich denkt: “Ihr Hohlköppe, ihr kapiert einfach nichts” :-) .

  10. eMaBo sagt:

    Da hat sich aber einer richtig Mühe gegeben einen sauberen Artikel zu verfassen – Danke!

    @ Gretus -> das mit den Startseitenlinks und Unterseitenlinks sehe ich ähnlich

  11. Jan sagt:

    Sehr guter Artikel, der auch mir Nicht-SEOler klargemacht hat, worauf es ankommt.
    Danke!

  12. Tommes sagt:

    Wow- sehr sehr interessant, gerade der Anteil von Apple erstaunt mich dann doch. Bin bei meinem aktuellen Projekt auch gerade daran zu testen und strebe das Verhältnis 20/80 an und bin mit den bisherigen Ergebnissen 100% zufrieden – Rankings belegen deinen super Artikel!

    Vielen Dank

  13. Campster sagt:

    Interessanter Ansatz, habe mich selbst auch schon in verschiedenen Bereichen umgesehen, es fallen auch immer wieder seiten auf die toll ranken und und weit über 80% links auf der index haben.
    interessant wird wohl auch sein wie sich die Gegenmassnahmen in den nächsten Monaten auswirken, wo dann unzähige auch bessere backlinks als Deeplinks gesetzt wurden !?

  14. Gerald sagt:

    Ist hier offenbar noch niemandem aufgefallen, aber der Link zur Süddeutschen Zeitung hat ein w zuviel abbekommen ;)
    Was meint ihr eigentlich ab welcher Anzahl von Backlinks das wirklich eine Rolle spielt? Die Beispiele haben ja alle für für die statistische Auswertbarkeit sehr viele, spielt sowas bei Seiten mit weniger als 100 Backlinks überhaupt schon ne Rolle?

  15. rockpianist sagt:

    Ein sehr guter, nachvollziehbarer Ansatz. Die Seitengröße spielt natürlich auch eine Rolle. Apple hat viele Seiten, muss natürlich mehr Deeplinks bekommen als eine kleine Präsenz.
    rockpianist

  16. Hi Andi,

    ich schon wieder :)

    Wollt Dir nur sagen, dass die nächste LRT Version u.a. auch eine feine Analyse der Deep Link Ratios automatisiert…

    Beispiel siehst Du hier, aus dem CLA für …

    http://cemper.co/dlr

    Damit wird die Analyse der Deep Link Ratios für viele verschiedene Keywords, Sprachen, Themen zum Kinderspiel :) das Testen macht schon mal sehr sehr viel Spass :)

    Du kannst es dann aber zB auch im BLP einfach für bestehende oder neue Reports bekommen, exportieren, etc… :)

    Na was meinst Du?

    VG aus Wien
    Christoph

  17. Super Artikel.
    besonders der Schlussabsatz ist zu 100% korrekt. Das bringt erneut auf den Punkt, dass wir alle ausschließlich für den Kunden optimieren müssen – und nicht für google.

    Den so oft angesprochenen “Natürlichen Linkaufbau” sollten wir den Usern überlassen.
    Die können das viel besser.

  18. F. sagt:

    Super aufschlussreicher Artikel. Wirklich sehr informativ. Das ganze ist zwar ohnehin logisch aber die Untersuchung von Dir hat es dann bewiesen.

  19. Tobias sagt:

    Danke für die Mühe und den detailierten Artikel.

    Ich denke der Nischen- oder Themen-Ratio ist ein guter Anhaltspunkt für den eigenen Linkaufbau und für ein natürliches Verhältnis.

    Was mich allerdings noch interessieren würde ist, inwieweit die interne Verlinkung eine weitere tragende Rolle spielt, wenn man z. B. zwei gleiche Seiten mit ähnlichen Themen und Linkstruktur hätte.

  20. Kubaner sagt:

    Ich hatte vor einiger Zeit einen Test gemacht. Eine Seite nur mit einem Keyword – nur Startseitenlinks- hunderte Webkataloge… Sbs und alles nur das Hauptkey und oh Wunder … die Seite rankt auf 1 stabil – OK nur mit dem Hauptkey… würde ich nie mit etwas wichtigen machen – aber es geht auch…

  21. Armin sagt:

    Danke für diesen aufschlussreichen Beitrag. Ich habe bisher als absoluter Seo-Neuling auch fast nur auf die Startseite verlinkt. Hoffentlich rächt sich das nicht. Werde ab jetzt verstärkt nur noch auf Unterseiten verlinken.

  22. Sascha Blank sagt:

    Toller und aufschlussreicher Artikel. Ich werde das ebenfalls näher analysieren und beobachten.

Trackbacks for this post

  1. Offpage und Linkaufbau • seo-selfmade.de
  2. SEO Offpage und Linkaufbau • seo-selfmade.de
  3. Der SEO-Blog-Wochenrückblick KW 49 | SEO Trainee - Ab hier geht´s nach oben
  4. Penalty – Google zeigt die Rote Karte | SEO Trainee - Ab hier geht´s nach oben
  5. SEOkomm 2011 Recap | SEOux Indianers Onlinemarketing Blog

Got something to say? Go for it!