Marcus Tandler | Mediadonis | Just another Online-Marketing Superhero
 

All posts in SEO related Stuff

Happy Birthday OnPage.org

Wie schnell doch ein Jahr vergeht… es fühlt sich fast wie gestern an, als wir mit OnPage.org in die Beta-Phase gestartet sind und 100 Early-Adopter Beta-Accounts unserer neuartigen SEO Analyse-Tool an SEO begeisterte First Mover rausgehauen haben. Niemand im Team hätte sich damals träumen lassen, dass diese 100 Beta-Accounts in weniger als 24 Stunden vergriffen sein würden – ich persönlich hatte mit 3-4 Tagen gerechnet, denn immerhin musste man ja quasi die Katze im Sack kaufen, so hatte bis dahin ja niemand das Tool sehen können und nur eine kurze Tour offenbarte ein paar der in der Software enthaltenen Features. Umso unglaublicher, dass von diesen 100 Beta-Kunden ein Jahr später 87 noch immer mit dem Tool erfolgreich arbeiten – ein herzliches Dankeschön an dieser Stelle an unsere Beta-OnPage´ler, die uns über das Jahr hinweg immer wieder wertvollen Input zur Verbesserung und Tuning unserer Tools gegeben haben!

Nach einer erfolgreichen Beta-Phase sind wir dann am 30.August letzten Jahres offiziell an den Start gegangen – und dies gleich mit mehreren interessanten Neuerungen, wie bspl. dem CTR-Assistenten, der noch heute eines der beliebtesten Tools innerhalb von OnPage.org ist.

Zum Jahreswechsel wurde es uns bereits zu kuschlig in unserer Bürogemeinschaft mit den Mannen von Team Internet, aber ein neues pimpes Office war glücklicherweise schnell gefunden. Das ehemalige Gucci-Office mitten in der Münchner Innenstadt, das mit schickem Keller ausgestattet sogar Platz für eine Rock´n´Rollige OnPage Cave bietet :-)

Bereits im Januar, also gerade mal knapp 5 Monate später, konnten wir bereits mit Mirapodo unseren 500sten aktiven Kunden begrüßen! Stand heute werden weit über 3.000 Domains mit Hilfe von OnPage.org überwacht und optimiert!

Absolutes Hightlight war natürlich die Nominierung und Sieg bei der Wahl zum Start-Up des Jahres 2013 seitens des eco Verbands der deutschen Internetwirtschaft e.V. – eine tolle Bestätigung für die harte Arbeit des gesamten Teams!

Mit den stetig steigenden Kundenzahlen stieg selbstverständlich auch der Bedarf nach neuen Superhelden, die dabei mithelfen unser Tool noch besser zu machen und unseren Kunden erstklassig zu betreuen. Ich hätte nie gedacht, dass unser Team in gerade mal einem Jahr auf mittlerweile 24 Superheros anwachsen würde! Und wir sind weiterhin auf der Suche nach tatkräftiger Unterstützung.

Und es geht spannend weiter! Im September werden wir zum ersten Mal mit einem Kick-Ass Messestand auf der dmexco in Köln vertreten sein. Schaut doch vorbei, wenn Ihr am 18. und 19.September ebenfalls auf der Messe unterwegs seid! Und natürlich muss so ein fantastisches erstes Firmenjubiläum anständig gefeiert werden! Ursprünglich wollten wir nur einen lässigen OMClub Warm-Up machen – ich gehe mal davon aus, dass sich niemand den mittlerweile 6. (!) OMClub, die INoffizielle dmexco Party, am Abend des ersten dmexco-Messetags entgehen lassen wird!

Wir freuen uns sehr, dass das t3n-Team sich uns anschließt und mit uns ab 18:00 Uhr in der Halle 6, Stand A011 den "Start-Up of the Year Bash" feiert. Ein idealer Warm-Up für den OMClub mit den beiden OMClub DJs Jens Witzig & Bosko Todorovic.

Komm vorbei und feier mit t3n & OnPage.org den ultimativen "Start-Up des Jahres- Bash"! Bring Deine Kollegen und Freunde mit! Wir freuen uns mit Dir mit echtem bayerischen Bier "Tegernseer Spezial", einem leckeren Hugo oder Wodka Captain anzustoßen! Anmeldung via Facebook

Wir sehen uns in Köln :-) #WeLoveYouLongtime

Update im Online-Marketing: Neue Anforderungen für Online-Shop-Betreiber

Gastbeitrag von Rechtsanwalt Dr. Marc Laukemann und Rechtsanwalt Ulrich Fratton

Dr. Marc Laukemann

In letzter Zeit erging eine Vielzahl an Entscheidungen zum IT-Recht. Darüber hinaus betreibt der Gesetzgeber sowohl auf nationaler als auch auf EU-Ebene derzeit massive Änderungen der Gesetzeslage. Diese betreffen derzeit vor allem Internetshops.

Buttongesetz

Zwar wurden die Darstellungspflichten, die ein Onlineshop erfüllen muss, bereits zum 01.08.2012 reformiert. Noch halten sich nach einer Recherche des Verfassers etliche Unternehmen nicht an die geltenden Vorschriften. So muss etwa auf dem Button, mit dem die Erklärung des Bestellers final abgegeben wird, ein eindeutiger Hinweis angebracht sein, dass eine kostenauslösende Handlung erfolgt.

Neue Widerrufsbelehrung

Die EU-Verbraucherrechterichtlinie zwingt den nationalen Gesetzgeber dazu, das Widerrufsrecht zu reformieren. Dies betrifft unter anderem auch Leistungen, die über das Internet verkauft werden.

Zwar stehen die exakten Fomulierungsvoraussetzungen derzeit noch nicht endgültig fest. Wie aber bereits der komplizierte Name der Richtlinie ankündigt, wird die Einhaltung der diesbezüglichen Vorschriften für Internetanbieter in jedem Fall wesentlich komplizierter. Dies gilt vor allem dann, wenn der Anbieter die Rücksendungskosten dem Besteller im Falle des Widerrufs in Rechnung stellen möchte.

Die wichtigsten Änderungen im Überblick:

  • Keine Ersetzung durch ein Rückgaberecht mehr möglich
  • Zusätzliche Verträge werden vom Widerrufsrecht ausgenommen
  • Änderungen bezüglich der Widerrufsfrist
  • Zeitliche Begrenzung des Widerrufsrechts bei fehlender Belehrung
  • Widerruf durch Rücksendung wird abgeschafft
  • Neue Verpflichtung zur Verfügungstellung eines Widerrufsmusters
  • Einführung des telefonischen Widerrufs
  • Regelung der Erstattung der Hinsendungskosten
  • Neuregelung der Rücksendungskosten (Ende der 40-Euro-Klausel)
  • Auch sperrige Gegenstände müssen zurückgeschickt werden
  • Änderungen bei Rückabwicklung und Wertersatz

Neues von der Rechtsprechung

Google muss bei seiner Auto-Vervollständigung Persönlichkeitsrechte gesuchter Personen beachten

Der Bundesgerichtshof hat entschieden, dass Google bei der Auto-Vervollständigungsfunktion des Suchfensters die Persönlichkeitsrechte einer gesuchten Person beachten muss. Dies betrifft insbesondere den guten Ruf einer Person. Im entschiedenen Fall bot die Auto-Vervollständigungsfunktion nach Eingabe des Namens die weiteren Begriffe „Betrug“ und „Scientology“ an (BGH, Urteil vom 14.05.2013 – Az.: VI ZR 269/12). Ein ähnlicher Fall liegt bei der ehemaligen Bundespräsidentengattin Bettina Wulf vor, die Google bis heute mittels Auto-Vervollständigung mit Rotlichtgerüchten in Verbindung bringt.

Zwar besteht nach der jetzigen Aussage des BGH keine grundsätzliche Pflicht für Google, aus Eigeninitiative nach möglichen Rechtsverletzungen zu suchen. Erhält Google aber einen Hinweis auf eine mögliche Rechtsverletzung, müssen wirksame Vorkehrungen getroffen werden, um diese zu verhindern. Die Vorinstanz (OLG Köln, Urteil vom 10. Mai 2012 – 15 U 199/11) hatte dies unter Berufung auf die computergestützten Algorithmen noch anders gesehen.

Wichtig:
Wer seine Persönlichkeitsrechte durch Google beeinträchtigt sieht, muss dies unter Angabe der Vervollständigungsvorschläge Google möglichst schriftlich mitteilen. Zudem sollte der Zugang der Mitteilung bei Google nachweisbar sein.

Vertragsschluss kann nicht von Vorkasse abhängig gemacht werden

Das Oberlandesgericht Frankfurt a.M. hat entschieden, dass die Annahme des Angebots des Kunden nicht davon abhängig gemacht werden kann, dass dieser bereits per Vorkasse bezahlt hat. (OLG Frankfurt a.M., Beschluss vom 29.08.2012 – Az.: 6 W 84/12)

Wichtig:
Die grundsätzliche Bezahlungsmöglichkeit per Vorkasse wird durch diese Entscheidung jedoch nicht beeinträchtigt.

Voraussetzung bei der Werbung mit „Statt“-Preisen

Das Oberlandesgericht Hamm untersagte die Werbung mit durchgestrichenen “Statt”-Preisen. Diese wurde jedoch nicht gänzlich untersagt. Vielmehr müsse klargestellt werden, welcher Altpreis genannt sei: der ursprünglich vom Anbieter geforderte Marktpreis oder der üblicherweise am Markt verlangte Preis. (OLG Hamm, Urt. vom 24.01.2013 – Az.: 4 U 186/12)

Wichtig:
Sofern mit durchgestrichenen „Statt“-Preisen geworben werden soll, muss bei im Zweifel mittels Zusatz klargestellt werden, wie sich dieser durchgestrichene Preis erklärt.

Auskunftsanspruch bei Urheberrechtsverletzungen

Das Oberlandesgericht Düsseldorf stellt klar, dass bei Urheberrechtsverletzungen (File-Sharing) ein Rechteinhabers nur dann gegen den Websitebetreiber einen Auskunftsanspruch über die Person des Nutzers geltend machen kann, wenn der Websitebetreiber von sich aus Daten des Nutzers (z.B. dessen IP-Adresse) gespeichert hat. Hierzu ist der Websitebetreiber jedoch nicht ohne weiteres verpflichtet. (OLG Düsseldorf, Beschluss vom 07.03.2013 Az.: I-20 W 121/12)

Wichtig:
Wer nicht darauf angewiesen ist, Nutzerdaten zu speichern, sollte dies nicht tun. Dann erspart er sich Kosten und Aufwand bei Auskunftsverlangen Dritter.

XING-Profile als Geschäftsgeheimnis

Das Arbeitsgericht Hamburg urteilt, dass Kundendaten, die auf XING-Profilen von Arbeitnehmern gespeichert sind, Geschäftsgeheimnisse eines Arbeitgebers sein können. (ArbG Hamburg 29. Kammer, Urteil vom 24.01.2013 – 29 Ga 2/13)

Wichtig:
Sofern ein Arbeitgeber sich diesbezüglich schützen möchte, empfiehlt sich eine vertragliche Regelung bei Beginn des Arbeitsverhältnisses.

Verpixelung von Fotos genügt manchmal nicht

Ist eine Person auf einer Ganzkörperfotografie trotz Verpixelung erkennbar (und wird auch erkannt), so stellt die Veröffentlichung des Fotos auf der Titelseite einer Tageszeitung eine Verletzung des allgemeinen Persönlichkeitsrechts der Betroffenen und des Rechts am eigenen Bild dar. (AG München, Urteil vom 15.06.2012, Az.: 158 C 28716/11)

Wichtig:
Fotos von Personen dürfen grundsätzlich nur mit Zustimmung des Betroffenen für Werbung und redaktionelle Tätigkeiten verwendet werden.

Anforderungen an das Impressum

Im elektronischen Geschäftsverkehr muss eine Kommunikationsaufnahme zum Anbieter durch Privatkäufer innerhalb von 60 Minuten möglich sein. (LG Bamberg, Urteil vom 28.11.2012 – , 1 HK O 29/12)

Wichtig:
Da diese Frist über Kontaktformulare nur schwer bis gar nicht zu halten ist, empfiehlt sich in jedem Fall die Angabe einer Telefonnummer im Impressum.

Haftung des Plattformbetreibers für unwahre Tatsachenbehauptungen in Bewertungsforen?

Nach wie vor heftig gestritten wird über die Frage, inwieweit sich betroffene gegen anonyme negative Bewertungen auf Onlineplattformen wehren können. Das KG Berlin hat nun eine Haftung der Bewertungsplattform HolidayCheck.com für unwahre Tatsachenbehauptungen eines Users sogar dann abgelehnt, die ein User im Rahmen einer Bewertung abgibt (KG Berlin, Urt. v. 16.04.2013 – Az.: 5 U 63/12 n.rk.), wenn die Äußerung von einem HolidayCheck-Mitarbeiter überprüft und freigeschaltet worden ist. Gegenteiliger Auffassung war vor kurzen noch das Landgericht Hamburg (Urt. v. 21.03.2013 – Az: 327 O 494/12), wonach die Buchungs- und Bewertungsmöglichkeit von HolidayCheck derart eng miteinander verwoben seien, dass HolidayCheck nicht geschäftsschädigende Tatsachenbehauptungen über einen Wettbewerber verbreiten und sich dabei „hinter der Meinungsfreiheit der Nutzerinnen und Nutzer verstecken“ könne.

Das Amtsgericht Bonn hält Äußerungen über einen Verkäufer auf eBay wie „Abzocke“ und „lieber woanders kaufen“ für unzulässig,
Auch das Landgericht Nürnberg-Führt hat ein Bewertungsportal auf Unterlassung verurteilt, weil auf die konkrete Beanstandung des negativ bewerteten Zahnarztes hin den Sachverhalt sorgfältiger hätte prüfen und sich von seinem Kunden einen Nachweis dafür hätte vorlegen lassen müssen, dass die Behandlung tatsächlich stattgefunden hat.

Die Diskussion hier ist noch nicht abgeschlossen. Anbietern von Bewertungsplattformen kann man nur empfehlen, klare Nutzungsbedingungen zu verwenden und auf gemeldete angebliche Verstöße zeitnah zu reagieren. Im übrigen ist die weitere Rechtsentwicklung konkret im Auge zu behalten.

Folgen von Rechtsverstößen

Für Anbieter kann bereits die versehentliche (fahrlässige) Nichteinhaltung der rechtlichen Vorgaben durchaus teuer werden. So drohen kostenpflichtige Abmahnungen durch Konkurrenten, die Wettbewerbszentrale oder Verbraucherschutzorganisationen. Insbesondere gibt es leider auch einige Rechtsanwälte, die sich ihren Lebensunterhalt vor allem damit verdienen, gezielt nach Rechtsverstößen zu suchen und hieraus Kapital zu schlagen.

Fazit

Es bleibt – wie immer – spannend. Der vorstehende Rechtssprechungsüberblick Dies zeigt, dass Internetanbietern nur dringend geraten werden kann, die rechtlichen Entwicklungen laufend im Auge zu behalten und hierauf zeitnah zu reagieren. Wer hier einschlägige qualifizierten Rechtsanwälte mit der regelmäßigen Prüfung beauftragt, macht damit nicht nur seinen Anwalt glücklich, sondern sorgt auch vor und kann spätere teure Abmahnungen vermeiden.

Rechtsanwalt Dr. Marc Laukemann, Partner der Kanzlei Schaal & Partner, ist u.a. Fachanwalt für gewerblichen Rechtsschutz und beschäftigt sich seid über 12 Jahren mit dem Onlinemarketingrecht. Rechtsanwalt Ulrich Fratton ist angestellter Rechtsanwalt in der Kanzlei Schaal & Partner und dort auch für das IT-Recht zuständig (www.wir-beraten-unternehmer.de).

Mit “Explore” zum Google+ Superstar

Gastbeitrag von Ulf Weihbold, Digital Creative Director bei der Werbeagentur Fredmansky

Einführung: Der Explore Stream

Auf der linken Seite bei Google+ gibt es ein kleines Logo mit den Namen Explore, dieses kleine, unscheinbare Icon beinhaltet mehr als man glaubt.

Icon

Was bedeutet “Explore”? Dazu ein kleiner Auszug aus der Google Hilfe:

Quelle: http://support.google.com/plus/answer/1686118?hl=en

The Explore page highlights selected content that is exemplary, interesting, and appropriate: showing you serendipitous and diverse information

Explore – What’s Hot ist der ultimative Viralkanal, das Beste von Facebook und Twitter vereint: Von Facebook wurde die Einfachkeit der Bedienung und die (scheinbar) klare Übersicht und von Twitter die “Trending Topics” übernommen.

Damit hat Google+ es geschafft, jedem, der “schnell einmal sehen möchte was so los ist” eine einfache und schnelle Übersicht zu geben, welcher Content im Moment angesagt ist.

Was bringt mir das?

Kurz gesagt: neue Follower! Dazu 2 Beispiele:

Batman Funktion

Diese “Batman Funktion” wurde bei einem Followerstand von 258 gepostet und ist durch relativ gute Interaktionsraten schnell auf Platz 1 im englischen Stream gekommen. Nach 2 Tagen konnten damit insgesamt 1840 Follower generiert werden, das ist ein Zuwachs von insgasamt 810%!

Big Bang Theory

Dieses Bild ist kurz darauf wieder auf Platz 1 im englischen Stream gekommen und konnte innerhalb von 3 Tagen noch einmal 1145 Follower generieren. Wieder ein realtiver Zuwachs von 180%. Diese Zahlen scheinen jetzt absolut nicht sehr hoch zu sein, wenn man diese Zahlen allerdings in einem Vergleich zu Facebook setzt, sieht die Geschichte schnell ganz anders aus:

Der Vergleich zu Facebook

Zum damaligen Zeitpunkt waren die größten Google+ Pages von 3 Bands: Coldplay, Red Hot Chili Peppers und Train. Diese hatten gemeinsam eine Followerzahl von 1,7 Mio.

Zur gleichen Zeit hatten diese Fanpages auf Facebook 39,4 Mio Fans. Eine einfache Rechnug ergibt hier ein Verhältnis von 1:23. Mit diesem errechneten Verhältnis kann man nun die durch 2 Postings generierten Follower (insges. 2988) auf theoretische 68724 neue “Fans” hochrechnen.

Somit wurden also mit 2 guten Postings insgesamt (theoretische) 68700 neue Follower generiert!

Natürlich entspricht diese Zahl einer Milchmädchenrechnung. Wenn man jedoch bedenkt wie hoch die Userzahlen Anfang 2012 bei Facebook im Vergleich zu Google+ waren, scheint diese Zahl mittels der Hochrechung realistisch zu sein.

Der Unterschied zwischen deutschem und englischem Stream

Mit meinem persönlichem Profil habe ich es zwei Mal geschafft auf den ersten Platz im deutschen Stream zu kommen:

Wurstsemmel

Nach zwei Tagen auf Platz 1 konnte ich insgesamt nur 181 neue Follower generieren.

Auch dieses Posting konnte nach ca. 1,5 Tagen auf dem ersten Platz nur 12 neue Follower generieren. Interessant bei diesem Posting war, dass in den Kommentaren eine hitzige Diskussion über die “ethische Korrektheit” des Postings ausbrach. Humor ist offensichtlich nicht für jeden offensichtlich oder gar verständlich.

Kindergärten

Dieses Posting war wieder ein weiteres Beispiel dafür, dass Content aus Postings oft nicht einmal ansatzweise hinterfragt wird, denn der Artikel über die GEMA war aus dem Jahr 2010.

Meine Erfahrung im deutschen Stream war eher frustrierend. Entweder wurde im deutschsprachigen Google+ der konzeptuelle Unterschied zwischen einkreisen (Google+, unidirektional) und einer Freundschaftsanfrage (Facebook, bidirektional) nicht verstanden oder deutschsprachige User sind einfach “Circle-geizig“.

(Alternativ könnte mein Content auch einfach Mist gewesen sein. Wobei hier bin ich mir sicher, dass die gleichen Postings im englischen Stream wesentlich mehr Follower generiert hätten)

Was ist (viralfähiger) guter Content?

Die grosse Frage, die sich damit natürlich stellt ,ist: Was ist guter Content, der eine vernünftige Anzahl an Follower generieren kann?
Ich habe für mich dazu 2 Kriterien definiert:

Die “Würde ich das selber sharen” Frage

Diese Frage ist aber nur bedingt brauchbar, da man als aktiver Content Creator (besser: Kopierer) tendenziell relativ wenige Posting auf seinem eigenen Seiten/Profil teilt.

Der Grins-Klick Test

Wenn man guten Content findet und einem dabei selber zumindest ein Grinser auskommt oder man das Gesicht aus Erschrecken/Entsetzen verzieht und danach klickt ist es guter Content. Wichtig hier ist aus meiner Sicht die eindeutige Kombination einer durch den Content induzierten Emotion und eine darauf folgende Interaktion.

Wie kommt man auf Platz 1?

Der Algorithmus hinter dem Ranking im Explore Stream ist (wie üblich) geheime Google Magic. Man kann davon ausgehen, dass die bei den Ripples eingeblendeten Kennzahlen die Grundlage für diese Berechnung sind:

Average Chain Lenght

Die durchschnittliche Länge einer Kette von nacheinander folgenden Shares

Longest Chain

Die längste Kette von nacheinander folgenden Shares

Shares/Hour

Die Anzahl der Shares pro Stunde

Jede dieser Kennzahlen sollte natürlich so hoch wie möglich sein. Man kann auch davon ausgehen, dass diese Kennzahlen nicht nur je Post berechnet werden sondern, dass daraus eine Profil-spezifische Kennzahl berechnet wird. Als “Profil” sei hier ein persönlicher Account oder eine Business Page definiert! Somit kann auf Basis dieser Durchschnittszahlen aus allen Posts eines Autors sehr schnell erkannt werden wie “viral” ein Post ist (oder nicht).

Diese Profil-spezifische Kennzahl könnte man einfach “Viralniveau” nennen.

Sichere Einflussfaktoren auf dieses Viralniveau sind die Interaktionsraten vergangener Posts und der Anzahl an Follower gesamt. Wobei hier eine große Anzahl an Follower nicht unbedingt eine positive Auswirkung haben muss, denn mit steigender Anzahl an Follower steigen (zumindest theoretisch) auch die Interaktionsraten. Wenn hier das Verhältnis zwischen der Anzahl an Follower und den durchschnittlichen Interaktionsraten nicht konstant bleibt, sinkt die Wahrscheinlichkeit in den Explore Stream zu kommen sehr schnell.

Dieses theoretische Konzept “Viralniveau” hilft bei der Optimierung für den Explore Stream ungemein: Mittels den Ripples zeigt uns Google sehr eindeutig, welche anderen Autoren Posts von uns geteilt haben. Jeder dieser anderen Autoren hat sein inherentes Viralniveau. Das Viralniveau des ursprünglichen Content-Creators wird dann mit dem Viralniveau des “Sharers” verglichen und somit wieder ein Verhältnis gebildet. Sobald hier eine gewisse Größe überschritten wird, geht ein Post in kurzer Zeit in den Explore Stream.

Was kurz gesagt bedeutet: Sobald ein Post von anderem Autor mit wesentlich höherem Viralniveau geteilt wird, steigt damit die potentielle Wahrscheinlichkeit auf den Platz 1 im Explore Stream enorm.

Interessant dabei ist, dass immer der ursprüngliche Post in den Eplore Stream kommt. Was auch erklärt warum oft Postings im Stream sind, die relativ gesehen zu anderen Posts im Stream sehr geringe Interaktionsraten haben.

Dieses Viralniveau könnte auch ein wesentlicher Einflussfaktor auf den sagenumwobenen Authorrank sein. In diesen Authorrank könnten (wahrscheinlich) auch die Zugehörigkeit und Aktivität in Communities, Teilnahme an themenspezifischen Events und die thematische Zuordnung aller (Web-)Artikel mit hinterlegtem Authorship sein.

Theoretisch wäre es so für Google eine Leichtigkeit eine eigene, Google-spezifische Variante von “Klout” zu berechnen, der neben den reinen Interaktionszahlen (wie bei Klout) auch semantische Daten zugrundeliegen.

Derzeitiges Potential

Google+ ist immer noch als Geisterstadt verrufen, denn die Userbasis an aktiven Usern ist im Vergleich zu Facebook noch sehr gering. Das kann jedoch auch ein großer Vorteil sein! Derzeit bestehen noch relativ einfache Möglichkeiten, sich auf Google+ als Autorität in seinem spezifischen Themengebiet zu positionieren. Mit den konstant steigenden Userzahlen werden auch die durchscnittlichen Viralniveaus der Google+ Business Pages steigen, was langfristig einen erfoglreichen Auftritt immer schwieriger machen wird.

Deshalb meine Aufruf an alle: Auf gehts zu Google+!

#2012FTW

Gestern sind die alljährlichen SEO Wahlen von SEO-United zuende gegangen – eine gute Gelegenheit mal kurz einen kleinen persönlichen Recap des vergangenen Jahres zu bloggen. Zuallererst einmal vielen herzlichen Dank an Alle, die unsere Company Tandler.Doerje.Partner, unser Tool OnPage.org, unser SEOktoberfest Charity BBQ und unsere unermüdliche Superhelden-Bändigerin Irina und für mich abgestimmt haben! Ich muss gestehen, dass ich auf die eigentliche Wahl erst aufmerksam geworden bin, als bereits einige der Kategorien wegen Manipulationsversuchen vorzeitig beendet waren. Umso schöner war es zu sehen, dass unsere Company TDP zu diesem Zeitpunkt bereits auf dem ersten Platz in der Kategorie "Beste deutsche SEO Agentur" stand, noch bevor ich überhaupt jemand bitten konnte doch für uns zu stimmen :-)

Wirklich krass, dass unsere Company Tandler.Doerje.Partner nun bereits zum zweiten Mal von euch zur besten deutschen SEO Agentur gekürt wurde, obwohl wir unseren letztjährigen Sieg nie wirklich kommunikativ genutzt haben, und auch die Sieger Badge nie auf unsere Website gepackt haben. Wir verstehen uns selber ja nicht als klassische SEO Agentur, und arbeiten weit weniger für externe Auftraggeber als andere in dieser Kategorie aufgeführte Agenturen.

Am Allermeisten freut uns aber der unglaubliche 2.Platz für unser OnPage.org in der Kategorie "Das beste SEO Tool" – immerhin sind wir gerade mal knapp vier Monate am Start und kurz davor unseren 500sten Kunden mit offenen Armen zu empfangen.

Das ist nicht erneut zum besten deutschen SEO gewählt wurde, kann ich gut verschmerzen, nicht nur weil meinem kleiner Bruder Karl diese Ehre verdientermaßen zuteil wird, sondern vielmehr, weil ich mich auch selber ganz sicher nicht als "besten" SEO sehe. Dies ist auch der Grund, wieso ich meine letztjährige Auszeichnung zum besten deutschen SEO nie auf meinen Blog gepackt oder in Vorträgen promoted habe. Es gibt so viele smarte und kompetente SEOs in unserer Branche, und in einem Arbeitsumfeld mit alleine über 500 algorithmischen Updates seitens Google kann der "beste SEO" stets nur eine Momentaufnahme sein – zu schnell dreht & wendet sich das Blatt. Wer sich selbst an der Spitze sieht geht unweigerlich vom Gas, so fehlt ja der weitere Ansporn, der so unglaublich wichtig in dieser Branche ist!

Dafür freut es mich bzw. das ganze OnPage.org Team umso mehr, dass unsere Irina von euch zur immerhin zweitbesten deutschen SEOin gewählt wurde – genau aus diesem Grund haben wir sie ja in die OnPage Cave gelockt :-) Irina hat uns vom ersten Gespräch an mit ihrem analytischen SEO Sachverstand beeindruckt, und wir sind sehr stolz, dass wir sie für unser Team gewinnen konnten! Natürlich freut es mich aber auch sehr für unsere SEOktoberfest Allumni Astrid, die sich verdientermaßen dieses Jahr "beste deutsche SEOin" nennen darf!

Die Qual der Wahl

Ich muss ehrlich gestehen, dass ich die von SEO United 2007 ins Leben gerufenen SEO Wahlen seit je her eher kritisch betrachte. Das liegt vor allem daran, dass ich das offene Voting-System eher unvorteilhaft für eine derartige Wahl halte (dies lies sich bspl. auch sehr schön an der von SEO-United initiierten Umfrage zur SEOkomm beobachten, wo Fabian Rossbachers Vortrag einige Votes bekam, obwohl dessen Vortrag wegen Krankheit ausgefallen ist…). Und zu oft werden Äpfel mit Birnen verglichen – auch dieses Jahr wieder bei der "besten SEO Konferenz" – natürlich freut mich die Nominierung unseres SEOktoberfest Charity BBQs, aber eine so ungewöhnliche Konferenz, an der gerade mal 50 Leute teilnehmen, lässt sich nicht wirklich mit Konferenzen mit hunderten von Teilnehmern vergleichen.

In vergangenen Jahren war dies aber mehr oder weniger egal. Zu gering war der letztendliche Impact der SEO-Wahlen. Mit der stetig steigenden Anzahl der Teilnehmern und der damit verbundenden steigenden Relevanz der SEO Wahlen innerhalb der SEO Community, scheint es manchen Unternehmen zunehmend wichtiger zu werden bei der Wahl gut abzuschneiden. Gerade ein SEO Tool, oder auch ein SEO Konferenz-Veranstalter darf fast nicht mehr riskieren auf dem letzten Platz zu landen, was natürlich zu einer Manipulation der Ergebnisse verleitet, vor allem, wenn das gewählte Voting-Format so vermeintlich einfach manipulierbar ist. Aber das System übervorteilt auch Unternehmen, Tools, Konferenzen uvm. die viele Kunden, Nutzer oder Teilnehmer haben – die einfachste Form der Beeinflussung dieser Wahl ist ja das Anschreiben von genau diesen, mit der Bitte doch eine Stimme abzugeben. Die Rechnung ist hier sehr einfach – wer mehr Kunden, Nutzer oder Teilnehmer hat, hat stets einen deutlichen Vorteil vor Unternehmen, Tools & Konferenzen die noch keine so große Base haben.

Ein meiner Meinung nach deutlich besseres System setzt hier bspl. State of Search ein, die bei der Wahl zur Konferenz des Jahres die Anzahl der Votes in Relation zur einer Benotung der Konferenz gesetzt haben. So kann selbst eine kleine Konferenz als Gewinner hervorgehen, sofern viele der abgegebenen Stimmen eine (sehr) gute Note abgeben. Kaum jemand wird ja auf allen aufgeführten Konferenzen gewesen sein, und daher bewertet jeder User nur die Konferenzen, auf denen er auch wirklich zugegen war. Dies ließe sich auch einfach auf SEO-Tools übertragen – es bewerten also nur diejenigen Nutzer ein Tool, die das Tool auch wirklich im Einsatz haben, und demnach überhaupt ein Urteil abgeben können. Selbstverständlich lässt sich auch ein solches System manipulieren, indem man bspl. Konferenzen schlecht bewertet, obwohl man gar nicht vor Ort war, aber letztendlich ist dieses System doch einen Hauch besser als ein komplett offenes Voting-System. Der nächste Schritt wäre dann die Kombination mit einer persönlichen Stimmen-Abgabe, also mit Name & eMail-Adresse – dies würde das Abstimmungs-System deutlich verbessern, und das Ergebnis legitimieren.

Ich will hier Heiner & Consti mitnichten in die Suppe spucken, aber ich glaube, dass die SEO Wahlen im nächsten Jahr diesen Schritt machen müssen, damit die SEO Wahlen nicht zu einer Farce verkommen, und ein großer Teil der SEO Community auch wirklich hinter dem Ergebnis stehen kann. Mit steigender Relevanz der Wahlen, und der Vergabe von Conversion-Boostern wie einer Sieger-Badge muss gewährleistet werden, dass kein fader Nachgeschmack bleibt, und die Umfrage wirklich ein representatives Ergebnis innerhalb der SEO Community erzielt. Vorzeitige Schließungen einzelner Voting-Kategorien und deutlich sichtbare Manipulationsversuche lassen jedes Ergebnis einfach in einem trüben Licht erscheinen, auch wenn die Ergebnisse erst nach ausführlichem Review der Logfiles publiziert werden. Ich will hier übrigens mitnichten irgendwelche Manipulationsversuche ankreiden, denn leider ist es ja ebenso möglich, dass jemand die Ergebnisse eines anderen Unternehmens manipuliert, um dieses Unternehmen in einem schlechten Licht erscheinen zu lassen – quasi das SEO Wahlen Äquivalent zum negative SEO Phänomen – "negative SEO Wahlen Manipulation" :-)

Meine persönlichen SEO Wahlen

Die Kategorie der "besten deutschen SEO Seite" ist wirklich etwas dünn besetzt – ist auch wirklich etwas schade, dass es immer weniger allgemeine Anlaufstellen für SEO Begeisterte gibt. Der Austausch findet nun halt zumeist in MultiUser-Skype-Chats, in diversen Facebook-Gruppen oder neuerdings auch in Google+ Gruppen statt. Nächstes Jahr wird also wohl eher die beste Facebook Gruppe für SEOs prämiert werden. Natürlich ziehe ich meinen Hut von Marco und seinem Radio4SEO – ich erinnere mich ja noch nur allzu gut an den enormen Aufwand, den wir jede Woche mit unserer Webmasters on the Roof Sendung hatten, und das war gerade mal eine einzige Sendung! Ich höre zwar selten rein, aber die viele Mühe der dort tätigen Moderatoren verdient eindeutig Anerkennung! Dennoch würde ich in dieser Kategorie eindeutig SEO United zum Sieger küren. Ich bin zwar nicht immer einer Meinung mit Heiner & Consti, aber es gibt keine zweite Seite im deutsprachigen Internet, die sich mit so viel Hingabe der SEO Branche widmen! Aktuelle Neuigkeiten, deutsche Übersetzungen interessanter & wichtiger englischer SEO Artikel, und neuerdings auch eine Jobs-Rubrik mit Stellenangeboten für ambitionierte SEOs – ein so umfassendes Angebot für SEOs gibt es nur bei SEO United!

Der "beste deutsche SEO Blog" ist für mich Julian mit seinem SEOkratie Blog – hier muss ich beim lesen eindeutig am häufigsten mit dem Kopf nicken, Julian trifft einfach sehr oft mit seiner Meinung zu aktuellen Themen den Nagel auf den Kopf! Martin´s tagSeoBlog ist ebenfalls ein recht einzigartiger SEO Blog – Martin´s Liebe fürs Detail ist einfach beachtenswert, und seine zumeist recht umfangreichen Posts immer einen Click im Feedreader wert! Bester Newcomer ist hier sicherlich OnlineMarketing.de, die sich zwar nicht nur auf SEO fokussieren, sondern auch alle anderen Bereiche des OnlineMarketings abdecken, aber den "reinen" SEO gibt es ja wohl sowieso nicht mehr allzu häufig – ein SEO muss heute einfach über alle Tools in der Online-Marketing Toolbox auf dem Laufenden bleiben! In einer Zeit, in der gute Blogs eigentlich immer rarer werden, ist es schön zu sehen, dass sich auch neue Blogs in dieser Branche mit Herzblut eine stattliche Nutzerschaft selbst in kürzester Zeit erarbeiten können. Bester SEO Tool Blogger ist & bleibt für mich SEO Toolmaster Eisy, den Ranking-Check Blog find ich u.a. wegen ihrem SEO Sunday super, der selbst in Themenarmen Wochen immer wieder zu neuen interessanten Diskussionen anregt. Aber auch die SEO Trainees sind bei mir im Feedreader, genauso wie eigentlich fast jeder andere SEO-Blog in einer Sprache, die ich sprechen & lesen kann :-) Persönlich wäre in meiner Top5 noch Franks SEO Scene Blog, genauso wie Eric´s ausgezeichnetes SEO Book, die Sistrix News sowie der Blog von Searchmetrics. Bester Beitrag dieses Jahr war aber eindeutig der hervorragend recherchierte Artikel "Von der Netz-Demokratie zum Google-Monopoly", der ja auch bei den SEO Wahlen punkten konnte.

Die Wahl zum "besten SEO Tool" ist hier deutlich schwerer, so nutze ich selber ja täglich Sistrix und auch Searchmetrics. Die Sistrix Toolbox war Liebe auf den ersten Blick (ich erinnere mich gut, als Johannes mir das Tool auf einer SEMSEO Veranstaltung vor etlichen Jahren gezeigt hat – ein instant Haben Will!), und Searchmetrics liebe ich vor allem für deren Social Visibility Report, da dieser unsere Content Marketing Aktivitäten einfach deutlich erfolgreicher macht – bessere Recherche-Möglichkeiten resultieren einfach in besseren Ergebnissen! Ebenfalls nicht leben könnten wir ohne die LinkResearchTools – aber da sind wir wohl nicht die einzigen. Dennoch würde ich den Award gerne einem Shooting-Star geben, in den ich mich in den letzten Wochen Hals über Kopf verliebt habe -> ahrefs – ein fantastisches, ultra-schnelles Tool zum LinkResearch. Das der Keyword-Report im Januar abgeschaltet wird ist mir total egal, das Linkmodul ist einfach spitzenklasse, und gerade wegen der ungemeinen Schnelligkeit der Analyse-Möglichkeiten nicht mehr aus meinem Werkzeugkasten wegzudenken!

Auch die Wahl der "besten SEO Konferenz" fällt sehr schwer… Mein persönliches Highlight waren auf jeden Fall meine beiden Keynotes auf der SMX Stockholm und der SEOkomm in Salzburg – die über 70 Stunden Vorbereitungszeit für mein 427 Slide-Ungeheuer war alle Mühen wert, wenn man im Nachgang so tolle Reviews lesen darf – vielen lieben Dank! 2012 war ich auf 14 (!) SEO Konfernzen in 7 verschiedenen Ländern als Speaker aktiv – und auch wenn die SES New York von diesen Konferenzen sicherlich mein Favorit hinsichtlich der Location ist, muss ich sagen, dass mich gerade die neuen Blueglass Konferenzen in sowohl Los Angeles, als auch Tampa vor zwei Wochen sehr überzeugt haben. Die Blueglass Konferenzen kommen am ehesten an die deutsche SEO Campixx ran, wenn auch kleiner, wird auch hier auf eine Venue gesetzt, in der alle Speaker & Teilnehmer über alle drei Tage hinweg permament vor Ort sind. Dennoch ist die SEO Campixx in Deutschland nicht mein Favorit, so ist dort zwar das für SEOs so elementar wichtige Networking am spaßigsten, aber vom Content her ist & bleibt die SMX München für mich das Maß aller Dinge! Der excellente Mix aus nationalen und internationalen SEO Branchengrößen sind einfach einzigartig in Deutschland. Die Keynotes von Rand Fishkin waren immer ein Highlight, und für die SMX München 2013 im März konnte sogar der meiner Meinung nach zweitbeste Speaker überhaupt gewonnen werden – Der Godfather of Search Danny Sullivan! Nach Matt und dessen Chef Amit Singhal, ist Danny definitiv der beste & interessanteste Speaker in unserer Branche! Ich bin wirklich gespannt, wie sich die Konferenz-Landschaft 2013 entwickeln wird – wir sind ja geradezu in einer Konferenz-Bubble derzeit, die langsam zu platzen droht…

In diesem Sinne würde ich sagen -> es bleibt spannend – schauen wir mal was 2013 so bringt! Hoch die Tassen, Freunde! Ho Ho Ho :-)

OnPage.org startet in die Open Beta Phase

UPDATE: Die 100 Open Beta Accounts sind in weniger als 24 Stunden weg gewesen! Vielen Dank an Alle, die in der Open Beta mit dabei sind!! Ihr seid echt der Hammer!!

Endlich geht´s los… ich freue mich, dass wir heute mit unserem SEO-Analyse-Tool OnPage.org endlich in die Open Beta Phase starten!

OnPage.org Screenshot 1

Trotz umfangreicher Closed Beta Phase sind wir immer noch nicht soweit, dass Tool flächendeckend auszurollen. Vor allem das Pricing gestaltet sich sehr schwierig, da wir doch teils erhebliche Kosten für Crawling & Crunching haben. Deswegen stellen wir heute insgesamt 100 Open Beta Accounts zur Verfügung, um so noch mehr Learnings zu generieren, bevor wir offiziell mit OnPage.org starten.

100 Open Beta Accounts – 100 Domains – für jeweils faire € 89,90 (+ Mwst.) pro Monat.

Der Preis wird sich beim Start voraussichtlich noch etwas erhöhen – selbstverständlich gilt der Open Beta Deal aber auf Lifetime, so dass Ihr, wenn euch das Tool gefällt, auch nach dem Start diesen günstigeren Monatspreis behaltet.

Du betreibst mehrere Internetprojekte oder betreust als SEO-Agentur mehrere Kunden? Kein Problem! Es wird zum offiziellen Start eine Account-Variante für Leute geben, die in ihrem Account gerne mehrere Domains administrieren wollen, aber in der Open Beta Phase können wir leider erstmal nur insgesamt 100 Domains zulassen. Natürlich finden wir zum Start einen fairen Deal, wenn Du das Tool jetzt schon mal mit einer Domain testen willst, und später in ein Multi-Domain Account upgraden willst!

Das Early Adopter Open Beta Account beinhaltet die Prüfung einer Domain – bis zu 4 Crawls pro Monat, mit jeweils 8 Stunden maximaler Crawling Time! Sämtliche Features sind freigeschaltet – eine umfangreiche Übersicht sämtlicher Features des Early Adopter Accounts findest Du hier.

Du willst nicht die Katze im Sack kaufen? Klar, wer will das schon… Hier findest Du eine kleine Tour durch die diversen Features oder lies einfach was andere SEOs über unser Tool denken! Tool-Master & Closed Beta-Tester Eisy hat auch schon bereits heftig in die Tasten gehauen und ein unglaublich umfangreiches Review unseres Toolsets in seinem Blog veröffentlicht!

Willst Du Captain OnPage helfen sein Tool zu perfektionieren? Dann schnapp Dir jetzt eines der 100 Open Beta Accounts -> hier geht´s zur Registrierung

Vielen Dank für Deinen Support und Deine Mithilfe bei Captain OnPage’s Kampf gegen schlechtes OnPage SEO!

OnPage.org - Screenshot 2

UPDATE: Die 100 Open Beta Accounts sind in weniger als 24 Stunden weg gewesen! Vielen Dank an Alle, die in der Open Beta mit dabei sind!! Ihr seid echt der Hammer!!

Offene SEO Vorlesung an der Hochschule Darmstadt

HDA logoWie schon 2010 halte ich auch in diesem Jahr wieder eine offene SEO Vorlesung an der Hochschule Darmstadt.

Zusammen mit Andi, unserem Head of Inbound Marketing bei Tandler.Doerje.Partner werden wir einen Rundumschlag über aktuelle und zukünftige Trends im Bereich SEO und Linkbuilding machen – spannende Themen gibt es ja genug derzeit :-)

Wann -> 6. Juli 2012 ab 16Uhr
Wo -> Schöfferstraße 3, 64295 Darmstadt (Raum 205)

Von 100 freien Plätzen sind derzeit noch 12 (!) Plätze verfügbar – anmelden kannst / musst Du Dich direkt via XING

Master Löwenherz organisiert im Anschluss an die Vorlesung noch einen SEO Stammtisch, so lohnt sich vielleicht auch eine etwas längere Anreise. Andi & ich freuen uns auf lebhafte Diskussionen!

Vielen Dank an Jens für die Einladung – wir sehen uns am 6.Juli!

Trafficgenerierung durch YouTube-Videos

Gast-Artikel von Kai Renz

Hi, ich bin Kai Renz und beschäftige mich seit einigen Jahren mit der Erstellung und Vermarktung von Online-Videos. In dem Artikel geht es um die Frage, ob sich ein YouTube-Video zur Trafficgenerierung für die eigene Homepage wirklich lohnt ? Als Beispiel nehme ich mal ein Hobby-/ Urlaubsprojekt (sorry, wenn ich hier kein kommerzielles Projekt von mir ausschlachte) – aber ich werde auch ein paar konkrete Zahlen nennen, an denen das Thema ganz gut veranschaulicht wird.

Das Gleitschirm- Video

Es geht um das folgende Gleitschirm-Video: Gefilmt im Urlaub mit einer einfachen GoPro-Kamera (für 350.-€) – dann an einem Nachmittag zusammengeschnitten. Also recht einfach und schnell produziert. Hier das Video:

Zu dem Video habe ich ein kurzes Tutorial auf meiner Webseite erstellt, indem erklärt wird, wie die einzelnen Einstellungen gefilmt wurden. Im YouTube-Video blende ich dann ein Hinweis auf das Tutorial ein und in der Beschreibung unter dem Video ist der Artikel verlinkt.

Die Ergebnisse des Videos nach knapp 12 Monaten:

  • Gesamt-Video-Views: ca. 81.000 (nach ca. 12 Monaten)
  • Neue Video-Views/Monat: ~8.000 – 10.000
  • Klickrate zum Tutorial (über den Link in der Video-Beschreibung): ca. 4%
  • Webseiten-Besucher: ~3.300 (nach 12 Monaten)
  • Webseiten-Besucher pro Monat: ~350…400

Im folgenden beschreibe ich, welche Analysen und Aktionen ich im Vorfeld und beim Launch des Videos gemacht habe und werde dabei verraten, wieviel man als YouTube-Werbepartner an so einem Video verdienen kann und welche weiteren Möglichkeiten der Monetarisierung es gibt.

1. Die YouTube-Keyword-Analyse

Wie auch bei einem SEO-Projekt versucht man zuerst, mit einer Keyword-Recherche die trafficstarken Keywords zu finden. Inzwischen gibt es ein YouTube-Keyword-Tool (ähnlich dem Google-Keyword-Tool), mit dem man Keyword-Ideen generieren und außerdem eine Zahl für das “monatliche Suchvolumen” einsehen kann.
Zusätzlich zu den Keywords sollte man auch die Top-Videos seiner Zielgruppe auf YouTube suchen. Denn den meisten Video-Traffic erhält man bei YouTube oft durch andere erfolgreiche YouTube-Videos, bei denen man auf der rechten Seite in den Vorschlägen gelistet wird.

In der Statistik meines Gleitschirm-Videos sieht man z.B. sehr schön, durch welche Links der Traffic generiert wird:

Die drei wichtigsten Traffic-Quellen sind also:

  • 35 % durch “Ähnliche Videos” (d.h. die Video-Empfehlungen auf der rechten Seite)
  • 29,5 % durch das “Vorgestellte Video” (das steht dann auf dem 1. Platz bei den Video-Empfehlungen auf der rechten Seite und ist grau hinterlegt)
  • 12,6 % durch die YouTube-Suche

D.h. der Großteil des Traffics wird durch andere erfolgreiche Videos und die YouTube-Suche generiert. (Das Video steht z.B. für das Hauptkeyword “Paragliding” auf Platz 2).
Vielleicht noch ein Wort zum Thema “Videos in den Google-Suchergebnissen”: Das Video wird zwar auch für einige Keywords in der Google-Suche gut gerankt, aber sorgt mit den 0,63 % nur für einen geringen Anteil des Traffics. Daher versucht man im ersten Analyse-Schritt herauszufinden:

1.) Welches sind die erfolgreichsten Videos zu meinem Thema und wieviel Views haben diese ?
2.) Haben diese Videos auch einen konstanten Anstieg an Views – oder war es nur ein Hype-Video, dass inzwischen nur noch wenige Views erhält ?
3.) Welche Keywords werden in diesen Videos verwendet ?
4.) Welches sind die trafficstärksten Keywords, die am häufigsten gesucht werden ?

Die Analyse der View-Zahlen bei YouTube:

Bei der Analyse von YouTube-Videos ist es ganz nett, dass man oft jede Menge Traffic-Informationen (der Konkurrenz) zur Verfügung gestellt bekommt:

  • Die absoluten View-Zahlen zeigen recht schön, wie trafficstark ein Video bisher war.
  • Fast wichtiger ist aber der “Traffic-Trend” des Videos. Man kann diesen Trend (meistens) unter dem Video öffentlich einsehen (der Kanalbetreiber kann dies deaktivieren – siehe in diesem Artikel allerdings machen das die wenigsten)

Wie man in der Grafik (für mein Gleitschirm-Video) sehen kann, ist die View-Entwicklung (mit 8.000 – 10.000 Views/Monat) recht konstant ansteigend.

Hier ein anderes Beispiel:

Dieses Video hat zwar wesentlich mehr Gesamt-Views. Aber am zeitlichen Verlauf sieht man, dass am Anfang innerhalb weniger Wochen ein starker Anstieg der Views war – aber dann (seit fast 2 Jahren) nur noch ein geringer Traffic-Anstieg zu sehen ist.

Allerdings sollte man auch immer die Skalierung (der absoluten View-Zahlen) in dieser Grafik beachten. Ein “flacher Anstieg” kann bei einem Video mit Millionen Views immer noch mehr Traffic sein, als ein “starker Anstieg” bei einem Video mit nur tausend Views.

Je mehr Videos man zu seinem Ziel-Thema findet, die einen konstanten Traffic-Anstieg auf hohem Niveau haben, desto besser ist es für das eigene Video. Denn genau bei diesen Videos möchte man später in den Empfehlungs-Listen auftauchen, so dass das eigene Video konstant mit neuen Views “gefüttert” wird.

Die Suche kann man manuell machen oder ein Script verwenden, das einem die manuelle Arbeit abnimmt. Die YouTube-API stellt einem jede Menge Befehle zur Analyse und Auswertung zur Verfügung.

2. Der Video-Content und die “Publikumsbeachtung”

Bevor wir zum “Launch des Videos” kommen, noch einige Bemerkungen zum Inhalt des Videos. Wenn das Video “schlecht” ist und die Zielgruppe nicht anspricht, ist meist jede Mühe umsonst, dass Video durch irgendwelche Optimierungsversuche “erfolgreich” machen zu wollen. Genau wie bei den Google-Suchergebnissen, möchte YouTube seinen Zuschauern “die besten Videos” in den Suchergebnissen und Empfehlungslisten präsentieren, um die Zuschauer möglichst lange auf der Plattform zu halten. Auch hier werden die Algorithmen ständig optimiert und es gibt jede Menge “Auswertmöglichkeiten”:

  • Wie lange schauen die Zuschauer das Video wirklich an ?
  • Von welchen Quellen kommen die Zuschauer ?
  • Wieviele “Mag ich”-Bewertungen hat das Video ?
  • Wieviele Kommentare hat das Video ?
  • Wieviel Abonnenten und Gesamt-Views hat der Kanal etc ?

In den “Insight-Daten” im YouTube-Account sieht man, dass YouTube einige dieser Daten auch den Usern zur Verfügung stellt. Dort kann man sich unter “Hotspots” einen Verlauf anschauen, der zeigt, wie schnell die User das Video im Vergleich zu anderen Videos mit ähnlicher Länge wieder verlassen haben – und nennt das “Publikumsbeachtung”. Mit Hilfe solcher Daten lassen sich “unrelevante Videos” leicht erkennen.

3. Der Video-Launch:

Beim Video-Launch lohnt es sich, den maximalen Aufwand in die erste Stunde nach dem Upload zu investieren. Denn je mehr Views (von vielen unterschiedlichen IP-Adressen), inkl. Kommentaren und “mag ich” man in der ersten Stunde erhält, desto leichter kommt man in die “Favouriten” und “Meistgesehen”-Liste, die einem mit einem schönen Traffic-Boost belohnen können.
Im Idealfall hat man sich daher einen Launchplan zurechtgelegt, der sofort nach dem Upload der Datei (und sobald man die Video-URL in den Händen hält) abgearbeitet wird. Folgende Fragen könnten bei der Vorbereitung wichtig sein:

  • In welchen Themen-Relevanten Foren könnte das Video gut ankommen und wie kann man es dort clever platzieren ?
  • Wie kann ich meine eigenen Kontaktlisten (Newsletter-Listen, Facebook-, Twitter-Accounts) in den Video-Launch miteinbeziehen ?
  • Welche Blogger könnte das Video interessieren, und wie kann man diese für den Launch begeistern ?
  • Wie kann ich die Zuschauer/Freunde/Bekannte dazu bewegen, das Video zu kommentieren und mit einem “Mag ich” zu bewerten ?

Hier ist nun etwas Kreativität und natürlich “Handwerks-Arbeit” gefragt. Beim obigen Beispiel-Video habe ich in den ersten Stunden nach der Veröffentlichung des Videos folgendes gemacht:

  • In allen relevanten Gleitschirm-Foren einen Artikel zum Thema “Videoaufnahmen beim Gleitschirmfliegen” gepostet.
  • In Videoforen für “Hobby-Filmer” gibt es meist eine Rubrik, in der man eigene Videos veröffentlichen kann, um ein Feedback von den Zuschauern zu bekommen. So wurde das Video in nochmal 3-4 weiteren Foren veröffentlicht.
  • Dann habe ich einen Blogartikel mit dem Tutorial auf meiner Webseite veröffentlicht, wie das Video gedreht wurde.
  • Und meine Email-Liste mit knapp 3.500 Video-Produzenten und Videointeressierten angeschrieben, mit einem Link zum Blog-Artikel.

Das brachte dem Video gleich zu Beginn einen schönen Traffic-Boost ein und sorgte dafür, dass es recht schnell bei anderen beliebten Gleitschirm-Videos als Empfehlung auftauchte.

YouTube-Launch-Tests:

Wie effektiv solche geplanten YouTube-Launches sind, haben meine Tests gezeigt. D.h. es wurden identische Videos auf unterschiedliche (aber ungefähr gleich “starke”) Kanäle hochgeladen. Dabei wurde jeweils bei einem Video keine besonderen Aktionen/Optimierungen durchgeführt – sondern nur “normal” hochgeladen. Bei dem anderen (identischen) Video wurde eine Keyword-Optimierung durchgeführt und in der ersten Stunde nach dem Upload einige Launchaktionen durchgeführt – danach aber nichts weiter. Hier ein Beispiel-Video:

Die View-Zahlen bei den Launch-Videos waren nach einigen Wochen teilweise bis zu 1.000% höher als bei einem “normalen” Upload-Vorgang und waren auch wesentlich besser mit anderen Videos “vernetzt”. Das hat dann natürlich auch eine signifikante Auswirkung auf den weiteren Traffic-Verlauf. Wie man in der Grafik eines Beispiel-Videos sehen kann, ist nach der Launchphase bei beiden Videos ein “relativ konstanter” Anstieg der View-Zahlen vorhanden. Allerdings hat das “gelaunchte” Video (in roter Farbe) einen 500% höheren Anstieg der Viewzahlen als das “normale” Video (in blauer Farbe).

Lohnt sich ein YouTube-Video wirklich zur Traffic-Generierung ?

Nach diesen Ausführungen kommen wir zurück zu der Frage: “Lohnt sich der Aufwand für ein YouTube-Video zur Trafficgenerierung wirklich ?”. Auch wenn das Beispiel-Video ein “Hobby-/Urlaubsprojekt” ist, machen wir doch mal eine einfache Kalkulation, die ihr dann auf eigene kommerzielle Projekte übertragen könnt. Fassen wir zuerst mal den Aufwand für dieses Video zusammen.
Wenn wir so ein Projekt in Auftrag geben müßten oder einen unteren/mittleren Stundensatz berechnen würden, käme wohl folgendes dabei heraus:

  • Video: ~1.000.-€
  • Tutorial: ~200.-€
  • Launchvorbereitung/Durchführung: 500.-€

Also rund 1.700.-€. Schauen wir uns jetzt auf der anderen Seite an, wie man dieses Projekt monetarisieren könnte:

1.) Einnahmen als YouTube-Partner (Adsense):

Als YouTube-Partner werde ich an den Umsätzen der “Werbeanzeigen-Klicks” meines Videos mitbeteiligt. Da man seine Einnahmen nicht veröffentlich darf, gebe ich hier mal einen “geschätzten” Wert ab: Nehmen wir also mal an ;-) , dass die Einnahmen eines YouTube-Partners zwischen 2-5€/1.000 Views liegen.
Und kalkulieren wir mal mit einem “mittleren Wert” von 3,50€/1000 View , dann kommen wir (bei bisher 80.000 Views) auf 280.-€. Und bei monatlich (8-10.000 views) auf weitere 30.-€/Monat.

2.) Affiliate-Einnahmen für die GoPro-HD (über Amazon):

Da es in dem Video und dem Tutorial auch um die GoPro-HD – Kamera geht, die man über Amazon als Affiliate-bewerben kann, wird sich auch hier auch ein Partnerlink lohnen.

3.) Traffic auf die eigene (oder fremde Webseite):

Da das Video vor allem von Gleitschirm-Fliegern angeschaut wird, kann der Traffic natürlich auch anderweitig genutzt werden. z.B. könnte man das Tutorial auf einer Gleitschirm-Hersteller-Seite oder einem Webshop für Gleitschirmflieger unterbringen, die den Traffic wesentlich besser verwerten könnten. Nochmal zur Erinnerung, was an Traffic generiert wird:

  • Webseiten-Besucher: ~3.300 (nach 12 Monaten)
  • Webseiten-Besucher pro Monat: ~350…400

Wenn wir uns die Klickpreise für “Gleitschirm” bei Google anschauen, erhalten wir Preise um die “0,79.-€ ” pro Klick. Angenommen wir könnten den Traffic für 1/4 der Kosten vermarkten (d.h. 20 ct./Klick), dann wären das bisher 660.-€ und monatlich weitere 80.-€. Falls man den Traffic nicht selbst nutzt, sollte man aber auch immer den zeitlichen Aufwand im Blick haben, den man hat, um den Traffic “zu vermarkten”.

Mein Fazit:

Wenn wir diese (exemplarischen) Zahlen von Aufwand zu Gewinn gegenüberstellen, sehen wir, dass man bei dieser Bewertung nach einem Jahr noch keinen “Return on Investment” mit solch einem Video hätte. Und die 300-400 Besucher pro Monat, die auf die eigene Webseite gelenkt werden, sind auch nicht besonders viel (Wenn ich das jetzt mal mit einfachsten 1-Artikel-Keyword-Domains vergleiche, die wesentlich weniger Aufwand und viel mehr Traffic generieren, ist das fast schon erschreckend wenig) Je nach Nische und je nach dem, wie gut dieser Traffic konvertiert, kann sich so etwas aber auch durchaus lohnen.

Allerdings dient ein Video ja nicht nur als Traffic-Lieferant, sondern hat meist auch einen Image-Wert, kann die Verkaufprozesse verbessern, mehr Vertrauen bei den Besuchern aufbauen usw.

Mein Fazit ist daher: Wer eigene YouTube-Videos hauptsächlich als Traffic-Lieferant nutzen möchte, sollte genau kalkulieren. Vor der eigenen Videoproduktion würde ich daher immer einige “ähnliche Videos” auf YouTube suchen, und dort erstmal “Adsense-Anzeigen” schalten, um zu sehen wie gut der Traffic konvertiert. Oder man wendet sich direkt an Kanalbetreiber von erfolgreichen Videos, um “Kooperationen” zu schließen. Und läßt sich von denen einige Links in die Video-Beschreibung einfügen.

Ich persönlich nütze YouTube-Videos nur selten als Traffic-Lieferant (kenne aber Personen, die das massiv und sehr erfolgreich nützen – aber das kommt auch stark auf die Nische drauf an). Viel interessanter finde ich Videos zur Conversion-Optimierung im Verkaufsprozess – und zum Aufbau von Vertrauen. Aber das ist vielleicht ein Thema für einen weiteren Gastartikel!

Mobilize King Contents Link-Army

Guest post by Razvan Gavrilas – Razvan is the Founder & Chief Architect @ cognitiveSEO.com

In SEO, content is king but inbound links are the king’s army.It’s only through those links that the content has power, authority, and presence. Further – and luckily – inbound links are less time-consuming to develop and manage than daily top-notch content. That’s especially true with the release of the cognitiveSEO inbound link analyzer, which is currently in private beta.

Let’s delve into what exactly the cognitiveSEO tool does. There are seven key capabilities that you’ll find in the current beta version:

1: Compare Your Site with the Competition

Search ranking is a competitive industry; even a site with one inbound link can make it to the top of the SERP if all the competitors have no links, and even a site with hundreds of links can be pushed to the tenth page if competitors are well-established enough. One of the key steps in any successful link-building campaign, then, is contrasting your site with top competitors.

When you set up a cognitiveSEO campaign, you can input your competitors directly:

2: See Your Link Figures at a Glance

Once your campaign has been processed, you’ll see a dashboard display that gives you the core figures for your links, including your total number of inbound links, how many links are currently active, and detailed figures of the links that you’re monitoring.

You can set up multiple campaigns to monitor several pages or sites, and you can even track requested links. With alerts, a breakdown of current and upcoming tasks, and a status report on any links that you’re managing in detail, your dashboard works as a hub for actionable intel.

3: Get In-Depth Link Analysis

There are plenty of free tools that let you see your total number of links, and even a few that give you a couple extra details (such as the pagerank of the site that gave you the link). cognitiveSEO gives those important metrics while allowing you to look at numerous additional
items. That includes:

  • The exact URL the link is from.
  • Whether or not the link is currently active.
  • The image or anchor text being used to link to your site.
  • The anchor title, if applicable.
  • Where in the HTML structure of the site the link is.
  • Whether or not there’s a nofollow tag on the link.
  • The PageRank of the domains main page the link is coming from.
  • The MozRank of the URL the link is coming from.

Beyond giving you a strong idea of what your current status is, this breakdown lets you see how specific anchor text, high-PR links, and positioning of links hurts or helps your ranking for a given keyword.

Just as importantly, however, you can get this exact same breakdown of your top competitors. Whether you’re trying to track down specific sites that may be good candidates for link placement or simply get a broad idea of what’s different between your site and the sites that outrank you, the inbound link analysis puts all the info you need in your hands.

4: See inBound Link Website Types & Content Categories

We know the type and category of websites have an impact on how valuable the link is; for example, for tech sites, links from other tech sites are the most valuable. Tracking the type and category of websites becomes a major headache once you get more than a couple dozen inbound links, however. cognitiveSEO simplifies the process:



Within the visual charts of data, you can separate content by the parent type of content (for example, “personal,” “education,” “government,” etc.)

If you need a closer look, you can get a broken down listing of the specific URLs sending you links from each category. This tool can also be used to examine the breakdown of competitors’ links.

Despite the known relevance of this ranking factor, no tool has ever been so thorough in its examination of the category and type of sites. Now you have the chance to take inbound link categories to the proving grounds.

5: Conduct Easy Comparative Analysis

One of the greatest difficulties in SEO is that it’s hard to know what you don’t know. Comparative analysis is the best starting point for seeing what you may be doing wrong, what’s working for competitors, and how you may be able to gain a competitive edge. cognitiveSEO is designed to make business intelligence data easy to digest and review.

One of the most useful are of charts is the competitor comparison chart area:

You can see how you compare with your top competitors at a glance in numerous sectors – link type, site type, site category, number of links, Alexa rank, how many outbound links are on the page providing the link to your URL, and much more. When you find a significant difference that may
be worth exploring, you can click through via the chart and get a detailed breakdown of links for either your site or your competitor’s.

6: Check Your inBound Links onPage Positioning

In a 2007 study on the top factors in the relative weight of a link, the position of the link on the page was rated as the sixth most important factor. Since that time, SEOs have continued to put
more importance on the placement of a given link – but to check your page position for each link manually is an excruciating task.

cognitiveSEO uses an preview tool that lets you see where on the page your link is. In the detailed breakdown of your inbound links (or the links of a competitor), you can click the image on the left to get a quick visual of your link’s onPage positioning.

You can also look at charts to see what general page segmentation your link appears in. This will let you know if your link is in paragraphs of text, blog-rolls, lists of links, or some other location. This again allows for deeper testing and lets you see when your link is in a position that might be mitigating its potential benefit.

Link Type - cognitiveSEO

You’ll get a strong sense of where on a page the inbound link appears, both visually (i.e., to users) and mechanically (i.e., the search engines).

7: Micro-Manage Your Inbound Links

When you find a link to your site that requires extra care of attention, when you want to track the status of a pending link, or when you simply feel more monitoring is appropriate, you can use the inbound link management tools of cognitiveSEO to get all your vital information in one
place – including everything from the hosting IP of the link provider to images of the content to a history of how the link has changed as you monitored it.

Your managed links will appear in your dashboard, allowing you to see the key details of the those links as soon as you log in. You can also assign specific tasks and set up alerts for your managed links, giving you deep awareness and control. You can also add competitors’ links to your managed links to keep the closest possible watch on what the other teams are doing.

cognitiveSEO is all about giving you the information you need in a format that can be digested easily. Not only does it track your company’s SEO vital signs, it also warns you when you when something has gone wrong, gives you the opportunity to see exactly what your top competitors are doing, and provides the perfect lineup of data to structure your link-building strategy around.

As a private beta product, cognitiveSEO is still being tuned and expanded – meaning that there’s plenty more yet to come prior to the commercial release. Even as it stands, cognitiveSEO provides one of the most comprehensive SEO toolkits available to marketers, webmasters, and agencies.

Those interested in joining the beta can visit cognitiveSEO.com. * Register on the waiting list for a Private Beta Code, so you can test the strengths of the tool, but also be notified about the commercial launch and any future updates.

More about cognitiveSEO: cognitiveSEO launched its private beta at the SearchMarketingDay conference in June of 2011, with a product response that exceeded our already high expectations. The full commercial release is slated for November 2011, but we’re looking for as much feedback as possible before then so we can release exactly the product that the SEO community has been looking for.

You can check out our blog for news on product development, tips on building links, and our famed infographics series. You can also find us on Twitter and Facebook, or contact us directly.

Searchmetrics Essentials | Ein kurzer Blick auf die neue Toolbox aus dem Hause Searchmetrics

Frank und Axel von Searchmetrics haben letzte Woche auf dem SEOktoberfest ein paar coole Analysen im Bereich SEO und Social gezeigt. Das neue Tool ist wirklich ziemlich beeindruckend. Wir hier bei Tandler.Doerje.Partner haben ja diverse Tools im Einsatz, und neben Sistrix´ Toolbox (der ja vor kurzem mit dem Sistrix Openlinkgraph ebenfalls ein neues Tool gelauncht hat) sind die Tools von Searchmetrics bei uns hier im täglichen Dauereinsatz. Alleine schon die riesige Datenbasis ist absolut genial!

Aber von vorne. Wie Marcus in seinem Blogbeitrag schreibt, wurden insgesamt hunderttausend Stunden in das Tool investiert – Wahnsinn! Über 100 Millionen Keywords die beobachtet werden, und das nicht nur in Deutschland, US & UK, sondern auch in Ländern wie Japan, Australien oder Brasilien. Klar, die meisten werden nie in diesen Märkten rumstöbern müssen, aber schon eine coole Nummer, wenn man mal Projekte in anderen Ländern beurteilen möchte, und sich ein paar Best Practice Cases in Google Nischenmärkten anschauen will.

Hier alle Länder die Searchmetrics mit den Essentials covered ->

Searchmetrics Essentials teilt sich auf in Domains, Keywords und Social, wobei Domains und Keywords zu SEO und SEM gehören.

SEO

Hier gibt es alles was man braucht. Sichtbarkeit, Rankings mit allen möglichen Filtern hoch und runter, und SERP Spreads. Sehr gelungen ist der Wettbewerbsvergleich, und die schiere Menge an Daten. Muss man normalerweise erstmal ein wenig stöbern, wer die Konkurrenten in einem Keywordumfeld eigentlich so sind, wird es hier auf den ersten Blick offensichtlich. Sortiert wird stets nach gemeinsamen Keywords.

Laut Searchmetrics gibt es wöchentliche Updates der Daten. Ebenfalls sehr gelungen, ist die Sichtbarkeit für alle Länder in einem Chart. Gerade wenn man international unterwegs ist, sieht man den Benchmark unter den Ländern. Für adidas.com beispielsweise ist im SEO-Bereich nicht Deutschland der wichtigste Markt, sondern der US-Markt, dicht gefolgt von England ->

Die Keyworddatenbank inklusive der Keywordrecherche ist aktuell, und auch neue Keywords wie „iphone 5“ oder „windows 8“ sind dabei – sweet!

Das Ganze gibt es auch noch mal für Paid und auch Universal Search Rankings, und wird zusammen im Shop als SEO+SEM Modul für 89 Euro im Monat angeboten. Und das nicht für nur ein Modul, sondern alle zusammen!

Besonders interessant wird so ein Blick auf die Visibility Charts, wenn bspl. wieder eine neue Version von Panda ausgerollt wurde, wie das gerade gestern in den USA der Fall war – hier ein aktueller Blick auf die Verlierer in der 2.5er Version des Terror-Bären.

Social

Die Social Tools sind mal so richtig geil. Nicht erst seit dem Panda Update ist offensichtlich geworden, dass die URLs mit den meisten Shares und Tweets zunehmend wichtiger werden. Aus Linkbait wurde Like-Bait, und bislang war das eher schwer messbar, bzw. mussten solche Daten eher umständlich über diverse Tools aggregiert werden. Das ist jetzt anders, da Searchmetrics mit seinem Social Tool anzeigt, welche Seiten in Facebook, Twitter, Google +1 und Co. am stärksten verbreitet sind. Ideal, wenn man ein großes Augenmerk darauf legt, gute Links von Seiten zu organisieren, die viele Shares, Tweets oder auch PlusOnes haben.

Social Visibility für meine mediadonis.net

Und die besten URLs bei Facebook

Hier mal die Facebook Likes für failblog.org. Man sieht, was die Leute interessiert.

Das Social Tool kostet 189 Euro im Monat, was meiner Meinung nach ein ziemlich faires Pricing ist.

Was soll ich sagen, Marcus, Axel und Frank, eure Software ist der Hammer! Es macht wirklich Spaß damit zu arbeiten, bzw. einfach nur herumzuspielen, und sich in der Datenfülle zu verlieren :-)

Hier gibt’s die Essentials -> Shop.Searchmetrics.com/de/

Deep Thinking about Deep Linking

Andreas Bruckschlögl

Gast-Beitrag von Andi Bruckschlögl

Hi, ich bin Andi und als Head of Linkbuilding bei Tandler.Doerje.Partner für sämtliche Linkaquisitions verantwortlich. Aktuell koordiniere ich ein Team aus zehn freiberuflichen Linkbuildern, krempel aber auch noch immer selber gerne die Ärmel hoch, und helfe aktiv mit, die besten Links für unsere Kunden ranzuholen. Ich freue mich sehr, heute meinen ersten Gastbeitrag schreiben zu dürfen.

Gutes organisches Linkbuilding ist in den vergangenen Jahren kontinuierlich schwerer geworden. Ich arbeite nun schon seit ca. 4 Jahren mit Marcus zusammen, und der Aufwand in meinem Bereich hat sich in dieser Zeit gefühlt mindestens vervierfacht – gute Links zu aquirieren ist mittlerweile ein ziemlicher Knochenjob geworden, der weit über das simple Anschreiben & Betteln vergangener Zeiten hinausgeht. Außerdem ist bei weitem nicht mehr so einfach, mit einer handvoll Links beim Wunschkey zu ranken.
Deshalb muss ein guter Linkbuilder heutzutage eine Menge Faktoren beachten, wie z.B.:

  • den Mix von “nofollow” und “follow”-Links
  • ein ausgewogenes Verhältnis der Seitentypen (Blog, Forum, Portal etc.)
  • wie viele Links eine Domain täglich/wöchentlich/monatlich verträgt
  • die Anzahl an Trusted-Links und schwachem Backfill
  • Facebook-Likes, Shares, Tweets & andere Social Mentions
  • eine richtige Gewichtung von Brand- & Keywordlinks

Zur Gewichtung von Brand- und Keywordlinks hat Marcus erst im Dezember einen Artikel mit einer sehr ausführlichen Analyse veröffentlicht. Wer ihn noch nicht gelesen hat, sollte das unbedingt nachholen!

Lustigerweise konnte ich in den letzten Monaten viele Jungs und Mädels aus der Branche beobachten, die fast ausschließlich Brandlinks gebuildet haben, mit der Hoffnung, ihre Rankings entsprechend zu boosten. Aber leider schien die Rechnung allzuoft nicht ganz aufzugehen, denn wie ich bereits im oberen Absatz beschrieben habe, ist Linkbuilding mit der Absicht langfristig erfolgreich zu ranken, weitaus umfangreicher als das stupide Beachten einer Handvoll von Regeln! Die Tipps auf Blogs oder auch Konferenzen, ohne eigene Analysen und vor allem, der wichtigsten Waffe im Arsenal eines jeden SEOs, dem common sense, zu verwenden, geht, wenn überhaupt, nur kurzfristig gut (oder für vergleichsweise einfache Keywords).

Richtig bewusst wurden mir die Interpretationsfehler erst, als ich eine bestimmte “Problem-Seite", die ein bis dahin mir unbekanntes Gesamtbild abgegeben hat, genauer analysiert habe. Die Website besitzt einen großen Backfill (Domainpop > 1.000), darunter auch ein paar extrem starke Authorities. Die Anchors haben einen natürlichen Mix, so verlinken 70% mit “Brand”, “Quelle”, “hier” etc. und nur 30% mit spezifischen Keywords, meist aber keine Einzelkeys, sondern vielmehr Keywordkombis. OnPage ist die Seite ebenfalls sehr gut optimiert, und auf den ersten Blick offenbart sich nichts wirklich unnatürliches. Allerdings rankt sie für den vorhandenen Backfill verhältnismäßig schlecht. Aus diesem Grund habe ich mir die Daten bei Sistrix und in den Linkresearchtools genauer angesehen.

Auffällig war folgender Graph ->

Nur durchschnittlich 3,8% der Keywords ranken auf der ersten Seite.
Nehmen wir zum Vergleich die Rankingverteilung einer anderen Domain -> Sueddeutsche.de sieht das Ganze schon ganz anders aus ->

Hier ranken im Schnitt 11% der Keywords in der Top10. Zudem nimmt die Rankingverteilung von Seite 2 bis Seite 10 kontinuierlich ab.

Im oberen Graph ist die Verteilung von Seite 3 bis Seite 10 ziemlich gleich bei 11%. Zuerst dachte ich, dass die Seite evtl. eine -30 oder auch -950 Penalty haben könnte, was bspl. durch folgende von Google unerwünschte Maßnahmen geschehen kann ->

  • Keyword-Stuffing
  • Links auf Linkfarmen oder Seiten mit Bad Neighbourhood
  • Cloaking / Doorway Pages
  • Unkonsequentes Linkbuilding
  • Zu viele Keywordlinks, auch BLOOP genannt (Backlink Over Optimization Penalty)

Aber die Seite schien sauber zu sein, so konnte ich dort keine der oben aufgeführten Techniken entdecken. Ein weiterer Grund könnte sein, dass die Seite bspl. nach einem Relaunch (im schlimmsten Fall mit URL-Umstellung) für ein paar Monate in einem Filter hängen bleibt – auch ein recht typisches Muster, dass bspl. so aussehen kann ->

Diesen Verlauf sieht man im Moment nicht selten, selbst bei größeren Portalen, die zu viel am Code umstellen. Der Worst-Case ist natürlich eine schlagartige Umstellung der kompletten URL-Struktur inkl. der internen Links. Da kommt der Google-Crawler ganz schön ins Schwitzen, und bis die Seite anhand der neuen Datenbasis neu evaluiert wurde, kann schon mal etwas Zeit vergehen. Meistens erriechen solche Seiten erst nach einigen Wochen oder Monaten wieder ihre alten Rankings, und teilweise verlieren sie diese sogar dauerhaft… Allerdings wäre die Rankingverteilung dann zumindestens vor dieser Umstellung auf einem normalen Niveau gewesen. Also bin ich in 3-Monatsschritten bis zum 25.02.2008 zuürckgegangen (da hat Johannes angefangen mit Sistrix Daten zu sammeln), aber auch dieser Weg war eine Sackgasse…

Deshalb habe ich noch einmal jedes noch so kleine Detail analysiert, bis mir dann die Deeplink-Ratio ins Auge fiel ->

90,99% der Links verweisen auf die Startseite, und lediglich 9,01% auf Unterseiten. Da die Seite so aufgebaut ist, dass eine Verlinkung auf die Startseite durchaus natürlich ist (was natürlich fast schon ein Sonderfall ist), ist mir das bei der reinen Backlinkanalyse nicht weiter aufgefallen. Alle anderen Faktoren weisen definitv keine untypischen Kriterien auf, weshalb es also fast daran liegen muss, dass die Unterseiten zu wenig externen Linkjuice erhalten.
Es macht natürlich auch aus Google´s Sicht extrem viel Sinn, Seiten mit zu vielen Startseitenlinks in Relation zu Links auf Unterseiten ein wenig kritischer zu beäugen! Warum? Weil genau das früher die Masse an Hobby-Affiliates und -SEOs en masse praktiziert haben. Hier fallen mir die ganzen Blogs ein, für die wie wild Blogroll-Links getauscht wurden, die alle auf die Startseite führten, und zudem auch noch Sitewide waren. Dann natürlich auch die “Kredit-ohne-Schufa“-Vergleicher, die nicht mehr als fünf Seiten Content gebaut, und massenhaft Links mit dem Key “Kredit ohne Schufa” direkt auf die Startseite geballert haben. Zum Glück hat es sich ja heutzutage in die richtige Richtung entwickelt, so versuchen Affiliates viel häufiger richtigen Mehrwert zu schaffen, und im besten Fall sogar einen richtigen Brand aufzubauen.

Technisch gesehen ist es für Tante Google keine große Kunst, die Deeplinkratio zu messen und dann entsprechende Seiten abzuwerten.

Richtig lustig wird es erst, wenn man die Rankingverteilung von zwei Seiten betrachtet, wovon eine in diesem "Deeplink-Filter" zu sein scheint (rot), die andere aber wiederum nicht (blau):

Beinahe vier mal so viele Keys ranken bei der “normalen” Seite in den ersten 10 Ergebnissen! Was das an Traffic- und folglich Einnahmenverlust bedeuted, die durch diesen Filter entstehen, könnt ihr euch sicher denken. Selbst auf der zweiten Seite ist die abgewertete Domain gerade mal halb so gut verteten. Bei Themen, bei denen User bis in die Top20 durchklicken, ist das ebenfalls nochmal ein nicht unbedeutender Anteil, der hierdurch verloren geht.

Klar, eigentlich nichts wirklich Neues – auch Marcus erwähnt in seinen Vorträgen ja schon seit Ewigkeiten, dass es mindestens genauso wichtig ist, auf Unterseiten zu verlinken, und man nicht nur für die Startseite Links builden sollte. Neu war für mich allerdings, dass hier scheinbar ein richtiger Filter getriggert wird, und selbst Seiten mit guten Backlinks davon betroffen sein können. Dies ist wiederum eine Chance für viele Seiten da draußen, mit ein paar richtig gesetzten Links, die Sichtbarkeit ihrer gesamten Seite zu erhöhen!

Probieren geht über studieren

Um meine Annahme auch empirisch mit entsprechenden Daten zu belegen, habe ich eine größere Analyse durchgeführt. Gesamt habe ich mir 200 Seiten angesehen. Jeweils 20 Domains aus zehn komplett verschiedenen Themen, wie bspl. Gutscheine, Auto, Technik, Medizin, etc.
Zudem habe ich nur Domains untersucht, die eine Domainpopularität von mindestens 600 haben, und seit mindestens 2 Jahren auch kontinuierlich ranken. Hier konnte ich Faktoren wie den “Newbie-Bonus”, oder auch andere kurzfristige Filter ausschließen. Domains, die zum Beispiel zu viele Keywords-Backlinks, oder schlechte Links besitzen, habe ich ebenfalls aussortiert.

Durch die Analyse habe ich erschreckend viele Domains gefunden, die dem obigen Muster stark ähneln! Hier einmal vier Beispiel-Graphen der Rankingverläufe verschiedener Domains aus unterschiedlichen Themengebieten, die sich in diesem "Deeplink-Filter" zu befinden scheinen. Da es hier um den Filter an sich geht, und nicht um spezielle Domains, habe ich die Url absichtlich weggelassen.

Thema: Gutscheine

Startseitenlinks: 73,56% / Unterseitenlinks: 26,44%

Thema: Technik

Startseitenlinks: 94,02% / Unterseitenlinks: 5,98%

Thema: Auto

Startseitenlinks: 90,12% / Unterseitenlinks: 9,88%

Thema: Dating

Startseitenlinks: 69,90% Unterseitenlinks: 30,10%

Die Graphen haben alle ein ähnliches Muster. Das wohl markanteste ist sicherlich, dass die Keywords der Domains mit nur 2-4% in den Top10 ranken und auch die Platzierung auf Seite 2 schlechter ist als die einer nicht betroffenen Seite. Die Ratio der Startseitenlinks bewegt sich bei den Beispielen zwischen 69-94%. Im Gegenzug fand ich jedoch auch Domains mit 89% Startseitenlinks, die nicht im Filter zu sein schienen. Hier muss man natürlich ganz klar auch die Linkstärke beachten! Eine Seite, die nur Powerlinks auf die Startseite, und viele billige Social-Bookmark, AVZ- & Webkatalog-Links auf die Unterseite hat, kann trotzdem in diesem Deeplink-Filter landen. Umgekehrt allerdings gibt es auch Domains mit gerade mal 10% Unterseitenlinks, die einen gewöhnlichen Rankingverlauf aufzeigen, aber hier war der Trust / die Authority der Startseitenlinks schon wirklich extrem. Man muss hier einfach wieder das Gesamtbild betrachten, und darf sich nicht nur auf die Ratio stürzen! Also bitte keine Gegenbeispiele anbringen, die ein unausgewogenes Linkprofil haben, aber trotzdem normale Rankings aufweisen.

Auch Dixon Jones hat bei seinem Vortrag “Panda – The Quality Bear of Search Eats Affiliates” auf der A4U hier in München entsprechende Beispiele vorgebracht. Er hatte in den letzten Wochen die Backlinks der Seiten analysiert, die vom Panda-Update betroffen sind, und kam zu dem Ergebnis, dass unter anderem die Qualität der externen Links, die auf Unterseiten verweisen, einer der “Panda-Faktoren” sein könnte.

Wie bereits erwähnt, habe ich diesen Faktor auch genauer betrachtet, und kann hier zwei entsprechende Beispiele zeigen.

Betroffene Domain

Startseitenlinks: 21,50%
Unterseitenlinks: 78,50%

Nicht betroffene Domain

Startseitenlinks: 59,90%
Unterseitenlinks: 40,01%

Die betroffene Domain besitzt zwar einen sehr großen Anteil an Deeplinks, allerdings sind diese sehr schwach, und größtenteils niedriger Qualität. Aus dem Grund könnte die Domain vom Filter betroffen sein. Bei der nicht betroffenen Website das genau entgegengesetzte Muster. Es verweisen laut Deeplinkratio prozentual mehr Links auf die Startseite, jedoch fließt 77,67% des gesamten Linkjuices auf die Unterseiten.

Wie sieht eine natürliche Ratio aus?

Das ist ganz klar themen- und juiceabhängig! Trotzdem möchte ich euch hier ein paar Zahlen bekannter Domains zeigen, die ein natürliches Linkmuster aufweisen und keine (oder nur sehr wenig) Links tauschen oder kaufen. Der Klassiker ist natürlich das gute alte Wikipedia – hier verlinken die meisten Webmaster direkt auf die entsprechende Unterseite, und nicht auf die Startseite. Hier noch ein paar andere Beispiele ->

  • welt.de Startseitenlinks: 13,36%
    Unterseitenlinks: 86,64%
  • stern.de Startseitenlinks: 29,60%
    Unterseitenlinks: 70,40%
  • bild.de Startseitenlinks: 44,62%
    Unterseitenlinks: 55,38%
  • alternate.de Startseitenlinks: 24,23%
    Unterseitenlinks: 75,77%
  • samsung.com Startseitenlinks: 17,19%
    Unterseitenlinks: 82,81%
  • apple.com Startseitenlinks: 2,61%
    Unterseitenlinks: 97,39%

Aus meinen Analysen kann ich entnehmen, dass der Großteil der Domains, mit einem natürlichen Linkmuster, überwiegend Links auf Unterseiten besitzen. Das ist auch logisch, wenn man die Sache mit gesundem Menschenverstand sieht. Möchte ich in einem Blogpost auf das IPhone hinwiesen, verlinke ich natürlich nicht die Apple.com, sondern direkt die Produktseite, um meinem Leser auch nicht unnötig zu verwirren, bzw. ihm nerviges rumgesuche zu ersparen.

Mediadonis meint

Was sollte man jetzt am besten tun?

Brand-Links zu builden ist definitiv ein Schritt in die richtige Richtung. Allerdings ist es nicht sinnvoll, diese nur auf die Startseite zu builden. Nehmen wir doch einmal das Beispiel, dass ihr Links in PR-Portalen sammelt. Geht hier doch einfach zuvor her und veröffentlicht diese mit zusätzlichen Informationen auf einer Unterseite. Dann verlinkt ihr in den PR-Portalen nicht eure Root, sondern mit dem Hinweis, zusätzliche Infos zu erhalten, auf die Unterseite. Und genau so sollte natürlicher Linkaufbau aussehen! Ihr setzt einen Link, um dem Leser weitere Informationen anzubieten oder ihn direkt auf ein Produkt hinzuweisen. Beides wird er wohl eher weniger auf eurer Startseite finden.

Auch im Hinblick auf das bevorstehende Panda-Update macht es Sinn, seinen Backfill jetzt in Ordnung zu bringen, falls unnatürliche Muster vorliegen.

Was meint ihr dazu? Postet doch einfach eure Meinungen oder Einschätzungen zu diesem Thema als Kommentar.