In der letzten Zeit hatte ich viel mit großen Websites zu tun und bei diesen existieren bekanntermaßen ganz andere Baustellen als bei kleineren überschaubaren Projekten. Jetzt fragt man sich natürlich was bedeutet überhaupt groß oder klein an dieser Stelle? Da gibt es generell einige Gradmesser wie bspw. allgemeine Sichtbarkeit, Reichweite etc. Für mich bedeutet „groß“ in diesem Zusammenhang ganz einfach die bloße Anzahl der bei Google gelisteten Seiten. Und alles was über 100.000 Seiten im Google Index hat ist erst einmal nicht ganz so klein. Für solche Websites ist eines am allerwichtigsten: Eine klare Struktur!
In erster Linie natürlich für den User. Wie will man sich nämlich sonst zurechtfinden wenn man unter einer Million Seiten genau die richtige finden will? Andererseits wird auch Google eine saubere Struktur belohnen, da lege ich meine Hand für ins Feuer. Zum Beweis mal ein kleines Beispiel von einem Projekt an dessen Strukturoptimierung wir kürzlich beteiligt waren. Der Screenshot zeigt ein wirkliches Ultrapowermoneykeyword. Die dazugehörigen Landingpages waren auf viele unterschiedliche Wege auf der Website zu finden. Da es mehrere unterschiedliche Seiten gab, gab es dann auch mehrere unterschiedliche Rankings, ziemliches Chaos also. Nur war leider kein einziges Ranking davon so gut dass ausreichend Traffic und Conversions erzielt werden konnten. Von der Duplicate Content Problematik mal ganz zu schweigen. Ziel war es ganz klar diese Power zu bündeln, d.h. Besucherströme und Linkjuice nur auf eine einzige, nämlich die bisher stärkste Seite zu auszusteuern.
Wie finde ich etwas über meine Struktur heraus?
Dafür muss man die Website natürlich erst einmal „crawlen“, neudeutsch auch „spidern“ genannt. Das bekannteste Tool dafür ist der Screaming Frog SEO Spider, über das Eric schon sehr ausführlich und hilfreich berichtet hat. Der Screaming Frog bietet viele Vorteile, deswegen benutzen wir das Tool hier auch bei uns regelmäßig. Der einzige Haken dabei: Man muss selbst noch einiges an Hirnschmalz und Arbeit reinstecken.
Und da man für solchen Luxus ja meistens nur begrenzt Zeit hat, hat sich Tobias mal hingesetzt und das Strukturanalyse-Tool namens strucr.com entwickelt, welches einem nicht einfach nur Rohdaten liefert. So gibt das Tool einem jede Menge Hinweise wie man seine Struktur verbessert und es dem User somit leicht macht. BTW: Als SEO (Mensch der dauernd an Links denkt) ist eine gute Struktur zur optimalen Verteilung von Linkjuice natürlich auch nicht ganz unerheblich. Grund genug um das Tool mal etwas genauer unter die Lupe zu nehmen. Bei den Punkten zu denen ich Fragen hatte, stand mir Tobias dann netterweise direkt zur Verfügung. Quasi ein kleines Interview nebenbei.
Vorbereitung
Nachdem man sich registriert hat kann es fast schon losgehen. Aber an dieser Stelle liegt der einzige Haken von strucr.com: Bevor man eine Seite crawlen will muss man per Upload eines HTML-Files auf den eigenen Server erst bestätigen dass man der Eigentümer ist. Fremde Seiten kann man also nicht durchsuchen lassen. Damit wird der Fokus ganz klar auf die Strukturananalyse der eigenen Website gesetzt. Die Bestätigung lässt sich allerdings blitzschnell durchführen und man kann sofort loslegen und seine Seite crawlen lassen.
Übersicht
Die Übersicht zeigt einem eher allgemeine Crawlingwerte an. Interessant sind hier natürlich die „Errors“ und „Not HTML“ Links. Das Tool empfiehlt an dieser Stelle die Links entweder in HTML umzuwandeln oder für Crawler zu sperren, wobei es natürlich auf die Relevanz der entsprechenden Seiten ankommt. Auch eine hohe Anzahl von internen nofollow-Links kann interessant sein. Bei zu vielen internen nofollow-Links würden nämlich die Alarmglocken angehen, da Google es mittlerweile nicht mehr ganz sogerne sieht wenn man versucht den Linkjuice auf der eigenen Seite mit dieser Technik zu steuern.
Jetzt wird’s wirklich interessant! Das Tool zeigt mir an wieviele Seiten mit wievielen Klicks zu erreichen sind. Je weniger Klicks desto besser, sowohl für den User als auch für Google. Ganz genau weiß man es mit Sicherheit wohl nie, aber ich schätze dass Google bei 10 Ebenen bzw. Klicks wohl Schluss macht. Ein echter User schon bei wesentlich weniger. Die pure Übersicht wie viele Seiten mit wie vielen Klicks zu erreichen sind liefert mir an diese Stelle eine erste Einschätzung wie „kompliziert“ meine Website eigentlich ist. Wirklich konkret wird es allerdings im nächsten Punkt.
Je höher das Level einer Seite ist, desto tiefer steht diese in der Hierarchie. Übersetzt: Die Seite ist zu weit weg von der Startseite. Hier gibt es eigentlich nicht viel zu erklären, jetzt kann man auch anfangen zu arbeiten. In unserem Fall müssten wir die Verlinkung unseres Archivs mal dringend überholen, da kein Mensch 23 Klicks macht um auf einen unserer Blogartikel zu stoßen. Strucr empfiehlt hier, dass man versuchen sollte alle Inhalte innerhalb von 10 Klicks erreichbar zu machen.
Links
Diese Übersicht zeigt mir an welche Seiten besonders viele ausgehende Links haben und ist eigentlich selbsterklärend. Bei mehr als 100 ausgehenden internen Links sollte man in der Regel etwas ändern und die Navigation anpassen.
Um eins vorwegzunehmen: Der Page Rank hier hat nichts mit dem Google Pagerank zu tun. Hier sieht man welche Seiten die größte Linkpower haben und somit als größte interne Authorities gelten. Die Bewertung beruht auf einem selbstentwickelten Algorithmus. Da diese Seiten wahrscheinlich auch die am höchsten frequentierten sind, sollte man sich dort laut strucr besonders mit der Conversion Rate Optimierung beschäftigen. Genauso sollte man von Seiten mit einem hohen Page Rank Wert und wenigen ausgehenden Links genau die Seiten verlinken die man gezielt pushen will.
Der sog. Cheirank dient dazu die stärksten internen Hubs zu finden. Da Hubs dem User bei der Navigation helfen und nebenbei auch noch für die Verteilung der Linkpower zuständig sind sollte man vor allem genau diejenigen CheiRank-starken Seiten intern und extern anlinken, die nur wenige Incoming-Links aufweisen.
Für die eigentliche Struktur des Website ist der 2d-Rank ein sehr guter Gradmesser. Dieser sagt welches mathematisch betrachtet die wichtigsten Seiten der gesamten Website sind. Benutzer landen statistisch gesehen häufig dort, weil diese viele eingehende Links haben. Entsprechen die an dieser Stelle ermittelten Seiten nicht den tatsächlich wichtigsten Seiten sollte man seine Struktur dringend ändern!
Fazit
Insgesamt wird uns das Tool bei der Arbeit mit großen Websites auf jeden Fall ein großes Stück voranbringen, da man die wichtigsten Daten ohne großes Schnickschnack geliefert bekommt. Genau darin liegt die große Stärke von strucr, nämlich in der klaren Struktur des Tools.
Wie Du SEO Tools für die Optimierung von GoogleAds-Kampagnen einsetzen kannst, das erfährst Du hier in diesem Blogartikel.
4 Kommentare
ArndtS schrieb am 24. Januar, 2012 @ 12:20
Hi, gehen nur bei mir die Grafiken in dem Posting nicht?
Grüße, Arndt
Michael schrieb am 29. April, 2012 @ 16:04
Ne, die gehen bei mir auch nicht.
Dirk schrieb am 15. Juni, 2012 @ 14:56
Hey Marcel,
wäre schön, wenn Ihr die Grafiken wieder einbauen könntet.
Gruß Dirk
Marcel Becker schrieb am 15. Juni, 2012 @ 15:00
Kommt bald, sorry!