10 Fragen an: Tobias Schwarz, strucr.com

Interview von: Sergio M. Vela

Die Barketing Academy geht weiter: Diesmal mit SEO-Expert Tobias Schwarz von strucr.com! Im Anschluss hat sich Tobias unseren „10 Fragen an“ gestellt – das Interview könnt ihr jetzt hier lesen:

1. Tobias, wir freuen uns, dass du hier bist und dir die Zeit nimmst, uns unsere 10 Fragen zu beantworten. Bitte sag kurz was zu dir selbst und was du machst.

Ich bin seit mehr als 10 Jahren im Bereich SEO aktiv und betreibe mit meiner Firma, der AmbiWeb GmbH, einige größere Webseiten. Darüber hinaus betreibe ich zusammen mit Gerd Riesselmann den Strukturanalysedienst strucr.com.

2. Erzähl uns bitte etwas zu dem Ansatz, der hinter strucr.com steckt.

Der Ansatz hinter strucr.com ist es die technischen Details von Webseiten zu erfassen und die erfassten Daten nutzbar zu machen. Der Fokus liegt auf dem Thema Struktur. Unser Anspruch ist es, auch große Webseiten möglichst vollständig zu erfassen. Nach einem vollständigen Crawl kann man verlässliche Aussagen zur Seitenstruktur machen und Probleme werden sichtbar oder können ausgeschlossen werden. Aktuell können wir Angebote bis 10 Millionen Unterseiten ohne Probleme crawlen.

3. Du hast in deinem sehr praxisnahen Vortrag zu der Struktur einer Website gesprochen. Warum ist die interne Struktur einer Website so wichtig für mich und meine User?

Die Struktur einer Webseite legt fest wie gut die einzelnen Dokumente für Benutzer und Suchmaschinen erreichbar sind. Eine gute Struktur ermöglicht es, schnell durch die Seite zu navigieren und alle Dokumente mit wenigen Klicks aufzurufen. Bei Webseiten mit einer schlechten internen Struktur kann es vorkommen, dass Seiten von den Benutzern und Suchmaschinen nicht gefunden werden.

4. Kannst du uns kurz die wichtigsten Probleme erläutern, die große Websites hier haben?

Große Webseiten haben meist mit zwei Problemen zu kämpfen: Das erste Problem sind zu tief liegende Seiten wegen einer schlecht gemachten Pagination, also der Funktion zum Blättern durch Seiten. Das zweite Problem sind schlecht gemachte Filterfunktionen, die zu eine extrem hohen Zahl an Seiten führen können.

5. Wie schaffe ich es, meine Pagination sinnvoll zu limitieren?

Nimmt man z.B. ein WordPress-Blog und schaut sich dort die Standard-Pagination an, so wird erstmal das Kernproblem deutlich. Die Pagination ist so gestaltet, dass man lediglich eine Seite vor und eine Seite zurück gehen kann. Hat man nur eine Pagination mit 100 Seiten, so liegt eine Vielzahl von Dokumenten so tief, dass diese für Benutzer nicht mehr erreichbar ist. Gleiches gilt meist auch für Suchmaschinen. Die Kernfrage ist also: Wie kann man die Pagination so gestalten, dass alle Unterseiten mit wenigen Klicks erreichbar sind? Die Lösung dafür haben wir als kleinen Pagination-Guide auf strucr.com bereits zusammengeschrieben. Im Wesentlichen ist der Ansatz, Sprünge innerhalb der Pagination zu erlauben. Darüber hinaus ist es oft sinnvoll die Seitenzahlen einer Pagination zu beschränken und die Inhalte lieber über andere Strukturelemente erreichbar zu machen.

6. Du hast auch Filter angesprochen: Was kann passieren, wenn ich meine Filter nicht im Griff habe?

Bei Shops gibt es z.B. oft die Möglichkeit die Produkte nach einer Vielzahl von Kriterien zu filtern und diese beliebig miteinander zu kombinieren. Wird bei dieser Funktion jedes Mal eine neue URL generiert und ist diese zugleich auch für Suchmaschinen abrufbar, so ergeben sich schnell Seitenzahlen in astronomischen Höhen. Ab einem gewissen Punkt wird dann die Seite von Suchmaschinen nicht mehr vollständig gecrawlt. Oft schaffen es dadurch wichtige Dokumente nicht mehr in den Suchindex und viele Dokumente werden durch die hohe Zahl an Seiten schlechter im Suchindex gelistet als dies im Falle von weniger Seiten möglich wäre. Abhilfe kann man schaffen, indem man Filterfunktionen anders umsetzt und dadurch keine neuen Seiten generiert. Durch den Einsatz von POST-Formularen in Kombination mit sogenannten PRG-Pattern, welche zurück zur Ursprungsseite leiten, kann dies erreicht werden. Eine weitere Möglichkeit ist der Einsatz von AJAX.

7. Kann ich die Pages nicht einfach auf noindex setzen?

Noindex ist für das Filterproblem leider genau wie der Einsatz des Canonical-Elements keine Lösung. Beide sorgen zuverlässig dafür, dass alle/viele entsprechend markierte Seiten nicht mehr im Index auftauchen. Die Seiten sind jedoch weiterhin existent und die Seiten werden auch weiterhin gecrawlt. Das Crawling der Seite lässt sich damit also nicht verbessern. Die einzige Lösung für das Filterproblem ist der Umbau der Filterfunktion und die Reduktion der Seiten bzw. anwendbaren Filter.

8. Geht mir durch die Begrenzung der Filter in der URL nicht mein Longtail-Traffic verloren?

Ziel eines Filter-Umbaus sollte es sein, einige Filterkombinationen nach wie vor als eigenständige Seiten zu haben. Die Kunst ist es, maximal so viele Seiten zu haben, wie Suchmaschinen auch bereit sind zu crawlen und zu indexieren. Idealerweise sollte man den Traffic der einzelnen Filterkombinationen abschätzen und sich für Kombinationen entscheiden, die viel Traffic auf die Webseite bringen können. Unsere Erfahrung ist, dass Webseiten, denen wir zur Reduktion von sinnlosen Filterseiten geraten haben, immer einen starken Trafficsprung machen konnten.

9. Spannendes Thema sind Breadcrumbs: Warum sollte ich als Webmaster unbedingt Breadcrumbs nutzen?

Breadcrumbs sind ein sehr wirkungsvolles Strukturelement. Hat man eine ausführliche Breadcrumb so lassen sich im Zusammenspiel mit Deeplinks starke Strukturverbesserungen erreichen. Wichtig dabei ist, dass die Breadcrumb möglichst alle Hierarchieebenen abbildet. Von einer tiefliegenden Seite lassen sich dann alle übergeordneten Ebenen mit einem Klick erreichen. Bei einem gut gefüllten Breadcrumb-Pfad kann man mit gezielten Deeplinks für viele Seiten die Klickpfade reduzieren. Die wichtigen Navigationsseiten profitieren darüber hinaus von der Vielzahl von internen Links. Weitere Informationen zu Breadcrumbs haben wir bei strucr.com ebenfalls als Breadcrumb-Guide veröffentlicht.

10. Uns interessiert natürlich auch: Wie geht es mit strucr weiter und welche Features können wir in der nächsten Zeit erwarten?

Unsere weitere Entwicklung wird darauf abzielen, unsere Stärken weiter auszubauen. Wir sind in der Lage auch große Webseiten vollständig zu analysieren. Für die Betreiber genau dieser großen Webseiten wollen wir weitere Funktionen schaffen und alle erhobenen Daten auch über Schnittstellen zur Verfügung stellen. Mit vielen Kunden arbeiten wir eng zusammen und die Prioritäten der Entwicklung richten sich hier sehr oft nach unseren Kunden. Aktuell arbeiten wir an Konzepten wie der Erkennung von doppelten Inhalten, der Gruppierung von URLs, dem Thema Monitoring sowie weiteren Hinweisen.

Für das Jahr 2013 haben wir uns aber auch vorgenommen die Nutzerinteraktion mit dem Dienst zu steigern und zu verbessern. Wir werden dazu mehr Benachrichtigungen versenden. Wenn z.B. ein Crawl fertig gestellt wurde, so werden wir den Nutzer darüber per Mail informieren, um ihm lästige Checks zu ersparen. Auch werden wir einige Dialoge bzgl. ihrer Usability optimieren.

Insgesamt haben wir mehrere hundert Tickets auf unserer Ideenliste stehen. So schnell wird uns die Arbeit also erstmal nicht ausgehen.

Danke Tobias, dass du dir die Zeit genommen hast!

 

***Update: Tobias war so nett, noch darauf hinzuweisen, dass es weitere Informationen zum Thema Breadcrumbs bei strucr in einem Breadcrumb-Guide zusammengefasst zu finden sind. Wenn ihr dem Link im Text folgt, kommt ihr direkt dahin.

Danke, Tobias!

Dies ist nur ein Gravatar Sergio M. Vela

Sergio war ehemaliger SEO-Trainee bei Barketing, bevor er seine SEO Karriere bei dem Online-Versender Zalando fortsetzte. Er durchlief bei uns die Stationen im SEO Consulting und Linkbuilding-Team. Sergio ist absoluter SEO-Tool Fanatiker.



3 Kommentare zu “10 Fragen an: Tobias Schwarz, strucr.com”

  1. Thorsten sagt:

    Sehr gute Tipps, direkt zwei Todos auf die heutige Agenda gesetzt.

  2. Thomas sagt:

    Unglaublich spannend. Ich könnte total darüber abkotzen, dass ich nicht da war!

Hinterlasse eine Antwort