Facebook
Twitter
Google+
Kommentare
6

PHP World Kongress – Workshop SEO

Dies ist ein Gastbeitrag von Gabriele Mohl die auf dem PHP World Kongress unterwegs war.

Am 25.11. habe ich auf dem PHP World Kongress im SEO-Workshop genauestens zugehört. Der Vortrag wurde von Stefan Fischerländer http://www.fischerländer.de gehalten.

Warum bin ich in den Vortrag hinein gegangen? Der Sinn und Zweck der Webseiten, an denen man mitarbeitet, ist ja, dass diese gefunden und gesehen werden. Ohne Kunden, ohne Leser, wären die Seiten ja wertlos. Auch wenn Suchmaschinenoptimierung nicht ein Kerngeschäft eines jeden Programmierers ist, so ist es dennoch eine ganz wichtiger Aspekt jeder Webseite.

Tatsache ist, dass es sich für Firmen mit großen Webseiten lohnt, Fachleute für die SEO zu engagieren. Die Frage ist einfach die Abschätzung wie viel Geld man mit guter SEO gewinnt, im Verhältnis dazu, wie viel man dafür ausgibt. Bei einigen von mir betreuten Webseiten ist der Nutzen so gering, dass sich die Beauftragung eines speziellen SEO-Experten nicht lohnt. Ich bin daher für den Aspekt gleich mit zuständig. Daher bin ich für einige Tipps und Empfehlungen von diesem Vortrag dankbar.

Mein Hintergrund zu diesem Vortrag ist, dass ich das Buch von Jan Winkler, Suchmaschinenoptimierung aus dem Franzis PC Pocket Verlag gelesen habe. Ein Buch, das ich gerne weiter empfehle. Dieser Vortrag ging mit seinen Tipps aber weiter als das Buch…

Erst ein Mal zu den Statistiken: Mit Google werden über 9 von 10 Suchvorgänge in Deutschland durchgeführt. Andere Suchmaschinen haben dagegen einen Anteil von max. 2,6 %. Damit bedeutet in Deutschland Suchmaschinenoptimierung somit quasi Optimierung für Googles Suchmaschine. Pro Tag werden alleine in Deutschland ungefähr 100 Mio Suchanfragen gestellt…

Herr Fischerländer hat zwischen verschiedenen Bereichen der Optimierung einer Webseite unterschieden:

1. Onpage-Optimierung:
1.1. Die Bedeutung des Metatags Keywords kann man vergessen. Das war mir bereits bekannt, scheint aber noch nicht Allgemeinwissen zu sein. Überrascht hat mich die Aussage, dass das Metatag Keywords für Google noch nie eine wichtige Rolle gespielt hat… Die Metatags description, robots und language haben aber immer noch ihren Sinn und ihre Bedeutung.
1.2. Prägnanter Seitentitel (Das zwischen dem <title>)
1.3 Prägnante Überschriften (von <h1> bis <h6>)
1.4 HTML-Navigation mit anklickbaren Texten
1.5 Fremde Links mit sinnvollen Linktexten
1.6 Vergessen Sie Suchmaschineneinträge…
1.7 Der Domainname ist eher unwichtig…

Die Verwendung von Keywords  in Title, Überschriften und Inhalt der Webseite ist für eine Platzierung bei Google wichtig.

2. Offpage-Optimierung
2.1 Der Pagerank. Der Pagerank gibt die Wahrscheinlichkeit an, wenn man im Internet von Link zu Link surft, wie wahrscheinlich es ist, auf dieser Webseite zu landen… 10 ist das Maximum, 0 bedeutet die Seite ist unbekannt… Der Pagerank hängt somit nur von Links ab… Damit ist der Pagerank teilweise für die Webseite wichtig.
2. Die Linkpopularität für eine Webseite ist wichtig. Vor allem von wie vielen unterschiedlichen IPs diese kommen.
3. Die Domaintrust von Links ist wichtig. Was bedeutet das? Die Qualität des Links wird bewertet. Da spielen Faktoren wie das Alter der Domain, wie viele Links von anderen auf diese Seiten verweisen und ob diese Seite schon mal abgemahnt wurde oder nicht, hinein. Auch fällt es (unangenehm) auf, wenn in kurzer Zeit viele Links gelegt werden… Der Linkaufbau sollte kontinuierlich und allmählich erfolgen…
4. Problematisch sind JavaScript-Weiterleitungen… Es wurde das berühmte Beispiel von BMW genannt, deren Seiten aus diesem Grund von Google abgestraft wurden…

Ermitteln der Keywords einer Webseite (damit ist nicht das Tag keywords gemeint!!!):
– Brainstorming
– Bewertung a) Suchhäufigkeit b) Konkurrenz c) wie gut passt es zur Webseite
– Auswahl
– Verteilung -> Man soll den einzelnen Keywords eigene Landing-Pages zuordnen…

Problematik bei Keywords:
1) unterschiedliche Rechtschreibungen aufgrund Rechtschreibreform
2) Tippfehler (z.B. imobilien statt immobilien)
3) Singular – Plural
4) Einflüsse auf Eingabeverhalten aufgrund von Google Suggest

Lange wurde im Rest des Vortrages über Duplicate Content und wie man diesen vermeiden kann gesprochen. Weshalb kann es Duplicate Content ungewollter Weise trotzdem geben?
1. Es kann ein Resultat des verwendeten CMS sein…
2. Das CMS kann 404-Seiten fälschlich abfangen…
3. Es kann ein Resultat von load-balancing sein
4. Es kann von den Bereitstellern des Content (Redakteuren) gewünscht oder sogar gefordert werden, dass ihre Inhalte über verschiedene Pfade erreichbar sind…

Es gibt ein paar Lösungsmöglichkeiten für diese Problematik.
1. Duplicate Content erst gar nicht entstehen lassen.
2. Das Tag canonical einsetzen. Von Herrn Fischerländer kam dazu die Anmerkung, dass dieses Tag erst seit kurzer Zeit von Google angeboten wird und seine Bedeutung und Wichtigkeit für die Zukunft somit nicht geklärt ist.
3. 301 Weiterleitungen einsetzen…
4. Den Duplicate Content auf unterschiedliche Hauptdomains verteilen. Mit Links aus dem jeweiligen Land…

Auch wenn diese Kurzfassung des Vortrages vielleicht etwas trocken ist, war der Vortrag es nicht. Herr Fischerländer hat seinen Vortrag oft mit lustigen und / oder überraschenden Beispielen aus seiner Arbeit, wie auch mit humoristischen Beispielen von Googles Arbeitweise gewürzt… Leider ist dafür aber in diesem Artikel kein Platz mehr. Ich finde diesen Artikel auch so schon ziemlich lang. 🙂

Über den Autor

Damian Luszczymak

Kommentare

6 Comments

  1. Guten Morgen. Vielen Dank – trotz der Trockenheit, wie Du sagst – für diesen kurzen und prägnanten Beitrag.

    Mich würde interessieren, wie lange der Originalvortrag etwa lief, weiß das einer?

    Reply
  2. Mich würde vor allem interessieren, wieviel ein SEO-Experte ungefähr kostet und wieviel zusätzlichen Traffic er erzeugen kann. Reden wir da bei einer Webseite, die 1 Jahr als ist, von 100% mehr oder 1000% mehr neue Besucher? Wieviel ist da realistisch möglich?
    Werden SEO nach Ergebnis bezahlt oder pauschal?

    Vielleicht weiß das ja jemand…

    Reply
  3. 1000% ist sicherlich kein Problem wenn die Seite im Bereich SEO wenig / gar nichts gemacht hat und recht klein ist. Bei Spiegel / Bild etc. pp. sind wohl schon 2% eine sehr gute Steigerung. Ist eben ähnlich wie Algorithmen optimieren. bei facebook sind 2% gleich 2 Rechenzentren weniger bei einer normalen Webseite nicht die Rede / den Aufwand wert.

    Reply
  4. Der Originalvortrag dauerte 3 h.

    Zum Thema Kosten – da kann ich nur spekulieren: Man hat mir gesagt ein Agenturstundenlohn (Werbeagentur) läge bei 50 bis 80 Euro. Ein Typo3- oder SAP-Fachmann so bei 150 Euro… Natürlich muss sich für eine SEO-Agentur die Arbeit lohnen… Bei entsprechender Webseite, das kam auch im Vortrag vor, kann es sich durchaus lohnen jemanden ausschließlich für SEO einzusetzten, zu 100%. Natürlich gibt es zwischen stundenweiser Beschäftigung und 100% über einige Monate auch genug Zwischenschritte, je nach Situation. Wie immer kann über das Bezahlmodell – erfolgsabhängig, stundenweise, pauschal – wohl immer diskutiert werden…

    Reply
  5. @PHPGangsta:
    Ich denke das mit der Prozent-Angabe kann man so nicht sagen. Es kommt bei SEO immer auf sehr viele Faktoren an.
    Gibt es Konkurrenz?
    Wenn ja, wieviel Konkurrenz gibt es?
    Betreibt die Konkurrenz ebenfalls SEO?
    Wieviel SEO wurde bisher betrieben?
    Wurden bereits (gravierende) Fehler gemacht und somit Abstrafungen erhalten?
    Die Liste ist quasi unendlich fortführbar.
    Ich kann jedenfalls das Buch Website Boosting 2.0 von Mario Fischer empfehlen (http://www.website-boosting.de/) Bitte nicht vom Titel bzw. dem Website-/Buchdesign abschrecken lassen! 😉
    Der Inhalt ist damit nicht zu vergleichen.

    Grüße
    Christoph

    Reply

Leave a Comment.

Link erfolgreich vorgeschlagen.

Vielen Dank, dass du einen Link vorgeschlagen hast. Wir werden ihn sobald wie möglich prüfen. Schließen