Diese Anleitung erläutert die Grundlagen für SEO, sowie genaue Informationen bis ins Detail, was die einzelnen SEO Faktoren betrifft. Der Lernprozess bei Suchmaschinenoptimierung erfolgt genauso, wie bei allen anderen Dingen auch: erst lesen, dann anwenden. Wird etwas vergessen, muss man es wiederholen.
Praxis ist. Denn bei der praktischen Umsetzung der Theorie lernt man die sogenannten SEO Tools zu schätzen. Doch um diese richtig um verstehen und sinnvoll nutzen zu können, ist es nötig die Grundlagen der Suchmaschinenoptimierung zu kennen.
Suchmaschinen gibt es jede Menge, doch benutzt werden nur wenige. Mit einer Abdeckung von ca. 90 Prozent der Suchanfragen ist Google der Primus unter den deutschsprachigen Suchmaschinen. An diesem Beispiel lässt sich die Suchmaschinenoptimierung daher am besten erklären.
Begriff und Personen Erklärung
Das Fachvokabular zu kennen ist immer von Vorteil, darum werden im Folgenden die wichtigsten Begriffe erklärt.
PageRank:
Im Abschnitt PageRank wird der ursprüngliche PageRankalgorithmus noch genau erläutert. Heute wird dieser Algorithmus üblicherweise nicht mehr genutzt. Daher steht dieser Begriff normalerweise eher für eine Menge an Faktoren, die von Google für eine Website-Reputation verwendet.
Linkpower:
Linkpower bezieht sich auf den PageRank und dessen Eigenschaft, anderen Webseiten PageRank über eine Verlinkung zu vererben. Die Linkpower beschreibt das Gewicht solcher Verlinkungen. Die Links, die auf Webseiten angegeben sind, welche einen hohen PageRank haben, besitzen demnach eine weitaus höhere Linkpower, als solche, die auf Webseiten stehen, die lediglich einen niedrigen PageRank haben.
SERPs:
Die als eine Google-Suche hervorgegangenen Ergebnisseiten werden als SERPsSearch Engine Result Pages bezeichnet. Synonym für diesen Begriff spricht man auch einfach nur von Ranking.
Keyword:
Webseiten werden bei der Suchmaschinenoptimierung in der Regel für ganz spezielle Begriffe optimiert. Bei diesen Begriffen handelt es sich um die Suchwörter, die in die Suchmaschine eingegeben werden. Keywords sind also lediglich die Suchbegriffe.
Link:
Link ist die Kurzform für den sogenannten Hyperlink.
Backlink:
Man denke sich Webseite A und Webseite B. A linkt die Webseite B an.
Snippet:
In der Regel erzeugen Suchmaschinen einen kleinen Textausschnitt bei der SERPs-Darstellung. In diesem wird der Webseiteninhalt kurz beschrieben. Dabei handelt es sich um einen Snippet.
Google Webmaster Tools:
Legt man sich bei Google ein Benutzerkonto an, so hat man Zugriff auf die sogenannten Google Webmaster Tools. In diesen ist es möglich ein paar statistische Daten einzusehen, eine eigene Domain u erstellen und so manche Parameter einzustellen. Erreichen kann man diese unter https://www.google.com/webmasters/tools/.
Google Webmaster Guidelines:
Für Webseiten werden bestimmte Richtlinien definiert. Diese sollen bei Google gelistet werden. Zu erreichen sind diese unter http://www.google.com/support/webmasters/bin/answer.py?hl=de&answer=35769.
Matt Cutts:
Derjenige der das Google Webspam Team leitet wird Matt Cutts genannt. Dieses Team ist verantwortlich für die Qualität der ausgegebenen Suchergebnisse.
Suchmaschinen
In dieser Anleitung wird die Theorie der Suchmaschinenoptimierung Stück für Stück erklärt. Dabei sollte jedoch bedacht werden, dass Theorie nicht gleich Die große Informationsvielfalt ist das, was das Internet grundlegend ausmacht. Jedoch sind diese Informationen an den verschiedensten Stellen zu finden. Daher ist es sinnvoll diese sinnvoll zu ordne. Bereits sei t der Entstehung des Internet besteht dieses Problem. Daher kam es zu der Entwicklung unterschiedlicher Lösungsansätze:
Was sind Webkataloge?
Hierbei handelt es sich um Verzeichnisse die manuell verpflegt werden. Sie sind in unterschiedliche Kategorien aufgesplittet. Es ist möglich dass diese Kategorien noch einmal Unterkategorien besitzen. Daraus ergibt sich dann eine hierarchische Struktur. URLs werden in den Kategorien gemeinsam mit einer kurzen Beschreibung gespeichert. Durch die manuelle Pflege und Erweiterung haben solche Verzeichnisse jedoch einige Nachteile. Durch das ständige Wachstum des Internets wird das zu einem Problem. Um zu einem Ergebnis zu gelangen muss ein User über unterschiedliche Hierarchieebenen navigieren, was die Suche nach Informationen mühselig gestaltet.
Liste mit den TOP-10 Webkatalogen:
Nr. | Webkatalog | PR Vererbung | Thema des Kataloges |
---|---|---|---|
1 | webspider24.de | ja | Webkatalog und Artikelverzeichnis |
2 | linkkatalog-mv.de | ja | Mecklenburg Vorpommern – regional |
3 | therapeutenkatalog.de | ja | Gesundheit |
4 | beammachine.net/de/ | ja | |
5 | meinestadt.de | ja | |
6 | bunte-suche.de | ja | Freizeit |
7 | csearch.de | ja | |
8 | kfz-auskunft.de | ja | Auto |
9 | oekoportal.de | ja | Ökobranche |
10 | suchmaschinen-linkverzeichnis.de | ja |
Volltextsuchmaschinen:
Durch die ersten Volltextsuchmaschinen wurde ein automatisierter Ansatz für die Organisation des Internets zur Verfügung gestellt. Die Basis dieser Volltextsuchmaschinen war Einlesen und Speichern von Webdokumenten in einem Index, welches automatisiert erfolgte. Suchanfragen konnten lediglich dann gestellt werden, wenn diese mit dem passenden Index verglichen wurden. Als Ergebnis wurden alle zu der Anfrage passenden Dokumente geliefert. Eine manuelle Pflege ist bei diesem Konzept unnötig. Jedoch ist die Anzahl der Dokumente, welche passend sind, in den meisten Fällen zu hoch. Suchmaschinen fehlt einfach das Verständnis für Webdokumenten-Inhalt.
Einbeziehung von Meta Informationen:
Bei Meta Informationen handelt es sich um Informationen über Informationen. Durch diese wird die Möglichkeit gegeben, maschinell besser verwertbare Informationen zu erstellen, da die Daten genauer beschrieben werden. Dadurch ist den Suchmaschinen eine weitaus bessere Abschätzung des Webseiten-Inhalts möglich. So wird bei Suchanfragen auch die Ergebnismenge eingeschränkt. Bei HTML-Dokumenten werden die typischen Meta Informationen in einem Tag eingetragen. Man kennt sie auch als Meta Tags.
Einführung eines Rankings:
Sogar mit Meta Daten verarbeitenden Suchmaschinen ist die Ergebnisliste lediglich etwas genauer. In den meisten Fällen ist die Liste trotzdem noch zu groß, damit aus dieser die manuellen Informationen extrahiert werden können, die in der Tat relevant für den Sucher sind. Daher erfolgte die Entwicklung von rankingbasierten Suchmaschinen. Diese nehmen zusätzlich zu einer Abfrage noch eine Bewertung der verschiedenen Ergebnisse vor. Daraus kann eine Struktur erzeugt werden und ein sinnvolles Arbeiten wird möglich.
Was bedeutet PageRank?
Der PageRank Algorithmus stellt das wohl bekannteste Kriterium zum Rankin dar. Benannt ist die Algorithmus nach einem Mitgründer von Google, Larry Page. Für Webdokumente und deren Relevanz wird ein Maß geliefert, welches auf ihrer Reputation im Internet beruht. Berechnet wird diese auf der Basis der Hyperlinks, welche eingehen. Hinter diesem Prinzip steckt der Grundgedanke Links als eine Empfehlung u betrachten. Das kann mit Zitaten verglichen werden. Bei dem PageRank handelt es sich u einen konkreten Wert.
Formel zur Berechnung des Pagerank:
Demnach stellt der PageRank einen Wert zwischen 0 und 1 dar. Der eigentliche PageRank muss über mehrere Iterationen berechnet werden, dass dieser Algorithmus rekursiv ist. Damit keine unendlicher PageRank entstehen kann, wenn Webseiten ihre Links als Kreislauf aufbauen, gibt es d, den Dämpfungsfaktor. Für diesen empfiehlt man einen Wert von etwa 0,85.
Als weitere tragende Betrachtung gibt es das sogenannte Random Surfer Modell. Mit diesem Begriff beschreibt einen Benutzer, der zufällig zwischen unterschiedlichen Webseiten, durch das Folgen von Links, navigiert. An einer bestimmten Stelle wird dieser Prozess vom User abgebrochen. Anschließend kann er auf einer anderen zufällig ausgesuchten Webseite von wieder beginnen. Die Wahrscheinlichkeit dass ein Benutzer in diesem Fall auf eine gewisse Webseite kommt, entspricht bei diesem Modell dem PageRank dieser Seite.
Nicht zu vergessen sei auch das Reasonable Surfer Modell. Mit großer Wahrscheinlichkeit wird auch heutzutage noch das PageRank Prinzip eingesetzt. Jedoch nicht mehr genau in der Form, wie zuvor beschrieben wurde. Man geht davon aus, dass der Benutzer nicht mehr zufällig auf irgendwelche Links klickt, sondern dass die Auswahl der Links von gewissen Faktoren abhängig ist. Zum Beispiel ist die Wahrscheinlichkeit größer, dass der User einen Link wählt, der im Bezug zu der Seite steht, auf der er gerade befindlich ist. Weiterhin ist es wichtig, wo der Link platziert ist. Ein im Hauptinhalt befindlicher Link wird öfter ausgewählt, als einer der im Footer ist.
Nun muss noch in die nofollow Attributs eingeführt werden. Durch dieses ist es einem Webmaster zum Beispiel möglich, auf seiner Seite einen Werbelink einzusetzen, ohne dass dabei der Algorithmus einer Suchmaschine manipuliert wird. Links mit einem nofollow vererben keinen PageRank oder Ankertext.
Was kann OnPage Optimierung?
Mit diese Begriff werden sämtliche Maßnahmen zusammengefasst, die auf einer Webseite durchgeführt werden können, damit an bei Suchmaschinen zu eine Begriff besser gelistet werden kann.
Die OnPage Optimierung beschäftigt sich mit allen Elementen, die zu einer Webseite gehören (interne Verlinken, Markkup, Text, …). Dadurch ist sie der Gegenpart zur OffPage Optimierung. In der Regel wird der Einfluss den die OffPage Optimierung hat, de der OnPage Optimierung untergeordnet. Dabei ist jedoch zu beachten, dass ein Webseiten-Quellcode den allerersten Berührungspunkt it dem u einer Suchmaschine gehörigen Crawler darstellt. Dafür ist eine starke fokusierung der anvisierten Keywords notwendig.
Die OnPage Optimierung beschreibt also, wie gut das Optimierungspotenzial einer Webseite ausgeschöpft wurde. Zudem kann das Thema einer Webseite einer Suchmaschineüber die OnPage Optimierung mitgeteilt werden. Die Usability und die OnPage Optiierung sollten miteinander einhergehen. Im Besonderen heißt das, dass Wenseiten besonders für Benutzer bedien- und lesbar zu sein haben. So sind also Aufbau und Struktur der Homepage von großer Bedeutung.
robot.txt das ist wichtig zu Wissen
Dabei spielt vor allem die Datei robots.txt eine ganz entscheidende Rolle. Sie richtet sich ausschließlich an den Webcrawler. Ihr vorrangiger Nutzen besteht darin, den Crawler in seinem Verhalten zu steuern. Genauer gesagt besteht das aus dem verbieten und erlauben von bestimmten Verzeichnissen oder Seiten. Dafür verwendet an wie Direktiven, disallow und allow.
Entweder gelten die definierten Regeln für sämtliche Benutzer, oder aber sie beziehen sich lediglich auf einen ganz bestimmten. Indem die Crawler von Suchmaschinen, die unwichtig sind, ausgesperrt werden, kann man als Betreiber einer Webseite beispielsweise Traffic sparen. Zusätzlich lassen sich damit auch private Verzeichnisse davon ausschließen, in den Index von Google aufgenommen zu werden.
Weiterhin wird diese Datei auch für die Lokalisierung einer Sitemap eingesetzt. Für alle Crawler gelten die gleichen Regeln, wenn das durch „*“ spezifizier wird. Sollen für bestimmte Crawler unterschiedliche Regeln gelten, so muss das gekennzeichnet werden (über die User Argent Direktive). Unter http://www.robotstxt.org/db.html kann einer Liste sämtlicher Robots eingesehen werden.
Sitemaps ist wichtiger als gedacht
Sollen die Unterseiten einer Homepage über eine interne Verlinkung angegeben werden, so muss an darauf achten, dass sämtliche Unterseiten erreichbar sind. Sie müssen also mindestens von einer anderen Seite aus verlinkt sein. Damit schafft man die Grundvoraussetzung für das Indexieren und Crawlen einer Seite.
Allein das ist aber keine Garantie dafür, dass diese Seite auch von einem Crawler besucht wird. Denn keine Suchmaschine besitzt unbegrenzte Ressourcen. Wird nun sehr tief in der Hierarchie eine Webseite angesiedelt, kann es bis nur Indexierung eine ganze Weile dauern. Außerdem gibt es Situationen, in denen sich interne Verlinkungen als unmöglich herausstellen. Das ist zu Beispiel bei Flash oder AJAX der Fall.
Deswegen wurde die Möglichkeit eingerichtet, eine Sitemap zu erstellen. Es handelt sich dabei um eine XML Datei. Sämtliche Seiten der Domain werden in dieser XML Datei durch ihre URL aufgeführt. Ihre Chance ist größer, schnell angeklickt zu werden. Die URL-Anzahl ist auf 50.000 beschränkt. Deswegen kann es passieren, dass es nötig ist, mehrere Sitemaps anulegen.
Duplicate Content vermeiden
Der Inhalt von Web-Dokumenten wird als Duplicate Content bezeichnet, wenn diese dem Inhalt von anderen Dokumenten sehr ähnlich sein, oder ihnen sogar gleichen. Dabei identifizier genau eine URL ein Dokument. D es für Suchmaschinenbenutzer sinnlos ist, mehrfach gleiche Inforationen angezeigt zu bekommen, wird auf diese Art und Weise versucht Duplikate zu erkennen. Bei der SERPs-Berechnung soll lediglich ein einziges Ergebnis angezeigt werden, dass repräsentativ ist.
Also liegt ein Duplicate Content immer dann vor, wenn ein gleicher Inhalt auf unterschiedlichen URLS angezeigt wird. Dabei muss es nicht mal zu einer exakten Inhaltsübereinstimmung kommen, denn es gibt den sogenannten Near-Duplicate Content, der kleinste Abweichungen erkennt. Wird eine Webseite als ein solchen Duplicate Content erkannt, so wird diese mit Nachteilen im Ranking bestraft oder gar nicht erst in den Content aufgenommen.
Für die Vermeidung von Duplicate Content gibt es mehrere Möglichkeiten. Zu Beispiel 301 Redirect, den Canonical Tag oder den NoIndex Meta Tag.
Meta Tags
Meta Tags definiert an im -Bereich einer HTML Seite. Sie geben Informationen zu der Seite an, die zusätzlich sind.
Description:
Der Description Meta Tag ist dazu gedacht, den Inhalt einer Seite kurz zusammenzufassen. Daher sollte er einzigartig für jede Seite einer Domain sein.
Robots:
Dieser Meta Tag steuert das Suchmaschinen-Verhalten auf der platzierten Seite. Es gibt unterschiedliche Werte, die er annehmen kann:
Noimageindex: Bilder der Seite tauchen bei einer Bildersuche nicht auf
Unavailable_after[date]: Crawlen ab dem spezifizierten Datum wird verhindert
Noarchieve: Behalten dieser Seite im Cache wird verhindert
Noodp: ODPOpen Directory Project-Beschreibungstext wird nicht als Snippet genutzt.
Nosnippet: Snippet-Anzeige wird verhindert
Nofollow: Für weitere Crawlingvorgänge werden keine Hyperlinks verwendet
Noindex: Indexieren einer Seite wird verhindert
Auf das Ranking hat kein einziger dieser Werte Einfluss. Ist der Tag nicht gesetzt, so wird von dem Wert „index, follow“ per Default ausgegangen. Dadurch dürfen die verlinkten Seiten gecrawlt und die Seite indexiert werden.
Wozu gibt es Refresh?
Durch den Refresh Meta Tag wird eine Weiterleitung bewirkt.
Was bedeutet Dublin Core Standard?
Eine weitere Methode zur Versehung mit Meta-Angaben eines HTML Dokuments stellt der Dublin Core Standard zur Verfügung. Dadurch dass gewisse Werte standardisiert wurden, gibt es manche Vorteile im Gegensatz zu den üblichen Meta Tags. Es bringt i Bezug auf die Suchmaschinenoptimierung allerdings keine Vorteile, falls Meta-Angaben verwendet werden, die de Dublin Core Standard entsprechen. Im Jahr 2005 untersuche das beispielsweise www.webology.ir!
Interne und externe Verlinkungen sind wichtig
Wird ein eigener Websshop zu einem gewissen Thema erstellt, so kann es dazu kommen, dass auf unterschiedlichen Unterseiten überschneidende Unterthemen abgehandelt werden. Aus diesem Grund ist der Gebrauch der internen Verlinkung der eigenen Webseite stark zu empfehlen. Zu einen ist das hilfreich für den menschlichen Benutzer, zum anderen ist der Effekt auch für das Ranking in Suchmaschinen positiv.
Es ergibt sich ein Vorteil für die angeklickte Unterseite, denn so fließt ihr Linkpower zu. Also ist der positive Effekt mit dem PageRank Prinzip direkt verknüpft. Wird das für die Seite rankende Keyword als Linktext angewählt, ergibt sich dabei eine maximale Effizienz. Zusätzlich wird auch die Unterseite, die mit diese Link versehen ist, positiv beeinflusst, was das Ranking betrifft. Dabei wird generell von Bad und Good Neighborhood gesprochen.
Das musst du über Good Neighborhood Wissen
Hierunter werden verlinkte Webseiten verstanden, die durch positive Eigenschaften ausgezeichnet werden. Es gibt dabei zwei Arten, die Beurteilung von „positiv“ vorzunehmen. Man kann sich auf die Suchmaschinen-Beurteilung verlassen oder aber als Mensch entscheiden, ob die Inforationen einer Webseite benutzerfreundlich und qualitativ hochwertig sind.
Das gilt zu vermeiden Bad Neighborhood
Negativ kann eine Webseite beeinflusst werden, wenn auf ihr gegen die Guidelines der Suchmaschine verstoßen werden. Das kann zum Beispiel passieren, wenn Spamtechniken eingesetzt oder Texte mutwillig versteckt werden. Für infizierte Webseiten gilt dasselbe. Bad Sites werden haben negative Effekte auf das Ranking der zu ihnen verlinkenden Seiten und sie werden selbst im Ranking abgestuft.
Semantische Relevanz
Bei der Dokumentenbewertung stellt oft das Erkennen der Thematik ein großes Problem dar. Eine Suchmaschine ist nicht in der Lage zu erkennen, welche Bedeutung bestimmte Wörter auf einer Seite haben, wenn es keine zusätzlichen Informationen gibt.
Dafür ist Phrase Matching wichtig
Zur Umgehung dieses Problems werden von Suchmaschinen Algorithmen verwendet, die berechnen wie hoch die semantische Nähe von Wörtern ist. Ähnliche Ansätze verfolgen auch das Latent Dirichlet Allocation (LDA) und das LSI – Laten Semantic Indexing.
Keyword Proximity und Keword Positioning
Bestehen Suchbegriff nicht nur aus einem Keyword, sondern aus mehreren, spielt es eine Rolle in welcher Reihenfolgte die Begriffe stehen und welche Nähe sie zueinander haben. Liegen die Begriffe näher beisammen, ist auch die Relevanz höher. Die Positionierung des Keywords ist davon abhängig ob es an einer prominenten Stelle, wie zum Beispiel dem Content steht, oder eher an einer weniger prominenten Stelle platziert ist, beispielsweise dem Footer.
Richtige OffPage Optimierung
Äquivalent zur OnPage Optimierung steht die OffPage Optimierung. Sie beschäftig sich der Reputation einer Webseite.
Sowohl OnPage Optimierung als auch OffPage Optimierung sind wichtig für eine erfolgreiche Suchmaschinenoptimierung. Die Bearbeitung sollte mit Sorgfalt erfolgen. Es hat sich in der Realität jedoch gezeigt i Gegensatz zu OnPage Optiierung die OffPage Optimierung überwiegt. Zum Beispiel kann das dadurch erklärt werden, dass die OnPage Optimierung bei vielen Webseiten kein ausreichendes Kriterium zur Unterscheidung mehr darstellt. Hingegen repräsentiert die OffPage Optiierung die Webseiten-Reputation, der scheinbar nach oben hin keine Grenzen gesetzt werden, da sie sich mit jedem Backlink der eingeht erhöht.
Nicht unerwähnt sollte beim Thema OffPage Optimierung das Linkbuilding (der Linkaufbau) bleiben. Gemeint ist damit das gezielte Setzen der Backlinks u die OffPage Optimierung zu verbessern.
Demnach beschreibt die OffPage Optimierung also die Ausschöpfung des Optimierungspotentials im Bezug auf die Reputation einer Webseite. Dabei stellen die Backlinks den wichtigsten Faktor dar, jedoch gibt es dabei einige qualitative (TrustRank, Eigenschaften von Backlinks)sowie quantitave (Linkpopularität, Domainpopularität, IP-Popularität) Unterschiede. Die Thematik des Linkbuildings spielt eine essenzielle Rolle in diesem Zusammenhang.
Angebote im Marktplatz:
- Universal 3.5mm Stereo Headset mit Mikro für Apple
- Bauchweg Unterwäsche Shapewear Body Shaper Miederbody Formende
- Jogger Trainingshose Freizeithose Jeans Fitness Classic
- XXL Werkstattwagen 153 teilig – Sonderposten
- DeTec Hochdruckreiniger 13 PS 250 bar
Forum für deine Fragen zu SEO:
Hast du Fragen zu diesen Artikel oder magst deinen Senf dazu geben? Dann schreibe einen Kommentar hier unten.