Webmaster Tools dienen der Verwaltung meiner Website und unterstützt dabei, Traffic auf meiner Seite zu haben.
=> Data Highlighter: Hier wird festgelegt, welche Seite(n) getaggt werden sollen, die ein Suchsnippet enthalten sollen. Auf dieser Seite müssen allerdings auch Daten vorhanden sein, die strukturiert werden können. In Webmaster Tools klicke ich auf den Button "Markieren", gebe die URS(s) ein und gebe an, für welche Daten dieses Snippet angelegt werden soll:
=> HTML-Verbesserungen: Hier gibt es eine Übersicht zu HTML-Fehlern.
Link-Tipp:
Um eine Seite bzgl. der Qualität der HTML-Progammierung zu prüfen. Dazu die URL in das entsprechende Eingabefeld schreiben:
http://validator.w3.org/
=> Sitelinks: kann man nicht selbst auswählen, das macht Google. Was ich machen kann: "Sitelinks abwerten" bedeutet: Unterlinks meiner Seiten, von denen ich NICHT möchte, dass sie im Suchergebnis erscheinen (wie AGB), kann ich abwerten.
Über den Tab "Mit Änderung" kann ich Veränderungen innerhalb eines Monats sehen, um meine Content-Strategie ständig anpassen zu können. Fällt eine Änderung der durchschnittlichen Position unter 30 %, wurde ich vermutlich von Google abgestraft. Das sollte analysiert werden, denn wenn das häufiger passiert kann das dazu führen, dass Google mich rausschmeißt.
=> Links zu Ihrer Website: zeigt die Webseiten an, von denen die meisten Backlinks kommen
=> Interne Links: Verlinkungen innerhalb meiner Website.
=> Manuelle Maßnahmen: schön, wenn man gehackt wurde > eine andere Website hat einen Codeschnipsel von der eigenen Website genommen und nutzt diese Seite, um andere Nutzer zuzuspammen.
=> Content Keywords: Einstufung von Google zu meinem Thema. Welche Bedeutung hat ein Keyword für meine Website (Anzahl und Variation der Wörter könnten eine Rolle spielen). Gibt Auskunft darüber, in welchem Zusammenhang ich gefunden werde. Um das zu optimieren, muss ich Wunsch-Keywords versuchen besser auf meiner Seite zu platzieren.
=> URLs entfernen: Z. B. ein abgelaufener Event. Diese URL kann man im Eingabefeld angeben, es ist allerdings fraglich, wann und ob Google das entfernt.
Tipp: Geschäflich macht es Sinn, für 40,-/Jahr "Apps for Business" bei Google zu haben, um einen Ansprechpartner bei Google zu haben.
=> Crawling-Statistiken: 1. Statistik zeigt an , dass man viel oder wenig an seiner Seite gemacht hat und diese dann entsprechend gecrawlt wird > Die Crawler reagieren darauf, wenn man nix macht und besuchen die Seite weniger. Im Idealfall sieht die Kurve herförmig aus.
2. Statistik gibt an, wie hoch die Ladezeit einer Seite ist. Sollte wenig Spitzen haben, also nicht läner als 1 Sekund laden.
=> Abruf wie durch Google: Man kann dort Seiten angeben, die nicht aufgerufen werden können (diese Seiten tauchen auch bei Crawling-Fehler auf). Im Eingabefeld gebe ich die Seite an, klicke auf abrufen und kann sehen, ob Google auch Probleme hat, diese Seite aufzurufen. Ist das der Fall, ist der Fehler auf meiner Seite und muss ih prüfen. Habe ich den Fehler behoben, mach ich das nochmal und kriege angezeigt, dass der Abruf erfolgreich war. Weiß ich, dass die Seite bereits im Index ist, bracue ich sie nicht nochmal "An den Index" senden.
=> Blockierte URLs: Nur zur Ansicht über blockierte URLs, die ich in meiner robots.txt angegeben habe.
=> Sitemaps: siehe Tag 12
=> URL-Parameter: sollte von Webentwicklern, die sich mit Parametern auskennen bearbeitet werden. Unwichtig für Marketer.
Mein Gesicht in den Such-Snippets der organischen Suche
Bedingungen: Google+ Profil und Foto meines Gesichts > sorgt für besseres Ranking bei SEO
Um zu wissen wie man das mcht, kann man auch einfach rel author in die Google-Suche eingeben und findet nützliche Hinweise.
Darstellung der Suche
=> Strukturierte Daten: Beschreibt, wie man das Snippet selbst porgrammiert, um strukturierte Daten wie Veranstaltungsverzeichnisse oder Bewertungen auf der SERP anzuzeigen wie in diesem Beispiel:
=> Data Highlighter: Hier wird festgelegt, welche Seite(n) getaggt werden sollen, die ein Suchsnippet enthalten sollen. Auf dieser Seite müssen allerdings auch Daten vorhanden sein, die strukturiert werden können. In Webmaster Tools klicke ich auf den Button "Markieren", gebe die URS(s) ein und gebe an, für welche Daten dieses Snippet angelegt werden soll:
=> HTML-Verbesserungen: Hier gibt es eine Übersicht zu HTML-Fehlern.
Link-Tipp:
Um eine Seite bzgl. der Qualität der HTML-Progammierung zu prüfen. Dazu die URL in das entsprechende Eingabefeld schreiben:
http://validator.w3.org/
=> Sitelinks: kann man nicht selbst auswählen, das macht Google. Was ich machen kann: "Sitelinks abwerten" bedeutet: Unterlinks meiner Seiten, von denen ich NICHT möchte, dass sie im Suchergebnis erscheinen (wie AGB), kann ich abwerten.
Suchanfragen
=> Suchanfragen gibt eine Statistik an, welche Keywords die Leute eingegeben haben (Suchanfrage) haben, wie oft ihnen die entsprechende Seite in der SERP angezeigt wurde (Impressions), wie viele tatsächlich auf die Seite geklickt haben (Klicks), wie hoch die CTR ist, welche Position ich im Duchschnitt auf der SERP erreicht habe.Über den Tab "Mit Änderung" kann ich Veränderungen innerhalb eines Monats sehen, um meine Content-Strategie ständig anpassen zu können. Fällt eine Änderung der durchschnittlichen Position unter 30 %, wurde ich vermutlich von Google abgestraft. Das sollte analysiert werden, denn wenn das häufiger passiert kann das dazu führen, dass Google mich rausschmeißt.
=> Links zu Ihrer Website: zeigt die Webseiten an, von denen die meisten Backlinks kommen
=> Interne Links: Verlinkungen innerhalb meiner Website.
=> Manuelle Maßnahmen: schön, wenn man gehackt wurde > eine andere Website hat einen Codeschnipsel von der eigenen Website genommen und nutzt diese Seite, um andere Nutzer zuzuspammen.
Googleindex
=> Indexierungsstatus: wie viele Seiten von mir sind bei Google indexiert. Acuh hier ist natürliches Wachstum wichtig!=> Content Keywords: Einstufung von Google zu meinem Thema. Welche Bedeutung hat ein Keyword für meine Website (Anzahl und Variation der Wörter könnten eine Rolle spielen). Gibt Auskunft darüber, in welchem Zusammenhang ich gefunden werde. Um das zu optimieren, muss ich Wunsch-Keywords versuchen besser auf meiner Seite zu platzieren.
=> URLs entfernen: Z. B. ein abgelaufener Event. Diese URL kann man im Eingabefeld angeben, es ist allerdings fraglich, wann und ob Google das entfernt.
Tipp: Geschäflich macht es Sinn, für 40,-/Jahr "Apps for Business" bei Google zu haben, um einen Ansprechpartner bei Google zu haben.
Crawling
=> Crawling-Fehler: Können z.B. Fehlerseiten wie 404 sein. Ist darunter eine Seite, die man sowieso nicht mehr haben will, kann man diese wiederum unter URLs entfernen und "beantragen" dass sie entfernt wird (wie kann ich über drop down entscheiden). Im Idealfall sind dort keine Fehler.=> Crawling-Statistiken: 1. Statistik zeigt an , dass man viel oder wenig an seiner Seite gemacht hat und diese dann entsprechend gecrawlt wird > Die Crawler reagieren darauf, wenn man nix macht und besuchen die Seite weniger. Im Idealfall sieht die Kurve herförmig aus.
2. Statistik gibt an, wie hoch die Ladezeit einer Seite ist. Sollte wenig Spitzen haben, also nicht läner als 1 Sekund laden.
=> Abruf wie durch Google: Man kann dort Seiten angeben, die nicht aufgerufen werden können (diese Seiten tauchen auch bei Crawling-Fehler auf). Im Eingabefeld gebe ich die Seite an, klicke auf abrufen und kann sehen, ob Google auch Probleme hat, diese Seite aufzurufen. Ist das der Fall, ist der Fehler auf meiner Seite und muss ih prüfen. Habe ich den Fehler behoben, mach ich das nochmal und kriege angezeigt, dass der Abruf erfolgreich war. Weiß ich, dass die Seite bereits im Index ist, bracue ich sie nicht nochmal "An den Index" senden.
=> Blockierte URLs: Nur zur Ansicht über blockierte URLs, die ich in meiner robots.txt angegeben habe.
=> Sitemaps: siehe Tag 12
=> URL-Parameter: sollte von Webentwicklern, die sich mit Parametern auskennen bearbeitet werden. Unwichtig für Marketer.
Sicherheitsprobleme
=> Sollten nicht vorhanden seinAndere Ressourcen
=> weitere Google Dienste/FunktionenMein Gesicht in den Such-Snippets der organischen Suche
Bedingungen: Google+ Profil und Foto meines Gesichts > sorgt für besseres Ranking bei SEO
Um zu wissen wie man das mcht, kann man auch einfach rel author in die Google-Suche eingeben und findet nützliche Hinweise.
Keine Kommentare:
Kommentar veröffentlichen