Texte auf der Website
Webmaster ToolsDie Webmaster Tools erlauben uns, unsere Website aus den Augen des Suchmaschinengiganten Google zu sehen.
Keyword-Dichte
Grundsätzlich soll das (Haupt-)Keyword möglichst oft auf der Seite platziert werden. Allerdings sollte die Keyworddichte zwischen 3-4 % liegen. Liegt sie darüber, muss mehr Text auf die Seite. So kann man zwar zunächst möglichst viele Keywords setzen, sollte aber nach Prüfung der Density mehr Text drum herum bauen.
Spider Simulatoren
Um Webseiten auszulesen, wie Suchmaschinen das machen, kann man Spider Simulatoren nutzen.
> URL dort eingeben und auslesen lassen, um Fehlerquellen zu entdecken und zu verbessern
Tipp (Grey Hat!), um unsere Seite besser zu platzieren und mehr Keywords auslesen zu lassen: einen <div> Container innerhalb eines Kommentars direkt hinter dem body-Tag einfügen und mit relevanten Keywords füllen.
Dabei handelt es sich um einen Fehler der Suchmaschinen, dass die Keywords aus dem Container nicht auf der Website angezeigt, aber von den Spidern trotzdem ausglesen werden können:
<!-- div>Das Keyword kann man mit anderen Keywords kombinieren, ansonsten Stuffing, was die Suchmaschine erkennt und abstraft </div> //-->
Link-Tipp:
Spider Simulator
3 Dateien gehören in das Root-Verzeichnis, die von Robots ausgelesen werden. Diese Dateien liegen auf dem Server, wo meine Startseite (index.php) liegt:
- .htaccess
- robots.txt
- sitemap.xml
- sitemap.xml.gz => komprimierte Sitemap, die schneller auf Smartphones angezeigt wird. Dass man die .gz verwendet, muss man in der .htaccess Datei angeben! Wie, siehe unter .htaccess
Sitemap XML
XML-Sitemaps = Landkarte für den Suchmaschinen-Roboter. Dabei handelt es sich um eine .xml Datei, mithilfe dieser der Roboter in sekundenschnelle den Inhalt der ganzen Website liest. Ohne diese Datei würde das Auslesen der Seite länger dauern, aber der Robot bleibt nur kurze Zeit auf unserer Seite, die dann nicht komplett ausgelesen wäre und damit ein schlechtes Ranking in der Suchmaschine hätte.
> Um eine xml-Datei von meiner Seite zu erstellen, sucht man sich ein Programm (nur wenn man kein Plug-in hat), einen Sitemap-Generator (es gibt auch Plug-ins, die das automatisch machen wie bei Wordpress), wie:
xml-sitemaps.com
> In den Sitemap-Generator gebe ich meine URL ein und diese wird als XML-Datei ausgegeben.
> Diese XML-Datei muss ich auf den Server laden, wo meine Website liegt.
> Da meine Website normalerweise bei einem Hoster liegt, brauche ich einen FTP-Zugang, um mich mit meinem Server und damit mit meiner Website verbinden zu können und Dateien dort speichern zu können. Im Hosting-Paket stehen i. d. R. meine Zugangsdaten.
Link-Tipp für FTP-Programm:
Filezilla
Bei Content Management Systemen gibt es normalerweise Zusatzprogramme, die XML-Dateien automatisch erstellen.
=> Im Anschluss müssen wir Webmaster Tools sagen, dass wir eine Sitemap haben
=> Button: Sitmap hinzufügen:
=> Damit kann unsere Seite durch den Crawler/robot ausgelesen werden
=> Um das mit unserem Blog zu machen, den wir als Website nicht bei einem Hoster oder so haben, kann man mit einem Trick trotzdem eine Art Sitemap angeben, indem man den RSS Feed meines Blogs eingibt, da Feeds auch im XML-Format programmiert sind, die auch von Robots gelesen werden können
Schritte wie ich an den RSS Feed des Blogs komme:
- Im Blog-Frontend nach unten scrollen
- Auf Abonnieren (Atom) klicken
- Die Endung feeds/posts/default aus der URL kopieren
- Und bei Webmaster Tools hinzufügen:
.htaccess Datei
Server-Datei, die dazu dient, weitere Codes wie Zugriffsschutz oder Weiterleitungen bei Fehlermeldungen einzugeben.Einen guten Überblick zu HTTP-Statuscodes gibt es bei:
Wikipedia
Beispiel: Die URL-Klärung:
WICHTIG für SEO, um Duplicate Content zu vermeiden!
Hier wird in der .htaccess angegeben, dass z. B. eine URL, die mit www. eingegeben wird zur URL OHNE www. weitergeleitet wird.
Code-Beispiel für die .htaccess Datei zur URL Klärung:
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^www.wenda-it-web.de
RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]
Man kann noch weitere Bedingungen anfügen:
RewriteCond %{HTTP_HOST} ^www.ralf-wenda.de
RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]
RewriteCond %{HTTP_HOST} ^ralf-wenda.de
RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]
Diese Codes gibt man in eine Textdatei, die immer als .htaccess abgespeichert wird, die beliebig erweiterbar ist, je nachdem, was ich z. B. für Bedingungen, Weiterleitungen oder Schutzfunktionen erstellen möchte. Diese Datei muss ich in den Root Folder meiner Website legen, also über FTP auf den Server spielen.
Um dem Crawler zu sagen, dass er ggf. die komprimierte Sitemap auslesen soll, muss ich folgenden Code in die .htaccess Datei eingeben. Das verbessert die Ladezeiten, zum Beispiel für Mobile-Darstellung, und damit SEO:
# BEGIN Gzip Compression
AddEncoding gzip .gz
<filesmatch "\.js\.gz$">
AddType "text/javascript" .gz
</filesmatch>
<filesmatch "\.css\.gz$">
AddType "text/css" .gz
</filesmatch>
<ifmodule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP:Accept-encoding} gzip
RewriteCond %{REQUEST_FILENAME} \.(js|css)$
RewriteCond %{REQUEST_FILENAME}.gz -f
RewriteRule ^(.*)$ $1.gz [QSA,L]
</ifmodule>
# END Gzip Compression
robots.txt
Ein Webcrawler (Robot) liest beim Auffinden einer Webseite zuerst die Datei robots.txt (kleingeschrieben) im Stammverzeichnis („root“) einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf.Mit dem folgenden Befehl wird z. B. allen Webcrawlern die Indexierung der kompletten Webpräsenz verboten:
User-agent: *
Disallow: /
Das * steht für: Alle
Der / steht für: Root-Verzeichnis
Das bedeutet, dass diese Seite gar nicht auftaucht. Sinnvoll z. B. für alle, die ihre Website gerade aufbauen und der Crawler nur unfertige Seiten vorfindet.
Möglicherweise in der Klausur:
- was fabrizieren die 3 Dateien: robots, sitemaps, htaccess wissen, wozu diese Dateien da sind!
Sonstiges: - Kärung der URL
- Keyword Density zwischen 2-6%, 3-4% gut
- Was sollten Sie bei Onpage-Opt möglichst tun? Antwortmögl. bei Multiple Choice: Streuen Sie Backlinks über Facebook => wär falsch, denn das ist Offpage
- Unterscheidung Onpage/Offpage
- Möglichst nicht mit Grey Hat (weiße Schrift weißer Hintergrund => nur zum Testen)
- Bei SEO No index no follow => wäre quatsch, weil dann SEO überlüssig
Keine Kommentare:
Kommentar veröffentlichen