Freitag, 28. Februar 2014

OM Tag 19 - Google Analytics

Standard-Fall für die meisten Unternehmen bei Google Analytics:
1 Konto-Name
1 Property-Name
Alle Website-Daten

Dreier-Struktur: 
Konto => Nur ein Name, unter dem ich meine Webseiten habe, z. B.: Onlineshops
Property => Webseite wie schuhe.de
Website-Daten => die einzelnen Seiten, die innerhalb der Property analysiert werden sollen

==> Unter jedem Punkt können viele weitere angelegt werden!


Klausurrelvant: Welche Tools gehören zu Google?
Analytics, AdWords, AdSense, Webmaster Tools

Leistungskennzahl:
Rohdaten > z. B. 3000 Besucher (müssen in Bezug gestzt werden) > daraus entsteht eine Kennzahl, z. B. 3000 Besucher im Monat > Das Ziel definiert die Leistungskennzahl: was hat man von den 3000 Besuchern? Und da muss jeder definieren, was er davon hat, denn das kann unterschiedlich sein.

Klausurrelvant
Besuche = es kann mehrmals der Gleiche gewesen sein
Eindeutiger Besucher = derjenige war nur einmal da

Klausurrelevant: Analyseprogramm kann die Conversions (CRs), CTRs, etc. Zahlen, Daten, Fakten erfassen

Absprungrate sollte unter 40% liegen 

Den wichtigsten Punkt findet man unter "Conversions" > "Ziele", denn letztendlich will man wissen, wie erfolgreich die Seite ist.

WICHTIG: Zielfestlegung
Unter "Verwalten" (> hier kann ich Konto, Propertys und Website-Daten anpassen) im oberen Menü kann ich Ziele  für "Alle Website-Daten" festlegen.

  1. Neues Ziel erstellen
  2. Namen angeben (Abb. 1): wenn ich meinen Warenkauf analysieren will, gebe als Ziel z. B. "Verkauf" ein.
  3. Ziel ist gleich: URL der Website, an der man sicher sehen kann, dass ein Verkauf stattgefunden hat, hier: http://kastefes.blogspot.de/p/danke_3.html
  4. Wert Optional: der durchschnittliche Kundenwert > durchschnittlicher Umsatz oder Gewinn
  5. Trichter Optional: dort gebe ich die Seiten ein, die der User besuchen muss, um die Zielseite, in diesem Beispiel die Dankesseite nach einem Kauf, zu erreichen. "Trichtermäßig" gebe ich hier die Seiten an, die schrittweise durchlaufen werden müssen. Das können hier Warenkorbseite > Bestellübersicht > Bezahlseite sein. WICHTIGE OPTION, denn hier kann ich auch sehen, wo Leute abspringen, bevor sie kaufen. 
  6. Wenn ich das Ziel gespeichert habe, kann ich über "Berichte" im oberen Menü und dann "Ziele" im linken Menü mein Ziel auswählen und mir Analysen anzeigen lassen. Sehr schön: Trichter-Visualisierung, denn hier wird für die einzelnen Seiten, die ich im Trichter angegeben habe, die CTR angezeigt (Abb. 2):










Abb. 1, Schritt 2:



















Unter "Dashboard" kann ich Widgets hinzufügen, um dem Kunden Zahlen näher zu bringen. Am besten man wählt "unformatiert", denn so hat man die Möglichkeit, die Daten, die der Kunde braucht in Form z.B. von Diagrammen im entsprechenden Widget anzulegen und nicht Überflüssiges anzuzeigen:


























Unter "Verhalten" kann ich z. B. sehen, auf welche Links die User geklickt haben.

Über "Verwalten" > Property > Einstellungen für soziale Netzwerke kann ich meine Facebookseite etc. hinterlegen und damit werden auch diese Daten analysiert. Diese Daten laufen zurück in "Berichte" wo ich sie einsehen und bewerten kann.

Wenn man Google Analytics verwendet muss man eine Zeile in den Code im Head-Bereich hinzufügen, damit man sich in Deutschland rechtskonform verhält:



Ergänzugnen/Alternativen zur Website-Analyse:

Crazy Egg > Vorteil: Man sieht alle Klicks, auch dort, wo keine Links sind. Z. B., wenn man sieht, dass User auf die Überschrift klicken, weil sie denken, es ist ein Link, wäre zu überlegen, ob man daraus nicht auch einen machen sollte. Bei Google Analytics werden nur die Klicks auf Links analysiert.

Outbound Keywords > bei welchen Keywords verschwinden die Leute von meiner Seite und wie kann ich davon profitieren?

Tynt-Tool
Das kostenlose Tool tynt.com kann nachverfolgen, wenn Leute best. Wörter oder Passagen aus meiner Seite kopieren und über E-Mail oder Social Media weiterleiten. Automatisch wird dort ein Backlink zurück auf meine Seite gesetzt > super für SEO!
> Dieses Programm zeigt uns im Wesentlichen, dass Inhalte von meiner Seite geklaut wurden
> Um es zu nutzen muss ich unter Resources > Installation Script > das kopieren und in meinen Header <head> kopieren

Herzstück d. Software > Insights > Keywords >> die Software misst, mit welchen Keywords die Leute auf meine Seite gekommen sind. WICHTIG dabei: Die OUTBOUND-KEYWORDS = über die haben User meine Seite verlassen. Die werden mir angezeigt. Das sagt mir, dass u. U. die User zu wenig Infos über dieses Wort gefunden haben, denn sie haben es sich rauskopiert und meine Seite verlassen. Lösung: Selbst diese Infos geben, indem man z. B. den Begriff selbst erklärt und verlinkt (auf eigenen Artikel oder als Tooltip etc.) In jedem Fall halte ich den User so länger auf meiner Seite - und darauf kommt es an. 

Sumall
Kostenloses Analyse-Tool sumall.com, um andere Analyse-Tools darüber zu vereinen und gesammelte Auswertungen zu erhalten.





OM Tag 18 - Youtube

Video auf Youtube

Profil erstellen über "Mein Kanal"
Mein Kanal erstellen
Video hochladen oder selbst produzieren 
Monetarisierung => Partner werden von youtube und Werbung vor bzw. innerhalb meines Videos schalten. Richtig rechnen tut sich das Ganze eher weniger.

Beispiel-Werbe-Typen (Anzeigenformate) auf youtube
Overlay-in-Video-Anzeigen > Werbung wird vor dem Viedo gezeigt
TrueView In-Stream-Anzeigen > Werbung wird als Block unten im Video angezeigt

Konzept zur Aufnahme eines Videos

Absicht des Videos: Soundcloud Tutorial (Aufnahmefunktion zeigen)
Zielgruppe: Menschen, die E-Mai-Marketing mal anders machen wollen
Headline: Perfekter Audio-Newsletter in 3 Schritten
Subline: Jetzt Video schauen und neue Kunden gewinnen
Versprechen + Elevator Pitch (Intro: wir kennen die Probleme der Zielgruppe): Sie sind kein technisch-veranlagter Typ, kein Problem, hier lernen Sie nun auf schnelle und unkomplizierte Art und Weise, wie Sie neue Kunden durch einen perfekten Multimedia-Newsletter gewinnen werden. 

Weiter: (Im Idealfall setzt man jetzt auf Storytelling)
Kommen wir also zu Punkt 1: Sie benötigen ein Newlettersystem (> Systeme zeigen)
Punkt 2: Soundcloud (die Aufnahme)
Punkt 3: Verknüpfung mit Newsletter und Zeigen der Öffnungsraten (Aha-Effekt)
Punkt 4: Deutlich machen, dass das Versprechen eingelöst wurde, wegen Reziprozität (der Nutzer sollte das Gefühl haben, dass er eine Gegenleistung bringen muss). Von uns kommt jetzt der Hinweis, was nun zu tun ist
Call To Action: Eintrag Newsletter

Vorgehensweise/Vorbereitung:

Video-Aufnahme-Tool (kostenloser Download bei ChipOnline):
HyperCam
> Dieses Tool lässt sich einfach runterladen und für Aufnahmen nutzen. Um etwas am Bidschirm aufzunehmen, braucht man in dem HyperCam-Fenster im Aufnahmebereich zum Starten/Stoppen der Aufnahme lediglich F2 drücken. Man verkleinert also das HyperCam-Fenster und drückt die F2-Taste, wenn man etwas auf dem Bildschirm aufnehmen will. Zum Beenden der Aufnahme wieder F2 drücken.
Vorbereitung: Programme öffnen, die ich zeigen will. Fürs Branding auch meine Website. Dann auch z.B. Mailchimp und Cleverreach, um im Video Newsletter-Alternativprogramme zu zeigen. In ein Programm log ich mich ein, um eine Kampagne zu zeigen, wo ich beweisen kann, dass Klickraten da waren. Soundcloud öffnen, um zu zeigen, wie man eine Aufnahme macht.  
  • Ist das Video fertig, hat es ein avi-Format, was zu groß ist.
  • Über "Video Converter" (googeln) das Video in MP4 umwandeln
  • Die MP4-Datei auf Youtube hochladen
  • Den Code über > Share > Embed rauskopieren und in den Blog (HTML) einfügen, wo man das Video platzieren möchte.
  • Dazu kann man auch eine Page im Blog bauen, die nur das Video enthält:

Eine Landing Page kann man auch in Blogspot bauen:
  • Neuer Blogeintrag
  • Felder ausfüllen und neuen Blog erstellen. Auch hier, da wo nötig wie im Titel, auf Keywords etc. achten
  • Im Backend Überflüssiges herausnehmen > im "Layout" alle Container entfernen, die ich nicht brauche, um das Video einzustellen > Ziel: eine reine Video-Squeeze-Page aufbauen
  • Im Post selbst nur noch den Call-to-Action "Jetzt Video abspielen"
  • Code aus Youtube rauskopieren (siehe oben) und im Post, HTML-Modus, einbauen:
     
  •  Unter dem Video noch das E-Mail-Anmeldeformular einbauen. Den Code dafür hol ich mir aus Mailchimp > Lists > Email-Liste auswählen > Signup Forms > Embadded Forms > Code kopieren > in HTML im Blog an die gewünschte Stelle kopieren:

Erhalten Sie unseren Newsletter

*Pflichtfeld



Link-Tipps...
...für Powerpoint-Vorlagen:
http://www.presentermedia.com/

...für animierte Präsentationen:
 Prezi


Mittwoch, 26. Februar 2014

OM Tag 17 - Social Media

Gutes Portal, um gute Statistiken/Studien zu Social Media zu erhalten. Daraus kann man auch Maßnahmen für Online Marketing ableiten:
http://www.socialmediastatistik.de


Social Media Marketing wird zu Online Marketing, wenn wir darüber den User zu unserer relevanten Internet-Präsenz leiten.

Die Share Buttons dienen zur Unterstützung der Viralität.

Linkübersicht zum Thema:

PM Tag 16 - AdSense und Banner-Werbung

AdSense - Metawerbenetzwerk

=> Ich biete auf meiner Website Platz für Werbung und erhalte Geld pro Klick auf diese Anzeigen
=> Google hat große Partnernetzwerke hinterlegt, wie z. B. das eigene Netzwerk AdWords und schaltet passende Werbung auf diese Flächen
=> Display-Werbung, die man in AdWords angelegt hat, kann man in AdSense anzeigen lassen. Dadurch erhalte ich Provision pro Klick (Google natürlich auch).

Dreier-System bei AdWords:
  • Kampagne
  • Anzeigengruppen (z. B. T-Shirts)
  • Anzeigen (zu Kinder-T-Shirts, Männer-T-Shirts etc.)
Dreier-System bei AdSense:

















  • URL-Kanal (z. B. die eigene Website)
  • Benutzerdefinierte Kanäle fürs Targeting (Gute Benamung für die Statistik, z. B. Ausrichtung der Werbung wie oben oder rechts etc., Ziel: welche Anzeigen sind erfolgreicher, z. B. sind oben geschaltete Anzeigen erfolgreicher als unten) =>
  • Anzeigenblöcke (kann auch einen Namen wie "Blogwerbung" haben) => Hier lege ich Formatgröße, Farben, Design etc. für Anzeigen fest

    => In AdWords kann ich als Display-Netzwerk auch eine Seite auswählen, die AdSense nutzt.



  








=> Die Dreier-Struktur ist bei AdSense und AdWords gleich. Unterschied: bei AdSense muss man nicht unbedingt einen benutzerdefinierten Kanal haben, um Anzeigen zu schalten. Bei AdWords MUSS man eine Anzeigengruppe haben, sonst kann man keine Anzeigen schalten!

Tipp: Versucht immer eine Werbung möglichst im Text zu platzieren, so dass sie auch zum Content passen kann. Google AdSense schaltet immer passende Werbung im Zusammenhang mit Inhalt auf der Seite und dem User. Ist zu wenig Text vorhanden oder es wurden entsprechende Einstellungen in AdSense vorgenommen, werden auch Informationen aus dem Browser Cache bzw. den Cookies geladen. Das kann auch dazu führen, dass der Banner thematisch anders aussieht als der Content, weil im Cache thematisch andere Seiten

Mögliche Frage i.d. Klausur: Was ist typisch bei AdSense? Man kann sich benutzerdefiierte Kanäle anlegen - ja

Menü: Meine Anzeigen: Anzeigenblöcke werden benutzerdefinierten Kanälen bei AdSense zugewiesen:















 

Menü: Anzeigen zulassen und blockieren: Ich möchte nicht, dass eine Werbung xy auf meiner Seite platziert wird, trage ich die entsprechende URL ein. Auch Kategorien können ausgeschlossen werden.

Menü: Alle eigenen Websites: Grundsätzlich sollte man erstmal alles in den Untermenüs ausgewählt lassen und gucken, wie die Anzeigen auf meiner Seite aussehen.

Im Blogspot hat man die Möglickeit, auch unterhalb jedes Posts Anzeigen schalten lassen. Voraussetzung: AdSense-Konto, wohin auch bei Blogpspot ein Link führt. Über "Layout" im Blog, kann ich dann "Posts" bearbeiten und auswählen, dass Anzeigen zwischen Posts angezeigt werden.

Menü: Suchergebnisseiten: Benutzerdefinierte Suche: Ich kann ein Google-Suchfeld über AdSense auf meiner Seite einbinden, die nur Suchergebnisse von meiner Seite anzeigt. Auch hier könnte ich Werbung einblenden lassen, fraglich ist der Nutzen für mich.

Menü: Sonstige Produkte: Hat man ein Video/Spiel, kann man auch hier Anzeigen schalten.

Menü: Leistungsberichte: Statistiken zum Erfolg der Anzeigenschaltungen auf meiner Seite.


Online Werbung

SevenOneMedia (Pro7) => alle großen Websites, dadurch sehr starke Marktmacht. Geht nicht mit AdWords, Bezahlung über TKP 

klausurrelevant: Bannergrößen:
Standard-Banner-Größen

  1. Popunder
  2. Medium Rectangle 
  3. Superbanner
  4. Flashbanner
  5. Skyscraper
  6. Wide Skyscraper
  7. Full (Size) Banner 
  8. Page Peel
  9. Sticky Add
  10. Wallpaper

InteractiveMedia (Telekom) => auch große Websites und Bezahlung über TKP

Refinanzierung
Bannerschaltung zum Zweck der Neukundengewinnung, Beispielkalkulation:
  • Festgelegtes Werbebudget > 300 Euro
  • Kundenwert > kann man am Umsatz oder am Gewinn festmachen (z. B. habe ich Umsatz von 100 Euro und nur einen Kunden, ist mein Kunde 100 Euro Wert)
  • TKP > 10 Euro (Angabe vom Anbieter)
  • Impressions > 200.000 (Angabe vom Anbieter)
  • CTR >  1% für die Kalkulation ansetzen (sollte besser sein auf unserer Seite)
  • Lead Conversion Rate (die Conversion Rate ist abhängig davon, was ich als Conversion verstehe, kann der Verkauf sein aber auch die Anmeldung oder wie hier ein Neukunde sein) > 1 %
  • Sale > 1 %
In diesem Beispiel müsste ich einen Kundenwert von 300, also 3 Kunden bekommen, um meine Werbekosten wieder reinzubekommen. Bei 200.000 Impressions muss ich bei TKP 10 2000 Euro bezahlen > zu teuer, denn ich habe nur Budget von 300 Euro. Wie viel Impressions kann ich mir leisten? > 30.000 (300 Budget x 1000 Impressions : 10 TKP) Impressions kann ich mir erlauben bei 300 Euro Werbebudget. Fazit hier: Investition lohnt sich nicht!







Anderes Beispiel (Blog Ralf):
Budget durch TKP
  • Ich habe ein Werbebudget von 1.000 Euro
  • Mein durchschnittlicher Kundenwert ist 800 Euro
  • Ich bezahle auf einer gewählten Plattform 10 Euro TKP
  • Meine CTR (Click Through Rate) kalkuliere ich mit 1%
  • Die CR (ConversionRate) soll bei 3% liegen
  • Und schließlich die Chance daraus einen Kunden zu generieren bei ebenfall 3%
Die alles entscheidene Frage lautet: Schaffe ich es mit diesen Werten mehr Kunden (Kundenwert) zu gewinnen als das eingesetzte Budget groß ist?

Lösung:
1.000 Euro / 10 Euro = 100 (wie viele Impressions kriege ich für 1000 Euro? also 100 mal 1.000 Mal wurde die Onlinewerbung angezeigt -> 100.000 Einblendungen)
100.000 Einblendungen mal 0,01 CTR = 1.000 Besucher
1.000 Besucher mal 0,03 CR = 30 Interessenten
30 Interessenten mal 0,03 Kundengenerierungsrate = 0,9 Kunden
0,9 Kunden sind also 720 Euro Kundenwert
Die Antwort lautet also, dass sich diese Onlinewerbung so nicht lohnt.

=> Solche Rechnungen lassen sich für jedes Modell anwenden, um zu sehen, wann sich eine Maßnahme lohnt.

Möglich in der Klausur: Skizzieren Sie ein Zielgebäude mit mind. 3 Online-Marketing-Disziplinen. Das könnte so aussehen:

Das Zielgebäude muss so aufgebaut sein, dass man damit klakulieren kann:















Ziele sollten SMART sein:
  • Spezifisch
  • Messbar
  • Akzeptiert
  • Realistisch
  • Terminierbar

Dienstag, 25. Februar 2014

OM Tag 15 - Offpage-Optimierung - PR

Online PR:
  • Dient dazu, Online-Reichweite aufzubauen und potenzielle Kunden zu erreichen
  • Verbindet Strategien aus PR, Marketing, SEO und Social Media (> PR-Instrumente)
  • Das Besondere der Online PR: Die Selbstveröffentlichung auf neuen Medien
PR-Instrumente:
  • Presseportale (= Presseverteiler) > Pressemitteilungen
  • Social Media > Verbreitung von PR-Inhalten über Micro-Blogging-Dienste wie Twitter, Dokumentennetzwerke wie Google Drive, Bookmark-Verzeichnisse und Social Networks wie Facebook
  • Marketing (Content Marketing) 
    => Ziel von Content Marketing ist es, nützliche, informative und relevante Inhalte für unterschiedliche Zielgruppen zu definieren. 

    => Die Mehrfachverwertung der Inhalte für verschiedene Zielgruppen kann über versch. Medien folgen: Online Pressmitteilungen, Videos, Anleitungen, Fachbeiträge, Checklisten oder Whitepaper

  •  SEO=> Die Botschaften erreichen ihre Zielgruppe nur, wenn sie in den Suchmaschinen sichtbar sind. Suchmaschinen sind die wichtigsten Recherchequellen. Die Optimierung der Texte ist wichtig für Online PR
==> Mit diesen Instrumenten erreicht man:
  • Mehr Veröffentlichungen
  • Mehr Reichweiten
  • Mehr Verlinkungen
  • Mehr Sichtbarkeit 
Einführung zu Online-PR:

Kostenlose Pressportale wie:
openPR (ohne Pressefach. Firmendaten etc. müssen bei jeder neuen Meldung neu angegeben werden)
firmenpresse (mit Pressefach: Man kann sich das einrichten und hat z. B. Sachen wie Firmendaten etc. immer abgespeichert)

Kostenpflichtige Pressportale wie:
presseportal.de (von dpa)
Pressebox

Whitepaper = kurze Darstellung zu einem Thema, Zusammenfassung (ursprünglich kommt der Begriff aus dem wissenschaftlichen Bereich) 

Montag, 24. Februar 2014

OM Tag 14 - Offpage-Optimierung

Die Offpage-Optimierung basiert auf Backlink-Aufbau. Der Backlink-Aufbau ist nur ein Teil einer gesamten Suchmaschinenoptimierungs-Strategie.

Grob kann man die Suchmaschinenoptimierung in vier Bereiche einteilen:
  •     Onpage-Optimierung
  •     Trust
  •     Social Proof
  •     Offpage-Optimierung / Backlink-Aufbau

Backlink (follow):
<a href://wenda-it-web.de" title:"Onlinemarketingagentur Wenda IT & Web">
Onlinemarketingagentur Wenda IT & Web</a>


=> so wie oben dargestellt ist dieser Backlink ein Follow-Link > so sollten meine Backlinks aussehen!

=> nofollow-Link sieht so aus:

<a href://wenda-it-web.de" title:"Onlinemarketingagentur Wenda IT & Web" rel="nofollow">Onlinemarketingagentur Wenda IT & Web</a>

=> Google will gesundes Linkwachstum, sodass follow- und nofollow-Links eingesetzt werden sollten

Kriterien für gute Backlinks und relevant für Google:  
  • Anzahl der Backlinks
  • follow/nofollow-Links
    > Die beiden ersten Punkte spielen bei Google (SEO) noch eine wichtige Rolle. Aber ob der Suchende dadurch ein gutes Ergebnis erzielt ist fraglich.
  • Links müssen besucht werden > Authority, die auch für Google immer wichtiger wird
==> Sieht der Backlink zu den 3 genannten Aspekten auch noch so aus wie oben der Follow-Link, der Keywords beinhaltet und auch besucht wird, sind diese Backlinks wertvoller als wenn man sie einfach nur über Artikelverzeichnisse streut.  

Grundsätzlich geht es darum, eine Backlink-Strategie aufzubauen, um ein natürliches Linkwachstum zu gewährleisten. 
Folgende Möglichkeiten gibt es, um einen guten Marketing-Mix zu haben:

Artikelverzeichnisse:

> gute Artikelverzeichnisse über Google suchen
> Ist meine Website neu, darauf achten, das Verzeichnisse auch noch nicht einen zu hohen Page Rank haben, um von Anfang an ein natürliches Wachstum zu haben
> Im Artikelverzeichnis muss man sich i.d.R anmelden, um dort Artikel schreiben zu können. Die Artikel dieser Verzeichnisse müssen nicht sonderlich gut sein, da es nur darum geht, meinen Link zu setzen. Anders bei PR-Protalen: Die können u. U. sogar von Journalisten veröffentlicht werden.
 ==> Über Verzeichnisse Backlinks zu setzen funktioniert zwar noch bei Google, ist aber u. a. auch durch die Suche und das Schreiben von Artikeln nach passenden Verzeichnissen aufwendig.

Link-Tipp, um eine Fake E-Mail zu erstellen. Diese ist für 10 Minuten aktuell. Hilfreich, um sich z. B. anzumelden, um etwas auszuprobieren:
10 Minute Mail

 

Social Bookmarking-Verzeichnisse

Z. B.: Delicious, Stumbleupon (amerikanisch, zweitgrößte Quelle, um Traffic auf die Website zu bekommen, Facebook auf Platz 1), Mr. Wong

> Wenn man einen guten Link gefunden hat, fügt man diesen bei Delicious dazu. Zusätzlich kann man noch ein paar Tags (Keywords) und einen Kommentar zum Link zufügen.
> Über "Share" kann ich bei Facebook, Twitter und Co. kann ich dann mitteilen, dass ich diesen Link gut finde

RSS-Verzeichnisse

Das größte Verzeichnis in Deutschland: RSS-Verzeichnis.de 
In diesem System kann ich den RSS-Feed meiner Website (Wenn ein RSS Feed nicht automatisch auf der Website ist, muss es programmiert werden, CMS haben das normalerweise) eintragen. Jedes Mal, wenn ich auf dieser dann etwas neu veröffentliche, wird das als Link dort angezeigt und ich erhalte einen Backlink


Wie könnte man von anderen profitieren, die viel Content liefern und wir Backlinks automatisch gesetzt kriegen?
=> Möglich über Hootsuite > Social Media Dashboard zur Verwaltung und Auswertung sozialer Netzwerke

Ich nehme einen fremden RSS Feed, der möglichst zu meinem Thema passt und viel Content produziert, z. B. t3n, dann:
> Hootsuite
> Einstellungen 
> RSS hinzufügen
> t3n Feed reinkopieren > hootsuite fasst das Neuste kurz zusammen, ABER: so würde t3n einen Backlink bekommen und ich hätte nix davon
Ich habe aber die Möglichkeit, über 20 Zeichen die URL meiner Website einzugeben > die ist aber zu lang. Um diese zu kürzen kann ich ein Programm wie Bitly nutzen, das meine URL verkürzt. Bei Bitly ist es gut, sich über einen Social Media Account anzumelden, da ich noch statistische Werte bekomme. Die erstellte URL beinhaltet Zeichen, die ich durch ein Wort ersetzten sollte. So wird "mein" Link zum Artikel von t3n vorangestellt und z .B über Twitter ("toter Twitterkanal" > dienst nur zum Streuen von Backlinks) verteilt, ich erhalte also einen Backlink und der 2. Link verweist auf t3n. 

Webkataloge

Der größte Webkatalog ist das dmoz-Verzeichnis
> Autorisierte Autoren sammeln Websites, die sie interessant finden und hier zusammentragen. 
> Findet ein dmoz-Autor meine Seite so gut, dass er sie hier aufnimmt, würde er eine eigene Description schreiben, die meine Description evtl. zwar ersetzen würde, aber auch viel Vertrauen von Google geschenkt, weil wir einen Backlink von demoz erhalten würden. Ein Eintrag ist trotzdem sehr gut!
> Will man sein Suchsnippet nicht umgeschrieben haben, muss man diesen Code eingeben:
  
<meta name="robots" content=noydir">


Wichtig sind auch Link-Verzeichnisse und Link-Fahnen, um Backlinks zu streuen.

Link-Tipps:

Freitag, 21. Februar 2014

OM Tag 13 - Webmaster Tools - SEO

Webmaster Tools dienen der Verwaltung meiner Website und unterstützt dabei, Traffic auf meiner Seite zu haben.

Darstellung der Suche

=> Strukturierte Daten: Beschreibt, wie man das Snippet selbst porgrammiert, um strukturierte Daten wie Veranstaltungsverzeichnisse oder Bewertungen auf der SERP anzuzeigen wie in diesem Beispiel:


=> Data Highlighter: Hier wird festgelegt, welche Seite(n) getaggt werden sollen, die ein Suchsnippet enthalten sollen. Auf dieser Seite müssen allerdings auch Daten vorhanden sein, die strukturiert werden können. In Webmaster Tools klicke ich auf den Button "Markieren", gebe die URS(s) ein und gebe an, für welche Daten dieses Snippet angelegt werden soll:



 => HTML-Verbesserungen: Hier gibt es eine Übersicht zu HTML-Fehlern. 

Link-Tipp:
Um eine Seite bzgl. der Qualität der HTML-Progammierung zu prüfen. Dazu die URL in das entsprechende Eingabefeld schreiben:
http://validator.w3.org/ 

=> Sitelinks: kann man nicht selbst auswählen, das macht Google. Was ich machen kann: "Sitelinks abwerten" bedeutet: Unterlinks meiner Seiten, von denen ich NICHT möchte, dass sie im Suchergebnis erscheinen (wie AGB), kann ich abwerten.

Suchanfragen

=> Suchanfragen gibt eine Statistik an, welche Keywords die Leute eingegeben haben (Suchanfrage) haben, wie oft ihnen die entsprechende Seite in der SERP angezeigt wurde (Impressions), wie viele tatsächlich auf die Seite geklickt haben (Klicks), wie hoch die CTR ist, welche Position ich im Duchschnitt auf der SERP erreicht habe.

Über den Tab "Mit Änderung" kann ich Veränderungen innerhalb eines Monats sehen, um meine Content-Strategie ständig anpassen zu können. Fällt eine Änderung der durchschnittlichen Position unter 30 %, wurde ich vermutlich von Google abgestraft. Das sollte analysiert werden, denn wenn das häufiger passiert kann das dazu führen, dass Google mich rausschmeißt.

=> Links zu Ihrer Website: zeigt die Webseiten an, von denen die meisten Backlinks kommen

=> Interne Links: Verlinkungen innerhalb meiner Website. 
=> Manuelle Maßnahmen: schön, wenn man gehackt wurde > eine andere Website hat einen Codeschnipsel von der eigenen Website genommen und nutzt diese Seite, um andere Nutzer zuzuspammen. 

Googleindex

=> Indexierungsstatus: wie viele Seiten von mir sind bei Google indexiert. Acuh hier ist natürliches Wachstum wichtig!
=> Content Keywords: Einstufung von Google zu meinem Thema. Welche Bedeutung hat ein Keyword für meine Website (Anzahl und Variation der Wörter könnten eine Rolle spielen). Gibt Auskunft darüber, in welchem Zusammenhang ich gefunden werde. Um das zu optimieren, muss ich Wunsch-Keywords versuchen besser auf meiner Seite zu platzieren. 
=> URLs entfernen: Z. B. ein abgelaufener Event. Diese URL kann man im Eingabefeld angeben, es ist allerdings fraglich, wann und ob Google das entfernt. 
Tipp: Geschäflich macht es Sinn, für 40,-/Jahr "Apps for Business" bei Google zu haben, um einen Ansprechpartner bei Google zu haben. 

Crawling

=> Crawling-Fehler: Können z.B. Fehlerseiten wie 404 sein. Ist darunter eine Seite, die man sowieso nicht mehr haben will, kann man diese wiederum unter URLs entfernen und "beantragen" dass sie entfernt wird (wie kann ich über drop down entscheiden). Im Idealfall sind dort keine Fehler.

=> Crawling-Statistiken: 1. Statistik zeigt an , dass man viel oder wenig an seiner Seite gemacht hat und diese dann entsprechend gecrawlt wird > Die Crawler reagieren darauf, wenn man nix macht und besuchen die Seite weniger. Im Idealfall sieht die Kurve herförmig aus. 
2. Statistik gibt an, wie hoch die Ladezeit einer Seite ist. Sollte wenig Spitzen haben, also nicht läner als 1 Sekund laden.

=> Abruf wie durch Google: Man kann dort Seiten angeben, die nicht aufgerufen werden können (diese Seiten tauchen auch bei Crawling-Fehler auf). Im Eingabefeld gebe ich die Seite an, klicke auf abrufen und kann sehen, ob Google auch Probleme hat, diese Seite aufzurufen. Ist das der Fall, ist der Fehler auf meiner Seite und muss ih prüfen. Habe ich den Fehler behoben, mach ich das nochmal und kriege angezeigt, dass der Abruf erfolgreich war. Weiß ich, dass die Seite bereits im Index ist, bracue ich sie nicht nochmal "An den Index" senden.

=> Blockierte URLs: Nur zur Ansicht über blockierte URLs, die ich in meiner robots.txt angegeben habe.

=> Sitemaps: siehe Tag 12

=> URL-Parameter: sollte von Webentwicklern, die sich mit Parametern auskennen bearbeitet werden. Unwichtig für Marketer.

Sicherheitsprobleme 

=> Sollten nicht vorhanden sein

Andere Ressourcen

=> weitere Google Dienste/Funktionen

Mein Gesicht in den Such-Snippets der organischen Suche
Bedingungen: Google+ Profil und Foto meines Gesichts > sorgt für besseres Ranking bei SEO
Um zu wissen wie man das mcht, kann man auch einfach rel author in die Google-Suche eingeben und findet nützliche Hinweise.

Donnerstag, 20. Februar 2014

OM Tag 12 - HTML - Webmaster Tools - SEO

Texte auf der Website

Webmaster Tools
Die Webmaster Tools erlauben uns, unsere Website aus den Augen des Suchmaschinengiganten Google zu sehen.


Keyword-Dichte
Grundsätzlich soll das (Haupt-)Keyword möglichst oft auf der Seite platziert werden. Allerdings sollte die Keyworddichte zwischen 3-4 % liegen. Liegt sie darüber, muss mehr Text auf die Seite. So kann man zwar zunächst möglichst viele Keywords setzen, sollte aber nach Prüfung der Density mehr Text drum herum bauen.

Spider Simulatoren
Um Webseiten auszulesen, wie Suchmaschinen das machen, kann man Spider Simulatoren nutzen.
> URL dort eingeben und auslesen lassen, um Fehlerquellen zu entdecken und zu verbessern

Tipp (Grey Hat!), um unsere Seite besser zu platzieren und mehr Keywords auslesen zu lassen: einen <div> Container innerhalb eines Kommentars direkt hinter dem body-Tag einfügen und mit relevanten Keywords füllen. 
Dabei handelt es sich um einen Fehler der Suchmaschinen, dass die Keywords aus dem Container nicht auf der Website angezeigt, aber von den Spidern trotzdem ausglesen werden können:
<!-- div>Das Keyword kann man mit anderen Keywords kombinieren, ansonsten Stuffing, was die Suchmaschine erkennt und abstraft </div> //--> 

Link-Tipp:
Spider Simulator 

3 Dateien gehören in das Root-Verzeichnis, die von Robots ausgelesen werden. Diese Dateien liegen auf dem Server, wo meine Startseite (index.php) liegt:
  • .htaccess
  • robots.txt 
  • sitemap.xml
  • sitemap.xml.gz  => komprimierte Sitemap, die schneller auf Smartphones angezeigt wird. Dass man die .gz verwendet, muss man in der .htaccess Datei angeben! Wie, siehe unter .htaccess

Sitemap XML


XML-Sitemaps = Landkarte für den Suchmaschinen-Roboter. Dabei handelt es sich um eine .xml Datei, mithilfe dieser der Roboter in sekundenschnelle den Inhalt der ganzen Website liest. Ohne diese Datei würde das Auslesen der Seite länger dauern, aber der Robot bleibt nur kurze Zeit auf unserer Seite, die dann nicht komplett ausgelesen wäre und damit ein schlechtes Ranking in der Suchmaschine hätte.

> Um eine xml-Datei von meiner Seite zu erstellen, sucht man sich ein Programm (nur wenn man kein Plug-in hat), einen Sitemap-Generator (es gibt auch Plug-ins, die das automatisch machen wie bei Wordpress), wie:
xml-sitemaps.com

> In den Sitemap-Generator gebe ich meine URL ein und diese wird als XML-Datei ausgegeben.

> Diese XML-Datei muss ich auf den Server laden, wo meine Website liegt.

> Da meine Website normalerweise bei einem Hoster liegt, brauche ich einen FTP-Zugang, um mich mit meinem Server und damit mit meiner Website verbinden zu können und Dateien dort speichern zu können. Im Hosting-Paket stehen i. d. R. meine Zugangsdaten. 

Link-Tipp für FTP-Programm:
Filezilla

Bei Content Management Systemen gibt es normalerweise Zusatzprogramme, die XML-Dateien automatisch erstellen.
=>  Im Anschluss müssen wir Webmaster Tools sagen, dass wir eine Sitemap haben
=> Button: Sitmap hinzufügen:
















=> Damit kann unsere Seite durch den Crawler/robot ausgelesen werden
=> Um das mit unserem Blog zu machen, den wir als Website nicht bei einem Hoster oder so haben, kann man mit einem Trick trotzdem eine Art Sitemap angeben, indem man den RSS Feed meines Blogs eingibt, da Feeds auch im XML-Format programmiert sind, die auch von Robots gelesen werden können

Schritte wie ich an den RSS Feed des Blogs komme:
  • Im Blog-Frontend nach unten scrollen
  • Auf Abonnieren (Atom) klicken
  • Die Endung feeds/posts/default aus der URL kopieren
  • Und bei Webmaster Tools hinzufügen:

















.htaccess Datei

Server-Datei, die dazu dient, weitere Codes wie Zugriffsschutz oder Weiterleitungen bei Fehlermeldungen einzugeben.
Einen guten Überblick zu HTTP-Statuscodes gibt es bei:
Wikipedia

Beispiel: Die URL-Klärung:
WICHTIG für SEO, um Duplicate Content zu vermeiden!
Hier wird in der .htaccess angegeben, dass z. B. eine URL, die mit www. eingegeben wird zur URL OHNE www. weitergeleitet wird.

Code-Beispiel für die .htaccess Datei zur URL Klärung:

RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^www.wenda-it-web.de
RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]


Man kann noch weitere Bedingungen anfügen:


RewriteCond %{HTTP_HOST} ^www.ralf-wenda.de
RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]

RewriteCond %{HTTP_HOST} ^ralf-wenda.de
RewriteRule (.*) http://wenda-it-web.de/$1 [R=301,L]


Diese Codes gibt man in eine Textdatei, die immer als .htaccess abgespeichert wird, die beliebig erweiterbar ist, je nachdem, was ich z. B. für Bedingungen, Weiterleitungen oder Schutzfunktionen erstellen möchte. Diese Datei muss ich in den Root Folder meiner Website legen, also über FTP auf den Server spielen.

Um dem Crawler zu sagen, dass er ggf. die komprimierte Sitemap auslesen soll, muss ich folgenden Code in die .htaccess Datei eingeben. Das verbessert die Ladezeiten, zum Beispiel für Mobile-Darstellung, und damit SEO:


# BEGIN Gzip Compression
AddEncoding gzip .gz
<filesmatch "\.js\.gz$">
AddType "text/javascript" .gz
</filesmatch>
<filesmatch "\.css\.gz$">
AddType "text/css" .gz
</filesmatch>
<ifmodule mod_rewrite.c>
RewriteEngine On
RewriteBase /
RewriteCond %{HTTP:Accept-encoding} gzip
RewriteCond %{REQUEST_FILENAME} \.(js|css)$
RewriteCond %{REQUEST_FILENAME}.gz -f
RewriteRule ^(.*)$ $1.gz [QSA,L]
</ifmodule>
# END Gzip Compression


 

robots.txt

Ein Webcrawler (Robot) liest beim Auffinden einer Webseite zuerst die Datei robots.txt (kleingeschrieben) im Stammverzeichnis („root“) einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf.

Mit dem folgenden Befehl wird z. B. allen Webcrawlern die Indexierung der kompletten Webpräsenz verboten:

User-agent: *
Disallow: /


Das * steht für: Alle
Der / steht für: Root-Verzeichnis

Das bedeutet, dass diese Seite gar nicht auftaucht. Sinnvoll z. B. für alle, die ihre Website gerade aufbauen und der Crawler nur unfertige Seiten vorfindet.

Möglicherweise in der Klausur: 
  • was fabrizieren die 3 Dateien: robots, sitemaps, htaccess  wissen, wozu diese Dateien da sind!
    Sonstiges:
  • Kärung der URL
  • Keyword Density zwischen 2-6%, 3-4% gut
  • Was sollten Sie bei Onpage-Opt möglichst tun? Antwortmögl. bei Multiple Choice: Streuen Sie Backlinks über Facebook => wär falsch, denn das ist Offpage
  • Unterscheidung Onpage/Offpage
  • Möglichst nicht mit Grey Hat (weiße Schrift weißer Hintergrund => nur zum Testen)
  • Bei SEO No index no follow => wäre quatsch, weil dann SEO überlüssig

Mittwoch, 19. Februar 2014

OM Tag 11 - HTML Onpage-Optimierung -SEO

Kommentare innerhalb des HTML-Dokuments sollte man einfügen, um zu dokumentieren, was genau programmiert wurde. Kommentare sind online nicht zu sehen.
Kommentar-Tag: <!-- Kommentar //-->

Cloaking = Lt. Suchmaschinenrichtlinien verboten! Cloaking (engl. verhüllen) ist eine Technik zur Suchmaschinenoptimierung, bei der dem Webcrawler der Suchmaschinen unter der gleichen URL eine andere Seite präsentiert wird als dem Besucher. Sie dient zur Verbesserung der Rangordnung in Suchmaschinen und der Indexierung.

Ziel des Cloakings ist es, gleichzeitig eine für Suchmaschinen und Besucher optimierte Seite zu präsentieren. Da Suchmaschinen primär Textinhalte verarbeiten und indexieren, wird ihnen eine textbasierte, strukturell optimierte HTML-Seite ausgeliefert. Menschliche Besucher, die einen Browser benutzen, erhalten dagegen für die gleiche URL eine für sie optimierte Seite. Diese kann beispielsweise multimediale Inhalte wie Flash-Filme oder Videos enthalten, deren Inhalte für Suchmaschinen unsichtbar sind. Der Verfasser kann mit dieser Methode etwa auch seine Optimierungsmethoden vor den Augen der Konkurrenz schützen.

White Hat = An Richtlinien der Suchmaschinen halten
Grey Hat= Man hält sich nicht 100% an die Richtlinien der Suchmaschinen, die die Suchmaschinen nicht genau auslesen können
Black Hat = Zum Beispiel, wenn man einem Konkurrenten schaden will und dafür sorgt, dass er zu viele Backlinks bekommt, diese kurz danach wieder löscht. Da das den Algorithmus von Google "stört", würde diese Seite rausgeschmissen.

Die Suchmaschine erkennt, dass hier ein unnatürliches Linkwachstum stattgefunden hat:
Haupt-Domain: www.Website.de
Sub-Domain: www.Website.deutsch.de (> der Punkt hinter der Hauptdomain gibt an, dass danach die Subdomain folgt > nicht optimal für Suchmaschinen!)

Ideal für Suchmaschinen ist eine klare Struktur, die leserfreundlich ist: 

  • 1 H1-Überschrift
  • Textabschnitte
  • Listen 
  • Tabellen
  • 1 bis höchstens 3 Keywords pro Seite 

Alles, was Style bzw. Design ist, ist CSS!
Beispielsweise sind auch Tabellenlinien ein Style und damit nicht im HTML verankert > gehören normalerweise in die CSS-Datei

Bilder bei Google:
Bilder mit einer Breite von 500 bis max. 2.000 Pixel werden lt. Studien am häufigsten bei Google in der Bilderliste angezeigt. 
Je größer die Bilder, desto höher die Ladezeit der Website und desto schlechter für die Suchmaschinenoptimierung.

Suchmaschinenoptimierung ist nicht für alle Websites die 1. Wahl. Z. B. eine Designagentur möchte zeigen, was sie kann und der User will Bilder sehen, nicht zu viel Text. In dem Fall ist Suchmaschinenoptimierung nicht das beste Mittel, um Traffic auf die Seite zu bekommen. Hier müsste man auf andere Methoden zurückgreifen, wie Affiliate Marketing, Social Media etc.  

Der Alt-Text (falls das Bild nicht angezeigt werd, bleibt zumindest der Alt-Text stehen) und die Angabe eines Tooltips (> in HTML: title, möglichst mit Keyword) zu einem Bild sind wichtig für SEO 

Ankertext sollte Keyword enthalten! Wörter wie "Hier" oder "Weiter" geben Punktabzug bei den Suchmaschinen. > klausurrelevant

<a href="http://wikipedia.de" title="Tooltip mit Keyword" target="_blank">Ankertext zur Website möglichst mit Keyword </a>

Grundsätzlich sollten für SEO jedem HTML-Tag möglichst die Keywords mitgegeben werden. > klausurrelevant


In der Regel sollte eine Website so viele Backlinks wie möglich bekommen

Im Head des HTML Codes stehen die Infos, die META-ANGABEN, die auf der Seite nicht angezeigt werden, aber von Robots gelesen werden können.  

Elementare Angaben für die Suchmaschinen:
  1. Domain mit Keyword > www.Hauptkeyword.de
  2. title mit Keyword > <title>Keyword auf jeden Fall im Titel und am Anfang</title>
  3. meta name description mit Keyword > die kurze Beschreibung, die in den Suchergebnissen unterhalb der URL stehen. Darin möglichst auch eine Aufforderung. Der Text sollte nicht länger als ca. 155 Zeichen sein und wird ohne Trennzeichen geschrieben.
    <meta name="description" content="Keyword hier ist in der Suchmaschine ersichtlich." />
  4. meta name keywords => wird von Google nicht mehr ausgelesen!   Mögliche Frage in der Klausur: Was sollten Sie bei der Onpage-Optimierung berücksichtigen? Antwort: extra für Google die Metaangabe "Keywords" angeben > wäre falsch, denn Google liest die Keywords nicht mehr aus.>Trotzdem diese Zeile im Code lassen, denn sie ist für andere Suchmaschinen relevant! Keywords durch Komma trennen!
  5. meta name robots => Anweisungen für robots/Webcrawler

    Beipiele:
    Der Webcrawler (Suchroboter) soll die Webseite ausdrücklich in den Suchmaschinen-Index aufnehmen, damit sie auffindbar ist, und den Hyperlinks auf der Seite folgen. Diese Angabe ist im Allgemeinen unnötig, da sie dem normalen Verhalten der meisten Webcrawler entspricht:
    <meta name="robots" content="index,follow" />

    Alternativ kann auch: <meta name="robots" content="all" /> verwendet bzw. auf den Code ganz verzichtet werden.


    Der Suchroboter soll die Webseite nicht in den Index aufnehmen. Die Webseite soll also nicht über Suchmaschinen auffindbar sein:
    <meta name="robots" content="noindex" />

    Der Suchroboter darf die Webseite zwar aufnehmen, aber soll den Hyperlinks auf der Seite nicht folgen. Die Wirkung ist so, als wären die Links auf der betreffenden Seite gar nicht vorhanden. Derselbe Effekt lässt sich auch für einzelne Links erreichen, indem diese um das Attribut rel="nofollow" ergänzt werden:
    <meta name="robots" content="nofollow" />
        
Klausurrelevant: Im Zusmammenhang mit der Onpage-Optimierung wäre eine Aussage: Ich verwende immer die Angabe "noindex" "no follow" FALSCH, denn das würde SEO überflüssig machen. Mur für einige Seiten macht es keinen Sinn oder sollen aus Marketingzwecken nicht indiziert zu werden.

Umfangreiche Website zu SEO, mit Aktuellem zu SEO und SEO-Tools wie Keyword Planer etc.:
http://www.seo-united.de/