Meta Tags für SEO optimal einsetzen

Meta Tags sind unsichtbare Informationen im Head Bereich einer Webseite und beinahe alle Crawler gängiger Suchmaschinen lesen diese für die weitere Verwendung aus. Deren Bedeutung erkennt man spätestens dann, wenn man sich einmal die Suchergebnisse zu einem bestimmten Begriff ansieht. Denn Suchmaschinen generieren aus dem Title- und dem Description-Tag die angezeigten Snippets in den SERPs, welche einen grundlegenden Einfluss auf das Klickverhalten haben. Da in vielen Blogs, Foren und anderen CMS diese Angaben oft nur rudimentäre Beachtung geschenkt wird möchte ich auf die wichtigsten Meta Tags genauer eingehen, die für die Suchmaschinentoptimierung und auch Affiliate Marketing optimal eingesetzt werden können.

optimale Meta Tags für SEO

Der Content Type Meta-Tag

<meta http-equiv=“Content-Type“ content=“; charset=“ />

Der Title Meta-Tag

<title>Hier kann dein aussagekräftiger Titel stehen – domain.com</title>

Der Titel Tag ist einer der wichtigsten Angaben, denn er ist ein Onpage Faktor und repräsentiert die Seite auf den ersten Blick für den User in den Suchergebnissen. Der Title Meta Tag sollte möglichst ansprechend gestaltet sein, die wichtigsten Keywords und eine Call to Action beinhalten. Dadurch kann man sich von anderen schlecht optimierter Titles abheben und die Klickrate in den SERPs enorm steigern. Die maximal berücksichtigte Länge des Title Meta-Tags beträgt 65 Zeichen, welche möglichst eingehalten werden sollten, da sonst der Titel unschön abgeschnitten wird. Wer auf auf einen Brand als Domain setzt oder diese etablieren möchte, kann zusätzlich auch noch am Ende des Titles die Domain anfügen.

Der Description Meta-Tag

<meta name=“description“ content=“Hier steht deine sinnvolle Beschreibung der Seite, die dem User einen Vorgeschmack auf den Inhalt liefert.“>

Die Meta Description ist das Aushängeschild der Seite in den SERPs und soll dem User einen ersten Eindruck von den Informationen vermitteln, die er nach dem Klick auf das Snippet erhalten wird. Auch wenn die Description immer mehr an Bedeutung verliert, sollte man sie verwenden um selbst in der Hand zu haben, was in den SERPs angezeigt wird. Die Description sollte ebenfalls wichtige Keywords am Anfang enthalten und nicht länger als 150 Zeichen lang sein, da sie sonst abgeschnitten wird.

Der Keywords Meta-Tag

 <meta name=“keywords“ content=“Keyword A, Keyword B, Keyword C und D“>
Die Meta Keywords waren lange Zeit eine der wichtigsten Onpage Maßnahmen für ein gutes Ranking und deren Gewichtung wurde mit der Zeit stückweise von Google entwertet. Heute sind die angegebenen Keywords mit Abstand das Kriterium mit dem geringsten bis keinem Einfluss. Trotzdem werden sie der Vollständigkeit halber noch gerne angegeben. Wer möchte kann das tun, wer keine Lust dazu hat wird auch keinen Schaden davon haben.

Der Robots Meta-Tag

<meta name=“robots“ content=“index,follow“>

Der Robots Meta Tag kann mit verschiedenen Content Elementen angegeben werden: index, noindex, follow und nofollow. Je nachdem um welchen Seiteninhalt es sich handelt und sollte man hier eine entsprechende Angabe treffen. Der Wert „index,follow“ ist für alle Seiten interessant, mit denen man in den Suchergebnissen erscheinen möchte und deren Links gefolgt werden soll. Ein Beispiel dafür wären alle Inhalts- oder Produktseiten. Der Wert „noindex, follow“ ist für alle Seiten interessant, welche nicht nicht indexiert werden sollen, aber deren Links der Crawler folgen darf. Das können zum Beispiel die Sitemap, Kategorie- oder Tagseiten sein. Der Robots Meta-Tag wird auch gerne im Zusammenhang mit Pagerank Sculpting verwendet um gezielt an eine spezielle Unterseite keine Gewichtung weiter zu geben. Die weiteren Kombinationen und Möglichkeiten der 4 Werte kann man sich vermutlich nun auch schon selbst denken.

Der Language Meta-Tag

<meta name=“language“ content=“en_GB“>

Auch wenn Suchmaschinen Crawler deine Webseite in den meisten Fällen dem richtigen Land zuordnen kann, hilft der Language Meta Tag dabei, wenn man eine Webseite mit mehrsprachigen Inhalten hat. Dieser Tag unterstützt die Suchmaschinen Crawlern dabei die Webseitenbereiche und deren Inhalte dem richtigen Land zuzuordnen. Besonders nützlich ist der Language Meta Tag auch dann, wenn man unter einer Domain mehrsprachige Inhalte veröffentlicht und keine echtes mehrsprachiges Frontend zur Verfügung stellt. Denn dann erfolgt eine Indexierung der Inhalte nach Sprache und Land im Meta Tag.

Der Canonical Tag

<link rel=“canonical“ href=“http://www.ihreseite.de/produkte.html“ />

Der Canonical Tag ist ein Werkzeug um Duplikate Content zu vermeiden, sofern er richtig eingesetzt wird. Damit lässt sich bestimmen welche URL für Suchmaschinen gewertet werden soll und sollte bei so manchem Problem Abhilfe schaffen. Daher sollte man den Canonical Tag einsetzen, wenn eine Domain sowohl mit als auch ohne www erreichbar ist, Inhalte bei der Internationalisierung auf unterschiedlichen Ebenen doppelt verwendet werden, der gleiche Inhalt unter zwei verschiedenen URLs aufrufbar ist, URLs mit Trackingparametern indexiert werden oder wenn Kategorie- oder Tagseiten verfügbar sind. Der Canonical Tag ist aber nicht nur ein sinnvolles Werkzeug um doppelte Inhalte zu vermeiden, sondern er kann auch als Alternative zum 301 Redirect verwendet werden und Linkpower weiter vererben.

Rich Snippets

Bei Rich Snippets handelt es sich um keine tatsächlichen Meta Daten, sondern vielmehr um die wenigen Zeilen Text welche man immer häufiger in den Suchergebnisseiten unter dem Title vorfindet. Durch diese Zusatzinformationen, wie zum Beispiel Produktbewertungen in Form von Sternen oder die Anzahl der Bewertungen, soll der Betrachter Zusatzinformationen zur Seite bzw. dem Produkt erhalten und eine bessere Abschätzung der Relevanz dadurch bekommen. Rich Snippets können mit Microdaten, Microformaten oder RDFa dem Snippet hinzugefügt werden. Eine detaillierte Beschreibung über die Umsetzung ist hier zu finden.

Der Author Tag

<a href=“http://www.gplus.to/florianhiess“ rel=““author“></a> oder <a href=“http://www.gplus.to/florianhiess“ rel=“me“></a>

Bei der Verwendung dieser Link Attribute sorgt man dafür, dass für seine Inhalte im Web das Google+ Profilbild zusätzlich in den SERP Snippets erscheint. Dazu muss auf der Seite idealerweise in einer Autorenbox am Ende des Artikels auf das eigene Google+ Profil verlinkt werden. Anschließend muss man zur Verifizierung zu seinem Google+ Profil einen Backlink zur Seite an der man mitwirkt hinzufügen und öffentlich verfügbar machen. Der Author Tag hat vor allem dann Sinn, wenn man sich mit seinen Suchergebnissen von den anderen abheben möchte und viele Gastartikel schreibt. Es wird auch gemunkelt, dass Google an einem geheimen Author Rank arbeitet , welcher den Trust beeinflusst und in Zukunft auch in Rankings mit einfließen kann.

Der Stylesheet Tag

<link rel=”stylesheet” href=”style.css” type=”text/css”/>

Für einen sauberen Quellcode sollte man Style und Daten soweit wie möglich trennen, damit dieser nicht unnötig aufgeblasen wird. Um dem Client trotzdem die korrekte Website anzuzeigen muss man das Stylesheet Tag setzen und dort den Pfad zur Location am Server der style.css angeben. Den Rest erledigt der Browser beim Aufruf der Seite durch den Besucher.

Probleme mit Meta Tags

Codierungsfehler: Eine falsche Codierung der Meta Tags ist ein klassischer Fehler, der durch invaliden Code zu Indexierungsproblemen führen kann. Daher empfiehlt sich eine regelmäßige Validierung, sobald man Veränderungen auf einer Seite durchgeführt hat.

Duplicate Meta Tags: Eine relativ häufiger Fehler beim Einsatz von Meta Tags ist die Mehrmalige Verwendung der gleichen Angaben für verschiedene Unterseiten. Dadurch entstehen Duplikate Meta Tags, welche das Ranking belasten können. Im Idealfall hat jede Unterseite ihre eigenen Meta Daten welche thematisch auf die jeweilige Seite angepasst sind.

Meta Spam: Dieser ist weder von Besuchern noch von Suchmaschinen gerne gesehen, daher sollte man Meta Spam unbedingt vermeiden. Niemanden interessieren aneinandergereihte und durch Komma getrennte Keywords. Um zu überzeugen gilt hier definitiv weniger ist mehr.

Anordnung der Keywords: Um eine bessere Aufmerksamkeit zu bekommen sollten wichtige Keywords möglichst weit vorne in den Meta Tags platziert werden. Keyword sollten demnach also nach Gewichtung und Zusammenhang sortiert werden. Besteht eine Phrase aus mehreren Keywords, so sollten diese genau in ihrer syntaktischen Beziehung dargestellt und nicht getrennt werden.

Sonderzeichen vermeiden: Hier treten immer weniger Probleme auf, um dennoch auf Nummer sicher zu gehen, sollte man auf die Verwendung von Sonderzeichen verzichten. Dies betrifft jedoch nicht generell Sonderzeichen, denn Gängige, wie etwa Trennstriche, Pipes, etc., können ohne weiteres benutzt werden.

falsche Angaben: Je nach Meta Tag kann die Angabe von falschen Daten ein kleineres oder größeres Problem darstellen. Ein Rechtschreibfehler in der Description ist leicht auszubessern und sollte nicht für viel Aufregung sorgen, wo hingegen eine falsche URL im Canonical Tag fatale Auswirkungen auf die gesamte Website haben kann.

Gute Texte schreiben in 5 Schritten

Im Internet gibt es unzählige Guides und Ratgeber zum Verfassen „guter“ Texte. Drücken Sie sich kurz und prägnant aus, vermeiden Sie Wiederholungen und Schachtelsätze… Den meisten Menschen, die als Autoren tätig sind und regelmäßig Texte erstellen, werden diese und ähnliche Ratschläge bekannt vorkommen.

Zwar greifen viele Guides sehr ähnliche Tipps auf, dennoch sind sie stets zwangsweise subjektiv: Der Verfasser eines Guides kann niemals verhindern, dass sein persönlicher Stil mit in den Text einfließt. Auch die Auswahl der angebotenen Ratschläge hängt oft von den individuellen Vorlieben und Erfahrungen des Autors ab. In diesem Artikel wollen wir diesen Aspekt aufgreifen und die „Tipps zum Schreiben guter Texte“ komplett auf die Autorenseite beziehen: Es soll also weniger um das Handwerk des Schreibens gehen, sondern viel mehr um die Rolle des Schreibenden.

Gerade Blogger und Freelancer-Autoren dürften sich angesprochen fühlen, wenn es um das Verfassen hochwertiger Webseitentexte geht. Viele von Ihnen, den Leserinnen und Lesern, betreiben sicherlich auch einen eigenen Blog oder ein anderes Webprojekt. Hier sind also die fünf Tipps: Nicht zum Schreiben, sondern zum Autor-Sein!

gute Texte für Kunden schreiben

1. Textaufträge und Themen mit Bedacht auswählen

Jeder Blogger kennt das Problem, wenn es einen thematischen Engpass gibt und keine passenden Ideen weit und breit in Aussicht sind. In solchen Fällen bestehen zwei Handlungsmöglichkeiten: Entweder Sie bleiben passiv, bis die Schreibblockade vorüber ist, oder Sie blicken bei der Auswahl eines geeigneten Themas über den Tellerrand hinaus und beschäftigt sich mit Themen, die nur „um die Ecke“ mit dem eigentlichen Themenbereich Ihres Blogs zusammenpassen.

Auch Freelancer-Autoren, die beispielsweise für Content-Agenturen im Internet Webseiten-Texte verfassen, befinden sich ab und an in der Situation, dass sie Textaufträge annehmen, deren Themen sie nicht wirklich interessieren – oder noch schlimmer, die ihnen nicht liegen.

Es spielt (fast) keine Rolle, wie gut Sie als Autor sind – sobald Sie über ein Thema schreiben, das Ihnen fremd ist oder Sie nicht interessiert, werden aufmerksame Leser das bemerken. Die Zufriedenheit der Leser kann so ausbleiben, und was noch schlimmer ist: Sie können selbst den Spaß am Schreiben verlieren. Um dauerhaft motiviert und begeistert als Autor für Webseiteninhalte zu arbeiten, sollten die Textaufträge und -themen stets Ihren persönlichen Ansprüchen und Vorlieben entsprechen.

2. Authentizität bewahren

Eng verbunden mit dem ersten Tipp ist auch der zweite: Wenn Sie als Autor auftreten und Ihre Artikel anbieten, wird die Qualität der Texte auf Sie zurückfallen. Dabei haben Sie nicht nur mit einer verschlechterten Reputation zu rechnen, wenn Ihre Texte nicht gut sind – auch wenn Sie einen sprachlich hervorragenden Text abliefern: Wirkt dieser halbherzig und erzwungen, können Ihre Leser nach und nach abwandern. Aus diesem Grund bietet es sich an, über solche Themen zu schreiben, zu denen eine authentische Begeisterung aufgebaut und gezeigt werden kann.

Authentizität und Glaubwürdigkeit werden vom Leser häufig höher gewichtet als die bloßen Schreibfähigkeiten. Natürlich können gut aufbereitete Informationen begeistern, aber erst ein sympathischer Text hat die Fähigkeit, Leser zu packen und zum Weiterlesen zu animieren. Eine authentische persönliche Note kann gerade für Blogger ein effektives Mittel sein, sich aus der Menge hervorzuheben und so seine Leser auch auf einer persönlichen Ebene anzusprechen.

3. Die eigene Weiterentwicklung beachten

Je länger Sie als Blogger oder Webseitentexter tätig sind, desto deutlicher werden Sie die Veränderungen wahrnehmen können, die in Ihrer Arbeit zu bemerken sind. Übung macht den Meister: Jeder, der über einen längeren Zeitraum hinweg Texte veröffentlicht und idealerweise noch konstruktives Feedback von den Lesern bekommt, verbessert sozusagen „zwangsweise“ seine Schreibfähigkeiten.

Aus diesem Grund bietet es sich an, als Autor nicht nur nach vorn zu Blicken und den nächsten Auftrag zu suchen. Auch ein Blick in die Vergangenheit lohnt sich, wenn so die individuelle Entwicklung des eigenen Schreibens nachvollzogen werden kann. Denn dies kann einen enormen Motivationsgewinn bewirken – gerade dann, wenn Sie eine stetige Verbesserung der Textqualität, die damit positivere Resonanz Ihrer Leser und eine gewünschte Suchmaschinenoptimierung erzielen.

Wohin geht die Reise? Durch die Reflektion über die eigene Autorentätigkeit können Sie beispielsweise besser einschätzen, welche Eigenschaften Ihres Schreibens Sie dauerhaft begleitet haben und somit zum persönlichen Schreibrepertoire gehören. Auch können Schwächen aufgedeckt und so in Zukunft effektiver vermieden werden.

4. Offen für Kritik sein

Wer nur für sich selbst schreibt und der Rückmeldung anderer kein Gehör schenkt, kann sich auf Dauer nicht weiterentwickeln und verbessern. Gerade als Autor geht es darum, Inhalte für andere Menschen bereitzustellen. Feedback über die eigene Schreibtätigkeit von anderen einzuholen gehört also mit zu den effektivsten Möglichkeiten, um sich über die Stärken und Schwächen seiner Texte klar zu werden.

Konstruktiv mit negativer Kritik umzugehen ist eine Fähigkeit, die nicht jedem Autor in gleicher Weise liegt: Oft bedarf es Übung, um aus negativen Rückmeldungen wertvolle Anregungen gewinnen zu können. Wann immer Sie aber Ihre Texte der Öffentlichkeit zur Verfügung stellen, bleiben Kritiker (und Nörgler) nicht aus.

Häufig schleichen sich Lieblingsfloskeln oder -wörter ein, die einem selbst nicht auffallen, die sich aber für die Leser schnell abnutzen. Vier Augen sehen hier stets mehr als zwei: Lassen Sie sich die Möglichkeit nicht entgehen, sich auch den Blick von außerhalb darstellen zu lassen!

5. Selbstbewusst mit Kritik umgehen

So wertvoll Kritik aber auch sein kann: Nicht jeder „konstruktive“ Ratschlag sollte ohne Weiteres umgesetzt werden. Kritik ist nur dann ein sinnvolles Hilfsmittel, wenn selbstbewusst mit ihr umgegangen wird.

Behalten Sie stets im Hinterkopf, wie Sie Ihre Texte und somit im Endeffekt auch sich selbst präsentieren wollen. Eine Art „Selbstfindung“, wie im dritten Tipp beschrieben, kann dabei helfen, sinnvolle von unpassender Kritik zu unterscheiden. Setzen Sie die Ratschläge um, die Sie selbst nachvollziehen können: So machen Sie sich einen Namen als Blogger, der selbstbestimmt seine eigene Linie verfolgt, ohne dabei die sprichwörtlichen Scheuklappen aufzusetzen.

Fazit

Jeder Mensch, der Texte verfasst und im Internet öffentlich macht, hat individuelle Vorstellungen davon, was einen lesenswerten und hochwertigen Artikel ausmacht. Zahlreiche Autoren teilen ihre Erfahrungen und Vorstellungen mit anderen, sodass eine Art Konsens darüber besteht, wie gute Texte geschrieben werden. Nie zu vergessen ist dabei aber, dass hinter allen guten Texten Menschen aus Fleisch und Blut stehen, die ihre Kreativität und Individualität in ihre Texte einfließen lassen.

Es handelt sich hierbei um einen Gastartikel, welcher von Content.de zur Verfügung gestellt wurde.

Wirkung von organischen Rankings auf Adwords Anzeigen

Das Ziel vieler Unternehmen ist es mit ihren Adwords Anzeigen Traffic auf ihre Website zu bringen und diesen anschließend zu verwerten. Damit im Laufe der Zeit die Kosten für solche Werbeausgaben sinken wird meist parallel dazu auch SEO betrieben um die bezahlten Anzeigen durch organische Rankings zu ersetzten. Im letzten Jahr wurde von Google zum ersten Mal eine Studie veröffentlicht, in der die Wirkung von organischen Rankings auf Adwords Anzeigen untersucht wurde. Das Ergebnis daraus war, dass 89% der Besuche auf Websites durch Ad-Klicks nicht durch organische Klicks ersetzt werden.

Die Ersteller der unten angezeigten Infografik haben sich nun zu folgenden zwei Fragen Gedanken gemacht:

1) Wie oft wird eine Impression von einem zugehörigen organischen Ergebnis des gleichen Betreibers in den SERPs begleitet?

2) Wie wechselt sich der inkrementelle Zusammenhang der Klicks auf Adwords Anzeigen mit Klicks auf organische Ergebnisse ab?

Während die Ergebnisse dieser Auswertungen einen Hinweis auf allgemeine Trends liefern, kann trotzdem keine Pauschalaussage dazu getroffen werden. Das heißt für Werbetreibende führt kein Umweg an randomisierten Experimenten vorbei, um zu sehen wie die Wirkung von organischen Rankings auf Adwords Anzeigen in ihrem Umfeld ausfällt. Wer einen Blick auf die allgemeinen Ergebnisse von Googledata werfen möchte, kann das unter folgendem Link machen.

Da die Studio über die Wirkung von organischen Rankings auf Adwords Anzeigen direkt von Google kommt, sollte man beim Lesen dieser immer etwas Vorsicht walten lassen. Wie das mit Studien üblicherweise so ist, gibt es jemanden der diese finanziert hat und derjenige soll am Ende doch nicht schlecht dastehen, oder?

Impact von organischen Rankings auf Adwords

 

SEO vs Social Media – Wodurch mehr Aufmerksamkeit?

Im Kampf um die weitreichendste Aufmerksamkeit im Web stehen meist SEO, SEA und Social Media gegeneinander im Ring. Schließlich spielen für strategische Entscheider meist der zu erbringende Aufwand und der zu erwartende Nutzen die Hauptrolle um Maßnahmen in die eine oder andere Richtung einzuleiten. Die Agentur für kreative Medien MGD hat deshalb versucht diese Entscheidung etwas zu erleichtern und einige Daten und Fakten zur Frage: „SEO vs Social Media – Wodurch erhält man mehr Aufmerksamkeit?“ zusammengetragen und in einer Infografik aufgearbeitet.

Die Suchmaschinenoptimierung ist für viele ein klar messbarer Weg für mehr Aufmerksamkeit und es ist sich der Großteil in diesem Punkt einig. Es funktioniert und kann große Aufmerksamkeit für seine Marke/sein Produkt erzeugen, jedoch ist der Erfolg stark abhängig von investierter Zeit und Geld. Wer hier an den richtigen Stellen nach dem Motto „Viel hilft auch viel“ investiert kann sich einer entsprechenden Reichweite sicher sein.

Obwohl auch bei SEO großteils nur Vermutungen und Erfahrungswerte im Vorfeld dargestellt werden können, zählt Social Media trotzdem als schwerer messbar und in den Wolken schwebend. Der Return of Investment ist nicht exakt bestimmbar und die Aufmerksamkeit, die man durch Maßnahmen erzielt ist nicht vorhersehbar, da durch gezielte Aktionen virale Effekte mit spaltbarer Reichweite erzielt werden können.

Was im SEO vs Social Media Battle in der Infografik nicht berücksichtigt werden sind Maßnahmen wie etwa bezahlte Anzeigen, sowohl in Suchmaschinen als auch in sozialen Netzwerken. Da das Ergebnis wie zu erwarten kein entweder-oder, sondern ein sowohl-als-auch ist wäre es interessanter gewesen SEO und Social Media auf einen Nenner zu bringen und bezahlten Anzeigen gegenüber zu stellen.

SEO vs Social Infografik

Quelle: http://www.mdgadvertising.com/blog/social-vs-search-infographic/

Anatomie erfolgreicher Webseiten

Die wenigsten Webseiten werden durch Zufall zu einem Erfolg. Hinter den Meisten steckt ein gut durchdachtes Konzept und die Design Agentur Roi Media hat dazu eine Infografik unter dem Titel „Die Anatomie einer perfekten Webseite“ erstellt. Darin wird der Aufbau erfolgreicher Webseiten mit Webdesign, Navigation, Social Media, Usability, SEO, Content, Tracking & Analytics und dem Footer definiert. Jede dieser einzelnen Zutaten sollte bei der Planung und Konzeption einer Webseite beachtet werden und trägt seinen Teil zum gesamten Erfolg bei. Fehlt euch in der Grafik etwas Essentielles oder stimmt ihr dem überein?

Anatomie erfolgreicher Webseiten

Quelle: http://www.roimedia.co.za/

Wie funktioniert die Safe Search?

Das Internet macht es vielen Jugendlichen möglich Inhalte für Erwachsene zu konsumieren und nicht nur Eltern haben es sich zur Aufgabe gemacht ihre Kinder davor zu schützen. Bei Google gibt es dazu den SafeSearch Modus in den Sucheinstellungen und damit werden Webseiten, die nicht der Allgemeinheit zugemutet werden können aus den Suchergebnissen gefiltert und ausgeschlossen. Im Jahr 2000 war Matt Cutts persönlich noch dafür verantwortlich explizite Suchergebnisse manuell aus den SERPs zu filtern. Mittlerweile funktioniert ein Großteil des Safe Search Filters automatisch und überprüft die Gewichtung von Keywords und wie oft sie auf der Zielseite vorkommen. Obwohl das System recht gut funktioniert kommt es doch hin und wieder vor, dass jemand ungerechtfertigt im Safe Search Filter landet. Hier gibt es Abhilfe über ein Google Formular über welches man die Überprüfung seiner Webseite beantragen kann.

im aktuellen Google Webmaster Central Video antwortet Matt Cutts auf die Frage wie dieser Filter für die organische und Bilder Suche funktioniert und gibt einige Einblicke in die Vergangenheit und Gegenwart.

YouTube Preview Image

Wie schnell reagiert Google auf Malware Entfernung?

Vor ein paar Tagen habe ich einen Artikel über die Google Malware Warnung beim betrachten einer Seite in den SERPs und beim Öffnen der selbigen geschrieben und parallel dazu einen Test gestartet wie rasch Google auf die Entfernung der Schadsoftware reagiert. Da mehrere Domains am Server betroffen waren konnte ich mir zwei sehr ähnliche Domains als Testobjekte heraus nehmen. Die Ausgangsbasis waren zwei Projekte im gleichen Themenumfeld und beide auf WordPress basierend. Das Backlinkprofil der beiden Domains sieht sehr ähnlich aus: jeweils 1 Wikipedia Link, einige Bookmarks, Kommentarlinks und Verweise von Artikeln aus anderen Projekten. Der einzige große Unterschied besteht darin, dass Domain A in den Webmaster Tools angemeldet ist und Domain B nicht.

Google Malware Warnung entfernen

Die Ausgangsbasis

  • zwei .com Domains
  • gleiches Themenumfeld
  • gleiche CMS Basis
  • Sistrix Sichtbarkeitsindex größer 0,40
  • ähnliches Linkprofil
  • unterschiedliches Dominanter (9 Monate Differenz)
  • unterschiedlicher Status der Webmaster Tools Anmeldung

Wie reagierte Domain A auf die Entfernung der Malware?

Vor etwa 10 Tagen ist mir die Malware Warnung das erste Mal aufgefallen und daraufhin habe ich sofort die Webmaster Tools aufgerufen und festgestellt, dass auch noch andere Domains davon betroffen waren. Nach einer Kontrolle wo sich die Malware eingenistet hat wurden von mir Backups eingespielt und der Quellcode überprüft. Alle vorhandenen Spuren waren entfernt und ich hab einen Antrag auf erneute Überprüfung auf Malware in den Webmaster Tools gestellt. Nur kurze Zeit später, etwa zwei bis drei Stunden, war die Malware Warnung in den SERPs und auf der betroffenen Domain A verschwunden und der Traffic Flow zu den beworbenen Partnerprogrammen war am nächsten Tag wie gewohnt.

Wie reagierte Domain B auf die Entfernung der Malware?

Bei Domain B handelte es sich um ein Projekt mit ähnlicher Ausgangsbasis und nur zwei gravierenden Unterschieden: diese Domain wurde etwa 9 Monate nach der anderen registriert und nicht in den Google Webmaster Tools angemeldet. Da ich hier die von der Malware betroffenen Verzeichnisse nicht über die WMT abfragen konnte musste ich alle Dateien und Verzeichnisse manuell prüfen. Nachdem die Schadsoftware gefunden war spielte ich ein Backup ein und wartete erstmal einen Tag um zu sehen ob Google die Entfernung der Malware von alleine erkennen würde. Keine Reaktion und weiterhin Trafficverlust bei Domain B. Um  eine erneute Überprüfung auf Malware durch den Crawler anzustoßen hatte ich dann versucht die Domain anzupingen und trotzdem kam weiterhin keine Reaktion. Ich ging davon aus, dass ich eventuell irgendwo Malware übersehen habe, alle Dateien wurden erneut von mir kontrolliert und ein weiterer Tag zugewartet. In den darauf folgenden zwei Tagen sorgte ich für ein paar neue Backlinks durch Social Bookmarks und Kommentare und wartet über das Wochenende. Weiterhin keine Reaktion und eine Google Malware Warnung in den SERPs. Da nichts geholfen hat, beschloss ich dann gestern die Domain in den Webmaster Tools anzumelden und einen Antrag auf erneute Überprüfung von Malware zu stellen und heute ist die Warnmeldung entfernt.

Mein Fazit aus diesem kleinen Test ist, dass Google aufgrund der Geschwindigkeit bei der Überprüfung von Malware auf automatische Tools setzt. Diese dürften separat und abgetrennt vom normalen Index-Crawler arbeiten und das Web auf Schadsoftware nur langsam durchforsten. Bei einer betroffenen Webseite ohne Anmeldung in den Webmaster Tools muss man sehr lange auf die Entfernung der Warnung warten und verliert so einiges an Traffic und Sales. Meldet man die erneute Überprüfung auf Malware jedoch in den Webmaster Tools an dürfte man in eine Queue gelangen, die binnen weniger Stunden abgearbeitet wird. Es bleiben meiner Meinung nach also nur zwei Optionen bei der Entfernung von Malware über: a) man hat entweder viel Zeit und kann den Trafficverlust verschmerzen oder b) man muss die Domain gezwungenermaßen in den WMT anmelden.

Was kann man bei einer Malware Warnung unternehmen?

Jedem Webseiten Betreiber wird es kalt über den Rücken laufen, wenn er auf einer seiner Projekte die Meldung bekommt, dass die Malware Detection von Google angeschlagen hat und den Seitenbesuchern eine sehr deutliche Message anzeigt: Warnung – ein Besuch dieser Website kann ihren Computer beschädigen! In mehreren Foren habe ich heute bereits gelesen, dass scheinbar eine erneute Malware Flut auf Webseiten Betreiber zurollt und leier musste ich gestern Abend schon feststellen, dass ein Server auf dem ich ein Hosting Pakete gemietet habe ebenfalls davon betroffen ist. Das ist nicht nur ärgerlich, weil es den Traffic gegen Null sinken lässt, sondern verursacht auch noch einen zusätzlichen und ungeplanten Zeitaufwand für die Suche nach der Schafsoftware im Code, dessen Behebung und die erneute Überprüfung der Webseite auf Malware.

In den meisten Fällen sind von einer Malware Warnung Webseiten mit annehmbaren Rankings und Traffic betroffen, da sich Hacker oft nur auf diese Ziele stürzen um eine große Wirkung nach sich zu ziehen. Schuld a

Google Malware Warnung

Wie macht sich eine Malware Warnung bemerkbar?

Eine Malware Warnung kann man auf unterschiedlichen Wegen bemerken. Der Zufall kann hier eine Rolle spielen, wenn eine weniger aktiv betreute Seite davon betroffen ist, aber allem auffällige Ausreißer im Traffic sollten einem aufhorchen lassen, damit man das Projekt einmal genauer unter die Lupe nimmt. Auf diesen sechs Wegen kann man auf die Malware Warnung aufmerksam werden:

  • deutlich weniger Traffic in Analytics
  • deutlich weniger Traffic in der Partnerprogramm Statistik
  • beim Aufruf der Domain
  • eine Malware Warnung im Snippet in den SERPs
  • eine Benachrichtigung des Hostess
  • ein Mail von Google das auf die Malware hinweist

Was kann man gegen Malware unternehmen?

Zu allererst heißt es einmal Ruhe bewahren und einen Überblick über die Lage verschaffen. Nicht gerade selten ist nicht nur eine Domain am Server/Webspace von der Malware betroffen und somit sollte man seine Projekte durchsehen wie groß der verursachte Schaden ist. In den meisten Fällen wird irgendwo in den Dateien der Schadende platziert und sofern man keine aktuelle Sicherung hat wird die darauf folgende Arbeit zu einer richtigen Schnitzeljagd durch die Codezeilen. Sind die Zeilen im Code gefunden und entfernt worden kann man sie wieder hochladen und die infizierten Dateien ersetzen. Einfacher und vor allem zeitsparender ist es, wenn man wöchentliche oder tägliche Backups seiner Projekte hat und nur den Letztstand vor der Infizierung neu uploaden muss. Wer seine Webseiten auch in den Google Webmaster Tools angemeldet hat kann nun dort eine erneute Überprüfung auf Malware beantragen. Es ist auch zu empfehlen in das dafür vorgesehene Feld die getroffenen Maßnahmen für die Entfernung des Schadendes anzugeben. Hier arbeiten die Google Mitarbeiter sehr schnell und zuverlässig und binnen weniger Stunden kann man mit einer Entfernung der Google Malware Warnung rechnen, sofern der Schadcode auch wirklich entfernt wurde. Fürs erste wäre damit die einwandfreie Erreichbarkeit der Webseite wieder gesichert und nun ist es an der Zeit sich einmal genauer mit Sicherheitsvorkehrungen für sein CMS, den Server oder seinen verwendeten Passwörtern machen.

Verliere ich Rankings durch die Malware Warnung?

Sofern man schnell handelt und die Schadsoftware wieder entfernt sollte man keinen Rankingverlust befürchten müssen. Lässt man das Problem jedoch unberührt und hofft auf ein Wunder oder andere Sagen und Mythen wird man schon nach kurzer Zeit nicht nur seinen Traffic verlieren, weil Besucher die Seite nicht mehr aufrufen, sondern auch in die hinteren Pätze in den Suchergebnissen verwiesen werden.

Matt Cutts über Malware

Matt Cutts erklärt in einem Video wie Goolge zu Malware Warnungen steht und was man zur Erhöhung der Sicherheit und Entfernung der Google Warnmeldung auf einer betroffenen Domain unternehmen kann. Da es in dieser Angelegenheit viele Dinge zu beachten gibt, sollte man als Webseitenbetreiber diese Infos zumindest immer im Hinterkopf behalten.

YouTube Preview Image