Andauernde technische Probleme sorgen für langsames Rollout von Panda 4.2

Kommentar verfassen

John Mueller wurde im heutigen Webmaster Central Office Hangout mehrfach mit der Frage konfrontiert, warum sich die aktuelle Iteration des Panda Updates über einen derart langen Zeitraum hinziehen wird.
Sowohl Jennifer Slegg als auch Barry Schwartz haben seine Antworten transkribiert und es kristallisiert sich eine Ursache für das langsame Rollout heraus: So will Google weder die Webmaster verunsichern, ärgern oder die Bevorzugung eigener Angebote vor den Wettbewerbshütern verschleiern. Wie auch schon vor Beginn des Rollouts scheinen technische Probleme der Grund für das mehrere Wochen in Anspruch nehmende Panda 4.2-Update zu sein.

Die Aussage von Webmaster Trends Analyst John Mueller findet ihr im eingebetteten Video im Wortlaut:

Interview | „Beim Website-Relaunch ist es manchmal eine Herausforderung alle Projektbeteiligten für das Thema SEO zu sensibilisieren“

Kommentar verfassen

Auch heute haben wir ein neues Interview aus der Reihe „Einblicke in den Arbeitsalltag eines SEO” für euch. Wir geben einen Einblick in die Arbeit vom Director SEO bei der United Digital Group (UDG) SUMO, Maik Mistian.

Der SEO-Bereich bei der United Digital Group SUMO (kurz: UDG SUMO) kann in „technische Beratung und Optimierung“ und „Linkmanagement“ und „Local SEO“ unterteilt werden. Maik Mistian ist als Leiter der SEO-Consulting Abteilung zusammen mit 17 Kollegen im Kern für die technische Beratung und Optimierung zuständig.

Zwischen E-Mails und Meetings viele Management-Aufgaben

„Ich fange meist schon auf dem Weg ins Büro an meine Mails zu checken und auch schon zu beantworten […] bis die ersten Meetings beginnen“, beschreibt der Director SEO Maik Mistian einen typischen Arbeitsmorgen. Dazwischen gibt es viele Management-Aufgaben zu erledigen, wie die Koordination von diversen Projekten, Planungserstellung und auch die Abstimmung einiger interner Abläufe, erzählt er weiter. „Natürlich analysiere ich auch SEO-Entwicklungen und finde Trends heraus – aber die Management-Aufgaben überwiegen“, so Maik Mistian.

maik_mistian_arbeitsplatz

An seinem ordentlichen Arbeitsplatz hat der Director SEO von UDG SUMO alles im Griff.

Anzahl der Teammitglieder je nach Projekt skalierbar

Bei UDG SUMO betreuen Teams die Kunden, bei denen bei Bedarf verschiedene Projektbeteiligte für verschiedene Aufgaben mit hinzugezogen werden. „Ein Projektteam besteht dabei mindestens aus einem Account-Manager und einem SEO-Consultant. Je nach Komplexität des Projektes werden dann auch zusätzlich Linkmanager, Content-Marketing-Manager, Texter und gegebenenfalls weitere Spezialisten Teil des Projektteams“, erklärt Mistian. Dann wird eine Potenzial-Analyse erstellt und eine Liste an Zielen definiert. Dabei unterscheidet das SEO-Team technische Maßnahmen, „um den Auftritt insgesamt für Google & Co. barrierefreier zu gestalten“ und inhaltlichen Maßnahmen, erklärt uns der Director SEO. „Ist dies abgeschlossen, werden mit dem Kunden die Umsetzungsmöglichkeiten der definierten Maßnahmen abgestimmt, wobei sich dann herauskristallisiert wann wie und mit welchem Aufwand sich Maßnahmen tatsächlich zeitnah vom Kunden oder den beteiligten Agenturen umsetzen lassen und welche Maßnahmen in die langfristige SEO-Strategie aufgenommen werden müssen“, erzählt er weiter. Hier entwickle das Team ein Gespür dafür mit welchem Tempo das Projekt umgesetzt werden könne. Somit kann sich der Kunde ganz auf die Arbeit von Mistian und seinem Team verlassen, sie führen ihn sozusagen durch das Projekt.
Die Dauer eines Projektes könne man an der Größe und Komplexität festmachen: „Bei kleinen einfachen Projekten dauert die initiale Optimierung ca. 2-4 Wochen. Bei größeren Unternehmen und komplexeren Projekten liegt die Umsetzungszeit bei 3 Monaten und länger. Das liegt meist [am] höheren Planungs- und Abstimmungsaufwand“, erklärt Mistian.

Unvorhersehbare Probleme durch plötzliche neue Erwartungshaltungen der Kunden

Im Agenturalltag ist eine enge und kontinuierliche Abstimmung mit dem Kunden sehr wichtig, damit es nicht zu Missverständnissen kommt. Allerdings komme es, laut Mistian, regelmäßig vor, dass der Kunde plötzliche Erwartungshaltungen entwickelt, die vorher nicht absehbar oder vereinbart waren. Auch passiert es, dass der Director SEO und sein Team zu spät über wichtige Änderungen am Online-Auftritt oder gar einem vollständigen Relaunch informiert werden. „Dies geschieht aber meist bei kleineren Projekten“, relativiert er. Bei größeren Projekten sei es aber manchmal eine Herausforderung die am Relaunch Beteiligten für das Thema SEO zu sensibilisieren und Chancen und vor allem Risiken bei einer verspäteten Einbindung von SEO aufzuzeigen. Aber da Mistian und sein Team mit regelmäßigen Statusmeeting, Telefonkonferenzen und Workshops für die Kunden den kontinuierlichen Austausch treiben, können sie aktiv gegen unvorhergesehene Probleme steuern. Und er kann auf lange Erfahrung zurückschauen: „Ich bin bereits schon lange dabei, sodass ich vieles inzwischen etwas entspannter sehe und vieles mich auch nicht mehr aus der Ruhe bringt.“

Das Juli-Interview mit Florian Elbers von der COMPUTER BILD DIGITAL GmbH findet ihr hier: „Ein Redakteur kann seinen Kollegen die Vorteile einer Optimierung überzeugender deutlich machen“

Weniger Warnungen wegen geblockter JS- und CSS-Dateien als Warnungen wegen nicht-mobilfreundlichen Websites

Kommentar verfassen

Im Laufe des Tages verkündeten immer mehr Webmaster den Eingang von Warnungen wegen geblockter Ressourcen auf den unterschiedlichsten Wegen. Auf die Fragen von Jennifer Slegg und Barry Schwartz gab Gary Illyes ein paar Informationen zur Anzahl der Warnungs-Aussendungen und zur schnellen Beseitigung des Problems. Google verschickte die Warnungen wegen geblockter JavaScript- und CSS-Dateien nur an 18,7% der Webmaster, die eine Warnung wegen einer mobilunfreundlichen Website erhielten:

Wie kann man das Problem schnell lösen?

Auf der Entwickler-Plattform „Stackoverflow” postete Gary Illyes die simpelste Variante das Problem mit für den Googlebot geblockten JavaScript- und CSS-Dateien. So müsse in der robots.txt für den User-Agent „Googlebot” folgendes erlaubt werden:

User-Agent: Googlebot
Allow: .js
Allow: .css

Webmaster Trends Analyst John Mueller gab per Google+ noch weitere Informationen zu den Warnungen: So ist es für Google irrelevant wenn die blockierten Dateien von Drittanbietern sind, beispielsweise durch Verlinkungen zu sozialen Netzwerken. Zwar würden diese auch in der Google Search Console angezeigt, eine Warnung bekämen Webmaster aber nur, wenn die blockierten JavaScript- und CSS-Dateien von der Website selber stammen. Auch checkt Google in erster Linie die Homepage und die mobile Version der Website. Falls blockierte Dateien in tieferen Ebenen auftauchen, sendet Google eventuell keine Warnung. Um in Erfahrung zu bringen, ob blockierte Ressourcen bei der eigenen Website vorhanden sind und wo sie sich verstecken, können der „Test auf Optimierung für Mobilgeräte” und die Google Search Console helfen.

Case Study von RankingCheck: 40% Traffic-Zuwachs durch Länder-Bündelung auf generischer .com-TLD

6 Kommentare

Auf dem Blog von RankingCheck hat Eoghan Henn in einer Case Study analysiert, ob die organischen Rankings von der Bündelung aller Inhalte auf einer internationalen, generischen Domain (gTLD) profitieren können.

Anhand der Kundendomain eines Herstellers virtueller Telefonanlagen zeigt Henn, dass die Website in diesem speziellen Fall einen hohen Trafficzuwachs durch die Bündelung der Länder-Versionen auf einer gemeinsamen Domain (nfon.com) verzeichnen kann. So hat Henn die alten Länder-Domains, wie beispielsweise nfon.at für Österreich auf nfon.com/at/ umgezogen. In Österreich hat dieser Umzug einen Anstieg des Traffics um 43% zu Folge. Jedoch müsse hier beachtet werden, so Henn, dass in die Zeitspanne der Umstellung auch ein Relaunch der Website gefallen wäre – so könnte der Trafficzuwachs nicht zweifelsfrei und ausschließlich der Domainumstellung zugeordnet werden. Auch die Sichtbarkeit von nfon.com/at/ (roter Graph)zeigt einen starken Anstieg:

sichtbarkeitsentwicklung-AT

In Großbritannien fiel die Domainumstellung dagegen nicht direkt in die Relaunch-Phase, sodass der Trafficzuwachs von 42% dieser Umstellung mehr oder weniger direkt zugeordnet werden kann. Auch hier kann man erkennen, dass die Sichtbarkeit von nfron.com/gb/ (roter Graph) merklich zunimmt:

sichtbarkeitsentwicklung-UK

Henn erklärt dieses Ergebnis folgendermaßen:

Für die meisten Unternehmen gilt in der Suchmaschinenoptimierung: Je weniger unterschiedliche Domains und Subdomains man hat, desto besser. Das liegt daran, dass es viele Ranking-Faktoren gibt, die für die ganze Domain gelten, und nicht nur für einzelne Unterseiten. Eingehende Links gehören zum Beispiel zu den Ranking-Faktoren, die eine komplette Domain stärken, und nicht nur die direkt verlinkten Unterseiten. […] Diese Regel lässt sich nun auch übergreifend auf Sprach- und Länderversionen anwenden: Von einem Link auf eine deutschsprachige Seite profitieren auch die Seiten anderer Sprachversionen, sofern sich diese auf derselben (Sub-)Domain befinden.

Jedoch muss jeder Webmaster prüfen, ob das Modell der Bündelung von Länderversionen auf einer .com-Domain sinnvoll ist. Für Google ist eine .de oder .co.uk-Domain ein Hinweis darauf, dass die Inhalte der Seite im jeweiligen Land relevanter sind. So ist die Frage, ob die gebündelte Kraft einer einzigen .com-Domain auch in den länderspezifischen und lokalen Suchergebnissen von Vorteil ist oder ob hier die Praktik mit einzelnen Länderdomains mehr Sinn macht.

Google indexiert keine dynamisch nachgeladenen Inhalte hinter „Tabs”

3 Kommentare

Webmaster Trends Analyst Gary Illyes hat auf der Frageplattform für Programmierer „stackoverflow” erklärt, dass Google Inhalte, die hinter einem „Tab” versteckt sind und beim Anklicken dieses „Tabs” dynamisch nachgeladen werden, nicht sehen und in der Konsequenz auch nicht indexieren kann. Hierbei sind allerdings nicht die verschiedenen Tabs im Browser gemeint, sondern Auswahlboxen, ähnlich diesem Beispiel der Nachrichtenseite BILD.de:

Bild.de_Tabs

Die Inhalte, die durch Klicken auf die markierten Bereich um „News”, „Politik” und die weiteren Kategorien eingeblendet werden, werden beim Klicken auf die Kategorie dynamisch nachgeladen – der Googlebot sieht sie nicht auf einen Blick. © BILD

Gary Illyes Aussage im Wortlaut:

No, we (Google) won’t see the content behind tabs iff the content under the tab is dynamically generated (i.e. not just hidden).

You can also see what we „see” using Fetch as Google in Search Console (former Webmaster Tools); read more about the feature in our post titled Rendering pages with Fetch as Google.

Um zu überprüfen, ob der Googlebot alle Inhalte auf Eurer Website lesen kann, könnt ihr die Webseiten in der Google Search Console mittels „Fetch as Google” checken. Hilfreiche Tipps zur Verwendung gibt Google auch hier.

Google Panda 4.2 Rollout hat begonnen – wird mehrere Monate dauern

2 Kommentare

Wie Google gestern dem amerikanischen Online-Marketing Magazin Search Engine Land bestätigte, rollt der Suchmaschinenriese seit letztem Wochenende (17.7.-19.7.) eine neue Iteration des Panda Updates aus. Das Update mit der Versionsnummer 4.2 ist allerdings nur ein Data Refresh und beinhaltet keine Algorithmus Änderung, wie wir schon vor rund einem Monat berichteten.

Im Gegensatz zu Panda-Rollouts der vergangenen Jahre wird es diesmal, laut Google Aussagen, mehrere Monate dauern bis das Update seine Wirkung vollständig entfalten hat und die Webmaster Auswirkungen spüren können. So müssen sich Website-Betreiber, die in der vorangegangenen Panda-Iteration 4.1 getroffen wurden, noch lange gedulden um möglicherweise wieder aus dieser algorithmischen Penalty zu entkommen. Die Voraussetzung hier ist natürlich, dass sie sich darum gekümmert haben hochwertigen und mehrwertigen Content auf ihrer Webseite zu publizieren.

shutterstock_152002376

Symbolbild: Der Panda liegt noch auf der faulen Haut
© Shutterstock, Maciej Sojka

Laut Google Aussagen betrifft Panda 4.2 bisher lediglich 2-3% der englischsprachigen Suchanfragen.

Eine Übersicht aller bisherigen Panda-Updates findet ihr hier.

Die Aussage von Google, dass das Rollout mehrere Monate dauern wird, macht uns dennoch stutzig. In der letzten Woche erklärt Gary Illyes von Google, dass es technische Probleme gäbe, die das Rollout verzögern würden und vertröstete damit die von Panda 4.1 betroffenen Webmaster weiter. Heute erklärt Google über Search Engine Land, dass das Rollout eine immens lange Zeitspanne einnehmen könnte. Ist das Update eventuell weiterhin in der „soon”-Phase? Verschafft sich Google durch diese Kommunikation die bequeme Position keinen Zeitpunkt festlegen zu müssen an dem alle Auswirkungen sichtbar werden? Was denkt ihr?

Nicht valider HTML-Code hat keinen direkten Einfluss auf Rankings sondern auf strukturierte Daten

Kommentar verfassen

Googles John Mueller hat auf Google+ erklärt, dass nicht valider HTML-Code zwar keinen direkten Einfluss auf die Rankings der Website hat, allerdings dazu führen kann, dass „Meta-Tags, strukturierte Daten und Link-Elemente” nicht richtig funktionieren.

Allerdings muss man im Hinterkopf behalten, dass eine Seite, die nicht richtig dargestellt wird und viele Fehler aufweist, auch nicht richtig gecrawlt werden kann. So kann es schon vorkommen, dass diese Seite schlecht oder überhaupt nicht rankt.

Mit dem W3 Validator kannst Du untersuchen, ob alle Elemente Deiner Website richtig funktionieren: https://validator.w3.org.

Der Google+ Post von John Mueller im Wortlaut:

Google wird generische Top-Level-Domains gleichermaßen behandeln wie .com

1 Kommentar

In einem Blogpost im Webmaster Central Blog hat John Mueller von Google verkündet, dass die Suchmaschine die neuen generischen Top-Level-Domains (gTLD) wie .guru, .how oder die markenspezifische gTLD .[Marke] ebenso behandeln wird wie eine .com-TLD. So muss für alle Versionen in der Google Search Console eine geografische Ausrichtung eingestellt und konfiguriert werden. Auch wird Google markenspezifische gTLD beim Crawlen und Indexieren nicht gegenüber anderen TLD bevorzugt behandeln.

Ländercode-Top-Level-Domains (kurz: ccTLD) wie beispielweise .uk, .it oder .ae sind für Google ein Hinweis darauf „dass die Website im jeweiligen Land wahrscheinlich relevanter ist”. Somit ist zu erwarten, dass Google diesen lokalen Domains Vorrang gewährt, sofern ein Google-Nutzer im jeweiligen Land sucht. Die neuen TLDs .london oder .bayern werden von Google standardmäßig wie eine gTLD eingestuft, also genauso behandelt wie .com. Abhängig davon, wie die TLDs in der Praxis umgesetzt werden, könnten hier noch Ausnahmen getroffen werden.

Falls ihr Hilfe beim Umzug Eurer Website von beispielsweise .com auf eine neue Top-Level-Domain braucht, dann gibt Google Euch hier umfassende Informationen. Allerdings erklärt Mueller, dass es eine Weile dauern kann bis die Domainänderung für die Google-Suche verarbeitet werden.

Penguin Update erst zum üblichen Turnus im Oktober?

Kommentar verfassen

Auf die Frage eines Twitter-Nutzers antwortete Webmaster Trends Analyst Gary Illyes, dass die nächste Iteration des Penguin-Updates noch einige Monate dauern wird:

So könnte es sein, dass die Websitebetreiber, die durch das Penguin-Update 3.0 vom Oktober getroffen wurden, nun wieder bis Oktober warten müssen bis sie aus der algorithmischen Penalty entlassen werden. Natürlich können sie nur mit eventuell rückkehrenden Rankings rechnen, wenn sie ihr Linkprofil bereinigt haben. Im September letztes Jahr hat John Mueller noch berichtet, dass Google daran arbeitet den Penguin-Algorithmus öfter zu aktualisieren. Auf der SMX Advanced erklärte Gary Illyes auch, dass die kommenden Penguin-Updates definitv fortlaufend geupdatet werden, Webmaster jedoch Geduld aufbringen müssten, da die kontinuierliche Aktualisierung ein sehr umfangreiches und kniffliges Projekt ist:

Penguin … that’s a hard one. We’re working to make it update continuously, but that’s a huge update. It’s months away. We have to change many things.
Quelle: Search Engine Land

Panda-Update verzögert sich aufgrund technischer Probleme

1 Kommentar

Wie Googles Webmaster Trends Analyst Gary Illyes gestern via Twitter bekannt gab, verzögert sich das spätestens diese Woche erwartete Panda-Update weiter. Auf der SMX Advanced Anfang Juni erzählte er, dass sich die Webmaster in den nächsten 2-4 Wochen auf ein Data Refresh des Panda-Algorithmus’ gefasst machen können. Zwischenzeitlich gab es einige Bewegungen in den SERPs, die aber von Google als normale Rankingveränderungen deklariert wurden und nicht auf ein Update des Panda-Algorithmus zurückzuführen waren.

Somit müssen Webmaster, deren Websites vom Panda 4.1 getroffen wurden, weiter abwarten. Diese letzte Iteration ist mittlerweile 9 1/2 Monate her. Doch es scheint so, dass es einige technische Probleme bei der Umsetzung gibt, die Illyes auch schon auf der SMX Advanced während der Ankündigung erwähnte:

There will be a Panda update in the next 2-4 weeks. I don’t want to set an expectation for the team that they can’t meet, but there will be a data refresh coming soon. […] Our goal is to update it more often. It’s not that easy to refresh Panda that often, we have to get our data right to do a data refresh. But sometimes the data is noisy or something’s wrong with the data, so we have to wait.

Quelle: Search Engine Land