TOP-MELDUNGEN
AKTUELLE MELDUNGEN

Interview | „Ein Redakteur kann seinen Kollegen die Vorteile einer Optimierung überzeugender deutlich machen“

Kommentar verfassen

Im Zuge unserer Interviewreihe „Einblicke in den Arbeitsalltag eines SEO” geben wir Euch heute einen Einblick in die Arbeit vom SEO-Manager Florian Elbers, der bei der COMPUTER BILD DIGITAL GmbH unter anderem für die Portale computerbild.de und autobild.de zuständig ist.

Florian Elbers ist SEO-Manager bei der Axel Springer SE und zusammen mit seinem 6-köpfigen Team für die Portale autobild.de und computerbild.de, wieistmeineip.de und ekitchen.de verantwortlich. Das Team gehört organisatorisch zur IT der COMPUTER BILD DIGITAL GmbH.
„Jeder Tag beginnt bei uns mit der Teilnahme an den Kanban-Runden unserer beiden Entwickler-Teams, wo auch der Fortschritt der technischen SEO-Tasks besprochen wird“, erzählt Elbers. Zu seinen technischen SEO-Aufgaben gehören unter anderem die „Optimierung der Crawlability, die Indexierungssteuerung und eine Verbesserung der Informationsarchitektur. Das sind Grundvoraussetzungen, dass wir mit den Inhalten die unsere Redakteure schaffen auch ordentlich ranken“, berichtet er weiter.

Arbeiten auf Zuruf als Business-Consultants

Oft arbeiten Florian Elbers und sein Team auf Zuruf mit anderen Abteilungen zusammen – „wir sind sozusagen Inhouse-Consultants“. Als Consultants erstellen sie Potenzial- oder Konkurrenzanalysen für die Business-Development-Abteilung. Damit helfen sie „bei der Entscheidungsvorbereitung hinsichtlich neuer Partnerschaften und Geschäftsmodelle zu unterstützen“. Daneben betreibt das SEO-Team auch strategisches SEO. Dabei beschäftigen sie sich damit „Erfolgspotenziale über Evergreen-Content“ zu schaffen – „das ist ein weiterer Schwerpunkt unserer Arbeit“, erklärt Elbers. Natürlich gehören neben diesen Aufgaben auch Keywordanalysen, die Optimierung des Snippetdesigns, das Nachhalten der relevanten internen Verlinkung und inhaltliche Recherchen, die die Redakteure in ihrer täglichen Arbeit unterstützen, zu den täglichen Aufgaben von Florian Elbers und seinem Team.

Florian_Elbers_Computerbild_Digital_GmbH

An kleinen Details kann man erkennen, dass Google auf dem Arbeitsplatz von Florian Elbers längst Einzug gehalten hat. Und die SISTRIX Toolbox auch – erkennt ihr wo?

Redakteure werden von Kollegen in Punkto SEO geschult

Doch um die Optimierung ihrer Texte kümmern sich die Redakteure eigenständig. Sie „bekommen mit gewisser Regelmäßigkeit redaktionelle SEO-Schulungen. Diese führen wir aber nur noch selten selbst aktiv durch, da wir einen ambitionierten Redakteur SEO-mäßig stark ‚aufgeschlaut‘ haben“, erklärt Elbers freudig. Er könne seinen Kollegen einfach überzeugender die Vorteile einer Optimierung deutlich machen und dabei auch auf die speziellen Felder im CMS eingehen. Florian Elbers und seine Kollegen sind bei den Schulungen häufig anwesend um tiefergehende Fragen zu beantworten. „Oft kommen Redakteure aber auch direkt auf uns zu um sich Rat zu passenden Keywords oder Empfehlungen einzuholen“, so Elbers weiter. 
Da durch die vielen unterschiedlichen Akteure viel Abstimmungsarbeit geleistet werden muss, treffen sich die Teams in regelmäßigen Jour Fixes, „meistens jedoch stehen wir doch in fast permanentem Austausch“, erklärt der SEO-Manager.

Priorisierung von SEO stellt noch Probleme dar

Trotz konsequenter Einbindung des SEO-Teams in das technische Grundgerüst der Portale von Axel Springer und nachhaltige Schulung der Redakteure, hat die Suchmaschinenoptimierung noch keinen selbstverständlichen Stellenwert im Verlag. „Ich glaube es ist keine verlagstypische Begebenheit zu sagen, dass SEO-Themen in den meisten Unternehmen nicht stets auch die wichtigsten Sachverhalte in der technischen Umsetzung sind. Dies ist jedoch kein grundsätzliches Ressourcenproblem, sondern eher ein Problem der Priorisierung“, bemängelt Elbers. Doch es ist Besserung in Sicht: In weiteren neuen Projekten hätten Elbers und sein Team in Zusammenarbeit mit einem interorganisationalen Team die komplette technische und inhaltliche Planung, als auch die Überwachung übernommen, sagte er. Dabei handelt es sich um die Projekte ekitchen.de, egarden.de und evivam.de.

Das Juni-Interview mit Dennis Esterl von der Allianz Deutschland AG findet ihr hier: „Die größte Herausforderung entsteht durch die große Zahl an Beteiligten – und die damit verbundenen Erwartungen“

Einreichen einer XML-Sitemap nur bei Websites mit über 10.000 Unterseiten nötig

1 Kommentar

John Mueller hat im gestrigen Webmaster Central Hangout erklärt, dass es für kleinere Websites mit unter 10.000 Unterseiten nicht unbedingt nötig ist, eine XML-Sitemap einzureichen:

Bei kleinen Websites mit 1000 bis 10.000 Seiten kann man auf eine Sitemap verzichten. Auf jeden Fall ist es nicht notwendig. Natürlich hilft uns eine XML-Sitemap die Seite besser zu verstehen, aber wir können sie auch so relativ gut crawlen.

shutterstock_174624449_urheber_Bloomua WEB

Quelle: Shutterstock

Natürlich ist es sehr wichtig, dass die Website intern gut verlinkt ist, damit sich der Googlebot anhand dieser Links durch die Seitenstruktur navigieren kann. Falls dem nicht so ist, macht es sicherlich Sinn eine XML-Sitemap in der Google Search Console einzureichen, um dem Crawler möglichst barrierefrei alle Unterseiten der Website offenzulegen. John Mueller erklärte weiter, dass es bei größeren Portalen mit mehr als 10.000 Seiten immer sinnvoll wäre eine Sitemap einzureichen.

Die Aussage im Wortlaut findet ihr hier:

Weitere Informationen und Gedanken dazu findet ihr bei Martin Missfeldt im tagseoblog: Kleine Sites (bis 10.000 Seiten) brauchen keine Sitemap

Ganz abgesehen von der Anzahl der Unterseiten einer Website, ist es hilfreich eine Sitemap einzureichen, um einen manuellen Crawling-Anstoß zu geben und Google über neue Inhalte auf der Website zu informieren.

AdWords zeigen ab sofort MyBusiness-Bewertungen

1 Kommentar

Wie das Google AdWords-Team bei Google+ bekanntgab, werden AdWords-Anzeigen, die mit einer Standorterweiterung versehen sind (location extension), ab sofort die im dazugehörigen MyBusiness-Eintrag abgegebenen Bewertungen anzeigen.

Da Menschen vor allem der Meinung und den Erfahrungen Anderer glauben, verspricht Google damit eine verbesserte Performance der AdWords-Anzeigen:

People increasingly rely on the opinions and experiences of others to help make decisions like which pizza parlor to visit, where to get your tires rotated or which dentist to make an appointment with. Local ratings make your ads more useful to consumers searching for local information, and can improve your ad performance.

Den Original-Post findet ihr hier:

Alle weiteren Informationen zur Standorterweiterung von AdWords-Anzeigen findet ihr hier.

Nach Ende von Bing-Exklusivvertrag: Yahoo spielt auch Google-Ergebnisse aus

Kommentar verfassen

Im April dieses Jahres kündigte Yahoo per Pressemitteilung an, dass Microsofts Suchmaschine Bing zukünftig nicht mehr der exklusive Such-Partner von Yahoo sein wird. Zwar würden auch weiterhin die Suchergebnisse mehrheitlich (also zu 51%) von Bing geliefert, den Rest könnte aber ein neuer Partner bereitstellen. Nun scheint sich Google als neuer Partner gefunden zu haben, denn Aaron Wall von seobook.com entdeckte Google-Suchergebnisse in der Yahoo-Suche, Yahoo hat dies auch offiziell bestätigt:

yahoo-serps-google-680x600

Quelle: seobook.com

Wall entdeckte auch, dass mit den Google-Suchergebnissen auch Google AdWords ausgespielt werden. Auch das ist konform mit der Vereinbarung zwischen Yahoo und Bing, denn sie beschlossen, dass zukünftig die Mehrheit der Ads mit Bing Ads ausgespielt werden – für den Rest der Werbeplätze könnte nun Google mit AdWords eingesprungen sein.

Bedeutet diese Entdeckung von Aaron Wall, dass Yahoo keine eigene Suche mehr auf die Beine stellen wird? Eine Kooperation zwischen Google und Yahoo gab es ja schon bis zur Jahrtausendwende. Bis dahin nutzte Yahoo die Datenbestände von Google um eine eigene Suchmaschine zu entwicklen und kündigte die Verträge dann im Jahr 2004. Wird diese Kooperation nun wiederbelebt?

US-SERPs: Google+ Posts werden nicht mehr im Knowledge Graph angezeigt

Kommentar verfassen

Wie Jennifer Slegg auf TheSEMPost schrieb, werden seit heute keine Google+ Meldungen mehr im Knowledge Graph in den US-SERPs angezeigt. Dies betrifft sowohl eingeloggte, als auch nicht-eingeloggte Nutzer, berichtet Slegg. Stattdessen findet man die Google+-Posts zwischen den organischen Suchergebnissen.

kp-no-google-plus-5

Quelle: TheSEMPost

Dies könnte ein Indiz für das Ende von Google+ sein: Im März verkündete Googles Produktleiter Sundar Pichai, dass das Unternehmen zukünftig die Produkte Google+, Google Photos und Hangouts getrennt voneinander weiterentwickeln werde. Google+ ist darunter ja das einzige Produkt mit mäßigem Erfolg. In den letzten Wochen bemerkten einige eingeloggte Google+-Nutzer, dass der Link zum eigenen Profil aus der Google-Linkbar verschwunden war – so konnte man nur noch über Umwege zu Google+ und seinem Profil gelangen. Nun werden die Posts aus Googles sozialem Netzwerk nicht mehr im Knowledge Graph, sondern nur noch zwischen den organischen Suchergebnissen angezeigt, wie Search Engine Land berichtete:

According to a Google spokesperson the Google+ posts were removed from Knowledge Graph cards in search results in order to provide more consistency. Google+ supporters shouldn’t be disheartened though, Google+ posts will appear within the search results page – just not the Knowledge Cards. This places the Google+ posts along with tweets and other publicly crawlable links in the same fashion as any other social network. It was confirmed that this change officially went live last week.

Quelle: Search Engine Land

Die Begebenheit, dass sie weiterhin angezeigt werden und lediglich nicht mehr prominent im Knowledge Graph, spricht nicht direkt für das Ende des sozialen Netzwerkes – oder was glaubt ihr?

Der IndexWatch 07/2015 steht bereit

Kommentar verfassen

Pünktlich zum Anfang des Monats hat Rene Dhemant den IndexWatch mit den Gewinnern und Verlierern des SISTRIX Sichtbarkeitsindexes im Juni 2015 veröffentlicht. In seiner Analyse hat Dhemant auch die Bewegungen in den SERPs aus den letzten Wochen thematisiert und die Umstellung auf SSL bei Wikipedia tiefergehend beleuchtet.

Zu den Gewinnern des Monats Juni zählen die News-Plattform internetworld.de (+85,68%), die Leipziger Volkszeitung lvz.de (+82,00%) und reifen.de (+77,59%). Die Internet World Business konnte wahrscheinlich im Zuge des Core Algorithmus Update an Sichtbarkeit dazugewinnen. Auch möglich ist ein Einfluss der HTTPS-Umstellung von Wikipedia – jedoch sind diese möglichen Faktoren nur Spekulation. Bei der Leipziger Volkszeitung führte ein Domainumzug zum hohen Anstieg in der Sichtbarkeit: so wechselte lvz-online.de zu lvz.de, was lvz.de durch korrekte gesetzte 301-Weiterleitungen einen Sichtbarkeitsschub gab:
IndexWatch_07-15-Domainumzug-LVZ

Die Liste der Verlierer im Juni führt Rain Bird, der führende Hersteller für Bewässerungslösungen aller Art (bspw. zur Bewässerung von Rasenflächen), an und hat 83,33% an Sichtbarkeit verloren. Auch hier ist ein Domainumzug der Grund: Rain Bird bündelt alle Länderseiten auf der Domain rainbird.eu und hat damit auch die Inhalte von rainbird.de umgezogen. Weitere Verlierer sind das Stadtportal der Stadt Offenbach, offenbach.de, mit einem Verlust der Sichtbarkeit von 64,78% und audi.de (-23,17%), sowie sky.de (-23,04%).

Alle Auswertungen findet ihr im aktuellen IndexWatch.

Schnelle Google-Indexierung durch WordPress Plugin PubSubHubbub

Kommentar verfassen

Es gibt mehrere Wege Google darüber zu informieren, wenn ihr neuen Content veröffentlicht habt. So kann es beispielsweise hilfreich sein, eine XML-Sitemap einzureichen – im Mai haben wir gezeigt, wie eine XML-Sitemap mit Timestamp dabei helfen kann.

Eine weitere Möglichkeit sind RSS-Feeds und das WordPress-Plugin PubSubHubbub. Trotz seiner doch sehr ungewöhnlichen Namens ist es sehr sinnvoll. Es informiert Google per Ping über neue Inhalte auf der Website und wird auch heute noch von Google empfohlen:

Schon im Oktober letzten Jahres hat Google in einem Blogpost best practises für die (Be-)Nutzung von XML-Sitemaps und RSS-Feeds vorgestellt: Best practices for XML sitemaps & RSS/Atom feeds. Das WordPress-Plugin könnt ihr hier herunterladen.

Neue Partnerschaft: AOL arbeitet mit Bing-Suchergebnissen und übernimmt mit AppNexus zusammen Microsoft Ads

1 Kommentar

In einer Pressemitteilung verkündete Microsoft einen Deal mit dem Internetdienstleister AOL und dem Werbeplattform-Anbieter AppNexus. Mit einer Laufzeit von 10 Jahren haben Microsoft und AOL festlegt, dass AOL fortan die Suchergebnisse auf den Seiten von AOL von Microsofts Suchmaschine Bing ausspielt. Zusammen mit der Werbetechnologie-Plattform AppNexus wird AOL darüberhinaus den Werbemarkt von Microsoft übernehmen.

Mit diesem neuen Partner könnte Bing als Suchmaschine in den USA weiter Marktanteile hinzugewinnen. Laut der Pressemitteilung liegt dieser aktuell bei 20% in den USA – StatCounter beziffert den US-Marktanteil von Bing auf rund 11%. Zurzeit ist noch Google der Such-Partner von AOL:

Suchpartner_AOL_29.6

Das Werbegeschäft von Microsoft teilen sich AOL und AppNexus zu fast gleichen Teilen auf. Während AOL neun Märkte und damit Brasilien, Kanada, Frankreich, Deutschland, Italien, Japan, Spanien, UK und die USA übernimmt, wird AppNexus fortan die Werbedeals in Österreich, Belgien, Dänemark, Finnland, Irland, den Niederlanden, Norwegen, Portugal, Schweden und der Schweiz abwickeln. Allen 1200 Microsoft Angestellten, die für Microsofts-Werbesparte gearbeitet haben, werden von AOL Übernahmeverträge angeboten.

Mit dem Verkauf der Werbesparte will sich Microsoft auf seine Kernkompetenzen besinnen, beschreibt das Wall Street Journal:

Microsoft Chief Executive Satya Nadella, who has been in his post for 17 months, has made clear–including in an employee memo last week–that Microsoft needs to concentrate on technology areas where it has the biggest opportunities for success, and make “tough choices” in fringe areas.

Quelle: WSJ

Alle weiteren Informationen findet ihr in der Pressemitteilung von Microsoft: Microsoft expands partnerships with AOL and AppNexus, Bing to power search for AOL properties

Google versucht unbeabsichtigtes Klicken auf mobile Ads einzudämmen

Kommentar verfassen

Wie das Unternehmen aus Mountain View vergangene Woche mitteilte, hat Google die User Experience bei Ads auf Mobilgeräten verbessert. In der Vergangenheit hätten Drittanbieter-Studien gezeigt, dass rund die Hälfte aller Klicks auf mobile Werbeanzeigen unbeabsichtigt getätigt wurden:

When it comes to mobile ad clicks across networks, recent third party studies estimate that up to 50% of clicks are accidental.

Nun möchte Google mit drei Verbesserungen gegen solche unbeabsichtigten Klicks vorgehen, um einerseits die User Experience von Websitebesuchern zu verbessern und andererseits die unnötigen Kosten für Werbetreibende zu verringern, die ja keine Conversion durch versehentliche Klicks haben.

Schon 2012 hat Google ein Feature eingeführt, dass Besuchern nur zur Werbeseite führt, wenn sie doppelt auf die Werbung klicken und die Absicht, die Werbeseite zu besuchen, damit bestätigen. So sollten versehentliche Klicks auf den Rand der Werbung unterbunden werden. Nun geht der Suchmaschinen-Anbieter noch einen Schritt weiter und setzt die Umrandung der Ads komplett außer Kraft. Der äußere Rand der Werbung ist damit nicht mehr klickbar. Auch sind die Icons von Apps nicht mehr anklickbar, sondern nur noch die Call-to-action Buttons, wie „Kaufen” oder „Installieren”. Auch werden Ads erst nach einigen Sekunden anklickbar sein, sodass sich der Besucher zuerst ein Bild davon machen kann, ob er die Seite tatsächlich besuchen will.

Blog Images (41)

Alle weiteren Informationen und Tipps für Werbekampagnen findet ihr im Inside AdWords Blog: Better click quality on display ads improves the user and advertiser experience

Google verhängt Penalty bei Spam durch strukturierte Daten

2 Kommentare

Wie wir vergangenen Freitag berichteten, hat Google sich mit seinen strukturierten Daten einen Bock geschossen: Bei der Suchanfrage „Recklinghausen” wurden Veranstaltungen für Erwachsenenunterhaltung angezeigt – dies war auf eine korrekte Verwendung der schema.org Auszeichnungen eines Websitebetreibers zurückzuführen. Auch heute sind die Veranstaltungen dieses Anbieters prominent auf der ersten Seite der SERPs bei der Suchanfrage „Recklinghausen” zu finden. Dies ist von Google wahrscheinlich nicht beabsichtigt, jedoch scheinbar nicht zu ändern, da die Auszeichnung korrekt in den Code der Website implementiert ist.

Anders sieht es bei offensichtlichem Spam in den strukturierten Daten aus: Auf Search Engine Land hat Kolumnist Tony Edward berichtet, dass Google begonnen hat Penalties für jene Webmaster zu verhängen, die strukturierte Daten nicht Google-konform implementieren. Er führt das Beispiel von Bewertungen an – diese dürfen nicht für Kategorie- oder Listenseiten implementiert werden:

Review and rating markup should be used to provide review and/or rating information about a specific item, not about a category or a list of items. For example, “hotels in Madrid”, “summer dresses”, or “cake recipes” are not specific items. See also our structured data policies for multiple entities on the same page.

Aus den Review-specific usage guidelines and policies von Google.

Scheinbar hatten manche Website-Betreiber diese Taktik angewandt um durch die Hervorhebung mittels Sternchen in den SERPs mehr Klicks zu generieren.

Wenn Webmaster nun gegen die Richtlinien von Google verstoßen haben, dann könnte eine Penalty drohen, die Google folgendermaßen mitteilt:

Um eine Penalty zu vermeiden, sollten Webmaster ihre strukturierten Daten nur nach den Guidelines von Google implementieren und nach schema.org auszeichnen. Auch sollte man regelmäßig das Structured Data Testing Tool anwenden, um mögliche Fehler aufzuspüren und in der Google Search Console nachhalten, ob Fehlermeldungen bei „Darstellung der Suche > Strukturierte Daten” auftauchen.

Googles strukturierte Daten sind natürlich ein effektives Mittel, um seine Inhalte in den SERPs hervorzuheben. Jedoch bleibt immer ein Beigeschmack: Google nutzt immer mehr Informationen von Websites, um seine eigenen Dienste mit Daten zu füttern – so zeigt Google bei Hotel- und Restaurantsuchen seine eigenen Tools für die Zimmer- und Tischreservierung und kann in den USA schon Pizzabestellungen verarbeiten. In den USA lagen die direkten Antworten von Google auf verschiedene Suchanfragen Ende des ersten Quartals 2015 schon bei 20% – wir berichteten. Wahrscheinlich wird der Suchmaschinen-Reise in Zukunft noch öfter eigene Antworten zu Suchanfragen liefern und immer weniger organische Treffer ausspielen. Was denkt ihr über die Entwicklung?