OM Talk on Air #3 mit Informationen zur Campixx Week

Kommentar verfassen

Vom 9. bis zum 15. März findet die Campixx-Week am Müggelsee statt. Anders als in den letzten Jahren können sich Online-Marketer nun eine ganze Woche auf den neuesten Stand bringen lassen und Wissen austauschen. Am Wochenende vom 14./15. März schließt sich dann die altbekannte SEO Campixx an. Viele Hintergrundinformationen gab heute der Initiator Marco Janck im OM Talk von Soeren Eisenschmidt und Carsten Hinrichs über die SEO Campixx und die Campixx Week bekannt.

Alle Informationen dazu gibt es im unten eingebetteten Video-Mitschnitt des heutigen OM Talk:

Weitere Informationen zu den Thementagen der Campixx Week findet ihr auf der offiziellen Website: Campixx Week 2015

suchradar 52: Tag Manager, Blogger-Relations und mehr

Kommentar verfassen

Die neue Ausgabe des suchradars steht zum Download bereit. Im suchradar 52 behandelt die Redaktion von Bloofusion unter anderem das Thema “Google Tag Manager: Konsolidierte Steuerung von Online Marketing Tags”. Mit dem 2012 von Google vorgestellten Tool lassen sich beispielsweise einfache Tracking-Codes erstellen – wir berichteten.

Weitere Themen in dieser Ausgabe:

Online-Marketing
> Blogger Relations: Tipps für erfolgreiches Bloggermarketing
> Content-Promotion-Tools: Mit kostenpflichtiger Verbreitung von Inhalten viel(e) erreichen
> User Experience 2015: Welche Trends bei der Nutzererfahrung wichtig werden
SEO
> YouTube-Hacks: Tricks für mehr Erfolg mit Videos
> Markup-Implementation: Testen von strukturierten Daten
> Shop-Corner: Von Otto.de lernen
SEA
> AdWords-Konkurrenten: Mögliche Gründe für bessere Anzeigenpositionen
> Google AdWords: Anzeigen gezielt setzen und optimieren
Analytics
> Google Analytics: Tipps zur Identifizierung von Brand-Traffic
Recht
> Abmahnung, Unterlassungserklärung und dann? Was bei Rechtsverstößen zu beachten ist
> Urteile im Online-Recht: Werbung mit „geprüftes eBay-Mitglied“, Lieferzeit ca. 2 – 4 Tage, Bestellabbrecher-Mails und Neues seit 1.1.2015

Wie immer könnt ihr die neueste suchradar als PDF hier herunterladen: suchradar Magazin: Die aktuelle Ausgabe

Wie können hreflang und canonical-Tag zur gleichen Zeit benutzt werden?

1 Kommentar

Auf dem How to…-Blog hat Eoghan Henn anschaulich erklärt, wie hreflang und canonical-Tag gleichermaßen benutzt werden können, ohne sich dabei in die Quere zu kommen. Ganz ohne viele Worte zeigen wir Euch nur sein Schaubild, denn das erklärt eigentlich schon alles:

Hreflang nur zwischen Seiten, auf die per canonical verwiesen wurde.

Quelle: How to…

If you are using a canonical tag solution on your website, make sure that URLs that have a canonical tag pointing to another URL do not receive hreflang annotations. hreflang annotations are okay for URLs that point to themselves via canonical tag and for URLs that do not have canonical tags.

Den gesamten Beitrag könnt ihr auf dem Blog von Eoghan Henn lesen: How to use hreflang and canonical tags together

Weitere Informationen zur richtigen Verwendung von hreflang findet ihr im “hreflang-Guide für internationales SEO” von SISTRIX.

Nischenseiten-Challenge 2015 ist gestartet

1 Kommentar

Heute fiel der offizielle Startschuss für die von Peer Wandiger ins Leben gerufene Nischenseiten-Challenge. Bei diesem Wettbewerb geht es für die Teilnehmer um die Erstellung einer Website zu Nischenthemen, die nach Martin Missfeldt“wenig umkämpfte Begriffe im Google-Ranking [bedienen]”. Das Ziel einer solchen Seite ist es, schnell in den Google-Rankings aufzusteigen, auf diese Weise viele Besucher zu bekommen und per Google AdWords oder Affiliate-Links eine lukrative Einnahmequelle für den Betreiber zu werden. In diesem Wettbewerb hat derjenige gewonnen, dessen Seite die höchsten Einnahmen verzeichnen konnte.

Viele Tipps zur Vorbereitung im Vorfeld der Challenge, also beispielsweise, wie man Nischen findet und nach welchen Kriterien man diese beurteilt (CPC, Suchvolumen u.ä.) zeigt der Initiator Peer Wandiger auf seinem Blog “Selbstständig im Netz”. Erste Nischenseiten-Challenge-Teilnehmer, wie Martin Missfeldt, Sabrina Tietmeyer und Steffen Horstmann haben schon über ihre ersten Schritte gebloggt.

Missfeldt wirft der Challenge den starken monetären Charakter vor, der gegenüber dem Fluss von hilfreichen, wertvollen Informationen durch die Nischenseiten, überwiegt. Was haltet ihr von Nischenseiten und dieser Challenge? Seid ihr der Meinung, dass durch diese Seiten Nischen mit wertvollen Informationen gefüllt werden oder dienen die Seiten nur dem einen Zweck: Geld verdienen?

nischenseiten-challenge-2015

Quelle: Selbstständig im Netz

Alle weiteren Informationen gibt es in Peer Wandigers Blog “Selbstständig im Netz” im Nischenseiten-Challenge Hauptquartier.

Wie verifiziert Google “direct answers” im Knowledge Graph und der One-Box?

2 Kommentare

Vor rund einer Woche teilte Google mit, dass auf den Google Sucheergebnisseiten zukünftig innerhalb des Knowledge Graphs medizinische Informationen eingeblendet werden, sodass zu einer medizinischen Suchanfrage direkt erste Informationen geliefert werden können. Diese Informationen sind von Medizinern gegengecheckt worden, sodass sie glaubwürdig sind:

We worked with a team of medical doctors (led by our own Dr. Kapil Parakh, M.D., MPH, Ph.D.) to carefully compile, curate, and review this information. All of the gathered facts represent real-life clinical knowledge from these doctors and high-quality medical sources across the web, and the information has been checked by medical doctors at Google and the Mayo Clinic for accuracy.

Allerdings kann die Suchmaschine nicht alle Informationen von Experten beurteilen lassen – dafür ist die Informationsdichte im Internet viel zu hoch. Daher müssen Algorithmen und Automatismen her, die die Glaubwürdigkeit von Informationen prüfen und beurteilen. Denn Google will sich ja, wie im Geschäftsbericht 2014 offiziell angekündigt, zu einer “Findesuchmaschine” entwickeln. Daher müssen die bei einer Suchanfrage präsentierten Antworten natürlich korrekt sein.

Wie beurteilt und verifiziert die Suchmaschine nun die vielfältigen Antworten auf unterschiedlichste Suchanfragen, die beim Crawling gefunden werden? Bill Slawski zeigt auf SEO by the Sea ein Google-Patent, aus dem hervorgeht, wie die Suchmaschine korrekte Informationen aus dem Internet herausfiltert. Dazu sammelt Google viele Informationen aus verschiedenen Quellen zu einer Suchanfrage. Wenn mehrere Quellen ein und dieselbe Antwort liefern, ist die Wahrscheinlichkeit hoch, dass diese Antwort korrekt ist:

A hypothetical fact that is supported by at least a certain number of documents, and is not contained within another fact with at least the same level of support, is presented as likely correct. Quelle: SEO by the Sea

Diese Informationen müssen natürlich strukturiert und vereinheitlicht werden. Diese Aufgabe übernehmen die Google-Hausmeister – Bill Slawski stellt die verschiedenen Varianten und das dazugehörige Google-Patent vor: Mechanism for managing facts in a fact repository

Google One-Box _Alter Heinz Erhardt

Bei der Suchanfrage “Alter Heinz Erhardt” zeigt die Suchmaschine eine direkte Antwort an – eine Quelle jedoch nicht.

Knowledge Graph_Heinz Erhardt

Beim Suchbegriff “Heinz Erhard” zeigt der Knowledge Graph einen kurzen Ausschnitt aus der Wikipedia an – und nennt die Quelle.

Wie denkt ihr über die Entwicklung von Google von einem “Quellengeber” zu einem “Antwortgeber”? Verlasst ihr Euch auf die direkten Antworten der Suchmaschine oder prüft ihr sie anhand von weiteren Quellen nochmal nach?

Der Artikel zum Thema von Bill Slawski: How Google Was Corroborating Facts For Direct Answers

Wie vermeidet man Duplicate Content bei zwei verschiedenen Startseiten-URLs?

Kommentar verfassen

Stellt Euch folgendes Szenario vor: Eure Homepage ist standardmäßig durch Euer Content-Management-System (CMS) unter der URL “http://www.domainxyz.de/index.php” erreichbar, wird allerdings von anderen Websites nicht genau mit dieser URL verlinkt, sondern mit “http://www.domainxyz.de”. Laut Sammy Zimmermann könnte dies für Google Duplicate Content darstellen.

Um das zu vermeiden schlägt er eine Default-Dokumentweiterleitung vor, denn eine 301-Weiterleitung würde zu folgendem Problem führen: Wenn nun eine Weiterleitung von der URL mit index.php auf die URL ohne eingerichtet wird, dann wird der Server, falls ein Besucher über “http://www.domainxyz.de/index.php” auf die Website kommt auf die URL “http://www.domainxyz.de” weiterleiten wie gewünscht, jedoch per Default versuchen die URL mit index.php zu laden, da es ja die Startseite ist. Eine Default-Dokumentweiterleitung kann jedoch Abhilfe schaffen – wie diese technisch umgesetzt wird, zeigt Zimmermanns auf seinem Blog.

Das Problem betrifft laut Zimmermanns besonders ältere Content-Management-Systeme, wie beispielweise Gambio, WordPress und Co. haben dieses Problem nicht.

Fehlende Daten in Google WMT – Relaunch der Search Query Reports als möglicher Grund?

2 Kommentare

Wie mehreren Medien in den letzten Tagen berichteten sind seit dem 8. Februar keine aktuellen Zahlen zu Suchanfragen in den Webmaster Tools von Google verfügbar. So schrieb SEO Südwest, dass die Einführung von erweiterten Search Query Reports dafür verantwortlich sein könnten. Auch Barry Schwartz berichtete auf Search Engine Land von fehlenden Daten.

Könnte die Verzögerung der Datenlieferung an den neuen Search Query Reports liegen, oder gibt es eine andere Ursache? Jennifer Slegg berichtete auf The SEM Post, dass in einem Thread in Googles Webmaster Help Forum von einem bekannten Problem die Rede sei, dass aktuell behoben würde.

“This is a known issue and should be fixed in a few days or so” Zitat von “travler.” im Webmaster Help Forum

Auf den Google+-Post von Jennifer Slegg zu ihrem aktuellen Artikel antwortete John Mueller von Google, dass die Datenlieferung zurzeit in “der Aufholjagd” ist, aber noch nicht bei allen Webmastern angezeigt wird.

John Mueller Antwort auf Jennifer Slegg Post_Google+

Quelle: Google+

Was nun wirklich der Grund dafür war, dass seit dem 8. Februar keine aktuellen Zahlen zu Suchanfragen in den Webmaster Tools angezeigt wurden, ist unklar. Werden bei Euch mittlerweile wieder aktuelle Daten (oder Daten seit dem 8. Februar) angezeigt?

Starke Ausschläge von SEO Wetter in den letzten Tagen sind auf “Algorithmus-Optimierungen” zurückzuführen

1 Kommentar

In den letzten Tagen gab es in der SEO-Szene einige Berichte über ein mögliches großes Update eines der Google Algorithmen. So berichtete Barry Schwartz auf Search Engine Roundtable, es könne sich um ein Panda-Update handeln – auch Christian Kunz von SEO Südwest berichtete darüber. Die Daten von SEOlytics und das SEO Wetter zeigten auch starke Hinweise auf ein mögliches Algorithmus-Update – besonders ab Mittwoch (4.2.) gab es starke Schwankungen in den Rankings.

Ranking-Dynamik Februar 2015

Quelle: SEOlytics

SEO Wetter Jan:Feb 2015

Quelle: Seowetter

Heute präsentierte Barry Schwartz dann die Auflösung und offizielle Aussage von Google: Es war kein Algorithmus-Update.

Google äußert sich zu den Spekulationen eines möglichen Updates in den letzten Tagen: “as usual, we’re continuing to make tweaks, but we don’t have a specific “update” to announce.” Quelle: Search Engine Roundtable

Es sind definitiv Ausschläge zu verzeichnen, jedoch handele es sich nur um “tweaks”, also Optimierungen seitens Google.

Befragung zeigt: Interesse an negative SEO groß – jedoch allgemeingültig?

4 Kommentare

Die britische SEO-Agentur “Reboot” hat in einer Befragung von 81 lokalen Unternehmen aus unterschiedlichen Branchen herausgefunden, dass rund 50% der angefragten Unternehmen an “negative SEO”-Maßnahmen interessiert wären, um lästige Wettbewerber von den vorderen Plätzen in den SERPs bei Google zu verdrängen.

James Hayden von Reboot gab sich dazu als Mitarbeiter einer fiktiven “Negative SEO-Agentur” aus und sendete eine E-Mail an 84 Unternehmen verschiedener Branchen, wie Rechtsanwälte, Dachdecker, IT-Dienstleister, Reinigungsdienstleister u.ä. In dieser E-Mail versprach er, dass er mithilfe von “negative SEO”-Maßnahmen dabei helfen könnte Wettbewerber in den Google-Rankings loszuwerden, sie also von den vorderen Positionen zu verdrängen. Von den 84 Unternehmen antworteten rund 61 – also rund drei Viertel (72,62 Prozent). Rund die Hälfte aller Antwortenden akzeptierten direkt eine solche Attacke auf ihre Wettbewerber, 31,1% der Antwortenden baten um mehr Informationen – waren aber nicht abgeneigt. Nur rund ein Viertel lehnte eine “Negative SEO”-Attacke ab.

Negative SEO-Befragung_Reboot_Rückmeldungen gesamt Antworten der Rückmeldungen_Reboot-Negative SEO

Erschreckende Zahlen, oder? Aufgrund der relativ kleinen Menge der Befragten kann die Untersuchung natürlich nicht verallgemeinert werden, dennoch geben die Ergebnisse zu denken. Was meint ihr?

Die vollständige Auswertung und die E-Mail an die Unternehmen im Original findet ihr auf der Reboot-Seite: Shocking research reveals:79% of online companies willing to sabotage competitor’s website.

SISTRIX IndexWatch 01/2015

Kommentar verfassen

Der IndexWatch von René Dhemant für die Monate Dezember 2014 und Januar 2015 steht bereit. Warum Dezember? Da zu Beginn des neuen Jahres zugunsten der Gewinner und Verlierer 2014 auf einen IndexWatch für den Dezember des Jahres 2014 verzichtet wurde, wird dieser nun nachgeholt und zusammen mit den Ergebnissen des IndexWatch vom Januar 2015 präsentiert.

IndexWatch Symbolfoto

Im Dezember wurde die Domain verseschmiede.com scheinbar aus einer manuellen Penalty entlassen und konnte einen Teil der alten Rankings zurückgewinnen. Hart traf es dagegen ein Umzugsunternehmen aus Berlin – Dhemant spekuliert gar, dass es sich um Negative SEO-Maßnahmen handeln könnte: Verlust der Sichtbarkeit um 76,46%.

Im Dezember unterzog Germanwings seiner Website ein Redesign und änderte auch gleich die Verzeichnisstrukturen – die Rankings kamen im Januar wieder zurück, sodass Germanwings mit einem Plus von 263,27% im Sichtbarkeitsindex das Feld der Gewinner 2015 anführte. Zu den Verlierern im Januar 2015 zählen der Reiseanbieter tjaereborg.de (-71,47%), das Job-Portal haz-job.de (-50,11%) und die Luxus-Hotelkette kempinski.com (-27,82%). Warum diese Verluste in der Sichtbarkeit verzeichnen mussten, könnt ihr im aktuellen IndexWatch nachlesen.