<

Onlinemarketing News

11. Dezember 2012
|

Tool Time – Google droht Toolanbietern mit API-Entzug

Teile wenn es gefällt ... Share on Facebook0Tweet about this on Twitter0Share on Google+21Share on LinkedIn0Email this to someone

In den vergangenen Wochen ging es heiß her zwischen Google und einigen SEO-Toolanbietern. Auslöser war die Androhung von Google gegenüber Raven (bindet SEMrush-API ein) und SEOmoz, die Adwords-API zu sperren, sollten diese weiter die Google-Suchergebnisse scrapen.


Am vergangenen Freitag erklärte Raven nun, zum 2. Januar 2013 keine gescrapten Google-Daten mehr auszuliefern und beugte sich somit als erster Toolanbieter der Androhung. Ob und wie SEOmoz mit der Problematik umgeht, ist nicht bekannt.

Google scheint nun also auch einen aggressiveren Kurs gegen Toolanbieter zu fahren, die unerlaubt Suchanfragen scrapen, um diese anschließend als Rankingdaten weiter zu verkaufen. Sofern diese Toolanbieter gleichzeitig über einen Adwords-API Account verfügen, kann Google Druck aufbauen.

Auch deutsche Toolanbieter wie Sistrix, Searchmetrics oder SEOlytics könnten somit in den Fokus von Google rücken. Die verzögerte Auslieferung der Sistrix-Rankingdaten in dieser Woche sowie der “Wasserschaden” bei SEOlytics heizen die Gerüchte an, dass auch deutsche Tools Probleme haben.

Meldung zum Wasserschaden im SEOlytics Rechenzentrum

Meldung zum Wasserschaden im SEOlytics-Rechenzentrum

Wir sind gespannt, wie sich diese Thematik weiter entwickelt und ob auch deutsche Tools betroffen sind.

Mich würde interessieren, was ihr darüber denk! Was wäre SEO ohne Rankingdaten noch wert?

[Edit 12.12.2012]: Johannes hat mich gerade darauf aufmerksam gemacht, dass die Sistrix Daten in dieser Woche so pünklich wie sonst auch veröffentlich wurden. Es gab also keine Verzögerung seitens Sistrix.

Weitere Artikel zum Thema:

0

Kommentare

Loading Facebook Comments ...

22 Comments

  1. Antworten

    Martin

    11. Dezember 2012

    Was ich persönlich krass finde: Google selbst "scraped" ja das "ganze Internet", also nicht nur für Texte im Bereich der Textsuche. Nein, auch Bilder werden geholt und ganze Bibliotheken werden/sollen einverleibt werden.

    Aber wenn jetzt ein paar Toolanbieter die Google-Ergebnissseiten "abgrasen", dann will Google nicht? Ich mein, so viele Tools sind das jetzt auch nicht, dass die Serverlast bei Google signifikant einsteigt, oder?

    Oder übersehe ich da einen Unterschied?

  2. Antworten

    Johannes

    11. Dezember 2012

    Es gab diese Woche keine verzögerte Auslieferung der Sistrix-Daten.

  3. Antworten

    Fabian

    11. Dezember 2012

    Die Geschäftspolitik von Google ist schon immer umstritten. Da passen die agressiven Handlungen gegenüber den Toolanbietern. Mich wundert es nicht. Ich glaube aber, die Toolanbieter werden in der Zukunft noch mit einem anderen viel größeren Problem zu kämpfen haben: die Suchergebnisse werden immer stärker personalisiert werden, so dass es gar keine klaren Positionsangaben mehr geben wird. Eine neutrale Abbildung der Positionierung wird dann auch für den Toolnutzer wenig hilfreich sein. Man will ja schließlich seine Zielgruppe erreichen und die wird in der Regel über entsprechendes "Suchprofil" verfügen, was wohl selten zu einem neutralen, anonymen Profil passt. Wie die Toolanbieter dieses Problem lösen wollen, ist mir bislang unklar.

  4. Antworten

    Sören Bendig

    11. Dezember 2012

    Was hat ein Schaden im Rechenzentrum mit der Google API zu tun? FYI: Über diese API werden eh keine Ranking Daten erhoben. Stefan, die Vermischung von verschiedenen Sachverhalten in diesem Blogpost resultiert in eine insgesamt unqualifizierte Aussage. Diesbezüglich würde ich entweder anständig recherchieren oder solche "Effekthaschereien" lieber lassen.

    • Antworten

      Stefan Köhn

      11. Dezember 2012

      Hallo Sören, in dem Fall von Raven und SEOmoz wurde von Google angedroht, die Adwords-API abzuschalten, wenn das automatisierte Scrapen der SERPs nicht unterbunden wird. Mir ist bekannt, dass man über die API keine Rankingdaten ziehen kann. Google übt jedoch über den API-Zugang, auf den die Toolanbieter angeweisen sind, Druck auf sie aus.

      Bezüglich des Wasserschadens gebe ich hier nur wider, was ich an Munkeleien aus der SEO Szene gehört habe.

  5. Antworten

    Sebastian

    11. Dezember 2012

    Hm. Es ist eher unwahrscheinlich, dass Googles Ressourcen durch die Toolanbieter im Vergleich zu den normalen Suchanfragen derart in die Knie gezwungen werden, dass Google sich den Aufwand macht da offen gegen Toolanbieter vorzugehen. Vielleicht versauen die automatisierten Anfragen viel mehr v.a. für Moneykeywords neue, zentralere Metriken (SERP-CTR usw.)?
    Vielleicht erleben wir 2013 auch endlich eine offizielle, kostenpflichtige SERP-API von Google. Dann können sich die Toolanbieter die hunderten Abfrageserver sparen und Google verdient ein paar Dollar mehr. :)

    • Antworten

      Christian Paavo Spieker

      12. Dezember 2012

      Da gebe ich Dir Recht! Google soll doch eine anständige API zur Verfügung stellen für die SERPS und dafür richtig abkassieren, schließlich sind die SERPS ja kein Geheimnis (-:

  6. Antworten

    Andor

    11. Dezember 2012

    Hey Stefan,

    hier was zu dem gleichen Thema bei SEOmoz:
    http://www.seomoz.org/q/loss-of-google-adwords-api

  7. Antworten

    Martin

    11. Dezember 2012

    Es gibt verschiedene Crawling-Technologien. Ich denke nicht dass die Toolanbieter künftig daran gehindert werden können die Daten zu erheben. Da müsste Google einige größere Änderungen vornehmen die viele Nachteile für die normalen User hat.
    Trotzdem ist das mit Raven sehr interessant - mal sehen wo die Reise zumindest in den USA hingeht...

  8. Antworten

    Marcel

    11. Dezember 2012

    Ich glaube ja das Google immer mit allem Geld verdienen will und denke daher dass Sebastian der Wahrheit da wohl sehr Nahe gekommen ist. SEO Tools sind mittlerweile doch auch ein eigenes Geschäftsfeld und wieso sollte BIG G sich nicht seinen Share holen. Nicht umsonst werden die Webmastertools immer mächtiger und mich würde es nicht wundern wenn wir auch dafür irgenwann zghlen müssen...

  9. Antworten

    Julian

    11. Dezember 2012

    Google kann die Toolanbieter super easy davon abhalten die Ergebnisse zu crawlen und zum Teil tun sie dies auch schon seit längerem. Aber nur zum Teil, denn so richtig wollen sie es anscheinend noch nicht und die Probleme die die Tools bisher gehabt haben sind eher darauf zurückzuführen dass Google Angriffe vermutet als dass sie die Toolanbieter sperren wollen

  10. Antworten

    Carsten Appel

    12. Dezember 2012

    Ich finde die Ravenvorgehensweise vom Ansatz sehr korrekt. Sie wollen ihr Geschäftsmodel nicht mit illegal erworbenen Daten aufbauen. Daher denke ich, dass auch unsere "Großen" früher oder später Probleme bekommen werden, da dass maschinelle Auslesen der Daten verboten ist.
    Unser Tool Serpos wird im nächsten Jahr auch keine Daten mehr direkt erfassen, sondern nur noch über API sich füttern lassen.
    Bin gespannt wo die Reise hinführt.

    Viele Grüße aus dem verschneiten Rostock

    Carsten

  11. Antworten

    Marcell

    12. Dezember 2012

    @Julian: "Google kann die Toolanbieter super easy davon abhalten die Ergebnisse zu crawlen" - wie geht das Deiner Meinung nach? Eine unbegrenzte IP-Anzahl von Proxy-Servern blacklisten? Bin auf Dein Feedback gespannt.

  12. Antworten

    Sergej

    12. Dezember 2012

    Hallo,

    mal ganz ehrlich, könnte es dann der Anfang von Googles-Ende sein? Wenn Google am Ende "seine Daten" immer öffter gegen Bezahlung zur Verfügung stellen wird, dann würde man doch eine andere SuMa suchen, oder? Google ist zwar groß aber nicht in jedem Bereich schreiben die schwarze Zahlen. stellt man vor, 25% von allen User wandern zu XYZ-SuMa. was dann?

    Gruß

  13. Antworten

    Julian

    12. Dezember 2012

    Möchte da eigentlich nicht so drauf eingehen ;-) Das Thema ist auch riesig, es gibt soviel was man beim Crawling eigentlich beachten müsste um einen echten User zu faken. Bisher braucht man vieles nicht weils Google wie gesagt nicht stört.

    Aber nehmen wir mal den einfachen Fall von JavaScript Auswertungen. Im Prinzip reicht dies ja schon. Es ist die Frage wieviel echte User surfen wirklich ohne JS, man kann die ja nicht einfach sperren. Stimmt, aber welcher echter User ruft ein KW nach dem anderen auf 10-12 Seiten auf? Und klickt der einfach nur durch oder klickt der auch mal Ergebnisse an? Und dann beim nächsten KW die selbe Geschichte?
    Das Thema ist halt wirklich kompliziert, ich bin gespannt ob der SEO Diver hier vielleicht irgendwann dann eine Rolle spielt, denn die dürften das Problem ja nicht haben.

  14. Antworten

    Christian

    12. Dezember 2012

    @Julian

    die Javascript Variante ist bereits bei Google Teilweise im Einsatz.

    Deaktiviere mal im Browser Javascript und lösche alle Cookies. Anschließend gibts nen paar kleine Auffälligkeiten, die sich in Abhängigkeit der Suchmenge noch verstärken..

  15. Antworten

    Carsten Appel

    12. Dezember 2012

    Julian hat schon recht. Man muss sich nur mal den Quellcode von der Bildersuche ansehen. Der basiert schon auf JS und dann dürfen die Crawler erst einmal Javascript lernen.

  16. Antworten

    Sebastian

    13. Dezember 2012

    Es wird sicherlich immer einen Weg geben, wie "man" die Daten aus den SERPs erhält - es wird eben aufwändiger und kompexer, und dann letztendlich teurer für die Toolnutzer. Aber an die "weniger öffentlichen" Daten zu kommen, die man derzeit nur über die AdWords-API (v.a. Suchvolumen usw.) erhält, wird dann schon echt eine Herausforderung in der von Toolanbietern benötigten Menge.

  17. Antworten

    Jürgen

    13. Dezember 2012

    Ich denke, dass die Aktion von Google total überinterpretiert wird.

    Ich weiß von einem deutschen SEO-Tool-Anbieter dass schon vor einem 3/4 Jahr der API-Zugang aus diesem Grunde deaktiviert wurde, mit der Begründung, dass man gegen Nummer 2, 3a der Richtlinien verstößt:

    "Übertragung von AdWords-API-Berichtsdaten. Sie dürfen die AdWords API-Berichtsdaten weder ganz noch teilweise verkaufen, verteilen, sublizenzieren oder anderweitig an Dritte weitergeben oder übertragen (mit der Ausnahme, dass Sie berechtigt sind, die AdWords-API-Berichtsdaten eines bestimmten Kontos an den Inhaber dieses Kontos weiterzugeben)."

    https://developers.google.com/adwords/api/docs/terms?hl=de

    Ebenfalls weiß ich, dass Google mit dem API- Zugang schon ungefährt seit dieser Zeit sehr restriktiv umgeht und Tokens wirklich nur noch für Agenturen oder Werbetreibende mit ordentlichen Umsätzen bei genauer Vorstellung der API-Nutzung vergibt.

    Dieser Tool-Anbieter nutzt daher (heimlich) die API von jemand anderen und ich bin eher überrascht dass andere Anbieter tatsächlich die API direkt so noch nutzen konnten.

    Bin mir sicher, dass die Tools die jetzt argumentieren "Wir nutzen die API gar nicht" das genauso machen 8-)

    Ich vermute bei dieser Maßnahme keinen tieferen Sinn von Google, sondern dass einfach bei einem regelmäßigen Check der API-Zugänge festgestellt wurde, dass die Konten wohl kaum Adwords Umsätze haben und ausschließlich Keyword Statistics gezogen wurde -> oben genannter Verstoß.


Sag uns Deine Meinung

Diskutiere mit unseren Autoren zum Thema

Leave a Reply