Wer heutzutage einen Onlineshop betreibt, bindet diesen oftmals auch über das Google Merchant Center (ehem. Google Shopping) an eine Google AdWords Kampagne an.

Hierbei gibt es zu Beginn oft ein paar kleinere Herausforderungen und Anforderungen von Google, wie der Produktdatenfeed aufgebaut sein soll, damit die Artikel zuverlässig in der Google Suche angezeigt werden.

Doch weiterführend kann es dennoch passieren, dass die korrekten Datenfeeds im Google Merchant Center abgelehnt werden. Doch warum?

robots.txt Einträge führen zu Ablehnung

Google Merchant Center
Denn obwohl der Produkt-Datenfeed für die Artikel im Google Merchant Center korrekt umgesetzt wurde, kann eine zu streng definierte robots.txt zur Ablehnung aller oder vieler Artikel führen.

Hierbei stellt jedoch nicht der Ausschluss von konkreten Zielunterseiten für die Produkte das Problem dar, sondern insbesondere weiterführende Inhaltsseiten, welche rechtlich gesehen in einem Onlineshop zwingend vorhanden sein müssen.

Insbesondere handelt es sich hier um Seiten der AGBs, der Datenschutzerklärung, der Versand und Zahlungsbedingungen, der Rückgabebedingungen, des Widerrufsrechts und des Impressum.

Werden diese Unterseiten in der robots.txt vom Google Crawling aus dem Index ausgeschlossen, kann dies laut des Google-Support trotz korrekter Datenfeeds zu einer Ablehnung der Artikel führen.

Ursache für die Ablehnung im Google Merchant Center

Der Grund hierbei ist eigentlich ganz einfach. Wenn Google auf der entsprechenden Seite bzw. dem Onlineshop keine rechtlich relevanten und vorgeschriebenen Inhalte finden kann, muss Google davon ausgehen, dass die Seite im Sinne des Online-Handel nicht rechtssicher ist bzw. juristisch relevante Texte nicht vorhanden sind.

Ablehnung von Artikeln im Google Merchant Center vermeiden

Beispiele für problematische Ausschlüsse in der robots.txt sind vor allem die unten genannten Einträge:

Disallow: /versand-und-zahlungsbedingungen
Disallow: /rueckgabe
Disallow: /widerrufsrecht
Disallow: /agb
Disallow: /datenschutz
Disallow: /impressum

In einem aktuellen Projekt, bei deren Pflege und Betreuung ich hinzugezogen wurde ergab sich genau diese Situation.

Nach der Entfernung der Ausschlüsse in der robots.txt, der erneuten Übertragung der Produktdaten-Feeds im Google-Merchant-Center und ein wenig Geduld über 2-3 Tage, schlichen sich alle damit verbundenen Fehler nach und nach aus.

Fazit

Im Internet gibt es zuhauf Anleitungen und Hinweise, wie man bestimmte Unterseiten wie die oben genannten aus dem Google Index ausschließt. Nicht thematisiert wird hierbei jedoch, weshalb man dies konkret machen sollte.

Oft wird damit argumentiert, dass man diese Bereiche ausschließen kann „wenn man das nicht möchte“. Doch das ist eigentlich völliger Blödsinn.

Wenn man einen Onlineshop betreibt und auch mit seinem Namen dafür steht, steht es eigentlich außer Frage, warum man diese Angaben nicht auch in der Google-Suche auffindbar machen sollte.

An oben genanntem Beispiel zeigt sich, welche umfassenden negativen Auswirkungen ein unbedachter Ausschluss juristisch relevanter Unterseiten haben kann.

Ich empfehle, sich jedes Mal konkret darüber Gedanken zu machen und sich auch weiterführend mit den damit verbundenen Auswirkungen zu beschäftigen, bevor man unbedacht diese Maßnahmen ergreift und gegebenenfalls auch auf die Empfehlung eines „Profis“ hört, „weil man das eben so macht“.

Denn nur weil es viele machen, bedeutet dies nicht dass dies auch richtig ist.