SEO-Experten weltweit diskutierten schon lange, ob die Veröffentlichung von Abertausend neuer oder zusätzlicher Webseiten sich schädlich auf das Ranking bei Google auswirken könnte. Was würde wohl passieren, wenn ein Unternehmen beispielsweise 50.000 neue oder zusätzliche Produkttexte an den Start bringt? Diese Fragestellung ist nicht abwegig. Kunden, die auf eine automatisierte Betextung setzen und einen Textroboter dafür nutzen, stehen nicht selten vor dieser Überlegung.

In Fachkreisen wurde ob der möglichen Auswirkungen viel gestritten. Ist es gut, so viel frischen Content an den Start zu bringen?  Wirkt es sich eher negativ auf das Ranking aus? Oder ist es völlig egal?

Da es bis dato nie eine offizielle Aussage von Seiten Googles dazu gab, lautete das Credo: Lieber auf Nummer sicher gehen und in Tranchen veröffentlichen – sicher ist sicher.

Erstmals ein klares Statement

Jetzt hat John Müller, Google-Manager und einer der obersten Webmaster des Suchmaschinengiganten, genau zu diesen Fällen in einer Experten-Fragestunde konkret Stellung bezogen. Auf die Frage, ob es O.K. sei 100.000 Webpages auf einmal zu veröffentlichen, stellte dieser fest: „Klar, kein Problem!“

Es sei aus SEO-Sicht absolut in Ordnung alles auf einmal zu veröffentlichen. Das einzige was sichergestellt sein muss ist, dass der neue Content für Google erfassbar ist und der Webserver mit den Abfragen des Google-Bots umgehen kann.

„Auf einen Rutsch“ sollte klare Präferenz sein

Weiter noch: Müller spricht sich dediziert gegen eine häppchenweise Veröffentlichung aus. Der Aufbau des Suchmaschinenindex sei insgesamt unproblematischer, wenn er nicht Stück für Stück durch neue Ergebnisse des Bots zusammengefügt werden müsse.

Damit ist klar: Wer auf automatisierte Betextung setzt und mit Hilfe eines Textroboters jede Menge frischen und uniquen Content produzieren lässt, kann diesen adhoc veröffentlichen. Und genauso ist es auch gedacht.

Hier das Interview mit der Frage und Müllers Antwort darauf im Video (ab 19:12)

Hier der transkribierte Text im Original:

Can I publish a hundred thousand pages at once?

Sure! No problem.

I think the the biggest impact, the biggest effect you’ll see is that Googlebot will try to crawl a lot of pages. Especially if it’s a larger well-known site, where we already know that crawling pages and indexing pages from that site makes a lot of sense. Then we’ll probably kind of try to crawl a lot of pages on your server and it will be good if your server had the capacity to deal with that.

But from an SEO point of view that’s generally not an issue.
Some sites put their archive online all at once. I think kind of artificially introducing a kind of a trickle into the index is something that often causes more problems than it solves anything. So obviously putting a hundred thousand pages online all at once doesn’t mean that these pages will rank all at once immediately. It’s still going to take time for us to actually rank those pages properly in the search results. But I don’t see anything against putting them all on online.

Weitere Beiträge zum Thema Textroboter:

Share post: