Seufz, also gut, dann nochmal von vorn:
Man kann die Indexierung von Forenbeiträgen durch Suchmaschinen zulassen oder nicht zulassen. Das ist eine individuelle Entscheidung, die jeder Forenbetreiber treffen kann. Es gibt jeweils gute Gründe für beide Richtungen.
Wie Sankt Peter es gerne hätte hat er bisher nicht gesagt. Die Mehrheit hier im Forum ist offensichlich dafür die Indexierung von Forenbeiträgen durch Suchmaschinen zuzulassen, deshalb gehe ich davon aus, dass er das so einstellen wird.
Aber selbst wenn man die Indexierung zulässt, sollte man die Crawler/Spider von anderen Bereichen der Webseiten fernhalten, im Admin-Bereich haben die z.B. nix zu suchen, die Serverlogs müssen sie nicht unbedingt verlinken, ein paar Skripdateien ausführen wäre auch nicht so toll. Einen Google-Treffer um beim Thread "Worauf freut Ihr Euch in Essen?" sofort eine Antwort hinzuzufügen braucht man auch nicht wirklich. Wenn es eine Seite für eine Druckvorschau gibt, bei der dieselben Inhalte nochmal dargestellt werden, führt das vermutlich sogar zu einer Reduzierung im Ranking (Strafe für doppelte Inhalte), das wird zumindest gemunkelt. Deshalb sperrt man üblicherweise ein paar Bereiche entsprechend ab. Eigentlich den ganzen Müll mit dem Google & Co eh nichts anfangen können.
Des weiteren sind inzwischen tausernde Crawler und Spider im Netz unterwegs, um Daten zu sammeln: E-Mail-Adressen werden abgegriffen, Bilddateien werden abgegriffen, es wird über Crawler nach Markenverstössen gesucht, um Abmahnungen zu verschicken, Content wird einfach abgegriffen zur Weiterverwertung.
Diese "bösen" Crawler, User-Agents oder wie immer man sie nennen mag möchte man eigentlich nicht haben. Und viele lassen sich tatsächlich blocken.
Diese weiteren unerwünschten Crawler verursachen zudem einen erheblichen unerwünschten Traffic und bremsen die Webseite unnötig aus, wenn mal wieder der x-te Crawler vorbeikommt und alle Inhalte abgreift.
Deshalb sollte man sich durchaus mal die Mühe machen eine ordentliche robots.txt Datei zu erstellen, um
- qualitativ bessere Treffer bei Google & Co zu gewährleisten
- unnötigen Traffic zu reduzieren, damit die Webseite schneller wird
- ein paar unerwünschte Gäste fernzuhalten
Ihr diskutiert irgendwie noch um den allerersten Punkt im ersten Absatz, aber an dem Punkt sind wir eigentlich schon längst dran vorbei...