Guten Morgen,
für den Betrieb von SIQUANDO Pro Web 6 wird kein physikalische robots.txt angelegt und auch nicht benötigt.
LÖSCHE die im Root-Verzeichnis manuell angelegte physikalische robots.txt !!! (Diese wird sonst vorrangig zu Pro Web von den Suchmaschinen verwendet).
Mit LÖSCHEN des robots.txt gibst du das Crawlen der Suchmaschinen frei. D.h. kein robots.txt vorhanden, keine Einschränkung zum crawlen der gesamten Webseite.
Wenn sich die Datei robots.txt nicht löschen lässt, dann kontaktiere deinen Web-Provider und bitte ihm für dich diese Datei robots.txt zu löschen.
In die Datei robots.txt (robots.txt.php, die anschließend als robots.txt aufrufbar ist) wird von ProWeb automatisch von den Häkchen "Von Index ausschließen (noindex)" in den jeweiligen Eigenschaften der Ordner und Seiten im ProWeb-Client gesteuert. Es werden nur die "Von Index ausschließen (noindex)" markierten in robots.txt eingetragen die auch markiert sind. Die nicht markierten werden gar nicht eingetragen.
Empfehlung: Kontrolliere alle Eigenschaften (Ordner und Seiten und natürlich die Webseite-Eigenschaften und Startordner) ob auch wirklich das Häkchen bei "Von Index ausschließen (noindex)" NICHT gesetzt ist.
Zusammenfassung in Kurzform:
- LÖSCHE die manuell angelegte physikalische robots.txt !!!
- Kontrolliere meine beschriebene Empfehlung
UND ZUM SCHLUSS:
Abwarten und Tee trinken, bis Google eine Webseite neu versucht zu crawlen, denn das findet ja nicht ständig statt. Änderungen werden erst nach erneuten Crawlen der Suchmaschine bei deren Suchergebnisse erst bemerkbar.
Übrigens, der Support von SIQUANDO hat die bereits alles gesagt (entsprechend deiner Beschreibung) was du tun kannst. Alles andere (falls die Datei robots.txt sich nicht löschen lässt oder anpassen lässt / -> Disallow: / löschen), musst du mit dem Support von deinem Web-Provider klären bzw. löschen oder anpassen lassen.
Mit freundlichen Grüßen
Thomas
Web To Date seit 2004, Siquando Web 12, Pro Web 9, Web Client