#1

zytturm

Mitglied  (32 Punkte)  ·   männlich  ·   Schweiz  ·   Nachricht senden
 http://www.drogerie-schilliger.ch

s2dcomplete.php?......... ist googlebar

Liebe Forumianer,

eben hat mich eine Kundin angerufen und mitgeteilt, dass ihre Bestellung vom Juni 2013 im Google gegoogelt werden kann. Und tatsächlich; Auch ich bekam ihre Bestellung angezeigt unter dem Link s2dcomplete.php?................. mit Adresse, Telefonnummer, E-Mail, Trackingnummer und der etwas delikaten Bestellung. Und zwar ist es eine Druckversion.

Wie ist das möglich?

Ich habe jetzt den Auftrag gelöscht und somit erscheint er auch nicht mehr. Wie kann ich aber sicherstellen, dass dies bei anderen Kunden nicht auch passiert? Habe zu Testzwecken andere Kunden gegooglet, jedoch momentan keine anderen Einträge gefunden.

Damals hatte ich noch die Version 7 vom Shop.

www.drogerie-schilliger.ch


Besten Dank für Eure Hilfe und schönen Nachmittag
Ivo

#2

Volker W.

Administrator  (7794 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.warmers.de  ·   vwarmers  ·   vwarmers  ·   volkerw68

Dann scheint diese URL, welche Du ja sinnvollerweise gekürzt hast, aber irgendwo - wo auch immer - verlinkt zu sein. Sonst würde Google diese ja nicht indizieren. Woher soll Google die URL sonst kennen?

Kannst Du mir die URL bitte mal per PN schicken, dann schaue ich mal, wo die verlinkt sein könnte.


Viele Grüße,
Volker

Über mich  ·  Volker W. Musik & Sounds  ·  Facebook  ·  Twitter  ·  Instagram  ·  StayFriends  ·  LinkedIn  ·  XING

#3

Volker W.

Administrator  (7794 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.warmers.de  ·   vwarmers  ·   vwarmers  ·   volkerw68

#4

zytturm

Mitglied  (32 Punkte)  ·   männlich  ·   Schweiz  ·   Nachricht senden
 http://www.drogerie-schilliger.ch

Ich habe die Bestellung gelöscht
Ein Screenshot

Bestellung.gif

 

#5

Thomas

Moderator  (2298 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://siquando-designs.de

Empfehlenswert ist die robots.txt, insbesondere bei Shops entsprechend anzupassen.

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
User-agent: *
Disallow: /assets/
Disallow: /downloads/
Disallow: /printable/
Disallow: /statistik/
Disallow: /mobile/
Disallow: /s2dbskt.php*
Disallow: /s2daddr.php*
Disallow: /s2dbuypd.php*
Disallow: /s2dcomplete.php*
Disallow: /s2ddown.php*
Disallow: /s2dlogin.php*
Disallow: /s2do.php*
Disallow: /s2doemails.php*
Disallow: /s2doclients.php*
Disallow: /s2doorders.php*
Disallow: /s2dopdf.php*
Disallow: /s2doservice.php*
Disallow: /s2dotemplates.php*
Disallow: /s2dother.php*
Disallow: /s2dpaycb.php*
Disallow: /s2dpaymb.php*
Disallow: /s2dpaysu.php*
Disallow: /s2dpayment.php*
Disallow: /s2dpaypp.php*
Disallow: /s2drates.php*
Disallow: /s2dservice.php*
Disallow: /s2dship.php*
Disallow: /s2dsummary.php*
Disallow: /s2duser.php*
Disallow: /s2dws.php*
Disallow: /w2dacl.php*
Disallow: /w2dfgw.php*

 


Viele Grüße
Thomas

siquando-designs.de (NEU: KARO Flex Layout, Santa Cruz Pro für Pro Shop und Apollon 11 für Siquando Shop, Templateübersicht & Support für Shop 11 + Pro Web 8)

#6

Volker W.

Administrator  (7794 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.warmers.de  ·   vwarmers  ·   vwarmers  ·   volkerw68

@zytturm:

Ich kann auch explizit keine Seite finden, auf welcher die von Dir mir per PN mitgeteilte URL verlinkt ist. Dies war aber offensichtlich mal so.


Tipp:

Lege Dir einen Google Webmaster Tools Account an (falls nicht schon vorhanden) und lasse die URL aus dem Google-Index entfernen. Dies dauert i.d.R. nur ein paar Stunden. Das kann ich aus eigener Erfahrung bestätigen.


Wie auch immer der Link in den Google-Index gelangt sein könnte, kannst eigentlich nur Du wissen.


Viele Grüße,
Volker

Über mich  ·  Volker W. Musik & Sounds  ·  Facebook  ·  Twitter  ·  Instagram  ·  StayFriends  ·  LinkedIn  ·  XING

#7

zytturm

Mitglied  (32 Punkte)  ·   männlich  ·   Schweiz  ·   Nachricht senden
 http://www.drogerie-schilliger.ch

Ok, habe ich und mache ich.
Besten Dank für die prompten Rückmeldungen.

Schöner Feierabend und Grüsse
Ivo

#8

Merlin2504

Vielfrager  (1542 Punkte)  ·   männlich  ·   Deutschland

Zitat von: zytturm

Hast du dein Problem lösen können. Genau die Probleme habe ich schon längere Zeit bei unserer Vereinsseite. Habe auch bei Google dei Löschung beantragt. Die Seiten mit der kompletten Bestellung sind immer noch vorhanden.

Unsere Karnevalisten bestellen seitdem nur noch per Mail . smile_mad_16.png

Die robots.txt werde ich jetzt wie Thomas schreibt erstellen.


Ihr könnt mich jederzeit über Facebook kontaktieren. Danke an die Forenmitglieder, die mich kontaktieren.


Dieser Beitrag wurde bereits 1 mal bearbeitet, zuletzt von »Merlin2504« (20.05.2014, 21:01)
#9

Volker W.

Administrator  (7794 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.warmers.de  ·   vwarmers  ·   vwarmers  ·   volkerw68

Zitat von: Merlin2504

Die robots.txt werde ich jetzt wie Thomas schreibt erstellen.

Das ist in jedem Fall sowieso immer sinnvoll.

Paß aber auf, daß Dir Deine robots.txt nicht durch die aus s2d überschrieben wird. ;-)


Viele Grüße,
Volker

Über mich  ·  Volker W. Musik & Sounds  ·  Facebook  ·  Twitter  ·  Instagram  ·  StayFriends  ·  LinkedIn  ·  XING

#10

Merlin2504

Vielfrager  (1542 Punkte)  ·   männlich  ·   Deutschland

Da blöde ist Google. Ich habe die Löschung schon mehrmals beantragt. Die Bestellungen sind immer noch über google zu finden.


Ihr könnt mich jederzeit über Facebook kontaktieren. Danke an die Forenmitglieder, die mich kontaktieren.

#11

Volker W.

Administrator  (7794 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.warmers.de  ·   vwarmers  ·   vwarmers  ·   volkerw68

Es bringt aber nichts, es mehrere Male zu beantragen. Einmal und dann etwas Geduld haben reicht.

I.d.R. ist das ca. einen Tag später aus dem Google-Index. Manchmal dauert's halt zwei Tage, manchmal auch nur wenige Stunden.


Viele Grüße,
Volker

Über mich  ·  Volker W. Musik & Sounds  ·  Facebook  ·  Twitter  ·  Instagram  ·  StayFriends  ·  LinkedIn  ·  XING

#12

zytturm

Mitglied  (32 Punkte)  ·   männlich  ·   Schweiz  ·   Nachricht senden
 http://www.drogerie-schilliger.ch

Hallo Klaus,
ich habe die robots.txt angepasst. Die Webmaster-Tools nehme ich mir auch noch vor.

Schöner Abend und Grüsse
Ivo

#13

Merlin2504

Vielfrager  (1542 Punkte)  ·   männlich  ·   Deutschland

Zitat von: Thomas
User-agent: *
Disallow: /assets/
Disallow: /downloads/
Disallow: /printable/
Disallow: /statistik/
Disallow: /mobile/
Disallow: /s2dbskt.php*
Disallow: /s2daddr.php*
Disallow: /s2dbuypd.php*
Disallow: /s2dcomplete.php*
Disallow: /s2ddown.php*
Disallow: /s2dlogin.php*
Disallow: /s2do.php*
Disallow: /s2doemails.php*
Disallow: /s2doclients.php*
Disallow: /s2doorders.php*
Disallow: /s2dopdf.php*
Disallow: /s2doservice.php*
Disallow: /s2dotemplates.php*
Disallow: /s2dother.php*
Disallow: /s2dpaycb.php*
Disallow: /s2dpaymb.php*
Disallow: /s2dpaysu.php*
Disallow: /s2dpayment.php*
Disallow: /s2dpaypp.php*
Disallow: /s2drates.php*
Disallow: /s2dservice.php*
Disallow: /s2dship.php*
Disallow: /s2dsummary.php*
Disallow: /s2duser.php*
Disallow: /s2dws.php*
Disallow: /w2dacl.php*
Disallow: /w2dfgw.php*

Empfehlenswert ist die robots.txt, insbesondere bei Shops entsprechend anzupassen.

 

 Hier habe ich mich damals etwas weit mit meiner Aussage herausgelehnt. Wo und wie erstelle ich die robots ? Danke für eure Hilfe im voraus.


Ihr könnt mich jederzeit über Facebook kontaktieren. Danke an die Forenmitglieder, die mich kontaktieren.


Dieser Beitrag wurde bereits 4 mal bearbeitet, zuletzt von »Merlin2504« (06.06.2014, 12:49)
#14

Thomas

Moderator  (2298 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://siquando-designs.de

Du erstellst eine Textdatei namens robots.txt und fügst den von mir geposteten Inhalt dort ein. Anschließend lädst du diese Datei per ftp in das Hauptverzeichnis deiner Webseite. Das wars.


Viele Grüße
Thomas

siquando-designs.de (NEU: KARO Flex Layout, Santa Cruz Pro für Pro Shop und Apollon 11 für Siquando Shop, Templateübersicht & Support für Shop 11 + Pro Web 8)

#15

Merlin2504

Vielfrager  (1542 Punkte)  ·   männlich  ·   Deutschland

Danke


Ihr könnt mich jederzeit über Facebook kontaktieren. Danke an die Forenmitglieder, die mich kontaktieren.

#16

Volker W.

Administrator  (7794 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.warmers.de  ·   vwarmers  ·   vwarmers  ·   volkerw68

Das grundsätzliche Problem wird mit dem heute (spätestens morgen) noch erscheinenden Patch für Siquando Shop behoben und damit auch Geschichte sein.

Schaue bitte mal in den Changelog im von mir verlinkten Beitrag.


Viele Grüße,
Volker

Über mich  ·  Volker W. Musik & Sounds  ·  Facebook  ·  Twitter  ·  Instagram  ·  StayFriends  ·  LinkedIn  ·  XING

#17

Uwetronic

As  (149 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.ehl24.de

Sorry das ich das Thema nochmal hoch hole. Da es in der Vergangenheit bei mir auch schon mal dazu gekommen ist das Kundendaten im Netz zu finden waren habe ich schon seit Jahren eine eigene robots.txt. Alles lief seit Jahren ohne Probleme. Bis heute.

Meine robots.txt sieht wie folgt aus:

User-agent: *

Disallow: /fts.idx

Disallow: /assets/

Disallow: /s2dlogin.php

Disallow: /s2duser.php

Disallow: /consumer.php

Disallow: /fts.php

Disallow: /s2dbskt.php

Disallow: /s2daddr.php

 

Sitemap: http://www.elektroartikel-langehein.de/sitemap.xml

Heute teilt mir Google folgendes mit: Die Google-Systeme haben kürzlich ein Problem mit Ihrer Startseite festgestellt, das sich auf das Rendern und Indexieren Ihrer Inhalte durch unsere Algorithmen auswirkt. Der Googlebot kann aufgrund von Beschränkungen in Ihrer robots.txt-Datei nicht auf Ihre JavaScript- und/oder CSS-Dateien zugreifen. Anhand dieser Dateien kann Google feststellen, ob Ihre Website ordnungsgemäß funktioniert. Wenn Sie den Zugriff auf diese Dateien blockieren, kann dies zu schlechteren Rankings führen.

 

In den Webmaster Tools teilt Google mir dann mit das es Zugriff auf folgende

Dateien im Ordner assets haben möchte:

 

lytebox.css

overlib.js

lytebox.js

sf.css

sm.css

s_m.css

ssb.css

s2dput.js

jq.js

 

Ich stehe auf dem Schlauch, soll ich nur den ganzen Ordner assets freigeben?

Ist das überhaupt Ratsam?

Oder wie kann ich diese bestimmten Dateien im Ordner assets freigeben?

 

Danke für eure Hilfe.

#18

Volker W.

Administrator  (7794 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.warmers.de  ·   vwarmers  ·   vwarmers  ·   volkerw68

Wenn Du den /assets Ordner komplett sperrst, kannst Du nicht einzelne Dateien separat von der Sperrung ausschließen. Hebe die Sperrung auf /assets wieder auf und sperre alle nicht gewünschten Dateien einzeln.

Besser als der Weg über die robots.txt ist m.E. jedoch der, über die Webmaster Tools die unerwünschten Seiten vom Index ausschließen zu lassen. Oder verwende einfach beide Möglichkeiten.


Viele Grüße,
Volker

Über mich  ·  Volker W. Musik & Sounds  ·  Facebook  ·  Twitter  ·  Instagram  ·  StayFriends  ·  LinkedIn  ·  XING

#19

Uwetronic

As  (149 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.ehl24.de

Vielen Dank für deine Hilfe. Funktioniert jetzt.

#20

Volker W.

Administrator  (7794 Punkte)  ·   männlich  ·   Deutschland  ·   Nachricht senden
 https://www.warmers.de  ·   vwarmers  ·   vwarmers  ·   volkerw68

2698 Aufrufe | 20 Beiträge