Streng genommen ist diese Art dem Bots mit zu teilen überholt und es sollte etwas sichereres her.
Angenommen man lädt Urlaubsbilder oder Sonstiges hoch und will diese an seine Kumpels weiter geben.
Jetzt kommen aber die Bots und wissen ah haaa, das Verzeichnis mit dem Inhalt steht nicht in der robots.txt also darf ich da rein und sämtlichen Inhalt verfügbar machen für Google, Yahoo usw.
Da sollte es etwas geben wie:
Deny all exept
/img/*
/sites/*
Oder so ähnlich.
Gibt es doch:
User-Agent: * Disallow: * Allow: /img/* Allow: /sites/*
Mal ganz davon abgesehen finden Suchmaschinen den "Link für deine Kumpels" nur, wenn er irgendwo im Internet steht.
Der Google Spider-Bot geht auf neue Internetseiten, schaut welche Links da sind, merkt die sich für später, analysiert dann die aktuelle Seite, und macht dann mit den für später gemerkten Links weiter.
Wenn dein Link nirgendwo steht wird er nicht indiziert.
Wie @niduroki schon sagte kann man das.
Es ist aber eh eine reichlich bescheidene Idee private Bilder oder generell private Daten einfach so auf eine Website zu stellen. Bebnutze doch wenigsten Google Drive, Mega, mach ein 7z Packet mit passwort und verschicke es, wahlweise mit PGP.
Die Idee ist wirklich reichlich dämlich, vorallem wenn man sich dann wundert und ärgert, wenn es aufeinmal öffentlich ist. Konnte ja niemand ahnen...