Protection/configuration de l'accès à certains documents
Configuration du serveur WWW pour protéger certains répertoires
-
deux niveaux:
- restrictions par configuration du serveur
- restrictions par répertoire
-
deux bases d'identification:
- adresse de la machine (symbolique ou numérique)
- identification de l'utilisateur
Restrictions globales
Restrictions/configuration par répertoire
Identification de l'utilisateur
-
Un programme de gestion du fichier de mots de passe est généralement
fourni avec le logiciel serveur:
/user/ub2/eao/htpasswd
Pour définir un nouveau mot de passe:
"/user/ub2/eaohtpasswd .htpasswd
UserName"
en supposant que l'on se trouve dans le répertoire contenant le fichier de mots de passe (.htpasswd) - Format du fichier de définition de groupes
Exclusion volontaire des robots
-
au niveau du serveur Web: un fichier robots.txt se trouvant dans le
répertoire racine du serveur peut contenir des directives destinées
aux robots visitant le site. Les directives sont du genre:
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/ -
au niveau de documents individuels: ajouter dans la section <head>
une marque du genre
<META NAME="ROBOTS" CONTENT="NOINDEX, NOFOLLOW">
où NOINDEX indique que le document ne doit pas être indexé et NOFOLLOW indique que les liens ne doivent pas être suivis
- Voir la documentation Apache, plus particulièrement Apache directives et Core Features
- Voir la documentation NCSA HTTPd, plus particulièrement la documentation de configuration et, de là, "Access Configuration" (copie locale). Voir aussi la documentation de la directive Limit dont une copie locale est disponible.
- Web Server Administrator's Guide to the Robots Exclusion Protocol
- HTML Author's Guide to the Robots Exclusion Protocol
- Web Server Administrator's Guide to the Robots META tag
- HTML Author's Guide to the Robots META tag