Je ne suis pas une machine ! Ou l’on parle de humans.txt

Une initiative intéressante du collectif humants.org : le fichier humans.txt, contraction de « humans » et de « robots.txt ». Un humain, on sait tous ce que c’est, mais robots.txt, qu’est-ce ? C’est un fichier texte présent à la racine des sites web et renfermant des instructions à l’attention des robots du net qui collectent des informations relatives aux sites qu’ils visitent. Par exemple, on peut laisser des instructions dans ce fichier demandant au robot d’indexer que tel ou tel répertoire du site.

Un fichier par et pour les humains

le fichier « humans.txt » est lui imaginé pour les humains, il n’a pas de raison d’exister sur le plan technique et le site fonctionnera ni mieux ni moins bien, avec ou sans sa présence. On frôle la poésie. Son contenu comporte des informations sur les personnes à l’origine du site l’accueillant : le créateur, le développeur, le graphiste, mais aussi des remerciements pour les contributeurs ou inspirateurs. Bref, que des infos inutiles techniquement mais importantes humainement.

Structure

Afin de faciliter la consultation et la rédaction de ce fichier, sa structure répond à un semblant de norme dont on peut voir des exemples ci-dessous… Ou chez nous !

Faut-il obligatoirement le créer ?

Non, l’unique but de ce fichier est de connaître les contributeurs d’un site… Les humains.

Derniers articles

Share on facebook
Share on google
Share on twitter
Share on linkedin
Share on email