Discussion:
Se premunir contre l'utilisation de r obots
(trop ancien pour répondre)
YoZuK
2007-08-09 17:56:36 UTC
Permalink
Bonjour,

Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.

De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !

Y'a t'il a votre connaissance une solution envisageable !

Bien cordialement,
***@nn
Philippe Le Van
2007-08-10 11:50:41 UTC
Permalink
Post by YoZuK
Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Je vois une solution bêtement pratique : changer la structure
de ta page tous les mois. Test clients ne vont
pas s'amuser à changer leur système de parsing tous
les mois, ils vont être saoulés très vite... (surtout si
à chaque fois ils perdent 5j de données parce qu'ils
n'ont pas vu que ça avait changé...).

Tu peux aussi mettre en captcha à l'authentification.
Théoriquement c'est fait pour (mais c'est bcp plus chiant
pour le client).

A+, Philippe
--
http://www.kitpages.fr
Mickael Wolff
2007-08-10 11:50:41 UTC
Permalink
Post by YoZuK
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Lier contractuellement le client à des conditions d'utilisation, et
facturer les clients contrevenant. Bien sûr, avec suspension du compte
jusqu'à régularisation. On peut assez facilement repérer les tricheurs
en épluchant les log de connexion par exemple.
--
Mickaël Wolff aka Lupus Michaelis
http://lupusmic.org
Denis Beauregard
2007-08-10 18:47:50 UTC
Permalink
Post by YoZuK
Bonjour,
Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Comme le visiteur aura probablement un Windows, et si le serveur
est un Linux ou un Mac, on peut jouer avec la casse des noms de
fichier. Si on a par exemple index.php, Index.php, iNdex.php, etc.,
le site pourrait revenir illisible une fois recopié.

On peut aussi changer la structure selon le visiteur, via un POST.
Ainsi, les visiteurs verront systématiquement les pages 1.php, 2.php,
etc. dont le contenu changera selon le lien.


Denis
Etienne SOBOLE
2007-08-13 09:55:33 UTC
Permalink
C'est un site authentifié ou pas?

S'il est authentifié, tu peux logger les nombres de requetes par minutes
effectué par un user...
Tu te doutes qu'un humain n'est fera pas plus de 15 par minutes !!!
Au dela tu peux commencé a renvoyer n'importe quoi !!!

Si c'est pas authentifié, tu peux faire pareil avec l'adresse ip du
visiteur, mais c'est plus délicat !

voila msieu.
Post by YoZuK
Bonjour,
Je suis en cours de réalisation de notre extranet d'information client et
nous avons besoin de le sécuriser afin que nos clients n'utilisent pas de
Robots (programmes d'extractions automatisés d'infos)... et ce parce que
nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Y'a t'il a votre connaissance une solution envisageable !
Bien cordialement,
Antoine
2007-08-14 13:15:37 UTC
Permalink
Post by YoZuK
Bonjour,
Bonjour
Post by YoZuK
Je suis en cours de réalisation de notre extranet d'information client
et nous avons besoin de le sécuriser afin que nos clients n'utilisent
pas de Robots (programmes d'extractions automatisés d'infos)... et ce
parce que nous avons une offre de WebServices à un tarif différent.
De plus mon patron est contre l'utilisation de codes de sécurité type
images que l'internaute doit resaisir en ligne !
Les images dont le texte est à ressaisir portent le nom de captcha. Tu
pourra trouver plus d'infos et un historique sur
http://fr.wikipedia.org/wiki/Captcha.

Cependant comme ton patron je ne suis pas fan de ce genre de méthode,
inaccessible aux visiteurs atteints de handicaps (visuels notamment),
rébarbative si il y'a beaucoup de formulaires sur un site, etc. Une
autre solution consiste à utiliser un captcha accessible. Tu peux en
trouver un exemple sur
http://www.atelierphp5.com/un-captcha-accessible.html.
Post by YoZuK
Y'a t'il a votre connaissance une solution envisageable !
Je ne parviens pas à retrouver la page sur laquelle j'avais lu de très
bonnes idées il y a quelques semaines. Il s'agissait d'un méthode
utilisant plusieurs champs checkbox cachés grâce au css à la fin de ton
formulaire. Les robots cochent la plupart du temps tous les checkbox
qu'ils rencontrent, tu peux donc vérifier à la réception de ton
formulaire si la deuxième ou la troisième checkbox est seulement
celle-ci est cochée (ce qui correspond à l'état par défaut). Le tri
humain/robot se fait alors facilement.

Cette méthode a l'avantage de ne demander aucune action de la part de
tes clients, en assurant une bonne sécurité. Il est bon d'ajouter une
phrase (cachée aussi) juste avant pour prévenir un visiteur
n'interprétant pas les css de ne rien changer aux cases à cocher.
Post by YoZuK
Bien cordialement,
Au plaisir ;)

Antoine

Continuer la lecture sur narkive:
Loading...