dimanche 7 juin 2020

Collecter des données publiques d'un site pour les utiliser dans ses activités n'est probablement pas illégal

Le web scraping est une technique permettant l'extraction des données d'un site via un programme, un logiciel automatique ou un autre site. L'objectif est donc d'extraire le contenu d'une page d'un site de façon structurée. Le scraping permet ainsi de pouvoir réutiliser ces données.
Faire du web scraping sur un site Web public sans l'approbation du propriétaire du site Web ne constitue pas une violation de la loi sur les fraudes et les abus informatiques, a estimé une cour d'appel américaine lundi. La décision intervient dans une bataille juridique qui oppose LinkedIn, une société appartenant à Microsoft, à une petite société d'analyse de données appelée hiQ Labs.

Aucun commentaire:

Enregistrer un commentaire