6265 liens privés
Les mesures anti scraping sont défendables mais leur forme pourrit vraiment le quotidien et l'usage des outils qui y font appel.
Cela peut prendre jusqu'à plusieurs minutes par jour passées juste à résoudre des Puzzle tout ça car ces géants ne sont pas capables de détecter les bots ou ne veulent pas investir dans des méthodes un peu plus efficaces.
Le Web scraping reste indispensable pour le fonctionnement de nombreux outils, et l'accès à l'info recherchée.
En effet sans le scraping, beaucoup d'outils n'existeraient pas, et beaucoup de scripts et d'automatisations reposent uniquement sur ce type de méthode. L'indexation du web repose également sur ces méthodes.
Les mesures anti flood / anti bot ne sont pas efficaces.
Mais est-ce une raison pour pourrir l'UX ?
Entre les pubs, captcha, scripts qui plombent le temps de chargement des pages, formulaires de consentement (cookies), sites mal optimisés pour des résolutions ou navigateurs spécifiques, ou utilisant des dark patterns, le web devient parfois repoussant.
Heureusement il reste les flux RSS, Changedetection, https://kill-the-newsletter.com/, Brave, les extensions anti-pub, etc qui m'épargnent déjà bien des maux de tête.