Quotidien Shaarli
August 13, 2024
Les mesures anti scraping sont défendables mais leur forme pourrit vraiment le quotidien et l'usage des outils qui y font appel.
Cela peut prendre jusqu'à plusieurs minutes par jour passées juste à résoudre des Puzzle tout ça car ces géants ne sont pas capables de détecter les bots ou ne veulent pas investir dans des méthodes un peu plus efficaces.
Le Web scraping reste indispensable pour le fonctionnement de nombreux outils, et l'accès à l'info recherchée.
En effet sans le scraping, beaucoup d'outils n'existeraient pas, et beaucoup de scripts et d'automatisations reposent uniquement sur ce type de méthode. L'indexation du web repose également sur ces méthodes.
Les mesures anti flood / anti bot ne sont pas efficaces.
Mais est-ce une raison pour pourrir l'UX ?
Entre les pubs, captcha, scripts qui plombent le temps de chargement des pages, formulaires de consentement (cookies), sites mal optimisés pour des résolutions ou navigateurs spécifiques, ou utilisant des dark patterns, le web devient parfois repoussant.
Heureusement il reste les flux RSS, Changedetection, https://kill-the-newsletter.com/, Brave, les extensions anti-pub, etc qui m'épargnent déjà bien des maux de tête.
L'industrie animale hyper polluante essaie de pousser à l'utilisation du PRG, une nouvelle unité de mesure des émissions de méthane. S'ils réussissent, cela leur permettrait de cacher leur véritable impact dans le réchauffement climatique et d'éviter de prendre toute responsabilité ou d'entamer toute transition écologique qui s'impose.
C'est puéril.