6314 liens privés
des proxies pour gemini, gopher, et autres protocoles du web alternatif
A response to 'Why your website should be under 14kB in size', considering http streaming
Caddy me fait tjs de l'oeil comme alternative Ă Nginx
Sympa ce blog, trouvé via https://quackquackgo.net/?q=mkws.sh&qqg-date=1y&qqg-sort=date-desc&qqg-exact=1&page=0&lr=&qqg-range-start=&qqg-range-end=&qqg_no_cache=1
Caddy est bcp + simple mais un peu moins performant que Nginx quand mĂŞme.
Via https://unix-root.de/blog/nginx-to-caddy (trouvé via https://quackquackgo.net/?q=mkws.sh&qqg-date=1y&qqg-sort=date-desc&qqg-exact=1&page=0&lr=&qqg-range-start=&qqg-range-end=&qqg_no_cache=1)
In college, I took a life drawing class and learned a helpful sketching exercise I still like doing today. While drawing last night, I realized that I use the philosophy behind this exercise in my web design process and day-to-day life.
Le glossaire du web.
Via https://meiert.com/en/blog/untrained-engineering-managers/
uMap permet de partager des cartes basées sur des calques OpenStreetMap et les inclure sur son site.
Via https://hunden.linuxkompis.se/bookmarks/tools-and-resources/
⚡️A browser extension that takes you to a random site from one of the awesome curated lists. Like good ol' StumbleUpon, for developers, tech & science lovers. - basharovV/StumbleUponAwesome
Les mesures anti scraping sont défendables mais leur forme pourrit vraiment le quotidien et l'usage des outils qui y font appel.
Cela peut prendre jusqu'à plusieurs minutes par jour passées juste à résoudre des Puzzle tout ça car ces géants ne sont pas capables de détecter les bots ou ne veulent pas investir dans des méthodes un peu plus efficaces.
Le Web scraping reste indispensable pour le fonctionnement de nombreux outils, et l'accès à l'info recherchée.
En effet sans le scraping, beaucoup d'outils n'existeraient pas, et beaucoup de scripts et d'automatisations reposent uniquement sur ce type de méthode. L'indexation du web repose également sur ces méthodes.
Les mesures anti flood / anti bot ne sont pas efficaces.
Mais est-ce une raison pour pourrir l'UX ?
Entre les pubs, captcha, scripts qui plombent le temps de chargement des pages, formulaires de consentement (cookies), sites mal optimisés pour des résolutions ou navigateurs spécifiques, ou utilisant des dark patterns, le web devient parfois repoussant.
Heureusement il reste les flux RSS, Changedetection, https://kill-the-newsletter.com/, Brave, les extensions anti-pub, etc qui m'épargnent déjà bien des maux de tête.
Google raccourcit encore la vie d'un de ses produits.
Après les annonces d'arrêt de l'archivage des pages web et d'arrêt de l'indexation automatique du web, encore une preuve de + si elle était nécessaire, que Google veut enterrer le web "classique" et donc tout un pan de son histoire et sa culture.
Ne faites pas confiance aux GAFAM.
Je fais du désarchivage de mes favoris de ces dernières années. Mes archives twitter datent de 2021 et contiennent des tonnes de liens raccourcis (bit.ly & co). Ce service m'a permis de rapidement révéler des centaines d'URLs. Gain de temps surtout quand on traite +500 liens... :-)
Les gens quittent les réseaux genre Twitter pour décentraliser mais finalement recréent le problème de centralisation dans un autre layer, celui de l'infrastructure qui héberge le Fediverse. On se retrouve avec un bon paquet d'instances sur la même branche de l'arbre.