6257 liens privés
Une collection des problèmes chiants d'UX qui viennent pourir l'utilisation de la technologie.
Via https://www.fromjason.xyz/p/notebook/where-have-all-the-websites-gone/
Développez votre site/plateforme plutôt que les réseaux sociaux et plateformes de quelqu'un d'autre.
WTF :-) ... du pur troll mais une pépite. Attention l'UX pique les yeux mais c'est un peu le concept (scrollez, vous verrez).
Code analysis firm sees no major benefits from AI dev tool when measuring key programming metrics, though others report incremental gains from coding copilots with emphasis on code review.
L'IA nuit à la productivité des développeurs presque autant qu'elle n'y contribue.
Bref ne vous bercez pas trop d'illusions.
With AI photo editing getting easy and convincing, the world isn’t prepared for an era where photographs aren’t to be trusted.
Bref ne jamais plus faire confiance aux images.
I recently added a link-checker to the deploy process for this website, and of the ~500 or so external links links I've added over my 13-ish years of posts, 10% of them were completely dead, a handful more hit unexpected error states (expired certs, timeouts, etc.), and I can't even imagine how many load successfully but no longer have the original content I actually linked to (I haven't had the heart to look).
Via https://tracydurnell.com/2024/09/19/long-live-hypertext/
« Ce n’est pas que des soupçons. La CNIL envoie des messages types sans instruction réelle. Parfois, sans lien avec le manquement relevé. Parfois, avec le nom d’organismes différents, suite à des copiés-collés foireux. Parfois, elle ment ouvertement. Du foutage de gueule ».
La CNIL est inefficace et ne pèse pas lourd, infligeant des sanctions très faibles et en volume insuffisant.
Sergey Brin and Larry Page (Google) critiquaient en 2006 l'idée même d'un moteur de recherche centré sur les pubs.
“we expect that advertising funded search engines will be inherently biased towards the advertisers and away from the needs of the consumers.”
-- Sergey Brin and Larry Page
The U.S. military deals with the same repair monopolies consumers do.
L'argent oui, la durabilité et l'intérêt du client... Jamais.
Pour les fabricants de téléphones portables, ce qui importe + c'est d'avoir l'air performants, et tant pis pour les utilisateurs qui verront les comportements de leurs apps modifiées contre leur gré et au détriment de l'expérience utilisateur.
(via Sebsauvage)
Difficile pour StackOverflow de résister aux impacts du télétravail, des LLM, des serveurs communautaires (Discord, Slack & co), et à l'impact de ses propres règles de modération qui rendent sa plateform peu accessible.
Du coup non seulement StackOverflow n'est plus le meilleur moyen ni le plus rapide pour répondre aux questions, mais en + les réponses qu'on y trouve sont de + en + obsolètes.
Mais c'est terrible pour l'échange de connaissances...
Ça doit être une mauvaise blague...
Procreate contre l'avancée de l'IA (et tant mieux) et prône l'humanisme à la place.
Ouf !
Les mesures anti scraping sont défendables mais leur forme pourrit vraiment le quotidien et l'usage des outils qui y font appel.
Cela peut prendre jusqu'à plusieurs minutes par jour passées juste à résoudre des Puzzle tout ça car ces géants ne sont pas capables de détecter les bots ou ne veulent pas investir dans des méthodes un peu plus efficaces.
Le Web scraping reste indispensable pour le fonctionnement de nombreux outils, et l'accès à l'info recherchée.
En effet sans le scraping, beaucoup d'outils n'existeraient pas, et beaucoup de scripts et d'automatisations reposent uniquement sur ce type de méthode. L'indexation du web repose également sur ces méthodes.
Les mesures anti flood / anti bot ne sont pas efficaces.
Mais est-ce une raison pour pourrir l'UX ?
Entre les pubs, captcha, scripts qui plombent le temps de chargement des pages, formulaires de consentement (cookies), sites mal optimisés pour des résolutions ou navigateurs spécifiques, ou utilisant des dark patterns, le web devient parfois repoussant.
Heureusement il reste les flux RSS, Changedetection, https://kill-the-newsletter.com/, Brave, les extensions anti-pub, etc qui m'épargnent déjà bien des maux de tête.
Firefox n'est pas mon truc, pas + que Chrome. Il faut se rendre à l'évidence, ni l'un ni l'autre ne sont à conseiller.
Les valeurs et le staff ne sont plus ceux d'origine, l'argent est la priorité de ces boites, ainsi que les revenus publicitaires, le tracking, direct ou indirect.
Pour le moment je reste sur Brave, c'est pas forcément le meilleur mais il n'est pas financé par Google et en terme de vie privée reste + efficace, indépendant et neutre que Firefox.
Et ne me parlez pas d'Ecosia https://louisderrac.com/ecosia-browser-ou-quand-le-greenwashing-numerique-fume-la-moquette-tout-en-plantant-des-arbres/
Pourquoi se prendre la tête à comprendre une mauvaise documentation et s'énerver à faire du code qui marche quand l'IA nous évite toutes ces étapes ?
C'est un cas d'usage des grands modèles de langages et c'est compréhensible.
Par contre ça va pas inciter à faire de la documentation ni améliorer le code tout ça...
L'IA coûte toujours beaucoup, beaucoup, beaucoup plus qu'elle ne rapporte.
On appelle ça une bulle dans d'autres milieux.
Les avancées actuelles sont amusantes mais loin d'être à la hauteur des montants investis.
Et aucun progrès significatif n'est réalisé sous peu, des comptes devront être rendus aux investisseurs, et ça fera mal.
Intel licencie en masse, faute d'être performant dans la course à la destruction de la planète, pardon la course à l'IA.