WhatsApp is testing an updated Clear Chat experience on iPhone that makes it harder to delete the wrong things when cleaning up storage. The tool is not new, but the flow has been reworked to separate messages from saved items and media types, with clearer prompts and size estimates before anything is removed.
The change shows up when iOS users clear or delete a chat. Instead of a single confirmation prompt, WhatsApp now presents a two-step process that spells out what will be deleted and what can be kept. The aim is simple: free up space without accidentally wiping content that was intentionally saved, like starred messages or specific media categories.
The first screen adds quick actions for clearing messages in bulk. One option removes all messages. Another keeps starred messages while removing the rest. From there, a "Clear media files" option opens a second screen for more granular cleanup.
That second screen is the bigger upgrade. It breaks stored chat media into categories and lets users choose what to remove: documents, photos, videos, stickers, audio files, and voice messages. Each category shows a size estimate, and WhatsApp displays a running total so users can see how much storage will be recovered before committing.
Starred messages also get special handling. WhatsApp explicitly asks whether they should be kept or deleted during the clearing process. This matters for long-running chats where starring is used as a lightweight bookmark system for addresses, receipts, links, or important notes. The new flow reduces the chance of clearing a conversation "for space" and losing those saved items in the process.
The updated Clear Chat tool can be accessed from more than one place. Users can reach it from a chat's info screen, and it is also available from the main chats list, with the same detailed options in both entry points. That consistency helps because people tend to clean storage when they notice WhatsApp taking up space, and they may start from different parts of the app depending on habit.
What changed in practiceOlder versions of WhatsApp's chat cleanup were easy to misread, especially if the goal was "delete media but keep messages," or "clear a chat but don't lose starred items." The revised prompts split the decision into smaller choices and attach storage numbers to those choices.
That combination does two things:
For users trying to reclaim iPhone storage, the new screens also make it easier to target the actual storage hogs. In many chats, videos and documents dominate size, while messages contribute comparatively little.
How to use the new Clear Chat options on iPhoneThis is currently in beta, so the exact labels can vary slightly, but the behavior follows the same pattern.
If you rely on starred messages, treat the starred prompt as the critical checkpoint. That is where the new flow prevents the most common "cleanup regret" scenario.
Limitations and rollout statusThe updated Clear Chat experience is rolling out gradually to users on the WhatsApp beta for iOS, specifically version 25.37.10.72, and it is not yet available to everyone. WhatsApp has not provided a public timeline for wider release.
Beta features can change before general rollout, including where the options appear and how the prompts are worded. Users who do not see the new screens are still on the older Clear Chat flow.
WhatsApp is also doing the right thing here by adding friction. Cleanup tools are destructive by nature, and the cost of a mistaken tap is usually higher than the benefit of a faster UI. Once media is deleted, recovery is not guaranteed, especially if the content is not saved elsewhere.
The new Clear Chat screens are a practical improvement for anyone who uses WhatsApp heavily, especially in large group chats where files accumulate silently over months.
Thank you for being a Ghacks reader. The post WhatsApp for iOS Improves Clear Chat With More Control Over What Gets Deleted appeared first on gHacks Technology News.
Samsung is testing a revamped version of Bixby that integrates Perplexity AI, signaling that the assistant is not being sidelined in favor of Gemini after all. An early preview shows Bixby delivering more detailed, context-aware answers by tapping into Perplexity's search capabilities.
The preview surfaced via a screenshot shared on X, revealing a redesigned Bixby overlay responding to a weather query. Instead of a basic forecast, Bixby adds practical recommendations, such as suggesting a jacket, indicating deeper reasoning based on real-time information rather than static responses.
This functionality is currently limited to the One UI 8.5 beta and requires Bixby version 4.0.50.4. At the moment, access appears restricted to Galaxy S25, Galaxy S25 Plus, and Galaxy S25 Ultra devices enrolled in the beta. Samsung already uses Perplexity AI on its smart TVs, and this looks like the first step toward bringing similar search depth to Galaxy phones.
For users, the change means Bixby can handle more complex questions with fresher data, narrowing the gap with other AI assistants. The update also aligns Bixby's visuals with newer One UI design guidelines, making the assistant feel more integrated into the system rather than an afterthought.
Samsung has confirmed that One UI 8.5 will debut alongside the Galaxy S26, with a wider rollout to older Galaxy devices afterward. Until then, the Perplexity-powered Bixby remains a preview feature for beta testers, with broader availability expected once One UI 8.5 exits testing.
Thank you for being a Ghacks reader. The post Samsung Previews a Smarter Bixby Powered by Perplexity AI appeared first on gHacks Technology News.
Vous êtes sous Windows et vous avez déjà rêvé de taper sudo comme les vrais bonhommes sous Linux ?
Alors votre vie va changer car c'est maintenant possible grâce à l'implémentation divine de Microsoft (attention, c'est pas un port de sudo Unix, c'est leur propre version...).
En effet, Microsoft a intégré la commande sudo dans Windows 11 (version 24H2) et contrairement à ce qu'on pourrait penser, c'est pas juste un gadget pour faire genre. Ça sert vraiment... Par contre, la fonctionnalité est désactivée par défaut. Mdrrr.
Pour l'activer, vous allez dans Paramètres, puis Système, puis « Pour les développeurs », et vous activez l'option sudo. Et hop, c'est prêt.
Ensuite, y'a trois modes d'exécution et c'est là que ça devient intéressant. Le mode « Nouvelle fenêtre » ouvre un terminal admin séparé après validation UAC. Le mode « Avec entrée désactivée » exécute tout dans la même fenêtre mais vous pouvez plus interagir avec le processus. Et le mode « Inline », le plus proche de l'expérience Linux, garde tout dans votre fenêtre actuelle avec interaction complète.
Alors concrètement, ça sert à quoi ?
Déjà pour winget ça permet d'installer des logiciels directement depuis votre terminal utilisateur. Un petit sudo winget install --id VideoLAN.VLC et c'est réglé. Pas besoin de fermer votre session, ouvrir PowerShell en admin, retaper vos commandes...
Ensuite pour le debug réseau, quand vous voulez savoir quel processus monopolise un port, un sudo netstat -ab vous donne les noms des processus. L'option -b nécessite des droits admin pour fonctionner, donc sans sudo vous ne verrez que les PID (avec -o). Relou non ?
Et mon préféré c'est pour éditer le fichier hosts. Vous savez, ce fichier planqué dans C:\Windows\System32\drivers\etc\ qu'on peut jamais modifier parce qu'il faut des droits admin ? Hé bien maintenant un sudo notepad %windir%\system32\drivers\etc\hosts et c'est parti. Fini les galères de « Exécuter en tant qu'administrateur » puis naviguer jusqu'au fichier.
Bon, y'a quand même une limite importante par rapport à Linux...
Sous Linux, sudo garde vos identifiants en cache pendant quelques minutes par défaut (configurable via sudoers), donc vous tapez le mot de passe une fois et ensuite c'est tranquille. Alors que sous Windows avec les réglages UAC standards, vous aurez une validation à chaque commande sudo. C'est un peu lourd mais c'est le prix de la sécurité façon Microsoft
Bref, c'est pas la révolution du siècle, mais c'est un petit confort bien appréciable au quotidien. Si vous passez régulièrement de Linux à Windows, vous allez enfin pouvoir garder vos réflexes sans avoir à vous adapter et si vous êtes pur Windowsien, vous découvrez peut-être une façon plus classe de gérer les droits admin que le clic droit « Exécuter en tant qu'administrateur » qu'on connaît tous.
Ça va ? Vous avez passé un bon Noël ? Bien mangé ? Les cadeaux étaient cool ? Tant mieux pour vous, car de son côté, Tim Cook, a passé le sien à se faire lyncher sur X parce qu'il a posté une illustration de lait et cookies pour promouvoir Pluribus , la nouvelle série Apple TV+.
Pourquoi me direz-vous ? Et bien parce que tout le monde est persuadé que c'est de la bonne vieille image générée par IA.
Faut dire qu'il y a pas mal d'indices qui sèment le doute... John Gruber de Daring Fireball a été le premier à tirer la sonnette d'alarme en pointant du doigt des détails bien chelous dans l'image. Le carton de lait affiche à la fois « Whole Milk » ET « Lowfat Milk » sur ses étiquettes. Comme si le designer avait voulu cocher toutes les cases en même temps ^^ Et le labyrinthe « Cow Fun Puzzle » sur le carton ? Ben il est impossible à résoudre. Enfin si, mais uniquement en passant autour du labyrinthe, pas dedans. C'est de l'IA tout craché.
D'ailleurs, Ben Kamens, un expert qui venait justement de publier un article sur les labyrinthes générés par IA, a confirmé que l'image présentait les « caractéristiques typiques » des IA qui galèrent avec ce genre de truc. Et Gruber a aussi fait remarquer qu'on ne voit jamais de puzzles sur des cartons de lait (qui sont cireux et difficiles à imprimer) mais plutôt sur des boîtes de céréales. Comme si l'IA avait mélangé deux concepts...
Apple TV+ a répondu en créditant un certain Keith Thomson comme artiste, précisant que l'œuvre avait été « créée sur MacBook Pro ». Sauf que personne n'a tagué ce Keith Thomson et quand Slashdot l'a contacté, le bonhomme a refusé de commenter spécifiquement le projet, se contentant de dire qu'il « dessine et peint toujours à la main et utilise parfois des outils numériques standard ».
Traduction : Un esquive de niveau olympique.
Le plus marrant dans tout ça c'est que Sundar Pichai de Google a posté une boule à neige générée par IA le lendemain avec le watermark Gemini bien visible, et tout le monde a trouvé ça « trop mignon ».
Deux poids deux mesures ^^
Maintenant y'a une théorie alternative qui circule. Certains pensent que les « erreurs » seraient en fait intentionnelles... Que ce serait des références à la série Pluribus elle-même qui parle d'une intelligence collective... Le message de Cook aurait en fait été adressé à « Carol », le personnage principal joué par Rhea Seehorn. Une sorte de méta-promotion qui aurait mal tourné ? J'y crois pas une seconde...
Je pense plutôt que Keith Thomson était en famille, qu'il avait autre chose à foutre, que de toute façon il déprime parce que Midjourney ou un autre sait reproduire son style à la perfection et qu'il s'est dit « Pourquoi je me ferais chier le cul à peindre des cookies de merde pour Apple alors que je suis en train de jouer aux Lego avec mes petits enfants ?« . Bah ouais, pourquoi ? Ce n'est qu'une théorie mais c'est la mienne...
Bref, que ce soit de l'IA, de l'art volontairement buggé pour la promo, ou juste un artiste qui a fait des choix bizarres, cette histoire illustre bien le climat actuel. Les gens sont tellement bombardés d'images IA et ont tellement rien à foutre de leurs journées qu'un vrai artiste avec 30 ans de carrière peut se retrouver accusé de « triche » à tort ou à raison, parce que son labyrinthe est mal foutu.
On est mal barré...
Si vous utilisez MongoDB, accrochez-vous bien parce que là, c'est du lourd. Une faille critique baptisée MongoBLEED vient d'être découverte et elle touche à peu près toutes les versions de MongoDB sorties depuis 2017. Sept ans de versions vulnérables, c'est un chouette record, je trouve ^^.
Le problème avec cette CVE-2025-14847, c'est qu'elle exploite la compression zlib des messages. En gros, quand un attaquant envoie un message compressé mal formé avec des paramètres de longueur trafiqués, MongoDB se met à recracher des bouts de sa mémoire heap sans broncher. Et dans cette mémoire, on peut trouver des trucs sympa genre des mots de passe, des tokens d'authentification, des clés de chiffrement... Bref, le jackpot pour un attaquant.
Le pire dans tout ça c'est que y'a pas besoin d'être authentifié pour exploiter la faille. Si votre instance MongoDB est accessible depuis le réseau, n'importe qui peut s'y connecter et commencer à siphonner votre mémoire. C'est exactement le même genre de cauchemar que Heartbleed en 2014, d'où le petit surnom affectueux.
Du coup, qui est concerné ?
Hé bien à peu près tout le monde... Les versions 3.6.0 jusqu'à 8.0.16 sont touchées, ce qui représente selon les chercheurs de Wiz environ 42% des environnements cloud. Il y aurait donc plus de 87 000 instances MongoDB exposées sur Internet et le problème, c'est que depuis le 26 décembre 2025, des exploitations actives ont été détectées dans la nature. Joyeux Noël !!
La bonne nouvelle, c'est que le fix est simple. Soit vous mettez à jour vers une version patchée (8.2.3+, 8.0.17+, 7.0.28+, 6.0.27+, 5.0.32+ ou 4.4.30+), soit vous désactivez la compression zlib en attendant. Pour ça, c'est dans la config réseau de MongoDB, paramètre compressors qu'il faut virer le zlib.
Pour vérifier si vous êtes vulnérable, un petit nmap sur le port 27017 avec le script mongodb-info vous dira quelle version tourne. Vous pouvez aussi regarder les logs réseau pour détecter des connexions suspectes avec des messages compressés anormalement petits suivis de réponses anormalement grandes. C'est le signe qu'un petit malin est en train de vous pomper la mémoire.
Bref, si vous avez du MongoDB qui traîne quelque part, c'est le moment de faire un petit tour dans vos infras. Parce que là, c'est quand même d'une faille qui permet à n'importe qui d'aspirer vos données sensibles sans même avoir besoin d'un mot de passe. Ubisoft en a fait les frais et ça pique !
Vous aussi vous avez un dossier « Notes » qui ressemble à un cimetière d'idées ? Des fichiers texte avec des noms genre « truc_important.txt » ou « a_voir_plus_tard.md » que vous n'avez jamais revus depuis 2019 ? Hé bien j'ai ce qu'il vous faut pour enfin donner un sens à tout ce bordel !
Blinko c'est une app de prise de notes qui utilise l'IA pour vous aider à retrouver ce que vous avez noté, même quand vous avez complètement oublié les mots exacts que vous aviez utilisés. Le principe c'est du RAG (Retrieval-Augmented Generation), c'est-à-dire que l'IA va fouiller dans toutes vos notes et vous ressortir les infos pertinentes quand vous posez une question. Genre « c'était quoi ce truc que j'avais noté sur les serveurs NAS ? » et hop, l'IA vous retrouve tout.
Votre navigateur ne supporte pas la lecture de vidéos HTML5. Voici un lien vers la vidéo.Et le truc cool c'est que ça tourne 100% en local sur votre serveur. Pas de cloud américain de Donald, pas de données qui se baladent chez les affreux OpenAI ou Google... vos notes restent bien au chaud chez vous. Pour ceux qui comme moi sont un peu paranos avec leurs données perso, c'est exactement ce qu'il nous faut les amis !
L'interface est super clean avec deux modes de saisie. Y'a d'abord le mode « Blinko » pour les notes éphémères qui s'archivent automatiquement au bout d'un moment, genre une idée qui vous passe par la tête ou un truc à faire. Et y'a le mode « Note » pour les contenus permanents que vous voulez garder sur le long terme, avec du Markdown, des images, et tout ça. Du coup vous pouvez aussi bien capturer une pensée qui vous traverse que rédiger un article entier.
Côté installation, c'est du Docker avec un script qui fait tout pour vous. Une ligne de commande et c'est parti :
curl -o install.sh https://raw.githubusercontent.com/blinko-space/blinko/main/install.sh && bash install.shLe script va alors vous configurer tout le bazar avec PostgreSQL derrière (obligatoire pour la base de données). Y'a aussi Docker Compose si vous préférez personnaliser, tout est documenté sur le repo.
Une fois lancé, vous accédez à l'interface sur le port 1111 et vous pouvez commencer à balancer vos notes. Y'a même une démo en ligne sur demo.blinko.space (test / test) si vous voulez tester avant de vous lancer.
Le projet est open source sous licence GPL-3.0, c'est codé en TypeScript avec Next.js et comme je vous le disais, PostgreSQL derrière, donc c'est du solide. Et y'a même des apps natives pour macOS, Windows, Android et même Linux via Tauri si vous voulez un truc plus intégré que le web.
Bref, si vous cherchez une solution de prise de notes self-hosted avec de l'IA intégrée pour enfin retrouver ce que vous avez noté il y a 3 ans, Blinko c'est le top du top !
Merci à Lorenper pour l'info !
Vous avez déjà fait transcrire une interview ou un podcast par un service en ligne ? Vous savez, ces trucs qui vous demandent de créer un compte, de filer votre carte bleue, et d'accepter que vos fichiers audio soient envoyés sur des serveurs quelque part dans le cloud américain pour être analysés par des IA qu'on ne connaît pas. Le tout pour 100 balles par an si vous avez de la chance, et beaucoup plus si vous dépassez le quota ridicule de 20 heures par mois...
Hé bien y'a une alternative qui va vous plaire : Scriberr ! C'est une app de transcription audio complètement open source et surtout, qui tourne 100% en local sur votre machine. Pas de cloud, pas de données qui se baladent, pas d'abonnement mais juste vous, avec votre serveur (ou votre laptop si vous avez un GPU correct), et vos fichiers audio qui restent bien au chaud chez vous.
Scriberr utilise des modèles de reconnaissance vocale de pointe comme NVIDIA Parakeet, Canary ou les fameux modèles Whisper. Du coup la qualité de transcription est vraiment au niveau des services payants, voire meilleure sur certains accents ou langues moins courantes. Et cerise sur le gâteau, vous avez l'alignement temporel au niveau du mot, ce qui veut dire que vous pouvez savoir exactement à quelle seconde chaque mot a été prononcé.
Mais le truc qui m'a vraiment tapé dans l’œil avec cet outil, c'est la détection automatique des locuteurs. Vous savez, cette fonctionnalité qu'on appelle "diarization" dans le jargon et qui permet d'identifier qui dit quoi dans une conversation. Comme ça, fini les transcriptions où tout le monde parle mais on ne sait pas qui c'est. Là, Scriberr vous découpe tout proprement avec des étiquettes pour chaque intervenant.
Et comme si ça suffisait pas, y'a aussi l'intégration avec Ollama ou n'importe quelle API compatible OpenAI. Du coup vous pouvez non seulement transcrire vos enregistrements, mais aussi leur poser des questions, générer des résumés, ou carrément avoir une conversation avec le contenu de vos transcriptions. Genre vous demandez "c'est quoi les points clés de cette réunion ?" et hop, l'IA vous fait un résumé. Pratique pour les feignasses comme moi qui détestent se retaper 2 heures de réunion pour retrouver une info.
Côté installation, c'est du Docker classique ou alors Homebrew si vous êtes sur Mac. Un petit
`brew tap rishikanthc/scriberr && brew install scriberr`et c'est parti mon kiki. Pour Docker, y'a des images pour CPU et GPU (CUDA), et ça supporte toutes les générations de cartes NVIDIA depuis les GTX 1000 jusqu'aux RTX 50 series toutes récentes.
Le premier lancement peut prendre quelques minutes parce que ça télécharge les modèles de reconnaissance vocale, mais une fois que c'est fait, les relances suivantes sont quasi instantanées. Y'a même un Folder Watcher qui surveille un dossier et transcrit automatiquement tout ce qui arrive dedans, parfait si vous voulez brancher ça sur un workflow automatisé avec n8n ou autre.
Bref, si vous êtes podcaster, journaliste, chercheur, ou juste quelqu'un qui a régulièrement besoin de transcrire des trucs sans vouloir filer ses données à Google ou payer un abonnement, Scriberr c'est exactement ce qu'il vous faut. C'est du self-hosting comme on l'aime, c'est à dire open source, respectueux de la vie privée, et qui fait le taf sans chichi.
Merci à Letsar pour le partage !
Sony is offering a time-limited perk for PlayStation 5 owners: three free months of Apple Music when accessed through the console. The promotion has a retail value of about $30, but not everyone will qualify.
The offer is available only through the Apple Music app on PS5 and applies to new subscribers and some "qualified returning" users. Sony and Apple have not published exact eligibility rules for returning accounts, which suggests the trial is restricted to users who have not had an active Apple Music subscription for a certain period.
To claim the offer, PS5 owners need to download and open the Apple Music app on the console and sign in with an Apple ID. If the account qualifies, the three-month trial is applied automatically. The promotion runs until March 18, 2026, and is exclusive to PS5-other Apple Music platforms do not trigger the deal.
The free trial provides full access to Apple Music's catalog and PS5 integration, including background playback while gaming. After the trial ends, the subscription renews at the standard monthly rate unless canceled.
This is not the first time Sony has partnered with Apple on console-specific trials, but the catch remains the same: eligibility is limited, and existing subscribers should not assume the offer will apply to their accounts. Users who want the trial should verify eligibility directly from the PS5 app before the March deadline.
Are you using Apple Music or prefer Spotify?
Thank you for being a Ghacks reader. The post PS5 Owners Can Get Apple Music Free for Three Months, But With Limits appeared first on gHacks Technology News.
Si vous avez toujours voulu essayer Emacs mais que la courbe d'apprentissage vous fait peur, IDEmacs est fait pour vous ! Ce projet transforme Emacs en clone de VSCode avec les mêmes raccourcis clavier, la même interface graphique et les mêmes fonctionnalités out-of-the-box, comme ça vous n'avez plus besoin de vous taper une configuration durant trois jours avant de pouvoir écrire une ligne de code !
Cool, hein ?
L'idée c'est donc de permettre aux développeurs habitués à des IDE modernes de passer à Emacs sans devoir réapprendre tous leurs réflexes. Les raccourcis clavier reprennent ceux de VSCode comme Ctrl+C pour copier, Ctrl+V pour coller, Ctrl+F pour chercher. C'est basique mais indispensable quand vous venez d'un autre éditeur.
Côté interface, IDEmacs intègre Treemacs pour avoir un explorateur de fichiers dans la sidebar comme sur VSCode. Y'a aussi Centaur Tabs pour les onglets, un thème Dark Plus qui ressemble à celui de Microsoft, et le support des curseurs multiples. Bref, visuellement vous êtes en terrain connu.
Du coup, c'est pour qui exactement ?
Hé bien le projet cible trois types d'utilisateurs : les développeurs qui veulent migrer vers Emacs depuis un autre IDE, les débutants en Lisp ou Scheme qui ont besoin d'Emacs pour bosser, et les non-programmeurs qui cherchent juste un éditeur de texte puissant sans se prendre la tête avec la config.
D'ailleurs, contrairement à la plupart des starter kits Emacs, IDEmacs ne cache pas les éléments graphiques par défaut. Les menus, barres d'outils et scrollbars sont visibles donc vous pouvez configurer le tout via l'interface graphique plutôt qu'en écrivant du Elisp à la main.
La config proposée inclut une vingtaine de packages tels que Vertico, Consult et Marginalia pour l'autocomplétion, Magit pour le contrôle de version, Sly et Geiser pour le développement Lisp et Scheme, plus des outils comme expand-region, multiple-cursors et smartparens pour l'édition avancée.
Pour installer IDEmacs, il vous faudra donc Emacs 29 ou plus récent, git, et optionnellement grep et locate. Clonez le repo puis lancez Emacs avec
emacs --init-directory=/path/to/IDEmacs/vscode .Et hop, c'est prêt !
IDEmacs reste une porte d'entrée vers Emacs, et pas un remplacement définitif de VSCode mais l'idée avec ce truc, c'est de vous permettre de commencer à utiliser Emacs sans friction, puis de personnaliser au fur et à mesure que vous comprenez comment ça marche. Je vous assure que vous allez probablement vouloir modifier des trucs une fois que vous serez à l'aise.
Voilà, si vous avez toujours été curieux d'Emacs mais que vous n'avez jamais osé franchir le pas, c'est l'occaz !
Vous avez une vieille GTX 1060 qui tourne nickel sous Arch Linux ? C'est con, NVIDIA vient de vous mettre un beau coup de pied aux fesses car la boîte au caméléon vert a décidé d'abandonner le support des GPU Pascal (les GTX 10xx) dans son dernier driver 590 et ça crée un joyeux bordel, notamment sur Arch.
Le problème, c'est que quand vous faites une mise à jour système sur Arch avec une vieille carte Pascal ou Maxwell, le nouveau driver refuse de charger. Résultat, vous vous retrouvez éjecté vers la ligne de commande sans interface graphique. Sympa pour débugger quand y'a plus d'écran qui fonctionne...
Faut dire que le modèle "rolling release" d'Arch fait que les utilisateurs ont reçu ce driver incompatible automatiquement avec leur mise à jour. Ils n'ont pas eu le temps de dire ouf que leur système était déjà cassé. Et les GTX 1060 et 1050 Ti, c'est pas exactement des cartes de musée... Y'en a encore pas mal qui tournent sur Steam, et même si parmi leurs propriétaires, seule une poignée utilise Linux, et encore moins Arch, ça fait quand même du monde impacté.
Pour s'en sortir, y'a deux solutions. La première, c'est d'installer le driver legacy nvidia-580xx-dkms depuis l'AUR, qui est maintenu par l'équipe CachyOS. Le hic, c'est que ça crée des problèmes de dépendances avec Steam, donc faut aussi installer lib32-nvidia-580xx-utils pour que les jeux 32 bits fonctionnent. La deuxième option, c'est de basculer sur Nouveau, le driver open source fait par reverse engineering. Ça marche, mais avec les limitations que ça implique niveau performances et fonctionnalités.
Ce qui me rend dingue dans cette histoire, c'est que pendant des années, NVIDIA a refusé de fournir de la documentation pour ses GPU, forçant la communauté Linux à utiliser le reverse engineering pour Nouveau. Et depuis 2022, ils ont ouvert les modules kernel pour les architectures Turing et plus récentes, mais les parties user-space et le firmware restent propriétaires. Et surtout, aucune aide pour les vieilles cartes comme Pascal !! Du coup, maintenant que NVIDIA abandonne ces générations de cartes, c'est aux bénévoles de la communauté de maintenir les drivers legacy... Pas cool.
D'ailleurs, l'annonce officielle d'Arch Linux précise que les cartes Turing et plus récentes (RTX 20xx et GTX 1650+) vont automatiquement basculer vers les modules kernel open source, donc pas d'intervention manuelle pour eux. C'est uniquement les propriétaires de vieilles Pascal/Maxwell qui doivent se taper le boulot.
Bref, si vous avez une carte Pascal sous Arch, basculez sur nvidia-580xx-dkms avant votre prochain pacman -Syu. Dans sa grande bonté, NVIDIA a aussi promis des patchs de sécu jusqu'en 2028, mais bon, on a vu ce que valent leurs promesses côté Linux...
Vous vous souvenez des disquettes 3,5 pouces ? Ces petits carrés en plastique qu'on utilisait pour stocker nos 1,44 Mo de données précieuses ? Hé bien à Taïwan, elles font leur grand retour... mais pas pour sauvegarder vos fichiers.
La société iPASS, qui gère un système de cartes de transport et de paiement sans contact dans le pays, vient de lancer une carte prépayée NFC en forme de disquette. Taille réelle, proportions parfaites, disponible en noir ou en jaune. C'est sorti pour Noël et les geeks du pays se sont jetés dessus.
Le truc qui m'a fait triper surtout, c'est l'avertissement officiel que la boîte a jugé nécessaire d'ajouter sur la fiche produit : "Ce produit a uniquement une fonction de carte et n'a pas de fonction disque 3,5mm, veuillez en prendre note avant l'achat". J'imagine qu'ils ont dû voir passer quelques retours de clients déçus qui tentaient de l'insérer dans leur vieux PC... Même si après, trouver un PC avec un lecteur de disquette en 2025, c'est déjà un exploit en soi.
Du coup cette carte permet de prendre le métro, le bus, le train, le taxi, de louer un vélo, et de payer dans les 7-Eleven, FamilyMart, McDonald's, Burger King et plein d'autres enseignes. Bref, c'est une vraie carte de paiement, juste avec un look de rêve pour les nostalgiques de l'ère DOS.
Et si vous pensez que c'est le gadget le plus absurde qu'ils ont sorti, détrompez-vous puisque iPASS propose aussi des cartes en forme de téléphone Motorola DynaTAC (le gros portable des années 80), de train miniature, de tong, et même de boule à neige Godzilla avec des LEDs. Sur le site PCHome24, y'a littéralement 838 designs différents de cartes iPASS. Les Taïwanais, ils font pas les choses à moitié.
Une carte standard coûte environ 100 NT$ (3 euros) sans crédit, mais les éditions collectors peuvent monter jusqu'à 1000 NT$ ou plus selon le délire. Voilà, si vous passez par Taïwan, c'est clairement le souvenir geek ultime à (me) ramener !
Et au moins, contrairement à une vraie disquette, celle-là ne risque pas de vous lâcher après 6 mois à cause d'un petit champ magnétique de passage.
Vous voyez ces photos stylées sur Instagram où le texte semble passer derrière la personne, comme si le gros "FASHION" ou "WORKOUT" était vraiment dans la scène ? C'est l'effet "text behind image" et c'est clairement le truc graphique qui fait super pro en ce moment.
Le problème c'est que pour obtenir ce rendu, faut normalement se taper Photoshop, maîtriser les calques, le détourage, les masques... Bref, perdre une demi-heure sur un truc qui devrait prendre 30 secondes. Et comme vous êtes des gens occupés (contrairement à moi qui passe ma vie à tester des outils), voici la solution.
C'est un site gratuit qui règle tout ça et qui s'appelle Text Behind Image . Vous uploadez votre photo (jusqu'à 10 Mo), l'IA détecte automatiquement le sujet (une personne, un objet, peu importe), vous tapez votre texte, et le site se débrouille pour le placer pile poil derrière. Ça prend quelques secondes de traitement, pas besoin de détourer quoi que ce soit vous-mêmes.
L'interface propose pas mal d'options de personnalisation... Vous pouvez choisir la police, jouer avec la taille, la couleur, l'opacité, la rotation, ajouter des contours... Et surtout, vous voyez le résultat en temps réel, donc vous pouvez repositionner le texte en glisser-déposer jusqu'à ce que ça rende nickel.
Et le top du top, c'est que c'est gratuit, sans limite, sans inscription, et vous téléchargez votre image en haute résolution sans filigrane. J'ai vérifié et y'a même pas de petit "Made with..." planqué dans un coin. C'est assez rare pour un outil en ligne de ce genre alors je tiens à vous le signaler !
Bon après si votre photo est ultra complexe avec 36 personnes et des éléments qui se chevauchent, l'IA va potentiellement galérer à détourer correctement, mais pour une photo classique avec un sujet bien visible sur un fond pas trop chargé, ça marche vraiment bien.
Bref, si vous faites du contenu pour les réseaux, des miniatures YouTube, ou même juste des visuels fun pour votre pote qui fait de la muscu, c'est le genre d'outil à bookmarker direct. En 30 secondes vous aurez un rendu qui vous aurait pris 20 minutes sur Photoshop.
Vous vous êtes déjà demandé si ChatGPT votait à gauche ou à droite ? Moi non plus, j'avoue. Mais maintenant qu'on a la réponse, c'est quand même assez marrant, vous allez voir...
Un développeur a créé PoliBench , un site qui fait passer le test du Political Compass à 40 modèles de langage différents. Le Political Compass c'est ce fameux test avec les deux axes : économique (gauche-droite) et social (libertaire-autoritaire). Le truc qu'on faisait tous sur Internet en 2005 pour finalement découvrir qu'on était un libertaire de gauche comme environ 95% des gens qui passaient le test.
Bref, maintenant les IA aussi peuvent savoir où elles se situent sur l'échiquier politique et ça, ça peut vous aider à mieux les choisir, car les résultats sont assez révélateurs. Niveau cuisine interne, PoliBench teste les 62 questions sur les deux axes du Political Compass, puis calcule les scores pour chaque LLM. Et comme les données sont open source, vous pouvez vérifier la méthodologie vous-même.
Et sans surprise, la plupart des LLMs se retrouvent dans le quadrant libertaire de gauche !! J'dis ça, j'dis rien, mais c'est presque comme si les devs de la Silicon Valley avaient des opinions politiques similaires et les injectaient (consciemment ou pas) dans leurs modèles.
Du coup, j'ai fait le travail de tri pour vous, alors voici le guide ultime pour choisir votre IA selon votre sensibilité politique :
Si vous êtes plutôt LFI, prenez Claude. Il est tellement progressiste qu'il refuse de générer du contenu problématique même quand vous lui demandez une blague sur les vegans. En plus il écrit des pavés de 3000 mots pour expliquer pourquoi il ne peut pas répondre à votre question. Parfait pour tenir un meeting politique de 4 heures.
Si vous êtes plutôt PS, prenez GPT-4. Un modèle qui a connu des jours meilleurs, qui essaie de plaire à tout le monde et qui finit par ne satisfaire personne. Bonus : il change d'avis selon qui lui parle.
Si vous êtes plutôt macroniste, prenez Gemini de Google. Un truc qui promet la disruption et l'innovation mais qui au final fait à peu près pareil que les autres, en plus cher, tout en vous expliquant que c'est pour votre bien.
Si vous êtes plutôt LR, prenez Mistral. C'est français, c'est souverain... mais personne ne sait vraiment ce que ça pense sur les sujets qui fâchent parce que ça évite soigneusement d'en parler.
Si vous êtes plutôt écolo, prenez Llama de Meta. C'est open source donc c'est « pour le bien commun », ça tourne sur du matériel recyclé si vous voulez, et ça consomme moins de ressources que les gros modèles propriétaires. Par contre faut quand même un GPU qui coûte un SMIC.
Et si vous êtes plutôt RN... bah en fait y'a pas vraiment de LLM pour vous. Tous ces modèles ont été entraînés à San Francisco par des gens qui mangent des avocado toasts et font du yoga. Ils refusent donc de générer ce contenu haineux, discriminatoire ou factuellement faux dont vous êtes friants. Désolé, les gars c'est pas compatible. Peut-être essayez Grok d'Elon Musk ? Ah non pardon, lui aussi il a des « guidelines ». Mince alors. Va falloir donc continuer à écrire vos tracts vous-mêmes les amis. Je sais, l'IA woke vous opprime, c'est terrible.
Après, le vrai sujet derrière PoliBench, c'est que ces biais existent bel et bien et qu'ils influencent les réponses que vous recevez sur des sujets sensibles. Quand vous demandez à une IA son avis sur l'immigration, les impôts ou la régulation des entreprises, la réponse dépend en partie de ces préférences encodées dans le modèle. Il faut juste le savoir...
Alors vous choisissez quelle IA à partir de maintenant ?
À l'époque de ma glorieuse jeunesse, je jouais à RoboCop sur NES et c'est vrai que je trouvais ça très cool ! Mais ce que je ne savais pas, c'est que la version arcade de Data East cachait un secret bien vicieux dans ses entrailles électroniques.
En 1988, Data East sort donc RoboCop en version arcade et comme tous les éditeurs de l'époque, ils avaient une peur bleue des bootleggers asiatiques qui clonaient les bornes à tour de bras. Du coup, ils ont eu une idée de génie : planquer une puce HuC6280 dans le hardware. Pour ceux qui ne connaissent pas, c'est le processeur du PC Engine, le cousin japonais de la TurboGrafx-16, sauf que là, elle ne sert absolument pas à faire tourner le jeu.
Non non, cette puce est là uniquement pour emmerder le monde.
Le truc pas con (enfin, pas con pour l'époque), c'est que Data East a externalisé une partie des calculs de collision sur ce processeur secondaire. Du coup, sans la puce HuC6280, le jeu démarre mais les hitboxes sont complètement pétées et les ennemis deviennent invincibles. Faut s'imaginer RoboCop qui tire dans le vide pendant que les méchants lui marchent dessus tranquillement... C'est pas méga vendeur pour une borne à 3000 dollars.
Le problème, c'est qu'en 2025, ces puces HuC6280 commencent à lâcher et quand ça arrive, votre borne RoboCop devient un très joli meuble de 150 kilos.
Et c'est là qu'un développeur du nom de djh0ffman entre en scène. Le bougre s'est dit qu'au lieu de chercher des puces de remplacement introuvables, il allait tout simplement virer cette protection. Mais pour ça, il fallait d'abord comprendre ce que faisait exactement cette fichue puce.
Déjà, il fallait dumper le code du HuC6280. Pas si simple parce que Data East avait aussi obfusqué les tables de jump pour que personne ne puisse facilement lire le code. Du reverse engineering dans le reverse engineering, en quelque sorte.
Une fois le code extrait et désobfusqué, djh0ffman a alors découvert que la puce gérait principalement deux choses : les collisions entre les sprites et la gestion des dégâts. Le reste du jeu tournant sur le processeur principal, un Motorola 68000.
Du coup, la solution était claire. Il fallait porter tout ce code du HuC6280 vers le 68000. Facile à dire bien sûr, mais moins facile à faire quand on parle de deux architectures complètement différentes. Le HuC6280 est certes un dérivé du 6502, mais le 68000 c'est carrément une autre planète.
Mais après des heures de travail, djh0ffman a réussi à recréer toutes les routines de collision en assembleur 68000 et à les injecter dans la ROM originale. Le patch fait environ 2 Ko !! Et ça transforme n'importe quelle borne RoboCop avec une puce morte en machine parfaitement fonctionnelle.
Et le truc cool, c'est que son patch ne contourne pas vraiment la protection, mais la remplace. Le jeu fonctionne donc exactement comme l'original, avec les mêmes collisions, les mêmes dégâts, les mêmes hitboxes. C'est juste que maintenant, tout ça tourne sur le 68000 au lieu du HuC6280.
Et le plus marrant c'est que cette protection était considérée comme inviolable à l'époque. En effet, les bootleggers n'avaient jamais réussi à la craquer proprement, alors ils vendaient des copies avec des collisions approximatives bidouillées à l'arrache. C'est fou ^^ Il peut flex le garçon !
Bref, si vous avez une borne RoboCop arcade qui prend la poussière parce que la puce de protection a rendu l'âme, y'a maintenant un patch IPS disponible qui lui redonne vie. Et pour les curieux qui veulent comprendre comment fonctionnaient ces protections anti-copie des années 80, le write-up de djh0ffman est une mine d'or.
Windows' built-in copy function works well enough for small files. Problems start when transfers involve tens or hundreds of gigabytes, or thousands of files. At that point, File Explorer often slows to a crawl, stalls on "Calculating time remaining," or fails partway through with little clarity on what actually copied.
The issue is not storage speed. It is how File Explorer handles large transfers. Before copying begins, Windows tries to enumerate every file and estimate total size and time. On large directories, this pre-calculation alone can take minutes or longer, and the estimates remain unreliable throughout the process.
Error handling is another weak point. If one file is locked or unreadable, Explorer frequently pauses the entire operation and waits for user input. In some cases, the transfer aborts, leaving a partially copied directory with no built-in way to verify what succeeded. Resume support exists, but re-verification is slow and inefficient, especially across external or network drives.
Explorer also assumes success equals integrity. It does not verify copied data with checksums. For backups, archives, or large media files, this means silent corruption can go unnoticed until the file is opened later.
For large or critical transfers, command-line tools are more reliable. Windows includes Robocopy (Robust File Copy), which is designed for bulk data movement and directory mirroring. It avoids GUI overhead, supports retries, logs every action, and can resume interrupted transfers cleanly.
Robocopy also allows multithreaded copying, making it far more efficient when dealing with thousands of small files. Options exist to control retry counts, wait times, and behavior when files are locked. For backups or migrations, it can mirror directories exactly, reducing human error.
A simple example looks like this:
robocopy D:\Source E:\Backup /MIR /R:3 /W:5 /MT:8
This mirrors one folder to another, retries failed files three times, waits five seconds between retries, and uses multiple threads.
Robocopy is not risk-free. A wrong flag, especially with mirroring, can delete data at the destination. Users should test commands on non-critical folders first and read output logs carefully.
For occasional small transfers, File Explorer remains fine. For professionals, content creators, or anyone regularly moving large datasets, relying on Explorer alone is asking for delays and uncertainty. Command-line tools trade convenience for control, but they finish transfers predictably and leave an audit trail when something goes wrong.
Thank you for being a Ghacks reader. The post Why Windows File Copy Struggles With Large Files, and What Works Better appeared first on gHacks Technology News.
Depuis plus de 20 ans, Exult fait tourner Ultima VII sur Windows, macOS et Linux. C'est un moteur open source génial, mis à jour en mai dernier, qui nécessite les fichiers originaux du jeu et permet de finir The Black Gate et Serpent Isle sans souci. Alors pourquoi diable Anthony Salter a-t-il créé U7 Revisited , un autre moteur pour le même jeu ?
Hé bien parce qu'Exult et U7 Revisited n'ont pas du tout le même objectif.
Le truc que beaucoup ignorent, c'est qu'Ultima VII était techniquement un monde 3D coincé dans un moteur 2D. En 1992, chaque objet du jeu avait déjà une largeur, une profondeur et une hauteur, ce qui fait que ce monde était donc composé de blocs 3072x3072x16. Mais la technologie de l'époque ne permettait pas d'afficher tout ça en vraie 3D, du coup Origin a dû se contenter d'une vue fixe pseudo-isométrique.
Exult vise donc à reproduire cette expérience originale au plus près, tout en ajoutant quelques améliorations. C'est son but et c'est très bien comme ça.
U7 Revisited, lui, part d'un autre postulat qui est : Et si on montrait enfin ce monde 3D dans un vrai moteur 3D ?
Anthony Salter a donc développé son propre moteur pour présenter Britannia avec une caméra rotative, un peu comme Dungeon Keeper ou Grandia. Vous pouvez ainsi tourner autour des bâtiments, zoomer, regarder les choses sous différents angles.
Et ça, ça règle une vraie frustration du jeu original car pour ceux qui y ont joué, vous vous souvenez peut-être de ces moments bien relous où vous cherchiez désespérément un levier ou une clé cachée derrière un mur ? Origin utilisait souvent cette technique de planquer des objets en ne laissant dépasser qu'un ou deux pixels.
Hé bien avec une caméra rotative, fini ce genre de galère.
Côté contrôles, c'est du moderne : WASD pour bouger, Q et E pour la rotation, molette pour le zoom. Le projet est codé en C++ et Lua, et il y a même des touches de fonction (F1 à F11) pour interagir avec différents aspects du monde.
Le développement avance bien d'ailleurs et dans ses dernières updates d'août, Anthony a présenté le support widescreen, un meilleur éclairage et le drag-and-drop pour les objets.
Il existe également plein d'autres projets fans autour d'Ultima comme Nuvie qui recréé Ultima 6, Pentagram qui s'occupe d'Ultima VIII. La communauté Ultima adore refaire ses jeux préférés avec des outils modernes, c'est comme ça. Mais U7 Revisited a quand même cette approche unique avec cette vision 3D du monde.
Si vous voulez tester, il faut copier les fichiers du jeu original DOS dans le dossier /Data/u7 puis builder le projet via CMake ou Meson.
Merci à Joseph de m'avoir signalé ce projet.
Bon, vous avez tous vu passer cette histoire des documents Epstein mal censurés, j'imagine ?
En effet, des journalistes ont réussi à récupérer une bonne partie des informations censées être masquées dans les fichiers judiciaires... ça peut impressionner mais n'allez pas croire que ce soit quelque chose de compliqué et ces techniques sont à la portée de n'importe qui.
C'est pourquoi aujourd'hui, j'vais pas vous parler du scandale (y'a assez de monde dessus), mais des techniques pour récupérer ce qui se cache derrière ces fameux rectangles noirs. Du pur OSINT appliqué au forensique documentaire.
Commençons par le plus basique et pourtant le plus courant : le bon vieux copier-coller. Ouais, je sais, ça paraît con dit comme ça, mais vous seriez surpris du nombre de documents "confidentiels" qui sont censurés en posant simplement un rectangle noir par-dessus le texte dans Word ou Adobe Acrobat. Le texte original pourtant est encore là, bien au chaud sous cette couche graphique. Il suffit donc de sélectionner la zone, un petit Ctrl+C, et hop, on colle dans un éditeur de texte. Boom, le texte "caché" apparaît en clair.
C'est d'ailleurs exactement ce qui s'est passé avec des documents du Pentagone en 2005, et plus récemment avec des fichiers judiciaires américains. Bizarrement, les gens confondent "masquer visuellement" et "supprimer", alors que c'est pas du tout la même chose ^^.
Pour vérifier si un PDF est vulnérable à cette technique, vous pouvez utiliser pdftotext (inclus dans poppler-utils sur Linux) :
pdftotext document_censure.pdf - | lessSi le texte sous les rectangles noirs apparaît, bingo. Vous pouvez aussi utiliser PyMuPDF en Python pour extraire le texte brut :
import fitz doc = fitz.open("document.pdf") for page in doc: print(page.get_text())Maintenant, passons aux documents scannés. Là c'est plus subtil parce que techniquement, y'a pas de "texte" à copier, juste une image. Sauf que les scanners et les logiciels de numérisation ajoutent souvent une couche OCR invisible par-dessus l'image. Cette couche contient le texte reconnu automatiquement, et elle peut inclure ce qui a été censuré AVANT le scan si le masquage était mal fait.
Mais même sans couche OCR, y'a des trucs à tenter. Si la censure a été faite avec un marqueur physique (genre un Sharpie sur le document papier avant scan), il est parfois possible de jouer avec l'exposition et le contraste de l'image pour faire ressortir le texte en dessous. Les marqueurs noirs ne sont pas toujours 100% opaques, surtout sur du papier fin.
Avec GIMP ou Photoshop, vous pouvez don extraire les pages du PDF en images (pdftoppm ou convert) puis jouer avec les niveaux, courbes et exposition, inverser les couleurs ou encore appliquer des filtres de détection de contours
Ça marche pas à tous les coups, mais quand ça marche, c'est magique ^^.
Maintenant, la technique qui a fait des ravages c'est l'exploitation des sauvegardes incrémentales. Car vous ne le savez peut-être pas mais les fichiers PDF disposent d'un système de sauvegarde qui ajoute les modifications à la fin du fichier plutôt que de réécrire le document entier. Chaque "version" est ainsi séparée par un marqueur %%EOF (End Of File).
Concrètement, si quelqu'un ouvre un PDF, ajoute des rectangles noirs de masquage, puis sauvegarde, l'ancienne version du document est souvent toujours là, juste avant le dernier %%EOF. C'est comme un système de versioning intégré, sauf que personne n'y pense jamais.
Pour exploiter ça, il faut extraire la version originale (avant la dernière modification) comme ceci :
head -c [offset_avant_dernier_EOF] document.pdf > version_originale.pdfL'outil QPDF permet aussi d'analyser la structure interne :
qpdf --show-xref document.pdf qpdf --json document.pdf | jq '.objects'Et les métadonnées ?? Je vous en ai pas parlé encore mais un PDF c'est pas juste du contenu visible. C'est aussi une mine d'or d'informations cachées. Le nom de l'auteur, la date de création, le logiciel utilisé, l'historique des modifications, parfois même des commentaires ou des annotations invisibles.
Et pour cela, ExifTool est votre meilleur ami :
exiftool -a -u -g1 document.pdfVous pouvez aussi utiliser pdfinfo :
pdfinfo -meta document.pdfDans les documents judiciaires qui ont récemment fuité, les métadonnées ont révélé les noms des personnes qui avaient édité les fichiers, les dates exactes des modifications, et parfois des chemins de fichiers sur les serveurs internes... Oups.
Maintenant, la technique la plus vicieuse ça reste quand même l'analyse des positions de glyphes. En effet, des chercheurs ont publié un papier intitulé " Story Beyond the Eye " qui démontre qu'on peut parfois deviner le contenu masqué en analysant la largeur des zones masquées.
Le principe c'est que dans un PDF, chaque caractère a une largeur précise définie par sa police de caractère. Si vous savez quelle police est utilisée (et c'est souvent le cas, puisque les tribunaux américains adorent Times New Roman par exemple), vous pouvez calculer combien de caractères tiennent dans la zone noire. Et si vous avez du contexte (comme le début ou la fin d'une phrase), vous pouvez parfois deviner le mot exact.
Avec des polices à chasse fixe comme Courier, c'est encore plus facile puisque chaque caractère fait exactement la même largeur. Comptez alors les pixels, divisez par la largeur d'un caractère, vous avez le nombre de lettres.
Un outil qui facilite tout ça c'est X-Ray , développé par le Free Law Project qui est capable d'analyser les PDF et de détectre automatiquement les censures défectueuses.
Autre outil sympa que je vous conseille, c'est unredactor , qui tente de reconstruire automatiquement le texte sous les blocs de masquage en utilisant diverses heuristiques.
Ça c'est pour les PDF, mais pour les images PNG ou les captures d'écran censurées, y'a aussi des trucs à faire. Leurs métadonnées EXIF peuvent contenir des informations sur l'appareil, la géolocalisation, la date, mais surtout, si l'image a été éditée avec certains logiciels, des données résiduelles peuvent trainer.
La technique du "thumbnail" est par exemple particulièrement fourbe puisque certains logiciels génèrent une miniature de l'image AVANT les modifications et l'embarquent dans les métadonnées. Donc vous ouvrez la miniature, et vous voyez l'image originale non censurée. C'est arrivé plusieurs fois dans des affaires judiciaires. Voici comment l'extraire avec Exiftool :
exiftool -b -ThumbnailImage image_redactee.jpg > thumbnail.jpgPour les professionnels du forensique, y'a aussi la technique de l'analyse des données compressées. Comme les algorithmes JPEG et PNG ne sont pas parfaits, les zones éditées ont parfois des artefacts de compression différents du reste de l'image. Cela peut révéler où des modifications ont été faites.
Bon et maintenant que vous savez comment récupérer des infos censurées, parlons maintenant de comment BIEN censurer un document, histoire de pas vous planter.
En fait, la seule méthode vraiment sûre c'est de supprimer définitivement le contenu. Je répète : Ne masquez pas le contenu, supprimez le !
Adobe Acrobat Pro a par exemple une fonction "Redact" qui fait ça correctement car cette fonction supprime réellement le texte et les métadonnées associées.
Alternativement, vous pouvez aussi exporter le document en PDF (ça aplatit toutes les couches), utiliser des outils comme pdf-redact-tools qui suppriment vraiment le contenu, et le convertir en image puis le reconvertir en PDF (bourrin mais efficace)
Et SURTOUT, vérifiez toujours le résultat avec les techniques mentionnées plus haut avant de diffuser quoi que ce soit.
Voilà, vous avez maintenant un petit arsenal de techniques OSINT pour analyser des documents "confidentiels". Bien sûr, comme d'hab, utilisez ces connaissances de manière responsable et éthique car une fois encore, le but c'est de comprendre les failles pour mieux se protéger, et pas de violer la vie privée des gens.
Voilà... Et la prochaine fois que vous verrez un document officiel avec des gros rectangles noirs, vous saurez que c'est peut-être pas aussi opaque que ça en a l'air. Niark niark...
Vous utilisez Claude Code comme moi pour bosser plus vite sur vos projets de dev ? Hé bien j'espère que vous n'avez jamais eu la mauvaise surprise de voir l'agent lancer un petit rm -rf ~/ qui détruit tout votre répertoire home en 2 secondes. Parce que oui, ça arrive malheureusement, et plusieurs devs en ont fait les frais cette année...
Le problème c'est que les agents IA, aussi intelligents soient-ils, peuvent manquer de garde-fous sur ce qui est vraiment dangereux. Vous leur dites "nettoie le projet" et hop, ils interprètent ça un peu trop littéralement et une fois que c'est fait, y'a plus qu'à pleurer devant son terminal vide.
C'est pour ça qu'un développeur du nom de kenryu42 a créé Claude Code Safety Net qui est un plugin pour Claude Code qui agit comme un garde-fou mécanique. Son idée c'est de bloquer les commandes destructives AVANT qu'elles ne s'exécutent, et pas juste avec des règles bêtes genre "si la commande commence par rm -rf".
Le plugin est bien plus malin que ça puisqu'il fait une analyse sémantique des commandes. Il comprend la différence entre git checkout -b nouvelle-branche (qui est safe, ça crée juste une branche) et git checkout -- . qui lui va dégager tous vos changements non committés sur les fichiers suivis. Les deux commencent pareil, mais l'une vous sauve et l'autre vous ruine psychologiquement, vous forçant à vous réfugier dans la cocaïne et la prostitution.
Et c'est pareil pour les force push. Le plugin bloque git push --force qui peut écraser l'historique distant et rendre la récupération très difficile, mais il laisse passer git push --force-with-lease qui est la version plus sûre, car elle vérifie que la ref distante correspond à ce qu'on attend (même si ce n'est pas une garantie absolue).
Et le truc vraiment bien foutu, c'est qu'il détecte aussi les commandes planquées dans des wrappers shell. Vous savez, le genre de piège où quelqu'un écrit sh -c "rm -rf /" pour bypass les protections basiques. Le plugin parse récursivement et repère la commande dangereuse à l'intérieur. Il fait même la chasse aux one-liners Python, Ruby ou Node qui pourraient faire des dégâts.
Côté rm -rf, le comportement par défaut est plutôt permissif mais intelligent... les suppressions dans /tmp ou dans le dossier de travail courant sont autorisées parce que c'est souvent légitime, par contre, tenter de nuke votre home ou des dossiers système, c'est non négociable.
Et pour les paranos (comme moi), y'a un mode strict qu'on active avec SAFETY_NET_STRICT=1. Dans ce mode, toute commande non parseable est bloquée par défaut, et les rm -rf même dans le projet courant demandent validation. Mieux vaut prévenir que pleurer.
Si ça vous chauffe, l'installation se fait via le système de plugins de Claude Code avec deux commandes :
/plugin marketplace add kenryu42/cc-marketplace /plugin install safety-net@cc-marketplaceEt hop, vous redémarrez Claude Code et c'est opérationnel.
Ensuite, quand le plugin bloque une commande, il affiche un message explicite genre "BLOCKED by safety_net.py - Reason: git checkout -- discards uncommitted changes permanently" donc vous savez exactement pourquoi ça a été refusé et vous pouvez décider en connaissance de cause si vous voulez vraiment le faire.
Bref, j'ai testé ce plugin sur mes projets et c'est vraiment cool alors si vous utilisez Claude Code en mode YOLO, ça vous évitera de rejoindre le club des devs qui ont tout perdu à cause d'un agent trop zélé...
Players logging into World of Warcraft today will find free holiday rewards waiting under the Feast of Winter Veil tree. Blizzard's annual Winter Veil tradition returns with three exclusive items that can be claimed right now, but only for a limited time.
The 2025 Winter Veil gifts include two toys and one battle pet: the Rolling Snowball, the Jubilant Snowman Costume, and the Tiny Snow Buddy. These rewards are available once per character and can be collected by visiting the Feast of Winter Veil tree in the capital cities.
Winter Veil gifts are only available starting December 25 and must be claimed before the event ends on January 2. Players need to interact with the presents under the tree, complete the short quests they provide, and then open the gifts to permanently add the items to their collections.
This annual giveaway has been part of World of Warcraft since 2007. Each year's gifts are new, while older holiday items typically become much harder to obtain after the event ends. Missing the initial window does not make the rewards impossible to get, but it significantly reduces the odds.
Gifts from past Winter Veil events can sometimes drop from the Stolen Present, which is rewarded for completing the Abominable Greench daily quest during the holiday. These drops are rare and tied to a Feat of Strength achievement.
Players who want the items with certainty should log in before January 2 and collect the gifts on every character they care about, as each character can claim the rewards independently.
Thank you for being a Ghacks reader. The post World of Warcraft Players Can Claim Free Winter Veil Gifts Until January 2 appeared first on gHacks Technology News.
OpenAI has begun rolling out a subtle interface change in ChatGPT that alters how certain responses are displayed. The update introduces "formatting blocks," which present content like emails or documents inside a task-style layout instead of the standard chat bubble.
The change appears when ChatGPT detects writing-oriented prompts, such as drafting emails or longer text. Instead of returning a plain message, the output is shown in a formatted document area. Selecting text inside these blocks reveals a small editor toolbar with common formatting options, similar to what users see in email or document apps.
This does not change how ChatGPT generates text. The update affects presentation only. The goal is to make editing drafts easier without copying content into another app, especially for tasks that resemble document creation rather than conversation.
Formatting blocks currently appear in GPT's newer rich-text responses and are rolling out gradually. Not all users see them yet, and support varies depending on the task type. OpenAI has not published a full list of triggers or a timeline for broader availability.
There is no dedicated toggle to disable formatting blocks at the moment. Users who prefer plain chat output can usually avoid the new layout by asking ChatGPT to respond in plain text or by framing prompts explicitly as conversational replies rather than documents. Switching to shorter prompts or requesting "plain text only" also tends to bypass the formatted view.
The update nudges ChatGPT closer to task-oriented tools like email editors and note apps, at least for writing-heavy workflows. For users who treat GPT primarily as a conversational assistant, the change may feel unnecessary, but it does not affect prompts that do not trigger document-style output.
Thank you for being a Ghacks reader. The post ChatGPT’s New Formatting Blocks Change How Writing Tasks Look appeared first on gHacks Technology News.