Qu'est-ce que j'aimais ces soirées scotché devant M6 à regarder Mulder et Scully enquêter sur des trucs inexplicables ! Les extraterrestres, les monstres de la semaine, le grand complot gouvernemental... X-Files c'était LA série qui nous a tous fait flipper dans les années 90, à tel point qu'éteindre la télé et aller me coucher après un épisode était un combat contre la peur d'être enlevé par des petits gris... Et bien accrochez-vous parce qu'un reboot est en préparation !
Ryan Coogler vient en effet de confirmer qu'il bossait sur un reboot de X-Files et que c'était son prochain projet, juste après son film "Sinners". Pour ceux qui connaissent pas, Coogler c'est le gars derrière Black Panther et la saga Creed... Donc autant dire qu'il sait s'y prendre pour donner un coup de jeune aux franchises cultes.
Il a évidemment promis de respecter ce qui fait l'ADN de la série. Je cite : "It wouldn't be X-Files if we didn't do both. We intend on having both monsters of the week and also the overarching conspiracy." Traduction pour ceux du fond : on aura les épisodes standalone avec des créatures flippantes ET une grande conspiration au long cours. Soit les deux piliers qui ont fait le succès de la série originale.
Et le réalisateur a même ajouté que si son équipe fait bien son boulot, certains épisodes seront "really fucking scary". Moi j'attends que ça !!
Et le gars a l'air motivé pour faire un truc bien puisqu'il explique que X-Files c'est comme Rocky avec son père, sauf que là c'est avec sa mère. "The X-Files is one of those things with my mom. My mom means the world to me." Sa daronne a même déjà lu certains scripts et apparemment elle valide. Je pense que quand un réalisateur de ce calibre aborde un projet avec autant d'attachement personnel, ça promet du lourd !
Côté casting, ça reste mystérieux par contre... Coogler confirme avoir parlé avec Gillian Anderson qui pourrait revenir incarner Scully mais rien n'est signé. Pour Duchovny, même flou artistique. Par contre, des rumeurs circulent sur Danielle Deadwyler qui a cartonné dans "Till", pour un rôle principal.
Le projet est développé via Walt Disney Television depuis que Chris Carter (le créateur original) a révélé son existence en 2023 et lui a donné sa bénédiction même s'il n'est pas impliqué directement dedans.
Perso, je suis comme un gosse ! X-Files c'était pas juste une série, c'était une ambiance, j'sais pas comment dire... Ils avaient une façon unique de mélanger le paranormal, la science-fiction et le thriller politique donc si Coogler arrive à retrouver cette atmosphère tout en l'adaptant à notre époque paranoïaque de fake news et de surveillance généralisée, ça peut être énorme.
Quoiqu'il en soit, la vérité est ailleurs... et j'ai hâte de la retrouver !
Moi je pensais qu'un lave-linge c'était juste... un lave-linge. On tourne le bouton, le bouton tout rond, et paf, ça lave... Mais aujourd'hui ces bestioles sont bourrées d'électronique et connectées à fond au cloud. Et forcément, ça a donné des idées à deux chercheurs allemands qui ont présenté leurs travaux au 39C3 (Chaos Communication Congress).
Severin von Wnuck-Lipinski et Hajo Noerenberg ont passé des mois à décortiquer les entrailles de machines Miele et BSH (Bosch, Siemens, Neff, Gaggenau) et leurs découvertes sont super intéressantes pour qui s'intéresse notamment au droit à la réparation et à la domotique (sans dépendre du cloud).
Côté Miele, Severin a découvert que la plupart des machines fabriquées après 1996 embarquent une interface de diagnostic optique. Un petit port infrarouge planqué sur la façade qui permet aux techniciens de se connecter avec un outil proprio appelé MDU (Miele Diagnostic Utility). Le protocole c'est du bon vieux UART à 2400 bauds avec parité paire. Pas de chiffrement mais juste une clé de sécurité à 16 bits.
Et c'est là que ça devient croquant à souhait car pour trouver ces clés de diagnostic, Severin a exploité une faille de timing sur le microcontrôleur 8 bits. En gros, quand vous envoyez une mauvaise clé, le microcontrolleur met un tout petit peu plus de temps à répondre que quand le premier octet est correct. En mesurant ces délais avec un oscilloscope, il a pu deviner les clés octet par octet.
Et c'est grâce à cela qu'il a créé FreeMDU , un outil open source qui permet de dialoguer avec les appareils Miele et compatibles. Diagnostics, codes erreur, compteurs de cycles... tout est accessible et y'a même une intégration Home Assistant pour les fans de domotique DIY.
Côté BSH, Hajo a attaqué le D-BUS, le bus de communication propriétaire qui relie tous les composants internes (moteur, pompe, interface utilisateur, module WiFi). C'est également du UART à 9600 bauds sur des connecteurs RAST, avec une tension de bus de 9V pour les lave-linge et 13.5V pour les lave-vaisselle.
Le plus beau c'est qu'en fouillant le firmware du module timeline (celui qui gère l'affichage du temps restant), Hajo a trouvé des easter eggs planqués par les développeurs dans les graphiques. Comme quoi même les ingénieurs Bosch ont le sens de l'humour ^^.
Suite à ça, Hajo a développé bsh-home-appliances , un projet open source avec une extension ESPHome pour intégrer les appareils BSH dans Home Assistant. Vous pouvez donc suivre votre cycle de lavage, recevoir des notifications, et même accéder aux diagnostics sans passer par l'app proprio.
Et le final de la présentation était épique puisque les deux chercheurs ont connecté un lave-linge Miele à l'application BSH Home Connect via une couche de compatibilité maison qu'ils ont baptisée AMBCL (Advanced Miele BSH Compatibility Layer). Un Miele qui parle le Bosch, ça c'est fait !
Bref, si vous avez un appareil Miele ou BSH qui traîne et que vous voulez reprendre le contrôle sans dépendre du cloud du fabricant, les outils sont maintenant disponibles. C'est ça aussi le droit à la réparation : pouvoir diagnostiquer soi-même sa machine sans appeler un technicien à 150 euros de l'heure.
Par contre, bidouillez vos propres appareils uniquement parce que faire ça sur le lave-linge de votre meilleur pote, c'est pas cool et c'est illégal, alors fézez pas les cons !
Bon, il est bientôt l'heure de la pause et vous avez bien mérité de faire travailler vos méninges sur autre chose que des lignes de code ou des tableurs Excel. Ça tombe bien, je viens de tomber sur un petit jeu web qui va vous rappeler des souvenirs... Vous vous souvenez de "Des Chiffres et des Lettres" ? Cette émission où Bertrand Renard alignait des calculs pendant que vous, gamin, vous demandiez pourquoi vos parents regardaient un truc aussi barbant ?
Hé bien Make 67 s'en inspire clairement, mais en version web décontractée et sans le stress du chrono qui défile à la télé.
On vous donne 4 nombres au hasard et vous devez combiner le tout avec les opérations de base (addition, soustraction, multiplication, division) pour obtenir... 67. Pourquoi 67 ? Aucune idée, mais c'est le charme du truc. Chaque nombre ne peut être utilisé qu'une seule fois, et petit détail qui a son importance, les calculs s'effectuent de gauche à droite, pas selon l'ordre mathématique classique. Du coup 2 + 3 × 4 ça donne 20, pas 14. Faut s'y faire, mais ça rajoute une petite couche de réflexion.
L'interface est minimaliste au possible avec 4 boutons pour les nombres, 4 pour les opérations, et hop vous construisez votre expression. Et si vous vous plantez, y'a un bouton Clear pour recommencer. Mais attention, vous ne pouvez l'utiliser que 3 fois max, après quoi le bouton Solve se débloque pour vous montrer la solution. Pas de jugement, on a tous des jours sans ^^.
Le petit plus sympa c'est quand vous trouvez la bonne combinaison. Votre téléphone peut vibrer (si compatible), des confettis apparaissent et y'a même un petit son de victoire. C'est con mais ça fait plaisir. Et pour les maniaques du détail, sachez que le jeu gère proprement les divisions en arrondissant à 6 décimales.
Perso je trouve ça parfait pour une pause de 5 minutes entre deux réunions ou pour décompresser en fin de journée.
Bref, si vous cherchez un truc pour occuper votre pause café, c'est cadeau .
Vous avez déjà eu besoin de vidéos de test en 4K HDR pour calibrer votre écran, tester un encodeur maison ou juste faire le malin avec votre nouveau téléviseur ? Hé bien je ne le savais pas mais Netflix met à disposition gratuitement une bibliothèque de contenus professionnels sous licence Creative Commons Attribution 4.0 (donc vous pouvez les utiliser à condition de créditer Netflix).
Ça s'appelle Netflix Open Content et c'est une initiative plutôt méconnue du géant du streaming. L'idée c'est de fournir aux développeurs, chercheurs et autres bidouilleurs des fichiers vidéo de référence de qualité broadcast, sans les problèmes de droits habituels.
Et y'a du lourd dans le catalogue puisqu'on y trouve des courts-métrages d'animation comme Sol Levante (2020), un anime réalisé en partenariat avec Production I.G et entièrement dessiné à la main en 4K HDR natif. Côté live-action, y'a aussi des trucs techniques comme Sparks (2017) filmé en 4K à quasi 60 fps avec un master HDR encodé pour 4000 nits... de quoi faire chauffer les dalles haut de gamme.
Netflix fournit les masters vidéo en HDR10 et pour certains projets des métadonnées Dolby Vision au format XML. Pour Sol Levante par exemple, y'a même les sessions Pro Tools avec le mix Dolby Atmos, les storyboards et quelques fichiers After Effects du projet. Donc pour les devs qui bossent sur des codecs ou les fabricants de TV qui veulent calibrer leurs dalles, c'est de l'or en barre.
Le téléchargement se fait soit via navigateur, soit en ligne de commande avec AWS CLI si vous avez de gros fichiers à récupérer... et croyez-moi certains pèsent lourd comme Sol Levante ou encore Sparks.
Après, faut quand même noter que le dernier contenu ajouté date de 2020 donc le projet n'a pas l'air très actif ces derniers temps mais les contenus restent parfaitement utilisables. Et vous en trouverez d'autres ici également .
Voilà, si vous cherchez des vidéos de test de qualité pro sans vous prendre la tête avec les droits d'auteur, c'est une ressource plutôt sympa à bookmarker.
J'sais pas si vous vous rappelez mais quand on jouait à nos jeux préférés sur un de ces vieux écrans CRT, l'image était nette ! Une clarté de mouvement quasi parfaite, avec très peu de traînées... C'était chouette ! Hé bien y'a un dev qui a décidé de recréer ça sur nos écrans modernes avec un outil open source qui s'appelle ShaderBeam .
En fait, le souci de nos LCD et autres OLED, c'est que chaque pixel reste allumé pendant toute la durée d'une frame (c'est ce qu'on appelle le sample-and-hold ). Alors que sur un CRT, le faisceau d'électrons balayait l'écran ligne par ligne, donc chaque pixel ne s'allumait qu'une fraction de seconde. C'est ça qui donnait cette sensation de netteté en mouvement. C'est précisément ce comportement que ShaderBeam tente de reproduire via un shader GPU.
Le projet vient de sortir en version 0.1 beta et c'est développé par Mausimus, le même gars qui a créé ShaderGlass (un overlay pour appliquer des shaders sur Windows). Et son nouveau bébé utilise la technologie de simulation CRT de Blur Busters , développée par Mark Rejhon et Timothy Lottes.
Si vous testez, vous verrez, les résultats peuvent être assez bluffants selon votre config. Sur un écran 120Hz, vous pouvez réduire le flou de mouvement jusqu'à 50% pour du contenu 60fps. À 240Hz, on peut monter à 75% de réduction. Et si vous avez un monstre à 480Hz, c'est jusqu'à 87,5% de blur en moins. Autant dire que ça peut commencer à se rapprocher de l'expérience CRT d'antan.
Le gros avantage par rapport au Black Frame Insertion classique (le BFI que proposent certains écrans), c'est que ShaderBeam peut flicker moins selon les réglages. Au lieu d'alterner brutalement entre image et noir, le shader simule la phosphorescence qui s'estompe progressivement. Résultat, ça peut être plus agréable pour les yeux sur du contenu 60fps.
Par contre, y'a quelques contraintes. Déjà vous avez besoin d'un écran qui monte au minimum à 100Hz, et 240Hz ou plus c'est vraiment l'idéal. Ensuite, le dev recommande d'utiliser un deuxième GPU (votre iGPU intégré fait l'affaire) pour faire tourner ShaderBeam pendant que votre carte graphique principale gère le jeu. Ça peut aider à éviter les problèmes de désync dans la plupart des jeux.
Pour l'installer, ensuite c'est assez simple. Vous téléchargez le zip depuis GitHub, vous lancez l'exe, et l'overlay se met par-dessus vos jeux en fullscreen. Y'a des raccourcis clavier pour afficher l'interface de config (Ctrl+Shift+B), et vous pouvez ajuster plein de paramètres selon votre écran et vos préférences. Attention, il est recommandé de désactiver HAGS, VRR et HDR pour de meilleurs résultats.
Bon, c'est encore une beta, donc attendez-vous à quelques bugs et attention si vous êtes photosensible car ça peut créer des flashs rapides. Mais pour les nostalgiques du CRT qui veulent retrouver cette clarté de mouvement sur leurs écrans modernes, c'est vraiment un projet à suivre. D'ailleurs, Blur Busters propose une démo interactive si vous voulez voir le principe en action avant de télécharger.
Vous vous rappelez de votre PlayStation 2, cette bonne vieille console qui a bercé les années 2000 avec ses GTA, ses Final Fantasy et ses Pro Evolution Soccer ? Et bien figurez-vous que Sony avait sorti à l'époque un kit officiel pour transformer la machine en PC sous Linux. D'abord au Japon en 2001, puis aux États-Unis en 2002. Oui, officiellement, fait par Sony.
C'était complètement dingue quand on y pense !
Le kit PS2 Linux (compatible uniquement avec les modèles "fat" avec baie d'extension) comprenait tout un attirail de ouf : un disque dur IDE de 40 Go, un adaptateur réseau (qui faisait aussi office d'interface IDE), un adaptateur VGA pour brancher la console sur un moniteur compatible (sync-on-green requis), une carte mémoire de 8 Mo (requise mais non incluse), et même un clavier et une souris USB aux couleurs de la PlayStation. Sony avait vraiment mis le paquet sur la qualité de ces périphériques, avec un clavier qui avait un toucher plutôt agréable pour l'époque.
Côté électronique, la PS2 embarquait un processeur MIPS R5900 (le fameux Emotion Engine) et le système tournait sur un kernel Linux 2.2.1 basé sur Kondara MNU/Linux (une distro japonaise dérivée de Red Hat). Par contre, avec seulement 32 Mo de RAM, fallait pas s'attendre à des miracles. Le système incluait quand même l'environnement de bureau Window Maker, un gestionnaire de fenêtres old school mais terriblement classe avec son petit pingouin.
L'installation se faisait via un disque (CD ou DVD selon l'édition) qu'on insérait comme un jeu, et la carte mémoire stockait les fichiers de boot. Ensuite il fallait partitionner le disque dur à la main en suivant la doc, parce que y'avait pas d'assistant automatique. Une fois installé, on pouvait lancer des applications, compiler du code, et même faire tourner des navigateurs comme Mozilla Suite (Firefox étant arrivé plus tard via des ports communautaires).
Le lecteur DVD-ROM n'était pas utilisable sous PS2 Linux (pas de driver), ce qui empêchait de copier des jeux, par contre, rien n'empêchait de développer ses propres programmes. D'ailleurs, le kit était principalement destiné aux développeurs et aux bidouilleurs qui voulaient explorer l'architecture de la console.
Aujourd'hui ces kits sont devenus assez rares et se revendent à prix d'or pour les collectionneurs. Toutefois vous pouvez en trouver un à un prix raisonnable par exemple ici sur eBay . Il est vendu par l'éditeur du journal Le Virus Informatique afin de financer le prochain numéro avec cette vente. Y'a même des distributions Linux plus modernes comme Black Rhino qui ont été portées sur PS2 par la communauté.
C'était vraiment une autre époque où les constructeurs osaient ce genre d'expérimentations... Une console de jeu grand public qui peut officiellement booter sur Linux, ça n'arriverait plus aujourd'hui et c'est bien dommage je trouve...
Ah, Final Fight sur Mega Drive... Si vous avez vécu la déception du portage SNES à l'époque (un seul joueur, Guy aux abonnés absents, des stages raccourcis), vous savez de quoi je parle. Capcom nous avait bien eu sur ce coup-là.
Du coup quand j'ai découvert qu'un développeur brésilien du nom de Mauro Xavier avait décidé de recréer le jeu de zéro pour notre bonne vieille 16 bits de Sega, j'ai évidemment été voir ça de plus près. Et le résultat est vraiment dingue.
Final Fight MD propose les 3 personnages de l'arcade (Cody, Guy et Haggar) plus Maki en bonus (oui, celle de Final Fight 2 !), tous les stages, tous les ennemis, tous les boss... Bref, la vraie version arcade complète, et pas la version amputée qu'on nous avait refourgué sur console.
Et le truc qui m'a fait triper, c'est qu'on peut jouer jusqu'à 3 joueurs en simultané grâce au support du SEGA Team Player ou du EA 4-Way Play. Trois potes dans le même salon à tabasser du Mad Gear, comme au bon vieux temps des bornes d'arcade... C'est ti pas beau ça ?
Le projet vient de sortir sa version 0.92b "Christmas 2025" avec une tonne de corrections de bugs et d'améliorations. Je vous passe le changelog complet qui fait des kilomètres, mais sachez que ça inclut un système de sauvegarde SRAM, 60 succès à débloquer, un mode Jukebox pour écouter les musiques, et des tas d'options de personnalisation. Vous pouvez même régler la difficulté, le nombre de vies, activer ou non les continues...
Et le plus impressionnant dans tout ça, c'est que le jeu a été codé entièrement from scratch. Y'a pas une ligne de code original de Capcom, puisque tout a été recréé par Mauro Xavier et son équipe (Edmo Caldas pour la musique, Master Linkuei pour le support technique). Et y'a même les sprites des personnages qui ont été redessinés pour coller au style Mega Drive.
Le projet est bien sûr toujours en cours de développement mais la version actuelle est déjà super stable et jouable. Et quand ce sera terminé, ça sera gratuit les amis !
Voilà, si vous êtes fan de rétrogaming et de beat'em all old school, foncez télécharger la ROM sur itch.io . Vous m'en direz des nouvelles ^^
Merci à Lorenper pour le partage !
Vous avez un Steam Deck, un Lenovo Legion Go ou un ROG Ally qui traîne dans un coin parce que pas le temps de jouer, vous avez trop de boulot... Je connais bien vous inquiétez pas.
Mais si je vous disais que ce petit truc qui prend la poussière peut devenir votre meilleur allié pour les audits de sécurité discrets ?
Mais siii ! J'vous jure !
C'est en tout cas ce que propose Balor , un framework offensif fraîchement sorti et développé par Jean-Claude Charrier , qui grâce à ça peut d'un coup, transformer votre console gaming en une station de pentest portable.
Son concept est parti d'un constat simple... Quand vous débarquez en mission de pentest avec un cahier des charges qui exige de la discrétion, sortir un WiFi Pineapple c'est un peu comme débarquer en costard dans un festival de métal. Ça se voit !! Mais avec une console portable gaming par contre, vous avez juste l'air d'un type qui fait une pause entre deux réunions.
Ni vu ni connu, j't'embrouille !
Balor tourne sous CachyOS et Arch Linux, s'installe en une dizaine de minutes et embarque pas moins de 8 stacks pour environ 130 options au total. Côté WiFi, vous avez aircrack-ng, wifite, bettercap et même des versions de Wifiphisher réécrites spécialement pour Python 3.13. Pour l'OSINT, c'est Maltego, theHarvester, Shodan et compagnie. Et y'a aussi du Metasploit, Burpsuite, Nmap, Masscan, SQLMap, Hashcat, John the Ripper... Bref, la totale.
Le truc sympa c'est que tout passe par un wrapper unique appelé "balorsh". Vous tapez balorsh wifi et hop, le menu WiFi apparaît ! Pareil pour balorsh llm qui lance un assistant IA local via Ollama avec des personas adaptés comme Red Team pour l'offensif, Blue Team pour le défensif, Purple Team pour mixer les deux...etc.
L'installation se fait via un script qui dépose tout dans /opt/balorsh/data/ et la désinstallation est tout aussi propre. En plus chaque stack est modulaire, donc si vous n'avez besoin que du cracking de mots de passe, vous installez juste cette partie. Pour les sysadmins qui voudraient comprendre les workflows pentest sans se taper toute la doc, c'est aussi un bon point d'entrée. Genre enchaîner theHarvester, amass, massdns et httprobe pour du recon, ça devient accessible même sans être certifié OSCP ^^.
Côté limitations, Balor reste exclusif à l'écosystème Arch/CachyOS mais rassurez-vous, un portage Debian est envisagé si la demande suit.
Perso je trouve l'approche vraiment bien trouvée et le fait que ce soit un projet français plutôt qu'une énième distro sécu américaine corporate, ça fait plaisir. Voilà, par contre comme d'hab, c'est un outil pour les audits autorisés uniquement avec contrat signé, et pas pour aller embêter le WiFi du voisin, hein ^^.
Alors déconnez pas !
Encore merci à Jean-Claude d'avoir partager sa création avec moi.
Vous utilisez un VPN ou Tor pour protéger votre vie privée en ligne et vous pensez être tranquille derrière votre petit tunnel chiffré ?
Que nenni les amis ! Car un chercheur vient de montrer qu'il existe une technique pour démasquer les proxies TCP... et ça concerne potentiellement votre VPN aussi. Du coup, même si vous faites tout bien, y'a quand même moyen de vous griller.
Le projet s'appelle Aroma et son principe est redoutable car au lieu de chercher à identifier votre IP ou analyser votre trafic, il se contente de mesurer le temps de réponse de vos paquets TCP. C'est un peu comme si on pouvait deviner que vous portez un déguisement de dinosaure gonflable juste en chronométrant le temps que vous mettez à venir répondre à la porte (vous avez l'image ?).
Car oui, le ratio entre le RTT minimum et le RTT lissé donne un score. Connexion directe ? Ratio entre 0.7 et 1. Proxy TCP ? Ça chute en dessous de 0.3. Et sous 0.1, c'est quasi certain que vous passez par un intermédiaire.
Bref, ça s'appuie sur un principe physique qu'on ne peut pas contourner qui est la vitesse de propagation dans la fibre. Un RTT de 4 millisecondes correspond à environ 400 km max en ligne droite. Ça permet de poser comme une borne théorique sur la distance réelle entre le serveur et son interlocuteur direct.
Et pour les utilisateurs de Tor, la nuance est importante car le site distant voit la connexion avec l'exit node, donc le RTT mesuré côté serveur reflète surtout le chemin serveur ↔ exit node, pas l'ensemble du circuit. Donc c'est OK mais si l'exit node lui-même passe par un proxy TCP, là ça peut poser problème.
Maintenant côté contre-mesures, j'avoue c'est pas simple car cette technique ne repose pas sur des listes d'IP connues ou du fingerprinting de navigateur, donc les méthodes habituelles ne servent à rien. Toutefois en théorie, un proxy physiquement très proche (moins de 1ms de latence ajoutée) pourrait passer sous le radar...
J'ai trouvé cet outil intéressant car ça montre que même avec les meilleures protections logicielles, y'a des contraintes physiques fondamentales qu'on ne peut pas contourner. La bonne nouvelle c'est que pour l'instant, Aroma reste un proof of concept que vous pouvez tester ici , mais bon, rien n'empêche un gouvernement autoritaire (ou pas) de pousser le curseur un peu plus loin...
Vous avez des cartouches Super Nintendo qui prennent la poussière dans un carton au grenier et en même temps une vague culpabilité de jouer à ces mêmes jeux en ROM sur votre Steam Deck ? Alors on va remédier à cela grâce à Epilogue qui a la solution pour mettre votre conscience au repos tout en profitant de vos jeux légalement sur n'importe quel appareil.
Leur nouveau gadget s'appelle le SN Operator et c'est un dock USB-C dans lequel vous insérez vos cartouches SNES ou Super Famicom. Ensuite vous branchez ça à votre PC (ou Mac, ou Steam Deck, ou même un Raspberry Pi), et hop vous pouvez jouer à vos jeux originaux via leur émulateur maison Playback . Pas besoin de télécharger des ROMs douteuses sur des sites chelous, vos propres cartouches font le taf.
Votre navigateur ne supporte pas la lecture de vidéos HTML5. Voici un lien vers la vidéo.Le truc cool c'est que ça va au-delà de simplement "jouer" puisque l'appareil peut authentifier vos cartouches pour vérifier que le Chrono Trigger que vous avez chopé aux puces n'est pas une contrefaçon chinoise. Il peut aussi sauvegarder toutes vos données de jeu, y compris les sauvegardes de l'époque que vous aviez sur la cartouche. Du coup si votre pile de sauvegarde finit par lâcher (et ça arrive, ces trucs ont 30 ans quand même...), vous aurez une copie en sécurité.
Côté compatibilité, Epilogue annonce le support de toutes les puces d'amélioration : Super FX, SA-1, DSP, CX4... Donc vos Star Fox et autres Yoshi's Island devraient tourner sans problème. Y'a même le support du Super Scope et de la souris SNES pour les jeux qui les utilisaient, genre Mario Paint. Et cerise sur le gâteau, l'intégration RetroAchievements est de la partie pour ceux qui aiment débloquer des trophées rétro.
Les précommandes ouvrent demain 30 décembre à 18h (heure de Paris) pour environ 60 dollars. C'est 10 balles de plus que leur GB Operator pour Game Boy, mais bon, les cartouches SNES sont plus grosses et le hardware plus costaud. La livraison est prévue pour avril 2026.
Perso je trouve que c'est une approche plutôt saine du rétrogaming. Vous possédez les cartouches, vous avez le droit d'y jouer et ça évite de devoir ressortir une vraie console SNES qui prend de la place, consomme plus, et dont les connecteurs commencent à fatiguer après des décennies d'utilisation.
Bon, je vais essayer de poser les choses calmement, parce que ce que je vais vous raconter aujourd'hui, c'est peut-être le changement le plus profond qu'on ait vu sur le web depuis l'arrivée des moteurs de recherche. Et je pèse mes mots.
J'ai découvert via un post sur Linkedin de Laurent Bourrelly (merci !) que Google venait de lancer ce qu'ils appellent la « Vue Dynamique » dans Gemini.
Derrière ce nom un peu corporate se cache quelque chose de vertigineux. Au lieu de vous donner une réponse textuelle comme le fait ChatGPT ou Perplexity, Gemini génère maintenant des interfaces complètes, des mini-applications, des pages web interactives créées à la volée, spécialement pour votre question.
Vous demandez un comparatif de NAS ? Vous n'obtenez pas un texte avec des bullet points. Vous obtenez une interface avec des onglets, des sliders pour filtrer par prix, des cartes interactives avec les specs de chaque modèle.
Vous voulez un tutoriel pour installer Linux ? Vous n'aurez pas une liste d'étapes, mais un guide interactif avec des boutons, des cases à cocher pour suivre votre progression, peut-être même une galerie d'images générées pour illustrer chaque étape.
Et ça fonctionne incroyablement bien sur le web via gemini.google.com ! Pour l'instant c'est réservé aux comptes personnels, c'est encore un peu capricieux (ça apparaît, ça disparaît, Google teste), et ça peut prendre entre 30 et 90 secondes pour générer une réponse complexe. Mais le résultat est vraiment bluffant.
Ce que ça va changer...Imaginez 2 secondes les usages de cette techno... Vous cherchez quel GPU acheter pour votre config gaming ? Au lieu de parcourir 15 sites de benchmarks, de comparer des tableaux sur Tom's Hardware et de croiser avec les prix sur LDLC, vous posez la question à Gemini et vous obtenez une application comparative générée instantanément. Même chose pour choisir un forfait mobile, comprendre les différences entre distributions Linux, trouver la meilleure recette de carbonara, ou planifier un voyage avec maps et itinéraires intégrés.
L'information brute, celle qu'on allait chercher sur des dizaines de sites, est maintenant synthétisée et présentée dans une interface sur-mesure. Plus besoin de naviguer de site en site, de supporter les popups de cookies, les pubs intrusives, les paywalls...etc. L'IA fait le boulot et vous livre le résultat dans un emballage propre. En quelques secondes, je me suis fait mon site d'actu tech perso...
Et voilà le problème.
La mort annoncée des sites d'informationParce que si l'IA peut générer une meilleure expérience que nos sites web pour répondre à une question factuelle, pourquoi les gens iraient-ils encore sur nos sites ?
On connaissait déjà la menace des réponses IA dans les résultats Google. Vous savez, ces encarts qui répondent à votre question avant même que vous cliquiez sur un lien. Ça, c'était le premier coup de semonce. Mais la Vue Dynamique, c'est un autre niveau. Ce n'est plus juste une réponse qui s'intercale entre vous et l'internaute. C'est le remplacement pur et simple de l'expérience web traditionnelle.
Tous les sites qui vivent de l'information brute vont morfler. Les comparateurs de prix, les guides d'achat, les tutoriels techniques basiques, les FAQ, les sites de recettes... Tout ce qui peut être synthétisé, structuré et présenté de manière plus efficace par une IA va perdre sa raison d'être. Et croyez-moi, OpenAI ne va pas rester les bras croisés et Perplexity non plus. Dans quelques mois, ils auront tous leur version de cette techno. C'est inévitable.
Et demain, ce ne sera peut-être même plus des interfaces visuelles. Ce seront des assistants vocaux, des agents autonomes, des robots qui viendront chercher l'information sans jamais afficher une seule page web. L'information transitera directement de la source vers l'utilisateur, sans passer par la case « visite d'un site ».
Alors, c'est foutu ?Hé bien... oui et non.
Oui, c'est foutu pour un certain type de contenu. L'information pure et dure, factuelle, sans valeur ajoutée éditoriale, va devenir une commodité. Quelque chose que l'IA génère gratuitement, instantanément, dans un format optimisé. Personne n'ira plus sur un site pour lire « comment formater un disque dur sous Windows » ou « comment nettoyer Windows 11 » quand Gemini lui construit un guide interactif personnalisé en 30 secondes.
Mais ce n'est pas foutu pour autant pour tout le monde. Et c'est là que ma réflexion devient plus personnelle...
Je pense que les sites qui vont survivre, et peut-être même prospérer, sont ceux qui apportent quelque chose que l'IA ne peut pas synthétiser. Une voix, une personnalité, un point de vue, une opinion, une analyse originale et le plaisir de lire quelqu'un. C'est peut-être la mort des sites conçus uniquement pour le SEO et du journalisme neutre et anonyme tel qu'on le pratique aujourd'hui et le grand retour des blogs à une voix ? Qui sait ?
Parce qu'au fond, pourquoi est-ce que vous me lisez ? Est-ce que c'est vraiment pour savoir comment installer Ollama ou pour connaître cette dernière faille de sécurité ? Ou est-ce que c'est aussi parce que vous aimez la manière dont je raconte les choses, les sujets que je choisis, le ton que j'emploie, les réflexions que je partage ? Si c'est juste pour l'info brute, alors oui, vous pourriez aller sur Gemini. Mais si c'est pour le reste, pour la relation qu'on a construite au fil des années, pour cette confiance qui s'est établie, alors aucune IA ne peut remplacer ça.
Les deux voies de survieDe mon point de vue, il y a désormais deux façons pour un créateur de contenu de survivre dans ce nouveau paysage.
La première, c'est de devenir fournisseur de données pour ces IA. Les bots vont continuer à crawler le web pour alimenter leurs modèles. Et ils auront besoin de données fraîches, de données originales, de données structurées. Les sites qui seront capables de produire cette matière première, et qui négocieront correctement avec les géants de l'IA pour être rémunérés, pourront peut-être s'en sortir. Mais attention, ça implique de repenser complètement la façon dont on structure son contenu, de le rendre lisible par les machines, d'accepter que ce qu'on produit sera digéré et régurgité par une IA. C'est un business model possible, mais c'est un sacré changement de paradigme.
La seconde voie, c'est de cultiver l'humain. De créer du contenu que les gens veulent lire pour le plaisir de lire, pas juste pour extraire une information. Des analyses, des opinions, des prises de position, du divertissement, de l'émotion. Un blog, une newsletter , un Patreon , des lives Twitch , une présence LinkedIn Korben ... Tout ce qui crée une relation directe avec les lecteurs. Parce que cette relation, l'IA ne peut pas la reproduire. Elle peut synthétiser mes articles, mais elle ne peut pas être moi.
Et moi dans tout ça ?Je ne vais pas vous mentir, ça fait réfléchir. Ça fait même un peu flipper. Mais en même temps, je réalise que c'est exactement le virage que j'ai commencé à prendre ces dernières années, de manière un peu inconsciente, sans vraiment voir venir cette révolution technologique.
Je suis tout seul. Je n'ai pas d'employés. Je ne peux pas rivaliser avec les gros médias tech sur la quantité ou la rapidité (quoique... ^^). Par contre, j'ai toujours cherché à me différencier. Déjà par ma sélection de sujets, que la plupart du temps, on ne retrouve nulle part ailleurs, par ma manière de les aborder, par ma façon d'écrire, par ma façon de communiquer avec vous...
Et demain, cette différence va devenir encore plus importante. Parce que ce qui ne sera pas différent, ce qui sera de l'information générique, ça va disparaître dans le bruit des réponses IA. Seuls les contenus qui apportent quelque chose d'unique, une perspective qu'on ne trouve pas ailleurs, une voix reconnaissable, une relation authentique, auront leur place.
Est-ce que j'y arriverai ? Je ne sais pas. Est-ce que les autres y arriveront ? Je ne sais pas non plus. Mais je trouve le challenge passionnant. Et je me sens suffisamment conscient de ce qui se passe, suffisamment bien équipé techniquement (j'utilise l'IA tous les jours pour mon travail, et je structure déjà mon contenu pour qu'il soit digeste par les machines), pour essayer de prendre cette vague.
Pour conclureGoogle vient de mettre un énorme coup de poing sur la table. La Vue Dynamique de Gemini, c'est pas juste une nouvelle feature sympa... C'est l'annonce d'un changement de paradigme. Le web tel qu'on le connaît, avec des humains qui naviguent de site en site pour collecter de l'information, ce web-là est en train de mourir.
Ce qui va rester, ce sont comme je vous le disais, d'un côté, des fournisseurs de données qui alimenteront les IA. De l'autre, des créateurs qui cultiveront une relation directe avec leur audience, qui apporteront de la valeur par leur voix, leur personnalité, leur point de vue. Mon pari, c'est qu'en tant que média / blog / site web, nous devrons être les 2 faces de cette même pièce pour ne pas disparaître.
Je suis assez serein parce que c'est ce que je fais depuis 20 ans, même si je ne n'appelle pas ça comme ça. Et parce que je crois fondamentalement qu'il y aura toujours des gens qui voudront lire quelqu'un, et pas juste lire "quelque chose".
On verra bien si j'ai raison. On verra bien si je me plante. Mais ça va être un sacré voyage, et je suis content de le faire avec vous... Car tant qu'il y aura des gens pour me lire (vous !), et tant que ça m'amusera de partager tout ça avec vous, je ne bougerai pas d'ici ^^
Vous êtes sous Windows et vous avez déjà rêvé de taper sudo comme les vrais bonhommes sous Linux ?
Alors votre vie va changer car c'est maintenant possible grâce à l'implémentation divine de Microsoft (attention, c'est pas un port de sudo Unix, c'est leur propre version...).
En effet, Microsoft a intégré la commande sudo dans Windows 11 (version 24H2) et contrairement à ce qu'on pourrait penser, c'est pas juste un gadget pour faire genre. Ça sert vraiment... Par contre, la fonctionnalité est désactivée par défaut. Mdrrr.
Pour l'activer, vous allez dans Paramètres, puis Système, puis « Pour les développeurs », et vous activez l'option sudo. Et hop, c'est prêt.
Ensuite, y'a trois modes d'exécution et c'est là que ça devient intéressant. Le mode « Nouvelle fenêtre » ouvre un terminal admin séparé après validation UAC. Le mode « Avec entrée désactivée » exécute tout dans la même fenêtre mais vous pouvez plus interagir avec le processus. Et le mode « Inline », le plus proche de l'expérience Linux, garde tout dans votre fenêtre actuelle avec interaction complète.
Alors concrètement, ça sert à quoi ?
Déjà pour winget ça permet d'installer des logiciels directement depuis votre terminal utilisateur. Un petit sudo winget install --id VideoLAN.VLC et c'est réglé. Pas besoin de fermer votre session, ouvrir PowerShell en admin, retaper vos commandes...
Ensuite pour le debug réseau, quand vous voulez savoir quel processus monopolise un port, un sudo netstat -ab vous donne les noms des processus. L'option -b nécessite des droits admin pour fonctionner, donc sans sudo vous ne verrez que les PID (avec -o). Relou non ?
Et mon préféré c'est pour éditer le fichier hosts. Vous savez, ce fichier planqué dans C:\Windows\System32\drivers\etc\ qu'on peut jamais modifier parce qu'il faut des droits admin ? Hé bien maintenant un sudo notepad %windir%\system32\drivers\etc\hosts et c'est parti. Fini les galères de « Exécuter en tant qu'administrateur » puis naviguer jusqu'au fichier.
Bon, y'a quand même une limite importante par rapport à Linux...
Sous Linux, sudo garde vos identifiants en cache pendant quelques minutes par défaut (configurable via sudoers), donc vous tapez le mot de passe une fois et ensuite c'est tranquille. Alors que sous Windows avec les réglages UAC standards, vous aurez une validation à chaque commande sudo. C'est un peu lourd mais c'est le prix de la sécurité façon Microsoft
Bref, c'est pas la révolution du siècle, mais c'est un petit confort bien appréciable au quotidien. Si vous passez régulièrement de Linux à Windows, vous allez enfin pouvoir garder vos réflexes sans avoir à vous adapter et si vous êtes pur Windowsien, vous découvrez peut-être une façon plus classe de gérer les droits admin que le clic droit « Exécuter en tant qu'administrateur » qu'on connaît tous.
Ça va ? Vous avez passé un bon Noël ? Bien mangé ? Les cadeaux étaient cool ? Tant mieux pour vous, car de son côté, Tim Cook, a passé le sien à se faire lyncher sur X parce qu'il a posté une illustration de lait et cookies pour promouvoir Pluribus , la nouvelle série Apple TV+.
Pourquoi me direz-vous ? Et bien parce que tout le monde est persuadé que c'est de la bonne vieille image générée par IA.
Faut dire qu'il y a pas mal d'indices qui sèment le doute... John Gruber de Daring Fireball a été le premier à tirer la sonnette d'alarme en pointant du doigt des détails bien chelous dans l'image. Le carton de lait affiche à la fois « Whole Milk » ET « Lowfat Milk » sur ses étiquettes. Comme si le designer avait voulu cocher toutes les cases en même temps ^^ Et le labyrinthe « Cow Fun Puzzle » sur le carton ? Ben il est impossible à résoudre. Enfin si, mais uniquement en passant autour du labyrinthe, pas dedans. C'est de l'IA tout craché.
D'ailleurs, Ben Kamens, un expert qui venait justement de publier un article sur les labyrinthes générés par IA, a confirmé que l'image présentait les « caractéristiques typiques » des IA qui galèrent avec ce genre de truc. Et Gruber a aussi fait remarquer qu'on ne voit jamais de puzzles sur des cartons de lait (qui sont cireux et difficiles à imprimer) mais plutôt sur des boîtes de céréales. Comme si l'IA avait mélangé deux concepts...
Apple TV+ a répondu en créditant un certain Keith Thomson comme artiste, précisant que l'œuvre avait été « créée sur MacBook Pro ». Sauf que personne n'a tagué ce Keith Thomson et quand Slashdot l'a contacté, le bonhomme a refusé de commenter spécifiquement le projet, se contentant de dire qu'il « dessine et peint toujours à la main et utilise parfois des outils numériques standard ».
Traduction : Un esquive de niveau olympique.
Le plus marrant dans tout ça c'est que Sundar Pichai de Google a posté une boule à neige générée par IA le lendemain avec le watermark Gemini bien visible, et tout le monde a trouvé ça « trop mignon ».
Deux poids deux mesures ^^
Maintenant y'a une théorie alternative qui circule. Certains pensent que les « erreurs » seraient en fait intentionnelles... Que ce serait des références à la série Pluribus elle-même qui parle d'une intelligence collective... Le message de Cook aurait en fait été adressé à « Carol », le personnage principal joué par Rhea Seehorn. Une sorte de méta-promotion qui aurait mal tourné ? J'y crois pas une seconde...
Je pense plutôt que Keith Thomson était en famille, qu'il avait autre chose à foutre, que de toute façon il déprime parce que Midjourney ou un autre sait reproduire son style à la perfection et qu'il s'est dit « Pourquoi je me ferais chier le cul à peindre des cookies de merde pour Apple alors que je suis en train de jouer aux Lego avec mes petits enfants ?« . Bah ouais, pourquoi ? Ce n'est qu'une théorie mais c'est la mienne...
Bref, que ce soit de l'IA, de l'art volontairement buggé pour la promo, ou juste un artiste qui a fait des choix bizarres, cette histoire illustre bien le climat actuel. Les gens sont tellement bombardés d'images IA et ont tellement rien à foutre de leurs journées qu'un vrai artiste avec 30 ans de carrière peut se retrouver accusé de « triche » à tort ou à raison, parce que son labyrinthe est mal foutu.
On est mal barré...
Si vous utilisez MongoDB, accrochez-vous bien parce que là, c'est du lourd. Une faille critique baptisée MongoBLEED vient d'être découverte et elle touche à peu près toutes les versions de MongoDB sorties depuis 2017. Sept ans de versions vulnérables, c'est un chouette record, je trouve ^^.
Le problème avec cette CVE-2025-14847, c'est qu'elle exploite la compression zlib des messages. En gros, quand un attaquant envoie un message compressé mal formé avec des paramètres de longueur trafiqués, MongoDB se met à recracher des bouts de sa mémoire heap sans broncher. Et dans cette mémoire, on peut trouver des trucs sympa genre des mots de passe, des tokens d'authentification, des clés de chiffrement... Bref, le jackpot pour un attaquant.
Le pire dans tout ça c'est que y'a pas besoin d'être authentifié pour exploiter la faille. Si votre instance MongoDB est accessible depuis le réseau, n'importe qui peut s'y connecter et commencer à siphonner votre mémoire. C'est exactement le même genre de cauchemar que Heartbleed en 2014, d'où le petit surnom affectueux.
Du coup, qui est concerné ?
Hé bien à peu près tout le monde... Les versions 3.6.0 jusqu'à 8.0.16 sont touchées, ce qui représente selon les chercheurs de Wiz environ 42% des environnements cloud. Il y aurait donc plus de 87 000 instances MongoDB exposées sur Internet et le problème, c'est que depuis le 26 décembre 2025, des exploitations actives ont été détectées dans la nature. Joyeux Noël !!
La bonne nouvelle, c'est que le fix est simple. Soit vous mettez à jour vers une version patchée (8.2.3+, 8.0.17+, 7.0.28+, 6.0.27+, 5.0.32+ ou 4.4.30+), soit vous désactivez la compression zlib en attendant. Pour ça, c'est dans la config réseau de MongoDB, paramètre compressors qu'il faut virer le zlib.
Pour vérifier si vous êtes vulnérable, un petit nmap sur le port 27017 avec le script mongodb-info vous dira quelle version tourne. Vous pouvez aussi regarder les logs réseau pour détecter des connexions suspectes avec des messages compressés anormalement petits suivis de réponses anormalement grandes. C'est le signe qu'un petit malin est en train de vous pomper la mémoire.
Bref, si vous avez du MongoDB qui traîne quelque part, c'est le moment de faire un petit tour dans vos infras. Parce que là, c'est quand même d'une faille qui permet à n'importe qui d'aspirer vos données sensibles sans même avoir besoin d'un mot de passe. Ubisoft en a fait les frais et ça pique !
Vous aussi vous avez un dossier « Notes » qui ressemble à un cimetière d'idées ? Des fichiers texte avec des noms genre « truc_important.txt » ou « a_voir_plus_tard.md » que vous n'avez jamais revus depuis 2019 ? Hé bien j'ai ce qu'il vous faut pour enfin donner un sens à tout ce bordel !
Blinko c'est une app de prise de notes qui utilise l'IA pour vous aider à retrouver ce que vous avez noté, même quand vous avez complètement oublié les mots exacts que vous aviez utilisés. Le principe c'est du RAG (Retrieval-Augmented Generation), c'est-à-dire que l'IA va fouiller dans toutes vos notes et vous ressortir les infos pertinentes quand vous posez une question. Genre « c'était quoi ce truc que j'avais noté sur les serveurs NAS ? » et hop, l'IA vous retrouve tout.
Votre navigateur ne supporte pas la lecture de vidéos HTML5. Voici un lien vers la vidéo.Et le truc cool c'est que ça tourne 100% en local sur votre serveur. Pas de cloud américain de Donald, pas de données qui se baladent chez les affreux OpenAI ou Google... vos notes restent bien au chaud chez vous. Pour ceux qui comme moi sont un peu paranos avec leurs données perso, c'est exactement ce qu'il nous faut les amis !
L'interface est super clean avec deux modes de saisie. Y'a d'abord le mode « Blinko » pour les notes éphémères qui s'archivent automatiquement au bout d'un moment, genre une idée qui vous passe par la tête ou un truc à faire. Et y'a le mode « Note » pour les contenus permanents que vous voulez garder sur le long terme, avec du Markdown, des images, et tout ça. Du coup vous pouvez aussi bien capturer une pensée qui vous traverse que rédiger un article entier.
Côté installation, c'est du Docker avec un script qui fait tout pour vous. Une ligne de commande et c'est parti :
curl -o install.sh https://raw.githubusercontent.com/blinko-space/blinko/main/install.sh && bash install.shLe script va alors vous configurer tout le bazar avec PostgreSQL derrière (obligatoire pour la base de données). Y'a aussi Docker Compose si vous préférez personnaliser, tout est documenté sur le repo.
Une fois lancé, vous accédez à l'interface sur le port 1111 et vous pouvez commencer à balancer vos notes. Y'a même une démo en ligne sur demo.blinko.space (test / test) si vous voulez tester avant de vous lancer.
Le projet est open source sous licence GPL-3.0, c'est codé en TypeScript avec Next.js et comme je vous le disais, PostgreSQL derrière, donc c'est du solide. Et y'a même des apps natives pour macOS, Windows, Android et même Linux via Tauri si vous voulez un truc plus intégré que le web.
Bref, si vous cherchez une solution de prise de notes self-hosted avec de l'IA intégrée pour enfin retrouver ce que vous avez noté il y a 3 ans, Blinko c'est le top du top !
Merci à Lorenper pour l'info !
Vous avez déjà fait transcrire une interview ou un podcast par un service en ligne ? Vous savez, ces trucs qui vous demandent de créer un compte, de filer votre carte bleue, et d'accepter que vos fichiers audio soient envoyés sur des serveurs quelque part dans le cloud américain pour être analysés par des IA qu'on ne connaît pas. Le tout pour 100 balles par an si vous avez de la chance, et beaucoup plus si vous dépassez le quota ridicule de 20 heures par mois...
Hé bien y'a une alternative qui va vous plaire : Scriberr ! C'est une app de transcription audio complètement open source et surtout, qui tourne 100% en local sur votre machine. Pas de cloud, pas de données qui se baladent, pas d'abonnement mais juste vous, avec votre serveur (ou votre laptop si vous avez un GPU correct), et vos fichiers audio qui restent bien au chaud chez vous.
Scriberr utilise des modèles de reconnaissance vocale de pointe comme NVIDIA Parakeet, Canary ou les fameux modèles Whisper. Du coup la qualité de transcription est vraiment au niveau des services payants, voire meilleure sur certains accents ou langues moins courantes. Et cerise sur le gâteau, vous avez l'alignement temporel au niveau du mot, ce qui veut dire que vous pouvez savoir exactement à quelle seconde chaque mot a été prononcé.
Mais le truc qui m'a vraiment tapé dans l’œil avec cet outil, c'est la détection automatique des locuteurs. Vous savez, cette fonctionnalité qu'on appelle "diarization" dans le jargon et qui permet d'identifier qui dit quoi dans une conversation. Comme ça, fini les transcriptions où tout le monde parle mais on ne sait pas qui c'est. Là, Scriberr vous découpe tout proprement avec des étiquettes pour chaque intervenant.
Et comme si ça suffisait pas, y'a aussi l'intégration avec Ollama ou n'importe quelle API compatible OpenAI. Du coup vous pouvez non seulement transcrire vos enregistrements, mais aussi leur poser des questions, générer des résumés, ou carrément avoir une conversation avec le contenu de vos transcriptions. Genre vous demandez "c'est quoi les points clés de cette réunion ?" et hop, l'IA vous fait un résumé. Pratique pour les feignasses comme moi qui détestent se retaper 2 heures de réunion pour retrouver une info.
Côté installation, c'est du Docker classique ou alors Homebrew si vous êtes sur Mac. Un petit
`brew tap rishikanthc/scriberr && brew install scriberr`et c'est parti mon kiki. Pour Docker, y'a des images pour CPU et GPU (CUDA), et ça supporte toutes les générations de cartes NVIDIA depuis les GTX 1000 jusqu'aux RTX 50 series toutes récentes.
Le premier lancement peut prendre quelques minutes parce que ça télécharge les modèles de reconnaissance vocale, mais une fois que c'est fait, les relances suivantes sont quasi instantanées. Y'a même un Folder Watcher qui surveille un dossier et transcrit automatiquement tout ce qui arrive dedans, parfait si vous voulez brancher ça sur un workflow automatisé avec n8n ou autre.
Bref, si vous êtes podcaster, journaliste, chercheur, ou juste quelqu'un qui a régulièrement besoin de transcrire des trucs sans vouloir filer ses données à Google ou payer un abonnement, Scriberr c'est exactement ce qu'il vous faut. C'est du self-hosting comme on l'aime, c'est à dire open source, respectueux de la vie privée, et qui fait le taf sans chichi.
Merci à Letsar pour le partage !
Si vous avez toujours voulu essayer Emacs mais que la courbe d'apprentissage vous fait peur, IDEmacs est fait pour vous ! Ce projet transforme Emacs en clone de VSCode avec les mêmes raccourcis clavier, la même interface graphique et les mêmes fonctionnalités out-of-the-box, comme ça vous n'avez plus besoin de vous taper une configuration durant trois jours avant de pouvoir écrire une ligne de code !
Cool, hein ?
L'idée c'est donc de permettre aux développeurs habitués à des IDE modernes de passer à Emacs sans devoir réapprendre tous leurs réflexes. Les raccourcis clavier reprennent ceux de VSCode comme Ctrl+C pour copier, Ctrl+V pour coller, Ctrl+F pour chercher. C'est basique mais indispensable quand vous venez d'un autre éditeur.
Côté interface, IDEmacs intègre Treemacs pour avoir un explorateur de fichiers dans la sidebar comme sur VSCode. Y'a aussi Centaur Tabs pour les onglets, un thème Dark Plus qui ressemble à celui de Microsoft, et le support des curseurs multiples. Bref, visuellement vous êtes en terrain connu.
Du coup, c'est pour qui exactement ?
Hé bien le projet cible trois types d'utilisateurs : les développeurs qui veulent migrer vers Emacs depuis un autre IDE, les débutants en Lisp ou Scheme qui ont besoin d'Emacs pour bosser, et les non-programmeurs qui cherchent juste un éditeur de texte puissant sans se prendre la tête avec la config.
D'ailleurs, contrairement à la plupart des starter kits Emacs, IDEmacs ne cache pas les éléments graphiques par défaut. Les menus, barres d'outils et scrollbars sont visibles donc vous pouvez configurer le tout via l'interface graphique plutôt qu'en écrivant du Elisp à la main.
La config proposée inclut une vingtaine de packages tels que Vertico, Consult et Marginalia pour l'autocomplétion, Magit pour le contrôle de version, Sly et Geiser pour le développement Lisp et Scheme, plus des outils comme expand-region, multiple-cursors et smartparens pour l'édition avancée.
Pour installer IDEmacs, il vous faudra donc Emacs 29 ou plus récent, git, et optionnellement grep et locate. Clonez le repo puis lancez Emacs avec
emacs --init-directory=/path/to/IDEmacs/vscode .Et hop, c'est prêt !
IDEmacs reste une porte d'entrée vers Emacs, et pas un remplacement définitif de VSCode mais l'idée avec ce truc, c'est de vous permettre de commencer à utiliser Emacs sans friction, puis de personnaliser au fur et à mesure que vous comprenez comment ça marche. Je vous assure que vous allez probablement vouloir modifier des trucs une fois que vous serez à l'aise.
Voilà, si vous avez toujours été curieux d'Emacs mais que vous n'avez jamais osé franchir le pas, c'est l'occaz !
Vous avez une vieille GTX 1060 qui tourne nickel sous Arch Linux ? C'est con, NVIDIA vient de vous mettre un beau coup de pied aux fesses car la boîte au caméléon vert a décidé d'abandonner le support des GPU Pascal (les GTX 10xx) dans son dernier driver 590 et ça crée un joyeux bordel, notamment sur Arch.
Le problème, c'est que quand vous faites une mise à jour système sur Arch avec une vieille carte Pascal ou Maxwell, le nouveau driver refuse de charger. Résultat, vous vous retrouvez éjecté vers la ligne de commande sans interface graphique. Sympa pour débugger quand y'a plus d'écran qui fonctionne...
Faut dire que le modèle "rolling release" d'Arch fait que les utilisateurs ont reçu ce driver incompatible automatiquement avec leur mise à jour. Ils n'ont pas eu le temps de dire ouf que leur système était déjà cassé. Et les GTX 1060 et 1050 Ti, c'est pas exactement des cartes de musée... Y'en a encore pas mal qui tournent sur Steam, et même si parmi leurs propriétaires, seule une poignée utilise Linux, et encore moins Arch, ça fait quand même du monde impacté.
Pour s'en sortir, y'a deux solutions. La première, c'est d'installer le driver legacy nvidia-580xx-dkms depuis l'AUR, qui est maintenu par l'équipe CachyOS. Le hic, c'est que ça crée des problèmes de dépendances avec Steam, donc faut aussi installer lib32-nvidia-580xx-utils pour que les jeux 32 bits fonctionnent. La deuxième option, c'est de basculer sur Nouveau, le driver open source fait par reverse engineering. Ça marche, mais avec les limitations que ça implique niveau performances et fonctionnalités.
Ce qui me rend dingue dans cette histoire, c'est que pendant des années, NVIDIA a refusé de fournir de la documentation pour ses GPU, forçant la communauté Linux à utiliser le reverse engineering pour Nouveau. Et depuis 2022, ils ont ouvert les modules kernel pour les architectures Turing et plus récentes, mais les parties user-space et le firmware restent propriétaires. Et surtout, aucune aide pour les vieilles cartes comme Pascal !! Du coup, maintenant que NVIDIA abandonne ces générations de cartes, c'est aux bénévoles de la communauté de maintenir les drivers legacy... Pas cool.
D'ailleurs, l'annonce officielle d'Arch Linux précise que les cartes Turing et plus récentes (RTX 20xx et GTX 1650+) vont automatiquement basculer vers les modules kernel open source, donc pas d'intervention manuelle pour eux. C'est uniquement les propriétaires de vieilles Pascal/Maxwell qui doivent se taper le boulot.
Bref, si vous avez une carte Pascal sous Arch, basculez sur nvidia-580xx-dkms avant votre prochain pacman -Syu. Dans sa grande bonté, NVIDIA a aussi promis des patchs de sécu jusqu'en 2028, mais bon, on a vu ce que valent leurs promesses côté Linux...
Vous vous souvenez des disquettes 3,5 pouces ? Ces petits carrés en plastique qu'on utilisait pour stocker nos 1,44 Mo de données précieuses ? Hé bien à Taïwan, elles font leur grand retour... mais pas pour sauvegarder vos fichiers.
La société iPASS, qui gère un système de cartes de transport et de paiement sans contact dans le pays, vient de lancer une carte prépayée NFC en forme de disquette. Taille réelle, proportions parfaites, disponible en noir ou en jaune. C'est sorti pour Noël et les geeks du pays se sont jetés dessus.
Le truc qui m'a fait triper surtout, c'est l'avertissement officiel que la boîte a jugé nécessaire d'ajouter sur la fiche produit : "Ce produit a uniquement une fonction de carte et n'a pas de fonction disque 3,5mm, veuillez en prendre note avant l'achat". J'imagine qu'ils ont dû voir passer quelques retours de clients déçus qui tentaient de l'insérer dans leur vieux PC... Même si après, trouver un PC avec un lecteur de disquette en 2025, c'est déjà un exploit en soi.
Du coup cette carte permet de prendre le métro, le bus, le train, le taxi, de louer un vélo, et de payer dans les 7-Eleven, FamilyMart, McDonald's, Burger King et plein d'autres enseignes. Bref, c'est une vraie carte de paiement, juste avec un look de rêve pour les nostalgiques de l'ère DOS.
Et si vous pensez que c'est le gadget le plus absurde qu'ils ont sorti, détrompez-vous puisque iPASS propose aussi des cartes en forme de téléphone Motorola DynaTAC (le gros portable des années 80), de train miniature, de tong, et même de boule à neige Godzilla avec des LEDs. Sur le site PCHome24, y'a littéralement 838 designs différents de cartes iPASS. Les Taïwanais, ils font pas les choses à moitié.
Une carte standard coûte environ 100 NT$ (3 euros) sans crédit, mais les éditions collectors peuvent monter jusqu'à 1000 NT$ ou plus selon le délire. Voilà, si vous passez par Taïwan, c'est clairement le souvenir geek ultime à (me) ramener !
Et au moins, contrairement à une vraie disquette, celle-là ne risque pas de vous lâcher après 6 mois à cause d'un petit champ magnétique de passage.
Vous voyez ces photos stylées sur Instagram où le texte semble passer derrière la personne, comme si le gros "FASHION" ou "WORKOUT" était vraiment dans la scène ? C'est l'effet "text behind image" et c'est clairement le truc graphique qui fait super pro en ce moment.
Le problème c'est que pour obtenir ce rendu, faut normalement se taper Photoshop, maîtriser les calques, le détourage, les masques... Bref, perdre une demi-heure sur un truc qui devrait prendre 30 secondes. Et comme vous êtes des gens occupés (contrairement à moi qui passe ma vie à tester des outils), voici la solution.
C'est un site gratuit qui règle tout ça et qui s'appelle Text Behind Image . Vous uploadez votre photo (jusqu'à 10 Mo), l'IA détecte automatiquement le sujet (une personne, un objet, peu importe), vous tapez votre texte, et le site se débrouille pour le placer pile poil derrière. Ça prend quelques secondes de traitement, pas besoin de détourer quoi que ce soit vous-mêmes.
L'interface propose pas mal d'options de personnalisation... Vous pouvez choisir la police, jouer avec la taille, la couleur, l'opacité, la rotation, ajouter des contours... Et surtout, vous voyez le résultat en temps réel, donc vous pouvez repositionner le texte en glisser-déposer jusqu'à ce que ça rende nickel.
Et le top du top, c'est que c'est gratuit, sans limite, sans inscription, et vous téléchargez votre image en haute résolution sans filigrane. J'ai vérifié et y'a même pas de petit "Made with..." planqué dans un coin. C'est assez rare pour un outil en ligne de ce genre alors je tiens à vous le signaler !
Bon après si votre photo est ultra complexe avec 36 personnes et des éléments qui se chevauchent, l'IA va potentiellement galérer à détourer correctement, mais pour une photo classique avec un sujet bien visible sur un fond pas trop chargé, ça marche vraiment bien.
Bref, si vous faites du contenu pour les réseaux, des miniatures YouTube, ou même juste des visuels fun pour votre pote qui fait de la muscu, c'est le genre d'outil à bookmarker direct. En 30 secondes vous aurez un rendu qui vous aurait pris 20 minutes sur Photoshop.