Bon, faut qu'on parle un peu du moteur de recherche de mon site. Ceux qui l'ont déjà utilisé savent de quoi je parle : c'était pas terrible. Enfin, « pas terrible » j'suis gentil. C'est un espèce d'overlay avec des résultats certes fiables mais c'était vraiment pas pratique.
Et en plus de ça, comme j'ai un site statique généré avec Hugo, je passais par Algolia pour la recherche. Si vous ne connaissez pas, Algolia c'est un service cloud qui indexe votre contenu et vous fournit une API de recherche ultra-rapide. Sur le papier c'est génial et dans la pratique aussi d'ailleurs sauf que voilà, ça coûte des sous. Et mon site rencontre un franc succès ces derniers temps (merci à vous !), donc j'ai de plus en plus de visiteurs, donc de plus en plus de recherches, donc une facture Algolia qui grimpe gentiment chaque mois.
Du coup je me suis dit : « Et si je trouvais une solution de recherche pour sites statiques ? » Parce que oui, ça existe et c'est comme ça que j'ai découvert Pagefind.
Pagefind c'est donc un moteur de recherche statique open source développé par CloudCannon qui fonctionne comme ceci : Au moment du build de votre site, Pagefind parcourt tout votre HTML généré et crée un index de recherche qu'on peut interroger avec un peu de JS. Y'a donc plus d'API, et tout se fait localement sur le navigateur des internautes.
Bref, ça avait l'air très cool alors évidemment, je me suis lancé dans l'aventure et comme j'aime bien me compliquer la vie, j'ai décidé de pas juste intégrer Pagefind tel quel. Non non. J'ai voulu recréer l'interface du Google de 1998 parce que à quoi bon avoir son propre site web si on peut pas s'amuser un peu ^^.
Laissez-moi donc vous raconter cette aventure.
Le problème avec AlgoliaLeur service est excellent, je dis pas le contraire, la recherche est rapide, les résultats sont pertinents, l'API est bien foutue mais voilà, y'a le modèle de pricing puisque Algolia facture au nombre de requêtes de recherche.
Plus les gens cherchent sur votre site, plus vous payez et quand vous avez un site qui fait plusieurs millions de pages vues par mois, bah... ça chiffre vite. En gros je dépasse très vite les 10 000 recherches offertes chaque semaine et ensuite ça chiffre. C'est pas la mort, mais c'est un coût récurrent débile pour un truc qui pourrait être gratuit.
En plus de ça, y'a la dépendance à un service externe. Si Algolia tombe, ma recherche tombe. Et si Algolia change ses prix, je vais devoir subir. Même chose si Algolia décide de modifier son API... il faudra que j'adapte mon code. Bref, c'est le cloud dans toute sa splendeur... C'est pratique mais on n'est jamais vraiment chez nous.
Pagefind à la rescoussePagefind résout donc tous ces problèmes d'un coup. C'est un outil en ligne de commande qui s'exécute après votre générateur de site statique (Hugo dans mon cas, mais ça marche avec Jekyll, Eleventy, Astro, ou n'importe quoi d'autre).
Concrètement, vous lancez :
npx pagefind --site publicEt Pagefind va :
Et le résultat c'est un dossier pagefind/ qui contient tout ce qu'il faut. Ensuite; à vous de servir ces fichiers statiquement avec le reste de votre site, et la magie pourra opérer !
L'index pour mes 18 000 articles fait environ 1,5 Go. Ça peut paraître beaucoup, mais Pagefind est malin car il découpe l'index en fragments et ne charge que ce qui est nécessaire pour la recherche en cours. Du coup en pratique, une recherche typique télécharge quelques centaines de Ko, et pas plus.
L'intégration techniquePour intégrer Pagefind dans mon workflow Hugo, j'ai donc été cherché le binaire, je l'ai mis sur mon serveur et je l'ai appelé dans un cron comme ça, je rafraichi l'index de recherche 1 fois par jour (et pas à chaque génération du site).
0 4 * * * /home/manu/pagefind/pagefind --site /home/manu/public_html --output-path /home/manu/public_html/pagefind >> /var/log/pagefind.log 2>&1J'ai aussi créé un fichier de configuration pagefind.yml pour affiner le comportement :
root_selector: "[data-pagefind-body]" exclude_selectors: - "header" - ".site-header" - "footer" - ".sidebar"L'astuce ici c'est d'indexer uniquement les div ayant la class data-pagefind-body='true' et d'exclure les éléments qui ne font pas partie du contenu éditorial afin de ne pas indexer ce qui se trouve dans le header, les natives, le footer...etc.
Côté JavaScript, Pagefind utilise les imports ES6 dynamiques. Ça veut dire que le moteur de recherche n'est chargé que quand l'utilisateur lance effectivement une recherche :
async function initPagefind() { pagefind = await import('/pagefind/pagefind.js'); await pagefind.init(); }Et pour faire une recherche :
const search = await pagefind.search("linux"); // search.results contient les IDs des résultats // On charge le contenu de chaque résultat à la demande for (const result of search.results) { const data = await result.data(); console.log(data.url, data.meta.title, data.excerpt); }C'est bien fichu parce que search.results retourne immédiatement les références des résultats, mais le contenu réel (titre, extrait, URL) n'est chargé que quand vous appelez result.data(). Du coup vous pouvez implémenter une pagination propre sans télécharger les données de milliers de résultats d'un coup.
Le délire rétro - Recréer Google 1998Maintenant que j'avais un moteur de recherche fonctionnel, fallait l'habiller. Et c'est là que j'ai eu cette idée un peu débile : Pourquoi pas recréer l'interface du Google de 1998 ?
Pour les plus jeunes qui lisent ça, Google en 1998 c'était une page blanche avec un logo, un champ de recherche, et deux boutons : « Google Search » et « I'm Feeling Lucky« . Pas de suggestions, pas de carrousels, pas de pubs... Juste un champs de recherche. C'était la belle époque !
J'ai donc créé une page de recherche avec deux vues distinctes. La page d'accueil avec le logo centré et le champ de recherche au milieu, exactement comme le Google originel.
Et la page de résultats avec le logo en petit en haut à gauche et les résultats en dessous.
Pour le code CSS, j'ai voulu être fidèle à l'époque. Times New Roman comme police par défaut, les liens en bleu souligné qui deviennent violet une fois visités. Et surtout, les boutons avec l'effet 3D des interfaces Windows 95 :
.search-button:active { border-style: inset; }Ce border: outset et border-style: inset au clic, c'est exactement ce qui donnait cet effet de bouton en relief qu'on avait partout dans les années 90. Pour moi, ça fait toute la différence pour l'authenticité. Même le logo, je l'ai volontairement « dégradé » pour qu'il soit de la même qualité que le logo Google d'origine.
La pagination « Koooooorben »Vous vous souvenez de la pagination de Google avec « Goooooogle » en bas de page ? Le nombre de « o » correspondait au nombre de pages de résultats. J'ai fait pareil, mais avec « Koooooorben ».
let logo = 'K'; for (let i = 0; i < oCount; i++) { logo += o; } logo += 'rben'; }Plus il y a de résultats, plus il y a de « o ». C'est complètement inutile mais ça me fait marrer à chaque fois que je le vois.
Le bouton « J'ai de la chance »Ah, le fameux « I'm Feeling Lucky » de Google, j'ai voulu l'implémenter comme à l'époque ! Si vous tapez une recherche et cliquez sur « J'ai de la chance », vous êtes envoyé sur le premier résultat. Classique. Mais si vous cliquez sur le bouton avec le champ vide sur la home de la recherche, vous êtes envoyé sur un article aléatoire parmi les +18 000 du site.
Pour ça, j'ai utilisé une astuce : le sitemap. Mon Hugo génère un fichier sitemap.xml qui contient toutes les URLs du site et je peux aller piocher dedans en JS :
const articles = [...xml.querySelectorAll('loc')] .map(loc => loc.textContent) .filter(url => { // Exclure les pages qui ne sont pas des articles const path = new URL(url).pathname; return !path.startsWith('/categories/') && !path.startsWith('/page/') && path !== '/'; }); const randomUrl = articles[Math.floor(Math.random() * articles.length)]; window.location.href = randomUrl; } }Un seul fetch, un peu de parsing XML natif, et hop c'est le grand retour de la fonctionnalité « article aléatoire » qui vous manquait, je le sais !
Tri et nombre de résultatsJe vous ai aussi mis une listbox qui vous permet d'afficher 10, 25 ou 50 résultats ainsi qu'un tri par pertinence ou data. Et ça aussi Pagefind sait parfaitement le navigateur.
Mode sombre et accessibilitéMême si l'interface est rétro, j'ai quand même ajouté quelques fonctionnalités modernes. Le mode sombre respecte les préférences système, et j'ai intégré la police OpenDyslexic pour les personnes dyslexiques.
Le truc important c'est de charger ces préférences avant le rendu de la page pour éviter le fameux flash. J'ai donc un petit script qui lit les préférences dans le localStorage et applique les classes CSS immédiatement :
function() { if (localStorage.getItem('theme') === 'dark') { document.documentElement.classList.add('dark-mode'); } if (localStorage.getItem('dyslexic-font') === 'true') { document.documentElement.classList.add('dyslexic-mode'); } }); Gestion de l'historique navigateurUn détail qui peut sembler anodin mais qui est super important pour l'expérience utilisateur c'est la gestion du bouton retour du navigateur.
Quand vous faites une recherche, l'URL change selon votre requête du genre /recherche/?q=linux&p=2. Du coup si vous partagez cette URL à un collègue, la personne arrivera directement sur les résultats de recherche. Et si vous utilisez le bouton retour, vous reviendrez alors à la recherche précédente.
window.addEventListener('popstate', () => { const query = new URLSearchParams(location.search).get('q'); if (query) doSearch(query); else showHomePage(); }); Liens vers d'autres moteursEt si vous ne trouvez pas votre bonheur dans mes +18 000 articles (ce qui serait quand même étonnant ^^), j'ai ajouté des liens pour relancer la même recherche sur Google, DuckDuckGo, Qwant, Brave et Ecosia. Bref, un petit service bonus pour mes visiteurs, exactement comme le proposait Google à l'époque.
Le bilan - Algolia vs PagefindAprès 1 semaine d'utilisation, voici donc mon verdict ! Côté portefeuille d'abord, Algolia me coûtait entre 60 et +100 euros par mois et maintenant pour Pagefind, c'est zéro euros ! Et les performances sont également au rendez-vous. Algolia c'était rapide et bien là, ça l'est encore plus. Seul compromis à noter, l'index Algolia se mettait à jour en temps réel, alors que Pagefind nécessite une reconstruction au moment du build.
La conclusionVoilà, j'ai maintenant une recherche qui marche vraiment bien, qui me coûte 0€ par mois, et qui a un look rétro qui va en surprendre plus d'un...
Alors est-ce que c'était nécessaire de passer autant de temps sur le design rétro ? Hé bien absolument pas. Mais est-ce que ça valait le coup ?
Franchement, oui !! C'est mon site, je fais ce que je veux, et si ça peut faire sourire quelques visiteurs nostalgiques des débuts du web, c'est du bonus. D'ailleurs un grand merci aux Patreons qui me soutiennent car sans eux, je n'aurais pas pu passer mon dimanche là dessus ^^
Et puis surtout, ça m'a permis de découvrir Pagefind qui est vraiment un excellent outil. Donc si vous avez un site statique (ou n'importe quel type de contenu textuel) et que vous cherchez une solution de recherche gratuite et performante, je vous le recommande chaudement. La documentation est claire, l'intégration est simple, et le résultat est top !
Allez, maintenant vous pouvez aller tester la nouvelle recherche sur le site . Et si vous cliquez sur « J'ai de la chance » sans rien taper... bonne découverte !
Vous avez déjà essayé de faire tourner un vieux logiciel Linux sur une distrib récente, du genre un truc compilé il y a 5 ans ? Bah bon courage, parce que y'a de grandes chances que ça plante lamentablement à cause d'une dépendance qui aura changé entre-temps.
Maintenant, prenez un .exe Windows de 1998, genre un vieux jeu ou une appli Win32 classique. Lancez-le sous Wine et là, ô surprise... y'a de bonnes chances que ça tourne ! Bon, ça dépend des applis évidemment, mais le taux de réussite est souvent meilleur qu'avec les vieux binaires Linux...
C'est précisément ce paradoxe que pointe le projet loss32 , une distro Linux expérimentale dont l'idée complètement dingue serait de faire tourner TOUT l'environnement de bureau en Win32 via Wine. Leur slogan c'est "Win32 is the stable Linux ABI!" ce qui veut dire en gros que l'interface binaire la plus fiable pour faire tourner des applications sur Linux à long terme, c'est celle de Windows. Ahaha, je suis mort de rire en écrivant ça car j'imagine votre tête énervée de barbu ! Pourtant, vous allez voir, c'est difficile de leur donner tort...
Alors c'est quoi le problème avec Linux exactement ?
Hé bien en août 2022, un changement dans la toolchain a fait des dégâts. Beaucoup de distributions ont basculé vers l'option --hash-style=gnu au lieu de --hash-style=both, ce qui génère des binaires sans la section DT_HASH classique. L'idée c'était de gagner quelques kilobytes par binaire avec DT_GNU_HASH, qui est plus moderne et plus performant.
Ça n'a l'air de rien comme ça... sauf que ça a cassé pas mal de trucs. Des jeux utilisant Easy Anti-Cheat d'Epic se sont retrouvés en vrac, par exemple Shovel Knight a eu des soucis, ou encore le limiteur de framerate libstrangle . Bref, des logiciels qui marchaient très bien la veille se sont retrouvés dans les choux du jour au lendemain.
Et c'est là qu'on touche au cœur du problème car sous Windows, Microsoft maintient une compatibilité binaire quasi-religieuse pour les applis Win32 classiques. Un programme compilé pour Windows 95, s'il n'utilise pas de drivers ou d'APIs obsolètes, a de bonnes chances de tourner sur Windows 11. C'est un contrat tacite entre Microsoft et les développeurs qui a tenu pendant trois décennies.
Et même si sous Linux, le kernel et glibc sont plutôt stables, c'est vrai, dès qu'on parle de binaires tiers liés à des bibliothèques user, c'est une autre histoire. Et comme c'est le bordel et que chaque distribution fait un peu ce qu'elle veut, et les dépendances évoluen forcement. Du coup, si votre binaire précompilé casse, c'est votre problème. La philosophie c'est donc plutôt "recompile ton truc et arrête de te chialer 'spèce de fragile".
Et c'est pour ça que Valve a misé gros sur Proton. Officiellement, ils n'ont pas de préférence entre ports natifs et Windows via Proton, mais dans les faits, Proton fonctionne tellement bien que pas mal de studios ne se cassent plus la tête à faire des ports Linux natifs. Et parfois, les jeux Windows via Proton tournent même mieux que les ports natifs ... c'est dire.
Et le projet loss32 pousse cette logique jusqu'au bout car pourquoi se battre contre les moulins à vent de la fragmentation Linux quand on peut simplement tout faire tourner en Win32 ?
Alors perso, j'ai hâte de voir ça et visiblement un PoC devrait sortir en janvier 2026 avec un paquet APT pour qu'on puisse tous tester ça chez nous. Et si ça fonctionne bien, ça veut dire que si vous créez une application desktop simple et que vous voulez qu'elle tourne sur Linux encore dans 10 ans, cibler Win32 et distribuer un .exe via Wine/Proton est une option à considérer sérieusement.
Ça semble contre-intuitif, mais pour certains cas d'usage, c'est une stratégie pragmatique...
Pour les utilisateurs, ça veut dire aussi que Wine et Proton ne sont pas des rustines en attendant mieux mais des des solutions de première classe pour faire tourner des logiciels de manière stable sur Linux. Le Steam Deck l'a prouvé avec des milliers de jeux Windows qui tournent nickel.
Bref, on en est là... Win32, l'API de Microsoft, est devenue paradoxalement une des couches de compatibilité les plus stables pour faire tourner des logiciels sur Linux. C'est fou non ? Ça va faire grincer des dents de barbus c'est sûr mais c'est aussi la preuve que parfois, les solutions terre à terre l'emportent sur l'idéologie.
Qu'est-ce que j'ai pu passer de temps sur les émulateurs ces dernières années... Entre les ROMs à chercher, les émulateurs à configurer, les manettes à mapper... Y'a des jours où j'avais juste envie de lancer un petit Sonic ou un Street Fighter sans me prendre la tête. Hé bien bonne nouvelle, y'a des sites qui font exactement ça, et j0j0b4rj0 vient de m'en partager trois qui valent le détour.
Le principe est simple, vous ouvrez votre navigateur, vous choisissez un jeu, et hop c'est parti. Pas de téléchargement, pas d'installation, juste du rétro gaming !
Le premier c'est RetroGames.cc . C'est probablement le plus fourni des trois avec un catalogue qui couvre à peu près toutes les consoles de l'âge d'or : NES, SNES, Game Boy, N64, Mega Drive, PlayStation 1, et même des trucs plus exotiques comme la PC Engine ou la Neo Geo Pocket. L'interface est pas super moderne mais elle fait le taf, avec une recherche et un tri par console. Par contre y'a des pubs, faudra pas s'étonner.
Ensuite y'a ClassicGameZone . Celui-là il est dispo en français et il a un truc en plus : un système de sauvegarde. Si vous créez un compte, vous pouvez sauvegarder vos parties et les reprendre plus tard. Le catalogue dépasse les 2100 jeux répartis sur 23 plateformes, et y'a même du multijoueur sur certains titres. L'interface est plus propre que RetroGames et y'a un système de favoris pour retrouver vos jeux rapidement.
Et le troisième c'est Retro-Games.org . Lui aussi est dispo en français et propose une couverture impressionnante des consoles. L'interface est sobre avec un mode sombre, et y'a une FAQ sympa qui raconte l'histoire du jeu vidéo pour les curieux. Comme les autres, c'est gratuit avec de la pub pour financer le service.
Les trois sites utilisent des émulateurs JavaScript qui tournent directement dans le navigateur, donc ça marche sur à peu près tout : PC, Mac, tablette... Faut juste un navigateur pas trop vieux et une connexion correcte pour charger les jeux.
Bon évidemment, côté légalité c'est un peu la zone grise habituelle des ROMs sur le web. Les jeux sont protégés par le droit d'auteur, mais les sites se retranchent derrière le fair use ou le fait que certains éditeurs n'existent plus. À vous de voir où vous placez le curseur.
En tout cas, si un soir vous avez une envie soudaine de relancer Tetris, Zelda ou Final Fantasy sans vous prendre la tête avec un émulateur, ces trois sites font le job.
Merci à j0j0b4rj0 et Lorenper pour le partage !
Article publié initialement le 7 octobre 2020 et mis à jour le 30 décembre 2025.
Qu'est-ce que j'aimais ces soirées scotché devant M6 à regarder Mulder et Scully enquêter sur des trucs inexplicables ! Les extraterrestres, les monstres de la semaine, le grand complot gouvernemental... X-Files c'était LA série qui nous a tous fait flipper dans les années 90, à tel point qu'éteindre la télé et aller me coucher après un épisode était un combat contre la peur d'être enlevé par des petits gris... Et bien accrochez-vous parce qu'un reboot est en préparation !
Ryan Coogler vient en effet de confirmer qu'il bossait sur un reboot de X-Files et que c'était son prochain projet, juste après son film "Sinners". Pour ceux qui connaissent pas, Coogler c'est le gars derrière Black Panther et la saga Creed... Donc autant dire qu'il sait s'y prendre pour donner un coup de jeune aux franchises cultes.
Il a évidemment promis de respecter ce qui fait l'ADN de la série. Je cite : "It wouldn't be X-Files if we didn't do both. We intend on having both monsters of the week and also the overarching conspiracy." Traduction pour ceux du fond : on aura les épisodes standalone avec des créatures flippantes ET une grande conspiration au long cours. Soit les deux piliers qui ont fait le succès de la série originale.
Et le réalisateur a même ajouté que si son équipe fait bien son boulot, certains épisodes seront "really fucking scary". Moi j'attends que ça !!
Et le gars a l'air motivé pour faire un truc bien puisqu'il explique que X-Files c'est comme Rocky avec son père, sauf que là c'est avec sa mère. "The X-Files is one of those things with my mom. My mom means the world to me." Sa daronne a même déjà lu certains scripts et apparemment elle valide. Je pense que quand un réalisateur de ce calibre aborde un projet avec autant d'attachement personnel, ça promet du lourd !
Côté casting, ça reste mystérieux par contre... Coogler confirme avoir parlé avec Gillian Anderson qui pourrait revenir incarner Scully mais rien n'est signé. Pour Duchovny, même flou artistique. Par contre, des rumeurs circulent sur Danielle Deadwyler qui a cartonné dans "Till", pour un rôle principal.
Le projet est développé via Walt Disney Television depuis que Chris Carter (le créateur original) a révélé son existence en 2023 et lui a donné sa bénédiction même s'il n'est pas impliqué directement dedans.
Perso, je suis comme un gosse ! X-Files c'était pas juste une série, c'était une ambiance, j'sais pas comment dire... Ils avaient une façon unique de mélanger le paranormal, la science-fiction et le thriller politique donc si Coogler arrive à retrouver cette atmosphère tout en l'adaptant à notre époque paranoïaque de fake news et de surveillance généralisée, ça peut être énorme.
Quoiqu'il en soit, la vérité est ailleurs... et j'ai hâte de la retrouver !
Moi je pensais qu'un lave-linge c'était juste... un lave-linge. On tourne le bouton, le bouton tout rond, et paf, ça lave... Mais aujourd'hui ces bestioles sont bourrées d'électronique et connectées à fond au cloud. Et forcément, ça a donné des idées à deux chercheurs allemands qui ont présenté leurs travaux au 39C3 (Chaos Communication Congress).
Severin von Wnuck-Lipinski et Hajo Noerenberg ont passé des mois à décortiquer les entrailles de machines Miele et BSH (Bosch, Siemens, Neff, Gaggenau) et leurs découvertes sont super intéressantes pour qui s'intéresse notamment au droit à la réparation et à la domotique (sans dépendre du cloud).
Côté Miele, Severin a découvert que la plupart des machines fabriquées après 1996 embarquent une interface de diagnostic optique. Un petit port infrarouge planqué sur la façade qui permet aux techniciens de se connecter avec un outil proprio appelé MDU (Miele Diagnostic Utility). Le protocole c'est du bon vieux UART à 2400 bauds avec parité paire. Pas de chiffrement mais juste une clé de sécurité à 16 bits.
Et c'est là que ça devient croquant à souhait car pour trouver ces clés de diagnostic, Severin a exploité une faille de timing sur le microcontrôleur 8 bits. En gros, quand vous envoyez une mauvaise clé, le microcontrolleur met un tout petit peu plus de temps à répondre que quand le premier octet est correct. En mesurant ces délais avec un oscilloscope, il a pu deviner les clés octet par octet.
Et c'est grâce à cela qu'il a créé FreeMDU , un outil open source qui permet de dialoguer avec les appareils Miele et compatibles. Diagnostics, codes erreur, compteurs de cycles... tout est accessible et y'a même une intégration Home Assistant pour les fans de domotique DIY.
Côté BSH, Hajo a attaqué le D-BUS, le bus de communication propriétaire qui relie tous les composants internes (moteur, pompe, interface utilisateur, module WiFi). C'est également du UART à 9600 bauds sur des connecteurs RAST, avec une tension de bus de 9V pour les lave-linge et 13.5V pour les lave-vaisselle.
Le plus beau c'est qu'en fouillant le firmware du module timeline (celui qui gère l'affichage du temps restant), Hajo a trouvé des easter eggs planqués par les développeurs dans les graphiques. Comme quoi même les ingénieurs Bosch ont le sens de l'humour ^^.
Suite à ça, Hajo a développé bsh-home-appliances , un projet open source avec une extension ESPHome pour intégrer les appareils BSH dans Home Assistant. Vous pouvez donc suivre votre cycle de lavage, recevoir des notifications, et même accéder aux diagnostics sans passer par l'app proprio.
Et le final de la présentation était épique puisque les deux chercheurs ont connecté un lave-linge Miele à l'application BSH Home Connect via une couche de compatibilité maison qu'ils ont baptisée AMBCL (Advanced Miele BSH Compatibility Layer). Un Miele qui parle le Bosch, ça c'est fait !
Bref, si vous avez un appareil Miele ou BSH qui traîne et que vous voulez reprendre le contrôle sans dépendre du cloud du fabricant, les outils sont maintenant disponibles. C'est ça aussi le droit à la réparation : pouvoir diagnostiquer soi-même sa machine sans appeler un technicien à 150 euros de l'heure.
Par contre, bidouillez vos propres appareils uniquement parce que faire ça sur le lave-linge de votre meilleur pote, c'est pas cool et c'est illégal, alors fézez pas les cons !
Bon, il est bientôt l'heure de la pause et vous avez bien mérité de faire travailler vos méninges sur autre chose que des lignes de code ou des tableurs Excel. Ça tombe bien, je viens de tomber sur un petit jeu web qui va vous rappeler des souvenirs... Vous vous souvenez de "Des Chiffres et des Lettres" ? Cette émission où Bertrand Renard alignait des calculs pendant que vous, gamin, vous demandiez pourquoi vos parents regardaient un truc aussi barbant ?
Hé bien Make 67 s'en inspire clairement, mais en version web décontractée et sans le stress du chrono qui défile à la télé.
On vous donne 4 nombres au hasard et vous devez combiner le tout avec les opérations de base (addition, soustraction, multiplication, division) pour obtenir... 67. Pourquoi 67 ? Aucune idée, mais c'est le charme du truc. Chaque nombre ne peut être utilisé qu'une seule fois, et petit détail qui a son importance, les calculs s'effectuent de gauche à droite, pas selon l'ordre mathématique classique. Du coup 2 + 3 × 4 ça donne 20, pas 14. Faut s'y faire, mais ça rajoute une petite couche de réflexion.
L'interface est minimaliste au possible avec 4 boutons pour les nombres, 4 pour les opérations, et hop vous construisez votre expression. Et si vous vous plantez, y'a un bouton Clear pour recommencer. Mais attention, vous ne pouvez l'utiliser que 3 fois max, après quoi le bouton Solve se débloque pour vous montrer la solution. Pas de jugement, on a tous des jours sans ^^.
Le petit plus sympa c'est quand vous trouvez la bonne combinaison. Votre téléphone peut vibrer (si compatible), des confettis apparaissent et y'a même un petit son de victoire. C'est con mais ça fait plaisir. Et pour les maniaques du détail, sachez que le jeu gère proprement les divisions en arrondissant à 6 décimales.
Perso je trouve ça parfait pour une pause de 5 minutes entre deux réunions ou pour décompresser en fin de journée.
Bref, si vous cherchez un truc pour occuper votre pause café, c'est cadeau .
Vous avez déjà eu besoin de vidéos de test en 4K HDR pour calibrer votre écran, tester un encodeur maison ou juste faire le malin avec votre nouveau téléviseur ? Hé bien je ne le savais pas mais Netflix met à disposition gratuitement une bibliothèque de contenus professionnels sous licence Creative Commons Attribution 4.0 (donc vous pouvez les utiliser à condition de créditer Netflix).
Ça s'appelle Netflix Open Content et c'est une initiative plutôt méconnue du géant du streaming. L'idée c'est de fournir aux développeurs, chercheurs et autres bidouilleurs des fichiers vidéo de référence de qualité broadcast, sans les problèmes de droits habituels.
Et y'a du lourd dans le catalogue puisqu'on y trouve des courts-métrages d'animation comme Sol Levante (2020), un anime réalisé en partenariat avec Production I.G et entièrement dessiné à la main en 4K HDR natif. Côté live-action, y'a aussi des trucs techniques comme Sparks (2017) filmé en 4K à quasi 60 fps avec un master HDR encodé pour 4000 nits... de quoi faire chauffer les dalles haut de gamme.
Netflix fournit les masters vidéo en HDR10 et pour certains projets des métadonnées Dolby Vision au format XML. Pour Sol Levante par exemple, y'a même les sessions Pro Tools avec le mix Dolby Atmos, les storyboards et quelques fichiers After Effects du projet. Donc pour les devs qui bossent sur des codecs ou les fabricants de TV qui veulent calibrer leurs dalles, c'est de l'or en barre.
Le téléchargement se fait soit via navigateur, soit en ligne de commande avec AWS CLI si vous avez de gros fichiers à récupérer... et croyez-moi certains pèsent lourd comme Sol Levante ou encore Sparks.
Après, faut quand même noter que le dernier contenu ajouté date de 2020 donc le projet n'a pas l'air très actif ces derniers temps mais les contenus restent parfaitement utilisables. Et vous en trouverez d'autres ici également .
Voilà, si vous cherchez des vidéos de test de qualité pro sans vous prendre la tête avec les droits d'auteur, c'est une ressource plutôt sympa à bookmarker.
J'sais pas si vous vous rappelez mais quand on jouait à nos jeux préférés sur un de ces vieux écrans CRT, l'image était nette ! Une clarté de mouvement quasi parfaite, avec très peu de traînées... C'était chouette ! Hé bien y'a un dev qui a décidé de recréer ça sur nos écrans modernes avec un outil open source qui s'appelle ShaderBeam .
En fait, le souci de nos LCD et autres OLED, c'est que chaque pixel reste allumé pendant toute la durée d'une frame (c'est ce qu'on appelle le sample-and-hold ). Alors que sur un CRT, le faisceau d'électrons balayait l'écran ligne par ligne, donc chaque pixel ne s'allumait qu'une fraction de seconde. C'est ça qui donnait cette sensation de netteté en mouvement. C'est précisément ce comportement que ShaderBeam tente de reproduire via un shader GPU.
Le projet vient de sortir en version 0.1 beta et c'est développé par Mausimus, le même gars qui a créé ShaderGlass (un overlay pour appliquer des shaders sur Windows). Et son nouveau bébé utilise la technologie de simulation CRT de Blur Busters , développée par Mark Rejhon et Timothy Lottes.
Si vous testez, vous verrez, les résultats peuvent être assez bluffants selon votre config. Sur un écran 120Hz, vous pouvez réduire le flou de mouvement jusqu'à 50% pour du contenu 60fps. À 240Hz, on peut monter à 75% de réduction. Et si vous avez un monstre à 480Hz, c'est jusqu'à 87,5% de blur en moins. Autant dire que ça peut commencer à se rapprocher de l'expérience CRT d'antan.
Le gros avantage par rapport au Black Frame Insertion classique (le BFI que proposent certains écrans), c'est que ShaderBeam peut flicker moins selon les réglages. Au lieu d'alterner brutalement entre image et noir, le shader simule la phosphorescence qui s'estompe progressivement. Résultat, ça peut être plus agréable pour les yeux sur du contenu 60fps.
Par contre, y'a quelques contraintes. Déjà vous avez besoin d'un écran qui monte au minimum à 100Hz, et 240Hz ou plus c'est vraiment l'idéal. Ensuite, le dev recommande d'utiliser un deuxième GPU (votre iGPU intégré fait l'affaire) pour faire tourner ShaderBeam pendant que votre carte graphique principale gère le jeu. Ça peut aider à éviter les problèmes de désync dans la plupart des jeux.
Pour l'installer, ensuite c'est assez simple. Vous téléchargez le zip depuis GitHub, vous lancez l'exe, et l'overlay se met par-dessus vos jeux en fullscreen. Y'a des raccourcis clavier pour afficher l'interface de config (Ctrl+Shift+B), et vous pouvez ajuster plein de paramètres selon votre écran et vos préférences. Attention, il est recommandé de désactiver HAGS, VRR et HDR pour de meilleurs résultats.
Bon, c'est encore une beta, donc attendez-vous à quelques bugs et attention si vous êtes photosensible car ça peut créer des flashs rapides. Mais pour les nostalgiques du CRT qui veulent retrouver cette clarté de mouvement sur leurs écrans modernes, c'est vraiment un projet à suivre. D'ailleurs, Blur Busters propose une démo interactive si vous voulez voir le principe en action avant de télécharger.
Windows updates are supposed to improve stability and performance, but in practice they often do the opposite. One update runs fine, the next introduces stutter, latency, or sudden slowdowns. The problem is not a single bug. It is how frequently Windows updates change system behavior in ways that are hard to predict and even harder to roll back cleanly.
Microsoft's release notes rarely explain the full scope of what changes. Task scheduling, background service behavior, power management, and driver interaction can all be adjusted silently. On a platform that runs on countless hardware combinations, even a minor tweak can push some systems into noticeably worse performance.
Driver updates compound the issue. GPU and chipset drivers are updated independently of Windows, yet tightly coupled to it. A new graphics driver may boost performance in a recent game while introducing microstutter or frame pacing issues elsewhere. In some cases, updates have caused double-digit performance drops until hotfixes arrived days later.
After dealing with repeated regressions, the solution was not chasing every new update. It was controlling when and how updates are applied.
The first change was treating Windows updates as optional, not automatic. Pausing updates after a stable build prevents surprise regressions. Updates can still be installed manually once reports confirm they are safe on similar hardware.
The second change was being conservative with driver updates. If a GPU or chipset driver works well, there is little reason to replace it immediately. New drivers are best installed only when they fix a specific issue or support software you actually use.
Power management was another source of instability. Switching to a consistent power plan and disabling aggressive power-saving features reduced latency spikes and inconsistent boost behavior, especially on laptops and hybrid CPUs.
Finally, rollback paths matter. Keeping restore points enabled and knowing how to uninstall recent updates makes recovery faster when something does go wrong. Performance issues are easier to tolerate when reverting is straightforward.
Windows performance does not have to feel random. The system becomes far more predictable once updates stop being forced and start being managed. Stability comes less from the newest version and more from staying with what already works.
Thank you for being a Ghacks reader. The post These Changes Stopped Windows Updates From Wrecking My PC Performance appeared first on gHacks Technology News.
Linux often looks calm on the surface. You install a distribution, pick a desktop, and get to work. Underneath that stability is decades of open conflict, technical, philosophical, and sometimes personal, that determined how Linux works today. These were not minor disagreements. They were long-running battles that split communities, spawned forks, and permanently altered the direction of the operating system.
Freedom vs. pragmatism: defining "free software."The first major conflict predates Linux desktops and package managers. It was about ideology.
The Free Software Foundation (FSF) argued that software freedom was a moral issue. Code should remain free forever, and anyone distributing modified versions should be required to share their changes under the same terms. This philosophy shaped the GPL license and the idea of "free as in freedom, not free as in beer."
The Open Source Initiative (OSI) took a more pragmatic approach. Its goal was adoption, especially by businesses. The term "open source" itself was created to make collaborative software more palatable to companies that were wary of ideological language.
This tension peaked with the release of GPLv3, which attempted to prevent companies from locking down GPL software in consumer devices. The backlash was immediate. Many projects refused to adopt it, including the Linux kernel itself, which remains on GPLv2. That single decision still affects how Linux can be used in phones, routers, and embedded systems.
The argument never ended. It simply became part of Linux's DNA.
KDE vs. GNOME: the desktop that divided usersLinux desktops exist in their current form because of a licensing dispute.
KDE arrived first and was technically impressive, but it depended on the Qt framework, which raised concerns about long-term licensing freedom. In response, developers created GNOME as a fully free alternative, even though it initially lagged behind in features.
Over time, both desktops matured, and Qt adopted a dual-licensing model that removed most of the original objections. By then, it was too late for consolidation. KDE and GNOME had become separate ecosystems with different design philosophies, workflows, and communities.
That split shaped the Linux desktop experience permanently. Even today, distribution defaults, application toolkits, and UI debates trace back to this early ideological fork. The abundance of choice Linux users enjoy exists because compromise failed.
systemd vs. the old model: the init warThe most explosive conflict came much later and hit the core of the operating system.
systemd was introduced as a modern replacement for traditional Unix init systems. It promised faster boot times, better service management, and fewer fragile shell scripts. Technically, it solved real problems.
Philosophically, it broke with Unix tradition. Critics argued that systemd centralized too much functionality, violating the "do one thing well" principle. Supporters argued that modern systems required integration, not purity.
When Debian adopted systemd as its default init system, the community fractured. The result was Devuan, a Debian fork created specifically to avoid systemd. Most mainstream distributions followed Debian's lead, and systemd became the de facto standard.
The war ended not with consensus, but with momentum.
Why these conflicts still matterThese battles were not abstract debates. They determined:
Linux exposes its disagreements in public. Forks are visible. Arguments happen in mailing lists, issue trackers, and conferences. That openness is messy, but it is also why Linux adapts without a single company dictating outcomes.
If you use Linux today, you are using the result of these conflicts-whether you realize it or not.
Agree?
Thank you for being a Ghacks reader. The post Three Linux Conflicts That Still Shape the OS You Use Today appeared first on gHacks Technology News.
Meta Platforms has agreed to acquire Manus, an AI startup that drew outsized attention earlier this year with a polished demo of autonomous agents handling tasks like screening candidates, planning trips, and analyzing portfolios. The deal values Manus at roughly $2 billion, matching the valuation the company was reportedly seeking for its next funding round.
Manus emerged quickly. After debuting in the spring, it went viral on the strength of a single demo video and bold claims that its agents outperformed competing research tools. By April, the company had closed a $75 million round led by Benchmark at a $500 million post-money valuation. Additional backing reportedly included Tencent, ZhenFund, and HSG via an earlier raise.
Despite skepticism around early pricing-Manus charged $39 or $199 per month while still testing-the company said it crossed $100 million in annual recurring revenue and signed up millions of users. That traction appears to have accelerated Meta's interest, especially as investors scrutinize Meta's heavy AI infrastructure spending.
According to reports, Meta plans to keep Manus operating independently while integrating its agents into Facebook, Instagram, and WhatsApp, where Meta AI is already available. The acquisition adds a revenue-generating agent platform to Meta's portfolio rather than another experimental model.
The deal also carries geopolitical sensitivity. Manus was founded by Chinese nationals and traces its origins to a parent company established in Beijing before relocating operations to Singapore earlier this year. That background has drawn scrutiny from U.S. lawmakers wary of technology transfers and foreign influence. Meta has stated that, following the acquisition, Manus will sever ties with Chinese investors and discontinue operations in China.
For Mark Zuckerberg, the acquisition aligns with a strategy centered on AI agents embedded across consumer platforms. Unlike prior bets that focused on foundational models, Manus offers a product already in market with paying customers-something Meta can scale across its existing user base.
Regulatory review and integration details remain open questions. Meta says Manus will continue as a standalone product initially, with agent capabilities gradually woven into Meta's apps. How aggressively that integration happens, and how regulators respond to the cross-border aspects of the deal, will shape what users see next.
Thank you for being a Ghacks reader. The post Meta Acquires AI Startup Manus in a $2 Billion Deal appeared first on gHacks Technology News.
OpenAI is recruiting a new Head of Preparedness, a senior role focused on mitigating risks tied to advanced AI systems. The position comes with a reported annual compensation of roughly $555,000, plus equity, underscoring how seriously the company says it is taking emerging safety concerns.
OpenAI CEO Sam Altman publicly acknowledged the opening in a social media post, describing the job as demanding and warning that it would be "stressful." According to the listing, the role is responsible for reducing harms linked to AI capabilities, including risks to mental health, cybersecurity, and biological misuse.
The hiring push comes as AI systems become more capable and harder to predict. Altman said models are now powerful enough to create "real challenges," especially when it comes to abuse scenarios where attackers could repurpose AI tools faster than defenses can adapt.
Preparedness work at OpenAI is not new, but the role has shifted. The company's previous head of preparedness, Aleksander Madry, was reassigned last year to a position focused on AI reasoning, with safety becoming a secondary responsibility. The new opening restores preparedness as a standalone executive function.
The timing is notable. A growing number of companies are flagging AI-related reputational and operational risks in regulatory filings, and OpenAI itself has acknowledged that some upcoming models could pose elevated cybersecurity threats. The company has said it is expanding monitoring systems and training models to refuse requests that could compromise security.
OpenAI has also faced public scrutiny over mental health concerns. The company has been named in multiple lawsuits alleging harmful interactions with ChatGPT, and external investigations have documented cases where users experienced severe distress during extended conversations with the system. OpenAI has responded by updating how ChatGPT handles sensitive topics, adding crisis resources, and funding research into AI and mental health.
For OpenAI, the Head of Preparedness role is meant to sit at the intersection of technical capability and real-world impact. The position is tasked with anticipating how new systems might be misused and shaping release strategies that limit harm without halting development entirely.
The role does not signal a slowdown in OpenAI's ambitions. Instead, it reflects an acknowledgment that as AI systems approach higher levels of autonomy and reasoning, safety planning must move earlier in the development process and carry more authority.
Thank you for being a Ghacks reader. The post OpenAI Is Hiring a Head of Preparedness to Address AI Safety Risks appeared first on gHacks Technology News.
Vous vous rappelez de votre PlayStation 2, cette bonne vieille console qui a bercé les années 2000 avec ses GTA, ses Final Fantasy et ses Pro Evolution Soccer ? Et bien figurez-vous que Sony avait sorti à l'époque un kit officiel pour transformer la machine en PC sous Linux. D'abord au Japon en 2001, puis aux États-Unis en 2002. Oui, officiellement, fait par Sony.
C'était complètement dingue quand on y pense !
Le kit PS2 Linux (compatible uniquement avec les modèles "fat" avec baie d'extension) comprenait tout un attirail de ouf : un disque dur IDE de 40 Go, un adaptateur réseau (qui faisait aussi office d'interface IDE), un adaptateur VGA pour brancher la console sur un moniteur compatible (sync-on-green requis), une carte mémoire de 8 Mo (requise mais non incluse), et même un clavier et une souris USB aux couleurs de la PlayStation. Sony avait vraiment mis le paquet sur la qualité de ces périphériques, avec un clavier qui avait un toucher plutôt agréable pour l'époque.
Côté électronique, la PS2 embarquait un processeur MIPS R5900 (le fameux Emotion Engine) et le système tournait sur un kernel Linux 2.2.1 basé sur Kondara MNU/Linux (une distro japonaise dérivée de Red Hat). Par contre, avec seulement 32 Mo de RAM, fallait pas s'attendre à des miracles. Le système incluait quand même l'environnement de bureau Window Maker, un gestionnaire de fenêtres old school mais terriblement classe avec son petit pingouin.
L'installation se faisait via un disque (CD ou DVD selon l'édition) qu'on insérait comme un jeu, et la carte mémoire stockait les fichiers de boot. Ensuite il fallait partitionner le disque dur à la main en suivant la doc, parce que y'avait pas d'assistant automatique. Une fois installé, on pouvait lancer des applications, compiler du code, et même faire tourner des navigateurs comme Mozilla Suite (Firefox étant arrivé plus tard via des ports communautaires).
Le lecteur DVD-ROM n'était pas utilisable sous PS2 Linux (pas de driver), ce qui empêchait de copier des jeux, par contre, rien n'empêchait de développer ses propres programmes. D'ailleurs, le kit était principalement destiné aux développeurs et aux bidouilleurs qui voulaient explorer l'architecture de la console.
Aujourd'hui ces kits sont devenus assez rares et se revendent à prix d'or pour les collectionneurs. Toutefois vous pouvez en trouver un à un prix raisonnable par exemple ici sur eBay . Il est vendu par l'éditeur du journal Le Virus Informatique afin de financer le prochain numéro avec cette vente. Y'a même des distributions Linux plus modernes comme Black Rhino qui ont été portées sur PS2 par la communauté.
C'était vraiment une autre époque où les constructeurs osaient ce genre d'expérimentations... Une console de jeu grand public qui peut officiellement booter sur Linux, ça n'arriverait plus aujourd'hui et c'est bien dommage je trouve...
Ah, Final Fight sur Mega Drive... Si vous avez vécu la déception du portage SNES à l'époque (un seul joueur, Guy aux abonnés absents, des stages raccourcis), vous savez de quoi je parle. Capcom nous avait bien eu sur ce coup-là.
Du coup quand j'ai découvert qu'un développeur brésilien du nom de Mauro Xavier avait décidé de recréer le jeu de zéro pour notre bonne vieille 16 bits de Sega, j'ai évidemment été voir ça de plus près. Et le résultat est vraiment dingue.
Final Fight MD propose les 3 personnages de l'arcade (Cody, Guy et Haggar) plus Maki en bonus (oui, celle de Final Fight 2 !), tous les stages, tous les ennemis, tous les boss... Bref, la vraie version arcade complète, et pas la version amputée qu'on nous avait refourgué sur console.
Et le truc qui m'a fait triper, c'est qu'on peut jouer jusqu'à 3 joueurs en simultané grâce au support du SEGA Team Player ou du EA 4-Way Play. Trois potes dans le même salon à tabasser du Mad Gear, comme au bon vieux temps des bornes d'arcade... C'est ti pas beau ça ?
Le projet vient de sortir sa version 0.92b "Christmas 2025" avec une tonne de corrections de bugs et d'améliorations. Je vous passe le changelog complet qui fait des kilomètres, mais sachez que ça inclut un système de sauvegarde SRAM, 60 succès à débloquer, un mode Jukebox pour écouter les musiques, et des tas d'options de personnalisation. Vous pouvez même régler la difficulté, le nombre de vies, activer ou non les continues...
Et le plus impressionnant dans tout ça, c'est que le jeu a été codé entièrement from scratch. Y'a pas une ligne de code original de Capcom, puisque tout a été recréé par Mauro Xavier et son équipe (Edmo Caldas pour la musique, Master Linkuei pour le support technique). Et y'a même les sprites des personnages qui ont été redessinés pour coller au style Mega Drive.
Le projet est bien sûr toujours en cours de développement mais la version actuelle est déjà super stable et jouable. Et quand ce sera terminé, ça sera gratuit les amis !
Voilà, si vous êtes fan de rétrogaming et de beat'em all old school, foncez télécharger la ROM sur itch.io . Vous m'en direz des nouvelles ^^
Merci à Lorenper pour le partage !
Vous avez un Steam Deck, un Lenovo Legion Go ou un ROG Ally qui traîne dans un coin parce que pas le temps de jouer, vous avez trop de boulot... Je connais bien vous inquiétez pas.
Mais si je vous disais que ce petit truc qui prend la poussière peut devenir votre meilleur allié pour les audits de sécurité discrets ?
Mais siii ! J'vous jure !
C'est en tout cas ce que propose Balor , un framework offensif fraîchement sorti et développé par Jean-Claude Charrier , qui grâce à ça peut d'un coup, transformer votre console gaming en une station de pentest portable.
Son concept est parti d'un constat simple... Quand vous débarquez en mission de pentest avec un cahier des charges qui exige de la discrétion, sortir un WiFi Pineapple c'est un peu comme débarquer en costard dans un festival de métal. Ça se voit !! Mais avec une console portable gaming par contre, vous avez juste l'air d'un type qui fait une pause entre deux réunions.
Ni vu ni connu, j't'embrouille !
Balor tourne sous CachyOS et Arch Linux, s'installe en une dizaine de minutes et embarque pas moins de 8 stacks pour environ 130 options au total. Côté WiFi, vous avez aircrack-ng, wifite, bettercap et même des versions de Wifiphisher réécrites spécialement pour Python 3.13. Pour l'OSINT, c'est Maltego, theHarvester, Shodan et compagnie. Et y'a aussi du Metasploit, Burpsuite, Nmap, Masscan, SQLMap, Hashcat, John the Ripper... Bref, la totale.
Le truc sympa c'est que tout passe par un wrapper unique appelé "balorsh". Vous tapez balorsh wifi et hop, le menu WiFi apparaît ! Pareil pour balorsh llm qui lance un assistant IA local via Ollama avec des personas adaptés comme Red Team pour l'offensif, Blue Team pour le défensif, Purple Team pour mixer les deux...etc.
L'installation se fait via un script qui dépose tout dans /opt/balorsh/data/ et la désinstallation est tout aussi propre. En plus chaque stack est modulaire, donc si vous n'avez besoin que du cracking de mots de passe, vous installez juste cette partie. Pour les sysadmins qui voudraient comprendre les workflows pentest sans se taper toute la doc, c'est aussi un bon point d'entrée. Genre enchaîner theHarvester, amass, massdns et httprobe pour du recon, ça devient accessible même sans être certifié OSCP ^^.
Côté limitations, Balor reste exclusif à l'écosystème Arch/CachyOS mais rassurez-vous, un portage Debian est envisagé si la demande suit.
Perso je trouve l'approche vraiment bien trouvée et le fait que ce soit un projet français plutôt qu'une énième distro sécu américaine corporate, ça fait plaisir. Voilà, par contre comme d'hab, c'est un outil pour les audits autorisés uniquement avec contrat signé, et pas pour aller embêter le WiFi du voisin, hein ^^.
Alors déconnez pas !
Encore merci à Jean-Claude d'avoir partager sa création avec moi.
Vous utilisez un VPN ou Tor pour protéger votre vie privée en ligne et vous pensez être tranquille derrière votre petit tunnel chiffré ?
Que nenni les amis ! Car un chercheur vient de montrer qu'il existe une technique pour démasquer les proxies TCP... et ça concerne potentiellement votre VPN aussi. Du coup, même si vous faites tout bien, y'a quand même moyen de vous griller.
Le projet s'appelle Aroma et son principe est redoutable car au lieu de chercher à identifier votre IP ou analyser votre trafic, il se contente de mesurer le temps de réponse de vos paquets TCP. C'est un peu comme si on pouvait deviner que vous portez un déguisement de dinosaure gonflable juste en chronométrant le temps que vous mettez à venir répondre à la porte (vous avez l'image ?).
Car oui, le ratio entre le RTT minimum et le RTT lissé donne un score. Connexion directe ? Ratio entre 0.7 et 1. Proxy TCP ? Ça chute en dessous de 0.3. Et sous 0.1, c'est quasi certain que vous passez par un intermédiaire.
Bref, ça s'appuie sur un principe physique qu'on ne peut pas contourner qui est la vitesse de propagation dans la fibre. Un RTT de 4 millisecondes correspond à environ 400 km max en ligne droite. Ça permet de poser comme une borne théorique sur la distance réelle entre le serveur et son interlocuteur direct.
Et pour les utilisateurs de Tor, la nuance est importante car le site distant voit la connexion avec l'exit node, donc le RTT mesuré côté serveur reflète surtout le chemin serveur ↔ exit node, pas l'ensemble du circuit. Donc c'est OK mais si l'exit node lui-même passe par un proxy TCP, là ça peut poser problème.
Maintenant côté contre-mesures, j'avoue c'est pas simple car cette technique ne repose pas sur des listes d'IP connues ou du fingerprinting de navigateur, donc les méthodes habituelles ne servent à rien. Toutefois en théorie, un proxy physiquement très proche (moins de 1ms de latence ajoutée) pourrait passer sous le radar...
J'ai trouvé cet outil intéressant car ça montre que même avec les meilleures protections logicielles, y'a des contraintes physiques fondamentales qu'on ne peut pas contourner. La bonne nouvelle c'est que pour l'instant, Aroma reste un proof of concept que vous pouvez tester ici , mais bon, rien n'empêche un gouvernement autoritaire (ou pas) de pousser le curseur un peu plus loin...
Vous avez des cartouches Super Nintendo qui prennent la poussière dans un carton au grenier et en même temps une vague culpabilité de jouer à ces mêmes jeux en ROM sur votre Steam Deck ? Alors on va remédier à cela grâce à Epilogue qui a la solution pour mettre votre conscience au repos tout en profitant de vos jeux légalement sur n'importe quel appareil.
Leur nouveau gadget s'appelle le SN Operator et c'est un dock USB-C dans lequel vous insérez vos cartouches SNES ou Super Famicom. Ensuite vous branchez ça à votre PC (ou Mac, ou Steam Deck, ou même un Raspberry Pi), et hop vous pouvez jouer à vos jeux originaux via leur émulateur maison Playback . Pas besoin de télécharger des ROMs douteuses sur des sites chelous, vos propres cartouches font le taf.
Votre navigateur ne supporte pas la lecture de vidéos HTML5. Voici un lien vers la vidéo.Le truc cool c'est que ça va au-delà de simplement "jouer" puisque l'appareil peut authentifier vos cartouches pour vérifier que le Chrono Trigger que vous avez chopé aux puces n'est pas une contrefaçon chinoise. Il peut aussi sauvegarder toutes vos données de jeu, y compris les sauvegardes de l'époque que vous aviez sur la cartouche. Du coup si votre pile de sauvegarde finit par lâcher (et ça arrive, ces trucs ont 30 ans quand même...), vous aurez une copie en sécurité.
Côté compatibilité, Epilogue annonce le support de toutes les puces d'amélioration : Super FX, SA-1, DSP, CX4... Donc vos Star Fox et autres Yoshi's Island devraient tourner sans problème. Y'a même le support du Super Scope et de la souris SNES pour les jeux qui les utilisaient, genre Mario Paint. Et cerise sur le gâteau, l'intégration RetroAchievements est de la partie pour ceux qui aiment débloquer des trophées rétro.
Les précommandes ouvrent demain 30 décembre à 18h (heure de Paris) pour environ 60 dollars. C'est 10 balles de plus que leur GB Operator pour Game Boy, mais bon, les cartouches SNES sont plus grosses et le hardware plus costaud. La livraison est prévue pour avril 2026.
Perso je trouve que c'est une approche plutôt saine du rétrogaming. Vous possédez les cartouches, vous avez le droit d'y jouer et ça évite de devoir ressortir une vraie console SNES qui prend de la place, consomme plus, et dont les connecteurs commencent à fatiguer après des décennies d'utilisation.
Bon, je vais essayer de poser les choses calmement, parce que ce que je vais vous raconter aujourd'hui, c'est peut-être le changement le plus profond qu'on ait vu sur le web depuis l'arrivée des moteurs de recherche. Et je pèse mes mots.
J'ai découvert via un post sur Linkedin de Laurent Bourrelly (merci !) que Google venait de lancer ce qu'ils appellent la « Vue Dynamique » dans Gemini.
Derrière ce nom un peu corporate se cache quelque chose de vertigineux. Au lieu de vous donner une réponse textuelle comme le fait ChatGPT ou Perplexity, Gemini génère maintenant des interfaces complètes, des mini-applications, des pages web interactives créées à la volée, spécialement pour votre question.
Vous demandez un comparatif de NAS ? Vous n'obtenez pas un texte avec des bullet points. Vous obtenez une interface avec des onglets, des sliders pour filtrer par prix, des cartes interactives avec les specs de chaque modèle.
Vous voulez un tutoriel pour installer Linux ? Vous n'aurez pas une liste d'étapes, mais un guide interactif avec des boutons, des cases à cocher pour suivre votre progression, peut-être même une galerie d'images générées pour illustrer chaque étape.
Et ça fonctionne incroyablement bien sur le web via gemini.google.com ! Pour l'instant c'est réservé aux comptes personnels, c'est encore un peu capricieux (ça apparaît, ça disparaît, Google teste), et ça peut prendre entre 30 et 90 secondes pour générer une réponse complexe. Mais le résultat est vraiment bluffant.
Ce que ça va changer...Imaginez 2 secondes les usages de cette techno... Vous cherchez quel GPU acheter pour votre config gaming ? Au lieu de parcourir 15 sites de benchmarks, de comparer des tableaux sur Tom's Hardware et de croiser avec les prix sur LDLC, vous posez la question à Gemini et vous obtenez une application comparative générée instantanément. Même chose pour choisir un forfait mobile, comprendre les différences entre distributions Linux, trouver la meilleure recette de carbonara, ou planifier un voyage avec maps et itinéraires intégrés.
L'information brute, celle qu'on allait chercher sur des dizaines de sites, est maintenant synthétisée et présentée dans une interface sur-mesure. Plus besoin de naviguer de site en site, de supporter les popups de cookies, les pubs intrusives, les paywalls...etc. L'IA fait le boulot et vous livre le résultat dans un emballage propre. En quelques secondes, je me suis fait mon site d'actu tech perso...
Et voilà le problème.
La mort annoncée des sites d'informationParce que si l'IA peut générer une meilleure expérience que nos sites web pour répondre à une question factuelle, pourquoi les gens iraient-ils encore sur nos sites ?
On connaissait déjà la menace des réponses IA dans les résultats Google. Vous savez, ces encarts qui répondent à votre question avant même que vous cliquiez sur un lien. Ça, c'était le premier coup de semonce. Mais la Vue Dynamique, c'est un autre niveau. Ce n'est plus juste une réponse qui s'intercale entre vous et l'internaute. C'est le remplacement pur et simple de l'expérience web traditionnelle.
Tous les sites qui vivent de l'information brute vont morfler. Les comparateurs de prix, les guides d'achat, les tutoriels techniques basiques, les FAQ, les sites de recettes... Tout ce qui peut être synthétisé, structuré et présenté de manière plus efficace par une IA va perdre sa raison d'être. Et croyez-moi, OpenAI ne va pas rester les bras croisés et Perplexity non plus. Dans quelques mois, ils auront tous leur version de cette techno. C'est inévitable.
Et demain, ce ne sera peut-être même plus des interfaces visuelles. Ce seront des assistants vocaux, des agents autonomes, des robots qui viendront chercher l'information sans jamais afficher une seule page web. L'information transitera directement de la source vers l'utilisateur, sans passer par la case « visite d'un site ».
Alors, c'est foutu ?Hé bien... oui et non.
Oui, c'est foutu pour un certain type de contenu. L'information pure et dure, factuelle, sans valeur ajoutée éditoriale, va devenir une commodité. Quelque chose que l'IA génère gratuitement, instantanément, dans un format optimisé. Personne n'ira plus sur un site pour lire « comment formater un disque dur sous Windows » ou « comment nettoyer Windows 11 » quand Gemini lui construit un guide interactif personnalisé en 30 secondes.
Mais ce n'est pas foutu pour autant pour tout le monde. Et c'est là que ma réflexion devient plus personnelle...
Je pense que les sites qui vont survivre, et peut-être même prospérer, sont ceux qui apportent quelque chose que l'IA ne peut pas synthétiser. Une voix, une personnalité, un point de vue, une opinion, une analyse originale et le plaisir de lire quelqu'un. C'est peut-être la mort des sites conçus uniquement pour le SEO et du journalisme neutre et anonyme tel qu'on le pratique aujourd'hui et le grand retour des blogs à une voix ? Qui sait ?
Parce qu'au fond, pourquoi est-ce que vous me lisez ? Est-ce que c'est vraiment pour savoir comment installer Ollama ou pour connaître cette dernière faille de sécurité ? Ou est-ce que c'est aussi parce que vous aimez la manière dont je raconte les choses, les sujets que je choisis, le ton que j'emploie, les réflexions que je partage ? Si c'est juste pour l'info brute, alors oui, vous pourriez aller sur Gemini. Mais si c'est pour le reste, pour la relation qu'on a construite au fil des années, pour cette confiance qui s'est établie, alors aucune IA ne peut remplacer ça.
Les deux voies de survieDe mon point de vue, il y a désormais deux façons pour un créateur de contenu de survivre dans ce nouveau paysage.
La première, c'est de devenir fournisseur de données pour ces IA. Les bots vont continuer à crawler le web pour alimenter leurs modèles. Et ils auront besoin de données fraîches, de données originales, de données structurées. Les sites qui seront capables de produire cette matière première, et qui négocieront correctement avec les géants de l'IA pour être rémunérés, pourront peut-être s'en sortir. Mais attention, ça implique de repenser complètement la façon dont on structure son contenu, de le rendre lisible par les machines, d'accepter que ce qu'on produit sera digéré et régurgité par une IA. C'est un business model possible, mais c'est un sacré changement de paradigme.
La seconde voie, c'est de cultiver l'humain. De créer du contenu que les gens veulent lire pour le plaisir de lire, pas juste pour extraire une information. Des analyses, des opinions, des prises de position, du divertissement, de l'émotion. Un blog, une newsletter , un Patreon , des lives Twitch , une présence LinkedIn Korben ... Tout ce qui crée une relation directe avec les lecteurs. Parce que cette relation, l'IA ne peut pas la reproduire. Elle peut synthétiser mes articles, mais elle ne peut pas être moi.
Et moi dans tout ça ?Je ne vais pas vous mentir, ça fait réfléchir. Ça fait même un peu flipper. Mais en même temps, je réalise que c'est exactement le virage que j'ai commencé à prendre ces dernières années, de manière un peu inconsciente, sans vraiment voir venir cette révolution technologique.
Je suis tout seul. Je n'ai pas d'employés. Je ne peux pas rivaliser avec les gros médias tech sur la quantité ou la rapidité (quoique... ^^). Par contre, j'ai toujours cherché à me différencier. Déjà par ma sélection de sujets, que la plupart du temps, on ne retrouve nulle part ailleurs, par ma manière de les aborder, par ma façon d'écrire, par ma façon de communiquer avec vous...
Et demain, cette différence va devenir encore plus importante. Parce que ce qui ne sera pas différent, ce qui sera de l'information générique, ça va disparaître dans le bruit des réponses IA. Seuls les contenus qui apportent quelque chose d'unique, une perspective qu'on ne trouve pas ailleurs, une voix reconnaissable, une relation authentique, auront leur place.
Est-ce que j'y arriverai ? Je ne sais pas. Est-ce que les autres y arriveront ? Je ne sais pas non plus. Mais je trouve le challenge passionnant. Et je me sens suffisamment conscient de ce qui se passe, suffisamment bien équipé techniquement (j'utilise l'IA tous les jours pour mon travail, et je structure déjà mon contenu pour qu'il soit digeste par les machines), pour essayer de prendre cette vague.
Pour conclureGoogle vient de mettre un énorme coup de poing sur la table. La Vue Dynamique de Gemini, c'est pas juste une nouvelle feature sympa... C'est l'annonce d'un changement de paradigme. Le web tel qu'on le connaît, avec des humains qui naviguent de site en site pour collecter de l'information, ce web-là est en train de mourir.
Ce qui va rester, ce sont comme je vous le disais, d'un côté, des fournisseurs de données qui alimenteront les IA. De l'autre, des créateurs qui cultiveront une relation directe avec leur audience, qui apporteront de la valeur par leur voix, leur personnalité, leur point de vue. Mon pari, c'est qu'en tant que média / blog / site web, nous devrons être les 2 faces de cette même pièce pour ne pas disparaître.
Je suis assez serein parce que c'est ce que je fais depuis 20 ans, même si je ne n'appelle pas ça comme ça. Et parce que je crois fondamentalement qu'il y aura toujours des gens qui voudront lire quelqu'un, et pas juste lire "quelque chose".
On verra bien si j'ai raison. On verra bien si je me plante. Mais ça va être un sacré voyage, et je suis content de le faire avec vous... Car tant qu'il y aura des gens pour me lire (vous !), et tant que ça m'amusera de partager tout ça avec vous, je ne bougerai pas d'ici ^^
Researchers from University of Pennsylvania and University of Michigan have built what they describe as the world's smallest fully autonomous robots. The devices are small enough to operate at the scale of biological cells, measuring roughly 200 × 300 × 50 micrometers, about one-tenth the width of a millimeter.
Despite their size, the robots are self-contained. Each unit can move, sense its environment, perform basic computation, and respond without external control, tethers, or magnetic guidance. According to the researchers, the robots are also inexpensive to manufacture, costing around one cent per unit.
The work was led in part by Marc Miskin, an assistant professor of electrical and systems engineering, who noted that these robots are orders of magnitude smaller than previous micro-robotic systems. Their size places them in the same range as many microorganisms, which opens up research possibilities that larger robots cannot reach.
The findings were published in Science Robotics and Proceedings of the National Academy of Sciences, detailing how the robots integrate power, logic, and movement into a structure smaller than a grain of salt. The robots are designed to survive and operate autonomously for extended periods, potentially lasting months under the right conditions.
Researchers suggest long-term applications could include tracking the behavior of individual cells, studying microscopic environments, or assisting in the construction of microscale machines. Because the robots function at the same physical scale as biological systems, they may eventually be able to navigate tissue or lab-grown environments that are inaccessible to existing tools.
This research remains experimental. There is no consumer-facing application, and practical use outside laboratory settings is still theoretical. The work represents a technical milestone rather than a deployable technology, highlighting how far miniaturization and autonomous control have progressed rather than signaling an imminent product or service.
Thank you for being a Ghacks reader. The post Researchers Build Autonomous Robots Smaller Than a Grain of Salt appeared first on gHacks Technology News.
Google ended official OS updates for the Pixel 4 and Pixel 4 XL in 2022, but the devices are not stuck there. The LineageOS team has added official support for the Google Pixel 4 and Pixel 4 XL in LineageOS 23, bringing Android 16 to Google's 2019 phones.
This is a step up from earlier unofficial builds. Official status means the maintainers consider the ROM stable enough for daily use, with core features working reliably. For users still carrying a Pixel 4 as a main or backup phone, this extends the device's usable life well beyond Google's support window.
LineageOS 23 went official earlier this year and is based on Android 16. Alongside the platform upgrade, the release includes refreshed system apps. The Aperture camera app has been rewritten for better performance and gains support for features like JPEG Ultra HDR and RAW + JPEG capture on compatible hardware.
There is an important limitation. The current Pixel 4 build is based on the initial Android 16 codebase, not the newer QPR2 release. That means some headline Android 16 features are missing, including the Material 3 Expressive design updates and Live Updates. The LineageOS team has started work on a QPR2-based LineageOS 23.2, but it is not available yet.
Installing LineageOS is not a simple update. It requires unlocking the bootloader, installing a custom recovery, and flashing the ROM manually. This process wipes the device and can break features like SafetyNet-dependent apps. It is not recommended for users who are uncomfortable with custom ROM installation or rely on locked-down banking or enterprise apps.
For users who are comfortable with those trade-offs, LineageOS 23 offers a practical way to keep an otherwise unsupported Pixel usable, secure, and relatively modern. Installation files and device-specific instructions are available on the LineageOS website.
Thank you for being a Ghacks reader. The post Google Pixel 4 Runs Android 16 With Official LineageOS 23 Support appeared first on gHacks Technology News.