Est-ce que vous avez déjà eu cette envie soudaine de composer de la techno tout en ayant l'air d'un hacker qui pirate le Pentagone dans un film des années 90 ?
Si oui, j'ai le truc parfait pour vous : Strudel .
Pour ceux qui débarquent, le live coding musical dont je vous ai déjà parlé y'a pas longtemps avec Loopmaster , c'est l'art de créer du son en écrivant du code en temps réel.
En gros, on tape des lignes, on valide, et hop le rythme change en direct. Strudel rend ce concept ultra accessible puisqu'il tourne entièrement dans votre navigateur préféré, sans chichi et surtout sans avoir besoin d'installer des usines à gaz comme SuperCollider ou de configurer des environnements de dev à n'en plus finir.
L'interface de Strudel - sobre mais efficace ( Source )
Le projet est d'ailleurs un port officiel du langage de patterns de TidalCycles vers JavaScript. TidalCycles , c'est un peu la référence absolue dans le monde du live coding, mais ça demandait pas mal de bidouille (Haskell, etc.) pour fonctionner correctement. Avec Strudel, vous ouvrez une page web, vous tapez du code et c'est parti mon kiki !
Le principe repose sur des motifs rythmiques qui occupent toujours le même espace temporel (appelé "cycle"). Contrairement à un séquenceur classique où on empile des notes, ici on définit des structures qui se compressent ou s'étirent automatiquement. C'est un peu déroutant au début mais une fois qu'on a pigé le truc, on peut sortir des beats qui tabassent en seulement trois lignes de code. Perso, je trouve ça assez hypnotique (oui j'aime le comique de répétition).
Côté technique, l'outil s'appuie sur l'API Web Audio et intègre un synthé/sampler baptisé Superdough. C'est assez costaud et ça permet déjà de s'amuser avec plein d'effets sans quitter le browser. Et pour les plus barbus d'entre vous qui voudraient piloter leur propre setup SuperCollider , c'est possible aussi via OSC , mais attention, il faudra quand même lancer un petit serveur relais en Node.js pour faire le pont entre le navigateur et votre machine.
Y'a même un workshop interactif vraiment bien foutu pour apprendre les bases. En quelques minutes, vous allez comprendre comment balancer des snares et des kicks avec une précision chirurgicale. Et le petit plus qui fait plaisir, vous pouvez partager vos chefs-d'œuvre en copiant simplement l'URL, puisque tout votre code est encodé dedans. C'est direct in the pocket !
La Reine de Strudel c'est évidemment Switch Angel :
Bref, si vous cherchez un nouveau hobby créatif un peu geek pour vos soirées d'hiver, foncez tester ça. Ça rappelle un peu d'autres pépites comme Drumbit ou même Draw Audio pour le côté fun et immédiat. De quoi verser une petite larme de joie en retrouvant des sensations de bidouille pure.
Merci Lorenper, Quentin & Jean-Raymond pour le partage !
BBC has announced a new partnership with YouTube that will see the broadcaster create original programmes designed specifically for YouTube. The move marks a change in strategy, as the BBC has historically used YouTube mainly to host clips and trailers that point viewers back to its own services.
Under the new agreement, YouTube will act as the primary destination for selected programmes. Some content may also be made available on BBC-owned platforms such as BBC iPlayer and BBC Sounds, but the projects are being commissioned with YouTube audiences in mind from the outset.
Advertising And Revenue Outside The UKOne practical outcome of the partnership is monetisation. While BBC content on YouTube will remain ad-free for viewers in the UK, advertising will be enabled for international audiences. This creates an additional revenue stream at a time when the BBC’s funding model and licence fee arrangements continue to face scrutiny.
The agreement covers both UK public service output and international content produced by BBC Studios.
What Kind Of Content To ExpectProgramming developed under the partnership is expected to span multiple genres, including entertainment, documentaries, children’s content, news, and sport. Coverage tied to the Winter Olympics is among the first projects currently planned.
The BBC says the goal is to reach younger, digital-first audiences who increasingly consume video through social and creator-driven platforms rather than traditional broadcast channels.
BBC And YouTube On The PartnershipIn a joint statement, the BBC and YouTube said the deal would highlight “the best homegrown storytelling and news from across the BBC.” BBC Director General Tim Davie described the move as an expansion of the broadcaster’s digital ambitions, noting that the partnership also creates new pathways for audiences to discover BBC services beyond YouTube.
YouTube’s EMEA leadership framed the deal as a way to adapt the BBC’s content to platform-native formats while also investing in creator training within the UK.
A Larger Shift In Viewing HabitsThe BBC already operates multiple high-profile YouTube channels, including a main account focused on clips and trailers and a dedicated BBC News channel, together reaching tens of millions of subscribers. The broadcaster is expected to expand its YouTube presence significantly as part of the new strategy.
The move comes as viewing data continues to show YouTube competing directly with traditional broadcasters for audience attention, particularly among younger viewers. The BBC’s decision to commission YouTube-first programmes reflects that shift, positioning the platform as more than a secondary outlet for broadcast content.
Thank you for being a Ghacks reader. The post BBC Partners With YouTube To Produce Original Platform-First Content appeared first on gHacks Technology News.
Apple is reportedly preparing a major change to Siri that would make the assistant behave more like a modern AI chatbot. According to reporting from Mark Gurman, Apple is developing a new Siri interface designed around continuous conversations rather than single, one-off commands.
The change would represent a shift from Siri’s current interaction model, which remains largely command-based despite recent AI additions. Apple has already acknowledged delays in delivering deeper contextual features promised in earlier updates.
What A Chatbot-Style Siri Would Change A Persistent Conversation InterfaceThe new Siri interface is said to resemble dedicated chatbot apps such as ChatGPT or Google’s Gemini. Users would be able to type or speak to Siri and move seamlessly between both input methods, with conversation history preserved and scrollable.
While users can already type requests to Siri, those interactions do not currently function as an ongoing dialogue. Siri cannot reference earlier requests or maintain context over time, which puts it behind competing AI assistants.
Deeper Integration Across Apple AppsBeyond interface changes, the chatbot-style Siri is expected to be integrated more broadly across Apple’s core apps. That includes Messages, Mail, Music, Photos, Podcasts, TV, and developer tools like Xcode. This would give Siri access to more on-device context than most third-party chatbots, though it also raises questions around scope and control.
The new interface would build on personalization and contextual features Apple has already announced, rather than replacing them.
Timeline And Platform Details Expected To Arrive With Future OS ReleasesThe chatbot-style Siri is reportedly planned for future versions of iOS and macOS, internally referred to as part of a project named “Campos.” Gurman suggests that Apple may share more details at WWDC, which typically takes place in June.
The contextual Siri upgrades previously announced are expected to arrive earlier, with the chatbot interface following later as a separate phase.
How This Fits Into Apple’s AI StrategyApple has previously downplayed the idea of turning Siri into a standalone chatbot, positioning its AI efforts around tightly integrated system features rather than chat-first experiences. A conversational Siri interface suggests that stance may be evolving, even if Apple continues to frame the change as part of Apple Intelligence rather than a direct chatbot replacement.
The assistant is still expected to rely on external AI models, including Google’s Gemini, rather than Apple’s own large language models.
If implemented as described, the new Siri would not compete on openness or extensibility but could become the default AI assistant for iPhone and Mac users due to its deep system access. Whether Apple delivers the feature as outlined remains unconfirmed, and the company has not publicly acknowledged the reported plans.
Thank you for being a Ghacks reader. The post Apple Plans A Chatbot-Style Siri Interface appeared first on gHacks Technology News.
Le premier label environnemental international pour l'hébergement touristique et la restauration, fort d'une démarche de plus de cent critères, place la sobriété hydrique au coeur de son action pour 2026. Alors que la consommation d'eau peut doubler pendant les périodes de vacances et que les épisodes de tension hydrique se multiplient, la Clef Verte renforce son accompagnement pour aider les hébergements à réduire durablement leur impact environnemental. Grâce aux équipements et pratiques préconisés, (...)
- Communiqué de presse / 2026, Clef Verte, labelApple has confirmed that upcoming Apple Intelligence features on iPhone will be powered in part by Google’s Gemini AI models. The change follows delays to Apple’s own AI roadmap and marks a significant shift in how Siri and system-level intelligence will evolve over the next year.
While Apple has not published a full feature list, multiple reports outline what Gemini-backed capabilities are expected to arrive across upcoming iOS releases.
Siri Features Expected To Use Gemini Models More Conversational And Context-Aware ResponsesA revamped version of Siri is expected to deliver more natural, chatbot-style responses. Instead of short, transactional replies, Siri will be able to provide longer conversational answers similar to ChatGPT and Gemini. This includes improved handling of ambiguous questions and follow-up prompts when requests are unclear.
Expanded Task HandlingGemini-powered Siri is expected to perform more complex actions, including:
These changes build on Apple’s previously announced goal of making Siri more useful across the system rather than acting as a voice-only shortcut tool.
Emotional And Storytelling ResponsesReports also suggest Siri will be capable of generating stories and offering supportive responses when users express emotional states. Apple has not clarified how these features will be presented or controlled, but they are part of the broader conversational upgrade.
Apple Intelligence Features Revived With Gemini Support Personal Context And On-Screen AwarenessSeveral Apple Intelligence features first shown at WWDC 2023 were delayed and are now expected to ship using Gemini models. These include:
These capabilities rely on deeper system access than third-party AI apps typically receive.
Features Planned For Future iOS Releases Memory And Proactive SuggestionsLooking further ahead, Siri features expected to debut with future iOS versions include the ability to remember past conversations and provide proactive suggestions. Examples include recommending when to leave for an appointment based on traffic or reminding users about upcoming plans without being prompted.
Apple is expected to share more details at WWDC, traditionally held in June.
When These Features Are Expected To ArriveThe first Gemini-powered features are reportedly on track to arrive in an upcoming iOS point release, with broader Siri upgrades following in later versions. Apple has not confirmed exact timelines, but beta testing is expected to begin soon.
If delivered as outlined, Gemini integration would represent the largest functional upgrade to Siri in years, shifting it closer to a full conversational assistant while remaining deeply embedded within Apple’s ecosystem.
Thank you for being a Ghacks reader. The post New iPhone Features Powered By Google Gemini Are Coming Soon appeared first on gHacks Technology News.
Microsoft has revealed a set of upcoming updates for Windows 11 built-in apps, with notable improvements coming to Notepad.
Notepad is receiving expanded Markdown support. New syntax options include strikethrough formatting and nested lists, building on earlier Markdown features. Users can continue to rely on keyboard shortcuts, but Microsoft has also added toolbar controls for applying formatting without typing Markdown manually.
Another visible change is a new Welcome Experience. This popup appears when Notepad receives feature updates and highlights what has changed. With Notepad now updated more frequently than in the past, the screen is intended to help users keep track of new capabilities without scanning release notes.
Microsoft is also improving AI-powered text generation in Notepad. Generated text will now appear using a streaming effect, displaying responses as they are created instead of waiting for the full output to complete. The change is designed to make results feel faster, even when generation time stays the same.
Paint Adds AI Coloring Book Mode And Better Fill Control AI Coloring Book For Copilot+ PCsUpdates are also coming to Microsoft Paint. The most eye-catching addition is a new AI-powered Coloring Book mode. Available on Copilot+ PCs, the feature uses the device’s NPU to generate outline-style drawings based on text prompts.
Users can open Paint, select the Coloring Book option from the Copilot menu, and describe the scene they want. Paint then generates a set of black-and-white outlines designed to be colored in, turning simple prompts into printable or editable coloring pages.
Adjustable Fill TolerancePaint is also gaining a fill tolerance control. This lets users decide how aggressively the fill tool applies color within a selected area. Lower tolerance values prevent color from bleeding into nearby regions, making the tool more useful for detailed drawings and outlines.
Availability And RolloutThe new Notepad and Paint features are rolling out first to Windows Insiders in the Canary and Dev channels. Microsoft says they will reach all Windows 11 users in the coming weeks, with the Coloring Book mode limited to supported Copilot+ PCs.
Users interested in the Markdown changes or new Paint tools should check app updates regularly, as these improvements are being delivered through app updates rather than full Windows feature releases.
Thank you for being a Ghacks reader. The post Microsoft Previews New Windows 11 Features For Notepad And Paint appeared first on gHacks Technology News.
Si vous voulez pimper votre propre QR Code pour vous différencier un peu des autres nazes qui font aussi leur QR Code, je vous invite à tester rapidos un petit outil qui m'a tapé dans l'œil.
Je vous ai déjà parlé des QR Codes générés par IA via ControlNet y'a un petit moment. Il sont visuellement dingues, mais là, on retourne aux sources, aux vraies mathématiques de quand vous étiez petit (enfin jeune quoi...lol).
Ce site, que je viens de découvrir c'est QArt Coder , un projet de Russ Cox (oui, LE Russ Cox de l'équipe Go chez Google, calmez vous les groupies) et comme d'hab, le gars n'est pas là pour enfiler des perles puisqu'il nous proposer de générer des QR codes qui intègrent une image... mais sans tricher comme avec ControlNet.
Je m'explique... Quand vous voyez un QR code avec logo classique, c'est souvent du bricolage : on colle une image au milieu et on compte sur la correction d'erreur du QR code (Reed-Solomon) pour compenser les zones masquées. C'est un peu sale, même si ça marche...
Russ Cox, lui, a pris le problème à l'envers. Plutôt que de casser le code et de le réparer, il utilise des maths (notamment le pivot de Gauss) pour manipuler les bits de redondance. En gros, il fait en sorte que les pixels "inutiles" du QR code s'arrangent pour former visuellement l'image, tout en conservant des données parfaitement valides.
Il est fort hein ?
Alors comment ça marche ?C'est hyper simple :
Un exemple de QR Code généré avec ma tête
Le résultat est un QR code où l'image est dessinée par les données elles-mêmes, et pas juste collée dessus. Ça reste donc lisible par la plupart des lecteurs standards, tant que vous n'avez pas trop abusé sur la complexité de l'image source et que le contraste est suffisant.
C'est sûr, ça a un look plus "rétro" et "glitchy" que les délires sous Stable Diffusion, mais c'est techniquement beaucoup plus élégant car chaque pixel est à sa place par nécessité mathématique et pas par hasard.
Voilà, si vous aimez les algos un peu pointus et les QR codes qui ne sont pas juste des damiers tristounes, foncez voir ça et pour ceux qui veulent creuser la théorie (et y'a de quoi faire), Russ Cox a tout détaillé sur sa page de recherche .
J'avoue, j'ai un peu de mal avec l'univers des start-ups. Vous savez, ce petit monde des levées de fonds à rallonge, des pitchs sur LinkedIn et des banquiers qu'il faut brosser dans le sens du poil... C'est clairement pas mon truc. Je préfère rester dans mon coin, avec mon petit site, mon clavier et des gens qui aiment me lire.
La liberté quoi (en théorie ^^).
Mais bon, c'est pas parce que je n'aime pas l'écosystème que je ne respecte pas le boulot abattu, bien au contraire ! Monter une boîte, c'est un sacerdoce et pas mal de mecs et de filles s'y brûlent les ailes et beaucoup finissent par se planter.
C'est moche, mais c'est la réalité du business, surtout dans la tech !
Toutefois si vous avez créé votre propre startup je viens de trouver un site génial qui s'appelle Loot Drop . En gros c'est le cimetière des startups qui recense, à l'heure où j'écris, plus de 1200 startups qui ont mordu la poussière, soit plus de 48,4 milliards de dollars de capital-risque partis en fumée !!
Le créateur du site, un certain AnsbjergB a créé ça "vibe coding" pur à l'aide d'outils comme Cursor et Supabase pour coder à la vitesse de la lumière sans forcément non plus être un cador du développement pur.
Et son idée derrière Loot Drop, c'est de "piller" ces échecs puisque le site vous donne un score d'opportunité pour chaque "cadavre" tech. Vous pouvez ainsi filtrer par difficulté de reconstruction, par scalabilité ou par potentiel de marché.
Alors pourquoi recenser ces échecs ?
Hé bien parce que souvent, une startup se plante non pas parce que l'idée est mauvaise, mais parce qu'elle était trop gourmande. Trop d'employés, trop de bureaux luxueux, trop de marketing inutile. Alors en récupérant l'idée de la défunte et en la relançant en mode passionné indépendant , sans les 50 millions de levée de fonds, y'a peut être encore moyen de faire un truc super rentable.
J'ai trouvé le design du site est super sympa. Je crois que c'est à la mode en ce moment le "neo-brutalism" parce que j'en vois partout mais celui-ci a un petit côté gamer que j'aime bien. On sent le mec qui s'est fait plaisir sur les couleurs et l'ambiance en mode "loot de fin de donjon", mdr.
Voilà, donc si vous avez envie de trouver une idée de projet pour votre prochain week-end à fond sur Claude Code (loool), ou juste d'admirer le gâchis de thunes monumental de la Silicon Valley, allez y faire un tour.
C'est riche en enseignements et ça vous évitera peut-être de reproduire les mêmes conneries que les autres.
Vous rêvez de lancer Claude sur un projet et de le laisser bosser tout seul pendant que vous faites autre chose, du genre jouer à Animal Crossing en attendant la fin de la journée ? Hé bien c'est exactement ce que propose Auto-Claude, un outil open source qui transforme l'assistant IA préféré des devs en armée de développeurs plus autonomes que votre mère quand il s'agit d'échanger un billet de train.
J'avais déjà parlé de Claude Engineer c'est vrai. C'est un framework CLI en Python qui permettait de faire bosser Claude en autonomie. Mais Auto-Claude, alalalala, c'est un autre délire les amis ! Déjà c'est une vraie application desktop avec interface graphique, tableau Kanban pour gérer vos tâches, et surtout... 12 terminaux qui peuvent tourner en parallèle. Oui, DOUZE agents Claude qui bossent simultanément sur votre code pendant que vous candy crushez pépouze dans les WC de votre entreprise.
Les terminaux d'Auto-Claude en action, chacun gérant un agent autonome
Le truc génial, c'est que chaque agent travaille dans son propre git worktree. Du coup, pas de conflit (de canard ^^ - J'ai pas pu résister désolé), pas de branches qui s'emmêlent, et chaque tâche est isolée proprement.
Puis quand c'est fini ? Hop, vous validez et ça merge parfaitement sans vous prendre la tête. Ce truc est fou !
InstallationAlors pour commencer, il vous faut un abonnement Claude Pro ou Max. Pas le choix...
Ensuite, installez Claude Code via npm si c'est pas déjà fait :
npm install -g @anthropic-ai/claude-codeMaintenant on clone Auto-Claude :
git clone https://github.com/AndyMik90/Auto-Claude.git cd Auto-ClaudeEt on installe les dépendances. L'outil gère à la fois le frontend Electron et le backend Python :
npm run install:allEt c'est tout. Si si sérieux. Bon, là je vous l'ai fait en mode installe de barbu.e.s mais sachez aussi qu'il y a des binaires à télécharger directement pour Windows, macOS (Intel ou Silicon) et Linux (AppImage, deb ou flatpak).
Lancement et utilisationPour démarrer l'interface graphique, ensuite, c'est :
npm startUne fenêtre s'ouvre avec le fameux tableau Kanban. Vous ajoutez vos tâches, vous les assignez aux agents disponibles, et c'est parti. Chaque terminal affiche en temps réel ce que fait son agent.
Le tableau Kanban pour orchestrer vos agents IA
Pour les fans de ligne de commande, y'a aussi un mode CLI :
python run.py --spec 001Le numéro correspond à un fichier de spec dans le dossier specs/. Vous écrivez ce que vous voulez, et Auto-Claude s'occupe du reste.
Comment ça fonctionne ?L'architecture est plutôt bien pensée puisque le frontend Electron communique avec un backend Python via WebSocket. Chaque agent a son propre processus isolé, sa propre branche git, son propre contexte.
Ainsi, quand vous lancez une tâche, Auto-Claude :
Le tout avec une interface qui vous permet de suivre 12 conversations en parallèle, soit de quoi bien jouer au chef d'orchestre si vous avez un gros projet à abattre.
Je commence à peine à découvrir l'outil et faut que je le ponce un peu plus pour voir ce que je peux faire avec ça, mais si vous êtes chaud bouillant comme moi sur ce genre de truc, je vous invite à tester l'autonomie IA poussée à fond avec Auto-Claude.
C'est gratuit, open source, et ça tourne sur Mac, Windows et Linux . Et un grand merci à Louis pour la découverte !
J'sais pas vous, mais moi je trouve super dur quand j'utilise des outils comme VS Code ou ce genre de truc, de bien choisir les couleurs de son environnement. En général on prend un peu au pif et on finit souvent avec un mélange de thèmes sombres disparates entre toutes nos applications, qui piquent les yeux à 3h du matin.
Ce genre de dev quoi...
Mais ça, c'était avant.
Car si vous cherchez à unifier votre setup avec quelque chose de vraiment propre, va falloir regarder cet outil : Catppuccin.
Catppucin, c'est un thème communautaire aux tons pastels qui se définit lui-même comme quelque chose d'"apaisant pour les esprits vifs". Et vu l’engouement des devs pour ce truc, faut croire que c'est vrai.
L'ambiance Catppuccin, c'est ça ( Source )
La mission de Catppuccin c'est de vous proposer une identité visuelle cohérente partout. Pas juste dans votre IDE, mais PARTOUT et il existe actuellement plus de 360 ports officiels pour des outils aussi variés que VS Code, Vim, votre terminal, Discord, Firefox, Obsidian...et j'en passe. Vous pouvez littéralement TOUT assortir ! C'est vraiment le bonheur absolu pour les amateurs de "ricing" (c'est à dire la personnalisation extrême de bureau a.k.a. le tuning pour les babus).
D'ailleurs, si vous aviez déjà suivi mon guide pour donner de la couleur à votre terminal , vous savez à quel point un environnement joli motive à bosser !! Du coup, Catppuccin est vraiment indispensable pour renouer avec une certaines joie de vivre et cela même si vous bosser pour Cap Gemini ou Accenture.
Catppuccin se décline en 4 saveurs ("flavors", oui comme les glaces) pour coller à toutes les ambiances :
Les saveurs disponibles ( Source )
Chaque palette comporte exactement 26 couleurs soigneusement équilibrées et je sais que vous méprisez tout ce qui ressemble de près ou de loin à un graphiste / intermittent du spectacle donc, je vous vois froncer un sourcil (la France a un incroyable talent visiblement).
Mais les gars, ATTENTION, c'est pas juste trois codes hexadécimaux jetés au pif, hein !! Y'a eu une vraie réflexion derrière sur le contraste et l'harmonie. Ça a beaucoup réfléchi fort fort pour procurer de l'amour graphique à tous ceux qui veulent que leur code soit lisible sans ressembler à un sapin de Noël.
Maintenant, l'installation dépend de l'outil, mais c'est généralement très bien documenté sur leur GitHub. Vous clonez, vous copiez le fichier de config, et hop, c'est réglé.
Et si jamais vous bossez sur du front-end, c'est aussi une excellente source d'inspiration car comme je le disais dans mes astuces pour les codes hexa , avoir de bonnes références sous la main, ça change la vie.
Voilà, si ça vous tente de transformer votre écran en arc en ciel pour geek, c'est par là. Et merci à Louis pour l'info !
Le futur du jeu vidéo va être génial ! J'en suis convaincu !
Souvenez-vous, je vous avais parlé de Voyager , ce petit robot qui explorait Minecraft tout seul comme un grand grâce à GPT-4. Eh bien, l'équipe de MineDojo (avec des chercheurs de chez NVIDIA, Caltech et Stanford) ont remis le couvert avec un truc encore plus costaud : NitroGen.
Là où les anciens modèles tâtonnaient ou avaient besoin de lire des tonnes de texte, cette nouvelle IA se base uniquement sur ce qu'elle voit à l'écran. C'est un modèle "vision-action".
Schéma de fonctionnement du modèle NitroGen ( Source )
En gros, elle regarde les pixels du jeu comme vous et moi, et elle en déduit sur quel bouton (virtuel) de gamepad appuyer pour ne pas finir en pâté pour castors sous cocaïne.
Analyse du dataset multi-jeux NitroGen ( Source )
Pour en arriver là, les chercheurs armés de leur gros cerveaux n'ont pas fait les choses à moitié. Leur bousin a été entraîné sur un dataset colossal de 40 000 heures de gameplay piochées sur Internet (ouuuh ça a pératé youteub ^^), couvrant plus de 1 000 jeux différents.
De l'Action-RPG au jeu de plateforme, NitroGen a tout bouffé et ce qu'on obtient à la fin, c'est un agent IA encore plus énervé qu'un streamer Twitch de 15 ans. Cette bestiole est capable de s'adapter à des jeux qu'elle n'a jamais vus, moyennant un petit coup de "post-training" (affinage) pour qu'elle pige les spécificités du titre. On appelle ça le "behavior cloning" (ou apprentissage par imitation pour les intimes) mais à l'échelle d'Internet... Du coup, au lieu de devoir réapprendre chaque règle, l'IA pige les concepts visuels du jeu vidéo et se lance sans filet !
Graphique de la qualité des actions extraites par NitroGen ( Source )
En termes de performances, les mecs annoncent même une amélioration relative de 52 % du taux de succès sur certaines tâches par rapport à un modèle qui partirait de zéro à chaque jeu.
C'est pas rien quand même et si vous voulez mettre les mains dans le cambouis, vous allez devoir d'abord sortir votre doigt du nez et ensuite aller récupérer le code, les poids du modèle (sur Hugging Face) et même le benchmark puisque tout est dispo et ouverts à la communauté. On n'est pas sur un produit de GAFAM fermé, mais bien sur un projet de recherche qui veut faire avancer les "embodied agents" (les agents incarnés, quoi... calmez vous les podologues).
Votre navigateur ne supporte pas la lecture de vidéos HTML5. Voici un <a href="/nitrogen-minedojo-ia-gaming-agent/nitrogen-minedojo-ia-gaming-agent-1.mp4">lien vers la vidéo</a>.Attention toutefois, "tout est dispo" ne veut pas dire que les jeux sont fournis, hein. Il faudra évidemment posséder vos propres copies de jeux Windows.
Après côté technique, l'installation exige Python 3.12 et un Windows 11 pour l'agent (même si le serveur d'inférence peut tourner sur Linux) et ensuite c'est du classique. On clone le dépôt, un petit coup de pip et hop hop hop, c'est cuit.
git clone https://github.com/MineDojo/NitroGen.git cd NitroGen pip install -e .Vous pouvez après ça, télécharger le checkpoint et lancer l'agent sur vos titres préférés. Et contrairement à Voyager qui utilisait MineFlayer pour Minecraft, NitroGen pilote directement les exécutables Windows en simulant son propre gamepad. Elle est pas belle la vie ?
Si vous testez, vous verrez, on est encore un peu loin de l'IA qui met une pile à Gotaga mais la marche franchie est énorme déjà !
Alors vous en dites quoi ?? Prêt à laisser NitroGen farmer des ressources pendant que vous dormez en cachette comme un gros faible ?
Disponible sur iOS, Dumb Phone est une application bien sympathique qui va vous permettre de transformer votre iPhone en téléphone minimaliste.
Alors peut-être que ça vous rendra encore plus débile comme je vous l'expliquais hier mais tant pis ! Au moins avec ça, au lieu de vous bouffer le cerveau avec des icônes colorées et des pastilles de notifications qui hurlent à la mort pour avoir votre dose de dopamine, l'app propose une interface complétement épurée via des widgets et des raccourcis hyper sobres comme vous pouvez le voir.
C'est un peu le remède contre le doomscrolling, vous choisissez des applications essentielles, et hop, vous vous retrouvez avec un écran d'accueil 100% textuel. Vous pouvez même créer plusieurs lanceurs (en fait des configurations de widgets) selon votre humeur ou votre activité. Par exemple, vous pouvez en faire un pour le boulot, un pour les loisirs, ou un mode "nuit" pour ne pas finir la soirée à scroller sur TikTok comme le zombie cuit à la Chouffe que vous devenez chaque vendredi soir.
L'interface minimaliste de Dumb Phone - fini le sapin de Noël
Le truc vraiment pas mal avec cette appli, c'est le Detox Mode. En gros, l'app utilise les API de Temps d'écran d'iOS pour "shielder" (c.a.d. bloquer avec un écran de restriction) les applis qui vous font perdre votre temps.
C'est radical mais si en bon TDAH que vous êtes (qui ne l'est pas ?) vous avez tendance à être submergé par les distractions , c'est exactement ce qu'il vous faut pour retrouver un peu de calme mental.
Côté personnalisation, on peut ajuster le style, les couleurs, et même ajouter des contrôles spécifiques dans le centre de contrôle pour les versions récentes d'iOS.
L'app est gratuite mais avec des options pro genre abonnement ou achat à vie et perso, je trouve que c'est une bonne alternative pour ceux qui réfléchissent à l'achat d'un téléphone basique type "Light Phone" qui qui hésitent parce que ça leur ferait perdre la puissance de leur iPhone quand ils en ont besoin.
Bref, si vous voulez faire une petite cure de désintoxication sans pour autant jeter votre doudou à 1000 euros par la fenêtre, allez donc jeter un œil à Dumb Phone , ce serait dommage de vous en priver.
Merci à Lorenper pour le rappel !
Si vous aimez les globes 3D qui en jettent, j'ai un petit projet sympa à vous présenter. Ça s'appelle TerraGuessr et c'est Fred, un lecteur de longue date (coucou Fred !), qui m'a envoyé ça !
L'idée de Fred est assez géniale. Il propose d'utiliser un globe terrestre interactif pour visualiser la "déformation" du monde sous le poids des inégalités. En gros, au lieu de voir une sphère parfaite, vous voyez les continents s'étirer ou se contracter en fonction d'indicateurs comme la richesse, l'éducation ou encore la santé.
C'est ce que les profs de Géographie appellent un cartogramme en 3D. C'est hyper visuel et ça permet d'apprendre plein de choses !
Pour la petite histoire, Fred a codé tout ça... sans savoir coder au départ. Il a utilisé pour cela l'éditeur Cursor , Google AI Studio et ChatGPT. Et voilà, sa bonne idée s'est transformée avec un peu d'huile de coude et beaucoup de patience en ce site de carto incroyable.
L'interface de TerraGuessr - un globe 3D pour visualiser les data mondiales
Si vous allez sur son site, vous verrez concrètement comment ces outils d'IA tant critiqués permettent à des passionnés comme Fred et d'autres, de sortir des outils complexes qui n'auraient jamais vu le jour, hormis dans leurs rêves.
Et techniquement, ça envoie du bois puisque c'est basé sur Three.js. Fred s'appuie sur des sources de données sérieuses telles que la Banque Mondiale, Our World in Data et Gapminder. Et au final, il a réussi à mouliner tout ça pour nous proposer une expérience fluide et des stats enfin concrètes.
TerraGuessr propose plusieurs modes pour s'amuser (et s'instruire, du coup) :
Il propose même une API et un back-office à prix libre pour ceux qui veulent créer des quiz et des stories, tout ça connecté à LLM pour générer les textes. Le mec est fou !
Voilà, si vous avez déjà passé des heures à essayer de devenir un pro à GeoGuessr , vous allez adorer le concept sauf qu' au lieu de chercher un poteau électrique au fin fond de la toundra, vous allez vraiment apprendre des trucs sur l'état (catastrophique) de notre planète.
A découvrir ici : TerraGuessr.org et encore bravo à Fred !
Qui n'a pas dans sa poche un portefeuille qui ressemble à un sandwich au pastrami triple épaisseur ? Et la faute à qui ? Hé bien aux cartes de fidélité ma bonne dame et mon bon monsieur ! Celle de la salle de sport dans laquelle vous n'allez plus, celle du club de lecture où vous vous étiez inscrit pour rencontrer l'amour, même celle de la boulangerie de là où vous habitiez avant et qui part en miette (roh roh)... Ouais c'est l'enfer.
Alors oui je sais, mes petits blasés de la vie professionnels... Il existe DÉJÀ des apps pour gérer ça. Mais entre celles qui vous traquent jusqu'aux toilettes façon Poutine et celles qui exigent un abonnement juste pour afficher un triste code-barres... Pffff. C'est vite relou.
Heureusement, je vous ai débusqué un petit outil web qui va vous simplifier la vie et qui s'appelle WalletWallet .
Ce que permet de faire WalletWallet, c'est tout simplement de convertir vos vieux codes-barres physiques en passes numériques pour Apple Wallet, tout ça sans vous prendre la tête. L'outil se présente en tant que solution qui respecte votre vie privée puisque le traitement des données se fait uniquement en local dans votre navigateur.
L'interface web de WalletWallet - Sobre et efficace
L'auteur a même pensé à mettre dans son app une option d'expiration pour marquer les vieux coupons de réduc ou ce genre de trucs, histoire de garder votre Apple Wallet un peu ordonné.
C'est hyper fastoche à utiliser en plus. Vous arrivez sur le site, vous scannez votre carte avec la caméra ou vous uploadez une photo du code-barres. Vous pouvez même entrer les chiffres à la main si vous préférez.
Et rassurez-vous, WalletWallet sait lire pas mal de formats : QR Code, Code 128 (le classique des barcodes), PDF417, Aztec ou encore UPC. Et une fois le code avalé, vous personnalisez la couleur de la carte, vous mettez un petite titre...etc et ensuite, vous récupérez le fichier .pkpass.
Ce truc mystérieux, une fois ouvert sur votre iPhone, déclenchera l'app d'Apple Wallet qui vous demandera de confirmer son ajout. La carte sera alors rangée dans votre Wallet iOS prête à être dégainée à la caisse de chez Patapain !
Gardez quand même en tête que ça fonctionne surtout pour les cartes à identifiant statique donc si votre salle de sport utilise des codes tournants ou une validation serveur complexe, ça va coincer. Et c'est pareil si votre commerçant utilise encore son vieux scanner à lecture optique... Parfois c'est un peu capricieux !
Ah et pour les fans d'Apple Watch sachez aussi que le format Code 128 n'est pas toujours supporté sur la montre donc privilégiez le QR Code si vous voulez dégainer votre poignet à la caisse comme un champion de compétition.
Et si vous voulez aller plus loin dans le nettoyage de votre smartphone, allez jeter également un œil à ma sélection de gestionnaires de mots de passe pour iOS . Un peu de ménage, ça ne fait pas de mal !
Bref, c'est gratuit (pour le moment) et c'est super pratique et ça fait le job. L'essayer c'est l'adopter et quand vous verrez votre portefeuille redevenir enfin svelte comme vous dans votre vingtaine, obligé, vous allez verser une petite larme.
Bonne nouvelle pour les fans d'IA (et mauvaise pour Google) ! Il semblerait que nos vieilles habitudes de recherche soient en train de changer... Du moins pour ceux qui ont déjà sauté le pas vers du payant.
C'est ce que suggère en tout cas une étude de Bango qui fait pas mal de bruit. Figurez-vous les amis que 72% des abonnés ChatGPT interrogés aux États-Unis ont paramétré en page d’accueil de leur browser le chatbot d'OpenAI.
Pour ces utilisateurs-là, Google n'est donc plus le point de départ automatique...
Après évidemment c'est juste un sondage et c'est "juste" 1400 users payants aux US (donc un public déjà conquis) qui ont répondu mais n'empêche, le signal est fort.
On est passé en quelques années de "Je cherche un truc -> j'en sais rien -> j'invente une réponse fausse mais crédible dans ma tête de boomer, que je vais ensuite répéter à tout le monde comme étant une vérité" à "Je cherche un truc -> Je tape dans Google -> Je scrolle 800 pubs -> J'ai ma réponse mais pas toujours le recul pour recouper l'info".
Et maintenant c'est "Je demande à l'IA -> J'ai la réponse officielle validée par les américains -> Je comprends rien -> elle m'explique comme si j'avais 5 ans et que j'étais trépané".
Hop, terminé !
Bon oui, j'abuse un peu mais vous me connaissez... L'étude montre aussi que 78% de ces mêmes utilisateurs ont installé le widget ChatGPT directement sur l'écran d'accueil de leur téléphone ou de leur tablette.
ChatGPT est devenu leur maison quoi.
Alors bien sûr, comme je vous le disais, Google essaie de muscler son jeu avec Gemini mais l'habitude est déjà prise pour beaucoup. On assiste à un vrai glissement vers le "AI-first" car les gens veulent une réponse et pas une liste de liens renvoyant vers des sites de merde faits par des référenceurs incapables.
D'ailleurs, 75% des sondés affirment aussi vouloir centraliser leurs tâches quotidiennes dans ChatGPT et 74% disent même qu'ils sont prêts à acheter des trucs directement via l'interface. ChatGPT est donc en train de devenir une sorte de super-app qui fait le café... Le rêve de Sam Altman de faire de ChatGPT l'OS de votre vie est peut-être bien en train de devenir une réalité.
Perso, je trouve ça assez dingue. Si vous êtes du genre à utiliser Google pour tout et n'importe quoi, préparez-vous donc au choc. Bien sûr, Google ne va pas disparaître demain matin mais pour les éditeurs de sites qui dépendent du trafic de recherche (pas mon cas, mon trafic est majoritairement du direct), ça promet quelques sueurs froides.
Bref, on n'arrête pas le progrès (ou la flemme, c'est selon) et reste à voir maintenant si cette tendance va se confirmer côté grand public ou rester un truc de niche pour les gens prêts à lâcher 20 balles par mois.
Sony will remove nine games from PlayStation Plus Extra and Premium tiers in February 2026. As with previous monthly rotations, the removals will happen on the same day new titles are added to the service.
The affected games will no longer be playable for subscribers who have not purchased them individually once they leave the catalog.
Games Leaving PlayStation Plus On February 17The following titles are scheduled to leave PlayStation Plus Extra and Premium on February 17, 2026:
Full List Of Departing GamesOne notable case is New World: Aeternum, which has already been delisted ahead of its planned server shutdown in January 2027. Subscribers who did not download it earlier can no longer access it through PlayStation Plus.
Notable Removals And Time-Limited AccessSeveral of the departing games are considered highlights of the Extra and Premium libraries. Cult of the Lamb earned strong critical reception for its blend of roguelike combat and management elements, while Rez Infinite has been one of the more prominent VR-capable titles available through the service.
WWE 2K25 is also leaving after a relatively short stay. While the game remains playable offline, its online servers are scheduled to shut down in March 2027, which may factor into whether subscribers want to spend time with it before removal.
The Ascent offered local co-op gameplay, and its departure reduces the number of couch co-op options available through PlayStation Plus.
What Subscribers Should Do NowSubscribers who want to finish or revisit any of these titles will need to do so before February 17. Once removed, access will be revoked unless the games are purchased separately from the PlayStation Store.
Sony is expected to announce the February 2026 additions to PlayStation Plus Extra and Premium a few days before the rotation, following its usual schedule.
Thank you for being a Ghacks reader. The post Nine Games Are Leaving PlayStation Plus Extra And Premium In February 2026 appeared first on gHacks Technology News.
OpenAI has introduced Education for Countries, a new pillar under its broader OpenAI for Countries initiative. The program is designed to help governments modernize education systems and prepare future workforces by embedding AI tools, training, and research directly into national education infrastructure.
The initiative targets what OpenAI describes as a growing gap between what modern AI systems can do and how widely they are used in everyday learning and work. Education systems are positioned as a primary way to close that gap, particularly as AI-driven changes reshape job requirements.
What Education For Countries Includes 1. AI Tools Integrated Into Learning SystemsParticipating countries gain access to AI tools such as ChatGPT Edu, newer GPT models, study mode, and collaborative features like canvas. These tools can be customized to reflect local curricula, language needs, and education priorities rather than being deployed as generic platforms.
2. Research On Learning Outcomes And ProductivityThe program includes partnerships focused on large-scale education research. These studies examine how AI affects student learning, teacher workload, and institutional productivity. Results are intended to inform national policy decisions, workforce planning, and future AI development.
3. Training And Certifications For Educators And StudentsOpenAI is also providing structured training through initiatives such as the OpenAI Academy and AI-focused certifications. These programs are designed to align practical AI skills with national workforce goals, targeting both educators and students.
4. A Network Of Government And Academic PartnersEducation for Countries brings together governments, universities, and researchers into a shared network. Participants are expected to exchange deployment experiences, share best practices, and collaborate on responsible AI use in education.
Countries Participating In The First CohortThe initial group includes Estonia, Greece, Italy (through the Conference of University Rectors), Jordan, Kazakhstan, Slovakia, Trinidad and Tobago, and the United Arab Emirates.
Estonia is highlighted as an early example. ChatGPT Edu has already been deployed nationwide across public universities and secondary schools, reaching more than 30,000 students, educators, and researchers in its first year. Long-term studies are also underway, including research partnerships measuring AI’s impact on learning outcomes across tens of thousands of students.
How AI Is Being Rolled Out In SchoolsOpenAI describes a phased rollout model. Educators are typically equipped first, receiving tools and training before broader student access is introduced. In higher education, students already have direct access to ChatGPT Edu. In secondary education, student access begins with limited pilots developed in coordination with local authorities.
These pilots are paired with safeguards aimed at younger users, including age-appropriate model behavior and AI literacy resources developed with partners such as Common Sense Media.
Broader Context And Next StepsEducation for Countries builds on OpenAI’s existing education-focused efforts, including certification programs and university research partnerships. The company frames the initiative as part of its broader mission to ensure advanced AI systems expand opportunity rather than limit access.
OpenAI has stated that additional countries will join the program in future cohorts, with the next group expected to be announced later in 2026.
Thank you for being a Ghacks reader. The post OpenAI Expands AI Education Programs At A National Level appeared first on gHacks Technology News.
Microsoft has released PowerToys version 0.97.0, introducing a new utility called CursorWrap. The feature is aimed primarily at users with multi-monitor setups, though it can also be useful on large single displays.
CursorWrap allows the mouse pointer to wrap around screen edges. Moving the cursor past the right edge of the right-most display causes it to reappear on the left edge of the left-most display. The same behavior applies to the top and bottom edges.
The utility includes several configuration options. Users can toggle CursorWrap on or off with a keyboard shortcut and disable wrapping while dragging items, preventing accidental repositioning during drag-and-drop actions. Recent improvements also limit wrapping to the outer edges of multi-monitor layouts, avoiding unexpected behavior between internal monitor boundaries.
PowerToys v0.97.0 Includes Broad Improvements Across Modules Command Palette Sees Major ExpansionPowerToys v0.97.0 delivers a large number of updates beyond CursorWrap, with Command Palette receiving the most attention. The release adds drag-and-drop support, new navigation controls, improved result ranking, theme customization, and a built-in Remote Desktop extension. Performance and accessibility have also been improved, and the Command Palette version has been bumped to 0.8.
New Features And Fixes Across UtilitiesOther notable changes include a new screenshot-freezing mode in Crop & Lock, a command-line interface for FancyZones and File Locksmith, and better handling of mixed-DPI setups. Image Resizer, PowerRename, Quick Accent, and Find My Mouse all received fixes or small feature additions.
Microsoft also continued refactoring older modules such as Mouse Without Borders and added more telemetry hooks across several tools to better understand usage patterns.
Settings And Development ChangesThe Settings interface now includes a new adaptive tray icon, improved accessibility headings, and simplified internal logic. On the development side, Microsoft updated build tooling, documentation, and testing pipelines, focusing on stability and long-term maintenance.
AvailabilityPowerToys v0.97.0 is available now and can be installed via the built-in updater or downloaded manually from Microsoft’s release channels. Users interested in CursorWrap or Command Palette enhancements should review the new settings after updating, as many features are configurable but not enabled by default.
Thank you for being a Ghacks reader. The post Microsoft Releases PowerToys v0.97.0 With New CursorWrap Utility appeared first on gHacks Technology News.
Spotify appears to be working on a new audiobook feature designed to bridge physical books and audiobooks. Code discovered in recent versions of the app points to a system that can sync audiobook progress with printed books or e-books by scanning pages using a smartphone camera.
The feature, currently referred to as Page Match in internal code, was uncovered by a tipster and is not yet available to users. Spotify has not officially announced it, but the references suggest active development rather than a dormant experiment.
How Page Match Is Designed To Work Scan A Page To Sync Audiobook ProgressPage Match is built around user interaction with a physical book. When reading a printed copy, users would be able to scan a page using their phone. Spotify would then adjust the audiobook playback position to match that page, allowing listening to resume from the same point.
This approach removes the need to manually scrub through an audiobook to find the correct chapter or timestamp. It is designed for users who switch between reading and listening rather than sticking to one format.
Reverse Syncing From Audio To PrintThe code also suggests Page Match can work in reverse. If a user has been listening to an audiobook, Spotify may indicate which page they are currently on, allowing them to continue reading from the correct spot in the physical or digital book.
This two-way syncing hints at deeper integration between audiobook metadata and text-based editions, assuming Spotify has access to accurate page mapping data.
Availability And LimitationsSpotify has not provided a release timeline for Page Match. The feature is still under development, and there is no confirmation that it will ship in its current form.
Based on how Spotify handles audiobooks today, Page Match is expected to be limited to Premium subscribers and only available in regions where Spotify already offers audiobooks. Markets without audiobook support are unlikely to receive the feature if it launches.
Spotify’s audiobook catalog currently operates under a time-based model, with Premium users receiving a monthly listening allowance before additional charges apply. Page Match would build on that system rather than replace it.
Recent Spotify Changes Provide ContextSpotify has been expanding beyond music over the past few years, investing heavily in podcasts and audiobooks. The company recently added social features such as Request to Jam in messages and increased U.S. subscription prices across several plans.
Page Match fits into that broader strategy by making audiobooks more flexible rather than simply increasing catalog size. Whether it becomes a widely used feature depends on accuracy, regional availability, and whether users are willing to scan pages as part of their listening workflow.
For now, Page Match remains an unannounced feature under development, with no confirmation on when or if it will be released publicly.
Are you a Spotify user? Or prefer Apple Music?
Thank you for being a Ghacks reader. The post Spotify Is Testing A Feature That Syncs Physical Books With Audiobooks appeared first on gHacks Technology News.
Si vous utilisez des agents IA en ligne de commande genre Claude Code et que vous leur faites exécuter des scripts téléchargés sur le net, voici un outil qui devrait vous plaire.
Fence est un utilitaire qui permet de lancer vos commandes dans un environnement isolé, sans avoir besoin de Docker ou de conteneurs. L'outil bloque par défaut toutes les connexions réseau sortantes et restreint l'accès au système de fichiers, du coup, si votre agent IA décide de faire des bêtises, il se retrouvera face à un mur.
Concrètement, vous préfixez simplement votre commande par fence comme ceci :
fence curl https://example.com # → 403 Forbidden (bloqué par le sandbox) fence -t code npm install # Utilise le template "code" qui autorise les registres npmEt c'est tout ! L'outil embarque des templates préconfigurés pour les cas d'usage courants comme le template "code" par exemple qui autorise les connexions vers npm, PyPI et les principaux fournisseurs LLM, tout en bloquant le reste du genre :
fence -c "rm -rf /" # → Hop, c'est bloqué ! Et heureusement !Vous pouvez aussi créer votre propre config dans ~/.fence.json pour autoriser des domaines spécifiques.
Et petit bonus sympa, y'a même une intégration directe possible avec Claude Code :
fence import --claude -o ~/.fence.jsonComme ça, vos permissions Claude Code seront converties en règles Fence sans vous prendre la tête.
Côté technique, Fence repose sur sandbox-exec sous macOS et bubblewrap sous Linux donc il n'y a pas de daemon qui tourne en permanence, ni de dépendances complexes. Vous installez, vous lancez, et ça marche ! Que demande le peuple ?
Pour l'installation :
# Installation rapide curl -fsSL https://raw.githubusercontent.com/Use-Tusk/fence/main/install.sh | sh # Ou via Go go install github.com/Use-Tusk/fence/cmd/fence@latestSous Linux, il faudra installer bubblewrap et socat au préalable (disponibles dans les dépôts des principales distribs) et si vous cherchez d'autres solutions d'isolation pour votre OS, Firejail reste également une bonne référence dans le domaine.
Bref, si vous faites tourner des agents IA qui exécutent du code, Fence ajoutera une couche de sécurité bien sentie ! Et comme quasiment tous les outils dont je parle, celui-ci est open source (licence Apache 2.0).