Microsoft has released the first security updates of 2026 for its Windows operating system and other Microsoft products. The January Patch Tuesday addresses more than 110 security vulnerabilities across Windows, Microsoft Office, Edge, Azure components, and additional services.
The updates are available for all supported Windows versions. Windows 10 continues to receive security fixes only under Microsoft’s Extended Security Updates (ESU) program, while Windows 11 versions 24H2 and 25H2 are the primary consumer releases receiving updates.
Our monthly Patch Day overview provides home users and system administrators with a concise summary of released updates, vulnerability severity, known issues, and direct download resources.
Microsoft Security Updates — January 2026 Executive Summary:Below is a breakdown of affected Windows versions and reported vulnerability counts.
Windows 11:Windows 11 version 24H2
Windows 11 version 25H2
Windows 11 version 23H2 (Enterprise & Education)
Windows 10 (Extended Security Updates only)
All supported server versions received January security updates. No critical vulnerabilities were disclosed publicly for server products, but multiple important vulnerabilities were addressed.
Windows Security Updates Windows 11 version 24H2 and 25H2Updates and improvements:
Updates and improvements:
Known issue:
Workaround:
Use a command prompt and run:
shutdown /s /t 0Microsoft has no workaround for sleep mode at this time.
Windows 10 (ESU)Security updates only, no feature changes.
Servicing Stack and Quality UpdatesMicrosoft released Office and server component security updates on January 13, 2026.
Office updates include:Language packs received corresponding updates.
Known Issues After Installing January Updates Remote Desktop / Azure Virtual Desktop / Windows 365After installing the January updates, some users report:
Workarounds:
Microsoft has acknowledged the issue and is actively investigating.
Windows 11 23H2 Shutdown and Sleep IssuesMicrosoft has released out-of-band fixes for some affected systems as of January 18, 2026.
How to Install the January 2026 Updates ImmediatelySecurity updates are rolled out automatically, but manual installation is possible.
Recommendation:
Create a full system backup before installing updates, especially on production systems.
Direct Update Downloads Windows 11Thank you for being a Ghacks reader. The post The Last Windows Security Updates of January 2026 Are Here appeared first on gHacks Technology News.
Devinette du soir : Qu’est-ce qui est pire qu'un secret que vous avez oublié de cacher ?
Réponse : Des dizaines, des millions de secrets qui traînent sur GitHub parce que quelqu'un a eu la flemme de configurer un vrai gestionnaire de variables d'environnement !
Hé oui, les amis ! On a tous fait cette boulette au moins une fois (ou alors vous mentez, ou vous êtes un robot). On crée un petit fichier .env, on oublie de le rajouter au .gitignore, et paf, vos clés AWS se retrouvent à poil. Selon GitHub, c'est plus de 39 millions de secrets qui ont été détectés en fuite sur leurs dépôts en 2024. C'est du délire !
Envmap - Le gestionnaire de variables d'environnement qui tue les fichiers .env ( Source )
Du coup, au lieu de continuer à se farcir du bricolage avec des fichiers qui traînent en clair sur le disque, je vous propose de jeter un œil à Envmap .
C'est un outil écrit en Go dont l'objectif est de réduire au maximum l'écriture de vos secrets sur le disque dur. En mode normal, il va les pomper directement chez les grands manitous du stockage sécurisé comme AWS Secrets Manager, HashiCorp Vault, 1Password ou encore Doppler (même si pour l'instant, certains de ces providers sont encore en cours d'intégration).
Comme ça, au lieu de faire un vieux source .env qui laisse traîner un fichier sensible, vous lancez votre application avec envmap run -- node app.js. L'outil récupère les variables en RAM et les injecte dans le process. C'est propre, c'est net, et ça évite surtout de pousser par erreur votre config sur un repo public.
Pour ceux qui se demandent s'il faut quand même envoyer ses fichiers .env sur GitHub (spoiler : non, jamais !), Envmap propose une commande import pour ingérer vos vieux secrets. Et pour ceux qui ont besoin d'un stockage local, sachez qu'Envmap peut aussi chiffrer vos variables en AES-256-GCM, ce qui est quand même plus sérieux qu'un fichier texte lisible par n'importe qui. Notez aussi qu'il existe une commande sync si vous avez vraiment besoin de générer un fichier .env temporaire.
Perso, ce que je trouve vraiment cool, c'est l'intégration avec direnv. On rajoute une ligne dans son .envrc, et hop, les secrets sont chargés automatiquement quand on entre dans le dossier du projet. C'est magique et ça évite les crises cardiaques au moment du push.
D'ailleurs, si vous voulez aller plus loin dans la sécurisation de vos outils, je vous recommande de lire mon article sur SOPS ou encore ma réflexion sur l'usage de GitLab pour vos projets sensibles.
Bref, c'est open source (sous licence Apache 2.0), et avec ça, vous dormirez sur vos deux oreilles !
Les gars de chez LLNL (Lawrence Livermore National Laboratory) sont des bons ! De vrais spécialistes en sécurité informatique qui ont pondu un outil à essayer si vous passez vos journées dans les entrailles des binaires.
Ça s'appelle OGhidra , et c'est une extension qui fait le pont entre le célèbre framework de reverse engineering Ghidra et la puissance des modèles de langage (LLM).
Comme ça, plutôt que de vous péter les yeux sur des milliers de lignes de code décompilé, vous pouvez simplement "discuter" avec les fonctions ou les strings extraites. Grâce à une intégration avec Ollama, OGhidra permet d'interroger les représentations du binaire en langage naturel pour identifier des vulnérabilités, renommer intelligemment des fonctions ou expliquer des algorithmes complexes. Attention toutefois, comme avec tout LLM, les résultats doivent être validés manuellement (les hallucinations, ça arrive même aux meilleurs !).
Le gros avantage ici, vous l'aurez compris, c'est la privacy car tout tourne en local sur votre ordi. L'extension utilise des techniques comme le RAG (Retrieval-Augmented Generation) pour garder le contexte de vos sessions et le CAG (Cache-Augmented Generation) pour optimiser les performances. Prévoyez quand même une machine solide car pour faire tourner des modèles comme gemma3 confortablement, 32 Go de RAM (et une bonne dose de VRAM) ne seront pas de trop.
Pour que ça envahisse vos machines de reverse engineer, il vous faudra Ghidra 11.3 minimum et JDK 17. L'installation se fait ensuite en deux temps : d'abord le plugin GhidraMCP à ajouter dans Ghidra, puis le composant Python à récupérer sur GitHub :
git clone https://github.com/LLNL/OGhidra.git cd OGhidra pip install -r requirements.txtUne fois Ollama lancé avec vos modèles préférés, vous allez pouvoir automatiser les tâches les plus reloues. Par exemple grâce aux boutons "Smart Tool" dans l'interface de Ghidra vous allez pouvoir renommer toutes les fonctions d'un coup ou générer un rapport de sécurité (à prendre comme une base de travail, pas comme une vérité absolue, hein ^^).
C'est beau mais ça fait mal quand on pense au temps qu'on a perdu par le passé ! Et si vous kiffez ce genre d'approches, jetez aussi un œil à Cutter qui propose une intégration optionnelle du décompileur de Ghidra, ou encore à DecompAI .
Voilà, j'ai trouvé ça intéressant pour booster Ghidra avec une petite dose d'intelligence locale.
After years of resisting a feature that rivals have offered for a long time, Google Chrome is finally getting vertical tabs. The feature, which allows tabs to be displayed along the side of the browser instead of across the top, has now surfaced in Chrome Beta, signaling that a broader rollout is close.
Chrome has long been the odd one out among major browsers when it comes to tab management. Browsers such as Microsoft Edge, Firefox, Brave, and others have supported vertical tabs for years, making it easier to manage large numbers of open tabs, especially on widescreen displays. Despite Chrome's massive market share, Google has been slow to adopt the layout.
That appears to be changing.
From Canary to BetaGoogle was first spotted experimenting with vertical tabs in Chrome Canary back in late 2025. At the time, the feature was clearly experimental and limited to early testers. Now, it has made its way into Chrome Beta (version 145), suggesting it is nearing readiness for general users.
The feature is still hidden behind an experimental flag, but its presence in the Beta channel usually means Google is confident enough to begin wider testing.
How vertical tabs work in ChromeOnce enabled, Chrome's entire tab strip moves from the top of the window to the side. All open tabs appear in a vertical list, which can make it significantly easier to scan titles, especially when many tabs are open.
Users can switch back to the traditional layout at any time. A simple right-click in the tab area lets you toggle between vertical tabs and the classic horizontal strip, so the change is fully optional.
How to try vertical tabs right nowIf you're using Chrome Beta or Canary, you can already test the feature:
The option does not yet appear in the stable version of Chrome.
When it comes to stable ChromeBased on Google's regular release schedule, vertical tabs are expected to arrive in the stable version of Chrome around January 28. Assuming no major issues arise during Beta testing, this will mark the first official release of vertical tabs to Chrome's massive user base.
Why this mattersFor users who juggle dozens of tabs, vertical tabs can dramatically improve usability. They make better use of horizontal screen space, reduce tab shrinking, and often pair well with tab grouping and pinned tabs.
Chrome finally adopting this feature brings it closer in line with competitors and removes one of the more common complaints from power users.
If all goes as planned, one of Chrome's most requested interface features will soon be available to everyone-better late than never.
Thank you for being a Ghacks reader. The post Google Chrome is Finally Embracing Vertical Tabs appeared first on gHacks Technology News.
Consumer Reports has revealed its list of the best Android smartphones of 2025, based on extensive lab testing and long-term evaluations. The rankings take into account more than a dozen factors, including performance, display quality, battery life, camera performance, durability, and ease of use.
2025 was a strong year for Android devices. AI features became standard even outside the flagship tier, foldable phones matured into practical daily drivers, and camera systems continued to improve across the board. According to Consumer Reports, Samsung and Google once again dominated the rankings, offering strong options at every price level.
Here are the five top-ranked Android phones of 2025, with one model selected per product line.
1. Google Pixel 9aThe Pixel 9a earned its spot as the standout budget phone of 2025. It brings Google's AI features, including on-device Gemini Nano, to a more affordable price point, while still delivering strong battery life and a solid build.
Consumer Reports praised its camera performance in particular, noting that it competes closely with last year's flagships despite its mid-range positioning. For users who want reliable performance and excellent photography without paying flagship prices, the Pixel 9a was rated as one of the best values of the year.
2. Samsung Galaxy Z Flip7Samsung's Galaxy Z Flip7 shows how far foldable phones have come. With improvements to the cover display and better integration of AI features, the Flip7 allows users to interact with key functions without fully opening the device.
Consumer Reports rated it on par with more expensive foldables, highlighting its portability and improved usability. While still not for everyone, the Flip7 is no longer just a novelty-it's a practical option for users curious about foldable phones without committing to Samsung's highest-end models.
3. Samsung Galaxy Z Fold7The Galaxy Z Fold7 continues Samsung's push toward large-screen productivity on mobile devices. Its book-style folding design makes multitasking easier, and the updated hinge improves durability compared to earlier generations.
Consumer Reports gave the Fold7 high marks for performance and display quality, but noted that its high price limits its appeal. It's an excellent device for power users who can take advantage of the large inner screen, though not a must-have for the average smartphone buyer.
4. Google Pixel 10 ProPhotography remains the Pixel line's biggest strength, and the Pixel 10 Pro reinforces that reputation. With advanced AI-assisted camera features, a powerful zoom system, and long-term software support, it ranked exceptionally well in Consumer Reports' camera testing.
Among 2025 Android phones, it offered one of the best balances between premium features and price. Consumer Reports noted that it's one of the most affordable phones to receive a top-tier camera rating, making it an attractive choice for photography-focused users.
5. Samsung Galaxy S25 UltraAt the top of Consumer Reports' rankings sits the Galaxy S25 Ultra. Samsung's flagship impressed across nearly every category, from performance and display quality to camera capabilities and physical durability.
The device's AI-powered features, combined with a customized high-end processor, helped it achieve the highest overall score of any Android phone released in 2025. For users looking for the most complete Android experience available last year, Consumer Reports considers the Galaxy S25 Ultra the clear winner.
ConclusionConsumer Reports' 2025 rankings show a mature Android ecosystem with strong options at every level. Budget phones like the Pixel 9a now offer features that once required a flagship, while foldables such as the Galaxy Z Flip7 and Fold7 continue to refine their place in the market. At the high end, the Galaxy S25 Ultra set the benchmark for overall performance.
While the "best" phone still depends on budget and personal needs, these five models represent the strongest Android devices of 2025 based on independent testing and long-term reliability.
What's your favorite Android phone?
Thank you for being a Ghacks reader. The post The 5 Best Android Phones of 2025, According to Consumer Reports appeared first on gHacks Technology News.
Si vous êtes du genre à avoir passé des heures sur Half-Life 2 à vous en retourner les paupières (et je sais que vous êtes nombreux), oubliez tout ce que vous pensiez savoir sur la stabilité légendaire du Source Engine. Car figurez-vous qu'un bug totalement improbable vient de refaire surface grâce à Tom Forsyth, un ancien de chez Valve, et c'est clairement un truc de fou, vous allez voir...
Tout commence en 2013. À l'époque, Valve bosse sur le portage de HL2 pour le tout premier Oculus Rift (le fameux DK1 qui nous donnait tous envie de vomir au bout de 5 minutes). Pour tester la VR, ils se disent que le mieux, c'est de reprendre un bon vieux classique. Tout se passe bien jusqu'à ce que Tom Forsyth reste bloqué dès l'intro du jeu, juste après la séquence de la canette. Un garde Barney censé vous ouvrir une porte reste planté là, et la porte refuse de bouger. Coincé. Rideau. On ferme.
Le truc qu'il constate alors, c'est qu'en recompilant le code source original de 2004, le bug est là aussi ! Pourtant, personne ne l'avait jamais croisé en neuf ans. Du coup, l'équipe a cru à une sorte de malédiction ou à un bug qui aurait voyagé dans le temps pour infecter l'original. (si si...)
Mais après une journée de spéléologie dans les outils de debug, ils ont fini par trouver le coupable : l'orteil d'un garde PNJ ! Le pauvre couillon était placé un millimètre trop près de la porte et en s'ouvrant, la porte tapait dans son pied, rebondissait et se verrouillait. Imaginez un peu la vie du gars, à se faire matraquer l'orteil depuis +20 ans sans pouvoir crier ou se décaler d'un millimètre... Dur !
Mais alors pourquoi ça marchait en 2004 et plus en 2013 ?
Hé bien la réponse tient en deux mots qui vont rappeler des souvenirs aux plus geeks d'entre vous : ✨ virgule flottante ✨.
Car en 2004, le jeu tournait avec les instructions x87 (80 bits de précision, un beau bordel hérité de l'époque)et en 2013, avec le passage au SSE (32 ou 64 bits), les calculs physiques sont devenus plus "stricts". Dans les deux versions, la porte tape l'orteil mais avec le x87, la micro-rotation infligée au garde suffisait à dégager son pied juste assez pour que la porte passe au millième de seconde suivant. Avec le SSE par contre, le garde pivotait un chouïa moins loin... et paf, collision, porte bloquée !
C'est encore une preuve que même dans un chef-d'œuvre comme Half-Life 2, tout ne tient qu'à un orteil et quelques bits. D'ailleurs, si vous voulez vous replonger dans l'ambiance, sachez que Half-Life a fêté ses 25 ans récemment avec une belle mise à jour, et pour les nostalgiques de la VR qui veulent souffrir avec style, le driver VorpX permet toujours de faire des miracles. Ce serait dommage de passer à côté !
Allez, je vous laisse, je vais vérifier si mon gros orteil ne bloque pas ma porte d'entrée.
Le Groupement des Hôtelleries et Restaurations de France (GHR) alerte solennellement sur les conséquences graves d'une proposition de loi relative au travail le 1er mai.
Le texte, qui sera examiné par l'Assemblée nationale le 22 janvier prochain, prévoit en effet que « seuls les salariés volontaires ayant donné leur accord par écrit à leur employeur » pourront travailler le 1er mai.
En imposant aux restaurateurs qu'ils obtiennent l'accord écrit de chacun de leurs salariés pour qu'ils acceptent de (...)
OK les amis, là faut qu'on parle de ce qui se passe chez Rockstar. Je pense que vous passez probablement trop de temps à errer dans Los Santos au lieu de bosser, mais ce qui vient de tomber est bien plus inquiétant qu'un braquage de banque qui foire. En effet, d'après une enquête de Variety , Rockstar vient de supprimer des missions créées par des joueurs qui recréaient l'assassinat réel de Charlie Kirk, un fasciste américain tué en septembre dernier.
Le truc, c'est que ce n'est pas juste une petite polémique politique de plus. C'est LE SIGNE que Rockstar Games est en train de réaliser, un peu tard, qu'ils ne contrôlent plus leur propre bébé. Car même si les outils de création existent depuis 2013, une nouvelle fonctionnalité lancée en décembre dernier a visiblement boosté la créativité macabre de certains. Désormais, des joueurs s'improvisent game designer pour injecter des événements du monde réel directement dans le jeu sandbox de Rockstar.
Et là, c'est le drame ! Pour essayer de colmater les brèches, ils ont même dû repenser leur vieux "filtre de grossièretés" interne qui n'est plus juste là pour empêcher les gamins d'écrire des insultes dans le chat, mais pour modérer et bloquer massivement des noms de personnalités ou des événements sensibles. En gros, Rockstar est passé du statut de créateur de mondes virtuels à celui de modérateur de plateforme, un peu comme s'ils géraient un réseau social géant, mais avec des flingues et des bagnoles.
Certains se demandent si l'acquisition de Cfx.re (l'équipe derrière FiveM) en 2023 par Rockstar n'était pas justement un moyen de préparer le terrain avec des technos de contrôle plus musclées. Mais peu importe, car le vrai problème ici est structurel. GTA est devenu une plateforme UGC massive (User Generated Content) et quand on voit à quel point ils galèrent déjà, on peut légitimement se demander comment ils vont gérer le futur multi de GTA 6, prévu pour novembre 2026 ?
Sérieux, je m'inquiète car imaginez l'échelle du prochain titre avec des outils encore plus poussés... Ça va être un combat permanent pour supprimer les contenus problématiques. On est trèèèès loin de l'époque où on s'amusait simplement à regarder Los Santos sous l'eau grâce à un mod. Ici, Rockstar découvre à ses dépends que la liberté offerte aux joueurs est en train de se transformer en leur pire cauchemar de modération.
Allez, bon courage Rockstar, parce que là, vous allez en avoir besoin.
For many iPhone users, the Notes app is something you open only to jot down a phone number, a quick reminder, or a shopping list. That perception is increasingly out of date. Over the last few iOS releases, Apple has steadily expanded Notes into a lightweight productivity and organization tool, adding features that rival dedicated apps - without ever drawing much attention to them.
Most of these capabilities are already available on modern iPhone models, but they tend to stay hidden unless you go looking for them. Used together, they can turn Notes into a secure vault, a document scanner, a task manager, and even a writing assistant.
1. Lock notes with Face ID or a passcodeNotes allows individual entries to be locked behind Face ID, Touch ID, or a device passcode. This makes it possible to store sensitive information - such as temporary passwords, personal records, or private thoughts - without relying on a third-party app.
Once locked, a note remains visible in the list but cannot be read without authentication. Locked notes also hide their contents from previews, adding an extra layer of privacy if someone else handles your phone.
2. Let smart folders organize notes automaticallySmart folders reduce the need for manual sorting. Instead of dragging notes into folders yourself, you can define rules based on tags, attachments, checklists, dates, or mentions. Notes that match those criteria are added automatically.
This is particularly useful if you rely on Notes for multiple ongoing projects, receipts, or work-related information that grows over time.
3. Switch to a visual gallery viewBy default, Notes shows entries in a simple text list. Gallery view changes this into a grid of cards with thumbnails, making it easier to browse visually. Notes containing images, scans, or sketches become easier to identify at a glance, which can be helpful for recipes, design ideas, or reference material.
4. Record and transcribe phone callsOn newer iPhone models, Notes can store call recordings along with full transcripts. When enabled during a call, the system records the conversation and saves both the audio and a text transcription directly into Notes.
Once saved, the transcript can be searched, reviewed, or summarized, making this feature particularly useful for interviews, work calls, or situations where details matter.
5. Rewrite text using built-in AI toolsNotes integrates Apple's on-device writing tools, allowing text to be rewritten in different styles. A paragraph can be made more concise, more formal, or more casual with a few taps.
This is useful when drafting emails, preparing notes for others, or adapting the same content for different audiences without leaving the app.
6. Scan documents directly into notesThe Notes app includes a built-in document scanner that uses the iPhone's camera. Receipts, contracts, handwritten pages, and printed documents can be scanned, cropped automatically, and stored as PDFs inside a note.
Multiple pages can be scanned into a single entry, removing the need for a separate scanning app for most everyday tasks.
7. Use Notes as a task managerNotes supports checklists with nested items, making it suitable for to-do lists and simple project tracking. Completed items can automatically move to the bottom of a list, keeping active tasks visible.
For users who want something more flexible than a basic reminders app - but less complex than a full task manager - this feature often goes unnoticed.
8. Link notes togetherIndividual notes can be linked to one another, creating a web of related information. This makes it possible to build hub notes that point to related ideas, references, or lists, turning Notes into a lightweight personal knowledge base.
9. View all attachments in one placeNotes keeps a centralized view of every attachment across all notes. Photos, scans, PDFs, and other files can be browsed without opening each note individually, and tapping an attachment jumps directly to its source note.
10. Summarize long notes automaticallyLong notes can be condensed into short summaries using Apple's built-in writing tools. This is particularly helpful when reviewing meeting notes, transcripts, or long research entries where only the key points are needed.
11. Reformat text into lists or tablesUnstructured text can be quickly converted into clean lists or tables. This works well for reorganizing notes that started as rough drafts or when turning raw information into something easier to scan.
12. Proofread without leaving the appNotes can check spelling and grammar and suggest corrections directly within the document. Changes can be reviewed individually, making it easy to polish text before copying it into an email or document.
13. Generate images from text descriptionsOn supported devices, Notes can generate images based on written descriptions using Apple's image tools. While not always precise, this feature can help visualize ideas, mockups, or concepts without switching apps.
The Notes app is no longer just a digital scratchpad. Without adding new icons or making major announcements, Apple has turned it into a versatile tool that covers many everyday needs - from organization and scanning to writing and privacy. For users willing to explore its menus, Notes can replace several standalone apps and simplify daily workflows.
Thank you for being a Ghacks reader. The post Your iPhone’s Notes App Can Do Far More Than Basic Note-Taking appeared first on gHacks Technology News.
Il y a des combats comme cela auxquels pas grand monde ne pense et qui pourtant sont très importants. Je parle évidemment de la lutte contre le chaos du texte non structuré. Si vous avez déjà essayé d'extraire des données propres d'un tas de PDF (après OCR), de rapports ou de notes griffonnées, vous voyez de quoi je parle : c'est l'enfer ! (oui j'aime me faire du mal en tentant des regex impossibles).
Heureusement, Google a lâché début janvier 2026 une petite pépite en open source (même si c'est pas un produit "officiel") qui s'appelle LangExtract . C'est une bibliothèque Python qui utilise la puissance des LLM pour transformer vos documents textuels en données JSON bien rangées.
Exemple d'extraction sur le texte de Roméo et Juliette ( Source )
Ce qui fait que LangExtract sort du lot par rapport à d'autres outils comme Sparrow , c'est surtout son système de Source Grounding. En gros, chaque info extraite est directement liée à sa position exacte dans le texte source. Ça facilite énormément la vérification et la traçabilité puisque vous pouvez voir visuellement d'où vient la donnée grâce à un système de surlignage automatique.
Sous le capot, l'outil est optimisé pour les documents à rallonge (le fameux problème de l'aiguille dans une botte de foin). Il utilise des stratégies de découpage de texte et de passes multiples pour améliorer le rappel et s'assurer que le maximum d'infos soit capturé.
La visualisation interactive permet de valider les données en un clin d'œil ( Source )
Et cerise sur le gâteau, il permet de générer un fichier HTML interactif pour visualiser les milliers d'entités extraites dans leur contexte original. À la cool !
Côté installation, c'est hyper fastoche :
pip install langextractPour faire le job, vous avez le choix des armes : les modèles cloud de Google (Gemini 2.5 Flash/Pro), ceux d'OpenAI (via pip install langextract[openai]), ou carrément du local avec Ollama . Pas besoin de passer des heures à fine-tuner un modèle, il suffit de fournir quelques exemples structurés via le paramètre examples et hop, c'est parti mon kiki.
Voici à quoi ça ressemble sous le capot pour lancer une machine à extraire :
import langextract as lx # 1. On définit les règles du jeu prompt = "Extraire les noms de personnages et leurs émotions." # 2. On donne un exemple (few-shot) pour guider le modèle examples = [ lx.data.ExampleData( text="ROMEO. But soft! What light...", extractions=[lx.data.Extraction(extraction_class="character", extraction_text="ROMEO", attributes={"emotion": "wonder"})] ) ] # 3. On lance l'extraction (nécessite une clé API ou Ollama) results = lx.extract( text_or_documents="votre_texte_brut_ici", prompt_description=prompt, examples=examples, model_id="gemini-2.5-flash" ) # 4. On sauvegarde et on génère la visualisation HTML lx.io.save_annotated_documents(results, output_name="results.jsonl") html_content = lx.visualize("results.jsonl") with open("view.html", "w") as f: f.write(html_content)Honnêtement, je ne sais pas si ça va remplacer les solutions industrielles de RPA , mais pour un dev qui veut structurer du texte sans se prendre la tête, c'est vraiment impressionnant. Que vous fassiez du Grist ou de l'analyse de données pure, cet outil mérite clairement que vous y jetiez un œil !
Meta has stopped developing new content and features for Supernatural, its high-profile virtual reality fitness service. The company cites internal reorganization and says the app will remain online for existing subscribers, but no new workouts, features, or expansions are planned.
According to Meta, users will retain access to Supernatural's existing library of workouts, and the service's infrastructure and social channels will continue to be maintained. Development, however, has effectively ended. The move comes despite the app's strong reception since launch, including high review scores, industry awards, and celebrity partnerships.
Supernatural was a central part of Meta's early push to position virtual reality as a mainstream fitness and lifestyle platform. In 2021, Meta acquired Within, the app's developer, in a deal widely reported to be worth around $400 million. The acquisition drew regulatory scrutiny at the time and was defended by Meta as a cornerstone of its broader metaverse strategy.
Part of a wider retreat from VRThe decision coincides with significant cuts at Meta's Reality Labs division. This week, the company confirmed layoffs affecting around 1,500 employees, roughly ten percent of the unit's workforce. A Meta spokesperson said the company is shifting investment away from parts of virtual reality development and toward AI-driven wearables.
As part of the same restructuring, Meta is also closing several internal VR game studios, including teams responsible for prominent titles such as Resident Evil 4 VR and Asgard's Wrath. These closures further underline the company's reduced emphasis on high-budget VR content.
Meta has not announced a timeline for shutting down Supernatural entirely, and for now the app remains available in its current form. The move nonetheless signals a clear change in priorities, with virtual reality fitness no longer a growth focus as the company reallocates resources toward artificial intelligence and wearable hardware.
Thank you for being a Ghacks reader. The post Meta Stops Development of Supernatural VR Fitness App appeared first on gHacks Technology News.
OpenAI has quietly introduced a new standalone translation service called ChatGPT Translate, positioning it as a direct alternative to Google Translate. The launch took place without a formal announcement and appears to be in an early rollout phase.
The new site closely mirrors the familiar layout of Google Translate. Users are presented with a large text input field, language selection menus for source and target languages, and a button to copy translated output. At first glance, the interface looks intentionally simple and utilitarian.
Tone-based translations instead of plain outputWhat sets ChatGPT Translate apart is its focus on tone. In addition to basic translations, users can choose stylistic modes that adapt the output for business, academic, or child-friendly contexts. Rather than only converting words from one language to another, the tool adjusts phrasing and sentence structure to better match the intended audience.
This approach leverages ChatGPT's generative language capabilities, blurring the boundary between traditional machine translation and text rewriting. A standard translation can still be produced by selecting the default option, but the tone controls make the tool more flexible for professional or educational use cases.
Faster results than the main ChatGPT interfaceEarly testing suggests that translations generated through the dedicated site arrive more quickly than identical requests made through the general ChatGPT interface. Short passages are often translated in under five seconds. OpenAI has not confirmed whether a specialized model or infrastructure is being used, but the speed difference suggests some level of optimization.
OpenAI last updated its flagship models with GPT-5.2 in December 2025, though the company has not disclosed which model powers the translation service.
Limited language list and unfinished featuresThe service claims support for more than 50 languages, but only 28 are currently selectable. These include major languages and regional variants such as Brazilian and European Portuguese, indicating that broader coverage may follow.
Some advertised features are not yet fully available. Image-based translation and voice input are mentioned but do not function consistently on desktop browsers. According to reports, microphone input appears to work on mobile browsers, suggesting uneven feature availability across platforms.
Early signs of a broader rolloutThe low-profile launch fits OpenAI's recent pattern of introducing new tools quietly before expanding access or announcing them more widely. For now, ChatGPT Translate functions as a lightweight, web-based translator that highlights how generative AI could reshape a long-established category of internet services.
Whether OpenAI intends this to become a full replacement for existing translation tools remains unclear, but the focus on tone and context suggests the company is aiming beyond basic word-for-word translation.
Thank you for being a Ghacks reader. The post OpenAI Launches ChatGPT Translate As a Quiet Rival To Google Translate appeared first on gHacks Technology News.
Microsoft has confirmed problems affecting systems running Windows 11 version 23H2 after installing the January 2026 security updates. According to the company, affected PCs may no longer shut down properly or enter sleep mode.
The issue has now been documented in the Windows Release Health notes. Microsoft states that after installing the January 13, 2026 security updates, systems with Secure Boot enabled can fail to power down or switch to sleep. Instead of shutting down or suspending, the devices may restart automatically. Secure Boot relies on virtualization-based security to protect the system against firmware-level attacks during startup.
Microsoft says the problematic update, identified as KB5073455, is only being offered for the Enterprise and IoT editions of Windows 11 23H2. While the knowledge base entry references changes related to Secure Boot, these changes are intended to update Secure Boot certificates rather than alter power management behavior.
Temporary workaround availableUntil a permanent fix is released, Microsoft recommends a manual workaround for shutting down affected systems. Users should open a command prompt, for example by typing cmd into the Start menu search, and then run the command:
shutdown /s /t 0This forces the system to shut down immediately. Microsoft has explicitly stated that there is currently no workaround for sleep mode. Users are advised to save their work and shut down their devices manually after use to avoid unintended restarts or battery drain.
This is the second issue Microsoft has acknowledged in connection with the January Patch Day updates. Earlier reports confirmed that the same updates can disrupt connections to Azure Virtual Desktop and Windows 365, affecting enterprise environments that rely on cloud-based Windows services.
Thank you for being a Ghacks reader. The post Windows 11 23H2: January Updates Break Sleep Mode and Shutdown appeared first on gHacks Technology News.
Vous pensiez avoir tout vu en matière de projets geeks complètement déjantés ?
Hé bien accrochez-vous à vos slips, parce que des chercheurs, menés par le neuro-ingénieur Viktor Tóth, ont réussi à faire "jouer" des rats à DOOM. Pas en appuyant sur des boutons au hasard, non non, mais avec un casque de réalité virtuelle sur mesure, une boule de déplacement sous leurs pattes, et même une gâchette pour tirer sur les démons !
Je vous jure que c'est vrai. Le projet s'appelle " Rats Play DOOM " et c'est à la croisée de la neuroscience, de la robotique et du game design. L'idée de base, c'est de prouver qu'on peut entraîner des rongeurs à interagir avec des environnements virtuels contrôlés basés sur un moteur de jeu. Et quitte à faire ça, autant le faire avec le jeu le plus iconique des années 90.
Gros plan sur le casque VR panoramique pour rongeurs ( Source )
Le setup est assez dingue. Le rat est équipé d'un casque panoramique intégrant un écran AMOLED pliable qui offre 180 degrés de champ horizontal et 80 degrés de vertical. Il est installé sur une boule sphérique qui détecte ses mouvements via des capteurs, un peu comme une trackball géante. Quand il marche, court ou tourne, ça se traduit directement en déplacements dans le jeu.
Et pour ceux qui se demandent comment un rat peut vraiment dégommer des monstres... Hé bien oui, car Viktor a même fabriqué un levier custom avec un encodeur rotatif que le rat actionne avec ses pattes pour faire feu. Donc oui, les rats tirent sur des démons avec leurs petites papattes !
Le nouveau setup modulaire V2 ( Source )
Pour motiver nos petits rongeurs gamers, y'a évidemment un système de récompense. À chaque action réussie, le système distribue 10 microlitres d'eau sucrée via un solénoïde. C'est pas grand-chose mais pour un rat, c'est le graal. Au bout de deux semaines d'entraînement environ, les rats Todd, Kojima et Gabe (oui, ils ont des noms de légendes du jeu vidéo, on adore l'humour des chercheurs) ont réussi à naviguer dans l'environnement virtuel. Et là, ils ont même appris à déclencher le mécanisme de tir.
Bon, faut être honnête, ils n'ont pas encore terminé le jeu. L'équipe explique que les rats ont vieilli avant de pouvoir passer à l'entraînement avancé. Du coup, c'est plus une preuve de concept qu'un speedrun, mais quand même, c'est impressionnant. On est loin du simple contrôle neuronal de base, là car c'est une vraie interaction avec un moteur de jeu.
Setup V1 du projet Rats Play DOOM ( Source )
Côté technique, tout tourne sur un combo Raspberry Pi pour l'acquisition des capteurs en temps réel, et un PC qui fait tourner une version modifiée de ViZDoom. Le tout communique en TCP et hop, c'est géré par un script Python central. Et comme si ça suffisait pas, le projet est entièrement open source. Vous pouvez récupérer le code, les schémas électroniques et même les fichiers 3D pour imprimer les pièces sur le repo GitHub. Donc si vous avez un rat de compagnie et beaucoup trop de temps libre...
Le projet en est à sa deuxième version. Cette V2 est plus modulaire, avec des composants imprimables en 3D et une électronique plus fiable. C'est typiquement le genre de bidouille qui me rappelle pourquoi j'aime tant farfouiller dans les projets Raspberry Pi les plus improbables ^^.
D'ailleurs, si vous êtes fan de portages improbables, vous vous souvenez peut-être de cet article sur DOOM Retro , mais là avec les rats, on est clairement passé au niveau supérieur.
Bref, on vit vraiment une époque formidable où des gens financent des projets pour apprendre à des rats à buter des démons en VR. Et j'adore l'idée !
Youssef Sammouda, un chercheur en sécurité connu sous le pseudo sam0, vient de publier un article détaillant pas moins de 4 vulnérabilités de type XS-Leaks qu'il a découvertes chez Meta. Pour vous la faire courte, ce genre de faille permet à un site malveillant de déduire des informations sur vous sans même avoir besoin de pirater quoi que ce soit. Heureusement, tout a été patché depuis !
La première faille concernait Workplace (la version entreprise de Facebook) et son intégration avec Zoom. En gros, un attaquant pouvait créer une page web qui chargeait le callback Zoom de Workplace dans une iframe, et selon que l'utilisateur était connecté ou non à Meta Work, la redirection se comportait différemment. Et là, pouf, l'attaquant savait si vous étiez un utilisateur Meta Work. Pas besoin d'accéder à vos données, juste de mesurer combien de temps met une redirection. Vicieux, non ? Meta a casqué 2 400 dollars pour cette trouvaille.
La deuxième faille, c'était le bon vieux bouton Like de Facebook. Vous savez, ce petit widget qu'on trouve sur des millions de sites web ? Eh bien si vous étiez connecté à Facebook, le plugin pouvait révéler si vous aviez liké une page spécifique ou pas. Un attaquant n'avait qu'à mesurer le nombre de frames dans l'iframe pour le savoir. Encore 2 400 dollars dans la poche de notre chercheur.
La troisième était plus technique et bien trouvée. Le fichier signals/iwl.js de Facebook utilise Object.prototype pour ses opérations. En manipulant ce prototype depuis la page parente, un attaquant pouvait provoquer des erreurs différentes selon l'état de connexion de l'utilisateur, et même récupérer son ID Facebook. Ça, ça valait 3 600 dollars.
Et voilà, la quatrième concernait l'identification des employés Meta eux-mêmes via les domaines internes. Celle-là n'a pas rapporté de bounty (juste un "informative"), mais elle montre bien l'étendue du problème.
Au total, Youssef a empoché 8 400 dollars entre décembre 2024 et mai 2025, le temps que Meta corrige tout ça. Alors oui, c'est cool que ces failles soient maintenant corrigées mais ça fait quand même réfléchir sur la quantité de données qui peuvent fuiter sans même qu'on s'en rende compte.
Pour ceux qui veulent creuser le fonctionnement des programmes de bug bounty , c'est vraiment un système génial et hyper vertueux où tout le monde est gagnant. Les chercheurs sont payés pour trouver des failles, les entreprises patchent avant que les méchants n'exploitent. Y'a vraiment de quoi faire dans ce domaine.
Bref, bien joué Youssef Sammouda, grâce à lui quelques failles de moins chez Meta, et ça c'est cool !
Les Intelligences Artificielles (IA) génératives, innovation majeure pour notre économie et notre société, ont vu leurs usages se généraliser rapidement et, deviennent une nouvelle porte d'entrée vers internet, à l'instar des moteurs de recherches ou des réseaux sociaux. Quel est l'impact de cette évolution sur la capacité des utilisateurs à accéder à l'ensemble du contenu sur internet et à le partager ? ou encore sur la liberté de communication et la visibilité des innovations ? Le rapport de l'Arcep est (...)
- Communiqué de presse / AI, rapport, internet, ARCEPLe PAL, 1er site de loisirs en région Auvergne-Rhône-Alpes, 31 attractions, 1000 animaux, 31 lodges africains et 1 hôtel de 60 suites vient de lancer sa campagne de recrutement pour l'ouverture de la saison touristique le 4 avril 2026.
400 postes de saisonniers environ sont à pourvoir sur les quatre secteurs du parc : Restauration : 120 postes. Hôtellerie : 120 postes. Boutique et billetterie : 30 postes. La session de recrutement sans cv dédiée aux opérateurs d'attractions (130 postes) a été prise (...)
Si vous faites partie des curieux qui testent WinBoat (le projet open source de TibixDev pour lancer des applis Windows sous Linux via Docker), sachez qu'une vulnérabilité critique a été identifiée dans l'outil, et le scénario d'attaque est plutôt créatif.
Pour ceux qui ne connaissent pas, WinBoat est une appli Electron qui orchestre tout un petit monde (Docker / Podman, FreeRDP) pour rendre l'expérience Windows "seamless" sur votre bureau Linux. C'est ambitieux, c'est en beta, et forcément, il y a parfois des trous dans la raquette.
D'après le write-up technique publié sur hack.do , le problème venait de l'API locale exposée par WinBoat sur le port 7148. Cette API HTTP n'était pas authentifiée, ce qui est souvent le début des ennuis.
Le scénario décrit par le chercheur est le suivant : un attaquant héberge une page web malveillante et si vous visitez cette page avec votre navigateur (et sous réserve que les sécurités CORS/PNA ne bloquent pas la requête, ce qui dépend de votre config et du navigateur), elle peut envoyer des ordres à cette API locale localhost:7148.
L'API vulnérable (notamment le endpoint /update) permettrait alors de remplacer des composants internes du système invité. En gros, l'attaquant pourrait substituer le binaire guest_server légitime par une version malveillante.
Une fois que l'attaquant a compromis le conteneur Windows, il ne s'arrête pas là. Le chercheur explique que WinBoat permet au conteneur de communiquer des "entrées d'application" à l'hôte Linux. Si le conteneur compromis envoie un chemin forgé spécifiquement et que l'hôte tente de le lancer... c'est l'exécution de code arbitraire (RCE) sur votre machine Linux.
C'est un rappel assez violent que l'isolation, c'est compliqué à faire correctement, surtout quand on veut une intégration transparente entre deux systèmes.
La bonne nouvelle, c'est que le problème a été traité. La faille concernait les versions jusqu'à la v0.8.7. La version v0.9.0 introduit une authentification obligatoire pour cette API locale, avec un mot de passe aléatoire généré au lancement, ce qui coupe l'herbe sous le pied de ce type d'attaque web.
Si vous utilisez WinBoat, la mise à jour est donc plus que recommandée et si le sujet de l'isolation vous intéresse, jetez un œil à mon tuto sur l'installation de WSL 2 ou encore à cette autre faille RCE critique qui a secoué le monde Linux récemment.
Bref, prudence avec les outils en beta qui exposent des ports locaux !
Si vous avez récemment fait une mise à jour vers Windows 11 24H2 et que vous êtes un utilisateur assidu de Plex, vous avez peut-être remarqué un truc étrange. L'image est nickel, tout se lance parfaitement, mais niveau son... c'est le silence radio absolu.
En particulier si vous tentez de lire des médias avec une piste audio EAC3 (Dolby Digital Plus) en 5.1. Vous avez beau monter le volume, vérifier vos câbles ou insulter votre carte son, rien n'y fait. Y'a que dalle...
Alors pas de panique les amis ! Ce n'est pas votre matériel qui est en cause, ni même Plex qui a décidé de bouder. C'est juste Microsoft qui, dans sa grande sagesse (et probablement pour des histoires de licences), a semble-t-il retiré ou cassé la gestion native du codec EAC3 dans cette version de Windows. Un grand classique qui me rappelle l'époque où Windows 8 avait viré la lecture DVD sans prévenir.
Heureusement, Andréa, un fidèle lecteur (merci à lui !), a creusé le sujet et nous partage la solution pour remettre tout ça d'équerre sans avoir besoin de formater ou de passer sous Linux (même si, entre nous, ce serait une excellente idée ^^).
Ce qu'il vous fautPour corriger ce problème, il faut réinjecter les DLL manquantes dans le système. Et pour ça, un petit utilitaire bien pratique existe sur MajorGeeks.
Une fois que la bête a redémarré, ouvrez votre client Plex.
Allez dans les paramètres Lecteur et assurez-vous d'être en "Réglages de base" (5.1 ou Stéréo) et surtout, désactivez le Passthrough si ce n'est pas indispensable pour votre ampli. Normalement, le son devrait revenir instantanément.
C'est quand même dingue qu'en 2026 on doive encore bidouiller des codecs à la main pour avoir du son, mais bon... Au moins, c'est réparable.
Voilà, si ça vous a sauvé la soirée film, n'hésitez pas à remercier Andréa qui a tout détaillé sur son tuto complet ici .
Et pensez aussi à garder votre Plex Media Server à jour , c'est important pour la sécurité (même si ça ne règle pas les soucis de codecs Windows !).
Vous connaissez Gemma ? Bon, hé bien Google vient de remettre une pièce dans la machine avec TranslateGemma , une nouvelle collection de modèles ouverts dédiés exclusivement à la traduction.
Si vous utilisez Google Translate ou DeepL au quotidien, c'est super, ça marche bien, mais ça demande quand même une connexion internet et vos données partent dans le cloud. Donc pour ceux qui veulent garder leurs petits secrets de fabrication (ou juste les lettres d'amour de leur vieille prof de théâtre) en local, c'est souvent un peu la galère.
Ça tombe bien puisque Google DeepMind semble avoir entendu vos prières puisqu'ils viennent de lâcher dans la nature cette suite de modèles basés sur Gemma 3. Et apparemment, ils ont mis le paquet sur l'efficacité.
L'idée c'est de faire tourner de la traduction haute fidélité sur votre propre matériel, peu importe sa puissance. C'est pourquoi TranslateGemma est dispo en trois tailles : 4 milliards (4B), 12 milliards (12B) et 27 milliards (27B) de paramètres pour fonctionner sur tous types de matos.
Le modèle 4B est optimisé pour le mobile et l'edge computing (comprenez "sur des petits appareils"), le 12B est taillé pour tourner tranquille sur un laptop grand public, et le 27B, c'est pour ceux qui ont du GPU costaud (H100 ou TPU) et qui veulent la qualité maximale.
Ce qui est foufou, c'est que le modèle 12B surpasse le modèle Gemma 3 de base en version 27B sur les benchmarks de traduction. En gros, vous avez une qualité supérieure avec un modèle deux fois plus léger. Ils l'ont vraiment optimisé aux petits oignons.
Pour réussir ce tour de force, Google explique avoir utilisé un processus de "distillation" en deux étapes. D'abord, ils ont fine-tuné les modèles sur un mélange de données traduites par des humains et de données synthétiques générées par leurs gros modèles Gemini. Ensuite, ils ont appliqué une phase de Reinforcement Learning (RL) guidée par des métriques de qualité comme MetricX-QE. C'est comme si Gemini apprenait à son petit frère comment bien traduire, en lui tapant sur les doigts quand il se trompe.
Après côté langues, c'est du solide puisque ça fonctionne en 55 langues rigoureusement testées et validées, couvrant la plupart des besoins courants (Français, Espagnol, Chinois, Hindi...). Et ils ont aussi poussé le bouchon encore plus loin en entraînant le modèle sur près de 500 paires de langues supplémentaires. C'est expérimental certes, mais ça ouvre la porte à des traductions pour des langues dites "faibles ressources" qui sont souvent oubliées par les géants de la tech...
Autre point cool, comme c'est basé sur Gemma 3, ces modèles gardent des capacités multimodales. Ça veut dire qu'ils peuvent potentiellement traduire du texte à l'intérieur d'images, même si ce n'était pas le but premier de l'entraînement spécifique TranslateGemma.
Voilà, maintenant si vous voulez tester ça, c'est disponible dès maintenant sur Hugging Face , Kaggle et Vertex AI . Y'a même un notebook ici pour mettre un peu les mains dans le cambouis. Pour les devs qui veulent intégrer de la traduction locale dans leurs apps sans dépendre d'une API payante, c'est donc une option qui mérite vraiment d'être explorée.
Et si le sujet des modèles Google vous intéresse, jetez un œil à mon test de Gemini 2.5 ou encore à PocketPal AI pour faire tourner tout ça sur votre smartphone.
Bref, à tester !