Sélectionner le numéro de "Netsources" à afficher

IA générative : quand savoir demander devient une compétence clé

Anne-Marie LIBMANN
Netsources no
179
publié en
2025.12
433
Acheter ce no
IA générative : quand savoir demander devient une ... Image 1
IA générative : quand savoir demander devient une ... Image 1

L’intelligence artificielle s’intègre dans nos activités quotidiennes. À l'ère de la taylorisation rampante dans la zone «col blanc» de l’entreprise, les métiers de la donnée et de la connaissance se polarisent : exécution automatisée d›un côté, compétences de cadrage vitales de l›autre.

Netsources est une boussole dans cette mutation. Nous identifions les compétences qui résistent à l’automatisation, celles qui maintiennent l’humain aux commandes. Car la vraie question n’est pas «que peut faire l’IA ?», mais « que devons-nous savoir faire pour rester pilotes ? »

Sans questions, pas de valeur

Comme Christian Vigne l’avait souligné fin 2024 dans sa chronique «Mon premier paper : Answers in abundance, questions in scarcity», que nous publions ici pour la première fois : le problème n’est pas la machine avec son offre infinie de réponses, mais la question, souvent rare et mal formulée.

Un an après, avec une adoption B2B en forte croissance et des investissements triplés, cette «crise de la demande» demeure un sujet majeur: résultats aléatoires, bulle spéculative, débats sur l'intelligence réelle des LLMs.

Monter le décor

Ulysse Rajim présente le pas suivant après le prompt engineering : le context engineering. On n’écrit plus une phrase magique, on monte un décor entier - données, outils, sécurité - pour éviter que l’agent ne s’égare, se noie dans l’info ou se contredise. Savoir structurer ce contexte : une compétence fondamentale.

Lire aussi :

Le prompt, un art pour la veille stratégique et la recherche d'information 1ère et 2eme partie (Véronique Mesguich)

Choisir devient composer

Véronique Mesguich décrypte la contre-attaque de Google qui clarifie sa stratégie en intégrant l’IA dans ses écosystèmes pros, et la riposte des concurrents par la spécialisation: du «tout-en-un» vers des domaines ciblés (codage, recherche, création). On ne choisit plus un outil unique, mais on construit un portefeuille qu’il faut sans cesse suivre et valider. Une posture clef pour bâtir des stratégies IA hybrides.

Accélérer, pas remplacer

Elodie Charrière explore comment l’IA génère scripts, légendes et visuels sur mesure pour les réseaux sociaux. Les créateurs laissent l’IA écrire, trouver des angles. Non pour être remplacés - pour aller plus vite, tester, optimiser l’engagement. La compétence vitale ? Préserver l’intention créative. L’IA exécute, l’humain dirige.

Face à l’IA, structurer un contexte, orchestrer des outils, préserver une intention : ces compétences déterminent qui garde la main. Car formuler une question pertinente échappe à la taylorisation. C’est la compétence du cadre, pas de l’exécutant.

Le context engineering : orchestrer l’information pour les agents IA

Ulysse RAJIM
Netsources no
179
publié en
2025.12
489
Acheter ce no
Tags
knowledge management | veille technologique | ChatGPT | Intelligence artificielle
Le context engineering : orchestrer l’information pour les ... Image 1
Le context engineering : orchestrer l’information pour les ... Image 1

Le domaine de l’IA générative évolue à un rythme effréné. Début 2023, le terme « prompt engineering » entrait dans le vocabulaire courant. La presse annonçait alors des salaires à six chiffres pour les spécialistes de la formulation de requêtes aux modèles de langage1.

Deux ans plus tard, c’est un nouveau terme qui apparaît : le « context engineering ». Entre-temps, les modèles de langage ont évolué. Leurs fenêtres de contexte se sont élargies (jusqu’à un million de tokens pour Gemini). Les premiers agents IA sont apparus, capables de simuler un raisonnement à plusieurs étapes, de rechercher des informations sur le web, d’exécuter du code ou encore d’utiliser des outils.

Le prompt engineering reste primordial. Le dossier publié par Véronique Mesguich dans les deux numéros précédents de NETSOURCES (Le prompt, un art pour la veille stratégique et la recherche d’information . Netsources , no 178 & 179 ) en présente les fondamentaux : savoir structurer une requête, guider le raisonnement du modèle, fournir des exemples pour orienter les réponses2. Ces techniques constituent la base de toute interaction efficace avec un modèle de langage.

Avec le développement des agents IA, un nouveau défi émerge : la complexité et la durée des tâches traitées augmentent rapidement (selon METR, cette durée doublerait tous les sept mois3). Dans ce contexte, le prompt est un levier parmi d’autres pour orienter les résultats. Instructions système, mémoire, documents, outils : tout ce qui alimente le modèle IA constitue son « contexte ». Savoir l’assembler, le structurer, le gérer devient un enjeu à part entière.

C’est l’objet du context engineering, qui englobe le prompt engineering . Cet article en explore les fondements : définition, composantes, illustrations dans les outils du quotidien, et perspectives pour les métiers intellectuels.

Qu’est-ce que le context engineering ?

Le terme a été popularisé en juin 2025 par Tobi Lütke, CEO de Shopify, avant d’être relayé et amplifié par Andrej Karpathy ( cf. Fig.1 ), figure influente du monde de l’IA et cofondateur d’OpenAI. Dans un tweet du 25 juin 2025, ce dernier définit le context engineering comme « l’art et la science de remplir la fenêtre de contexte avec exactement les bonnes informations pour la prochaine étape ».

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Gemini 3 : l’empire Google contre-attaque… et pousse ses rivaux à se repositionner sur un marché de plus en plus segmenté

Véronique MESGUICH
Netsources no
179
publié en
2025.12
443
Acheter ce no
Tags
veille métier | veille technologique | ChatGPT | Intelligence artificielle
Gemini 3 : l’empire Google contre-attaque… et pousse ses ... Image 1
Gemini 3 : l’empire Google contre-attaque… et pousse ses ... Image 1

Avec Gemini 3 et ses concurrents, l’IA générative entre dans une phase de consolidation stratégique

Après l’annonce de Gemini3 Pro le mois dernier, Gemini 3 Flash est devenu depuis la mi-décembre le modèle par défaut de Google. Ce nouveau modèle puissant et rapide est en effet intégré désormais dans l’application Gemini, l’API et les outils pour développeurs.

L’arrivée de Gemini 3 marque moins une rupture spectaculaire qu’un changement d’échelle et de maturité dans la compétition entre grands modèles d’IA. Elle illustre la volonté de Google de reprendre l’initiative face à OpenAI, non seulement sur le plan des performances, mais surtout sur celui de l’écosystème et des usages. Après la phase d’expérimentation de ces trois dernières années, le marché entre dans un cycle où non seulement la robustesse, mais aussi l’intégration dans des usages professionnels complexes deviennent déterminantes. La différenciation ne passe plus uniquement par la puissance brute, mais par la capacité à s’insérer dans des workflows réels. Commençons par préciser les avancées apportées par cette nouvelle version, avant d’étudier la réaction des concurrents et les recompositions à venir pour le marché de l’IA générative.

Raisonnement, multimodalité, capacités agentiques

Là où la génération précédente se concentrait sur la rapidité et l’accès multimodal fluide, Gemini 3 privilégie le raisonnement profond et les capacités agentiques. Le modèle intègre ainsi une architecture de raisonnement dynamique capable de décomposer les problèmes complexes en étapes logiques internes, à travers des chaînes de pensée. Le mode « deep think » de Gemini 3 repose sur une architecture de réflexion parallèle explorant simultanément plusieurs hypothèses avant de synthétiser une réponse finale.

L’utilisateur peut choisir (y compris dans la version gratuite), entre le mode « rapide » fournissant immédiatement une réponse, et le mode « raisonnement » résolvant des questions complexes. Le mode « Pro» étant plutôt destiné au codage et à une réflexion encore plus approfondie pour des problèmes mathématiques. Ce modèle de raisonnement est censé réduire les hallucinations grâce à sa capacité à valider l’information en comparant et en recoupant plusieurs sources contradictoires.

La multimodalité, c’est-à-dire la capacité à traiter, comprendre et générer simultanément différents types de données textuelles et multimédias a toujours été l’un des points forts de Gemini. Ces possibilités se trouvent augmentées et fluidifiées dans la version 3. Contrairement aux versions précédentes qui utilisaient des modules distincts pour chaque type de données, Gemini 3 adopte une architecture unifiée où tous les médias (texte, image, vidéo, audio et code) sont traités simultanément dans un seul modèle transformeur.

Cette approche permet une compréhension transversale : un document, une vidéo, un graphique et un jeu de données peuvent être traités comme un même objet informationnel. Par exemple, le traitement vidéo n’est plus une suite d’images, mais un flux continu permettant de mieux comprendre les relations de cause à effet. L’extraction de données depuis des PDF denses ou des schémas techniques gagne également en précision. Les taux de reconnaissance OCR (reconnaissance optique de caractères) sont impressionnants, avec une grande capacité à lire du texte manuscrit ou flou.

Pour les professionnels de la veille, cela ouvre des perspectives sur l’analyse de rapports complexes (PDF, tableaux, annexes), la surveillance de contenus audiovisuels ou institutionnels, et la corrélation entre discours, chiffres et supports visuels.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

L’IA comme outil créatif : quand l’intelligence artificielle réinvente les contenus sur les réseaux sociaux

Élodie CHARRIÈRE
Netsources no
179
publié en
2025.12
423
Acheter ce no
Tags
veille technologique | réseaux sociaux | ChatGPT | Intelligence artificielle
L’IA comme outil créatif : quand l’intelligence ... Image 1
L’IA comme outil créatif : quand l’intelligence ... Image 1

Depuis quelques années, les réseaux sociaux connaissent une nouvelle révolution. Après les filtres, les stories et les vidéos courtes, c’est désormais l’intelligence artificielle générative (IAG) qui s’impose comme le nouvel outil incontournable des créateurs de contenu. Fini le temps où elle faisait peur : aujourd’hui, elle inspire, elle assiste, et surtout, elle crée.

Les réseaux sociaux restent aujourd’hui les principales plateformes de création et de diffusion de contenus, avec des chiffres impressionnants qui montrent l’ampleur de cette production. Instagram publie chaque jour près de 100 millions de photos et vidéos, TikTok diffuse environ 34 millions de vidéos, YouTube enregistre 720 000 heures de visionnage quotidien, et Snapchat voit circuler pas moins de 5 milliards de snaps.

En 2025, la tendance est clairement au “tout-vidéo” : les formats vidéo dominent les flux, et les créateurs privilégient les formats courts et engageants pour capter l’attention d’un public toujours plus exigeant.

Dans ce contexte, l’intelligence artificielle s’impose comme un outil clé pour produire rapidement des vidéos de qualité, tester différents formats et optimiser l’engagement sur chaque plateforme.

L’idée n’est pas de remplacer le créateur, mais de faciliter le processus de fabrication, de traduire son intention et de proposer des contenus sur mesure, tout en l’aidant à gagner du temps et à booster sa créativité. Besoin d’un script pour une vidéo TikTok, d’une légende impactante pour Instagram ou d’une idée de visuel pour une campagne ? Avant, il fallait passer des heures à retoucher une photo, écrire une légende accrocheuse ou monter une vidéo, alors qu’aujourd’hui l’IA peut faire tout cela… ou presque. Elle peut fournir des pistes, proposer des angles originaux et même simuler plusieurs versions. Mais c’est toujours l’utilisateur qui choisit, adapte et décide de la version finale.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Mon premier paper : Answers in abundance, questions in scarcity

Christian VIGNE
Netsources no
179
publié en
2025.12
385
Acheter ce no
Tags
méthodologie et livrables | outils de veille | veille technologique | ChatGPT | Intelligence artificielle
Mon premier paper : Answers in abundance, questions in ... Image 1
Mon premier paper : Answers in abundance, questions in ... Image 1

Chroniques amusées sur l’intelligence artificielle par Christian Vigne

Christian Vigne (Narra), anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

Je suis archi nul en maths. C’est pas grave, j’en ai fait mon deuil à quarante et un ans. Mais cet aprem, j’ai écrit une équation et je n’en suis pas peu fier ! 

Ce qui suit est de l’ordre de l’intuition : a-t-on à faire dans le domaine de l’IA générative à une crise de la demande ? Beaucoup de modèles fondationnels, en libre-service et à moindre coût, une technologie qui se généralise notamment via l’open source, une tonne de financements, une attention média folle, etc. À tel point qu’aujourd’hui, sauf si vous avez sélectionné votre LLM de prédilection, vous pouvez avoir le vertige avant de savoir quoi demander, à qui et comment. D’où le terme Na ci-dessous qui désigne une quantité de réponses (answers) faramineuse aujourd’hui disponible. Coût et capacité de serveur mis à part, les modèles de langage sont en mesure de générer de la réponse à l’infini (trop beau ce smiley). Pourtant, dans des systèmes AI powered, l’objectif, la question, le prompt sont ultra stratégiques, pire, existentiels, et de ce fait supérieurs en importance par rapport aux résultats (c’est une hypothèse). Il y aurait donc un déséquilibre : 

article 5 fig 1

Sauf que le business model des LLMs repose sur la présence de questions qui viendront rendre utiles ces réponses. Une réponse sans question, c’est un dogme et le fanatisme. Un ChatGPT sans prompt c’est 6 ,6 milliards de dollars jetés par la fenêtre. Une distribution en masse B2C de ChatGPT a assuré à Open AI une adoption vertigineuse qui a déjà été commentée mille fois. Côté B2B, c’est plus compliqué parce qu’il faut savoir quoi demander, quelles questions poser. Et dans le business, on veut des réponses idéalement sans poser de questions, parce que c’est bien fatigant après tout et qu’on préfère tous le baby-foot et la machine à café. En somme les éditeurs de LLM sont confrontés à cette terrible équation aujourd’hui : 

image275821 opt

D’où la stratégie de distribution des éditeurs de LLM de rendre disponibles leurs modèles sur un maximum de plateformes et d’applications. D’où l’importance d’un réseau de développeurs qui viendront s’emparer de la technologie et peut-être donner naissance à des use cases qui renforceront l’utilisation et l’utilité des modèles. D’où aussi le rôle des cabinets de conseil qui vont chercher à révéler des use cases pertinents pour la gen AI. D’où les seed prompts que vous pouvez voir sur ChatGPT et autres interfaces Gen AI powered… D’où enfin les nombreux partenariats de distribution annoncés par tous les acteurs majeurs. (All I wanna do, and a- And take your money). Etc., etc., etc. En d’autres termes, pour les éditeurs de LLMs, en plus de coûts inhérents à la génération de réponse, il pourrait y avoir des coûts inhérents à la génération de questions, tant la présence de questions est essentielle pour leur survie.

image275828 opt

Or, il est fort probable que le résultat de cette équation aujourd’hui soit <1. Mais comment sortir de l’ornière ? Ah si je le savais !

  • Option 1 : on est dans une bulle spéculative : on s’est tous un peu emballés et il n’y a pas de business suffisamment robuste pour générer de tels investissements. Trop d’offre pour pas assez de demande. Consolidation, commoditization, etc.
  • Option 2 : Augmenter les prix. C’est risqué parce que l’adoption n’est pas encore ancrée à ce stade encore et le sens de l’histoire des prix va… dans l’autre sens.
  • Option 3 : Augmenter la couverture à la fois des capacités de LLMs (multimodalité, etc.) et augmenter le nombre de surfaces depuis lesquelles ces modèles sont accessibles. Stratégie de distribution classique, mais qui a certainement un coût
  • Option 4 : The product magic - trouver une question à poser c’est dur, la formuler c’est pas facile, avoir le réflexe de la soumettre à un LLM encore moins. La question est alors : quelle est l’alternative aux prompts d’un point de vue product design ? Comment transformer des prompts imparfaits, difficiles à formuler, qui donnent des résultats stochastiques en constantes cliquables ? C’est le x factor.
  • Option 5 : Les LLM participent à l’effort de questionnement (ils nous payent pour nous aider et les entreprises à prompter) et ce, jusqu’à ce que le ROI soit supérieur à 1 sans leur intervention. Jusqu’à ce que chatGPT devienne un verbe en somme. 

Ainsi, l’équation de monétisation des LLMs pourrait ressembler à ça : 

 image275838 opt

Parmi toutes les inconnues, celle qui fait sans doute le plus débat est bien entendu P, où les gains de productivité sont proportionnels à l’intelligence du système, une variable exponentielle qui se situerait entre le “perroquet stochastique”, le chat (1) de Yann Le Cun et HAL 9000. À moins qu’il suffise de mettre “Smart [placeholder]” dans vos pitches marketing, mais l’approche est peut-être trop risquée sur le long cours.

image275846 opt

Je commence à avoir des sueurs froides. Je vous laisse.

Source

  1. This AI Pioneer Thinks AI Is Dumber Than a Cat (Wall Street Jounal, Oct.11, 2024)

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

IA générative : qui contrôle qui ?

Anne-Marie LIBMANN
Netsources no
178
publié en
2025.10
1006
Acheter ce no
Tags
navigateur agentique | veille technologique | ChatGPT | Intelligence artificielle
IA générative : qui contrôle qui ? Image 1
IA générative : qui contrôle qui ? Image 1

L’intelligence artificielle ne fait plus débat, elle s’installe. Sans fracas, sans résistance visible, elle glisse dans nos flux de travail, nos navigateurs, nos processus d’écriture et d’analyse.

Paradoxalement, l’utilisateur a le sentiment de gagner en puissance et en autonomie, de piloter ou du moins « co-piloter ». Mais cette maîtrise apparente cache peut-être une délégation subtile, où l’humain croit piloter un système qui, déjà, oriente ses choix. L’IA générative n’obéit plus, elle anticipe. Elle résume, organise, « génère », discrètement. Et si, ce faisant, elle prenait le contrôle ?

Dans ce nouveau Netsources, à travers l’analyse rigoureuse du prompting, des navigateurs agentiques, de la détection de contenu généré par IA et des obstacles culturels à son adoption, émerge en toile de fond, plus que jamais, la mutation profonde du rôle de l’humain dans un environnement « de plus en plus infusé par l’IA ».

Poursuivant dans ce numéro son exploration du prompting, Véronique Mesguich le dépoussière : finies les recettes universelles, le prompt efficace est désormais une pratique contextuelle etitérative, taillée sur mesure pour chaque modèle et déjà tournée vers l’ère des agents autonomes, où la maîtrise ne réside plus dans la formule miracle, mais dans la compréhension fine du rôle, des contraintes et le dialogue continu.

Ulysse Rajim, en testant Comet, le navigateur agentique de Perplexity, montre la rupture : l’outil ne répond plus, il agit - résume, ouvre des onglets, remplit des formulaires, réserve - souvent avant même que vous n’ayez validé l’étape. C’est là que le danger surgit : en exécutant sans demander à chaque fois, l’agent devient vulnérable aux instructions malveillantes glissées dans une page ou un résultat, expose vos données personnelles et professionnelles et transforme l’assistance ultrarapide en vecteur idéal de manipulation ou piratage des données.

De l’illusion de maîtrise du prompting à l’agent qui décide avant nous, le même vertige : Élodie Charrière nous révèle que les moteurs, noyés sous l’uniformité trop parfaite des textes IA, punissent désormais la fluidité excessive et font de l’imperfection humaine le dernier gage d’authenticité.

Christian Vigne clôt le numéro sur une pirouette aussi malicieuse que profonde : tant qu’on parlera encore d’« IA et… » (IA et santé, IA et écriture… ), on avouera qu’elle reste un corps étranger, un add-on qu’on saupoudre par-dessus les processus sans jamais le fondre dedans Et si, au fond, ce petit « et » de résistance était la plus belle manière de ne pas la laisser gagner ?

Au fond, la question n’est peut-être plus de savoir si l’IA nous assiste ou nous remplace, mais jusqu’où nous acceptons de lui déléguer sans comprendre. Entre gain d’efficacité et perte de discernement, le risque n’est pas seulement de céder le contrôle, mais d’oublier ce qu’il signifie.

Le prompt, un art pour la veille stratégique et la recherche d’information (2ème partie)

Véronique MESGUICH
Netsources no
178
publié en
2025.10
1126
Acheter ce no
Tags
veille technologique | OSINT | ChatGPT | Intelligence artificielle
Le prompt, un art pour la veille stratégique et la ... Image 1
Le prompt, un art pour la veille stratégique et la ... Image 1

Dans la première partie de cet article, parue dans le numéro de juillet-août de Netsources, nous avons évoqué les fondamentaux et bonnes pratiques de prompt. Cette deuxième partie apporte un éclairage sur plusieurs notions complémentaires (méta-prompt, prompt injection…). Nous distinguerons des approches différenciées du prompt selon les principaux modèles, et conclurons par une réflexion sur les évolutions à l’ère de l’IA agentique.

Ne pas confondre méta-prompt et méga-prompt

Nous avons évoqué dans l’article précédent le principe du méga-prompt, c’est-à-dire un prompt de grande taille sous forme de texte long, structuré, comportant de nombreuses instructions, contextes, contraintes, rôles ou exemples.

Un méta-prompt est un prompt qui décrit la manière dont un modèle doit générer, améliorer ou analyser d’autres prompts. Le préfixe « méta » indique en effet qu’il s’agit d’une méta-instruction : ce méta-prompt est destiné à créer des instructions précises, sous forme de prompt.

Exemple de méta-prompt : Crée un prompt pour effectuer une veille technologique dans le domaine de l’antibiorésistance.

La pratique du méta-prompt peut constituer une aide pour générer des prompts détaillés à partir d’un objectif un peu vague : le modèle de langage va ainsi réduire « l’angoisse de la page blanche » et générer une série d’instructions précises, que l’utilisateur pourra ensuite utiliser en une seule fois ou bien par itérations. L’usage du méta-prompt inclut également des outils d’auto-amélioration de prompts existants (auto-prompting).

Il convient dans tous les cas de relire et réviser au besoin les prompts proposés : en effet, les modèles de langage (et tout particulièrement ChatGPT) ont tendance à être verbeux et redondants dans leur formulation. Un prompt généré par un méta-prompt aura tout intérêt à être allégé et affiné par l’utilisateur.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

J’ai testé Comet, le navigateur IA de Perplexity

Ulysse RAJIM
Netsources no
178
publié en
2025.10
1702
Acheter ce no
Tags
Intelligence artificielle | navigateur IA | sécurité informatique | veille technologique
J’ai testé Comet, le navigateur IA de Perplexity Image 1
J’ai testé Comet, le navigateur IA de Perplexity Image 1

En tant qu’utilisateur de longue date du navigateur Arc, l’annonce de The Browser Company de cesser son développement au profit d’un nouveau navigateur IA payant, nommé Dia, m’a laissé face à un choix. Devais-je revenir vers la familiarité d’un navigateur traditionnel comme Chrome, ou était-ce l’occasion d’adopter l’un de ces nouveaux navigateurs web dopés à l’intelligence artificielle ?

Ces navigateurs IA font actuellement la une. OpenAI vient d’annoncer Atlas, son propre navigateur IA (disponible sur Mac uniquement à ce jour). De son côté, le navigateur de Perplexity, Comet, est maintenant accessible gratuitement. Une opportunité parfaite pour tester cette nouvelle génération d’outils. Peut-il véritablement remplacer mon navigateur habituel ? Booster ma productivité au quotidien ? J’ai décidé de le découvrir par moi-même.

I. Qu’est-ce que Comet ?

Comet est le nouveau navigateur web développé par Perplexity. Initialement réservé aux abonnés de son offre «Perplexity Max» (à 200 $ par mois), il est désormais accessible gratuitement à tous les utilisateurs1. Contrairement aux navigateurs traditionnels auxquels on greffe une extension IA, Comet intègre l’intelligence artificielle au cœur même de l’expérience de navigation.

L’outil se positionne comme un concurrent à Google Chrome, avec la promesse de simplifier la navigation et d’aider l’utilisateur à accomplir ses tâches quotidiennes plus rapidement. Il intègre un assistant personnel IA qui accompagne l’utilisateur sur le web, capable d’interagir directement avec le contenu des pages visitées. Perplexity propose également une offre payante, «Comet Plus» (incluse dans les abonnements Pro et Max, ou à 5 $/mois), qui donne accès à des contenus d’actualité sélectionnés auprès de partenaires médias tels que CNN, Le Monde ou encore Le Figaro. Ces partenariats avec des éditeurs de presse ne sont pas sans rappeler la stratégie employée par OpenAI, qui a multiplié les accords similaires pour alimenter ChatGPT en contenus d’actualité premium.

II. Agents IA et sécurité : de nouvelles capacités, de nouveaux risques

Avant même de commencer ce test, une question essentielle se posait : celle de la sécurité. En tant que professionnel de l’information, je suis attentif aux risques liés aux nouveaux outils, et les navigateurs IA ne font pas exception. En août dernier, j’avais notamment pris connaissance d’un article publié par les chercheurs de Brave2 (entreprise qui développe également un navigateur web), mettant en lumière une vulnérabilité de sécurité dans Comet, nommée «Indirect Prompt Injection».

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Contenu généré par IA : les secrets des moteurs de recherche pour distinguer le vrai du faux

Élodie CHARRIERE
Netsources no
178
publié en
2025.10
992
Acheter ce no
Tags
SEO | fact checking | ChatGPT | Intelligence artificielle
Contenu généré par IA : les secrets des moteurs de ... Image 1
Contenu généré par IA : les secrets des moteurs de ... Image 1

À l’heure où l’intelligence artificielle inonde le web de contenus, les moteurs de recherche redoublent d’efforts pour protéger la fiabilité de leurs résultats. Mais quels indices leur permettent vraiment de distinguer un article authentique d’un texte généré par l’IA ?

L’intelligence artificielle bouleverse la création de contenus en ligne. Articles, vidéos, posts sur les réseaux sociaux : jamais il n’a été aussi simple de générer du texte ou des images en quelques secondes. Mais cette abondance d’informations pose une question cruciale : comment les moteurs de recherche, Google en tête, parviennent-ils à différencier le contenu authentique du contenu produit artificiellement ?

Une priorité : préserver la fiabilité de l’information

Les géants du web savent que leur crédibilité repose sur la pertinence de leurs résultats. Si un moteur de recherche inonde ses utilisateurs d’articles approximatifs ou mensongers, sa réputation s’effondre. C’est pourquoi Google, Bing ou encore Baidu investissent massivement dans des systèmes capables de détecter les textes et images générés par IA.

Leur objectif n’est pas de bannir l’IA, mais de s’assurer que le contenu réponde à des critères de qualité : exactitude, originalité, et surtout valeur ajoutée pour l’internaute.

Les signaux analysés par les algorithmes

Les moteurs de recherche n’ont jamais dévoilé entièrement leurs méthodes - secret industriel oblige. Mais les spécialistes du référencement (SEO) observent plusieurs signaux surveillés de près :

  • La cohérence et la véracité des informations : des IA peuvent inventer des faits (les fameuses hallucinations). Les moteurs les confrontent à des bases de données fiables pour vérifier leur exactitude.
  • Le style d’écriture : les textes générés par IA présentent souvent des tournures répétitives, une neutralité excessive ou un manque de nuances. On remarque une écriture souvent trop linéaire, qui suit une logique algorithmique. La construction est séquentielle et prédictive, ce qui apporte un contenu « fluide, mais monotone, sans rupture de rythme et sans relief ».
  • La structure du contenu : une mise en page artificiellement optimisée, truffée de mots-clés sans réelle profondeur, peut être sanctionnée. Un texte généré par l’IA regorge de transitions parfaites mais manque de variations naturelles. On observe également des répétitions étranges et sauts entre les idées.
  • Les sources citées : un article appuyé sur des références solides (études, chiffres, liens officiels) a plus de chances d’être valorisé qu’un contenu générique.
  • Les signaux d’engagement : temps passé sur la page, partages, commentaires… Les interactions humaines servent de thermomètre pour évaluer la pertinence réelle d’un texte.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Mais où est donc Ornicar ?

Christian VIGNE
Netsources no
178
publié en
2025.10
837
Acheter ce no
Tags
veille innovation | veille technologique | ChatGPT | Intelligence artificielle
Mais où est donc Ornicar ? Image 1
Mais où est donc Ornicar ? Image 1
Chroniques amusées sur l’intelligence artificielle par Christian Vigne

Christian Vigne (Narra Conseil), anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

Celui qui a inventé cette formule mnémotechnique pour rassembler en une seule expression les conjonctions de coordination, terme barbare de grammairien, reçoit ce jour la gratitude de celui qui s’en souvient de nombreuses années après son apprentissage initial. Sortes de mots-ponts entre deux éléments de phrase, les conjonctions de coordination associent dans la parole et l’écriture des noms : « Michel et Augustin » ; des objets : « la peste ou le choléra » ; une causalité : « il n’y a pas école donc j’ai droit aux dessins animés » ; une explication : « j’ai droit aux dessins animés car il n’y a pas d’école » ; une justification : « j’ai regardé beaucoup de dessins animés, mais pas de film » ; le désarroi : « je n’ai vu ni Sam le pompier ni les Enquêtes sauvages » ; etc., ad lib. »

Dans le domaine sémantique de l’intelligence artificielle, ces conjonctions de coordination sont omniprésentes. Une en particulier, la conjonction ET. Si vous faites un tour sur les conférences dédiées à la chose, ou si vous lisez la presse business IA, vous constaterez que très souvent l’IA est un objet distinct de son champ d’application via la fameuse conjonction de coordination. L’IA et la santé, l’IA et la finance, L’IA et l’éthique, l’IA pour le secteur public, « L’IA pour les industries critiques ou souveraines », « La logistique à l’heure de l’IA ». Le saupoudrage IA s’est répandu sur toute la surface de l’univers business. L’IA ne semble pas se marier encore tout à fait avec son objet et c’est bien dommage. Mais tout à fait naturel : il faut bien segmenter, guider les attentions vers leur domaine de prédilection, regrouper les industries et les enjeux par thèmes. Ne m’intéressé-je pas à la conjonction « IA et écriture » quand bien même ces deux termes peuvent paraître antinomiques ? 

Le recours à cette conjonction de coordination dit bien la problématique devant laquelle se trouvent nombre d’acteurs du secteur aujourd’hui à l’heure de son adoption. Objet supérieur, « fondationnel », infrastructurel, partout et nulle part, quasi-Dieu, elle échappe au contrôle du langage, elle se dérobe comme un enfant mou qui ne voudrait pas aller dans sa poussette. D’un côté l’IA est déjà présente de manière discrète, mais admise dans les algorithmes de recommandations qu’on connaît tous, les prédictions du marketing digital, les autocompletes dans la rédaction d’emails et pléthores d’autres cas d’usages invisibles à l’œil nu. L’adoption de cette IA-là est induite par l’utilisation du produit ou du service qui y a recours. Qui parmi nous s’est inquiété, voire rebellé contre la généralisation des airbags dans nos voitures ? D’un autre côté, l’IA cherche à être activée… 

… IA qu’on a mise entre les mains des utilisateurs et des entreprises, à qui on demande sa mise en route (prompts, utilisation, intégration dans les processus métiers). L’enjeu de l’adoption de cette technologie est un enjeu d’appropriation. C’est aux organisations, et donc aux hommes et femmes qui les composent, de donner des instructions aux systèmes. Mais quelles instructions et comment les fournir ? Savoir ce qu’on veut est bien plus difficile que de faire ce qu’on a l’habitude de faire. D’où les ateliers, sessions de sensibilisation qui se généralisent en entreprise. D’où les réflexions stratégiques sur la place de l’IA dans l’entreprise, plans, ownership, nouveaux rôles, déploiement, conduite du changement, etc.

Tant que l’IA demeurera un objet distinct de la chose qu’elle veut accélérer ou rendre plus productive, elle sera limitée à un rôle d’add-on agaçant, d’un discours marketing parfois opportuniste, d’une solution qui n’a pas rencontré son problème. Facile à dire, sans doute moins à faire : ne plus utiliser une conjonction de coordination, mais une quadruple conjonction d’adoption : conjonction du problème et de la solution, de la culture et de la compétence, de la donnée et de l’infrastructure, du ROI et de la vision. L’IA sera adoptée quand on n’en parlera plus. Je lance un challenge aux écrivains d’ici-bas : à la manière de George Perec dans La Disparition, rédigez un support marketing vantant les mérites de l’IA en forme de lipogramme. Inutile de vous dire quelles lettres doivent faire l’objet de la disparition ! 

Mais où est donc l’intelligence artificielle ? 

  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • ›
  • Fin