Sélectionner le numéro de "Netsources" à afficher

Quand l’IA redistribue les rôles

Anne-Marie LIBMANN
Netsources no
180
publié en
2026.02
1550
Acheter ce no
Tags
Intelligence artificielle | veille concurrentielle | ChatGPT | édito | professionnel de l'information | Deepfakes
Quand l’IA redistribue les rôles Image 1
Quand l’IA redistribue les rôles Image 1

Il y a six mois, produire un tableau de bord de veille concurrentielle supposait un développeur, un cahier des charges, un délai. En 2026, une documentaliste d'un grand groupe industriel le fera seule, en deux heures, avec ChatGPT et/ou Lovable. Ce déplacement, de la demande IT à l'autonomie opérationnelle, n'est pas anecdotique. Il reconfigure les rôles, les postures et, progressivement, les organisations.

Ce numéro illustre ce basculement sous quatre angles complémentaires.

Véronique Mesguich analyse NewsCore, plateforme en IA native où agents, scoring de fiabilité et clustering reconfigurent la chaîne de veille. Son regard est nuancé : elle rappelle la robustesse des plateformes historiques sans les opposer à cette nouvelle génération. Le geste change : on ne requête plus un corpus, on programme des comportements. Le veilleur devient chef d'orchestre, ce qui suppose une maîtrise accrue de l'intention et de l'interprétation. L'expertise ne disparaît pas, elle se déplace vers ce que l'IA ne fait pas : définir le besoin, formuler l'intention, interpréter ce qui remonte.

Ulysse Rajim documente un glissement complémentaire : via les Applications ChatGPT et le «vibe coding», les professionnels de l'information peuvent désormais concevoir eux-mêmes leurs outils : prototypes, dashboards, micro-solutions sur mesure. Les équipes de veille / Info-Doc ne sont plus en attente de solutions, elles les produisent. Ce changement de posture n'est pas qu'une question d'autonomie technique : il redéfinit leur place dans les organisations. Le risque, néanmoins, est réel : croire que coder avec l'IA dispense de penser l'usage.

Élodie Charrière rappelle que cette montée en capacité a un corollaire critique : l'IA brouille aussi les repères. Les images générées atteignent un réalisme qui trompe même les spécialistes. Détection, recherche inversée, analyse des incohérences visuelles deviennent des compétences de base, même si elles sont de plus en plus difficiles à exercer.

Enfin Christian Vigne pointe un décalage structurel fréquent dans les projets d'innovation : le besoin réel arrive trop tard, quand la solution est déjà construite loin des usages. Pour les professionnels de l'information, ce constat résonne directement : ramener le contexte et le sens au centre, c'est précisément leur métier. Dans un environnement où l'IA promet beaucoup mais n'explique rien, cette médiation reste stratégique.

Ce numéro ne célèbre pas l'IA. Il documente ce qu'elle redistribue, ce qu'elle exige, ce qu'elle rend possible, et ce qu'elle ne remplace pas.

NewsCore : un outil de veille emblématique du passage à l'IA native

Véronique MESGUICH
Netsources no
180
publié en
2026.02
1827
Acheter ce no
Tags
Intelligence artificielle | veille concurrentielle | outils de veille | veille innovation | plateforme de veille
NewsCore : un outil de veille emblématique du passage à ... Image 1
NewsCore : un outil de veille emblématique du passage à ... Image 1

Le passage à la veille "IA générative native" (ou GenAI-first) marque une transformation dans le monde des outils de veille. Contrairement aux solutions traditionnelles qui ont simplement « greffé » une couche d'IA ou des connecteurs, ces plateformes sont conçues dès l'origine autour de modèles de langage génératifs (LLM) capables de produire des synthèses, reformulations et analyses, et s'appuient sur le machine learning pour personnaliser et améliorer la pertinence. Il s'agit pourtant moins d'une nouvelle vague appelée à remplacer la précédente que d'une bascule du centre de gravité (interfaces conversationnelles, usages orientés production de contenus, nouvelles métriques), et d'une convergence entre nouveaux entrants et éditeurs historiques.

Examinons cette nouvelle génération à travers l'exemple de la plateforme NewsCore.

Que signifie IA native appliquée aux outils de veille ?

On parle d'IA native quand l'IA n'est pas juste une option (par exemple, un bouton ChatGPT pour résumer un article), mais le cœur du produit. Cela se traduit par plusieurs fonctionnalités liées aux étapes du processus de veille.

Tout d'abord, l'IA permet un pilotage en langage naturel grâce à la maîtrise sémantique et effectue des recherches vectorielles plutôt que d'utiliser des mots-clés. Le langage de requêtes devient transparent pour l'utilisateur et est remplacé par la programmation d'actions récurrentes (par exemple : « envoie une synthèse sur ce sujet », « détecte les signaux faibles sur le sujet X », « explique-moi les tendances et évolutions dans ce domaine », etc.).

Les outils de veille « IA natifs » proposent également un filtrage automatisé plutôt qu'un tri manuel, à travers des synthèses et fonctions de tri automatique. Concrètement, cela génère des possibilités de groupements thématiques d'articles, de priorisation des alertes ou d'explications des pics en veille e-réputation.

L'IA native porte également sur l'extraction de sens : entités, relations, causalité probable, risques/opportunités, avec narration exploitable pour décision (souvent orienté "risk & reputation intelligence", comme la startup britannique Signal AI).

Le virage vers l'IA apporte de plus de nouveaux objets de veille : la veille ne porte plus seulement sur le web, les médias ou les réseaux sociaux, mais aussi sur la visibilité dans les réponses des LLM (« comment ChatGPT / Gemini / Claude parlent-t-ils de ma marque ? »). Meltwater se positionne clairement sur ce nouveau territoire avec son produit dédié Gen AI Lens.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

OpenAI lance son « App Store » et nous vibecodons un dashboard de veille

Ulysse RAJIM
Netsources no
180
publié en
2026.02
1713
Acheter ce no
Tags
ChatGPT | intelligence économique | veille concurrentielle | veille technologique
OpenAI lance son « App Store » et nous vibecodons un ... Image 1
OpenAI lance son « App Store » et nous vibecodons un ... Image 1

Fin 2025, OpenAI lance les Applications ChatGPT, un système permettant d'intégrer des services comme Tripadvisor, Canva ou Photoshop, utilisables directement dans la conversation. Nous décryptons cette évolution et la technologie sous-jacente qui rend cela possible, puis nous passons à la pratique en testant le vibe coding avec deux Applications ChatGPT.

En octobre 2025, OpenAI annonce l'ajout des Applications dans ChatGPT. Pour ceux d'entre vous qui suivent de près l'évolution de l'outil, l'impression de déjà-vu est inévitable : en janvier 2024, OpenAI lançait GPT Store, un catalogue de chatbots personnalisés créés par la communauté.

LIRE AUSSI :

Le context engineering : orchestrer l'information pour les agents IA, Netsources N° 179 - Novembre - Decembre 2025

Test complet de ChatGPT Agent : que vaut-il pour la veille, l'analyse concurrentielle et l'audit SEO ?, Netsources N° 177 - Juillet - Août 2025

Repenser la veille à l'ère des agents IA, Netsources N° 173 - Novembre-Décembre 2024

Un GPT personnalisé permet de spécialiser ChatGPT en lui fournissant du contexte (documents, instructions, outils). On peut ainsi créer un GPT dédié à la veille concurrentielle, par exemple, capable de synthétiser des études de marché ou de suivre l'actualité d'un secteur. Pour les critiques, un GPT personnalisé n'était qu'un « prompt mis en forme », mais c'est en réalité plus que cela : un GPT peut effectuer des recherches sur le web, connecter des outils externes et exécuter du code personnalisé, ce qui en fait un bon moyen d'encapsuler des tâches récurrentes tout en développant ses compétences de context engineering. L'interface utilisateur reste toutefois celle d'une conversation textuelle classique.

Le GPT Store, bien que proposant aujourd'hui plusieurs millions de GPTs personnalisés, n'a pas généré l'engouement initialement attendu par OpenAI. Les Applications ChatGPT, lancées fin 2025, partent d'un principe différent : là où un GPT personnalisé enrichit simplement ChatGPT avec du contexte supplémentaire, une Application connecte ChatGPT à un service externe existant, permettant ainsi d'afficher des interfaces interactives, d'accéder à des données en temps réel et d'effectuer des actions directement dans la conversation.

I. Les Applications ChatGPT

Les Applications disponibles (à la date du 26 février 2026) sont pour l'instant organisées en deux catégories, Lifestyle (Booking.com, Tripadvisor, Spotify) et Productivité (Photoshop, Canva, Coursera, Notion, Slack). Lancées en octobre avec un nombre restreint de partenaires du programme pilote, elles sont maintenant ouvertes aux contributions de l'ensemble des développeurs depuis décembre.

Pour utiliser une Application, il faut d'abord l'installer depuis le menu « Applications » de ChatGPT. Une fois installée, il suffit de la mentionner dans la conversation (par exemple « @Tripadvisor, trouve-moi un hôtel à Lisbonne ») ou de la sélectionner via le menu « + » puis « Plus » en bas de la fenêtre de chat. Vous pouvez ensuite interagir avec l'application sans quitter la conversation, via des interfaces intégrées telles que des cartes, des formulaires ou encore des graphiques interactifs.

Après un lancement initialement limité aux utilisateurs non européens pour des raisons réglementaires, les Applications sont désormais accessibles en Europe, y compris pour les utilisateurs disposant d'un compte gratuit.

netsources 180 2.1

Printscreen : La page Applications de ChatGPT (chatgpt.com/apps) à la date du 26 février 2026

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Images générées par l’IA : comment les repérer (et pourquoi c’est si compliqué)

Elodie CHARRIÈRE
Netsources no
180
publié en
2026.02
1989
Acheter ce no
Tags
Intelligence artificielle | fake news | fact checking
Images générées par l’IA : comment les repérer (et pourquoi ... Image 1
Images générées par l’IA : comment les repérer (et pourquoi ... Image 1

Aujourd’hui, une photo de Donald Trump arrêté par la police peut faire le tour du monde avant que quelqu’un ne se rende compte… qu’elle n’a jamais existé. Les images générées par intelligence artificielle (IA) se multiplient sur les réseaux, parfois pour le divertissement, parfois pour désinformer. Mais une question persiste : comment savoir si une image a été créée par une IA ? Et surtout, pourquoi est-ce devenu si difficile ?

Les outils comme Midjourney, DALL·E ou Stable Diffusion ont démocratisé la création d’images bien avant le fameux Nanobanana de Google/Gemini, qui marque un tournant en combinant des capacités professionnelles à une vitesse de génération «Flash».

En quelques secondes, il suffit de taper une phrase comme “une femme en armure sous la pluie, style réaliste” pour obtenir une image bluffante et hyper réelle. Résultat : n’importe qui peut produire une photo “trop belle pour être vraie”. Et bien souvent, elle l’est. Si ces technologies sont fascinantes pour les artistes ou les créateurs de contenu, elles posent un vrai problème dans un monde où une image suffit à créer le doute : politique, désinformation, fake news… L’IA brouille les frontières entre le réel et le faux.

Des outils pour vérifier

Heureusement, des outils commencent à émerger pour nous aider à distinguer le vrai du faux :

  • Google “Recherche d’image inversée” : permet de voir si l’image existe déjà sur le web, ou sous une autre forme.
  • Hugging Face“AI or Not” : un détecteur algorithmique qui estime la probabilité d’une génération IA.
  • Truepic, Deepware, Illuminarty : des plateformes spécialisées dans la vérification d’images et de deepfakes.
  • Watermarks invisibles : certaines entreprises comme OpenAI ajoutent désormais des “signatures numériques” invisibles pour signaler une création IA.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

« Mon premier product manager sera ma 120ème recrue »

Christian VIGNE
Netsources no
180
publié en
2026.02
1577
Acheter ce no
Tags
Intelligence artificielle | marketing
« Mon premier product manager sera ma 120ème recrue » Image 1
« Mon premier product manager sera ma 120ème recrue » Image 1

Christian Vigne (Narra), anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

C’est probablement l’idée la plus éclairante que j’ai tirée de très rares conversations que j'ai eues des dirigeants de startups d’IA de pointe. J’ai d’abord été un peu déstabilisé : d’un côté, la prise de conscience que c’est tout à fait logique ; et, de l’autre, qu’à terme cela pourrait générer des tensions.

Pour ce type de startup - ou plus largement pour les entreprises technologiques du même écosystème- cela a parfaitement du sens. La technologie ouvre la voie, car l’enjeu est de convaincre une communauté de développeurs d’adopter un modèle, d’attirer des chercheurs, d’inciter des investisseurs à s’engager, de se faire remarquer grâce à des avancées techniques, et de garder une longueur d’avance sur des concurrents ayant les mêmes objectifs.

J’aimerais avoir les données pour le prouver. Il est fort probable que les profils orientés produit et marketing – un vaste groupe de personnes qui se préoccupent du marché et des utilisateurs finaux - soient souvent recrutés tardivement dans ces entreprises. 120ème, 80ème ou 10ème embauche : tout dépend de la taille de celles-ci, des financements et du nombre de profils techniques déjà recrutés.

Cela ne veut pas dire que les équipes techniques ne se préoccupent pas des besoins des clients, bien au contraire. Elles s’efforcent activement de recueillir leurs retours pour comprendre ce qui fonctionne ou non. Je me reconnais pleinement dans cette approche. Je repense à des discussions dans mon ancienne entreprise où nous – équipes produit, marketing produit et ingénierie – posions toujours la même question : « Que pensez-vous de nos produits ? » Le but était simple : obtenir des retours, une ressource précieuse pour toute équipe produit.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

IA générative : quand savoir demander devient une compétence clé

Anne-Marie LIBMANN
Netsources no
179
publié en
2025.12
1755
Acheter ce no
IA générative : quand savoir demander devient une ... Image 1
IA générative : quand savoir demander devient une ... Image 1

L’intelligence artificielle s’intègre dans nos activités quotidiennes. À l'ère de la taylorisation rampante dans la zone «col blanc» de l’entreprise, les métiers de la donnée et de la connaissance se polarisent : exécution automatisée d›un côté, compétences de cadrage vitales de l›autre.

Netsources est une boussole dans cette mutation. Nous identifions les compétences qui résistent à l’automatisation, celles qui maintiennent l’humain aux commandes. Car la vraie question n’est pas «que peut faire l’IA ?», mais « que devons-nous savoir faire pour rester pilotes ? »

Sans questions, pas de valeur

Comme Christian Vigne l’avait souligné fin 2024 dans sa chronique «Mon premier paper : Answers in abundance, questions in scarcity», que nous publions ici pour la première fois : le problème n’est pas la machine avec son offre infinie de réponses, mais la question, souvent rare et mal formulée.

Un an après, avec une adoption B2B en forte croissance et des investissements triplés, cette «crise de la demande» demeure un sujet majeur: résultats aléatoires, bulle spéculative, débats sur l'intelligence réelle des LLMs.

Monter le décor

Ulysse Rajim présente le pas suivant après le prompt engineering : le context engineering. On n’écrit plus une phrase magique, on monte un décor entier - données, outils, sécurité - pour éviter que l’agent ne s’égare, se noie dans l’info ou se contredise. Savoir structurer ce contexte : une compétence fondamentale.

Lire aussi :

Le prompt, un art pour la veille stratégique et la recherche d'information 1ère et 2eme partie (Véronique Mesguich)

Choisir devient composer

Véronique Mesguich décrypte la contre-attaque de Google qui clarifie sa stratégie en intégrant l’IA dans ses écosystèmes pros, et la riposte des concurrents par la spécialisation: du «tout-en-un» vers des domaines ciblés (codage, recherche, création). On ne choisit plus un outil unique, mais on construit un portefeuille qu’il faut sans cesse suivre et valider. Une posture clef pour bâtir des stratégies IA hybrides.

Accélérer, pas remplacer

Elodie Charrière explore comment l’IA génère scripts, légendes et visuels sur mesure pour les réseaux sociaux. Les créateurs laissent l’IA écrire, trouver des angles. Non pour être remplacés - pour aller plus vite, tester, optimiser l’engagement. La compétence vitale ? Préserver l’intention créative. L’IA exécute, l’humain dirige.

Face à l’IA, structurer un contexte, orchestrer des outils, préserver une intention : ces compétences déterminent qui garde la main. Car formuler une question pertinente échappe à la taylorisation. C’est la compétence du cadre, pas de l’exécutant.

Le context engineering : orchestrer l’information pour les agents IA

Ulysse RAJIM
Netsources no
179
publié en
2025.12
2385
Acheter ce no
Tags
knowledge management | veille technologique | ChatGPT | Intelligence artificielle
Le context engineering : orchestrer l’information pour les ... Image 1
Le context engineering : orchestrer l’information pour les ... Image 1

Le domaine de l’IA générative évolue à un rythme effréné. Début 2023, le terme « prompt engineering » entrait dans le vocabulaire courant. La presse annonçait alors des salaires à six chiffres pour les spécialistes de la formulation de requêtes aux modèles de langage1.

Deux ans plus tard, c’est un nouveau terme qui apparaît : le « context engineering ». Entre-temps, les modèles de langage ont évolué. Leurs fenêtres de contexte se sont élargies (jusqu’à un million de tokens pour Gemini). Les premiers agents IA sont apparus, capables de simuler un raisonnement à plusieurs étapes, de rechercher des informations sur le web, d’exécuter du code ou encore d’utiliser des outils.

Le prompt engineering reste primordial. Le dossier publié par Véronique Mesguich dans les deux numéros précédents de NETSOURCES (Le prompt, un art pour la veille stratégique et la recherche d’information . Netsources , no 178 & 179 ) en présente les fondamentaux : savoir structurer une requête, guider le raisonnement du modèle, fournir des exemples pour orienter les réponses2. Ces techniques constituent la base de toute interaction efficace avec un modèle de langage.

Avec le développement des agents IA, un nouveau défi émerge : la complexité et la durée des tâches traitées augmentent rapidement (selon METR, cette durée doublerait tous les sept mois3). Dans ce contexte, le prompt est un levier parmi d’autres pour orienter les résultats. Instructions système, mémoire, documents, outils : tout ce qui alimente le modèle IA constitue son « contexte ». Savoir l’assembler, le structurer, le gérer devient un enjeu à part entière.

C’est l’objet du context engineering, qui englobe le prompt engineering . Cet article en explore les fondements : définition, composantes, illustrations dans les outils du quotidien, et perspectives pour les métiers intellectuels.

Qu’est-ce que le context engineering ?

Le terme a été popularisé en juin 2025 par Tobi Lütke, CEO de Shopify, avant d’être relayé et amplifié par Andrej Karpathy ( cf. Fig.1 ), figure influente du monde de l’IA et cofondateur d’OpenAI. Dans un tweet du 25 juin 2025, ce dernier définit le context engineering comme « l’art et la science de remplir la fenêtre de contexte avec exactement les bonnes informations pour la prochaine étape ».

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Gemini 3 : l’empire Google contre-attaque… et pousse ses rivaux à se repositionner sur un marché de plus en plus segmenté

Véronique MESGUICH
Netsources no
179
publié en
2025.12
2091
Acheter ce no
Tags
veille métier | veille technologique | ChatGPT | Intelligence artificielle
Gemini 3 : l’empire Google contre-attaque… et pousse ses ... Image 1
Gemini 3 : l’empire Google contre-attaque… et pousse ses ... Image 1

Avec Gemini 3 et ses concurrents, l’IA générative entre dans une phase de consolidation stratégique

Après l’annonce de Gemini3 Pro le mois dernier, Gemini 3 Flash est devenu depuis la mi-décembre le modèle par défaut de Google. Ce nouveau modèle puissant et rapide est en effet intégré désormais dans l’application Gemini, l’API et les outils pour développeurs.

L’arrivée de Gemini 3 marque moins une rupture spectaculaire qu’un changement d’échelle et de maturité dans la compétition entre grands modèles d’IA. Elle illustre la volonté de Google de reprendre l’initiative face à OpenAI, non seulement sur le plan des performances, mais surtout sur celui de l’écosystème et des usages. Après la phase d’expérimentation de ces trois dernières années, le marché entre dans un cycle où non seulement la robustesse, mais aussi l’intégration dans des usages professionnels complexes deviennent déterminantes. La différenciation ne passe plus uniquement par la puissance brute, mais par la capacité à s’insérer dans des workflows réels. Commençons par préciser les avancées apportées par cette nouvelle version, avant d’étudier la réaction des concurrents et les recompositions à venir pour le marché de l’IA générative.

Raisonnement, multimodalité, capacités agentiques

Là où la génération précédente se concentrait sur la rapidité et l’accès multimodal fluide, Gemini 3 privilégie le raisonnement profond et les capacités agentiques. Le modèle intègre ainsi une architecture de raisonnement dynamique capable de décomposer les problèmes complexes en étapes logiques internes, à travers des chaînes de pensée. Le mode « deep think » de Gemini 3 repose sur une architecture de réflexion parallèle explorant simultanément plusieurs hypothèses avant de synthétiser une réponse finale.

L’utilisateur peut choisir (y compris dans la version gratuite), entre le mode « rapide » fournissant immédiatement une réponse, et le mode « raisonnement » résolvant des questions complexes. Le mode « Pro» étant plutôt destiné au codage et à une réflexion encore plus approfondie pour des problèmes mathématiques. Ce modèle de raisonnement est censé réduire les hallucinations grâce à sa capacité à valider l’information en comparant et en recoupant plusieurs sources contradictoires.

La multimodalité, c’est-à-dire la capacité à traiter, comprendre et générer simultanément différents types de données textuelles et multimédias a toujours été l’un des points forts de Gemini. Ces possibilités se trouvent augmentées et fluidifiées dans la version 3. Contrairement aux versions précédentes qui utilisaient des modules distincts pour chaque type de données, Gemini 3 adopte une architecture unifiée où tous les médias (texte, image, vidéo, audio et code) sont traités simultanément dans un seul modèle transformeur.

Cette approche permet une compréhension transversale : un document, une vidéo, un graphique et un jeu de données peuvent être traités comme un même objet informationnel. Par exemple, le traitement vidéo n’est plus une suite d’images, mais un flux continu permettant de mieux comprendre les relations de cause à effet. L’extraction de données depuis des PDF denses ou des schémas techniques gagne également en précision. Les taux de reconnaissance OCR (reconnaissance optique de caractères) sont impressionnants, avec une grande capacité à lire du texte manuscrit ou flou.

Pour les professionnels de la veille, cela ouvre des perspectives sur l’analyse de rapports complexes (PDF, tableaux, annexes), la surveillance de contenus audiovisuels ou institutionnels, et la corrélation entre discours, chiffres et supports visuels.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

L’IA comme outil créatif : quand l’intelligence artificielle réinvente les contenus sur les réseaux sociaux

Élodie CHARRIÈRE
Netsources no
179
publié en
2025.12
2148
Acheter ce no
Tags
veille technologique | réseaux sociaux | ChatGPT | Intelligence artificielle
L’IA comme outil créatif : quand l’intelligence ... Image 1
L’IA comme outil créatif : quand l’intelligence ... Image 1

Depuis quelques années, les réseaux sociaux connaissent une nouvelle révolution. Après les filtres, les stories et les vidéos courtes, c’est désormais l’intelligence artificielle générative (IAG) qui s’impose comme le nouvel outil incontournable des créateurs de contenu. Fini le temps où elle faisait peur : aujourd’hui, elle inspire, elle assiste, et surtout, elle crée.

Les réseaux sociaux restent aujourd’hui les principales plateformes de création et de diffusion de contenus, avec des chiffres impressionnants qui montrent l’ampleur de cette production. Instagram publie chaque jour près de 100 millions de photos et vidéos, TikTok diffuse environ 34 millions de vidéos, YouTube enregistre 720 000 heures de visionnage quotidien, et Snapchat voit circuler pas moins de 5 milliards de snaps.

En 2025, la tendance est clairement au “tout-vidéo” : les formats vidéo dominent les flux, et les créateurs privilégient les formats courts et engageants pour capter l’attention d’un public toujours plus exigeant.

Dans ce contexte, l’intelligence artificielle s’impose comme un outil clé pour produire rapidement des vidéos de qualité, tester différents formats et optimiser l’engagement sur chaque plateforme.

L’idée n’est pas de remplacer le créateur, mais de faciliter le processus de fabrication, de traduire son intention et de proposer des contenus sur mesure, tout en l’aidant à gagner du temps et à booster sa créativité. Besoin d’un script pour une vidéo TikTok, d’une légende impactante pour Instagram ou d’une idée de visuel pour une campagne ? Avant, il fallait passer des heures à retoucher une photo, écrire une légende accrocheuse ou monter une vidéo, alors qu’aujourd’hui l’IA peut faire tout cela… ou presque. Elle peut fournir des pistes, proposer des angles originaux et même simuler plusieurs versions. Mais c’est toujours l’utilisateur qui choisit, adapte et décide de la version finale.

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte

Mon premier paper : Answers in abundance, questions in scarcity

Christian VIGNE
Netsources no
179
publié en
2025.12
2087
Acheter ce no
Tags
méthodologie et livrables | outils de veille | veille technologique | ChatGPT | Intelligence artificielle
Mon premier paper : Answers in abundance, questions in ... Image 1
Mon premier paper : Answers in abundance, questions in ... Image 1

Chroniques amusées sur l’intelligence artificielle par Christian Vigne

Christian Vigne (Narra), anciennement Product Manager chez Google, s’amuse dans ses chroniques à explorer l’impact de l’IA sur nos vies. Il est amené à conseiller les entreprises sur leurs stratégies IA (cadrage, priorisation, formation, conduite du changement).

Je suis archi nul en maths. C’est pas grave, j’en ai fait mon deuil à quarante et un ans. Mais cet aprem, j’ai écrit une équation et je n’en suis pas peu fier ! 

Ce qui suit est de l’ordre de l’intuition : a-t-on à faire dans le domaine de l’IA générative à une crise de la demande ? Beaucoup de modèles fondationnels, en libre-service et à moindre coût, une technologie qui se généralise notamment via l’open source, une tonne de financements, une attention média folle, etc. À tel point qu’aujourd’hui, sauf si vous avez sélectionné votre LLM de prédilection, vous pouvez avoir le vertige avant de savoir quoi demander, à qui et comment. D’où le terme Na ci-dessous qui désigne une quantité de réponses (answers) faramineuse aujourd’hui disponible. Coût et capacité de serveur mis à part, les modèles de langage sont en mesure de générer de la réponse à l’infini (trop beau ce smiley). Pourtant, dans des systèmes AI powered, l’objectif, la question, le prompt sont ultra stratégiques, pire, existentiels, et de ce fait supérieurs en importance par rapport aux résultats (c’est une hypothèse). Il y aurait donc un déséquilibre : 

article 5 fig 1

Sauf que le business model des LLMs repose sur la présence de questions qui viendront rendre utiles ces réponses. Une réponse sans question, c’est un dogme et le fanatisme. Un ChatGPT sans prompt c’est 6 ,6 milliards de dollars jetés par la fenêtre. Une distribution en masse B2C de ChatGPT a assuré à Open AI une adoption vertigineuse qui a déjà été commentée mille fois. Côté B2B, c’est plus compliqué parce qu’il faut savoir quoi demander, quelles questions poser. Et dans le business, on veut des réponses idéalement sans poser de questions, parce que c’est bien fatigant après tout et qu’on préfère tous le baby-foot et la machine à café. En somme les éditeurs de LLM sont confrontés à cette terrible équation aujourd’hui : 

image275821 opt

D’où la stratégie de distribution des éditeurs de LLM de rendre disponibles leurs modèles sur un maximum de plateformes et d’applications. D’où l’importance d’un réseau de développeurs qui viendront s’emparer de la technologie et peut-être donner naissance à des use cases qui renforceront l’utilisation et l’utilité des modèles. D’où aussi le rôle des cabinets de conseil qui vont chercher à révéler des use cases pertinents pour la gen AI. D’où les seed prompts que vous pouvez voir sur ChatGPT et autres interfaces Gen AI powered… D’où enfin les nombreux partenariats de distribution annoncés par tous les acteurs majeurs. (All I wanna do, and a- And take your money). Etc., etc., etc. En d’autres termes, pour les éditeurs de LLMs, en plus de coûts inhérents à la génération de réponse, il pourrait y avoir des coûts inhérents à la génération de questions, tant la présence de questions est essentielle pour leur survie.

image275828 opt

Or, il est fort probable que le résultat de cette équation aujourd’hui soit <1. Mais comment sortir de l’ornière ? Ah si je le savais !

  • Option 1 : on est dans une bulle spéculative : on s’est tous un peu emballés et il n’y a pas de business suffisamment robuste pour générer de tels investissements. Trop d’offre pour pas assez de demande. Consolidation, commoditization, etc.
  • Option 2 : Augmenter les prix. C’est risqué parce que l’adoption n’est pas encore ancrée à ce stade encore et le sens de l’histoire des prix va… dans l’autre sens.
  • Option 3 : Augmenter la couverture à la fois des capacités de LLMs (multimodalité, etc.) et augmenter le nombre de surfaces depuis lesquelles ces modèles sont accessibles. Stratégie de distribution classique, mais qui a certainement un coût
  • Option 4 : The product magic - trouver une question à poser c’est dur, la formuler c’est pas facile, avoir le réflexe de la soumettre à un LLM encore moins. La question est alors : quelle est l’alternative aux prompts d’un point de vue product design ? Comment transformer des prompts imparfaits, difficiles à formuler, qui donnent des résultats stochastiques en constantes cliquables ? C’est le x factor.
  • Option 5 : Les LLM participent à l’effort de questionnement (ils nous payent pour nous aider et les entreprises à prompter) et ce, jusqu’à ce que le ROI soit supérieur à 1 sans leur intervention. Jusqu’à ce que chatGPT devienne un verbe en somme. 

Ainsi, l’équation de monétisation des LLMs pourrait ressembler à ça : 

 image275838 opt

Parmi toutes les inconnues, celle qui fait sans doute le plus débat est bien entendu P, où les gains de productivité sont proportionnels à l’intelligence du système, une variable exponentielle qui se situerait entre le “perroquet stochastique”, le chat (1) de Yann Le Cun et HAL 9000. À moins qu’il suffise de mettre “Smart [placeholder]” dans vos pitches marketing, mais l’approche est peut-être trop risquée sur le long cours.

image275846 opt

Je commence à avoir des sueurs froides. Je vous laisse.

Source

  1. This AI Pioneer Thinks AI Is Dumber Than a Cat (Wall Street Jounal, Oct.11, 2024)

tags

Déjà abonné ? Connectez-vous...

Connexion

Connexion

Votre identifiant

ENTER YOUR PASSWORD

Forgot Password or Username
Créer un compte
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • ›
  • Fin