Pour fêter les 30 ans de BASES, nous vous invitons à une table-ronde intitulée « Créativité et Innovations dans les pratiques de veille et recherche d’information » qui se tiendra lors du prochain salon I-Expo le 24 mars 2016 de 11h à 11h50. La conférence sera suivie d’un cocktail sur notre stand (F47).
Au programme :
- Évolution des systèmes de bases de données depuis 30 ans (François Libmann)
- Apports et importance des revues professionnelles pour les professionnels de l’information. (intervenant à confirmer)
- Tendances et innovations en matière de veille et de recherche d'information (Anne-Marie Libmann)
- Réflexion sur l’avenir de Bases en adéquation avec les modes de recherche et de diffusion de demain (Carole Tisserand-Barthole)
I-Expo 2016, Parc des Expositions, Paris Porte de Versailles, Pavillon 4.2
Jeudi 24 mars 2016 de 11h à 11h50 - Salle : ZOLA
La guerre entre Google et la presse ne semble pas être terminée, du moins pas en Allemagne. Un groupe d’éditeurs allemands a déposé une plainte en janvier dernier contre le géant américain. Il lui reproche de ne pas respecter la loi sur le copyright des éditeurs de presse « Leistungsschutzrecht für Presseverleger » votée en 2013 en Allemagne. Cette loi prévoit de faire payer les moteurs de recherche et agrégateurs d’actualités dès lors qu’ils affichent des articles de presse (même une partie seulement) dans leurs résultats.
Jusqu’à présent, Google proposait plusieurs API autour de la recherche permettant ainsi aux développeurs d’utiliser et d’intégrer certains services de Google à d’autres sites et applications. Mais à partir du 15 février prochain, Google a annoncé la fermeture des API suivantes : recherche brevets, Google News, recherche dans les blogs, recherche vidéos, recherche images
Le « 2016 Edelman Trust Barometer », un sondage mené par la société Edelman a récemment montré que 60% des personnes sondées (33 000 personnes dans 28 pays différents) faisaient plus confiance aux informations publiées dans Google News qu’aux mêmes actualités publiées sur les sites des journaux.
L’une des principales caractéristiques de Twitter, c’est sa limitation à 140 caractères pour la publication de chaque message. Et pourtant, il se pourrait que cela change. Selon plusieurs sources, Twitter envisage en effet d’augmenter cette limitation à 10 000 caractères (autant que pour les messages privés). Cela pourrait prendre effet au premier trimestre 2016.
Autre nouveauté : Twitter vient de lancer ce qu’il appelle une « timeline améliorée ». Il s’agit d’un nouvel algorithme se basant sur l’activité récente de l’internaute sur Twitter pour déterminer des contenus qui seront mis en avant (en haut de la timeline). Le classement ne serait plus complètement chronologique. Twitter a fait savoir que cette fonctionnalité pourrait être désactivée à tout moment.
Les moteurs de recherche respectant la vie privée des utilisateurs ont la cote en ce moment. Un petit nouveau sur ce créneau vient de voir le jour en Grande-Bretagne. Il s’appelle Oscobo et utilise la technologie de Bing. Les résultats s’affichent sous forme de vignettes et les tweets répondant à la requête sont également affichés. Les résultats ne sont pas personnalisés en fonction des goûts et de l’historique de l’internaute car aucune donnée personnelle n’est conservée.
Seule la version britannique est disponible pour le moment mais une version française devrait voir le jour dans les prochains mois. https://oscobo.co.uk
Pour écouter de la musique à la demande, on pense souvent à utiliser des services comme Spotify, Deezer ou encore YouTube. Il existe également un moteur de recherche de radios Onradio (http://onrad.io) tout à fait intéressant. Il indique sur quelle radio passe à ce moment précis le morceau ou l’artiste de son choix puis se connecte à la radio sélectionnée. Il est également possible d’être alerté lorsqu’un morceau sera prochainement diffusé sur une radio. Enfin, cela permet d’obtenir des statistiques sur le nombre de fois par jour où une chanson est jouée et le nombre de radios qui l’ont diffusée.
Yandex, le moteur de recherche russe vient d’annoncer le lancement de Vladivostok, son moteur de compatibilité mobile, qui favorisera les sites qui s’affichent correctement sur la version du moteur destinée aux smartphones. Selon l’entreprise, seuls 18 % des sites russes sont compatibles mobiles pour le moment.
GRANDES TENDANCES
• « Fact-Checking » et « vérification » quel rôle et quels outils pour le veilleur ?
OUTILS DE VEILLE
• Digimind Social, un outil à la hauteur de sa réputation
• Mention, un outil de veille avec du potentiel
LA REVUE DU WEB DE FIN D’ANNÉE
ACTUALITÉS • L’actu en bref
INDEX • Année 2015
Déjà abonné ? Connectez-vous...
La vérification des faits, activité bénéficiant jusqu’à alors de peu de reconnaissance, a connu depuis quelques années une renaissance.
Les raisons de ce nouvel intérêt sont sans doute multiples, mais l’explication la plus souvent avancée est un besoin d’être rassuré face à un flux d’informations toujours plus important et toujours plus douteux.
De fait, l’un des premiers exemples récents de fact-checking « public » fut l’apparition de sites consacrés au démenti de ces légendes urbaines qui circulaient (et continuent de circuler) par e-mail. Ces sites employaient déjà des méthodes bien connues des professionnels de l’information : recherche de l’origine de l’information (bon nombre de ces histoires étaient en effet simplement traduites de l’anglais et adaptées à la France), évaluation de la source, recherche d’un démenti… quel que le soit le type de fact-checking dont on parle (car il y en a plusieurs), ces principes de vérification parallèle de la source puis de l’information en elle-même sont immuables.
Mais si chacun s’accorde sur les grands principes autant que sur l’importance de la vérification de l’information, sa mise en pratique pose un certain nombre de challenges pour les professionnels de l’information.
Dans un premier temps, la définition du concept de fact-checking peut sembler aller de soi : le fact-checking consisterait simplement en la vérification (« checking ») de faits (défini par le Larousse comme « un évènement qui se produit »).
Le problème de cette définition réside dans son caractère vague, qui la rend au final inutilisable. Tout d’abord, car elle est évidente : oui, un professionnel de l’information doit vérifier que les faits qu’ils traitent sont vrais. C’est ainsi que le New-York Times avait, en 2012, été largement critiqué par ses lecteurs pour avoir publié un article intitulé « Est-ce que les journalistes devraient faire du fact-checking ?». La question avait certes été sortie de son contexte, mais était révélatrice d’une incompréhension complète entre le journal et ses lecteurs sur la définition du fact-checking : pour ces derniers, le fact-checking était simplement le travail de base d’un journaliste, et qu’un média puisse se demander s’il devait le faire tenait de l’aberration.
Incompréhension car dans la réalité, et ce depuis près d’un siècle, le travail de fact-checking est souvent dévolu non pas aux journalistes mais à des équipes spécialisées, souvent beaucoup plus proches des départements de documentation que des reporters. Le concept de fact-checking a ainsi toujours été relativement proche des documentalistes et veilleurs.
L’autre problème de cette définition est qu’un professionnel de l’information, qu’il s’agisse d’un journaliste, d’un veilleur ou d’un documentaliste, traitera chaque jour un nombre très important de « faits », et la vérification individuelle de chaque fait n’est pas réaliste. C’est pour cette raison que, dans le cadre d’un fonctionnement quotidien, on s’intéresse plutôt à la qualité de la source, en considérant que des sources réputées comme fiables auront déjà pris la peine de vérifier les faits (ce qui peut amener à la propagation extrêmement rapide de fausses informations lorsque des sources théoriquement de haute fiabilité - par exemple des agences de presse - commettent des erreurs). Pour beaucoup de professionnels de l’information, la vérification des faits proprement dite est finalement relativement rare.
Mais alors qu’est-ce que le fact-checking ? Depuis quelques années, c’est une définition plus restrictive qui a été adoptée, centrée sur les déclarations et les affirmations. Le fact-checking se comprend ainsi aujourd’hui comme la vérification, non pas de n’importe quel fait, mais d’un fait déclaré par une personne ou une organisation importante. Le concept vise essentiellement les hommes politiques, mais s’est avec le temps étendu à toutes les déclarations de personnalités influentes ainsi que d’entreprises ou d’ONG. La notion de « fait » reste, évidemment majeure : on ne peut pas vérifier une opinion ou une prédiction.
Déjà abonné ? Connectez-vous...
Pour poursuivre notre série d’articles sur les outils de veille orientés médias sociaux nous nous intéresserons à la solution Digimind Social, lancée en octobre 2013 par l’éditeur français.
Plus globalement, Digimind, « leader en social media monitoring », est connu pour ses deux logiciels : Digimind Social et Digimind Intelligence.
A ce jour, l’entreprise compte plus de 200 clients et est présent en France comme à l’international, et ce dans plusieurs secteurs (Télécoms, Banque et Assurance, Pharmaceutique, Retail, Tourisme). Elle a récemment été sélectionnée dans le nouveau Top 100 des sociétés du Digital Content.
Déjà abonné ? Connectez-vous...
L’Usine Digitale a publié récemment un article qui s’intéresse à l’importance de l’information pour les entreprises. Selon une enquête de Pure Storage en Europe (fournisseur américain de baies de stockage de données à mémoires flash), plus de la moitié des entreprises ratent des opportunités commerciales faute de disposer à temps des bonnes informations nécessaires. Il s’agit d’une perte d’environ 30 millions d’euros par an. Pure Storage conclut en ces termes : « Big Data, big échec ». Les entreprises disposent d’un océan de données, mais la grande partie de ces données ne présente aucune valeur, car elles ne sont pas dans un format exploitable par l’utilisateur métier.
Cet article revient sur une question essentielle - est-il possible de réaliser une veille efficace sans outils professionnels ? Le test a été effectué sur des thématiques liées à la COP21 et essentiellement avec des outils gratuits. L’objectif était de pouvoir collecter le volume exceptionnel de documents en lien avec la COP21, de leur faire subir un traitement linguistique afin d’en dégager les sujets abordés, de détecter des tendances au fil du temps, et enfin de fournir un rendu graphique. Le dispositif de collecte, analyse, partage a été mis en place avec plus de 10 outils différents (de type Google actualités, uKeeper, Tropes, Gephi, Genially, …). Suite à cette expérience, la réponse à la question est clairement « non ». Si l’auteur a pu aller au bout de l’expérience, c’est parce que la veille portait sur un sujet limité dans le temps, mais il serait difficile et pratiquement impossible de tenir sur la longueur.
Dans la partie « Introduction aux humanités numériques » du blog Archinfo, on retrouve un compte-rendu de lecture du travail intitulé « Text as Data: The Promise and Pitfalls of Automatic Content Analysis Methods for Political Texts », réalisé par Justin Grimmer et Brandon M. Stewart. Le document met en évidence les différentes méthodes d’analyse automatique de textes dans le domaine des sciences politiques et parle également de « text mining ».
Parmi les méthodes évoquées, on y retrouve des méthodes de classification ou de graduation, la méthode dite dictionary method, qui est basée sur la fréquence d’apparition de mots-clés à l’intérieur d’un texte et qui permet de déterminer la tonalité globale de différents documents, en définissant à l’avance la tonalité associée à chacun des mots en fonction du contexte. L’auteur du compte-rendu s’interroge également sur l’utilisation de ces méthodes sur le Web, notamment pour les nouveaux contenus (tweets, sms, commentaires, etc).
La société Spectrum Groupe a réalisé en 2015 un benchmark des réseaux sociaux d’entreprise (RSE). Le JDN en propose déjà une synthèse en avant-première.
Pour le benchmark, les experts ont sélectionné les meilleures plateformes de gestion de l’information du marché (réseau social d’entreprise, solutions de gestion de contenu et CMS). Il s’agit de l’analyse d’environ 18 solutions de RSE (Tibbr, Talkspirit, Knowledge Plaza, Yoolink Pro, Seemy, …) sur plus de 170 critères techniques et fonctionnels. Pour chaque solution analysée, Spectrum Groupe propose un graphique sous forme de radar - disponible en détail ici : http://benchmark.spectrumgroupe.fr.
Mention est un outil de veille qui existe depuis maintenant 3 ans. La plateforme est disponible en français, anglais, espagnol et allemand et accessible sur le Web et supports Android et Ios.
L’entreprise créée par cinq français Arnaud Le Blanc, Didier Forest, Thibaud Elzière, le fondateur de fotolia.com et Quentin Nickmans, cofondateur du site e-founders, dispose désormais de bureaux à Paris et New-York et compte plus de 3 000 clients business et 400 000 utilisateurs.
La plateforme est utilisée dans plus de 100 pays mais plus de 50 % de leurs clients se trouvent aux Etats-Unis.
Nombre de sources : il n’est pas possible de donner un chiffre sur le nombre de sources car l’outil crawle en permanence de nouvelles sources.
Gratuites uniquement
Twitter, Facebook (pages publiques uniquement), Instagram, Pinterest, Flickr, You Tube, Dailymotion, Vimeo, Reddit, blogs, et forums.
43 langues
251 pays. Il n’est pas possible de sélectionner les pays lors de la création de l’alerte mais uniquement dans un second temps.
Pas pour le moment mais l’entreprise travaille sur l’intégration de sources locales en Russie et en Chine.
Déjà abonné ? Connectez-vous...
En novembre, Google a annoncé avoir amélioré son système de reconnaissance vocale de demandes effectuées sur son moteur en langage naturel, que ce soit sur mobile ou sur ordinateur. Les améliorations ne sont disponibles que pour la langue anglaise pour le moment.
Depuis le mois de novembre, il est possible de bookmarker des images directement depuis les résultats du moteur Google Images, de les classer par dossier et de les taguer pour les retrouver facilement. Cette fonctionnalité n’est malheureusement disponible qu’aux Etats-Unis pour le moment et uniquement sur mobiles et tablettes.
Du côté des services dérivés du moteur, on notera que Google Maps est désormais disponible offline, c’est à dire qu’il est possible de télécharger la carte d’une zone géographique précise et de la visualiser plus tard même sans connexion internet.
Enfin, pour clore l’année, rappelons que Google a supprimé 13 de ses produits et services en 2015 : Google TV, Google Code, Google Talk, ClientLogin protocol, Google Helpouts, Google+ Photos, PageSpeed Service, Google Catalogs, Autocomplete API, Google Moderator, Google Flu Trends, Google Hotel Finder et ADT for Eclipse.
Topsy, le moteur de recherche racheté par Apple il y a 2 ans et qui permettait d’effectuer des recherches sur Twitter (avec une antériorité remontant à 2006, date du premier tweet) et de s’abonner aux résultats par e-mail, a fermé ses portes au mois de décembre. Rappelons néanmoins que le moteur interne de Twitter permet également d’effectuer des recherches sur les archives depuis son lancement. Après avoir disparu à plusieurs reprises au cours des dernières années, cette fonctionnalité était réapparue à la fin de l’année 2014 et est depuis toujours disponible.
Depuis le mois d’octobre, Twitter a introduit une fonctionnalité de sondage/question. Il est désormais possible de publier sur son compte des questions avec un choix de réponses en cliquant sur l’icône Question sous la zone de saisie des tweets.
L’actualité de Facebook a été riche au cours des derniers mois.
Le géant américain a lancé en novembre une application appelée Notify qui permet d’être alerté sur l’actualité et plus précisément sur ses thématiques favorites. Elle est disponible sur Ios uniquement. Il suffit de sélectionner ses sources d’informations, l’application affiche ensuite en temps réel les nouvelles notifications issues de ces sources.
Concernant son moteur, Facebook a annoncé de nouvelles améliorations. C’est une bonne nouvelle car jusqu’à présent le moteur présentait très peu d’utilité tant les fonctionnalités de recherché était limitée et la pertinence des résultats médiocre. Parmi les nouveautés, une autocomplétion plus rapide lors de la saisie de la recherche, la possibilité d’identifier des conversations et informations sur un sujet donné, et également une indexation de toutes les informations et publications publiques. Lors d’une recherche sur le moteur, l’utilisateur peut maintenant visualiser les résultats par type d’information : Top, les plus récentes, personnes, photos, vidéos, pages, lieux, groupes, app et événements. Facebook cherche de plus en plus à concurrencer Google.
Enfin, Facebook a introduit Signal, un produit spécifiquement destiné et accessible aux journalistes. Il s’agit d’un outil de curation destiné à repérer les sujets les plus en vogues sur Facebook et Instagram.
Enfin, une version entreprise de Facebook devrait être lancée publiquement courant 2016. Elle sera disponible avec un modèle freemium. Cela fait déjà plusieurs années que l’entreprise travaille sur ce projet. Depuis janvier 2015, la solution en béta a été testée par 300 entreprises à travers le monde dont Lagardère Active et Century 21 en France.
Du côté de LinkedIn, l’innovation est également de mise avec le lancement de LinkedIn Lookup, une application qui permet de trouver rapidement les profils de ses collègues dans l’entreprise. A la rentrée, la société a complètement retravaillé sa messagerie pour la rapprocher d’un tchat et a lancé un social selling index pour permettre aux commerciaux de s’évaluer.
Et bonne nouvelle pour les professionnels de l’information, les fonctionnalités de recherche ont également été améliorées en intégrant de la sémantique. Par exemple, lorsqu’on effectue une recherche sur une profession, le moteur va indiquer les titres les plus couramment utilisés, les entreprises et écoles associées. Il est également possible de trouver des candidats potentiels en entrant le profil d’un de ses collaborateurs. Enfin de nouveaux filtres de résultats vont être ajoutés : liens avec l’entreprise, personne qui a déjà postulé au sein de l’entreprise, personne qui intéresse également vos concurrents, candidats intéressés par l’entreprise, etc
Pour Viadeo, cela ne va pas très fort. L’entreprise a décidé de quitter la Chine et de fermer son réseau social local Tianji et à l’autre bout du monde, l’entreprise a pris la décision de fermer son datacenter californien.
Des résultats de Flickr peuvent maintenant s’afficher dans les résultats du moteur Yahoo Images. Si l’utilisateur s’identifie sur son compte Flickr, le moteur pourra intégrer des résultats personnalisés en provenance de Flickr comme notamment ses propres photos, les images des personnes suivies par l’utilisateur ainsi que les photos les plus en vue sur Flickr.
C’est la fin d’une époque, le répertoire historique de Yahoo, qui était l’un des piliers de la recherche d’information Web dans les années 90/2000 a définitivement fermé ses portes.
Savoir quels sites et pages pointent vers un site ou une page Web donnée peut apporter des informations très intéressantes lors d’une veille ou recherche d’informations : identification de sources similaires, savoir qui reprend une information, etc. En 2011, Yahoo avait déjà supprimé son service Site Explorer qui permettait de le faire. C’est désormais Bing qui met fin à son service Link Explorer. Il ne subsistera que la possibilité de savoir quels sont les liens entrants sur son propre site Web mais pas sur celui de concurrents ou sur d’autres sites. (en utilisant l’outil Inbound Links disponible depuis la section Reports & Data).
Instagram teste actuellement la possibilité de se connecter avec plusieurs comptes en même temps. Jusqu’à présent, les personnes disposant de plusieurs comptes Instagram devaient se déconnecter d’un compte et se reconnecter sur un autre pour y poster la même ou une autre image. La société n’indique pas pour le moment si cette nouvelle fonctionnalité sera disponible pour tous et à quelle date.
Pinterest propose depuis le mois de Novembre une nouvelle fonctionnalité de recherche. Sur chaque image présente sur le réseau, il est possible de sélectionner la zone qui nous intéresse et de lancer ensuite une recherche sur cette zone (un tableau, un monument, une marque par exemple) pour identifier des images similaires.
Feedly, le lecteur RSS qui a remplacé Google Reader pour beaucoup de professionnels propose désormais des collections partagées. Les utilisateurs du compte pro peuvent ainsi partager leurs lectures (dossier avec plusieurs flux RSS ou création d’un flux RSS personnalisé) avec d’autres utilisateurs Feedly.
Le monde des moteurs de recherche ne cesse d’évoluer malgré la position toujours dominante de Google. Un nouveau moteur français a d’ailleurs vu le jour à l’automne : premsgo qui fait à la fois office de moteur de recherche à la Google et annuaire de type Pages Jaunes. Sa particularité repose dans le fait qu’il propose des informations sous forme de fiches pour chaque entreprise identifiée.
Toujours en France, le moteur Qwant a lancé un moteur spécifiquement dédié aux enfants : Qwant Junior.
Le moteur russe Yandex, quant à lui propose depuis quelques mois de « l’aléatoirité » dans ses résultats afin de donner plus de visibilité à des sites qui ne ressortent habituellement pas dans les résultats. Des pages a priori pertinentes pour la recherche mais qui n’apparaissent jamais sur la première page sont mises en avant. Le moteur analyse ensuite les réactions des internautes vis à vis de ces liens (clic ou non) et peuvt augmenter son score/ranking à l’avenir.
Plus étonnant, le lancement du moteur Good Gopher, un moteur américain qui veut « sortir de l’information véhiculée par les médias de masse et les organismes gouvernementaux ». L’index de ce moteur est exclusivement composé de médias indépendants et de blogs.
Enfin, on notera le lancement d’un moteur avec une couche sémantique qui se définit comme le plus sûr au monde et respectant la vie privée de ses utilisateurs : Hulbee (https://hulbee.com).
PANORAMA • Les outils de cartographie de l’information
DOSSIER VEILLE MEDIAS SOCIAUX • Meltwater, un grand de la surveillance médias sociaux et presse web
SOURCING
• Surf sur le Net
• Le meilleur du Web,
OUTILS DE VEILLE • Inoreader : Les fonctionnalités de veille collaborative
Déjà abonné ? Connectez-vous...
Le thème récurrent de l’«infobésité» (ce mot-valise désignant un trop plein d’informations caractéristiques des sociétés modernes) a conduit ces dernières années à la recherche de méthodes permettant de clarifier et de faciliter la compréhension de masses importantes de données.
Ces méthodes, souvent issues du milieu du management, vont de l’utilisation d’outils ou d’applications spécifiques jusqu’à des idées plus cocasses, comme celle consistant à faire payer par l’expéditeur chaque email reçu, afin de limiter le nombre de mails inutiles.
La cartographie de l’information est l’une de ces méthodes visant à faciliter l’acquisition mais aussi la dissémination de l’information. Le concept est très ancien, et même sa version moderne remonte aux années 70 : dans un article publié en 1974, Robert Horn, considéré comme l’un des fondateurs de la cartographie de l’information, définit cette dernière en une phrase : « la cartographie de l’information consiste à écrire sans paragraphes ».
Plus spécifiquement, Robert Horn décrit la cartographie de l’information comme une méthode permettant de transformer des paragraphes de textes en des blocs d’information, ou des cartes d’information. Cela doit ensuite permettre d’ « identifier, catégoriser, établir des relations et présenter graphiquement des informations ». Robert Horn définit aussi à ce moment six formats de cartes répondant à trois classifications de l’information : les concepts (un terme technique, ou une phrase assez générale), les structures (un objet physique pouvant être divisé en plusieurs parties) et les processus (des structures évoluant dans le temps).
Le succès de l’« information mapping » a été très rapide. Le développement d’Internet ayant encore augmenté la masse d’information auquel chacun est confronté, la méthode de cartographie de l’information a encore gagné en popularité ces dernières années, se déplaçant des départements managériales pour toucher les étudiants ou même le grand public. De fait, des dizaines (peut-être même des centaines) d’outils inspirés de la méthode de Robert Horn sont apparus. Depuis, néanmoins, le concept a été modifié, le versant « cartographie » prenant une importance de plus en plus grande. Dans la version initiale de Robert Horn, cartographier l’information pouvait simplement consister à diviser celle-ci en blocs, sans que ceux-ci ne soient forcément mis en relation sous forme de cartes (bien que cela fut (?) aussi possible, comme le montrent les six modèles de cartes envisagés par Robert Horn). Avec le temps, cette division en blocs linéaires a été abandonnée par la plupart des outils de cartographie de l’information, pour privilégier une répartition dans l’espace (plus « cartographique » donc).
Cette méthode permet de cartographier un très grand nombre de types d’informations. Cet article va s’intéresser à la cartographie de deux types spécifiques d’informations : les réseaux, et les idées.
La cartographie de l’information est parfaitement adaptée à l’étude des réseaux, car ceux-ci se caractérisent par « un ensemble des relations ». Or, la visualisation des relations entre différentes données est l’un des points forts des méthodes de cartographie de l’information. Les outils de cartographie des réseaux permettent donc d’illustrer, voir même de révéler, des relations entre des individus, des entreprises, des lieux… relations qui seraient sinon restées très obscures. De plus, la cartographie des réseaux s’adapte très bien à l’étude des réseaux sociaux, avec des implications opérationnelles directes : il peut être ainsi très révélateur d’obtenir la cartographie d’un compte twitter afin de savoir qui sont les personnes avec qui il interagit le plus, quels sont ses sujets de prédilections, quel type d’utilisateur est-il…Les outils de cartographie de réseaux sont moins nombreux que pour la cartographie des idées, mais ils sont aussi beaucoup plus complexes. Nous avons donc décidé de n’en présenter que deux, afin de pouvoir décrire leurs spécificités et leur fonctionnement de manière relativement détaillée.
La cartographie des idées est un concept bien plus connu et enseigné, disposant même de sa propre appellation : le Mind mapping, traduit en français par des termes aussi variés que « carte heuristique », « carte cognitive », « carte mentale » ou « carte des idées ». Bien que tous ces termes soient différents, ils retranscrivent tous une volonté de poser sur le papier un processus de réflexion. L’objectif est autant de sauvegarder ce processus pour pouvoir y accéder plus tard que de démultiplier l’efficacité d’une réflexion en permettant de visualiser clairement ses pensées. Les outils de mind mapping étant particulièrement nombreux, nous avons réalisé une sélection de ceux qui nous paraissaient les plus pertinents.
Déjà abonné ? Connectez-vous...