En tentant de résoudre cette problématique, Camille Alloing revient sur l’aspect interactif d’Infomous (outil permettant de générer des cartes sémantiques) et sur la manière dont il structure en « clusters sémantiques » les données des flux. Il met d’ailleurs à disposition une cartographie sémantique et interactive nourrie de près de 96 comptes d’enseignants, chercheurs, doctorants et docteurs en science de l’information et de la communication, personnalisable à cette adresse : http://infomous.com/node/59371. Il évoque toutefois les limites de l’outil, en particulier un algorithme sémantique calibré seulement pour la langue anglaise ou encore l’ignorance de l’utilisateur sur la fréquence de mise à jour des flux. Il présente également sa méthodologie de recherche, sans omettre ses limites, dont les principales étapes sont : la sélection des comptes, l’utilisation de TwitRSS.me pour générer un flux RSS et la fusion des flux en un seul grâce à l’outil RSSfusion.org qui est utilisé par la suite dans Infomous.
Facebook sera dorénavant “media-centré”. Les nouvelles fonctionnalités proposées par le réseau social sont principalement à destination des professionnels de l’information, faisant ainsi entrer Facebook en concurrence frontale avec Twitter.
L’article revient sur les récentes innovations du réseau : Instant Articles qui permet d’accéder à un article en un clic ; Signal, instrument de veille réservé aux journalistes, et le moteur de recherche renommé Search FYI. Après avoir évoqué les différentes implications de ce virage media pour les professionnels de l’information, l’auteur prévient qu’il y aura des réticences profondes du fait du choc des cultures : Facebook est avant tout un réseau social passif face à l’information. De plus, il est ici question d’informations relatives à la vie privée et non pas publiques comme c’est le cas sur Twitter.
L’article aborde la façon de trier des listes Twitter grâce à l’opérateur “list:” inscrit dans la barre de recherche. Cet opérateur permet de ne rechercher que les tweets des comptes d’une liste et, combiné à d’autres opérateurs, d’affiner la recherche, faisant ainsi gagner un temps précieux. A l’appui d’impressions écran, l’auteur présente les différentes étapes pour sa mise en application. Il explique ensuite les différents cas où son usage peut être bénéfique, entre autres surveiller des influenceurs, suivre un sujet spécifique traité par des experts, suivre une actualité précise à travers une liste de médias et de journalistes ou encore suivre une liste publique sans s’y abonner.
L’article présente une infographie qui reprend les critères essentiels que doit présenter un influenceur sur les médias sociaux selon l’éditeur de logiciel SproutSocial, http://sproutsocial.com, l’authenticité, la fréquence de publication, l’engagement, l’expertise ou encore le leadership sont par ailleurs nécessaires pour détecter un bon influenceur. Après avoir défini ce qu’était un influenceur et cité les différentes catégories qui existent sur la Toile, l’article énumère les bénéfices que peut tirer une entreprise d’une relation avec un influenceur : plus de crédibilité, accès à un large public, du contenu généré par les utilisateurs, de l’influence sociale ou encore de nouvelles opportunités et de nouveaux clients. L’article aborde ensuite deux manières d’entrer en contact tout en en citant les avantages ainsi que les inconvénients.
Il serait faux de penser que le Big Data n’est réservé qu’aux grandes structures. C’est d’ailleurs cette représentation qui freine beaucoup de petites entreprises qui hésitent à se lancer dans son utilisation. Différentes solutions à des prix abordables permettent d’accéder au Cloud. Il s’agit ensuite à l’entreprise d’exploiter au mieux les données en fonction de ses besoins. L’article cite les différents avantages que peuvent y puiser les petites entreprises afin d’être plus productives et de gagner de l’argent. Il s’agit de garder en tête que le plus important est de savoir ce que l’on recherche et d’user ensuite de sa capacité d’interprétation. Il est alors essentiel de bien définir son projet en amont afin de connaître l’attitude à adopter face aux différentes informations que l’on va obtenir.
L’article nous livre l’avis de L. Noleto, Data Scientist, G. Pataut, mathématicien, et G. Fouetillou de la startup Linkfluence sur le lien entre Big Data et sondages. Le Big Data possède l’avantage de ne rien supposer contrairement au sondage, du fait qu’il permet d’explorer des données collectées sans but prédéfini.
Il ressort toutefois que les sondages et le Big Data sont complémentaires. Le Big Data est particulièrement intéressant lorsqu’il s’agit de capter les tendances émergentes et il permet de passer d’une catégorisation par CSP à une classification par affinité, plus proche de la réalité. Cependant il faut veiller aux corrélations peu pertinentes. Les méthodes statistiques, quant à elles, facilitent le repérage d’indicateurs pertinents. Concernant le cas particulier des sondages politiques, il est important de souligner que les internautes ne constituent pas un échantillon représentatif de la population et une analyse quantitative révélerait plus des actes militants que de véritables opinions. Enfin le Big Data représente des défis techniques, intellectuels et éthiques.
L’auteur explique combien nombre d’inventions ont été le fruit du hasard et se demande ainsi comment il serait possible de cultiver l’art de trouver ce que l’on ne cherche pas. L’une des études de Sanda Erdelez, une scientifique qui tente de répondre à cette question, différencie la population en trois groupes distincts : les “droit au but” qui ont un spectre de vue restreint et qui ne tendent pas à vagabonder lors de leurs recherches d’informations ; les “découvreurs occasionnels” qui font parfois des découvertes inattendues et enfin les “champions de la sérendipité” qui découvrent des surprises partout où ils regardent.
L’auteur insiste sur le fait que les découvertes sont le produit de l’esprit humain. Il cite l’étude PatVal (enquête réalisée auprès de titulaires de brevets) des inventeurs européens, publiée en 2005, qui a mis au jour le fait que 50% des brevets sont issus d’un processus fortuit. En conclusion, l’auteur explique le bienfondé de la mise en place d’un nouveau champ interdisciplinaire qui porterait sur l’étude de la sérendipidité.