Catégories
Conférence Digital Marketing

Social Drink-Up #5 : Intimité client

Social Drink-UpComment une grande marque, traitant avec des millions de clients, peut-elle être intime avec chacun d’eux ? Pour répondre à cette épineuse question, Adobe et Kontest ont proposé à deux intervenants « artisans de l’art » de partager leur vision et expérience, lors de la cinquième édition des Social Drink-Up.

En guise de préambule, Christophe Marée (@ChMaree), Directeur Digital Marketing, Adobe, a présenté quelques chiffres. Deux chiffres en particulier ont attiré mon attention :

  • 7% des destinataires d’une information (communiquée par une entreprise) pensent qu’elle est pertinente
  • 57% des professionnels du marketing pensent que la personnalisation est clé, en privilégiant l’email en 2013 et le mobile en 2014

Le rapprochement de ces deux chiffres montre à quel point la personnalisation est devenue essentielle : apporter au client l’information pertinente (par rapport à son besoin) au bon moment et sur le bon support.

Catherine Barba (@cathbarba) a ensuite pris le relais avec fougue, jalonnant son propos d’une multitude d’exemples de relation client « intime », notamment américains. Notant que « la transition numérique change radicalement nos métiers », Catherine Barba questionne l’auditoire : arrivez-vous à dire la promesse relationnelle de votre entreprise en une seule phrase ? Qu’est-ce que l’intimité à chaque étape du parcours client ? Connaissez-vous un exemple de marque qui vous accueille bien sur son site e-commerce ? Un exemple de marque qui vous accueille bien en point de vente après une commande en ligne ? Au travers de son discours, on sent bien que « L’intimité client, c’est d’abord une attention portée au client, quel que soit le canal ».

Romain Labourée (@rom1_lab), Digital Transformation Manager, chez BNP Personal Finance, a ensuite montré comment une banque traite l’intimité de sa relation avec ses clients. Une intimité qui passe d’abord par la désilotisation (néologisme que je propose, assez moche j’en conviens, pour signifier « la suppression des silos dans l’organisation »). Intimité aussi au travers des canaux digitaux, devenus cruciaux dans certains pays où le digital représente jusqu’à 50% de l’acquisition client.

Pour Romain Labourée, l’intimité client repose sur quatre piliers : connaissance, engagement, sympathie, confiance. Une connaissance alimentée grâce aux formulaires remplis par les clients lors d’une demande de crédit, permettant de collecter jusqu’à 50 informations ! Quantité impressionnante, parfois contre-productive, et obligeant à un certain lâcher-prise comme par exemple en Espagne pour un service en ligne de souscription d’un crédit développé pour Apple.

Quelles KPI suivre pour mesurer l’efficacité de l’intimité client ? Pour répondre à cette question, BNP Personal Finance a mis en place un baromètre sur une dizaine de pays, annuel avec mise à jour à mi année, mesurant satisfaction et expérience client sur tous les points de contacts. Question corolaire : un baromètre annuel est-il suffisant à l’ère du temps-réel ?

A la lumière des débats, on peut se demander comment le digital contribue à l’intimité client sur tous les canaux. Comment la connaissance acquise sur les canaux automatisés (sous-entendu : sur lesquels les clients laissent des traces) peut aider les vendeurs et chargés de clientèle dans leur métier ?

Au final on peut rêver d’une solution permettant de gérer l’intimité, exploitant les données fournies volontairement par le client et celles collectées à son insu, les données personnelles, comportementales, sociales. Solution couplée à une formation des agents en contact avec les clients et adaptée à leur expérience. L’ensemble devant s’adapter en permanence à l’environnement règlementaire, à la jurisprudence et surtout aux besoins des consommateurs. Un rêve bientôt réalité ?

Cette 5e session, toujours aussi conviviale, a été l’occasion du lancement du site socialdrinkup.com où le lecteur pourra retrouver les contenus échangés en séance. Contenus à lire en parcourant la sélection de Tweets que je propose sur Storify. Comme si vous y étiez !

Catégories
Digital

Quelqu’un peut-il dire à Criteo que j’ai acheté mon aspirateur ?

Criteo est sans aucun doute un joyau de l’économie numérique. Une perle française à visibilité mondiale, introduite au Nasdaq le 30 octobre 2013. La cotation dans les jours qui ont suivi l’introduction donne le vertige, valorisant l’entreprise à plus de 2 milliards de dollars. Enorme !

En tant que Français, je suis évidemment très heureux de cette réussite. En tant que consommateur, j’espère que les fonds levés sur la bourse américaine seront investis pour améliorer les algorithmes de ce spécialiste du display à la performance.

En effet, n’est-il pas agaçant de voir s’afficher à longueur de visites sur le Web, des publicités pour un produit déjà acheté ? J’en ai récemment fait l’expérience après avoir acheté un aspirateur. Agacé par ce matraquage, je me suis mis à ignorer l’affichage qui finalement, ne me concernait plus. A la rigueur, j’aurais compris qu’on me propose un produit complémentaire, à la mode Amazon « ceux qui ont acheté cet aspirateur ont aussi aimé [mettre ici le nom d’un produit] ». Ou encore en exploitant mon graphe social, du genre « [sélection de mes amis Facebook] ont aussi le même aspirateur qu’ils ont complété avec [mettre ici le nom d’un produit] ».

Seulement voilà, il semble que Criteo ne soit pas informé de l’achat d’un produit. Achat qui peut avoir lieu en ligne ou n’importe où ailleurs. Et si Criteo proposait un bouton « j’ai déjà acheté ce produit » ?

Criteo sur Boulevard Voltaire
Exemple d’un site (ici Boulevard Voltaire) affichant plusieurs publicités de produits déjà achetés, qui plus est, chez les annonceurs cités !
Catégories
Conférence Digital Réseaux sociaux

#VTalks n°1 – Les enjeux de la relation clients à l’heure de l’hyperdigitalisation

Voyages-SNCF.com innove en proposant son premier hangout sur le thème de l’hyperdigitalisation de la relation client. Un sujet passionnant et un format engageant. La relation client digitale bouge extrêmement vite. D’où l’intérêt de s’inspirer des retours d’expérience opérationnelle de grandes marques telles que Voyages-SNCF.com et le PMU, et de prendre du recul avec l’AFRC. Hangout à retrouver sur Google+.

Un hangout animé par Aurelia Le Baudour (@Aurelia_LBdr) et réunissant trois intervenants :

  • Julien Nicolas (@JUL_NI), Directeur de la relation client, Voyages-SNCF.com
  • Eric Dadian, Président de l’AFRC
  • Chloé Beauvallet, Directrice Service Client, PMU

VTalks

Le hangout dure une petite heure et mérite l’attention des spécialistes de la relation client, mais aussi des responsables de communication et plus généralement des dirigeants d’entreprises qui s’interrogent sur les opportunités et les risques de la relation client digitale.

Les intervenants ont notamment insisté sur la nécessité de mettre en avant les collaborateurs en facial client, et de revaloriser le métier de chargé de clientèle.

Sur la question d’agir au nom de la marque ou en tant qu’individu, Julien Nicolas note que le client n’est pas dupe, la marque restant une marque, il est inutile de la transformer en individu. En revanche, elle doit rester accessible au travers de ses collaborateurs. De son côté, Chloé Beauvallet note une symétrie des attentions : si le client est important, le chargé de clientèle est important. Eric Dadian notant que si une entreprise donne de l’autonomie au collaborateur, la marque a tout à y gagner.

En deuxième partie du hangout, les intervenants traitent du thème clé de la confiance. Confiance dans l’humain, dans le collaborateur, ce qui repose plus sur la transparence, l’honnêteté, que sur l’infaillibilité des scripts. Confiance entretenue en associant le consommateur à l’innovation, facteur de développement de business. Confiance amplifiée au travers d’une boucle rétroactive vers les clients qui se sont exprimés, comme par exemple au travers de la Love Team chez Voyages-SNCF.com. Confiance, transparence, respect des engagements, en particulier face à l’utilisation des données générées.

Plus généralement, Eric Dadian note que 20% de l’opinion peut être changée avec une publicité, contre 80% avec les médias sociaux. Chloé Beauvallet observant que la satisfaction des clients crée le business. Le service client est ainsi devenu un investissement générateur de valeur et non plus un centre de coûts.

Les intervenants se sont prêtés à l’identification des 3 critères fondamentaux d’une relation client digitalisée, de quoi inspirer les marques qui souhaitent s’engager dans cette voie :

  • Empathie, sincérité et co-construction pour Chloé Beauvallet
  • Ecoute, émotion et transparence pour Eric Dadian
  • Respect des promesses, écoute et présence rassurante pour Julien Nicolas

Conclusion sur le fond

Pour Julien Nicolas, le digital est là, tout le temps, mais à un moment on a besoin d’une interaction humaine.

Chloé Beauvallet insiste sur la cohérence de la marque, sans schizophrénie entre humain et digital.

Eric Dadian conclue en citant l’exemple d’une marque qui centralise les remontées clients, en dépassant la segmentation de canaux et la segmentation de clients, au travers de son Citizen Interaction Center. Parfait exemple de l’entreprise digitale, et donc fortement décloisonnée.

Conclusion sur la forme

La qualité des interventions et le dynamisme du format méritait une audience attentive. J’ai eu la chance de pouvoir assister en direct au hangout, et même de participer en posant mes questions via Twitter, et de voir les intervenants y répondre (voir à partir de la 23e minute), faisant de moi un participant actif, et non plus seulement un auditeur. Cependant, j’ai été surpris a posteriori de voir très peu de tweets publiés sur le hashtag #VTalks. Les organisateurs pourront recruter en amont plus de spectateurs pour la prochaine fois.

Je vous invite chaudement à visualiser le podcast de ce hangout et surtout à participer au prochain #VTalks. Le format mérite vraiment votre attention : deux marques (Voyages-SNCF.com et le PMU), discutant ensemble publiquement d’une thématique, sous le regard d’une association professionnelle (AFRC) et engageant le dialogue avec l’auditeur, voilà qui est enthousiasmant ! Une belle idée de communication d’entreprise, accessible de n’importe où, plus dynamique qu’une conférence traditionnelle et surtout beaucoup plus interactive avec le public. Excellent !

Catégories
Digital Innovation

NameTag, l’application qui vous reconnait

NameTagAvant même sa sortie, l’application NameTag fait déjà parler d’elle. Et pour cause ! Elle permettra à son utilisateur d’identifier une personne simplement à partir de son visage. Il suffira de pointer ses Google Glasses ou son smartphone devant le visage d’une personne, pour savoir de qui il s’agit, et même de savoir si cette personne a été condamnée.

Les logiciels de reconnaissance faciale sont déjà utilisés pour des raisons de sécurité. Inconsciemment, on peut même se sentir rassuré de savoir que grâce à eux, les agents de sécurité identifient rapidement les criminels de tous poils. Sommes-nous toujours aussi rassurés de savoir que n’importe qui pourra, en quelques secondes, sans même connaître notre nom, voir s’afficher dans son smartphone une véritable fiche signalétique sur nous-mêmes ?

Qui plus est, NameTag semble choisir l’option de la désinscription volontaire (« opt-out ») pour toute personne qui refuserait d’être identifiée par son application. En clair, chacun devra faire une démarche pour que l’application n’affiche aucune information le concernant. Informations qui sont accessibles sur Internet, NameTag ne faisant que les réunir après avoir reconnu un visage. Informations que tout un chacun doit plus que jamais contrôler. Au fait, avez-vous tapé votre nom sur votre moteur de recherche préféré récemment ?

La démonstration donne une petite idée de ce que NameTag permettra de faire :

Catégories
Conférence Digital E-administration

Assises du numérique 2013

Assises du Numérique 2013Les Assises du numérique présentaient pour leur 6e année, un agenda d’une grande richesse et des intervenants de haut niveau pour faire le point sur le numérique dans notre pays. J’ai tenté de restituer ici les éléments qui m’ont marqué de cette journée à laquelle j’ai eu le privilège d’assister. Une journée dont je garde à froid un souvenir mitigé, à la fois heureux de voir le numérique traité à bon niveau, et en même temps triste de constater le retard que la France ne cesse de prendre sur ce sujet.

Précaution de lecture : je restitue ici les points qui ont attiré mon attention en les commentant. Il s’agit plus de notes commentées que d’un véritable compte-rendu. Attention donc à ne pas considérer que tout ce que j’écrits a été prononcé par les intervenants. Certains propos sont des réflexions à chaud de ma part.

Petit préambule sur la forme de la journée : d’emblée, ça commence mal. J’arrive à trouver le hashtag (ou « mot-dièse » pour les puristes) en consultant Twitter. Quelle surprise de découvrir un underscore (« souligné bas, touche 8 sur le clavier » pour les puristes) dans ce qui doit servir de marqueur aux tweets (« courts messages publics » pour les puristes). Je sens confusément que la journée ne sera pas dense en échanges directs avec les participants et plus généralement tous ceux qui suivent cet événement. Surprise aussi en arrivant dans la salle : le programme ne mentionne ni le fameux hashtag, ni de code Wifi. Même mon smartphone ne parvient pas à capter la 3G ! Me voilà enfermé dans une salle pour la journée, condamné à écouter les intervenants sans pouvoir m’exprimer (sauf si l’on me donne le micro) et surtout sans pouvoir faire rayonner la conférence en dehors de la salle, au moment où les conférenciers s’expriment. En d’autres termes, les Assises du numérique portent bien leur nom : elles proposent de s’asseoir sur le numérique, ignorant les usages désormais courants dans les conférences de ce type. Le choc ! Pierre-Olivier Pulveric attaque la journée en expliquant que le thème de la journée est les années 20-30 ! Années où le cinéma émergeait. Mon dieu, c’est peut-être pire que ce que je pouvais craindre en arrivant !

Discours d’Arnaud Montebourg

Arnaud Montebourg explique à l’assistance avec sa verve habituelle, que le numérique bouleverse en profondeur toutes les industries : culture, hôtellerie, éducation, etc. Mais aussi que « Orange, numéro 8 mondial, est trop petit, tout ça à cause de l’Europe qui a provoqué la balkanisation des opérateurs télécom ». Au terme de son intervention, il me semble évident que le numérique ne peut pas souffrir le bal des politiques. Je peux comprendre que le Ministre du Redressement Productif déplore la position d’Orange au niveau mondial. Je comprends moins qu’il reproche à l’Europe d’en être la cause, dans un pays qui a libéré la concurrence des opérateurs télécom. Les politiques en charge du développement du numérique dans notre pays doivent absolument s’unir dans l’intérêt national.

Parmi les 34 plans industriels qu’il a lancés, Arnaud Montebourg précise que 10 sont consacrés au numérique. Trois exemples cités par le ministre : objets connectés, big data, cloud computing. J’entends le discours volontariste, puis au fil des mots, je ressens la lassitude de l’énumération. Quelle est la vision du numérique pour notre pays ? Puisque la journée a commencé en parlant des années 20-30, je me souviens des grands projets du Général de Gaulle dans les années 60 qui voulait par exemple l’indépendance énergétique pour la France, ou encore l’autonomie dans sa politique étrangère. Voulons-nous par exemple maîtriser notre avenir numérique en disposant de nos propres infrastructures, de nos capacités à les faire évoluer ? Voulons-nous développer le rayonnement de la France par-delà les frontière en nous appuyant sur le numérique ? Le ministre ne dit rien de tout cela. En revanche, il explique qu’il a présenté ses 34 plans au MIT, sans préciser l’accueil qu’il a reçu. Pire, je n’ai rien entendu (aurais-je mal écouté ?) sur la contribution du numérique à l’emploi, sur les filières de formation à mettre en place, sur l’aménagement du territoire rénové avec le numérique, sur le financement de cette filière, etc. Bref, je suis resté sur ma faim et ne me sens pas rassuré ni enthousiaste sur l’ambition que notre pays se donne sur le numérique, au travers des propos du ministre.

Table ronde sur les usages animée par Olivier Ezratty (@olivez)

Quatre intervenants pour cette table ronde, intervenants présentés rapidement par Olivier Ezratty (je renvois le lecteur au site de la conférence pour une présentation plus détaillée) :

  • Laurence Allard, ethnologue qui s’intéresse au foyer, socio-ethnographe des usages
  • Philippe Portelli, s’intéresse à l’éducation
  • Isabelle Flory, s’intéresse à la transformation des entreprises
  • Benoit Thieulin, président du CNN, poil à gratter du gouvernement sur le numérique

Les intervenants commencent d’abord par rappeler l’enjeu de se départir d’une vision générationnelle et d’un rythme effréné du numérique. Le mythe de la génération Y a pourtant la vie dure. Quant au rythme d’innovation, il s’impose par la rapidité d’adoption des usages.

Au sein des entreprises, l’adoption du numérique peut être favorisée par des méthodes de management. On constate que le DSI n’a désormais plus le monopole du numérique. La transmission du savoir change le rapport au pouvoir, et pourtant les hiérarchies perdurent.

Au-delà de l’adoption d’usages, du développement de technologies, le numérique est surtout porteur de valeurs. La révolution numérique en cours est probablement aussi importante que celle du passage de l’oral à l’écrit (voir à ce sujet l’excellent Petite Poucette de Michel Serres).

Table ronde sur les Fab Lab animée par Pascal Minguet

Deux intervenants pour cette table ronde :

  • Daniel Kaplan, DG de la FING
  • Jean-Michel Molenaar, directeur du Fab Lab de Grenoble

Les Fab Lab forment un réseau mondial de fabrication numérique, ouverts à tout le monde, dans lequel on peut tout fabriquer.

On considère qu’il y a une vingtaine de Fab Lab ouverts en France, 156 projets qui ont répondu à l’appel à projet lancé par Fleur Pellerin. A l’échelle mondiale, on reproche à la France d’être trop peu interconnectée.

Cette table ronde m’a inspiré plusieurs questions. Comment les Fab Lab sont-ils financés ? Sont-ils des centres d’innovation ? Comment les industriels peuvent-ils développer à grande échelle les produits fabriqués dans un Fab Lab ? L’exemple des prothèses de bras est à ce titre impressionnant : chaque prothèse étant unique, aucun industriel n’a pu être trouvé et les Fab Lab sont là pour prendre le relais.

Table ronde sur le Cloud Computing animée Frédéric Simottel

Cinq intervenants :

  • Patrick Starck, Président de CloudWatt
  • Philippe Tavernier, PDG de Numergy
  • Hervé Rolland, DG Délégué d’IBM France
  • Emmanuel Mouquet, VP et DG de Dell France
  • Daniel Coetsier, VP Global Services Partners de EMC

Lors de cette table ronde, le cloud computing est présenté comme un facilitateur de la transformation numérique des entreprises. Un moyen de tester de nouveaux services, de nouveaux usages, sans changer fondamentalement la culture de l’entreprise. Sur le plan du financement des entreprises, il est à noter que les startups utilisent le cloud pour éviter de mobiliser des capitaux pour son informatique.

Les intervenants ont rappelé les trois grandes priorités  d’un chef d’entreprise : la Top line (compétitivité), la bottom line (performance opérationnelle), le risque (concurrence). Le cloud computing s’adresse à chacune de ces trois priorités. Il s’agit donc moins de « computing » au sens informatique technique du terme, mais bien de répondre aux grands enjeux de l’entreprise, au service de son développement.

En France, les discussions sur le cloud commencent par « comment réduire les coûts ? », dans les pays anglo-saxons elles commencent par « comment créer de la valeur ? ». Question de philosophie, de culture, d’acceptation du droit à l’erreur, de l’essai. Dans un pays sclérosé par des rigidités sociales et fiscales, comment changer en profondeur nos réflexes ?

Exemple d’une PME de 170 millions de chiffre d’affaires en province, pour accompagner sa croissance externe qui veut se concentrer sur le développement de son business, et non sur les migrations informatiques.

80 à 90% des budgets informatiques des clients de Dell sont consacrés à la maintenance. Seuls 10% des budgets informatiques sont consacrés à la maintenance. Le cloud computing vise justement à rééquilibrer l’équation budgétaire informatique au service de la création de valeur.

Exemple de booking.com (qui s’appuie sûrement sur une coud, je n’ai pas vérifié) qui a bouleversé le marché de l’hôtellerie en grignotant les marges des hôteliers. Une mutation en profondeur d’une industrie, accélérée par l’utilisation d’une infrastructure informatique disponible dans le cloud. A grande échelle, c’est une part importante de la valeur de l’industrie hôtelière qui est captée par booking.com, acteur qui opère en dehors de notre territoire… et donc ne contribue pas autant que les acteurs locaux aux finances publiques au travers de l’impôt.

Pour le DSI, le cloud computing est une opportunité de changer son rapport avec ses clients internes, en se positionnant sur des problématiques métier. Un changement de posture qui nécessitera de revoir l’organisation des priorités du DSI et s’accompagnent d’une réorganisation de ses équipes et des compétences qui composent sa direction. Une mutation du rôle du DSI vers un rôle de CDO (Chief Digital Officer).

Au terme de cette table ronde, on a clairement le sentiment que le cloud computing peut convaincre le dirigeant d’entreprise, mais sera craint par le DSI qui le verra comme un concurrent amené à réduire ses budgets et ses équipes. A grande échelle, une adoption massive du cloud computing pose la question de la conversion des milliers d’informaticiens embauchés par les entreprises. Un fort enjeu pour les DRH, amenés à revisiter les filières métier des informaticiens. Un fort enjeu pour l’entreprise qui doit se mettre en mouvement et se transformer pour réaliser une vision d’une entreprise dans un monde digital.

Table ronde sur l’Open Data animée par Mehdi Benchoufi

Deux intervenants :

  • Henri Verdier, directeur Etalab
  • Jean-Marc Lazard, fondateur OpenDataSoft

Quatre dimensions clés de l’Open Data : transparence de l’action publique, modernisation de l’action publique (ex : Open Street Map), stimulation de l’innovation au sein de l’Etat, souveraineté nationale.

Exemple de l’agence de développement touristique des Alpes de Haute Provence qui utilise l’Open Data pour repenser son système d’information, casser les barrières public-privé, ouvrir l’accès aux données à des acteurs extérieurs et ainsi créer de la valeur pour le tourisme tout en réduisant les coûts.

L’Open Data Index classe la France en retrait (16e place). Et comme souvent lorsque la France est mal classée, on remet en cause le baromètre. La question me semble plutôt être de savoir si le baromètre est gouverné de manière transparente et permet de mesurer un progrès au service des citoyens.

Au final, l’enjeu majeur de l’Open Data en France nécessite de passer d’une culture du process à une culture de la donnée. Le nouveau portail Open Data de la France qui sera lancé le 18 décembre, sera peut-être porteur de cet enjeu.

Table ronde sur le Big Data animée par Mehdi Benchoufi

Intervenants :

  • Marielle Gallo, députée européenne
  • Edouard Geffray, secrétaire général de la CNIL
  • Gérald Salord, avocate

Le Big Data, un des 34 chantiers industriels lancés par le gouvernement, pose la question de concepts fondamentaux de la loi informatique et libertés, notamment par exemple sur la notion de finalité des données. Pour se développer, cadre juridique et confiance sont nécessaires.

Un règlement européen est en cours de vote sur le sujet du Big Data. En tant que règlement, il s’appliquera immédiatement aux 28 états membres.

Fondamentalement, la question est celle de la transparence sur l’exploitation des données et des traces personnelles. La sécurité et la confidentialité des données personnelles est également fondamentale, dans un souci de protection de l’individu. Ces questions pouvant être traitées dès la conception des services numériques (« privacy by design »).

Le cadre règlementaire qui régit le Big Data est au final un équilibre à trouver entre confiance (des individus, envers les entreprises) et création des conditions favorables à l’innovation. Un cadre règlementaire mouvant que les entreprises et les collectivités doivent suivre avec attention.

Intervention de Richard Viel sur le THD sur mobile

Pour le DG délégué des opérations commerciales de Bouygues Télécom, le Très Haut Débit sur mobile repose sur la technologie LTE (Long Term Evolution), disponible sur toutes les bandes de fréquences. Cette technologie est en cours de déploiement rapide, la France rattrapant son retard avec déjà 40% de la population couverte (63% du territoire). Une offre de terminaux est déjà disponible sur le marché, pour la plupart supportant un débit de 100Mbits/s, certains allant jusqu’à 200Mbits/s.

Une fois que les fondamentaux (technologie, réseau, terminaux) sont disponibles, les contenus peuvent être proposés pour développer les usages. Premier des contenus : la vidéo. En ascendant, la technologie LTE offre des débits de 10 à 20Mbits/s, rendant possible par exemple le développement du cloud computing, du jeu en ligne.

Une nouvelle technologie qui apporte une rupture aussi majeure que le mobile il y a 20 ans.

Table ronde sur la fiscalité numérique animée par Guillaume Buffet

Intervenants :

  • Marc Teissier, administrateur Vidéo Futur, membre du CNN
  • Christophe Leblanc, responsable des affaires publiques, Solocal
  • Marine Pouyat, commission juridique, FEVAD
  • Grégory Abatte, Président BEPS, OCDE
  • George Karam, Président GITEP et Sequans

L’OCDE a lancé le projet BEPS (Base Erosion & Profit Shifting) qui vise à refonder les bases de la fiscalité. Pour l’industrie numérique, ce projet donnera ses conclusions en septembre 2014 (un an après pour les autres industries). Les contributions des entreprises sont les bienvenues !

Le Conseil National du Numérique (CNN) souhaite que la France soit première en numérique et dernière en fiscalité du numérique, et non première en fiscalité du numérique et dernière en numérique.

Pour Solocal, le rapport du World Economic Forum plaçait la France au 23e rang mondial de l’investissement numérique. Médiamétrie soulignait un retard d’adoption du numérique par les cadres dirigeants. La fiscalité qui grève les entreprises est fortement pénalisante pour le développement de l’innovation, consubstantielle au numérique. Les dispositifs de soutien au numérique sont inadaptés. Parmi les 40 millions d’euros d’investissement de Solocal dans la recherche, seuls 5% ont éligibles au CIR (Crédit Impôt Recherche). Le CICE, plafonné à 2,5% du SMIC, ne s’applique pas au numérique, secteur dont les emplois sont mieux rémunérés.

Dans une logique de développement de société, l’optimisation fiscale est naturelle dans un monde où les logiques fiscales ne sont pas homogènes.

Pour la FEVAD (580 adhérents, représentant 130 000 sites marchands), la réflexion sur la fiscalité du numérique est forcément à l’échelle mondiale, le numérique étant mondial.

Pour illustrer le déséquilibre des règles fiscales dont bénéficient certaines acteurs du numérique, un intervenant mentionnent que les GAFAM ne paient quasiment pas d’impôts : avec 8 milliards d’euros de chiffre d’affaires, ils paient en France 40 millions d’euros d’impôts, soit 0,5%.

Une belle table ronde, sur un sujet complexe que les intervenants ont su aborder avec pédagogie. Dommage qu’Arnaud Montebourg ne soit pas resté !

Intervention de Gabrielle Gauthey sur le rapport Gallois

En deux mots : le choc de confiance préconisé par le rapport Gallois remis il y 13 mois, est loin d’avoir produit les effets escomptés. Le MEDEF constate le retard pris par la France par rapport aux autres pays de l’OCDE et propose de nouvelles mesures permettant de rattraper notre retard dans le développement du numérique.

Table ronde sur le Très Haut Débit animée par Stéphane Lelux

Intervenants :

  • Marc Charriere, VP affaires publiques Alcatel-Lucent
  • Pierre Camani, Sénateur
  • Romain Bonenfant, ARCEP
  • Antoine Darodes, mission Très Haut Débit du gouvernement
  • Pierre Jandet, DATAR
  • Jean-François Bureau, affaires institutionnelles Eutelsat

Le déploiement du très haut débit dans les territoires a bien avancé et beaucoup de projets sont en préparation selon Pierre Jandet de la DATAR. Curieusement aucun taux de couverture n’est communiqué.

Risque de fracture numérique : une part significative de la population accède à l’ADL à 3 ou 4 Mbits/s. 40% de la population n’est pas couverte par la FTTH (fibre).

Dans le Lot et Garonne, 60% de la population n’est pas couverte en haut débit par les opérateurs privés.

Selon l’ARCEP, 2,7 millions de prises FTTH sont installées, à comparer aux 31 millions de paires de cuivre. On est donc encore loin d’un déploiement massif du très haut débit, malgré une croissance rapide de 40% cette année.

49 départements ont déjà sollicité 1,2 milliards de subventions sur les 3,3 milliards du plan France Très Haut Débit. Ces subventions complètent les 500 millions d’euros investis par les opérateurs privés. Trois chantiers à venir : consolider l’environnement industriel, soutenir les collectivités, développer les usages.

L’infrastructure numérique du haut débit actuel a été financée dans les années 70. C’est sur ce patrimoine que reposent les services à valeur ajoutée que nous utilisons aujourd’hui. L’infrastructure du Très Haut Débit vise à doter la France d’un socle sur lequel s’appuieront les services numériques de proximité de demain.

Une table ronde plutôt technique et qui rappelle que l’économie numérique ne peut exister que grâce aux réseaux télécom.

Intervention de Stéphane Keita (CDC)

La Caisse des Dépôts et Consignation intervient au cœur du triptyque infrastructure, services et usages, à la fois en financement et en accompagnement des acteurs concernés.

En quoi le numérique peut-il aider à rendre notre système éducatif plus efficace ? Voir le rapport Pisa, publié le matin même, et qui montre qu’il est urgent d’investir.

Il y a urgence à développer la culture du numérique dans notre pays et à contribuer à la formation de tous, tout au long de la vie.

Table ronde sur la culture numérique animée par Rost

Intervenants :

  • Anne Pican, directrice figaroscope.fr, TVMag.com et Evene.fr
  • Alban de Nervaux, RMN Grand Palais
  • Jean-Paul Delahaye, culture Culturonomics
  • Patrick Bezier, DG Audiens
  • Mehdi Tayoubi, VP Digital et Experimental Strategy, Dassault Systems

Patrick Bézier insiste sur la nécessité de développer un cadre permettant aux salariés du numérique de travailler et de s’épanouir, alors que beaucoup sont dans des situations précaires sous des statuts variés (auto-entrepreneurs, freelance, intermittents, etc).

Dassault Systèmes s’est posé la question du sens de ce qu’elle produit (des logiciels de modélisation 3D) et a choisi d’utiliser la culture comme levier de rénovation de l’image de marque de l’éditeur, en s’appuyant sur le digital. La culture devient un facteur de différenciation pour cette entreprise B2B.

Le Grand Palais a pu constater que la numérisation des œuvres augmente les visites dans les musées. 90% des visiteurs visitent le site avant de venir au Grand Palais. 75% des visiteurs ont des smartphones. Plus de 100 000 fans Facebook, sollicités pour tester les visuels des expositions par exemple. En aval de la visite, le Grand Palais vend des publications numériques de ses collections, plus seulement de même forme que la version physique. Par exemple le catalogue de l’exposition Hopper (vendu 45€) a fait l’objet d’une déclinaison numérique (vendue 4€) achetée à 15 000 exemplaires, soit 4 fois moins que la version papier. La question étant de savoir si cette application valait le coût d’être développée, s’il y a un recouvrement entre les achats papiers et numériques, et si cette première tentative augure d’un développement à venir favorable au numérique.

Une table ronde rafraîchissante, animée de manière inhabituelle par un Rost en pleine forme.

Interview de Françoise Mercadal Delasalles

Au sein de la Société Générale, Françoise Mercadal Delasalles est directrice des Ressources et de l’Innovation, une direction qui regroupe Informatique, immobilier achat et innovation. Cette direction a été créée suite à l’affaire Kerviel, dans l’esprit de mettre en place une nouvelle gouvernance axée sur la co-construction et une organisation horizontale.

La réflexion sur la position de la banque vis-à-vis du cloud a été menée avec l’ensemble des DSI Groupe. Ce qui a amené à prendre conscience que les 18 000 informaticiens internes avaient la capacité à développer un cloud propriétaire plus efficace pour servir les métiers de la banque qu’un cloud du marché.

Comment mobiliser le top management sur le sujet de la digitalisation ? Choix d’animer un débat sur le réseau social d’entreprise, auquel 3 000 collaborateurs étaient inscrits, sur la question « qu’est-ce qu’une banque digitale ? ». En quelques mois, plus de 27 000 collaborateurs ont rejoint le réseau social d’entreprise et se sont exprimés sur cette question. La mobilisation massive des collaborateurs a aidé le top management à prendre conscience de l’importance du sujet.

Désormais, l’enjeu est maintenant d’exploiter cette richesse des idées qui circulent sur les plateformes internes et externes à l’entreprise pour créer de la valeur dans un environnement de processus industriels.

Intervention de Gilles Babinet

La société civile doit être mieux considérée par la société française.

Enjeux régaliens de notre société : santé, efficacité de l’Etat, modernisation de l’outil productif.

Santé (280 milliards d’euros de dépenses), 80 milliards de dépenses en médicaments, souvent surdosés. L’historisation du dossier médical a déjà montré dans certains pays une amélioration du protocole de santé

Efficacité de l’état : le numérique peut y contribuer de manière considérable (e-administration, Open Data, etc).

Modernisation de l’outil productif : une part importante de la valeur de l’entreprise fuit dans les données.

Conclusion

Sur le fond, une journée dense sur le thème de la libération de la croissance, montrant à quel point le numérique est un enjeu majeur de développement pour notre pays. J’ai été surpris que la gouvernance d’Internet, l’aménagement du territoire ou encore l’emploi, soient finalement peu voire pas abordés au cours des tables rondes et des key notes.

Sur la forme, je déplore une animation trop classique pour une conférence consacrée au numérique. A titre d’illustration le hashtag #adn_2013 a été donné à 11h10, soit plus de 2 heures après le début de la conférence, alors que de toute façon aucun Wifi n’était disponible dans la salle et la 3G inaccessible. Dommage.

Catégories
Digital Réseaux sociaux

Qui sont « véritablement » vos amis Facebook ?

Wolfram Alpha Personal Analytics for FacebookQuels sont vos amis Facebook qui vous prêtent le plus d’attention ? Quels sont ceux qui commentent ou aiment le plus vos publications ? Quelle est la proportion d’hommes et de femmes ? Grâce à Wolfram Alpha, vous pouvez facilement répondre à ces questions en analysant l’activité de vos amis sur vos publications Facebook. Une analyse qui pourra s’avérer utile pour trier vos amis Facebook et exposer vos publications à ceux qui interagissent vraiment avec vous.

J’ai fait l’expérience sur mon compte personnel. Le rapport généré par Wolfram Alpha fournit plusieurs statistiques sur mon activité sur Facebook, mais c’est surtout l’analyse de l’activité de mes amis Facebook en réaction à mes publications qui m’intéresse ici. Parmi mes 234 amis Facebook au moment de la génération du rapport, Wolfram Alpha a pu étudier l’activité sur mes publications de 216 personnes (18 personnes « opaques » ayant probablement verrouillé leur compte Facebook, de sorte à ce qu’une application ne puisse pas accéder à leurs données). 58% sont des hommes (et donc seulement 42% de femmes…). Parmi ces 216 personnes, 75 ont commenté mes publications. Donc 141 personnes n’ont jamais commenté mes publications. N’oublions pas que Facebook, avec son Edge Rank, expose les publications à une partie seulement des amis d’un utilisateur. Il faut donc être indulgent avec ces 141 personnes qui ont pu ne jamais être exposées à mes publications (j’exclus l’hypothèse qu’elles n’aient jamais été intéressées par ce que je publie dans Facebook). Notons également que 92 personnes (parmi les 216) ont aimé mes publications, soit 17 de plus que de commentateurs. Je fais l’hypothèse que (rappelez-vous de vos cours de mathématiques au collège), l’ensemble des personnes qui aiment inclut l’ensemble des personnes qui commentent. Cette hypothèse est inexacte, mais permet de simplifier le raisonnement. J’ai donc 124 (216-92) amis Facebook qui ne réagissent jamais à mes publications !

La question est maintenant de savoir ce que je fais des 124 personnes (voire 142 si on compte les opaques) qui ne réagissent jamais à mes publications (commentaires et clics sur « j’aime ») que l’on peut considérer comme des voyeurs. En effet, ils ont accès à ce que je publie, mais ne s’expriment jamais sur ce qu’ils en pensent. J’ai déjà commencé à isoler la plupart d’entre eux dans des listes. Ce faisant, ils ne peuvent plus voir certaines publications. C’est déjà un premier pas. Je ne pense pas utile de couper le lien avec eux, puisque je peux aussi les placer dans les profils restreints. Mais la question se pose : quel intérêt de rester en contact sur Facebook avec des personnes avec lesquelles il n’y a aucun dialogue ?

Le classement des commentateurs est également intéressant, permettant de voir ceux qui ont le plus commenté mes publications. Il serait cependant encore plus intéressant de connaître le classement de ceux qui ont commenté le plus grand nombre de mes posts, plutôt que ceux qui ont fait le plus de commentaires. Wolfram Alpha dénombre en effet les commentaires, et non les posts ayant fait l’objet de commentaires. Du coup, un ami qui aurait fortement réagi à une publication remonte dans le classement, alors qu’il me semble plus valorisant de considérer un ami qui aurait commenté un grand nombre de mes publications.

Le classement des personnes qui « aiment » mes publications fait apparaître des personnes qui ont manifestement une attitude visant à attirer mon attention, mais ne veulent pas engager publiquement le dialogue. Une information bien utile pour isoler ceux qui se manifestent temporairement et uniquement dans leur propre intérêt, non pour tisser une relation sur le long terme.

Wolfram Alpha présente quelques limites dans sa version gratuite (je n’ai pas testé la version pro). En particulier pour nous français, le nuage de mots n’a absolument aucun intérêt, dans la mesure où l’outil considère tous les pronoms de notre langue comme des mots. Ce qui donne ceci :

Wolfram Alpha Nuage de mots

Par ailleurs, alors que Wolfram Alpha dispose des données, le rapport ne permet pas de connaître les jours et heures où mes amis réagissent le plus à mes publications. Cela me permettrait pourtant d’augmenter l’engagement en publiant au bon moment.

Malgré ces quelques limites (et il y en a d’autres), l’exercice mérite d’être réalisé, ne serait-ce que pour remercier ceux qui interagissent le plus avec vous au travers de Facebook, et identifier ceux qui ne sont que des observateurs de votre activité. Si vous analysez l’activité de vos amis Facebook, revenez ici partager ce qui vous aura surpris !

Catégories
Conférence Digital

Les données au cœur des questions de gouvernance et de liberté

dataprotectionQue valent nos données publiées sur Internet ? Quels produits et services numériques offriront des emplois demain en France et en Europe ? Quelles politiques mener pour en favoriser le développement chez nous ? Derrière toutes ces questions se cachent la problématique complexe et fondamentale de gouvernance et de liberté sur Internet. Une problématique qui ne fait pas la une des journaux, n’attire pas les people, ne fait pas le buzz et qui pourtant décide du futur de l’Internet.

Le groupe DSI-Web de Telecom ParisTech avec CREIS-Terminal proposaient mardi 4 juin 2013 une matinée d’échange sur ce thème ardu. Un débat animé par David Fayon (@fayon) réunissant quatre intervenants de haut niveau. L’occasion de mieux comprendre les jeux de pouvoirs qui régissent actuellement l’Internet, sur le plan économique et politique. L’occasion aussi de jeter les bases d’un nouvel équilibre au niveau mondial en indiquant à l’Europe et en particulier à la France, des pistes de développement de produits et services numériques au service de l’emploi et d’un mieux-vivre ensemble.

Introduction

Pour camper le décor, David Fayon, auteur de « Géopolitique d’Internet »,  a notamment indiqué que la France est dans le Top 20 des pays qui censurent le plus Internet.  Il a par ailleurs mis en perspective le jeu de pouvoir des acteurs en présence :

  • Les entreprises : elles donnent de la valeur aux données, certains acteurs (les « GAFA » : Google, Apple, Facebook, Amazon) présentant des croissances à deux chiffres, en générant suffisamment de cash pour financer leur croissance externe
  • Les internautes : à la fois consommacteurs et consommauteurs, ils fournissent gratuitement leurs données en échange de services
  • Les associations et organismes : ils assurent plus ou moins dans l’ombre la régulation et la standardisation nécessaires au développement des services en ligne

Quelle valeur pour nos données publiées ?

Kavé Salamatian (@kavesalamatian), de l’université de Savoie pose la question de la valeur de données : vers où la main invisible du marché pousse-t-elle nos données, ou pourquoi nous ne savons pas évaluer la valeur de nos informations ? Pour y répondre, il a commencé par revenir aux fondamentaux de l’économie, science de l’étude du partage des ressources rares ayant des usages alternatifs (selon Lionel Robbins), à savoir ressources que des utilisateurs alternatifs peuvent transformer. Dans cette définition le prix est la variable d’équilibre du système. L’intérêt pour un utilisateur d’acheter un produit, est fonction de l’utilité du produit. L’ensemble étant à l’équilibre Pareto optimal comme démontré par le théorème d’Arrow-Debreu. Voilà pour la théorie classique.

Mais l’Internet est un environnement avec peu de régulation et à forte concurrence. L’économie des données sur Internet est-elle un cas particulier de la théorie économique classique ? En d’autres termes, les données qui y circulent sont-elles des produits comme les autres ? C’est ainsi que par exemple, le rapport Collin et Colin essaie de faire coller l’Internet dans le cadre économique connu (notamment la fiscalité). Dit différemment, l’économie des données colle-t-elle à la définition classique de l’économie ?

  • Premier problème : l’information ne suit pas la loi de conservation de la thermodynamique. Un effort est nécessaire pour la fabriquer. En revanche un effort de coût marginal est nécessaire pour la reproduire.
  • Deuxième problème : dans la théorie classique, on fait l’hypothèse que la valeur ajoutée d’un produit est déterministe. Par exemple : la valeur ajoutée maximale produite à partir d’un kilo de minerai de fer, est connue. A contrario il est impossible d’évaluer a priori la valeur ajoutée maximale produite à partir d’une information. Par exemple, quelle valeur peut-on imaginer produire à partir d’une information de 128 bits ? On peut considérer qu’elle est négligeable, mais si ces 128 bits sont une clé d’encryptage d’un coffre-fort, leur valeur est conséquente. Corolaire : on ne peut pas évaluer la valeur d’une entreprise .com. Question complémentaire : quelle est la valeur d’une donnée privée ?

Ces deux problèmes invitent à proposer une nouvelle théorie de la micro-économie selon trois visions possibles :

  • Vision du trader : la valeur de l’information est celle de l’argent que peut gagner quelqu’un qui la connait. Problème de cette définition : on ne connait la valeur de l’information qu’a posteriori.
  • Vision de la thermodynamique : la valeur de l’information est celle du prix de l’énergie nécessaire pour la produire. Même problème que pour la vision du trader.
  • Vision du marché : la valeur de l’information n’existe pas, seul l’échange sur un marché d’information a de la valeur. Dans cette approche, par exemple Facebook est un marché dans lequel les individus et les sociétés échangent des informations.

Sans surprise, la vision du marché apparaît donc comme la plus adaptée à servir de base à une nouvelle théorie de la micro-économie. Sur cette base, parler de gouvernance des données, c’est parler de la gouvernance de ce marché de l’échange de l’information. Marché apparu avec l’émergence des réseaux. Ce qui amène à se demander : qu’est-ce qu’un réseau ?

  • Un réseau de transport, permet de transporter des produits, et aussi de transporter des informations,
  • Un réseau informatique permet de transporter de l’information, en revanche il ne transporte pas de produit.

Un réseau consiste ainsi en un ensemble d’éléments distribués qui coopèrent pour échanger de l’information. Ce qui amène à se pencher sur la notion de coopération :

  • Coopération totale non égoïste, dans le but d’optimiser un objectif global,
  • Coopération non coopérative, dans le but d’une optimisation d’un objectif personnel,
  • Coopération malicieuse, dans le but de désinformer certains acteurs au profit d’un seul.

Dans ce marché d’échange d’informations, la gestion de la vie privée s’appuyant sur des règles strictes de gestion des données privées, revient à réduire le potentiel économique du marché. C’est donc avec prudence qu’il convient de légiférer dans le souci de la protection des intérêts des citoyens.

La réflexion de Kavé Salamatian sur la valeur de nos données publiées sur Internet l’amène ainsi à constater l’émergence d’une nouvelle science issue des problématiques spécifiques posées par Internet, nouvelle science fortement multi-disciplinaire permettant d’apprécier notamment les dimensions économiques, juridiques et politiques du numérique. Nouvelle science dont la multi-disciplinarité se heurte aux barrières institutionnelles entre disciplines. Une autre manière de prendre conscience du décloisonnement que suppose le numérique.

Quelle économie de l’Internet en Europe ?

Bernard Benhamou (@BernardBenhamou), délégué aux usages Internet a ensuite exposé les atouts dont l’Europe dispose pour reprendre les positions qu’elle mérite sur l’Internet. Positions à conquérir en tenant compte des perspectives de développement de l’Internet mobile et de l’Internet des objets.

Quelques chiffres pour aider le lecteur à prendre conscience de l’Internet mobile :

  • 50% des Français utilisent un mobile
  • 15% de l’Internet transite sur mobile
  • 2,3 milliards de mobinautes dans le monde

Jusqu’ici les informations qui transitaient sur les réseaux étaient produites par des humains. Désormais ce sont de plus en plus des machines qui produisent les informations à partir de capteurs de toutes sortes. Par exemple : la Ford Fusion génère avec ses 800 capteurs 20 Giga de données par heure de conduite. Autant de données susceptibles de circuler sur le réseau et d’être exploitées par des services à valeur ajoutée.

La plupart des secteurs industriels sont impactés par la distribution d’informations facilitée par Internet. On peut même dire qu’« il n’y a plus de secteur qui ne soit pas transformé en son cœur avec les technologies de l’Internet » : transport, agriculture, santé, culture, etc. C’est ainsi que la structuration pyramidale du réseau d’énergie est profondément remise en cause. Par exemple, Google est devenu un broker d’énergie aux Etats-Unis en vendant son savoir-faire dans le refroidissement de l’énergie. Autre exemple dans le secteur de la santé avec Scanadu, société de production de produits d’analyse médicale pour le particulier. Diffusés à grande échelle, ce type de produits modifiera en profondeur l’offre de santé.

Cependant, aucun acteur européen de taille mondiale n’existe aujourd’hui dans l’industrie des services de l’Internet. Or, l’économie des objets connectés représente une formidable opportunité pour les Européens. Ils ont les moyens de créer de nouveaux services, en s’appuyant sur un savoir-faire technologique reconnu comme l’ont déjà montré Parrot et WiThings.

Les objets connectés posent cependant un problème : ils projettent le fantasme de Big Brother. Le risque lié à l’exploitation des données privées doit donc s’accompagner à un droit nouveau : le droit au silence des puces, proposé par la France dès 2008.

Qui plus est, la puce RFID est inusable (pas de pièce mobile ni de source d’énergie interne), réagissant à un champ électromagnétique, pouvant perdurer sur 3 à 4 générations d’utilisateurs, même si elle est cachée.

Eric Schmidt, président du board de Google, commence même à changer de discours, prenant conscience qu’il y a des limites dans l’exploitation des données privées. Qui mieux que les Européens, qui ont perçu très tôt la nécessité de légiférer, pour développer les conditions de la confiance dans l’Internet ?

L’enjeu fondamental est donc de développer une gouvernance de l’Internet dans lequel l’utilisateur est souverain. De nouvelles formes de gouvernance à inventer qui doivent être régionales et non nationales.

Pour bien prendre conscience de l’importance de l’enjeu, Bernard Benhamou cite CityBank qui a dimensionné l’économie de l’Internet, à un sixième de l’économie mondiale. L’enjeu de gouvernance s’accompagne donc d’un enjeu économique majeur pour faire en sorte que nos sociétés continuent de fonctionner selon des principes et valeurs qui sont les nôtres.

Ces enjeux soulèvent bien-sûr des enjeux politiques. On note par exemple l’émergence de mouvements qui s’opposent à la numérisation tel que le collectif des 451 qui s’oppose à la numérisation du livre, des agriculteurs qui s’opposent au puçage des bêtes et dont les subventions vont être accordées sous condition de puçage, des étudiants qui refusent le savoir digital, etc. Enjeux politiques à l’étude depuis une éternité à l’échelle de l’Internet, comme le montre le rapport « Des pyramides de pouvoir aux réseaux de savoir » du sénateur René Trégouët publié en 1997 et dont Bernard Benhamou recommande la lecture. Plus récemment, et avec l’augmentation des capacités de collecte et d’analyse des données, les scientifiques du MIT ont aussi mis en garde sur les conséquences du Big Data en matière de vie privée. Mise en garde qui conduit à promouvoir le « privacy by design », mouvement qui prône de concevoir des produits et services dont l’ergonomie permet au citoyen de contrôler les données privées qui y sont stockées. Ce qui nécessite d’agir en amont du déploiement d’une technologie, sous peine d’être dans l’incapacité de la modifier, lorsqu’elle devient une technologie de masse.

Quelle valorisation des données publiques ?

Romain Lacombe (@rlacombe_fr), chargé de l’innovation et du développement, a ensuite présenté la mission Etalab d’ouverture et partage des données publiques. En effet, le secteur public n’est pas épargné par la transformation en profondeur provoquée par l’Internet. Comme le secteur économique, le secteur public est confronté à deux phénomènes majeurs :

  • Un changement technologique majeur avec l’omniprésence d’Internet,
  • De nouvelles attentes des citoyens sensibles à la transparence et à l’accessibilité des services.

Sur le plan politique (au sens ancien de l’organisation de la citée), la transparence totale du citoyen, est la définition même d’un système totalitaire. A l’inverse, la transparence de l’Etat pour le citoyen, est la définition d’un système démocratique. C’est dans cet esprit que l’on observe une explosion de l’usage des mots transparency, accountability, empowerment, reflet d’une préoccupation des citoyens sur ces thématiques.

Le désir de transparence s’exprime aussi vis-à-vis des hommes politiques. C’est ainsi que le véritomètre est né : un service de fact checking permettant de vérifier en temps-réel la vérité des informations des politiques pendant la campagne présidentielle 2012.

Cette transparence peut aussi s’exercer sur la fonction publique, productrice de quantités considérables de données utiles à l’exploitation des services publics. Certaines de ces données publiques commencent à être mises à disposition par l’Etat : accidents de la circulation, usage du réseau de transport, du réseau de l’énergie, conditions sanitaires des restaurants (par exemple à Manhattan), etc.

Ouvrir les données de fonctionnement de l’Etat, c’est permettre l’émergence d’entreprises innovantes telles que homengo. Le site data.gouv.fr recense ainsi tous les jeux de données mis à disposition par les services de l’Etat. Les développeurs de services s’appuyant sur ces données sont réunis au sein de la communauté de l’innovation dataconnexions (marque à laquelle l’Etat pourrait se voir contraindre de renoncer). Enfin au niveau mondial, les initiatives Open Data sont suivies par l’Open Government Partnership.

Donner accès aux données publiques entraine cependant des conséquences juridiques. Ainsi, l’état sanitaire erroné d’un restaurant, rendu publique, peut entrainer sa faillite. Sa défense pouvant nécessiter la mobilisation d’experts, forts coûteux. Cependant le fait qu’elle soit publique permet de corriger l’erreur à la source. La jurisprudence de la transparence des données reste donc à créer, la bonne nouvelle étant que des dispositifs de contrôle des données publiques sont désormais possibles.

Quelle gouvernance du réseau Internet ?

Chantal Lebrument, présidente Eurolinc, directrice Savoir-Faire, éditrice du produit open-root, a enfin pris la parole pour exposer le dessous des cartes de l’Internet en expliquant le fonctionnement de l’Icann.

L’Internet, que chacun considère comme mondial est en réalité un Internet américain. L’agenda de Tunis de l’IGF (Internet Government Forum) propose ainsi que l’Internet prenne en compte le multilinguisme, la régionalisation, et une coopération renforcée entre les états.

Les mécanismes sous-jacents à la gestion du réseau Internet restent obscurs pour la grande majorité des utilisateurs et des entreprises. Ils sont pourtant essentiels à l’économie numérique. Rares sont ceux qui peuvent comprendre que .ku est une racine ouverte opérée par Open-Root et non par l’Icann. La maîtrise fine des jeux de pouvoirs qui gouvernent l’Internet doivent ainsi être mieux compris par nos dirigeants, afin de défendre nos intérêts.

Conclusion

CREIS-Terminal et le groupe DSI-Web de Telecom ParisTech ont proposé là un bel événement qui gagnerait à plus de visibilité. Au-delà des supports de présentation, un podcast des interventions serait le bienvenu. Ce qui semble compromit dans la mesure où, sauf erreur de ma part, aucun dispositif de captation vidéo n’était déployé dans la salle. Par ailleurs, j’ai été surpris de constater que seuls David et moi-même relayions l’événement en direct sur Twitter. Le public de ce type d’événement serait-il rebelle au « live tweet » ? A moins que, inquiet de l’utilisation qui peut être faite de ses données personnelles publiées sur Internet, il s’en tienne au silence numérique ?

Au-delà de ces considérations sur le marketing de l’événement, les sujets abordés méritent attention et réflexion au plus haut niveau des entreprises et administrations. Les enjeux sont considérables et la France ne peut pas se permettre le luxe de ne pas les adresser au niveau qu’ils méritent. Des questions restent ouvertes :

  • Qui est propriétaire de nos données ?
  • La notion de propriété des données a-t-elle encore un sens ?
  • Quels sont les freins culturels des européens (et en particulier des Français) au développement des nouveaux services autour des objets connectés ?
  • Sur le plan économique, les objets connectés et l’open data sont-ils des gisements d’emploi, de réduction des coûts de l’action publique ?
Catégories
Conférence Digital E-administration Etude Innovation

Les 5 facteurs qui vont révolutionner notre société (conférence de Gilles Babinet du 4 avril 2013)

De son expérience à l’Institut Montaigne, puis à la tête du Conseil National du Numérique et aujourd’hui à la Commission Européenne, Gilles Babinet (@babgi) a identifié 5 facteurs qui vont révolutionner notre société grâce au numérique : l’éducation, l’Etat, le crowd, la santé, la connaissance, qu’il a détaillés lors de cette conférence organisée le 4 avril 2013 par Limelight. Occasion de passer en revue les grands enjeux de notre temps et de montrer comment le digital contribue à les résoudre. Une conférence bourrée de chiffres et d’exemples dont je laisse au lecteur le soin de vérifier l’exactitude.

Le court extrait en vidéo permet de se donner une idée du ton de la conférence dont j’essaie ci-dessous d’être un rapporteur fidèle.

Constat amer : les enjeux du numérique sont assez peu compris, notamment par les politiques. Or selon Gilles Babinet, « on n’est pas dans une évolution de modèle, mais dans une rupture ». Pour le démontrer, quelques chiffres :

  • 4,1% de croissance pendant les 30 glorieuses en France contre -1% par décennie depuis les années 70
  • 1000Md€ : c’est le coût des problèmes d’environnement à horizon 2040 pour la France
  • 50% des espèces pourraient disparaître à horizon 2100

Des chiffres impressionnants qui amènent Gilles Babinet à en déduire que « le modèle malthusien est faux ». Déduction qui s’accompagne de bonnes nouvelles :

  • 183 prophéties de fin du monde depuis la chute de l’Empire Romain, aucune n’a été réalisée
  • -30% de pauvres depuis 1990
  • 40% de la production agricole perdue en France, ce qui offre de belles marges de manœuvre pour nourrir plus de personnes à production constante

Sur le plan scientifique, Gilles Babinet pressent une évolution majeure liée à la physique quantique (souvenez-vous de Schrödinger). Sur le plan sociétal, il annonce la fin de la  société industrielle (adieu Taylor), de par la fin des gestes répétitifs du fait de la robotisation et de l’informatisation. Pourtant, citant Robert Solow : « je vois des statistiques partout, sauf dans les ordinateurs ». A se demander si le numérique contribue à la création de richesses. En particulier dans les services, qui représentent 50% de la valeur, il est nécessaire de trouver des gains de productivité en s’appuyant sur le numérique. Ces gains passeront par l’innovation, sachant que depuis 1995 les entreprises américaines les plus innovantes ont connu une croissance annuelle moyenne de +2,5% contre +0,7% pour les entreprises les moins innovantes. De quoi inciter à innover !

Facteur #1 : l’éducation

Gilles Babinet est sans appel : la massification de l’éducation (lancée en France par Jules Ferry au début du XXe siècle) sur des modèles tayloriens, est terminée. Deux facteurs expliquent la fin de ce modèle : la connaissance ne s’apprend plus (elle est disponible), et l’éducation devient ubiquitaire (on peut apprendre partout).

C’est ainsi que 100 000 élèves ont assisté aux 3 premiers Moocs de la Standford University en 2011 (neurosciences), permettant à 40 000 personnes de recevoir la même connaissance que les 600 diplômés annuels. L’écart est gigantesque, et on se prête à imaginer ce que ces 40 000 cerveaux vont pouvoir produire.

Autre exemple, Sal Khan qui a déjà distribué 200 000 millions de cours avec ses vidéos expliquant les mathématiques. Face à ce genre de déferlante à l’initiative d’un individu isolé, l’enseignement traditionnel en classe a-t-il encore de l’avenir ?

Pour certains, l’informatique est un domaine essentiel du savoir. C’est ainsi que Martha Linefox a lancé les Coding Kids, sur l’idée que le code (informatique) est la grammaire de demain. Gilles Babinet s’apprête d’ailleurs à lancer une initiative équivalente en France et appelle aux bonnes volontés.

Facteur #2 : l’Etat

La France compte 400 000 élus, ce qui s’avère totalement inefficace selon Gilles Babinet. Or, le numérique peut apporter une importante simplification des processus, par un meilleur partage des informations entre les administrations, voire la mise à disposition des données publiques de manière ouverte (« open data »). Notre modèle très centralisé rencontre aujourd’hui ses limites, alors que d’autres modèles sont expérimentés dans d’autres pays.

C’est ainsi que le Kenya expérimente par exemple un cadastre participatif : les gens se mettent d’accord entre eux, au niveau local, plutôt que de confier la gestion des terrains à une administration centrale.

Au niveau européen, la Commission Européenne évalue ainsi à 27 milliards d’euros les retombées annuelles potentielles de l’open data en Europe. Un marché gigantesque créateur de valeur. De quoi mobiliser les politiques actuellement soucieux de résorber les dettes publiques et de trouver de nouveaux relais de croissance.

Facteur #3 : le crowd

Pour Gilles Babinet, le « crowd » commence lorsque l’acte gratuit individuel crée une valeur collective. Les exemples sont de plus en plus nombreux. Le plus connu, Wikipédia, réunit aujourd’hui 18 millions d’entrées en 270 langues, et reçoit 1/2 milliard de lecteurs par mois. Certains peuvent y voir un acte gracieux au service de la communauté. D’autres peuvent y voir la destruction d’un modèle de distribution de la connaissance au travers d’éditeurs reconnus. Mais c’est surtout la diffusion étendue du savoir à une population qui frappe.

Le crowd n’est pas limité qu’au partage gracieux de connaissances. C’est ainsi que Kiva.org distribue des prêts caritatifs (380 millions de dollars en 2012) auprès de 940 000 bénéficiaires dans 66 pays. Un financement de l’économie réelle sans intermédiaires financiers, ou comment les gens s’entraident en se faisant confiance. Autre exemple avec Kickstarter, fonds de capital risque d’innovation qui a levé 300 millions de dollars en 2012. De quoi encore financer la création de valeur, avec probablement une implication plus importante de l’apporteur de fonds. Dans la même veine, le Landing Club prête à la communauté avec un taux d’efficacité 4 fois supérieur aux banques. L’engagement réciproque du prêteur et de l’emprunteur, de nature différente par rapport aux relations entre un client et son banquier, explique probablement ce succès.

Le crowd, c’est aussi l’intelligence collective, celle qui permet de résoudre des problèmes en démultipliant les forces mobilisées. Salvatore Iaconesi a par exemple mis en ligne ses radios pour recevoir des conseils de la communauté pour lutter contre son cancer. Avec Aika, Gilles Babinet propose ainsi la résolution de problèmes créatifs pour les entreprises par la communauté.

Facteur #4 : la santé

Le numérique a déjà contribué à transformer l’offre de santé. Pour Gilles Babinet, nous n’en sommes encore qu’aux balbutiements. On se prête à imaginer ce que permettrait la diffusion continue de points de mesure via les smartphones, avec l’émergence d’une santé beaucoup plus fine, tenant compte de l’historique du patient.

Sachant que dans l’OCDE, un tiers des prescriptions médicales sont injustifiées, car 50% des patients mentent à leur médecin, on imagine ce qu’apporterait une plus grande transparence dans la mise à disposition de données médicales, et les gisements de réduction de coûts d’un secteur qui coûte 240 milliards d’euros à la collectivité.

Une plus grande transparence qui peut faire craindre un syndrome « Big Brother ». Pourtant, le Dossier Médical Personnalisé, qui peine tant à s’implanter en France, a déjà permis de réduire de 10% les coûts de santé à Shangai. Une belle opportunité pour résorber le trou de l’assurance maladie dans notre pays.

A plus long terme, le coût de séquençage de l’ADN baissant deux fois plus vite que la loi de Moore, on peut imaginer une véritable révolution de la manière de donner de la santé.

Facteur #5 : la connaissance

Pour illustrer les transformations majeures permises par le numérique dans le domaine de la connaissance, Gilles Babinet rappelle que 75% des habitants de la planète possèdent un portable. Les réseaux télécoms se susbstituent ainsi aux infrastructures, facilitant considérablement la distribution d’informations et l’accès à la connaissance. Sachant qu’un téléphone sur deux acheté en Afrique en 2013 est un smartphone, on peut imaginer la considérable opportunité d’enrichissement de connaissance pour les populations de ce continent. L’Afrique dont la bancarisation est en marche, avec par exemple la banque M-pesa au Kenya qui compte 17 millions de comptes. L’accès à ces comptes au travers des smartphones fluidifie l’économie et améliore la visibilité des pouvoirs publics sur les besoins locaux. Autant d’informations utiles pour orienter efficacement les politiques publiques.

La connaissance peut aussi être utile sur le plan opérationnel. En Ouganda, une plateforme a ainsi été créée pour donner des conseils aux fermiers (en fonction des prévisions météorologiques par exemple), entrainant une augmentation massive de la productivité agricole.

Cette connaissance au sens large, utile sur le terrain pour des professionnels comme pour former des populations, s’accumule dans les serveurs. Les énormes gisements de données représentent une richesse à exploiter. Au-delà de l’enjeu du « Big Data », c’est demain la capacité à connaître et exploiter en temps réel ces données qui sera déterminante. Mais déjà, Gilles Babinet de rappeler que « Google connaît mieux les Français que l’INSEE ». Cette connaissance, permet aussi à l’ONU au travers de Global Pulse de détecter des conflits, par l’analyse des invectives sur les réseaux sociaux. Des actions préventives peuvent ainsi être décidées avant qu’il ne soit trop tard. Dans la même veine sur un plan plus local, Ushuahidi, permet de détecter au Kenya les zones de danger. Information indispensable avant d’envisager un déplacement au travers du pays.

Gilles Babinet se pose aussi en défenseur d’une utilisation intelligente de ces masses de données et soutient avec Quantified-self la nécessité de tracer les élèves de sorte à réduire le taux de décrochage (1 élève sur 5 sort du système scolaire sans savoir lire et écrire).

Enfin, alors que nous sommes confrontés à de grands enjeux écologiques, les Smart grid, sont aussi une utilisation intelligente de données au service de la réduction de la facture énergétique par une utilisation intelligente des réseaux.

Conclusion

En guise de conclusion, Gilles Babinet revient sur sa question d’introduction et nous amène à nous demander de faire le choix entre conserver un modèle industriel ou aller vers la société de la connaissance.

Pour nous aider dans notre réflexion, il rappelle que la part du PIB consacrée à la R&D est de 2,1% en France, contre 5% en Israël. Il note que l’Internet contribue à 5,5% de la croissance française, contre 8% aux UK, avec 700 000 emplois créés. Il note aussi que le chiffre d’affaires réalisé sur I’Internet s’élève à 60 milliards d’euros, soit plus que le secteur du transport. Et aussi que la contribution du numérique à la croissance du PIB entre 2005 et 2010 est de 26% en France, contre 36% aux Etats-Unis. La France est ainsi le 20e pays pour l’économie numérique (en part de PIB consacré au numérique). Et Gilles Babinet de rapprocher ce classement à la proportion de fonctionnaires français favorables à l’open data : 29% contre 70% des suédois. Les chiffres sont sans appel et montrent un réel déficit de notre pays dans le développement du numérique. Déficit qui s’explique notamment par l’insuffisance de fonds propres dans les entreprises, nécessaires au financement de l’innovation.

Au final, le choix entre modèle industriel et société de la connaissance n’en est pas vraiment un, tant pour Gilles Babinet, notre société moderne est confrontée à trois enjeux majeurs :

  • Enjeu #1 : moderniser l’Etat
  • Enjeu #2 : éduquer pour le numérique (25 000 personnes formées par an en France contre 150 000 nécessaires)
  • Enjeu #3 : financer l’innovation (disposer de capitaux massifs)

Compléments

Au terme de son intervention d’une grande richesse, Gilles Babinet invite à la lecture du rapport Colin et Collin relatif à la fiscalité du numérique, et aussi du rapport dont il est l’auteur « Pour un new deal numérique ». Le premier met notamment en exergue la virtualisation de l’économie conduisant au renforcement des économies parallèles (de par le renforcement des paradis fiscaux) nécessitant une taxation sur le lieu de distribution (et non de production) de la valeur ; il invite aussi à contraindre les acteurs de publier des APIs de distribution de la connaissance (government as a platform). Le second, sous l’égide de l’institut Montaigne invite à repenser la société et l’économie grâce au numérique. Le numérique y est présenté comme un facteur de croissance et de compétitivité insuffisamment exploité. Egalement comme un formidable potentiel de transformation de l’administration. Enfin il propose deux domaines d’excellence prioritaires pour lesquels le numérique peut jouer un rôle majeur : l’éducation et la santé.

Catégories
Conférence Digital Réseaux sociaux ROI

Social Metrics : obsession de la mesure & trafic d’influence

Social-Media-Club-FranceLes médias sociaux s’accompagnent d’un florilège de métriques. C’est l’avantage du numérique : tout est traçable, donc tout est mesurable. Cependant, une des particularités des médias sociaux, c’est que la mesure influence le comportement de l’utilisateur et non seulement du média social lui-même. De plus, les mesures impactent directement les acteurs économiques rémunérés sur la base des audiences des médias sociaux. Ce faisant, il est tentant de tricher pour modifier les chiffres. C’est pour débattre de cet épineux sujet que le Social Media Club organisait jeudi 10 janvier 2013 la conférence « Social Metrics : obsession de la mesure & trafic d’influence ».

Les intervenants issus d’agences sont des artisans de l’art. Ils ont mené des campagnes sur les médias sociaux pour leurs clients, ont conçu des outils de mesure de ces campagnes. J’ai noté leur demande qui m’a semblé faire consensus, de disposer d’un tiers de confiance pour mesurer l’activité sur les médias sociaux, comme le fait déjà Médiamétrie sur l’audience d’autres médias (télévision, radio, sites Web ou mobiles). Il aurait d’ailleurs été fort instructif qu’un représentant de Médiamétrie participe à la table ronde, afin qu’il explique ce que Médiamétrie est actuellement capable de mesurer sur les médias sociaux.

Rémi Douine (The Metrics Factory, @watariu) est ainsi revenu sur les problèmes posés par la triche sur les médias sociaux, réclamant l’émergence d’un tiers de confiance. N’est-il pas surprenant de réclamer la régulation d’un milieu ou tout continue d’évoluer chaque jour ? Cependant, le fait que les données d’audience des social media soient livrées par les plateformes elles-mêmes (Facebook, Twitter, YouTube notamment), pose effectivement problème. On en revient au même débat que par le passé : la mesure doit-elle être « site centric » ou « user centric » ?

Arthur Kannas (Heaven, @moohai) a exposé les résultats de l’étude menée par l’agence pour analyser le marché noir des médias sociaux. L’achat de faux fans pour la fausse marque Planète Mars Kebab est en soit une expérience intéressante. Je vous renvoie d’ailleurs à l’article publié à ce sujet sur Petit Web. Prenez le temps aussi de lire la présentation que vous trouverez sur Slideshare, ça vaut le coup. Cela dit, partant du constat que la triche est possible, bien loin de l’image de transparence et d’honnêteté que l’on serait prêt à accorder aux médias sociaux, on peut déplorer l’absence de label de qualité des opérations Social Media. Avez-vous connaissance de ce type de label ? Cela pourrait être une charte de bonne conduite, un engagement de respecter des bonnes pratiques vertueuses et de les faire respecter par les sous-traitants et prestataires, rendant auditables les actions sur les médias sociaux.

Cyril Rimbaud (Curiouser, @cyroultwit) s’est livré à un amusant exercice de déconstruction des métriques des medias sociaux, démontrant au passage que la page vue n’existe pas et qu’en fait rien n’a changé sur le plan de la mesure avec l’émergence des médias sociaux. Faire et défaire, c’est toujours travailler comme disait mon arrière-grand-mère ! Dans le même style on pourrait s’amuser à imaginer les métriques qui auraient pu être mises en place dans les magasins si c’était possible techniquement : nombre de fois où une vitrine a été regardée par un passant, nombre de fois où un consommateur a regardé un produit, nombre de fois où il a pensé qu’il achèterait bien ce produit mais c’est trop bête là il n’a pas le temps, nombre de pas des consommateurs dans le magasin, etc. Et il serait bien-sûr absurde de mesurer autant d’indicateurs.

Guilhem Fouetillou (LinkFluence, @gfouetil) concluait enfin les interventions. Au terme de cette conférence, une question sous-jacente reste ouverte : quels indicateurs suivre pour mesurer en confiance et transparence l’activité sur les médias sociaux ? Car tricher en modifiant artificiellement les chiffres n’a de sens et n’est possible que tant que les indicateurs observés sont trop éloignés du tangible. Au final, les médias sociaux sont un moyen de vendre, de fidéliser les clients, d’attirer les talents, de réagir en cas de crise, etc. Seul leur impact sur les indicateurs métier associés mérite d’être mesuré. Le reste n’est que littérature.

Il faudra aussi trouver un moyen de financer une mesure objective. Mesure nécessaire à l’arbitrage des budgets, sur la base d’un indicateur de création de valeur pour l’annonceur. Même les organisations non commerciales peuvent en bénéficier, en mesurant par exemple le volume de dons reçus grâce aux actions menées sur les médias sociaux. C’est ainsi en communicant davantage sur l’impact de leur action sur les indicateurs existants, et non en affichant une multitude de chiffres sous prétexte que tout est mesurable sur le numérique, que les médias sociaux gagneront en maturité.

10
Catégories
Outil Réseaux sociaux

2012, année de l’influence… et de la Klout attitude

Nos esprits cartésiens ont besoin de mesurer, tout et n’importe quoi. Avec le développement de l’usage des médias sociaux, de nouveaux indicateurs sont apparus. Le Graal semble être l’indicateur de mesure de l’influence d’un internaute sur les médias sociaux. Car la mesure de l’influence tout court d’une personne, échappera encore et pour longtemps, à une mesure exhaustive et fiable. Ce qui n’interdit pas de tenter de mesurer l’influence d’une personne acteur des médias sociaux.

L’Histoire est jalonnée d’efforts pour inventer des unités de mesure. Prenons l’exemple de la mesure des distances. Longtemps les humains ont tâtonné : pour les grandes distances, les jours de marche faisaient bien l’affaire, jusqu’à ce que la marche ne soit plus le seul moyen de se déplacer ; pour les petites distances, les longueurs de parties du corps humains suffisaient bien tant que l’on se contentait de discuter entre personnes de même gabarit. Jusqu’au moment où il est apparu nécessaire d’établir un système de mesure universel. C’est ainsi que le système métrique s’est imposé à tous. En réalité pas vraiment, puisque certains pays continuent d’utiliser des unités de longueurs historiques qui leur sont propres, en acceptant néanmoins des conversions dans le système métrique.

Avec le développement scientifique vers l’infiniment grand et vers l’infiniment petit, le système métrique a montré ses limites, et d’autres unités de mesure sont apparues. Elles sont utilisées par des experts et leur permettent de mesurer finement les distances dans leur domaine d’expertise. Un système de mesure est donc pérenne, jusqu’à ce que les connaissances sur le domaine mesuré évoluent.

Les médias sociaux n’échappent pas à la règle. Pour ce domaine très jeune sur lequel nous avons très peu de recul, des indicateurs de mesure ont été créés : le nombre d’abonnés, le nombre de messages postés, le nombre de messages re-postés, etc. Puis avec la multiplication des plateformes, le besoin de mesurer l’activité d’une personne est apparu. Au-delà de l’activité, on se prête même à imaginer pouvoir mesurer l’influence d’une personne active sur les médias sociaux. Se pose alors la question de se savoir ce que signifie d’être influent sur les médias sociaux ?

Tout d’abord il me semble nécessaire de circonscrire l’analyse de la notion d’influence à ce qui est effectivement mesurable. Je parle bien ici de d’influence sur les médias sociaux, et non d’influence tout court. L’influence au sens stricte nécessiterait de capter des marqueurs qui s’expriment sur bien d’autres supports que sur les seuls médias sociaux, voire en face-à-face. Ce sont donc les actions réalisées par des tiers sur les médias sociaux suite à des publications d’un internaute sur ces mêmes médias sociaux, qui sont ici l’objet de l’analyse.

Un des moyens pour mesurer l’impact des actions d’un internaute sur les médias sociaux, est celui proposé par Klout. Aussi perfectible soit-il, celui-ci apporte une première réponse à la notion de mesure de l’impact des actions d’un internaute sur les médias sociaux. Dans mon compte Klout, j’ai référencé mes comptes Twitter, Facebook, Google+, LinkedIn, Foursquare et WordPress. Au 8 janvier 2012, mon activité sur ces différents comptes, et surtout les réactions qu’ont suscité mon activité, conduit à un score de Klout de près de 49. Le graphe de l’évolution de mon score sur un mois glissant fait d’ailleurs apparaître une hausse brutale le 17 décembre 2011 que je n’explique pas (cela fait peut-être suite au référencement de mon compte Google+, mais je n’en suis pas sûr) :

Klout score analysis

Je n’ai aucune idée de l’algorithme de calcul de ce score, et peu m’importe. En effet, dans le même ordre d’idée, je n’ai pas besoin de savoir comment est évalué le volume d’essence restant dans le réservoir de ma voiture pour regarder de temps en temps la jauge d’essence. Aussi perfectible que ce soit ce score, il me permet d’apprécier l’impact de ce que je publie sur les médias sociaux que j’ai référencés dans Klout. Et le fait d’avoir la possibilité de consulter un indicateur, ne m’oblige pas à le consulter en permanence, ni même à modifier ma manière de publier pour augmenter la valeur de cet indicateur en en devenant l’esclave. En revanche, si l’augmentation de mon score de Klout est cohérent par rapport à mes intérêts, pourquoi me passer de cette mesure ? Face aux critiques, Klout a d’ailleurs fait un effort de pédagogie intéressant pour mieux expliquer son concept.

 

TweetLevel

TweetLevel évalue également un score d’influence, en se focalisant sur la seule activité d’un compte Twitter. Moins complet que Klout, qui analyse plusieurs médias sociaux, TweetLevel donne néanmoins une information intéressante permettant d’apprécier une certaine forme d’influence, la popularité, l’engagement et la confiance avec les utilisateurs de Twitter. Avec en ce moment un score de près de 68, TweetLevel me qualifie même de superstar sur Twitter sur mon domaine… sans préciser de quel domaine il s’agit.

D’autres systèmes de mesure existent et l’on peut s’attendre à ce que le darwinisme fasse son office en éliminant les systèmes qui n’auront pas su s’imposer comme des références. Erin Griffith (@griffitherin) dresse sur AdWeek un court panorama qui permet d’apprécier la concurrence qui se livre dans ce domaine. 2012 sera probablement une année décisive, tant pour les offres de mesure de l’influence sur les médias sociaux, que sur la compréhension des mécanismes d’influence eux-mêmes. Et les internautes et marques actifs sur les médias sociaux auront à cœur d’observer comment ces différents systèmes les notent et d’agir en conséquence. C’est ainsi que certains, tels que Yann Gourvennec (@ygourven) sont déjà allés jusqu’à supprimer leur compte Klout. Voir à sujet les explications de Yann dans son article « influence : pourquoi j’ai enfoncé mon Klout … ». Pour ma part, et bien que je comprenne l’agacement que peut susciter les changements de Klout ou l’opacité de son algorithme, il me semble nécessaire de prolonger l’aventure et de laisser un peu plus de temps à Klout pour développer un système de mesure fiable et pérenne… jusqu’à ce que les connaissances sur la notion d’influence sur les médias sociaux conduisent à la nécessité d’améliorer l’outil de mesure.

En attendant que l’offre de mesure se stabilise, il convient de rester prudent sur l’interprétation des mesures proposées par les sociétés qui se positionnent sur le sujet. Pour cela, il faudra bien comprendre ce qui est mesuré et pourquoi le résultat de la mesure varie en fonction des publications sur les médias sociaux. Enfin, comme cela a été le cas par le passé avec les différents systèmes de mesure des distances, il est nécessaire d’accepter de laisser un système de mesure fiable émerger au travers de diverses tentatives… jusqu’à ce que les connaissances aient évolué et qu’une amélioration du système de mesure s’impose.

Et vous, avez-vous déjà eu la curiosité de regarder les scores de vos différents comptes de médias sociaux ? Comment utilisez-vous ces mesures ? Quant à moi, je me demande : cet article va-t-il impacter mon score de Klout ?! 🙂