Toulouse is AI
Revue #1 : Data Intelligence - turning data into value
Dernière mise à jour : 18 juin 2021
Une table ronde virtuelle a été diffusée en live ce mercredi 16 juin 2021, dans le cadre de l'événement VivaTech qui s'est déroulé du 16 juin au 19 juin 2021. L’occasion parfaite pour parler de la data intelligence, c'est-à-dire, la capacité à transformer les données en valeur grâce à des innovations de produits/procédés.
Animé par Pierre-Louis Corteel, à la tête de Services Industries chez Google Marketing Platform, deux intervenants sont venus nous parler de la data intelligence au sein de leurs entreprises. Le premier était Vincent Luciani, cofondateur et CEO d’Artefact. Il est chargé d'accompagner les entreprises dans leurs projets de transformation par la donnée, avec leur slogan “value by data”. La deuxième est Dounia Zouine, la CDO d’Unify, la plateforme 100% digitale du groupe TF1.

Transformer la data en valeur est un sujet important. En effet, on constate que les entreprises qui utilisent l’usage de la donnée ont des taux de croissance de 80% supérieurs à ceux de leur concurrents.
Mais, malheureusement, seuls 30% des projets de transformation digitale et/ou de transformation par la donnée atteignent leur objectif.
Comme la réglementation quant à l’utilisation des données évolue, il est important de se responsabiliser sur ses sujets pour ne pas se mettre en risque.
Transformer la donnée en valeur, de quoi parle t-on, comment faire et quels sont les enjeux ?
“Aujourd’hui, les grands groupes n'ont plus peur d’afficher des ambitions très fortes sur leurs programmes d'accélération de la data et d’intelligence artificielle.”, explique Vincent Luciani.
Le niveau de maturité que l’on est capable d’atteindre aujourd’hui peut-être détaillé à travers trois exemples variés d’innovations.
Tout d’abord, il y a la partie concernant les bénéfices pour l’entreprise. Cela se fait à travers l’amélioration du marketing, et en particulier à travers l’amélioration des dépenses dans l’univers du média digital. On peut utiliser la data sur un certain nombres d’améliorations structurelles des dépenses. Par exemple, l'optimisation en cours de campagne repose sur la donnée dans le sens où l’on va utiliser des dashboards pour mesurer la performance et améliorer en cours de campagne des dépenses ce qui fonctionne et ce qui ne fonctionne pas. Pour rappel, un dashboard, ou tableau de bord, permet de visualiser un ensemble de données en un coup d'œil.
Il y a ensuite l’amélioration de la Supply Chain, qui, selon le site Mecalux, est “le processus qui est généré lorsqu’un client passe une commande jusqu’à ce que le produit ou le service soit livré et payé. Par conséquent, la Supply Chain comprend la planification, l’exécution et le contrôle de toutes les activités liées aux flux de matériaux et d’informations, à l’achat de matières premières, à la transformation intermédiaire du produit ainsi qu’à la livraison au client final.”
Lorsqu’on utilise des programmes de données pour faire la prévision des ventes, la donnée est utile pour notamment calibrer, référence par référence, et quelques données et quelques mois, quelle va être la demande finale du consommateur sur un produit.
Enfin, il y a l’amélioration de la relation client. On voit aujourd’hui un certain nombre de dispositifs qui s'appuient sur du NLP (Natural Language Processing) et qui est aujourd’hui très performant. En effet, les moteurs arrivent parfaitement à reconnaître des mots, des phrases et à donner du sens. ensuite, en mesure de proposer au conseiller, dans le cadre et en simultané dans sa conversation live avec un client, une référence produit, une proposition de service et du contenu qui va être immédiatement proposée au conseiller pour améliorer la relation avec son client.
Quelles sont les données stratégiques d’Unify et en quoi vous avez réussi à faire évoluer vos offres grâce à elles ?
“Dans tous les cas, il est important de comprendre, et cela dans toute initiative data, de quelles données on parle et d’où elles viennent.” explique Dounia Zouine.
Les données d’Unify sont les données issues de ses différentes marques qui ne sont présentées qu'à partir d’applications et de sites web.
Il y a deux business modèles, d’abord celui d’éditeurs de contenu, de média digital, donc avec des contenus sous différents formats qui sont consultés et qui engagent différentes audiences, et puis un second métier, celui d’e-commerce. Les données sont donc issues de ces deux types de populations, et chaque points de contact avec eux est donc l’occasion de récupérer de la donnée, comme par exemple de la donnée comportementale (ce qu’ils consultent, ce qu’ils aiment et n’aiment pas), de la donnée sémantique (récupération de typology à travers du contenu texte, vidéo et image, comme par exemple des mots clés, des expressions, parfois des sentiments), puis la donnée socio démographique et la donnée transactionnelle (sensibilité aux remises) .
L’objectif numéro un est de se demander où trouver de la valeur ajoutée, et la valeur ajoutée vient de l’impact, qui lui découle de l’alignement entre la stratégie data et la stratégie d’Unify.
A ce titre, la direction data d’Unify, Dounia Zouine pilote, est directement rattachée à la direction générale en charge des revenus. Cela permet un focus très pragmatique, mais également la création d’une road map bicéphal, à deux visages.
Il y a d’abord des cas d’usages internes (l’utilisation de la donnée pour les opérations de l’entreprise, comme par exemple l’optimisation publicitaire, la performance de nos produits...). Pour concrétiser, on va avoir une approche à la fois descriptive sur ce monitoring de contenu, on va donc décrire la manière dont ce contenu va être performant parce qu’il va être consulté et permettre du trafic.
Par exemple, sur les contenus recettes Marmiton, Unify a remarqué un comportement en signal plus ou moins fort, qui se décrit par une typologie de recettes qui était surtout consultée le weekend et le mercredi. En croisant ces typologies de données, c’est-à-dire le comportement face à un contenu avec les données que nous avons sur les utilisateurs, Unify a pu comprendre qu’il y avait vraiment une utilisation de parents qui cuisinaient avec leurs enfants. Cela a permis de pousser cette connaissance là, que les équipes éditoriales n’avaient pas, et d’adresser une typologie de contenu plus particulière, et ciblé pour justement ce segment de parents qui cuisine avec leurs enfants.
De l’autre côté du spectre, il y a des cas d’usages externes, une autre data, par exemple à disposition de l'efficacité publicitaire des marques partenaires, des agence, sans pour autant que la data sorte de l’écosystème de l’entreprise. C’est améliorer la connaissance client, passer de l’insight à l’activation.
Le décalage entre l’ambition autour de la data et la matérialisation
Aujourd’hui un vrai décalage s'est mis en place entre l’ambition autour de la data, parce que “le potentiel est quasi infini”, avec finalement la matérialisation. “Il y a encore beaucoup de frustration et un peu d'incompréhension sur pourquoi on n’arrive pas à matérialiser les résultats.” explique Vincent Luciani.
Une très faible partie des cas d’usages arrive à être industrialisée, et deux facteurs semblent être particulièrement importants : le “Data as un asset” et le “Data as a product”.
Le premier, que l’on pourrait appelé “Data as un asset”, consiste à créer un actif autour de la data. Il est important de comprendre qu’avant de créer un actif, il faut réduire, résorber sa dette. La dette vient du fait qu’il y a eu par le passée une accumulation de données, qui vient d’une accumulation de couches technologiques, c'est-à-dire de nouveaux outils, de nouvelles applications, de nouvelles infrastructures, qui viennent s’empiler les une au autre. Et donc finalement, oui certes, beaucoup de données sont générées, mais elles sont parfois doublées, parfois inaccessibles, ce qui nécessite de parler à une personne qui connaît très bien la source de la donnée. Tout ça génère beaucoup du “lead time”, c'est-à-dire du temps pour aller chercher cette donnée, et parfois beaucoup d’erreurs. “Il faut comprendre que c’est un chantier qui peut être monumental, c’est presque sans fin.”
Par exemple, pour un grand contacteur de la consommation, on va avoir 20 grands domaines de données (un domaine de donnée étant par exemple les achats), puis on va avoir des centaines de sous domaines ( par exemple l’ensemble de donnée liée au fournisseur), puis encore on va des milliers d'attributs autour de ces grands domaines (par exemple l’adresse), et enfin des centaines de milliers d’attributs spécifiques sur ces grands points d’informations, (comme par exemple l'email ou le code postal).
Le deuxième, intitulé “Data as a product”, est une approche nouvelle, celle de créer un software autour de la data.
Pendant longtemps, on a imaginé que construire des applicatifs autour de la data, c’était confié la responsabilité à un data scientist , c'est-à-dire “construire un petit algorithme dans un univers séparé et que tout allait bien se passer”. Mais, on comprend que ce n’est pas comme ça que ça marche et que la vision du succès est avant tout une plateforme technologique avec des utilisateurs, qui doit être intégrée dans les écosystèmes existants et avec des utilisateurs qui sont capables d’utiliser la solution. C’est donc une approche qui est radicalement différente, plus dirigée par le software et l'ingénierie que par la donnée.
Retour sur les facteurs clés du succès.
Parmi les facteurs clés du succès, il y a évidemment le fait d’avoir un actif de données, puisque ça se maintient dans le temps, ça continue à être collecté et à évoluer.
Il y a aussi l'organisation qui s’appuie sur des connaissances internalisées, et c’est important d'avoir les bonnes connaissances en interne.
Il y a aussi une organisation très volontaire, qui vient du sponsoring, de la volonté de centraliser les compétences.
Il y a enfin le pragmatisme, car le marché est au courant du potentiel que peut apporter la donnée, et, cela peut mettre beaucoup de pression, surtout sur une équipe qui se forme. Une fois que la valeur ajoutée est visible, grâce à l’impact, grâce au choix des cas d’usage, la discussion se fait plus simplement, la confiance est là, et on peut se tourner vers des cas d’usages plus exploratoire mais aussi sur un effort envers des sujets internes métier data, gouvernance de la donnée, maturité des algorithme. Il faut donc un pragmatisme de tous les instants, sur des cas d’usages qui apportent vraiment un impact sur soit le chiffre d'affaires, soit les coûts.
Le risque de mal utiliser sa donnée
Le sujet de l’éthique sur la data ou l'algorithme va être un important fil conducteur dans les prochaines années, car c'est très important d'instaurer un climat de confiance pour créer de l’adhésion et du changement. Il va donc y avoir deux problématiques importantes à traiter dans les prochaines années : Les BIAIS et “l’explicabilité”.
Les biais sont assez simples à comprendre, prenons comme exemple une banque qui s’appuie sur les algorithmes pour construire des scores et ainsi évaluer le risque de dépôt de crédit. Pour attribuer le risque à tel ou tel consommateur, il peut y avoir des biais qui arrivent, si par exemple ce score favorise telle ou telle communauté. C’est important de construire des scores neutres, ou au moins explicables.
Ce qui amène au deuxième point : “l’explicabilité”. Aujourd’hui, la façon dont on construit ces algorithmes est liée à une superposition de couches technologiques, où il n’y a finalement plus de propriétaire.Comme il n’y a plus de propriétaire, cela est très difficile de donner des comptes à quelqu’un. Il faut garder en tête qu’on doit être à un instant donné capable d’expliquer pourquoi tel algorithme a pris telle décision, c’est très important.
Pierre-Louis Corteel, qui a animé cette table ronde, conclut en disant : “Ce n’est pas en améliorant la bougie qu'on a inventé l'électricité. Le saut vers la transformation par la data est une étape difficile mais qui vaut le coup, à condition bien sûr de mettre en place la gouvernance nécessaire pour limiter les courts circuits.”