carnet de route
Dans ce numéro spécial beauté-cosmétique, Muriel Koch, Directrice Générale du Groupe Nuxe, nous fait l’honneur de ces pages et nous ...
Notre expertise
Après le chaos covid et le retour de l’instabilité géopolitique, les nouvelles technologies (IA, blockchain, bitcoin…) semblent soudainement challenger les organisations qui appréhendent et embarquent ces évolutions technologiques profondes dans un contexte chahuté : remettre en question la nature même de certains métiers et les questionner sur leur évolution, gérer par ailleurs les enjeux de sécurité et d’intégrité…
Les innovations promises par la technologie dans cette décennie ne cessent de susciter des espérances croissantes. Ce qui était révolutionnaire il y a quelques années commence à être dépassé par certaines avancées récentes.
Prenons en exemple ce qu’a apporté (et ce que va continuer d’apporter) la blockchain en matière de transactions et d’échanges, de partage et de stockage de données, fantastique bond en avant.
Ceci n’est rien en comparaison des apports annoncés de l’ordinateur quantique : séquençage d’ADN, simulation exacte de la météo, traitement en quelques secondes de problèmes qu’un ordinateur classique mettrait des milliers d’années à traiter…
Entre les perspectives suscitées et les fortes inquiétudes associées aux profondes remises en question de nos modèles que les innovations technologiques contiendront inévitablement : bien délicat d’appréhender les révolutions promises par les nouvelles technologies dans nos sociétés où la data est tout, mais où tout ne sera probablement (et heureusement) jamais data.
Big Data : 
futur Eldorado ?
Difficile d’échapper à « big data » lorsque l’on s’intéresse à l’actualité technologique ou économique ces dernières années. Nous procréons environ 2,5 trillions d’octets de données tous les jours, et le volume de données générées dans le monde depuis 5 ans augmente de près de 40 % par an. Ce sont donc ces quantités gigantesques de données qui sont à l’origine de ce qui nous est promis pour demain, pour le meilleur et pour le pire.
La Big Data : une destination floue
La croissance exponentielle du cloud, la multiplication des canaux de diffusion et l’accélération des temps de transfert permettent aujourd’hui d’accéder à une big data personnalisée et hyper-ciblée en temps réel :
– à la fois d’un point de vue « perso » dans le sens ou les requêtes ciblées appellent à des restitutions personnalisées et instantanées : IA, traductions écrites ou orales en sont quelques exemples. C’est l’accélération du « time to market » de la data.
– Par ailleurs, dans l’amplification de la propagation qui devient « multi » : multi-pays, multilingues, multi-devises, multi-canaux, multi-catalogues, multi-formats, etc : les applications, sites web évoluent perpétuellement au rythme des inputs de la data qui les alimente.
On note dans cette articulation, le paradoxe d’une data à la fois hyper dédiée (la dimension MICRO) et propagée à 360° (la dimension MACRO) et pourrions la considérer comme valide et intègre mais le fonctionnement de l’IA par exemple montre que la data n’a pas de garde-fous dans son utilisation : les algorithmes prennent pour acquis des images ou des textes issus d’IA et en les remettant à disposition de moteurs de recherche, corrompent l’essence et l’intégrité même des datas. Qui se souvient de l’expérience prémonitoire et éphémère, lancée en 2016 par Microsoft à travers son robot Tay, doté d’une IA et initialement prévu pour apprendre et s’enrichir au fil de ses échanges humains mais qui avait dû être déconnecté après 24 heures seulement car il avait beaucoup trop appris de termes « inappropriés »… ?!
Vers une IA de plus en plus sophistiquée, mais (à ce stade) pas nécessairement plus fiable
Dans le cas d’un algorithme d’IA, on introduit dans des données fiables et vérifiées (la BIG-DATA se compose basiquement de mots, d’assets), des éléments dont la seule vérité est qu’ils sont issus automatiquement d’algorithmes et de traitements informatiques.
Ces mêmes éléments peuvent ensuite être remis à disposition et « moulinés » pour de nouveaux traitements, entachant ainsi la fiabilité et la véracité de la source.
Le digital répond aujourd’hui de plus en plus à cette logique floue : données éparpillées, transformables, modifiables, sans précaution particulière. Là où des métadonnées ont été mises en œuvre pour catégoriser des assets par exemple, il n’y a aucun watermark (élément intégré de manière transparente dans un fichier numérique afin d’indiquer son origine ou son propriétaire) qui puisse identifier une data issue de l’IA : cela risque à terme d’entraîner l’émergence de zones grises, hybrides entre vraie data et data issue de l’IA, sans aucun gardien du temple à ce jour.
C’est précisément ce que l’enquête du Washington Post sur la base de données C4 de Google, immense base de données regroupant 15 millions de sites web et servant à entraîner des modèles d’IA, a révélé. En effet, malgré une tentative d’éviter certains contenus à l’aide de filtres, il subsiste beaucoup de données problématiques avec lesquelles les modèles d’IA s’entraînent : sites conspirationnistes, pornographiques, racistes… De plus, la présence de Wikipédia en deuxième position des sources les plus utilisées par le langage, et la forte représentation des médias dans le top 10 montre que les IA n’accèdent pas simplement à des données scientifiques, brutes et neutres mais plutôt à une masse gigantesque d’informations déjà transformées et utilisées, sans avoir la capacité d’en vérifier la validité. Enfin, se pose la question des droits d’auteurs et du respect de la vie privée : la base de données peut accéder directement au moteur de recherche pour les brevets, aux contenus disponibles sur Kickstarter, Patreon, Reddit… En clair, les IA s’entraîneraient à l’aide de données ou d’idées sans en avoir « l’autorisation ». à cet égard, en avril dernier, estimant qu’OpenAI avait enfreint le RGPD avec ChatGPT, l’Italie a suspendu la plateforme jusqu’à ce que la société se remette en règle.
Si l’on considère que le volume de data en circulation en 2025 atteindra 175 Zettabyte (soit 1,000,000,000,000,000,000,000 (1021) bytes) et que ce chiffre devrait doubler tous les 3 ans, on peut effectivement s’inquiéter de l’intégrité de la data qui va continuer de s’enrichir et de s’interconnecter au fil des requêtes et des traitements. Dans cette nouvelle ère de la Zettabyte Zone on sera alors devant un paradoxe d’une data toujours plus dense et pourtant moins riche car moins fiable… pour potentiellement nourrir les activités marketing des marques et des organisations.
Dans ce moment où les marques et les organisations ont dans leur majorité activé trop de canaux dans leurs activités marketing, engendrant ainsi une fragmentation des ressources et des messages, et in fine un ratio défavorable entre « working » et « non working » media (et un épuisement des équipes)… le recours à des data fiables est clé pour élaborer et financer un parcours de conversion rigoureux, faire des choix simples, se rassembler autour de priorités fortes et limitées dans le cadre de ce funnel.
C’est ainsi que les marques augmenteront l’efficience de leurs investissements marketing et resteront en étroite relation avec leurs clients et prospects.
―
François Mennetrier et Simon Huillard
Dans les prochains Tout Compte, retrouvez la suite de cette série de 3 articles :
Dans ce numéro spécial beauté-cosmétique, Muriel Koch, Directrice Générale du Groupe Nuxe, nous fait l’honneur de ces pages et nous ...
Le plastique… pas si fantastique ! Héritage des boomers, apparu dans les années 60 avec la société du jetable et du « tout pétroleÂ...
L’époque est fort heureusement à la prise en compte des enjeux environnementaux et à une plus grande transparence des activités des en...