Le salon Big Data & AI Paris s’est déroulé fin septembre. L’occasion pour l’industrie de l’Intelligence Artificielle/Data de se retrouver, de découvrir les problématiques en vogue, d’échanger et de faire de la veille technologique .
Parmi les tendances cette année, les problématiques liées à la transition énergétique étaient à la Une : technologies pour maîtriser la consommation d’énergie ou de matières premières ; applications de gestion des déchets ; IoT pour récolter les données environnementales de sites tels que des usines… Tous ces projets montrent que, poussées par la crise énergétique, les problématiques liant data et écologie sont amenées à se développer.
Une autre tendance forte que nous avons notée est le développement croissant de plateformes data. Promettant de charger facilement des données issues de différentes sources, proposant des outils de nettoyage faciles à prendre en main et offrant une gamme de modèles de machine learning paramétrés automatiquement, elles permettent à un utilisateur qui connait peu la data de pouvoir obtenir facilement des résultats s’il dispose d’une bonne connaissance métier et s’il maîtrise son jeu de données. Le « no-code » revenait souvent dans les présentations de ces outils avec, à la clé, la promesse de la démocratisation du machine learning. Bien que séduisant, le no-code nous semble toutefois avoir des limites car l’intervention de spécialistes en data science reste indispensable pour résoudre des problèmes métier complexes. Les présentations ont beaucoup mis l’accent sur les architectures mises en place (comment récupérer, stocker et mettre à disposition les données) en appuyant sur le concept de « data mesh » (modélisation supposée mieux répondre aux besoins des équipes que les traditionnels data lake et data warehouse). Nous regrettons de ne pas avoir vu le détail des modèles et de leur paramétrage, ni l’évocation du traitement et du nettoyage de la donnée, pourtant sous-estimés dans de nombreux projets.
Autre problématique en développement, la confiance et la preuve des algorithmes. En effet, les plateformes évoquées plus haut sont pour la plupart des boîtes noires. Une question se pose donc naturellement : sans accès aux algorithmes et en manquant de connaissances techniques, comment faire confiance au résultat ? Pour répondre à cette question, des entreprises proposent des méthodes de preuve et des équipes travaillent sur des standards de développement et des certifications pour les algorithmes d’intelligence artificielle, en particulier dans les systèmes critiques.
Enfin, la data visualisation et les outils de BI gardent une place importante dans le salon. En effet, avec la quantité toujours plus importante de données stockées, pouvoir extraire des indicateurs pertinents reste un enjeu majeur. Attention à l’appellation « data-storytelling » utilisée à plusieurs reprises : le but de l’analyste est selon nous de concevoir les indicateurs les plus précis et utiles pour l’utilisateur afin de renvoyer une image fidèle et compréhensible d’une situation, et non pas de raconter une histoire.
Au cours de ces deux journées de salon, nous avons également pu observer d’autres applications de la data/IA qui, sans être des problématiques majeures, restent intéressantes à suivre. Citons par exemple la présentation de robots qui proposent du speech to text, de l’analyse sémantique, du scrapping et de l’analyse de données ou encore le calcul quantique.
Pour découvrir celles qui, parmi ces thématiques, auront pris de l’importance, nous vous donnons rendez-vous lors de l’édition 2023 !