Articles
Intelligence artificielle & Machine learning

Intelligence artificielle & machine learning: Turn Big Data into Smart Data

Intelligence artificielle (IA) et Machine Learning (ML) – Hype ou déjà réalité ?

Alors que beaucoup d'experts et d’analystes continuent à philosopher et à discuter pour savoir à quoi ressemblera la relation future entre l'homme et la machine en général, l'intelligence humaine et artificielle en particulier, des exemples pratiques de plus en plus concrets montrent que là, n'est plus la question depuis longtemps. Dans de nombreux domaines, la machine a depuis longtemps pris en charge la pensée. La question qui se pose aujourd'hui, est plutôt : sur la base de quelles données, la machine a appris à "penser". Avant d'aborder plus concrètement cette question, nous allons brièvement nous poser sur les faits et chiffres les plus importants concernant l'intelligence artificielle (IA) et l'apprentissage automatique (ML).

Intelligence artificielle / Machine Learning – Qu’est-ce que c’est ?

Le terme intelligence artificielle décrit généralement une branche de l'informatique qui traite de la recherche et de la simulation du comportement humain intelligent à travers des systèmes (robots) et des programmes (algorithmes) supportés par les TI. 

L'inventeur de l'intelligence artificielle est l'informaticien américain John McCarthy, qui a utilisé ce terme la première fois pour désigner une conférence qui a eu lieu en 1956 au Dartmonth College aux Etats-Unis.

Machine Learning (apprentissage automatique) est à son tour une composante de l'intelligence artificielle. Les programmes informatiques basés sur l'apprentissage automatique peuvent utiliser des algorithmes pour trouver indépendamment des solutions à des problèmes nouveaux et inconnus. Cependant, ils doivent d'abord passer par un «programme de formation» approprié.

Par exemple, l'algorithme apprend lors de «l'apprentissage supervisé» à partir d'exemples de solutions donnés pour trouver des solutions à d'autres problèmes similaires grâce à la généralisation.

IA & ML en pratique

En pratique, il existe déjà un grand nombre de domaines d'application concrets pour l'intelligence artificielle et l'apprentissage automatique. Les cas d'utilisation les plus connus actuellement par le grand public sont issus de l'informatique cognitive. Ceci est compris comme l'approche en TI pour laisser la technologie informatique agir comme un cerveau humain. Comme pour l'apprentissage automatique, le but ici est de programmer le système informatique de telle sorte qu'il apprenne de manière autonome à l'avenir. La base nécessaire est généralement fournie par les volumes de données collectés via des méthodes Big Data. Les exemples les plus connus dans ce domaine sont certainement le supercalculateur IBM Watson ou les systèmes de reconnaissance vocale tels que Siri, Cortana ou Alexa. Mais également l'algorithme de recherche de Google repose maintenant sur l'intelligence artificielle. Sous le nom de RankBrain, l’IA a été intégré pour la première fois dans Google Search en 2015 dans le cadre de la mise à jour Hummingbird.

En outre, il existe maintenant toute une gamme de scénarios d'application dans les entreprises. Aujourd'hui, les entreprises comptent déjà sur IA/ML pour l'automatisation des tâches de routine. Pour Telekom, par exemple, maintenant un logiciel effectue des travaux sur les changements de contrat et les rejets de débit ; auparavant ce travail était fait manuellement. Et chez Lufthansa, un chatbot aide les clients à trouver les tarifs de vol les plus bas.

Par ailleurs, les entreprises se tournent de plus en plus vers des processus qui relèvent du terme générique d'analyse prédictive. Les algorithmes génèrent des prévisions pour le développement futur de processus métier ou de relations clients basées sur des données historiques. Cela aide, par exemple, le secteur financier à gérer les dommages et à détecter les activités frauduleuses (comme le blanchiment d'argent). Les concepts Smart Factory en production et en fabrication utilisent déjà cette technologie dans le domaine de la maintenance (maintenance prédictive). Les algorithmes calculent l'heure et le lieu de la prochaine opération de maintenance ou d'entretien ou alertent de manière proactive avant la défaillance d'une machine ou d'un système spécifique.

Aujourd'hui, dans le marketing et la vente, les méthodes d'analyse prédictive aident déjà à planifier les campagnes marketing et commerciales

IA & ML dans la vente et le marketing :
Savoir déjà aujourd’hui, ce que le client achètera demain

Au jour d’aujourd’hui, il est important de faire des pronostics sur les comportements futurs des clients et de leurs achats. Pour ce faire, les données clients disponibles dans l'entreprise constituent la base. Dans le cadre de l '«apprentissage supervisé», déjà brièvement décrit un peu plus haut, un algorithme utilise ces données pour savoir qui achètera quel produit à quel moment et à quel endroit.

Ainsi, par exemple, il peut être utile pour l'opérateur d'un magasin en ligne de bicyclettes d'utiliser cette technologie pour dériver des tendances dans les régions qui conviennent le mieux au type de vélo qu'il offre. Alors qu'il peut généralement supposer que des Mountain Bikes dans les montagnes et City Bikes dans les villes sont «les meilleures ventes», l'algorithme lui fournira une analyse de données valide comme base pour sa prise de décision, ainsi que des indices supplémentaires quant aux types de bicyclettes le plus demandé régionalement.

En outre, l'opérateur de magasin en ligne peut se prévaloir des informations disponibles sur la structure démographique et la répartition de ses clients. Si, par exemple, il sait lesquels de ses clients ont récemment acquis une bicyclette pour enfants, il peut supposer qu'il s'agit de familles avec enfants. Ces enfants grandissent et auront donc besoin d'un nouveau vélo régulièrement à l'avenir. Cela lui permet de cibler les clients, d'adapter ses campagnes de marketing et de vente en conséquence et de se positionner comme un partenaire compétent pour ses clients tout au long de leur parcours car il connaît leurs besoins, souhaits et intérêts spécifiques.

Bien sûr, cela s'applique également au choix des bons canaux de communication. Surtout qu’aujourd’hui le client numérique laisse partout ses traces numériques: sur internet, dans les médias sociaux, etc. Si le vendeur réussit à "lire" ces traces et à les intégrer dans les données que l'algorithme utilise pour ses analyses et les prévisions qui en découlent, il aura un avantage inestimable sur la concurrence.

Cependant, dans notre exemple, avant que l'opérateur de la boutique en ligne puisse se référer aux prévisions de l'algorithme, ce dernier doit être formé en conséquence. En pratique, cela se fait généralement sur la base d'une base de données d'environ dix pour cent des données historiques disponibles dans l'entreprise. Sur la base d'un ensemble d'apprentissage, l'algorithme «apprend» quels objets il doit reconnaître sur la base de quels critères. Dans un ensemble de tests, il applique ensuite les connaissances acquises en conséquence.

Le succès de l'apprentissage dépend fortement de la qualité des données utilisées lors de la formation. Un algorithme formé avec de "bonnes" données alloue entre 70 et 80% des objets correctement.

De mauvaises données mènent à de mauvais pronostics

Si les données avec lesquelles l'algorithme est formé sont mauvaises, le résultat d'apprentissage - et donc aussi le pronostic - sera naturellement mauvais. En règle générale, alors, au maximum, seulement 50% des objets sont affectés correctement.

Une conséquence beaucoup plus fatale des mauvaises données de formation est que l'algorithme applique mal ce qui a été faussement appris, et que l'opérateur de la boutique en ligne ne le remarque pas, car les résultats incorrects sont présentés en tant que corrects. Il est simplement trompé. Conclusion: La qualité de données la plus élevée possible est un facteur de succès crucial pour la précision des résultats d'apprentissage de l'algorithme et - plus important encore - pour la fiabilité de ces résultats. Si vous ne faites pas attention, l'algorithme apprend rapidement quelque chose de faux.

Dans un projet commun de la Faculté des médias (Hochschule der Medien) et de la société Uniserv, la corrélation entre la qualité des données et les résultats des prévisions issues de l'analyse prédictive a pu également être prouvée empiriquement. A l'aide de différents scénarios de test dans lesquels des analyses de données ont été effectuées à l'aide de données de base de qualité variable, la corrélation entre les données de base de haute qualité et les résultats de l'analyse par apprentissage automatique supervisé a été examinée. Résultat: en particulier dans l'apprentissage supervisé, où les données de base constituent la base de l'apprentissage de l'algorithme, des prédictions nettement meilleures peuvent être obtenues avec une base de données de haute qualité, puisque traitée selon une gestion des données de référence, qu'avec un set de données non traitées lors de l'apprentissage automatique.

IA & ML : « Tout le monde admire la pointe des gratte-ciels et oublie souvent l’importance de la fondation … »

« It‘s like when you see a skyscraper: You‘re impressed by the height, but nobody is impressed by the foundation. But make no mistake, it‘s important. You have to have good data management to take advantage of AI. » Avec cette déclaration, Akshay Tandon, vice-président et directeur de la stratégie et de l'analyse chez LendingTree Inc., une firme de services financiers en ligne américaine, affirme l'importance de la haute qualité des données clients quand il s'agit pour les entreprises d'exploiter pleinement les avantages de l'intelligence artificielle. Pour les services marketing et commerciaux, cela signifie qu'une utilisation réussie de IA / ML pour la planification de futures campagnes n'est possible que s'ils arrivent à avoir une vision à 360 degrés du client et à transformer les «  Big Data » disponibles dans l’entreprise en « Smart Data ».

Avec Ground Truth, la société Uniserv a développé une méthodologie pour les processus et les solutions en plusieurs étapes, qui aide les entreprises à établir en fin de compte le Golden Profile de chaque client, qui agrège  en un jeu de données unique ses données d’adresses, son comportement d’achat, ses centres d’intérêts et préférences, mais aussi sa communication et ses interactions avec l’entreprise. En outre, les «empreintes» mentionnées ci-dessus que les clients laissent derrière eux sur Internet et les réseaux sociaux vont être intégrées dans les Golden Profiles. En d'autres termes, les données de base de chaque client (Golden Record) et les données de mouvement (données de transaction et d'interaction) sont fusionnées (Golden Profile). Ground Truth assure également la mise à jour continue de ces données ainsi que la synchronisation des données entre différentes sources de données. 

Dans le monde numérique, Ground Truth deviendra finalement l'élément central pour une qualité de données optimale et durable dans l'entreprise.

Conclusion : L'intelligence artificielle et l'apprentissage automatique ont depuis longtemps cessé d'être des «rêves d'avenir» et se sont déjà établis dans de nombreux domaines de l'entreprise en tant que base de l'automatisation et de la numérisation des processus. Dans le domaine du marketing et des ventes, ces nouvelles technologies constituent un outil important qui détermine le succès ou l'échec de futures campagnes - et donc le succès commercial futur des entreprises. Mais seulement si les données utilisées pour ces procédures sont de haute qualité (précision, actualité, exhaustivité), l'utilisation de ces méthodes sera couronnée de succès.