Kafka, pierre angulaire des Architectures Fast Data ?

Kafka, pierre angulaire des Architectures Fast Data ?

Kafka, pierre angulaire des Architectures Fast Data ?

Dans les projets Big Data, le Data Streaming s’impose de plus en plus comme un nouvel impératif. Bonne nouvelle, c’est aussi le terrain de jeu de prédilection de Kafka.


Big Data ou Big Mess ?

Comment éviter que le Big Data ne devienne un « Big Mess » ? C’est pour répondre à cette question qu’en 2009 les équipes de LinkedIn, confrontées à des problématiques d’intégration de données auxquelles les outils disponibles ne répondaient pas, élaborent un nouveau bus de messages distribué : Kafka.

Placé en 2011 sous l’égide de la fondation Apache, ce broker de messages connaît depuis une adoption croissante. Pour une raison essentielle : Kafka est dans la pratique bien plus qu’un bus. Et sa nature profonde en fait une brique de choix pour outiller les projets Big Data et, plus précisément, les scénarios qui recourent au Data Streaming. Explications.

Apache Kafka, bien plus qu’un bus

Quand les équipes de LinkedIn se penchent sur le cahier des charges de leur bus idéal, c’est notamment par comparaison avec les limites des solutions existantes. Voilà pourquoi elles se fixent notamment comme objectif de concevoir un bus qui :

  • Garantit le découplage entre producteurs de données et consommateurs
  • Supporte des consommateurs multiples
  • Permet une forte scalabilité horizontale via une Architecture distribuée
  • Met en œuvre la persistance des données

Et c’est bien ce que permet Kafka aujourd’hui. La solution se distingue par sa capacité à gérer des débits très élevés de messages, ce que les consultants Nexworld ont pu vérifier lors de différentes évaluations.

Caractéristique clé : la persistance .
Autre spécificité, avec Kafka les messages ne disparaissent pas aussitôt qu’ils sont consommés mais persistent dans des « topics » auxquels sont abonnés des consommateurs. Cette persistance est une caractéristique clé. Confluent, co-fondé par l’équipe à l’origine de Kafka et qui développe des solutions et services complémentaires, revendique ce positionnement haut et fort : « Kafka est basé sur une abstraction d’un commit log distribué (…) et a rapidement évolué du broker de messages vers une plateforme de streaming à part entière ».

Data Streaming, le terrain de prédilection de Kafka

Et, de fait, les usages actuels de Kafka confirment ce positionnement. Dans une étude menée l’an passé (350 organisations interrogées dans 47 pays), si 50% des interrogés mentionnent « le messaging » parmi les tâches confiées à Kafka, 66% évoquent le « streaming process ». Parmi les cas d’usages, se détachent les data pipelines (81% de mentions), les Microservices (50%), ou encore la supervision temps réel (43%).

Cas d’usage les plus courants pour Apache Kafka (350 organisations interrogées dans 47 pays)

Parce que le Data Streaming désigne des données issues de sources variées et (surtout) générées de manière continue il est souvent associé à l’internet des objets (IoT). Dans la pratique, les traitements de ces données diffusées en continu se rencontrent dans bien d’autres cas d’usage : détection de fraudes dans le secteur de la finance, achats temps réel dans celui de la publicité digitale, supervision de la sécurité informatique. En fait, le Data Streaming s’impose dès qu’il s’agit de penser non plus « Big Data » mais « Fast Data », autrement dit, dès que la question de la vélocité des données prend le dessus.

Le temps réel, la nouvelle quête

« Le traitement temps réel de la donnée, c’est la quête des nouvelles plateformes Data, confirme Guillaume Drot, consultant Nexworld spécialiste des Architectures Big/Fast Data . Et Kafka permet de mettre en œuvre ce streaming pour traiter des événements au fil de l’eau, donc pour bâtir une chaîne de traitement en continu. L’Architecture hautement scalable s’avère particulièrement bien adaptée à ces usages ».

Un « commit log » avant tout

Attention, Kafka n’est pas pour autant une baguette magique. « C’est un commit log, souligne Guillaume Drot, qui délègue plus de responsabilité aux applications qui consomment des messages. Il revient par exemple à ces applications de gérer des mécanismes d’accusé de réception là où d’autres brokers les intègrent plus nativement. »

Attention aux formats des messages

Résultat, selon les scénarios, des bonnes pratiques s’imposent pour garder la maîtrise des flux de messages gérés via Kafka. Pour exploiter par exemple le streaming de données dans le cadre d’Architectures Microservices, une grande rigueur s’impose dans la définition des formats des messages. Objectif : sélectionner des IDs qui, injectés dans les messages, enrichissent les informations techniques ou métiers. « La bonne nouvelle, commente Guillaume Drot, c’est que la plateforme permet une gestion centralisée de ces formats ».

Une « Single Source of Truth »

Au-delà de ces bonnes pratiques, de nombreuses librairies existent pour compléter l’outillage de Kafka. « Attention d’opter pour des librairies régulièrement maintenues et qui suivent au plus près les différentes évolutions de la plateforme », recommande Guillaume Drot. Des précautions à prendre pour tirer le meilleur parti de ce qui ressemble désormais plus à un système de stockage qu’à un bus. Avec une vocation clairement assumée : faire office de « Single Source of Truth » à l’ère du Big (et Fast) Data.

Interview de Guillaume Drot

Interview de Guillaume Drot

Consultant Nexworld

DÉCOUVREZ COMMENT NOTRE CABINET ACCOMPAGNERA LA TRANSFORMATION DE VOTRE ENTREPRISE

Les consultants Nexworld mettent leur expertise aux services des entreprises qui veulent accélérer leur transformation numérique. Nexworld propose des séminaires adaptés aux besoins et au SI existant de votre entreprise.

Architecture Fast Data : par où commencer ?

Ce n’est plus un secret pour personne, les données sont aujourd’hui porteuses d’un potentiel incroyable avec une quantité toujours plus importante d’année en année. Pourtant, même si les entreprises sont conscientes des masses de données qu’elles ont à leur disposition, la question de savoir comment les exploiter peine toujours à être traitée.

Architecture Fast Data : par où commencer ?

Ce n’est plus un secret pour personne, les données sont aujourd’hui porteuses d’un potentiel incroyable avec une quantité toujours plus importante d’année en année. Pourtant, même si les entreprises sont conscientes des masses de données qu’elles ont à leur disposition, la question de savoir comment les exploiter peine toujours à être traitée.

Kafka, pierre angulaire des Architectures Fast Data ?

Comment éviter que le Big Data ne devienne un « Big Mess » ? C’est pour répondre à cette question qu’en 2009 les équipes de LinkedIn, confrontées à des problématiques d’intégration de données auxquelles les outils disponibles ne répondaient pas, élaborent un nouveau bus de messages distribué : Kafka.

Machine Learning : retour aux sources

Machine Learning : retour aux sources

Machine Learning : retour aux sources

Le Machine Learning est la grande promesse du moment. De la prédiction à l’optimisation, du diagnostic de maladies aux voitures autonomes, son utilisation permet de capitaliser sur les flux de données. À quelles conditions ? Avec quelles limites ? Explications.

Machine Learning : entre Homme et Machine

Le Machine Learning, sous-domaine de l’Intelligence Artificielle, est l’ensemble des techniques qui fournit la capacité d’apprentissage à un Système Informatique. Depuis ses débuts, l’Intelligence Artificielle cherche à se rapprocher au maximum de l’être humain. L’avancée technologique dans ce domaine n’a jamais d’ailleurs autant inquiété la population, rappelant les scénarios catastrophes énoncés dans la littérature ou dans les films. Pour autant, l’Intelligence Artificielle à proprement parler n’est pas à craindre directement, c’est le degré d’autonomie concédé aux machines dont il faut se méfier. Avec le Machine Learning, ou Apprentissage Machine en français, ou même encore Apprentissage Autonome, c’est l’apprentissage humain que l’on cherche à imiter.

La nature a toujours fourni une source infinie d’inspiration pour l’innovation. Du plus simple, avec le « velcro », au plus complexe avec la forme caractéristique du Shinkansen (TGV japonais), inspiré du martin-pêcheur afin de réduire le bruit et l’énergie. Alors, quoi de mieux que d’utiliser notre propre système d’apprentissage pour procurer la même capacité aux programmes informatiques ? Ainsi, un programme peut être capable de distinguer une télévision d’un téléphone. Tel un humain, en présentant un certain nombre d’images de ces deux objets, le système apprend et établit une règle. Grâce à cette dernière, il peut par la suite répondre directement, dès l’arrivée d’une nouvelle image, si celle-ci représente une télévision ou un téléphone. Attention aux raccourcis : le programme n’est pas pour autant capable d’apprendre tout dès sa mise en action. L’apprentissage réalisé est précis et sur une tâche bien définie.

Découvrez nos formations Intelligence Artificielle :

Deux Systèmes pour une liberté de penser

En Machine Learning, le Système créé possède une aptitude d’apprentissage ainsi qu’une capacité de réponse rapide et avérée aux problèmes qui lui sont présentés. Cela est très proche du concept de nos deux modes de pensée.

En effet, notre cerveau possède deux systèmes de pensée : le Système 1 et le Système 2. Démontrée par les psychologues comportementalistes, l’existence de ces deux Systèmes gère notre manière de traiter l’information. Le Système 1 est rapide et intuitif. Basé sur notre expérience, il permet des réponses intuitives aux problèmes qui nous sont posés. Le Système 2, quant à lui, est plus lent et nécessite plus d’efforts mais s’avère aussi plus logique et réfléchi. C’est à l’aide du Système 2 que nous apprenons. Une fois l’apprentissage terminé de manière plus ou moins longue, il est possible alors de traiter le problème instinctivement en utilisant notre Système 1. C’est ce même mécanisme qui est reproduit en Machine Learning. Le Système 2, pour une machine, est la phase d’apprentissage réalisée à l’aide d’algorithmes. Ces algorithmes permettent de tirer profit des données qui lui sont présentées. Le résultat de l’algorithme fournit une fonction, aussi appelée règle ou encore modèle. C’est ce modèle obtenu qui représente le Système 1 de pensée. Désormais, le programme est capable de fournir un résultat rapide sur la question posée. Cependant, en comparaison avec le Système Humain, celui-ci présente l’avantage de ne pas être soumis aux émotions pouvant nous induire en erreur.

Le Machine Learning dans tous ses états

Un concept simple à mettre dans toutes les poches

Le Machine Learning est l’ensemble des outils fournissant à un programme informatique la fonctionnalité d’apprentissage. Comme défini par Tom Mitchell, auteur de « The Discipline of Machine Learning », un système de Machine Learning est un programme informatique qui apprend à partir de l’expérience dans le but de résoudre une certaine tâche. La performance de résolution s’améliorant avec l’expérience. Trois notions régissent le concept d’apprentissage pour une machine dans cette définition :

  • L’expérience : qui correspond aux données en notre possession.
  • La tâche : qui correspond à ce que l’on cherche à résoudre. On peut la voir comme le but du programme. Reconnaitre une télévision et un téléphone est une tâche. Prédire les ventes d’un magasin, prédire le stock nécessaire ou encore savoir qui sont ses clients sont d’autres exemples.
  • La performance : qui correspond à la véracité des résultats. L’optimisation de la performance se fait en améliorant le modèle. Pour cela on modifie l’algorithme utilisé, on change les paramètres et on acquiert plus d’expérience.

3 modes d’apprentissage

Les données à disposition peuvent avoir différentes formes. Pour récupérer au mieux les informations, il existe trois principaux types d’apprentissage :

Apprentissage supervisé : L’apprentissage supervisé est un apprentissage se faisant avec des données étiquetées. En clair, les données possèdent un attribut spécifiant le résultat que l’on cherche à résoudre. Pour chaque donnée, le résultat est connu. Par exemple, avec un jeu d’images de télévision et de téléphone, l’algorithme sait pour chacune de ces images si c’est une télévision ou un téléphone. L’apprentissage supervisé est utilisé notamment pour des problèmes de classification ainsi que de régression.

Apprentissage non-supervisé : Cette fois-ci, les données en notre possession sont non étiquetées. On ne sait pas si les mails sont des spams ou non. Les algorithmes sont chargés par eux-mêmes de trouver des correspondances entre les données et les attributs. Ce type d’apprentissage est généralement utilisé pour réaliser des groupes.

Apprentissage semi-supervisé : L’apprentissage semi-supervisé est facile à comprendre puisque c’est un mélange des deux apprentissages précédents. Les données d’apprentissage utilisées sont donc, pour certaines, étiquetées, d’autres non étiquetées. Par analogie avec l’être humain, lorsque celui-ci apprend, il ne connait pas toujours le résultat. C’est alors à lui de mettre en relation ce qu’il sait et ce qu’il ignore.

De l’algorithme au modèle

Le modèle, ou règle, est la fonction qui « résout » la tâche que le programme cherche à réaliser. Sa définition se fait à l’aide d’algorithmes. L’ordinateur cherche de lui-même le modèle qui déchiffre la tâche demandée en utilisant les données qui sont à sa disposition. Heureusement pour les Data Scientists et développeurs de Machine Learning, il n’est nullement besoin de trouver et développer soi-même ces algorithmes. Ces derniers sont issus du monde des statistiques. À charge alors de comprendre leur fonctionnement, afin de les utiliser de la meilleure manière. Certains étant spécialisés dans la prédiction, d’autres dans le clustering (regroupement des données en groupes) et d’autres encore dans la classification.

Le modèle est l’aboutissement d’un Système de Machine Learning. En effet, c’est lui qui contient la « formule » finale de résolution. Une fois le modèle défini, il est alors possible de donner un résultat sur de nouvelles données entrantes. Ce modèle est loin d’être statique puisqu’il peut continuer son apprentissage à l’aide de ces nouvelles données.

Par exemple, une boite mail, qui souhaite déterminer si un mail est un spam ou non, contient généralement un modèle issu du Machine Learning. Il correspond à la fonction, qui, à l’aide des attributs (nombre de mots, objet du mail, expéditeur, vocabulaire, etc), donne un résultat (spam ou non) sur chaque mail reçu.

Sur le graphique ci-dessous est représenté ce modèle sous forme de droite (ligne verte) séparant nettement les mails spam et les non spam. On peut toutefois observer certains éléments situés du mauvais côté de la fonction. En effet, un modèle parfait n’existe pas. Le but de l’algorithme est de trouver le meilleur modèle avec le taux de réussite le plus élevé.

Figure 2 : Classement et modèle d’un apprentissage pour la classification de mail en spam ou non spam

7 cas d’usage du Machine Learning en Entreprise

Les tâches pouvant être résolues par le Machine Learning touchent un grand nombre d’applications. Comme le cite l’étude « The age of analytics : competing in a Data-Driven world » réalisée par le cabinet McKinsey, on peut les regrouper en plusieurs catégories. Chacune pouvant se recouper, s’associer et se compléter.

  • Allocation de ressources : l’optimisation des ressources a toujours été un enjeu capital pour les entreprises. Une sur-allocation engendre une efficacité moins importante et une sous-allocation provoque une surcharge d’activité.
  • Découverte de nouvelles tendances : savoir anticiper les nouvelles tendances permet de prendre une longueur d’avance sur ses concurrents. Parfois, les tendances sont invisibles pour l’Homme. En revanche la machine est capable de tirer des informations et signaux, qu’ils soient faibles ou forts.
  • Analyse prédictive : c’est une Analyse permettant de réagir et d’éviter qu’un événement se produise. Par exemple, en évaluant le risque de départ à la concurrence (churn) d’un Client ou encore en évaluant le risque financier associé à un Client (risk scoring).
  • Hyperpersonnalisation : connaître ses Clients c’est leur offrir un service qui correspond à leurs besoins. Il est ainsi possible de proposer des produits en adéquation avec ces derniers ou encore de faire de la publicité ciblée.
  • Optimisation (prix-produits) : optimiser le marketing, optimiser une recherche clinique (cas, patients, investissement), optimiser dans un magasin les assortiments des produits pour maximiser les ventes.
  • Prévisions : prédire les événements qui vont toujours faire rêver les Hommes. Prédire la météo, prédire le nombre de ventes du mois ou encore les futurs cours du CAC 40, toutes ces réalisations sont possibles avec le Machine Learning.
  • Conversion de données non structurées : dans le cas d’une voiture autonome, les données sont récupérées en temps réel et sont non structurées. Le Machine Learning offre un moyen de mettre à profit cette quantité de données disponibles.

Le Machine Learning, un cycle en 5 phases

Le Machine Learning n’est pas le résultat du modèle ou bien le modèle lui-même. C’est l’ensemble de la chaîne qui définit le Machine Learning. Cette chaîne se divise en cinq phases que l’on peut résumer comme suit :

  • Acquisition des données : la possession de données historiques est la source de tout apprentissage. De plus, plus la quantité est élevée, meilleur sera l’apprentissage. Il est nécessaire de recueillir un maximum de données au même endroit. Qu’elles proviennent de sources embarquées, du web ou de services internes, toutes les données sont les bienvenues.
  • Nettoyage, Préparation, Manipulation des données : les données ont besoin d’une retouche avant d’être utilisées. En effet, certains attributs sont inutiles, d’autre doivent être modifiés afin d’être compris par l’algorithme et enfin, certains éléments sont inutilisables car leurs données sont incomplètes. Plusieurs techniques telles que la Data Visualisation, la Data Transformation ou encore la Normalisation permettent de gérer cette problématique.
  • Création du modèle : une fois les données clarifiées, un ou plusieurs modèles sont créés à l’aide d’algorithmes de Machine Learning.
  • Évaluation: une fois le modèle réalisé, il faut l’évaluer pour prouver son efficacité et sa performance. En utilisant un second jeu de données, on identifie la précision du modèle et on répète l’étape 3 et 4 jusqu’à l’obtention de la meilleure performance.
  • Déploiement : la dernière étape est la mise en production du modèle. Il est désormais possible de l’utiliser pour les nouvelles données entrantes. Le Système est itératif puisque ces nouvelles données sont réutilisées par l’algorithme pour améliorer le modèle. Le système est en perpétuel évolution et amélioration.

Aller plus loin

Découvrez nos formations Data

Pierre-Alexis Boccard

Pierre-Alexis Boccard

Consultant Nexworld

DÉCOUVREZ COMMENT NOTRE CABINET ACCOMPAGNERA LA TRANSFORMATION DE VOTRE ENTREPRISE

Les consultants Nexworld mettent leur expertise aux services des entreprises qui veulent accélérer leur transformation numérique. Nexworld propose des séminaires adaptés aux besoins et au SI existant de votre entreprise.

L’Intelligence Artificielle : 7 mythes mis à l’épreuve

L’Intelligence Artificielle (IA) est dans tous les discours : films, nouvelles technologies ou encore politique ; avec des visions parfois extrêmes. Souvent dystopiques en science-fiction ou utopiques selon les GAFAMI. Simple buzzword ou réelle disruption...

Pas de Chatbot sans Intelligence Artificielle et Machine Learning !

Pas de Chatbot sans Intelligence Artificielle et Machine Learning !

Pas de Chatbot sans Intelligence Artificielle et Machine Learning !

Désormais, la révolution des Chatbots est en marche : Gartner prédit en effet que d’ici 2019, ¼ des foyers des pays développés se serviront d’un Chatbot comme d’une interface privilégiée d’accès aux services à domicile (service à la personne, livraison alimentaire…).

Les progrès de l’Intelligence Artificielle vont-ils favoriser l’explosion des Chatbots en complément de l’humain ? Le Machine Learning va-t-il bousculer la donne en construisant sa propre base de connaissance ?

Eliza Eliza : Une histoire qui dure…

Le test de Turing est une proposition de test d’Intelligence Artificielle fondée sur la faculté d’une machine à imiter la conversation humaine. Décrit par Alan Turing en 1950 dans sa publication Computing machinery and intelligence, ce test consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain.

Le Chatbot est un phénomène qui n’est pas nouveau, le premier programme de type Chatbot a été conçu au milieu des années 1960 (Eliza).

Le terme de « Chatterbot » a, quant à lui, vu le jour en 1994 avec Clippy : l’assistant personnel de Microsoft Office (qui donnait rarement les réponses adéquates). Les robots conversationnels apparaissent dans les services Grands Publics.

Dans les années 2000 à 2010, un des terrains d’application des Chatbots est la relation Client. Le Chatbot d’Ikea, du nom d’Anna créé au milieu des années 2000 pouvait répondre à de simples questions quand elle réussissait à trouver une concordance.

Mais c’est vraiment depuis quelques années seulement que les Chatbots reviennent sur le devant de la scène. Pour certains Analystes, les Chatbots constituent même la grosse tendance technologique de 2016. Deux raisons principales à cela :

  • 1/ le développement des services de messagerie instantanée
  • 2/ Les progrès en matière d’Intelligence Artificielle et de Machine Learning.

Chatbot : la genèse d’une nouvelle ère conversationnelle

Issu de la contraction des mots « Chat » (discussion) et « bot » (robot), un Chatbot est par définition un agent conversationnel intelligent capable d’interagir avec des humains en langage naturel via un service de messagerie hébergé sur un site Web ou sur les réseaux sociaux.

Il est important de distinguer deux types de bots :

  • Les assistants personnels tels que Siri, Google Now ou Cortana, qui sont basés sur l’Intelligence Artificielle, capable de traiter un grand nombre d’informations
  • les bots visant un objectif précis et accomplissant une mission spécifique, à l’aide d’un scénario prédéfini

 « Un bot s’apparente à une application mobile, mais l’interface est différente. On parle de « conversationnal user interface ». Pour l’utilisateur, ce n’est donc ni plus ni moins qu’une conversation ».

Chatbot : Entre mythe et réalité

Aujourd’hui, les conversations avec les Chatbots sont disponibles sur des plateformes déjà connues telles que Skype, Slack, Telegram, Kik, Messenger, ou encore WeChat en Asie… Cette conversation peut se faire sous forme uniquement textuelle ou être enrichie d’images et d’interactions, et peut tout aussi bien se faire avec des questions ouvertes ou sous forme de QCM.

Pourtant, il convient de bien distinguer deux types de Chatbots :

  • Les Chatbots à interactions dites « faibles » : c’est-à-dire que chaque question est prévue en amont par l’Homme afin que l’agent conversationnel puisse y apporter une réponse fiable et cohérente grâce à une analyse précise des mots-clés de la requête utilisateur
  • Les Chatbots à interactions dites « forte » utilisant l’Intelligence Artificielle : ce Chatbot intelligent sera capable de mener une conversation de manière autonome, et même faire preuve d’humour et d’émotion.

L’Intelligence Artificielle est basée sur la création de puissants algorithmes qui déterminent sa qualité de réflexion, d’analyse et de compréhension. Le croisement de la technologie et les usages sont désormais matures pour commencer à offrir une expérience utilisateur intéressante :

Pourquoi l’interconnection avec les APIs va révolutionner les Chatbots

Les Chatbots débarquent dans les applications de messagerie instantanée.

Telegram, Skype, Slack, WeChat, Kik, Line et maintenant Messenger : toutes ces applications de micro-messageries ont annoncé dans la foulée le lancement de leur API pour créer des bots de marque. Mais c’est véritablement Facebook Messenger avec ses 900 millions d’utilisateurs qui va démocratiser les bots.

Le développement des APIs va permettre de s’interconnecter avec d’autres services et plateformes, et ainsi démultiplier les différents points de contacts avec les consommateurs.

Dans le cadre des Chatbots, les APIs deviennent essentielles pour faire profiter les utilisateurs de services de marques de manière plus optimale.

Pour les utilisateurs, ils pourront accéder aux différents services et à une expérience plus fluide car ils ne sortiront pas de l’application sur laquelle il navigue et pourront bénéficier d’un service autre, sur une application différente.

Le Chatbot, c’est une interface entre les utilisateurs et un éditeur de contenu, un fournisseur de service ou un marchand (pour schématiser).

Une connexion entre le Chatbot et le S.I. se fait à travers une interface de programmation (API pour Applications Programming Interface). Celle-ci peut servir à un Chatbot ou autres : sites Web, interfaces, etc…

Les APIs proposées par les fournisseurs de messagerie offrent la possibilité de développer un Chatbot en l’alimentant de questions et requêtes types qu’un utilisateur pourrait formuler.

Pour chaque requête type, on paramètre l’action correspondante que doit effectuer le Chatbot :

  • Rechercher une réponse à la question posée
  • Afficher une liste de produits
  • Afficher une carte ou des boutons d’action

Les APIs permettent d’exploiter des interfaces naturelles comme la voix à travers les assistants personnels de Apple, Google, Microsoft ou Amazon (respectivement Siri, Google Assistant, Cortana et Alexa).

Qu’en-est-il de la relation Chatbot/Intelligence Artificielle ?

Avec l’avènement de l’Intelligence Artificielle, les Chatbots seront capables d’apporter des réponses cohérentes à des questions complexes et effectuer des actions plus complexes (réservation, achat, recherche d’info, conseil personnalisé) en prenant en compte leur contexte et leur auteur, et en s’exprimant de plus en plus naturellement, à l’aide d’une approche cognitive et d’une approche à base de règle, il est possible de créer un système intelligent, automatisé et capable de prendre des décisions.

Le Machine Learning, un domaine indispensable à la conception des Chatbots

Parce qu’il a vocation à répondre à tout type de demande de façon fiable, rapide et pertinente, le Machine Learning représente un enjeu de taille pour les Chatbots destinés à converser avec un utilisateur, notamment à travers une messagerie instantanée comme Facebook Messenger.

Le Chatbot va ainsi utiliser le principe de Machine Learning pour augmenter ses performances. Plus les Chatbots interagissent avec les utilisateurs, plus ils obtiennent d’informations, et mieux ils apprennent à anticiper les comportements et adopter le bon.

Le Machine Learning va permettre aux Chatbots, de pouvoir adapter ses analyses en se fondant sur des données recueillies. En effet, ils représentent d’excellents moyens de récolter de la Data au sein des utilisateurs. Le programme sera alors en mesure de pouvoir ajuster son comportement automatiquement et d’évoluer selon l’utilisation souhaitée.

Les informations peuvent être recueillies par des capteurs, par des systèmes de reconnaissance vocale ou de reconnaissance d’écriture, ou être issues du Data Mining.

Il faut que les bots soient aussi capables de comprendre l’information et d’apprendre à répondre aux différentes questions.

La pertinence de la réponse représente l’un des éléments les plus déterminants pour la réussite d’une Chabtot. Le Machine Learning doit donc permettre de :

  • Pouvoir analyser et prendre en compte la manière idéale de répondre à une demande
  • Traiter et garder en mémoire les informations échangées
  • Produire des interactions variées qui semblent les plus naturelles possibles
  • Réaliser des auto-évaluations des bots pour déterminer s’ils répondent de façon adéquate aux demandes des utilisateurs

Ainsi, en combinant de l’Intelligence Artificielle et du Machine Learning, on crée ainsi un Chatbot intelligent, capable de s’adapter au Client en fonction de sa personnalité et en lui proposant par exemple, le produit le plus approprié et utilisant les arguments qui le convaincront. Le Chatbot ne sera plus un simple assistant mais un réel vendeur.

Mise en place opérationnelle d’un Chatbot

À l’instar d’une application, cela dépend énormément du niveau de complexité du type de Chatbot demandé (scénario / richesse de l’interface / nombre de sources de données). L’estimation du déploiement d’un Chatbot peut aller de quelques semaines pour un Chatbot simple avec un scénario très cadré, à plusieurs mois pour des Chatbots plus élaborés.

Avant de se lancer, il est nécessaire de répondre à des questions simples qui peuvent vous aider à déterminer quel type de Chatbot mettre en place.

Quel est votre besoin ?

  • Pourquoi voulez-vous utiliser un Chatbot ? Utilisation pour un service client ?
  • Automatisation de certaines tâches

Quels seront ses objectifs ?

  • Votre Chatbot peut avoir des objectifs bien différents en fonction de vos besoins (définir des objectifs et des tâches précises afin qu’il soit le plus précis et le plus utile possible)

Où répondra-t-il ?

  • Quels sont les canaux que vos clients utilisent ?

Quelles seront ses tâches ? Sera-t-il associé à un humain ?

  • Définir des missions claires et précises pour que le Chatbot vous aide à fixer les limites de ses compétences

Quelles sont vos ressources ?

  • De quels moyens disposez-vous pour imaginer, suivre et améliorer votre Chatbot ?
  • Quel est votre budget ? Vos ressources humaines en interne ?
  • Avez-vous besoin d’aide pour le mettre en place ?

Et demain… De nouvelles manières d’interagir avec les mobiles et les marques

Plutôt que de télécharger plein d’applications pour des services et usages différents, l’utilisateur installera directement des bots, qui iront eux-mêmes chercher les contenus dont il a besoin, sans qu’il ne fasse rien de plus qu’envoyer un message. Cela changera la manière dont nous percevons une marque, et notre relation avec elle deviendra plus intime.

L’UX va également changer puisqu’il ne s’agira plus de naviguer entre apps et sites, mais simplement de chatter, d’utiliser des emojis, des commandes spécifiques. Nous allons discuter dans un langage de plus en plus naturel avec la marque notamment via la voix, et les bots eux-mêmes comprennent de mieux en mieux le langage humain, c’est ce que l’on appelle le Natural Language Processing, ou NLP.

Grâce à cela, les bots évoluent et sont programmés pour comprendre les comportements, désirs et besoins donnant lieu à une nouvelle manière de générer des ventes et d’automatiser l’Internet des objets (IoT).

3 bonnes pratiques et erreurs à éviter avant de se lancer dans un Chatbot

La conception d’un Chatbot doit prendre en compte quelques fondamentaux avant de commencer et éviter certaines erreurs.

Bonnes pratiques :

  1. Avant de se lancer, penser au service de Chat utilisé par les clients
  2. Donner au Chatbot des objectifs de réponse
  3. Commencer simple, puis faire du test and learn

Erreurs :

  1. Déployer un Chatbot trop complexe…
  2. Créer un Chatbot pour faire de la collecte de données personnelles sans une réelle intention de rendre service et de comprendre les usages des utilisateurs
  3. Ne pas personnaliser et humaniser son Chatbot

Chatbot : des débuts prometteurs…

La maturité technologique des Chatbots et le contexte actuel de l’information renvoient des signaux positifs, néanmoins les usages et les pratiques ne sont qu’à leurs débuts. D’excitantes perspectives s’offrent à nous, alors gardons l’oeil et l’esprit ouvert.

Emmanuel BEILLAUD

Emmanuel BEILLAUD

Consultant Transformation digitale et innovation

DÉCOUVREZ COMMENT NOTRE CABINET ACCOMPAGNERA LA TRANSFORMATION DE VOTRE ENTREPRISE

Les consultants Nexworld mettent leur expertise aux services des entreprises qui veulent accélérer leur transformation numérique. Nexworld propose des séminaires adaptés aux besoins et au SI existant de votre entreprise.

L’Intelligence Artificielle : 7 mythes mis à l’épreuve

L’Intelligence Artificielle (IA) est dans tous les discours : films, nouvelles technologies ou encore politique ; avec des visions parfois extrêmes. Souvent dystopiques en science-fiction ou utopiques selon les GAFAMI. Simple buzzword ou réelle disruption...