Les industries cosmétiques, agro-alimentaires, pharmaceutiques, chimiques et des matériaux
sont confrontées à des tensions récurrentes lors des phases de conception produit.
Le challenge : innover/concevoir des produits performants, compétitifs, stables, eco-durables,
dans des délais courts : Le Time to Product.
A cela s’ajoute des aspects tels que la traçabilité des procédés, la gestion de la collaboration, l’historisation des connaissances, la maîtrise des coûts de R&D...
A titre d’exemples, on peut citer l’intégration d’un nouvel actif innovant dans une formule, l’élaboration d’une recette alimentaire en minimisant le taux
de conservateurs, le remplacement d’une matière première sous le coup d’une réglementation, la mise en place d’un procédé industriel avec une moindre
empreinte énergétique...
Les techniciens, formulateurs, ingénieurs, scientifiques s’activent à repousser les limites de l’innovation en expérimentant procédés,
paramétrages et mélanges de matériaux.
La démarche intuitive consiste à partir d’un "first guess", c-a-d un procédé/formule s’approchant de la cible, ensuite par un jeu d’incréments
progressifs sur les inputs, de naviguer à vue pour essayer d’atteindre les performances attendues. Ce procédé est fastidieux, car pour une formule
comprenant 10 paramètres prenant chacune 10 valeurs, il y a 10 Milliards de combinaisons. Ce qui est prohibitif pour des expérimentations physiques.
En général, l’expertise, les contraintes opérationnelles, le savoir-faire métier permettent d’éluder certaines combinaisons improbables pour
ramener l’espace des possibilités à quelques centaines voire milliers de configurations. Mais cela demeure tout de même élevé.
De plus puisque l’exploration n’est pas planifiée, il devient difficile, de tirer des enseignements sur les relations de cause
à effet au sein du procédé, de capitaliser sur les essais réalisés. Cela pouvant conduire, à refaire les mêmes expériences pour un besoin légèrement différent.
Les modèles mathématiques peuvent être sollicités par le biais de la simulation numérique et donc virtualisation des expérimentations.
Cependant cela suppose que le modèle sous-jacent reliant les entrées aux sorties soit connu, nécessitant alors des années de recherche
pour l’établir et l’implémenter. Ce modèle devenant caduque dès qu’un nouvel composant est ajouté ou retiré.
Ce qui n’est pas envisageable pour une industrie qui se veut agile.
Les statisticiens ont inventé la méthodologie des plans d’expérience (Fisher 1935). En résumé, il consiste à planifier un set limité d’expériences
destinés à quadriller le domaine de recherche, puis à établir avec ces expériences un modèle simplifié de la relation de cause à effet
(linéaire, quadratique, interactions premier ordre…). L’inférence sur l’objectif est faite en exploitant les coefficients des régressions, et prédictions.
Cette méthodologie a montré son efficacité dans divers domaines dans le passé. Il faut néanmoins retenir 2 inconvénients :
- il faut avoir un background statistique pour les mettre en œuvre.
- la complexité actuelle des formules et procédés ne peut plus être simplement expliquée avec les hypothèses trop simplifiées des plans d’expérience classiques.
En chimie, on va avoir par exemple des transitions de phases, des ruptures de phénomène... Un exemple quotidien est l’évolution
de la température d’un bloc de glace soumise à une source de chaleur. On observe des paliers de température lors des changements
d’état, et des variations quasi linéaires, pour les phases homogènes, laissant place à un modèle en escalier.
C’est à ces enjeux qu’InFlows propose de réponse grâce des alternatives fondées sur l’intelligence
artificielle en particulier le Machine Learning). Le Machine Learning est une branche de l’intelligence artificielle qui se fonde sur des approches
statistiques pour donner aux ordinateurs la capacité d'«apprendre» à partir d’exemples. En particulier modéliser des relations sans devoir explicitement
les spécifier, ni les programmer. Très bien c’est ce que l’on cherche modéliser des comportements de substances sans postulat explicite
a priori sur leurs synergies pour ensuite généraliser la relation cachée entre les entrées et performances d’un produit.
Un exemple de modèle : faire un programme, qui sait différencier une pomme d’une poire.
On voit bien que c’est un exercice facile pour un enfant, mais plus difficile pour spécifier des règles explicites pour un programme informatique.
Pour cet exemple, Le Machine Learning va consister à présenter à un programme informatique inspiré de la structure du cerveau,
successivement plusieurs exemples de pomme et en lui disant ceci est une pomme et plusieurs exemples de poire. A l’issu de cet apprentissage automatisé,
le programme saura extraire par lui-même les caractéristiques cachées (eg : invariants) qui font qu’une pomme est une pomme et vice versa.
Le programme sera ensuite capable pour une nouvelle image de dire à quel fruit il correspond, c’est la faculté de généralisation.
Vous l’aurez compris, cet exemple est largement simplifié, le processus d’architecture et d’apprentissage des méthodes de Machine Learning
est bien plus complexe et fait partie des sujets de recherche des plus grands intérêts. Leur mise en œuvre nécessite des experts en science des données
(Data Scientist), pour implémenter le pipeline d’analyse soit sur des données fraîches ou soit pour de la retro-analyse sur un historique de donnée.
Ces profils ne sont pas toujours disponibles, et peuvent représenter un point de contention.
C’est pour répondre à ces enjeux qu’InFlows s’est entouré d’une équipe pluridisciplinaire permettant de couvrir tout le cycle de développement
d’assistant digitaux pour redonner de l’autonomie aux scientifiques (physicien, chimiste, informaticien, développeur, adminsys, ergonomes,
UI-UX, data engineer, data scientist, chef de projet Agile etc.)
InFlows fournit un catalogue d’application clefs en main pour booster l’ingénierie des procédés. L’ergonomie, les interfaces, les moteurs de calcul embarqués sont issus le plus de de 10 ans d’expérience par des experts du Machine Learning. Les procédures sont automatisées de sorte à reproduire les étapes du workflow du data scientist, et de fournir des interfaces de restitution et visualisation qui s’adressent aux chercheurs. Nos assistants sont déployés dans le SI interne de nos clients avec une historisation des expériences en base de données on-premise. Les projets réalisés sont digitalisés et leurs résultats partageables au sein de l’entreprise offrant la possibilité de collaborer avec des collègues distants. Des interfaces de monitoring permettent de suivre des KPI projets, et l’administration des applications. Nous proposons aussi le développement d’applications customisées pour les besoins de nos clients. Nos méthodes de travail sont largement inspirées par des méthodologies agiles tels que le Design Sprint, ou comment prototyper en 5 jours.