



Automatisation
Prompt engineering
Contexte
L’essor des LLM auprès du grand public a poussé l’équipe technique à concevoir des fonctionnalités innovantes basées sur l’IA.
Problème
Les API des LLM génèrent leurs réponses en temps réel, mot après mot. Pour supporter ce fonctionnement, il était impératif de développer microservice sur mesure, en partant de zéro.
Solution
Déploiement d'un microservice prenant en charge des flux de données en temps réel avec Socket.io
Intégration de L'API OpenAi ChatGPT
section_works_2_2_solution
section_works_2_3_solution
Impact
- L'implémentation à permis la résolution de problème tels que la conversion de fichiers ou la synthèse de texte.