Adresse
33 rue saint Nestor - 69008 Lyon, France
Heures d'ouverture
Lundi au vendredi : 9H - 17H
Téléphone
0481915890
Adresse
33 rue saint Nestor - 69008 Lyon, France
Heures d'ouverture
Lundi au vendredi : 9H - 17H
Téléphone
0481915890
En 2026, les agents IA arrivent enfin dans les PME — et avec eux, une avalanche de promesses LinkedIn et de devis fantaisistes. Pourtant, dans la vraie vie, tous les projets d’agent IA pour PME ne méritent pas un gros LLM facturé au token. En réalité, beaucoup peuvent se résoudre par un workflow bien pensé. Voilà donc 3 cas d’usage qu’on déploie réellement chez nos clients — et la méthode qu’on applique pour ne pas transformer votre IT en passoire au passage.
D’abord, le terme « agent IA » est devenu un fourre-tout marketing en 2026. À peu près tout est rebrandé sous cette appellation, depuis le simple chatbot scripté jusqu’au système autonome multi-étapes. Cette confusion sert surtout à vendre cher des choses qui sont parfois très simples.
Concrètement, ce qu’on appelle « agent » couvre un spectre de sophistication, du quasi-déterministe au génératif autonome :
Par exemple, le piège classique en PME consiste à payer un niveau 3 (cher, complexe à maintenir, dépendant d’un LLM facturé au token) pour un problème qui aurait pu se traiter au niveau 1.
Notre méthode : 5 questions pour matcher le niveau au besoin
Ainsi, avec ces 5 questions, on filtre généralement les projets en deux catégories : ceux qui sont vraiment justifiés, et ceux qu’il vaut mieux faire avec des outils plus simples (et beaucoup moins chers).
Tout d’abord, le standard téléphonique est le premier point de contact avec votre entreprise. C’est aussi un des terrains où le rapport qualité/prix d’un agent IA est le plus variable selon le niveau qu’on choisit.
Voilà comment on dimensionne, en pratique :
| Niveau | Pour quel besoin | Techno | Coût mensuel |
|---|---|---|---|
| SVI évolué | Orientation simple : commercial / SAV / compta | Quasi-déterministe, sans LLM (Call Flow Designer 3CX) | Très bas |
| Agent vocal léger | Comprendre une intention floue, prendre un message intelligent | LLM petit, contexte court | Modéré |
| RAG complet (AI Receptionist) | Donner des infos précises (allergènes, disponibilités, prix dynamiques) | LLM premium + base de connaissance dédiée | Plus élevé, mais ROI fort sur certains métiers |
En pratique, sur 3CX, on peut partir d’un Call Flow Designer classique, ajouter un agent vocal léger, ou aller jusqu’à un AI Receptionist complet selon le niveau d’autonomie nécessaire — chaque niveau correspond à une édition de licence différente.
Un exemple parlant : un restaurant a déployé un niveau 3 sur ses commandes en ligne. L’agent répond précisément aux questions sur les allergènes, les compositions, les disponibilités du jour, et gère les demandes spéciales. Certes, le coût en tokens LLM est plus élevé qu’un SVI classique, mais le taux d’abandon de commande s’effondre. Pour ce cas précis, le ROI est imbattable.
À l’inverse, dans la majorité des PME que nous accompagnons qu’on accompagne, un simple SVI évolué (niveau 0/1) couvre la plus grande partie du besoin réel. Notamment, il est inutile de payer un LLM premium à chaque appel pour orienter quelqu’un vers le commercial.
Notre méthode : on commence par cartographier vos appels entrants typiques. On évalue le pourcentage qui pourrait être traité par chaque niveau. Et on déploie le minimum suffisant. En revanche, si plus tard certains cas justifient de monter en niveau, on le fait — pas avant. (On déploie ça sur la base d’un standard 3CX, qui s’intègre nativement avec ces différents types d’agent.)
Vous utilisez déjà 3CX et voulez explorer l’IA ? En 30 minutes, on vous montre les options accessibles selon votre édition de licence et votre besoin réel. Demander une démo →
Tout d’abord, toute PME a le même problème en compta : les données sont éparpillées entre 5 outils qui ne se parlent pas vraiment. D’une part Pennylane, d’autre part, Sage ou Cegid de l’autre, les notes de frais dans Spendesk, l’OCR de factures dans encore un autre, les exports bancaires en CSV à la main. Au final, votre comptable passe la moitié de son temps à faire du copier-coller.
Heureusement, un agent IA bien conçu peut industrialiser tout ça : tri automatique des factures, catégorisation analytique, rapprochement bancaire, alertes sur les anomalies, génération de tableaux de bord cross-outils.
D’ailleurs, c’est probablement le plus grand malentendu sur l’IA en entreprise. Quand on déploie un agent comptable bien architecturé, on cloisonne deux choses :
Concrètement, voilà comment ça se passe :
Autrement dit, construire un agent comptable n’est pas l’équivalent de demander à ChatGPT de regarder vos factures. C’est utiliser l’IA comme un accélérateur de développement pour bâtir un outil sur mesure, qui fait le travail localement, en gardant vos données chez vous.
Par conséquent, cette approche évite tous les écueils du code généré sans contrôle qu’on voit fleurir en 2026. Notre principe : les mêmes standards de développement logiciel qu’on applique à n’importe quel projet IT depuis 20 ans — revues de code, tests automatisés, conformité aux référentiels OWASP, audit de sécurité applicative. L’IA n’est qu’un accélérateur, pas une excuse pour faire moins bien. Quand un outil traite vos données financières, on n’accepte pas du code qui « marche à peu près ». On accepte du code qui passe les tests unitaires, les tests d’intégration, l’analyse de sécurité statique, la revue par un humain expérimenté, et qui est documenté pour pouvoir être maintenu dans 3 ans.
Vous voulez automatiser vos flux financiers en gardant vos données chez vous ? On regarde vos outils actuels (Pennylane, Sage, Cegid, banques) et on vous remet un plan d’automatisation chiffré sous 5 jours. Demander une étude →
Enfin, celui-là, c’est notre terrain de jeu naturel. Quand on gère l’infogérance d’une PME, on supervise déjà en continu les serveurs, les sauvegardes, les certificats. Un agent IA permet d’aller un cran plus loin sur des sujets qui demandaient autrefois un audit manuel régulier.
Trois exemples concrets :
Un agent qui passe en revue chaque jour les règles de votre pare-feu Stormshield. Détection des règles trop permissives, des « any-any » temporaires devenues permanentes, des ports exposés sur internet sans justification, des règles qui n’ont pas servi depuis 6 mois et qu’on pourrait nettoyer. Le tout avec une explication en langage clair de pourquoi chaque alerte mérite votre attention.
Quelqu’un a modifié la config du switch principal hier soir à 23h ? L’agent le voit, vous le notifie le matin avec un diff lisible, et vous demande si c’était voulu. Plus de surprise « c’était quoi ce changement ? » 6 mois après quand le réseau plante.
Comparaison continue de votre configuration réelle vs les bonnes pratiques (CIS Benchmarks, recommandations ANSSI, guides éditeur). Détection des dérives : un serveur qui n’a plus reçu ses patches depuis 2 mois, un compte admin avec mot de passe jamais changé, une politique de sauvegarde qui n’a pas été testée depuis trop longtemps.
En définitive, l’intérêt n’est pas tant la technologie IA en elle-même que la fréquence et l’exhaustivité de la vérification. Un humain ne peut pas auditer 200 règles de firewall tous les jours. Un agent oui. Et il sait remonter les vraies anomalies sans noyer la DSI sous les faux positifs.
Cependant, tous ces cas d’usage sont attractifs sur le papier. La vraie question, c’est de les déployer sans ouvrir des portes que vous ne fermerez plus. Voilà les 4 risques principaux qu’on adresse à chaque déploiement IA chez un client.
D’abord, sur leurs offres API et entreprise, OpenAI et Anthropic indiquent ne pas utiliser vos entrées et sorties professionnelles pour entraîner leurs modèles par défaut. Mais vos données transitent quand même par leur infrastructure, généralement aux États-Unis. Effectivement, pour des données financières, RH, santé ou contractuelles vraiment sensibles, ça peut être un non.
Notre méthodo : pour les données sensibles, on utilise des modèles hébergés en France ou en Europe Mistral peut notamment être déployé entièrement on-premise sur votre propre infrastructure (zéro dépendance fournisseur externe) ou dans notre hébergement français maîtrisé. Idéal pour les PME particulièrement sensibles à la souveraineté de leurs données. Pour les usages non-sensibles (rédaction marketing, génération de doc technique), OpenAI ou Anthropic restent les meilleurs choix qualité/prix. On choisit le modèle en fonction du risque, pas en fonction du buzz.
Par ailleurs, un LLM peut inventer une information avec une confiance totale. Sur un compte-rendu, certes c’est gênant. Sur une facture client, un calcul de prix ou une décision contractuelle, c’est catastrophique.
Notre méthodo : tout ce qui a un impact financier, juridique ou contractuel passe par une validation déterministe. L’IA propose, le code vérifie, l’humain valide en bout de chaîne pour les opérations critiques. On ne demande jamais à un LLM de calculer un total ou de prendre une décision binaire qui engage l’entreprise.
Ensuite, un attaquant peut glisser une instruction malicieuse dans un email, un document partagé, une fiche client. Quand votre agent IA traite ce contenu, il se retrouve à exécuter l’instruction de l’attaquant au lieu de la vôtre. Et vous lisez bien : un email peut reprogrammer votre agent IA en cours de route.
Et ce n’est pas un risque théorique : l’OWASP classe le prompt injection en première position de son Top 10 des risques pour les applications LLM (LLM01:2025). En fait, c’est devenu la première porte d’entrée des attaquants sur les agents IA mal sécurisés.
Notre méthodo : tous les inputs externes sont traités comme « non fiables ». L’agent ne peut exécuter que des actions pré-définies, sur des données pré-validées. Pas de magie « l’IA fera ce qui semble pertinent ». On définit explicitement le périmètre de chaque agent, et on monitore les requêtes anormales.
Enfin, votre business critique dépend désormais d’une API qui peut changer ses tarifs, ses conditions, ou tout simplement disparaître. Par exemple, Anthropic peut décider demain matin de doubler le prix de Claude. OpenAI peut déprécier un modèle que vous utilisez en production.
Notre méthodo : architectures découplées du fournisseur. On peut basculer un agent d’OpenAI à Mistral à Claude en changeant une variable de configuration. Pour les usages vraiment critiques, on déploie en self-hosted (sur votre infra ou la nôtre) avec des modèles open-source.
« N’importe qui peut mélanger du sable et du ciment. Ça n’en fait pas un maçon — et certainement pas un architecte. L’IA, c’est pareil. N’importe qui peut sortir un POC sur ChatGPT en 30 minutes. Le vrai métier, c’est de la déployer en production sans que ça casse la maison. »
Concrètement, nous utilisons l’IA en production chez nous depuis 2024 — pour notre helpdesk, notre documentation technique, notre accueil téléphonique, notre veille sécurité. On a appris en faisant nos erreurs sur nos propres outils, pas sur ceux de nos clients.
Ainsi, quand on déploie un agent IA chez un client, on garde la même rigueur que sur le reste de notre métier d’intégrateur IT depuis 20 ans :
En résumé, un agent IA est un système capable d’interpréter une demande, d’utiliser des outils ou des données, puis d’exécuter une action dans un cadre défini. En PME, ça va du SVI évolué (qui oriente un appel) à l’agent autonome (qui enchaîne plusieurs étapes pour résoudre un problème métier complexe).
D’abord, un chatbot répond à une question. Une automatisation classique exécute une règle pré-définie sans interprétation. Un agent IA peut analyser le contexte, choisir une action parmi plusieurs autorisées, et enchaîner plusieurs étapes pour atteindre un objectif. C’est cette capacité de décision contextuelle qui le distingue.
Effectivement, oui — s’il est mal conçu. Dans une architecture maîtrisée, on limite les accès au strict nécessaire, on journalise toutes les actions, on isole le LLM externe des données sensibles, et on traite localement tout ce qui doit rester confidentiel. Le risque est techniquement maîtrisable, c’est une question de conception.
En réalité, le coût dépend du niveau d’autonomie, du volume d’usage, des intégrations nécessaires et du modèle utilisé. Un SVI évolué peut tourner pour quelques dizaines d’euros par mois. Un agent autonome connecté à plusieurs outils métier avec un LLM premium peut atteindre plusieurs milliers d’euros annuels en coûts d’usage. Le bon dimensionnement passe par une cartographie préalable du besoin.
Effectivement, 3CX propose des fonctionnalités d’AI Receptionist et d’AI Agents intégrées, ainsi que des scénarios de connexion avec OpenAI ou d’autres fournisseurs LLM, selon les éditions et configurations. C’est un des cas d’usage les plus matures aujourd’hui pour une PME.
Avant tout, il faut éviter de laisser le LLM décider seul sur des opérations critiques. L’IA peut proposer ; le code vérifie de manière déterministe ; l’humain valide en bout de chaîne pour tout ce qui a un impact financier, juridique ou contractuel. Sur les opérations à faible enjeu, l’IA peut être plus autonome.
Concrètement, le prompt injection est une attaque où un contenu externe (email, document, fiche client) contient des instructions cachées destinées à modifier le comportement de l’agent IA. L’OWASP le considère comme le risque numéro 1 des applications LLM (LLM01:2025). La protection passe par : isolation des inputs, périmètre d’actions limité, validation des sorties, monitoring des comportements anormaux.
En réalité, ça dépend du cas d’usage. Pour les données sensibles (financières, RH, santé, contractuelles), on privilégie un modèle hébergé en France ou en Europe maîtrisé (Mistral, modèles open-source self-hosted). Pour les usages non sensibles, OpenAI et Anthropic restent souvent les meilleurs choix qualité/prix. Le bon réflexe est de choisir le modèle en fonction du niveau de sensibilité des données traitées.
Finalement, si vous voulez explorer ce qu’un agent IA peut faire dans votre PME — sans tomber dans le POC LinkedIn qui ne passera jamais en production, et sans vous exposer à des risques que vous ne mesurez pas — on commence généralement par une cartographie de 30 minutes.
Concrètement, en 30 minutes, on regarde ensemble vos appels entrants, vos outils métier, vos flux IT. On identifie ensuite les 3 automatisations les plus rentables pour votre contexte spécifique. On vous remet un rapport avec, pour chaque cas, le niveau d’agent recommandé, le coût estimé, le ROI attendu et les risques sécurité associés.
Sans engagement. Ensuite, vous décidez si vous voulez aller plus loin avec nous, en interne, ou pas du tout.
Pour aller plus loin sur le fonctionnement interne des modèles d’IA, lire aussi notre article : Votre IA a-t-elle des émotions ? Ce que l’étude d’Anthropic change pour les PME.
Sources externes : OWASP Top 10 for LLM Applications · CIS Benchmarks · ANSSI.