Demerys Contact
100% hébergé dans vos locaux

Assistant IA local pour cabinets comptables

Interrogez votre base documentaire en langage naturel. Aucune donnée dans le cloud, tout reste dans vos murs. Architecture hybride RAG + Ontologie orchestrée par IA.

Le problème : l'accès à l'information métier

Temps perdu en recherche

Bilans, liasses fiscales, correspondances, notes internes… Des années de documentation dispersées entre serveurs, emails et connaissances individuelles.

Perte d'efficacité

Retrouver une information précise, comprendre un traitement appliqué il y a deux ans, former un nouveau collaborateur sur l'historique d'un dossier.

Mémoire dispersée

La richesse documentaire du cabinet devient un frein quand il faut reconstituer le contexte d'un dossier ou capitaliser sur l'expertise passée.

Sollicitation des collègues

Les interruptions constantes pour demander "où est ce document ?" ou "comment avait-on traité ce cas ?" fragmentent le travail de l'équipe.

Une approche : l'intelligence artificielle en local

Nous développons des assistants IA hébergés sur votre propre infrastructure, capables d'interroger votre base documentaire en langage naturel. Pas de cloud externe, pas de transmission de données clients : tout reste dans vos murs.

Base vectorielle

Indexe vos documents pour une recherche par similarité sémantique

Modèle de langage (LLM)

Hébergé localement, génère des réponses à partir de vos documents

Interface conversationnelle

Simple et intuitive, pour toute votre équipe

Qu'est-ce qu'une ontologie ?

Une ontologie, c'est comme un "plan de métro" de vos connaissances métier. Chaque station est un concept (Immobilisation, Amortissement, TVA...) et chaque ligne représente les relations entre ces concepts.

Contrairement à un simple document texte, une ontologie structure explicitement les relations : "une immobilisation génère des amortissements", "un amortissement est comptabilisé dans un compte de charges"...

Ce que c'est

Un graphe de connaissances structuré qui modélise explicitement les concepts comptables (entités, comptes, règles) et leurs relations (appartient à, impacte, découle de).

Cession véhicule → Compte 775 → Produits exceptionnels

Ce que ça fait

Permet de naviguer intelligemment dans les relations : "Quels comptes sont affectés par X ?", "Quelles règles fiscales s'appliquent à Y ?", "Quels traitements sont liés entre eux ?"

Question → Parcours du graphe → Réponse structurée

Pourquoi c'est utile

Apporte du raisonnement logique : inférence de conséquences, vérification de cohérence, détection d'impacts en cascade. L'IA ne se contente pas de chercher, elle comprend.

Si A alors B → Si B alors C → Donc si A alors C

Exemple concret : L'arbre des immobilisations

Immobilisation
Corporelle
→ Terrain → Construction → Matériel
Incorporelle
→ Brevets → Licences → Fonds commercial
Financière
→ Participations → Titres

Cette structure permet à l'IA de comprendre que "Matériel" est un type d'"Immobilisation corporelle", et d'appliquer automatiquement les règles d'amortissement appropriées.

RAG vs Ontologie : Deux approches complémentaires

Le RAG et l'ontologie ne sont pas concurrents, ils sont complémentaires. Le RAG excelle dans la recherche documentaire, l'ontologie apporte la compréhension structurelle. Leur combinaison orchestrée par un LLM offre le meilleur des deux mondes.

RAG (Recherche vectorielle)

Forces

  • Retrouve des informations précises dans les documents
  • Gère de gros volumes documentaires
  • Comprend le langage naturel et les synonymes
  • Recherche par similarité sémantique

Limites

  • Ne comprend pas les relations entre concepts
  • Pas de raisonnement logique
  • Difficulté avec les questions structurelles
Idéal pour :

"Quel était le montant des immobilisations du client Dupont en 2024 ?"

Ontologie (Graphe de connaissances)

Forces

  • Comprend les relations entre concepts
  • Raisonnement logique et inférence
  • Navigation dans la structure des connaissances
  • Détection d'impacts en cascade

Limites

  • N'accède pas au contenu brut des documents
  • Nécessite une modélisation préalable
  • Moins flexible sur le langage naturel
Idéal pour :

"Quels comptes comptables sont impactés par une cession de véhicule ?"

Hybride orchestré par LLM

Le meilleur des deux mondes

  • Combine recherche documentaire ET raisonnement structuré
  • Le LLM choisit intelligemment quelle approche utiliser
  • Répond à des questions complexes multi-étapes
  • Explique son raisonnement et cite ses sources
1

LLM analyse la question

2

Interroge RAG et/ou Ontologie

3

Synthétise la réponse finale

Parfait pour :

"Le client Dupont a cédé un véhicule en juin 2024. Quels ont été les impacts comptables et fiscaux ?"

L'orchestration intelligente : Comment le LLM choisit la bonne approche

Question utilisateur
LLM Orchestrateur

Analyse la question et décide quelle(s) approche(s) utiliser

RAG

Recherche vectorielle
dans les documents

Ontologie

Raisonnement structuré
sur le graphe

Synthèse et réponse finale
1

Le LLM analyse l'intention de la question

Avant tout traitement, le LLM détermine la nature de la question :

  • Recherche factuelle : "Quel montant ?" → RAG seul
  • Question structurelle : "Quels comptes impactés ?" → Ontologie seule
  • Raisonnement complexe : "Impacts comptables et fiscaux ?" → RAG + Ontologie
2

Interrogation des sources de connaissances

Selon l'analyse, le système interroge :

Le moteur RAG

  • Transforme la question en vecteur
  • Recherche par similarité sémantique
  • Extrait les passages pertinents
  • Fournit les références documentaires

Le graphe ontologique

  • Parcourt les relations entre concepts
  • Applique les règles métier modélisées
  • Infère les conséquences logiques
  • Identifie les impacts en cascade
3

Synthèse intelligente et réponse

Le LLM combine les résultats des deux approches pour produire une réponse complète :

  • Données factuelles extraites des documents (RAG)
  • Compréhension structurelle et relations (Ontologie)
  • Raisonnement explicite et traçable
  • Citations des sources documentaires et du graphe

Le système ne peut pas "inventer" d'information : toute réponse est fondée sur vos documents indexés OU sur la structure ontologique explicite.

Cas d'usage pratiques

Recherche factuelle

"Montant des immobilisations brutes du client Dupont au 31/12/2024"

Réponse avec extrait des documents sources et références précises (fichier, page).

Capitalisation d'expertise

"Comment avons-nous traité le cas de lease-back sur véhicule utilitaire l'année dernière ?"

Accès aux notes, correspondances et décisions prises sur des cas similaires.

Synthèse documentaire

"Synthèse des courriers reçus des impôts sur le trimestre"

Consolidation de plusieurs documents en un résumé structuré.

Support aux collaborateurs

"Checklist des documents nécessaires pour une clôture annuelle SAS"

Accès aux procédures internes et modèles du cabinet.

Architecture technique

Stack logicielle

  • Serveur d'inférence : vLLM optimisé pour GPU
  • Modèles : Mistral, Llama (open source)
  • Base vectorielle : Qdrant
  • Base ontologique : Neo4j / RDF store
  • Interface : Open WebUI multi-utilisateurs
  • Orchestration : LangChain / LlamaIndex + moteur de raisonnement

Matériel recommandé

NVIDIA DGX Spark

~5 000€ HT

  • Processeur GB10 Grace Blackwell (20 cœurs ARM)
  • 128 GB mémoire unifiée
  • Modèles jusqu'à 70 milliards de paramètres
  • 10-15 utilisateurs simultanés

Performances réelles

2-5s Latence totale par requête
100-300ms Recherche vectorielle
10-15 Utilisateurs simultanés
10k+ Documents indexables

Confidentialité et conformité

Hébergement 100% local

  • Serveur physique dans vos locaux
  • Aucune transmission vers le cloud
  • Aucun accès par des tiers
  • Aucun training de modèles externes

Conformité RGPD

  • Traçabilité complète des requêtes
  • Transparence : sources citées
  • Droit à l'oubli : suppression possible
  • Sécurité : authentification, chiffrement

Responsabilité professionnelle

L'assistant est un outil d'aide à la décision. La validation humaine reste obligatoire pour tout acte professionnel. La responsabilité de l'expert-comptable est inchangée.

Coûts et investissement

Le coût d'une solution RAG + Ontologie varie selon la surface de votre base documentaire et la complexité de votre ontologie métier. Nous proposons une approche modulaire avec un point d'entrée accessible et des évolutions progressives.

Phase Découverte (Obligatoire)

À partir de 3 500€ HT

  • Audit base documentaire (volumétrie, formats, qualité)
  • Ateliers définition périmètre ontologique (2-3 sessions)
  • Identification concepts métier clés & relations
  • POC technique limité (500-1000 docs, 15-20 concepts)
  • Livrable : cahier des charges + recommandations architecture

Cette phase permet de valider la faisabilité technique et d'évaluer précisément le périmètre du projet avant engagement.

Déploiement initial (selon surface)

Matériel recommandé : NVIDIA DGX Spark (~5 000€ HT) - Optionnel si infrastructure existante compatible

ESSENTIEL

À partir de 6 500€ HT

(hors matériel)

  • 5 000 documents max
  • Ontologie légère : 50 concepts, 100 relations
  • 3 cas d'usage simples (recherche factuelle)
  • Formation équipe : 2h
  • Délai : 3-4 semaines
  • Support : Email (72h)

AVANCÉ

À partir de 28 000€ HT

(hors matériel)

  • 50 000+ documents
  • Ontologie riche : 300+ concepts, 600+ relations, règles d'inférence
  • 15-20 cas d'usage complexes multi-étapes
  • Formation équipe : 8h + 3 workshops (6h total)
  • Délai : 10-14 semaines
  • Support : Dédié (24h)
  • Bonus : Agents autonomes basiques inclus

SUR-MESURE

Pour les besoins spécifiques : volume documentaire illimité, ontologie métier complexe avec règles avancées, intégrations logiciels métier (Sage, Cegid, ACD), agents autonomes personnalisés, accompagnement transformation continue.

Sur devis

Abonnements Évolution & Support

Pack MAINTENANCE

À partir de 250€/mois

  • Support email (72h)
  • Mises à jour sécurité & modèles
  • +1 000 documents/mois
  • Correctifs bugs

Pack TRANSFORMATION

À partir de 1 500€/mois

  • Support dédié 24/7
  • Enrichissement ontologie illimité
  • 2 workshops mensuels (4h)
  • Développement nouveaux cas d'usage
  • Agents autonomes sur-mesure
  • Intégrations logicielles continues

Options à la carte

Workshop supplémentaire (2h) 800€
Cas d'usage complexe 1 500 - 3 000€
Extension ontologie (50 concepts) 2 500€
Intégration logiciel métier 3 000 - 8 000€
Agent autonome personnalisé 4 000 - 10 000€
Formation avancée équipe (1 jour) 1 200€

Comparaison Cloud vs Local

Cloud (ChatGPT Team)
Local (notre solution)
Données
Externalisées
100% locales
Coût
25-30€/user/mois
Investissement unique
Internet
Obligatoire
Optionnel
Personnalisation
Limitée
Totale
Latence
200-500ms
2-5s
Évolutivité
Illimitée (payante)
Limitée (matériel)
Conformité
À auditer (CGU)
Contrôle total
Maintenance
Gérée par éditeur
À votre charge

Cloud recommandé si :

Petite équipe (<3), pas de compétence technique interne, budget récurrent acceptable, données peu sensibles.

Local recommandé si :

Secret professionnel strict, équipe IT disponible, volume documentaire important, volonté d'indépendance.

Notre approche de développement

1

Analyse de vos besoins

Volumétrie documentaire, infrastructure existante, cas d'usage prioritaires, contraintes (sécurité, budget, compétences).

2

POC (Proof of Concept)

Test sur un échantillon de documents (1 000-5 000) pour valider la faisabilité et la pertinence des réponses.

3

Déploiement complet

Indexation de l'ensemble de la base documentaire, configuration des accès, mise en production.

4

Formation & suivi

Sensibilisation des équipes aux usages et limites, mesure de l'usage réel, ajustements et évolutions.

Technologies utilisées

Nous intégrons des composants open source éprouvés (vLLM, Qdrant, LangChain) dans une architecture robuste et évolutive. Notre expertise en intégration IA nous permet d'adapter la stack à vos besoins spécifiques.

  • Connexion à vos logiciels métier (Sage, Cegid, ACD)
  • Interface sur-mesure selon votre charte
  • Optimisation du modèle sur votre vocabulaire métier
  • Agents autonomes pour automatisation de tâches

Évolutions possibles

Agents autonomes

Génération automatique de brouillons, extraction de données structurées, alertes proactives sur échéances.

Multi-modalité

Analyse d'images (factures scannées), reconnaissance vocale pour dictée, génération de graphiques analytiques.

Intégrations métier

Connexion directe à vos logiciels comptables pour récupération automatique et pré-remplissage de documents.

Donnez vie à un assistant IA interne à votre cabinet

Commencez par une phase Découverte à 3 500€ : nous auditons votre base documentaire, identifions vos concepts clés et vous livrons un cahier des charges concret. Zéro engagement sur la suite, ROI garanti sur cette première étape.