Demerys Contact
100% hébergé dans vos locaux

Assistant IA local pour cabinets comptables

Interrogez votre base documentaire en langage naturel. Aucune donnée dans le cloud, tout reste dans vos murs. Architecture RAG avec modèles open source.

Le problème : l'accès à l'information métier

Temps perdu en recherche

Bilans, liasses fiscales, correspondances, notes internes… Des années de documentation dispersées entre serveurs, emails et connaissances individuelles.

Perte d'efficacité

Retrouver une information précise, comprendre un traitement appliqué il y a deux ans, former un nouveau collaborateur sur l'historique d'un dossier.

Mémoire dispersée

La richesse documentaire du cabinet devient un frein quand il faut reconstituer le contexte d'un dossier ou capitaliser sur l'expertise passée.

Sollicitation des collègues

Les interruptions constantes pour demander "où est ce document ?" ou "comment avait-on traité ce cas ?" fragmentent le travail de l'équipe.

Une approche : l'intelligence artificielle en local

Nous développons des assistants IA hébergés sur votre propre infrastructure, capables d'interroger votre base documentaire en langage naturel. Pas de cloud externe, pas de transmission de données clients : tout reste dans vos murs.

Base vectorielle

Indexe vos documents pour une recherche par similarité sémantique

Modèle de langage (LLM)

Hébergé localement, génère des réponses à partir de vos documents

Interface conversationnelle

Simple et intuitive, pour toute votre équipe

Comment ça fonctionne

1

Indexation de vos documents

Vos documents (PDF, DOCX, XLSX, emails) sont analysés et convertis en représentations vectorielles. Cette indexation permet une recherche par similarité sémantique, bien plus efficace qu'une simple recherche par mots-clés.

  • Arborescence par client / année / type
  • Métadonnées préservées (date, auteur, classification)
  • Connexion à votre NAS ou serveur de fichiers
2

Recherche et génération de réponses

Lorsqu'un utilisateur pose une question, le système :

  1. Transforme la question en vecteur numérique
  2. Recherche les documents les plus similaires dans la base
  3. Extrait les passages pertinents
  4. Envoie le contexte au modèle de langage local
  5. Génère une réponse avec références aux sources

Le modèle ne peut pas "inventer" d'information : il répond uniquement à partir des documents indexés.

Cas d'usage pratiques

Recherche factuelle

"Montant des immobilisations brutes du client Dupont au 31/12/2024"

Réponse avec extrait des documents sources et références précises (fichier, page).

Capitalisation d'expertise

"Comment avons-nous traité le cas de lease-back sur véhicule utilitaire l'année dernière ?"

Accès aux notes, correspondances et décisions prises sur des cas similaires.

Synthèse documentaire

"Synthèse des courriers reçus des impôts sur le trimestre"

Consolidation de plusieurs documents en un résumé structuré.

Support aux collaborateurs

"Checklist des documents nécessaires pour une clôture annuelle SAS"

Accès aux procédures internes et modèles du cabinet.

Architecture technique

Stack logicielle

  • Serveur d'inférence : vLLM optimisé pour GPU
  • Modèles : Mistral, Llama (open source)
  • Base vectorielle : Qdrant
  • Interface : Open WebUI multi-utilisateurs
  • Orchestration : LangChain / LlamaIndex

Matériel recommandé

NVIDIA DGX Spark

~5 000€ HT

  • Processeur GB10 Grace Blackwell (20 cœurs ARM)
  • 128 GB mémoire unifiée
  • Modèles jusqu'à 70 milliards de paramètres
  • 10-15 utilisateurs simultanés

Performances réelles

2-5s Latence totale par requête
100-300ms Recherche vectorielle
10-15 Utilisateurs simultanés
10k+ Documents indexables

Confidentialité et conformité

Hébergement 100% local

  • Serveur physique dans vos locaux
  • Aucune transmission vers le cloud
  • Aucun accès par des tiers
  • Aucun training de modèles externes

Conformité RGPD

  • Traçabilité complète des requêtes
  • Transparence : sources citées
  • Droit à l'oubli : suppression possible
  • Sécurité : authentification, chiffrement

Responsabilité professionnelle

L'assistant est un outil d'aide à la décision. La validation humaine reste obligatoire pour tout acte professionnel. La responsabilité de l'expert-comptable est inchangée.

Coûts et investissement

Investissement initial

  • Matériel (serveur GPU) 5 000€ HT
  • Installation et configuration 2 500€ HT
  • Formation équipe 1 500€ HT
  • Accompagnement initial 1 000€ HT
Total 10 000€ HT

Coûts récurrents annuels

  • Énergie (~264 kWh/an) ~50€
  • Maintenance technique 1 800-3 000€
  • Support et mises à jour Sur devis
  • Évolutions fonctionnelles Sur devis
Total annuel 1 850-3 050€

Comparaison Cloud vs Local

Cloud (ChatGPT Team)
Local (notre solution)
Données
Externalisées
100% locales
Coût
25-30€/user/mois
Investissement unique
Internet
Obligatoire
Optionnel
Personnalisation
Limitée
Totale
Latence
200-500ms
2-5s
Évolutivité
Illimitée (payante)
Limitée (matériel)
Conformité
À auditer (CGU)
Contrôle total
Maintenance
Gérée par éditeur
À votre charge

Cloud recommandé si :

Petite équipe (<3), pas de compétence technique interne, budget récurrent acceptable, données peu sensibles.

Local recommandé si :

Secret professionnel strict, équipe IT disponible, volume documentaire important, volonté d'indépendance.

Notre approche de développement

1

Analyse de vos besoins

Volumétrie documentaire, infrastructure existante, cas d'usage prioritaires, contraintes (sécurité, budget, compétences).

2

POC (Proof of Concept)

Test sur un échantillon de documents (1 000-5 000) pour valider la faisabilité et la pertinence des réponses.

3

Déploiement complet

Indexation de l'ensemble de la base documentaire, configuration des accès, mise en production.

4

Formation & suivi

Sensibilisation des équipes aux usages et limites, mesure de l'usage réel, ajustements et évolutions.

Technologies utilisées

Nous intégrons des composants open source éprouvés (vLLM, Qdrant, LangChain) dans une architecture robuste et évolutive. Notre expertise en intégration IA nous permet d'adapter la stack à vos besoins spécifiques.

  • Connexion à vos logiciels métier (Sage, Cegid, ACD)
  • Interface sur-mesure selon votre charte
  • Optimisation du modèle sur votre vocabulaire métier
  • Agents autonomes pour automatisation de tâches

Évolutions possibles

Agents autonomes

Génération automatique de brouillons, extraction de données structurées, alertes proactives sur échéances.

Multi-modalité

Analyse d'images (factures scannées), reconnaissance vocale pour dictée, génération de graphiques analytiques.

Intégrations métier

Connexion directe à vos logiciels comptables pour récupération automatique et pré-remplissage de documents.

Prêt à transformer votre gestion documentaire ?

Nous restons à votre disposition pour échanger sur votre projet et étudier la faisabilité d'une approche IA locale pour votre cabinet.