Retour aux articles
Le modèle de confidentialité d'Era : tes données, ton contrôle
« Est-ce que c'est sécuritaire de connecter ma banque à une IA? » Oui. Mais tu ne devrais pas nous croire sur parole. Voici exactement comment Era gère tes données financières — ce qu'on stocke, ce qu'on ne stocke jamais, ce que ton IA peut voir, et comment tu gardes le contrôle à chaque étape.
Ce à quoi Era se connecte et comment
Era se connecte à ta banque via MX, un agrégateur de données financières réglementé qui travaille avec des milliers d'institutions financières. Quand tu lies un compte bancaire, tu t'authentifies directement avec ta banque via le flux de connexion sécurisé de MX. Era ne voit jamais, ne manipule jamais et ne stocke jamais tes identifiants bancaires — nom d'utilisateur, mot de passe, questions de sécurité ou codes d'authentification multifacteur. Ceux-ci restent entre toi et ta banque.
La connexion utilise OAuth quand ta banque le supporte. Tu accordes à MX la permission d'accéder à des données de compte spécifiques, et MX fournit ces données à Era. Tu peux révoquer cette permission à tout moment via Era ou directement via ta banque.
Ce que ton IA peut voir
Quand tu connectes un agent IA à Era Context, il n'obtient pas un accès brut à une base de données. Il voit des résumés financiers structurés : soldes de comptes, listes de transactions avec noms de marchands et catégories, ventilations de dépenses, frais récurrents, et le contexte financier que tu as partagé (objectifs, préférences, notes).
Voici ce à quoi ton IA a accès :
- Soldes de comptes — soldes actuels de tes comptes connectés.
- Données de transactions — nom du marchand, montant, date, catégorie, et toutes les étiquettes que tu as appliquées.
- Analyse de dépenses — ventilations par catégorie, comparaisons de périodes, résumés de flux de trésorerie.
- Ton contexte financier — objectifs, préférences et faits que tu as mentionnés à n'importe quel agent IA connecté (stockés dans la mémoire inter-agents d'Era).
- Règles d'automatisation — les règles que tu as créées et leur activité.
- Journal d'activité — un registre de tout ce qu'Era Context fait en ton nom.
Ton IA accède à ces données via les 33 outils MCP d'Era Context. Chaque appel d'outil est une action discrète et autorisée — pas un export massif de données.
Ce qui ne quitte jamais Era
Certaines données n'atteignent jamais ton agent IA :
- Identifiants bancaires — jamais stockés par Era, jamais accessibles à aucun agent.
- Numéros de compte complets — ton IA voit des identifiants de compte masqués, pas les numéros de compte ou de transit complets.
- Lignes brutes de base de données — ton IA reçoit des résumés structurés, pas des exports de données non filtrées.
- Données d'autres utilisateurs — tes données financières sont isolées à ton compte. Aucun agent, aucun employé et aucun autre utilisateur ne peut y accéder.
Consentement OAuth : tu choisis ce que tu partages
Chaque agent IA qui se connecte à Era Context passe par une étape d'autorisation. Tu accordes explicitement à chaque client la permission d'accéder à tes données financières. Ce n'est pas un interrupteur global « tout connecter » — tu autorises chaque client indépendamment.
Tu veux que Claude ait accès mais pas ChatGPT? C'est ton choix. Tu veux donner à Cursor un accès en lecture seule pour vérifier des soldes rapidement, mais un accès complet à Claude pour la création de règles? Tu contrôles la portée.
Chaque connexion est indépendante. Autoriser un client n'autorise pas les autres. Et en révoquer un n'affecte pas le reste.
Révoque n'importe quel agent, n'importe quand
Si tu changes d'avis sur un agent IA connecté, tu révoques son accès instantanément. Pas de période d'attente, pas de « veuillez contacter le soutien », pas de rétention de données après la déconnexion. Révoque l'accès, et cet agent ne peut plus interroger tes données financières.
Ça s'applique à chaque client connecté — Claude, ChatGPT, Cursor, OpenClaw ou tout autre outil compatible MCP. Tu gardes le contrôle de quels agents ont accès en tout temps.
Le journal d'activité : une trace d'audit complète
Era Context maintient un journal d'activité complet de chaque action posée en ton nom. Chaque fois qu'un agent IA consulte ton solde, cherche dans tes transactions, crée une règle ou modifie une étiquette — c'est enregistré.
Le journal d'activité montre :
- Ce qui s'est passé — l'action spécifique posée.
- Quand c'est arrivé — horodatage pour chaque événement.
- Quel agent l'a fait — pour que tu saches si c'était Claude, ChatGPT ou un autre client.
Ce n'est pas un journal système caché. C'est une fonctionnalité que tu peux consulter à tout moment dans Era Context. Si tu te demandes ce qu'un agent IA a fait avec tes données, la réponse est là.
Ce qu'Era ne fait jamais avec tes données
Certains engagements sont absolus :
- Tes données ne sont jamais vendues. Ni aux annonceurs, ni aux courtiers de données, ni à personne.
- Tes données ne sont jamais utilisées pour la publicité. Era ne diffuse pas de pubs, et tes données financières ne sont jamais utilisées pour cibler de la publicité sur aucune plateforme.
- Tes données n'entraînent jamais de modèles IA. Tes transactions, soldes et contexte financier ne sont pas utilisés comme données d'entraînement pour aucun modèle d'apprentissage automatique.
- Tes données ne sont jamais partagées sans ta permission explicite. Aucun tiers ne voit tes données financières à moins que tu aies spécifiquement autorisé une connexion.
Chiffrement et infrastructure
Les détails techniques comptent pour ceux que ça intéresse :
- Chiffrement AES-256 au repos — tes données sont chiffrées quand elles sont stockées.
- TLS 1.3 en transit — tes données sont chiffrées quand elles circulent entre ton appareil, Era et ta banque.
- Era Financial Advisors LLC est enregistrée auprès de la SEC (CRD #334404). C'est une entité réglementée avec des obligations de conformité, pas un projet parallèle.
- Les services de courtage (le cas échéant) sont fournis par Alpaca Securities LLC, membre de la FINRA/SIPC.
Mémoire inter-agents et confidentialité
La mémoire inter-agents d'Era te permet de dire quelque chose à un agent IA et que chaque agent connecté le sache. « J'économise 500 $ par mois pour une mise de fonds » — dis-le à Claude, et ChatGPT le sait aussi.
Cette mémoire est privée. Elle n'est jamais partagée avec d'autres utilisateurs, jamais utilisée pour entraîner des modèles, et jamais accessible à personne d'autre que tes agents autorisés. Tu peux demander à n'importe quel agent d'oublier quelque chose, et c'est supprimé partout — de la mémoire d'Era et du contexte de chaque agent connecté.
Tu contrôles ce que tes agents se rappellent. Tu contrôles ce qu'ils oublient. La mémoire existe pour améliorer ton expérience, pas pour construire un profil pour quelqu'un d'autre.
Répondre à la vraie préoccupation
La question « est-ce que c'est sécuritaire de connecter ma banque à une IA? » est en fait deux questions.
« Est-ce que ma connexion bancaire est sécuritaire? » Oui. Era ne stocke pas tes identifiants bancaires. La connexion passe par MX, un agrégateur réglementé. Tu t'authentifies directement avec ta banque. Tu peux révoquer la connexion à tout moment.
« Puis-je faire confiance à une IA avec mes données financières? » Ça dépend des contrôles. Avec Era, chaque agent nécessite une autorisation explicite. Chaque action est journalisée. Tu peux révoquer l'accès instantanément. Tes données ne sont jamais vendues, jamais utilisées pour la pub, jamais utilisées pour entraîner des modèles. Et tu peux voir exactement ce que chaque agent a fait dans le journal d'activité.
Era ne te demande pas de faire confiance aveuglément. Elle te donne les outils pour vérifier.
Pour commencer
Crée un compte Era gratuit sur era.app. Le forfait Basic inclut un accès MCP en lecture seule pour un maximum de deux comptes — assez pour évaluer le modèle de sécurité par toi-même avant de t'engager dans un forfait payant.
Connecte ton agent IA avec l'URL MCP : https://context.era.app. Autorise-le. Consulte le journal d'activité. Vois exactement ce qui se passe.
Tes données, ton contrôle. C'est ça le modèle.