Vous confiez à votre assistant IA des choses que vous ne diriez pas à votre meilleur ami : vos finances, vos problèmes de santé, vos projets secrets. Mais savez-vous ce qui arrive à ces données ?
Ce que font les grands acteurs
Soyons clairs : la plupart des services d'IA gratuits utilisent vos conversations pour améliorer leurs modèles. C'est écrit dans leurs conditions d'utilisation, en petits caractères.
Concrètement, ça signifie que votre conversation sur vos symptômes médicaux ou votre situation financière peut être lue par des équipes de modération, utilisée pour l'entraînement, ou stockée indéfiniment sur des serveurs aux États-Unis.
Les bonnes questions à poser
Avant de confier vos données à un service d'IA, posez ces quatre questions :
1. Où sont stockées mes données ? La localisation compte. Les lois de protection des données varient drastiquement entre les pays. La Suisse et l'UE offrent les protections les plus fortes.
2. Mes conversations servent-elles à entraîner le modèle ? Si oui, vos données alimentent un système utilisé par des millions d'autres personnes. Même "anonymisées", elles peuvent contenir des informations identifiantes.
3. Qui peut accéder à mes conversations ? Les employés du service ? Les sous-traitants ? Les autorités d'un autre pays ?
4. Que se passe-t-il si je supprime mon compte ? Vos données sont-elles réellement effacées, ou juste marquées comme "supprimées" tout en restant sur les serveurs ?
L'approche suisse
En Suisse, la Loi fédérale sur la Protection des Données (LPD) impose des standards élevés. Les entreprises suisses doivent :
- Informer clairement sur l'utilisation des données
- Obtenir un consentement explicite
- Permettre l'export et la suppression complète des données
- Héberger les données conformément aux standards suisses
C'est pourquoi nous avons choisi de baser Zelly en Suisse. Pas par patriotisme, mais parce que c'est la meilleure garantie pour nos utilisateurs.
Ce que fait Zelly concrètement
- Hébergement suisse — vos données ne quittent pas la Suisse
- Zéro entraînement — vos conversations ne servent jamais à améliorer un modèle
- Isolation complète — chaque assistant est un environnement séparé
- Export à tout moment — vous pouvez récupérer toutes vos données en un clic
- Suppression réelle — quand vous supprimez, c'est supprimé. Point.
Le bon réflexe
La prochaine fois que vous hésitez à confier une information personnelle à une IA, demandez-vous : "Est-ce que je dirais ça dans un email non chiffré ?" Si la réponse est non, vérifiez d'abord comment le service gère vos données.
Votre vie privée a une valeur. Ne la bradez pas pour un service gratuit.
