Page établie au titre du Règlement (UE) 2024/1689 sur l’intelligence artificielle (« AI Act »). Dernière mise à jour : 04/05/2026.
1. Notre engagement
CAD.42 conçoit et exploite des solutions logicielles, IoT et d’intelligence artificielle au service de la prévention des risques et de la performance opérationnelle sur sites industriels et chantiers. Nous nous engageons à développer une IA fiable, transparente, supervisée et conforme au Règlement (UE) 2024/1689, au RGPD et à l’éthique professionnelle de nos clients.
2. Périmètre des systèmes d’IA déployés
Nos solutions intègrent des systèmes d’intelligence artificielle dans les domaines suivants :
- IA Prévention – coach, assistant terrain et détecteur d’incidents : analyse des situations à risques, recommandations de mesures de prévention.
- Anticollision – détection en temps réel des risques de collision entre engins et piétons, déclenchement d’alertes sonores et visuelles.
- IA Environnement – mesure et anticipation des nuisances (bruit, poussières, vibrations) à partir de capteurs.
- Outils analytiques – agrégation, visualisation et alertes basées sur les données opérationnelles.
3. Classification au sens de l’AI Act
Nous procédons à une analyse de classification pour chaque cas d’usage déployé :
- Pratiques interdites (art. 5) : aucun de nos systèmes ne relève des pratiques interdites (notation sociale, exploitation de vulnérabilités, identification biométrique à distance en temps réel à des fins répressives, etc.).
- Systèmes à haut risque (annexe III) : lorsqu’un déploiement entre dans cette catégorie (ex. usage critique pour la sécurité des personnes), nous appliquons les obligations associées : système de gestion des risques, gouvernance des données, documentation technique, journalisation automatique, transparence et information de l’utilisateur, supervision humaine, robustesse et cybersécurité, évaluation de la conformité.
- Risque limité (art. 50) : pour les systèmes interagissant avec des personnes ou générant des contenus, nous fournissons les informations de transparence requises.
- Risque minimal : la majorité de nos fonctionnalités auxiliaires entrent dans cette catégorie ; nous appliquons néanmoins nos bonnes pratiques de qualité et de sécurité.
4. Supervision humaine
Tous nos systèmes d’IA sont conçus comme des outils d’assistance à la décision. Les recommandations, alertes et détections produites par nos algorithmes :
- sont destinées à être interprétées et validées par un opérateur humain qualifié (responsable HSE/QSE, chef de chantier, opérateur terrain) ;
- peuvent être modifiées, ignorées ou annulées par cet opérateur ;
- ne sont jamais utilisées pour prendre, à l’égard d’une personne physique, une décision produisant des effets juridiques significatifs de manière entièrement automatisée.
5. Données utilisées par nos systèmes d’IA
- Données d’entraînement : jeux de données issus de retours terrain anonymisés, de partenariats industriels et de jeux de données publics. Nous appliquons une politique de minimisation : aucune donnée personnelle non nécessaire n’est utilisée pour l’entraînement.
- Données d’inférence : flux de capteurs, vidéo, données opérationnelles transmises par nos clients dans le cadre de l’exécution du contrat.
- Qualité et biais : nous documentons les jeux de données, surveillons les performances en production et déployons des mesures correctives en cas de dérive ou de biais détecté.
- Conservation : les durées de conservation sont précisées dans notre Politique de confidentialité.
6. Performances et limites
Aucun système d’IA n’est infaillible. Les performances de nos solutions dépendent :
- de la qualité, de la couverture et du calibrage des capteurs ;
- des conditions environnementales (luminosité, météo, occlusions) ;
- de la configuration du site et du paramétrage initial.
Nos systèmes peuvent produire des faux positifs (alertes injustifiées) ou des faux négatifs (événements non détectés). Les performances mesurées en environnement contrôlé ne préjugent pas systématiquement des performances en production. Nous communiquons à nos clients les indicateurs de performance pertinents lors du déploiement.
7. Robustesse, sécurité et cybersécurité
- Chiffrement des données en transit (TLS) ;
- Contrôle d’accès basé sur les rôles ;
- Journalisation des événements et des décisions algorithmiques ;
- Tests réguliers de résistance aux entrées adverses et aux dérives ;
- Sauvegardes et plan de continuité.
8. Information des utilisateurs et personnes concernées
Lorsqu’une fonctionnalité repose sur un système d’IA, l’utilisateur est informé dans l’interface. Les personnes physiques susceptibles d’être détectées par nos systèmes (par exemple, dans le cadre de l’anticollision sur chantier) sont informées par voie d’affichage sur site, conformément aux obligations RGPD du donneur d’ordre.
9. Gouvernance interne
- Comité IA & éthique chargé de la revue des cas d’usage et de la classification AI Act ;
- Documentation technique tenue à jour pour chaque modèle (cartes de modèle / model cards) ;
- Processus de signalement des incidents IA ;
- Formation continue des équipes au cadre RGPD et AI Act.
10. Vos droits et points de contact
Vous pouvez :
- demander des informations complémentaires sur un système d’IA déployé chez votre organisation ;
- signaler un dysfonctionnement, une décision contestée ou une suspicion de biais ;
- exercer vos droits RGPD (accès, rectification, effacement, opposition, etc.).
Contact : dpo@cad42.com – voir aussi notre Politique de confidentialité et nos Mentions légales.
11. Évolution de cette page
Le cadre AI Act entre progressivement en application entre 2025 et 2027. Nous actualisons cette page au fil de nos déploiements et de l’évolution des obligations applicables.
