index - Confiance.ai

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Realization theory Apprentissage automatique Knowledge graph Conformal Prediction Bayesian inference Bias Detection Trustworthiness Assessment Tools Generative Models Confiance explicabilité Explainable AI Certification Trustworthiness Computer vision Semantic segmentation AI component evaluation methodology Machine Learning Reliability ML Engineering ODD Calibration Cryptography and Security Critical systems XAI Adversarial Attacks AI explainability Intelligence Articifielle Sûreté de fonctionnement AI-based systems Neural Architecture Search Explicabilité Anomaly Adversarial attack Concepts Machine learning Neural Network Computer Vision Bayesian optimization AI engineering AI systems Neural network Assurance case Trustworthy Robustness Trustworthiness Attributes Assessment Multi-fidelity BO Complexity Christoffel functions Anomaly Detection Automated vehicle Sûreté Artificial Intelligence AI-Based Systems Confiance AI Governance Arcadia Method AI Computer Vision and Pattern Recognition Collaboration Human-IA Neural ODEs Intelligence artificielle Counterfactuals Explainability Anomaly detection Distributed learning Robustesse System Identification AI Safety Branch-and-Bound algorithm Adversarial Training AI System Characterization Bayesian Optimization Contextual Evaluation AI Robustness Engineering processes Uncertainty Body-of-Knowledge Adversarial physical attack Artificial intelligence Al monitoring Mixed Integer Programming Adversarial examples Aide à la décision AI-Based Critical Systems Case-based Body of knowledge Attack transferability Vision par ordinateur Adversarial attacks Knowledge extraction Boosted Decision Trees BDT Conformal prediction Assurance Cases Knowledge fusion Monitoring Autonomous system Long Short-Term Memory Recurrent Neural Networks AI-Systems Engineering