index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Adversarial physical attack Case-based Data Stream Processing Data Quality Data Visualization Calibration Arcadia Method Distribution based method Semantic segmentation Distributed Machine Learning Explainable AI Embedded AI Artificial Intelligence Monitoring Bayesian inference AI Computer Vision Branch-and-Bound algorithm Data Analysis Computer vision Automated vehicle Robustness AI component evaluation methodology Attack transferability Influence Functions Recurrent Neural Networks Data Stream Distributed learning Trustworthiness Assessment Neural Network Fault tolerant systems Realization theory Artificial intelligence Anomaly Confiance explicabilité Decision tree Mixed Integer Programming Contextual Evaluation Bayesian Optimization Explainability Adversarial attacks Adversarial Attacks Embarqué Adversarial attack Anomaly Detection GPU Hardware AI-based systems Explanations Deep Reinforcement Learning Deep learning Complexity Ingénierie algorithmique de l’IA Neural ODEs Explicabilité AI System Characterization AI-Based Systems Fiabilité Fault tolerance Data-driven reachability XAI Neural network Concepts Confiance Machine Learning Bias Detection FOS Computer and information sciences Intelligence Articifielle Counterfactuals Long Short-Term Memory Conformal Prediction Adversarial Training Fault detection Engineering Processes Federated Learning Robustesse Trustworthiness Attributes ODD Cryptography and Security Enalty Bayesian Neural Networks AI-Based Critical Systems Conformal prediction Christoffel functions Anomaly detection Gas Distribution Custom search space Evaluation Sûreté de fonctionnement Cycle-accurate simulator Adversarial examples Computer Vision and Pattern Recognition Generative Models Example-based Explicability Sûreté Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Deep neural network classifiers System Identification AI engineering Critical systems