IA de confiance

Une IA de confiance (ou Trustworthy AI en anglais) est une approche de l’intelligence artificielle qui vise à développer des systèmes fiables, éthiques, transparents et respectueux des valeurs humaines. Elle s’inscrit dans un cadre visant à garantir que les technologies d’IA fonctionnent de manière sûre, équitable et responsable, en alignant leurs décisions sur les normes sociales, juridiques et éthiques.

IA générative

Sous-catégorie de l’IA qui vise à générer de nouveaux contenus (textes, images, musique) à partir de modèles entraînés sur des données existantes.

IA multimodale

Une intelligence artificielle multimodale (IA multimodale) désigne des systèmes d’IA capables de traiter, d’interpréter et d’intégrer simultanément plusieurs types de données (ou modalités), tels que le texte, les images, l’audio, la vidéo, ou les données sensorielles, pour générer des réponses ou des décisions plus complètes et nuancées.

Contrairement aux modèles d’IA traditionnels (unimodaux), spécialisés dans un seul type de données (texte/images/vidéo/audio), l’IA multimodale imite la cognition humaine en combinant des sources hétérogènes pour une compréhension contextuelle enrichie.

IA responsable

Une IA responsable (ou Responsible AI en anglais) désigne une approche de conception, de développement et de déploiement de l’intelligence artificielle qui intègre des principes éthiques, sociaux et légaux dès sa conception, afin de minimiser les risques et de maximiser les bénéfices pour les individus, les communautés et la société. Elle vise à garantir que les systèmes d’IA soient équitables, transparents, respectueux des droits humains et alignés sur les valeurs sociétales.

IA souveraine

Une IA souveraine désigne un système d’intelligence artificielle développé et contrôlé par une entité nationale ou une organisation, dans le but de préserver son autonomie stratégique, sa sécurité, et ses intérêts.