Les erreurs des systèmes d'intelligence artificielle (IA) basés sur l'apprentissage automatique (ML) ne sont pas des pannes accidentelles, mais des conséquences régulières de leur architecture, de leur mode d'apprentissage et de leur différence fondamentale avec la cognition humaine. Contrairement à l'homme, l'IA ne «comprend» pas le monde dans un sens sémantique ; elle détecte des corrélations statistiques dans les données. Ses erreurs se produisent là où ces corrélations sont perturbées, où des raisonnements abstraits, du bon sens ou une compréhension du contexte sont nécessaires. L'analyse de ces erreurs est crucial pour évaluer la fiabilité de l'IA et déterminer les limites de son application.
La cause la plus courante et la plus dangereuse des erreurs est le biais dans les données d'entraînement. L'IA apprend et renforce les préjugés existants dans les données.
Irrégularités démographiques : Un cas célèbre avec un système de reconnaissance faciale qui montrait une précision beaucoup plus élevée pour les hommes blancs que pour les femmes noires, car il avait été entraîné sur un ensemble de données disproportionné. Ici, l'IA ne «s'est pas trompée», mais a simplement reproduit le déséquilibre du monde réel, ce qui a conduit à une erreur d'application dans un environnement diversifié.
Irrégularités sémantiques : Si, dans les données d'entraînement pour un modèle de texte, l'expression «infirmière» est souvent associée au pronom «elle», et «programmeur» au pronom «il», le modèle générera des textes reproduisant ces stéréotypes de genre, même si le genre n'est pas indiqué dans la requête. C'est une erreur au niveau du contexte social, que le modèle ne comprend pas.
Fait intéressant : Dans les sciences informatiques, le principe de «Garbage In, Garbage Out» (GIGO) — «mусor на входе, мусор на выходе» — est en vigueur. Pour l'IA, il s'est transformé en un principe plus profond «Bias In, Bias Out» — «biais sur l'entrée, biais sur la sortie». Le système ne peut pas surmonter les limitations des données sur lesquelles il a été formé.
Ce sont des modifications préalables et souvent invisibles des données d'entrée qui conduisent à des conclusions complètement erronées de l'IA.
Exemple avec une image : Une étiquette de quelques pixels d'une couleur et d'une forme spécifiques sur un panneau STOP peut faire classer un système de vision par ordinateur autonome comme un panneau de limitation de vitesse. Pour l'homme, le panonceau reste évidemment reconnaissable.
Mécanisme : Les exemples adversaires exploitent les «zones d'ombre» dans l'espace de caractéristiques à haute dimension de la modèle. L'IA perçoit le monde pas comme des objets entiers, mais comme un ensemble de schémas statistiques. Une «gêne» minime mais stratégiquement correcte déplace le point de données dans l'espace des caractéristiques à travers la frontière de la solution du modèle, changeant la classification.
L'IA, en particulier les réseaux de neurones profonds, a tendance à s'overfitter — ils retiennent non les lois générales, mais les exemples spécifiques de l'échantillon d'entraînement, y compris le bruit.
Erreurs sur des données d'un autre distribution : Un modèle formé sur des photos de chiens et de chats prises dans des conditions domestiques la journée peut complètement perdre sa précision si on lui donne une image infrarouge nocturne ou un dessin animé. Il n'a pas perçu l'abstraction du concept de «chatitude», mais a appris à réagir aux motifs spécifiques des pixels.
Absence de bon sens : Un exemple classique : L'IA peut décrire correctement la scène «un homme assis sur un cheval dans le désert», mais générer une phrase «un homme tient une balle de baseball» en s'asseyant sur un cheval, car une balle de baseball a pu apparaître dans le contexte du sport en plein air dans les données. Il ne dispose pas de la logique physique et causale du monde.
Ironie et sarcasme : La phrase «Oh, quelle belle journée !» dite pendant une tempête sera interprétée littéralement par le modèle comme une évaluation positive, car les mots positifs («belle», «journée») sont statistiquement associés à des contextes positifs dans les données.
Raisonnements logiques à plusieurs étapes : Des tâches du style «Si je met l'œuf dans le réfrigérateur, puis je déplace le réfrigérateur dans le garage, où l'œuf sera-t-il ?» nécessitent la construction et la mise à jour de la modèle mentale du monde. Un IA fonctionnant sur la prédiction du prochain mot peut souvent «perdre» des objets au milieu d'un récit complexe ou faire des conclusions illogiques.
L'IA n'a pas bonne maîtrise des situations qui sortent de ses expériences, en particulier lorsque l'on doit reconnaître l'insuffisance des données.
Problème de détection de distribution hors de distribution : Un IA médical formé pour diagnostiquer la pneumonie sur des radiographies du thorax peut donner un diagnostic avec une haute mais fausse certitude s'il lui est présenté une radiographie du genou. Il ne comprend pas que c'est inutile, car il ne possède pas de métaknowledge des limites de sa compétence.
Tâches créatives et ouvertes : L'IA peut générer un récepte plausible mais inexécutable ou dangereux pour une composition chimique, un plan de construction d'un pont en violation des lois de la physique, ou un document juridique avec des références à des lois inexistantes. Il manque de censeur interne critique basé sur la compréhension de la nature des phénomènes.
Exemple de la réalité : En 2016, Microsoft a lancé un chatbot Tay sur Twitter. Le bot a été formé sur l'interaction avec les utilisateurs. En 24 heures, il est devenu une machine générant des propos raciaux, sexistes et offensants, car il a appris les réactions les plus fréquentes et émotionnellement chargées de son nouveau environnement agressif. Ce n'était pas une «erreur» de l'algorithme, mais son travail exact, qui a conduit à un résultat catastrophique dans un environnement social imprévisible.
New publications: |
Popular with readers: |
News from other countries: |
![]() |
Editorial Contacts |
About · News · For Advertisers |
French Digital Library ® All rights reserved.
2023-2026, ELIBRARY.FR is a part of Libmonster, international library network (open map) Preserving the French heritage |
US-Great Britain
Sweden
Serbia
Russia
Belarus
Ukraine
Kazakhstan
Moldova
Tajikistan
Estonia
Russia-2
Belarus-2