Dans un monde parfait, une IA (intelligence artificielle) intégrerait les 106 critères du RGAA et permettrait de réaliser un audit sur l’accessibilité numérique en un rien de temps. Rapide, efficace, disponible en permanence, elle analyserait chaque détail technique et livrerait un diagnostic instantané. Mais surtout il serait entièrement fiable !
Sur le papier, le scénario semble idéal. Bref, retour à la réalité. L’accessibilité ne se réduit pas à une checklist automatisée, du moins pas totalement. Une IA peut détecter des anomalies mais elle ne peut ni comprendre les nuances de l’expérience utilisateur ni accompagner les acteurs dans la mise en œuvre des solutions.
L’IA n’est en réalité qu’une suite de 0 et de 1. Elle repose sur des algorithmes capables d’analyser et de reproduire des schémas, sans véritable compréhension. Là où l’IA exécute, l’humain comprend, adapte et accompagne.
L’accessibilité numérique est-elle menacée ou renforcée par l’IA ?

1. IA vs expertise humaine
L’expert en accessibilité, à quoi sert-il ? Il permet de réaliser un audit pour rendre un site ou une application utilisable par tous en prenant en compte les 106 critères RGAA.
Vous allez me dire, mais l’IA aussi ? Eh bien non ! En réalité, l’IA ne peut prendre en compte qu’une trentaine de critères. Bien évidemment, votre taux semblera élevé, en bref pour ceux qui sont un peu plus dans le A+B.
Si votre taux de conformité est de 50 % sur 30 critères avec une IA, cela signifie que 15 critères sont correctement appliqués.
Pour estimer sur les 106 critères, on suppose que le reste serait au même niveau de réussite, on a 15 critères corrects sur 106.
Le pourcentage serait : 15/106 × 100 ≈ 14,2 %
Donc en gros, un site qui semble avoir 50 % de conformité sur un échantillon limité d’une trentaine de critères, ne serait en réalité qu’à environ 14 % sur l’ensemble des critères.
Le rôle à 360° de l’expert
Il est le seul à pouvoir vous délivrer une certification et vous éviter d’éventuelles sanctions juridiques.
Son rôle ne se limite pas à vérifier des critères techniques. Il accompagne, conseille et forme les équipes pour que les bonnes pratiques soient comprises et appliquées durablement. Son avantage ou son super pouvoir, à bon entendeur, c’est d’avoir la notion de remise en question.
Là où c’est facile pour l’expert, c’est difficile pour l’IA
L’IA ne peut pas percevoir visuellement un blocage invisible dans l’interface. Par exemple, si un élément empêche la navigation au clavier ou rend une information inaccessible mais que ce blocage n’apparaît pas clairement dans le code comme une erreur évidente, l’IA ne le détectera pas. Pourtant, à un expert, ça lui prend 60 secondes à le voir.
Pour beaucoup de critères, il faut pouvoir avoir la main sur la navigation au clavier, l’interaction avec des éléments complexes ou la pertinence des contenus pour les utilisateurs.
Pour optimiser son travail, l’expert utilise également plusieurs outils complémentaires non automatisé, 100 % à la main. Ils l’aident à analyser le site et détecter certaines erreurs techniques pour générer des rapports clairs.
Mais ces outils restent des aides, c’est l’expert qui interprète les résultats, priorise les corrections et adapte les solutions au contexte réel des utilisateurs.
Il va sans dire que pour certains critères, l’automatisation n’aura aucune réelle utilité. Par exemple, l’outil ne pourra pas évaluer la pertinence d’un contenu alternatif, ni juger si une interface est compréhensible pour un utilisateur en situation de handicap cognitif.
En revanche, pour d’autres aspects plus techniques, il est vrai que son accompagnement pourrait être une grande avancée. Notamment pour la détection de contrastes insuffisants, l’absence d’étiquettes des champs de formulaire ou les erreurs de structure HTML (HyperText Markup Language). L’accompagnement par des outils automatisés peut représenter un gain de temps précieux et une base d’analyse utile.

2. Les apports de l’IA
Ahh, l’effet marketing de l’IA ! Ce mot pour lequel on pense directement à faciliter, gain de temps et pas cher. La majorité des solutions dites “IA” ne sont en réalité que de la bonne vieille algorithmie. Le mot “IA” fait vendre, mais techniquement, elle reste un outil limité. Elle est incapable de comprendre le contexte ou de remplacer l’expertise humaine.
En réalité, aucun site ne se ressemble vraiment. L’application des critères du RGAA peut varier selon le type de site, son contenu et ses fonctionnalités.
Des apports prometteurs
Cependant, en termes de technologie l’IA commence à proposer des pistes intéressantes pour le besoin en accessibilité des personnes en situation de handicap. Parmi eux, nous retrouvons :
- Les générateurs de sous-titres par reconnaissance vocale. Un petit raccourci qui nous évite de tout écrire. Mais faut-il y croire les yeux fermés ? Certaines plateformes le prouvent comme Capcut, YouTube, Teams, Tik Tok … la génération est comme magique. Toutefois, la qualité du sous-titrage dépend fortement de la clarté de l’élocution, de la langue, de l’environnement ou encore de l’accent de l’interlocuteur.
- Les générateurs automatiques de textes alternatifs pour les images pourraient constituer une aide ponctuelle pour les utilisateurs de lecteurs d’écran. En particulier lorsqu’aucun texte alternatif n’a été prévu manuellement. Sa fiabilité reste limitée. Le W3C (World Wide Web Consortium) est l’organisme qui standardise le Web. Il alerte lui-même sur le fait que ces textes générés ne permettent pas de capter l’essence d’une image. Ni d’en transmettre les informations contextuelles ou subjectives.
3. Les limites de l’IA
Même dans les démos les plus prometteuses, l’IA peut se tromper sur des critères précis. Par exemple, le critère 12.9 du RGAA ne consiste pas à vérifier les liens sans libellé. Il s’assure qu’il est possible de naviguer au clavier entre les éléments. Une IA peut donc indiquer une correction incorrecte, et un développeur non formé pourrait suivre cette mauvaise recommandation.
Bien sûr, on peut entraîner l’IA pour corriger certaines erreurs, mais la majorité des critères du RGAA ne sont pas automatisables. Il y aura toujours des situations où l’expérience, le jugement et la connaissance approfondie d’un expert seront nécessaires.
Pour l’instant, un véritable « plafond de verre » limite l’utilisation de l’IA. Malgré les progrès impressionnants de ces outils, il n’est pas possible de les utiliser pour réaliser un vrai audit d’accessibilité d’un site internet. Cette limite invisible empêche de franchir certaines étapes essentielles et l’expertise humaine reste indispensable pour analyser correctement tous les critères. L’avenir pourra peut‑être repousser cette frontière, mais aujourd’hui, elle reste bien réelle.
Une IA est dans l’incapacité de réaliser un audit complet de A à Z sans erreurs. Mais comment pourriez-vous les déceler si vous n’y êtes pas informé ?
Un danger juridique réel
Se reposer uniquement sur l’IA pour garantir l’accessibilité peut exposer à de vrais risques juridiques. Aux États-Unis, environ 30 % des procès liés à l’accessibilité concernent des surcouches IA qui prétendent “corriger” automatiquement les problèmes. Dans de nombreux cas, ces solutions finissent par gêner les utilisateurs plutôt que de les aider.
Un exemple récent illustre bien ce risque. Une entreprise a été condamnée à verser 1 million de dollars à un client. La raison ? Son outil basé sur l’IA n’assurait pas réellement l’accessibilité. Cela montre que l’IA peut être un outil d’accompagnement. Mais la responsabilité juridique reste entière pour celui qui publie le site ou l’application.
Conclusion
L’IA peut aider, mais elle ne remplace ni l’expertise humaine, ni la compréhension des vrais besoins.
L’accessibilité numérique ne se fait pas avec des outils seuls, mais avec du bon sens, du contexte et de l’humain.
