UX designer + IA : le métier s’élargit

·

·

UX designer + IA : le métier s’élargit… et sa responsabilité aussi

Pendant des années, l’UX a surtout été l’art de rendre le numérique utile, compréhensible, fluide. Avec l’arrivée des modules IA, des LLM et des interfaces adaptatives, l’enjeu ne disparaît pas : il change d’échelle.
L’UX designer ne “conçoit” plus seulement des écrans : il conçoit une relation entre un humain et une intelligence logicielle… parfois imprévisible, souvent persuasive, et toujours plus présente.

Chez Constencia, on le voit comme une opportunité immense : l’UX a plus que jamais une carte à jouer pour faire de l’IA un accélérateur de valeur — sans casser la confiance. Et c’est exactement dans ce “sans casser la confiance” que le métier devient stratégique.


De UI/UX à IX : quand l’expérience devient intelligente (et vivante)

Une tendance monte clairement : l’interface ne se contente plus d’afficher, elle anticipe, s’adapte, personnalise.

Certains parlent désormais d’Intelligence Experience (IX) : une approche où l’interface intègre IA, analytics prédictifs et personnalisation pour créer des parcours dynamiques, qui apprennent des interactions. Dans une publication relayant un rapport de Digital Silk, l’IX est décrite comme un passage de principes “statiques” à des écosystèmes adaptatifs, avec notamment personnalisation en temps réel, adaptation comportementale, cohérence multi-canal et renforcement de l’accessibilité via le machine learning.

Point clé : ce mouvement n’est pas marginal. Le même contenu s’appuie sur une projection Gartner : d’ici 2028, 33% des applications logicielles d’entreprise intégreraient de l’agentic AI (contre moins de 1% en 2024).
Traduction : les expériences “intelligentes” vont devenir la norme dans beaucoup de produits.


Ce que l’IA change vraiment dans le métier d’UX designer

1) Concevoir “l’interaction IA” (pas juste l’interface)

Quand un produit intègre un LLM, on ne conçoit plus uniquement des composants UI, on conçoit :

  • des intentions (ce que l’utilisateur essaie d’obtenir),
  • des limites (ce que le système ne doit pas faire),
  • des garde-fous (quand l’IA se trompe, hésite, ou n’a pas le droit),
  • des mécanismes de contrôle (valider, corriger, annuler, demander une source, repasser en manuel).

C’est une nouvelle grammaire UX : prompts, reformulations, confirmations, niveaux de certitude, modes “assisté vs autonome”, explications.

2) Gérer le “bon niveau” de personnalisation sans devenir intrusif

La personnalisation est l’un des grands bénéfices mis en avant : analyser comportements et préférences pour adapter contenus et interactions.
Mais le vrai travail UX, c’est la frontière : utile vs inquiétant.

Un article Medium résume très bien ce point : l’IA peut adapter l’expérience, mais il faut éviter qu’elle devienne “overzealous” et intrusive, une tension difficile à arbitrer pour les designers.

👉 La responsabilité UX ici : designer la pudeur (consentement, granularité, contrôle, réversibilité), pas seulement l’efficacité.

3) Revenir au centre : la confiance (transparence, explicabilité, preuve)

Dès qu’on met de l’IA dans un parcours, l’utilisateur se pose 3 questions :

  1. Pourquoi tu me proposes ça ?
  2. Sur quoi tu te bases ?
  3. Et si tu te trompes ?

Le même article Medium insiste : si on demande aux utilisateurs d’accepter le rôle de l’IA, il faut offrir de la transparence en échange (expliquer les décisions, rendre compréhensible).

Concrètement, ça se traduit par des patterns UX très concrets :

  • “Pourquoi je vois ça ?” (rationale)
  • “Modifier mes préférences”
  • “Afficher les sources / critères”
  • “Signaler une erreur”
  • “Revenir à une version non-IA”
  • “Limiter l’automatisation”

4) Collaborer avec l’architecture (l’UX n’est plus “à côté” de la tech)

Avec l’IA, le design et l’architecture se mélangent. L’article Medium note que l’IA “fusionne” des mondes auparavant plus séparés : les designers doivent comprendre davantage la couche technique pour éviter des choix qui dégradent performance, cohérence ou robustesse.

Exemples très concrets côté produit :

  • latence (temps de réponse LLM) → design d’attente, streaming, fallback
  • coût/token → design d’usage (résumé vs complet, limites)
  • confidentialité → design de consentement + minimisation des données
  • hallucinations → design de validation, citations, vérification

En bref : l’UX devient co-responsable du comportement système.

5) Porter l’éthique “dans l’interface”

L’éthique IA ne se résume pas à “être prudent”. Elle se matérialise dans des choix UX :

  • biais : diversité des jeux de tests, wording, options
  • consentement : explicite, granulaire
  • sécurité : éviter l’“illusion d’autorité” de l’IA
  • inclusion : accessibilité, lisibilité, alternatives

Chez Constencia, cette approche est cohérente avec notre trajectoire : on formalise des principes d’IA responsable (recours réfléchi, évaluation des risques de biais et de non-transparence, documentation des cas d’usage IA) en lien avec la norme ISO/IEC 42001 visée.

Et côté accessibilité, on a un cap clair : intégrer systématiquement les principes RGAA d’ici 2027 (contrastes, navigation clavier, structure sémantique, formats alternatifs).


Les 6 responsabilités UX qui deviennent non négociables avec l’IA

  1. Cadrer les attentes : ce que l’IA peut / ne peut pas faire
  2. Designer l’erreur : incertitude, refus, escalade vers humain, fallback
  3. Rendre l’utilisateur acteur : contrôle, correction, réversibilité
  4. Préserver la confiance : transparence, explications, cohérence
  5. Protéger les données : minimisation, consentement, clarté
  6. Garantir l’inclusion : accessibilité, lisibilité, alternatives “low tech”

Une pression réglementaire… qui renforce le rôle de l’UX

En Europe, l’AI Act se déploie progressivement :

  • 2 février 2025 : définitions + exigences d’AI literacy + interdictions (certains usages prohibés).
  • 2 août 2025 : règles pour l’IA à usage général (GPAI) + gouvernance.
  • 2 août 2026 : majorité des règles + transparence + démarrage de l’enforcement.
  • 2 août 2027 : obligations sur l’IA à haut risque intégrée dans des produits régulés.

Et le sujet bouge : la Commission a évoqué des ajustements / simplifications (“Digital Omnibus”) pouvant influencer le calendrier de certaines obligations, ce qui alimente débats et incertitudes côté industrie.

Dans ce contexte, l’UX designer devient un allié naturel de la conformité : parce que transparence, contrôle, information, consentement… ce sont d’abord des objets d’interface.


Le “kit UX” indispensable pour un produit qui intègre un LLM

Voici une checklist opérationnelle (très terrain) :

  • Définir les jobs-to-be-done de l’IA (ce qu’elle doit réellement aider à faire)
  • Cartographier les risques : erreurs, biais, confidentialité, usages détournés
  • Écrire des règles de dialogue : ton, limites, refus, escalades
  • Prévoir un mode sans IA (ou dégradé) pour les cas critiques
  • Mettre des points de contrôle utilisateur (valider, corriger, annuler)
  • Exiger la traçabilité côté produit (quand l’IA agit, sur quoi, pourquoi)
  • Intégrer des signaux de confiance (sources, critères, incertitude)
  • Tester sur des profils variés (handicap, expertise, stress, multi-langue)
  • Mesurer : taux de correction, taux d’abandon, retours négatifs, confiance perçue
  • Documenter : cas d’usage, limites, apprentissages (indispensable en contexte pro)

Conclusion : l’IA ne remplace pas l’UX, elle rend l’UX vital

Les experts convergent : l’IA accélère (prototypage, tests, itérations) et ouvre la porte à des expériences plus personnalisées et optimisées en continu.
Mais l’autre message, encore plus important : ce n’est pas “l’IA vs la créativité”. C’est “l’IA qui amplifie”… si quelqu’un cadre l’expérience.

Et ce “quelqu’un”, c’est l’UX designer — à condition d’assumer ce nouveau rôle : chef d’orchestre de la symbiose humain-IA.

Chez Constencia, c’est exactement notre direction : innover sans compromettre l’avenir, avec une IA responsable, une exigence d’accessibilité, et une obsession du “numérique utile”.