Résumé
Les images cliniques en dermatologie jouent un rôle crucial dans le diagnostic et le suivi des maladies cutanées, et leur importance s’est accrue avec l’essor de l’intelligence artificielle (IA). Cependant, l’absence de normes d’annotation standardisées en dermatologie humaine a freiné l’innovation par rapport à d’autres spécialités comme la radiologie. Ce travail propose une revue structurée des principaux standards techniques et cadres réglementaires pertinents pour l’annotation d’images dermatologiques, afin de garantir une interopérabilité rigoureuse et une utilisation éthique des données pour l’IA médicale. Nous passons en revue les normes d’imagerie médicale (DICOM, HL7 FHIR) et de terminologie (SNOMED CT, LOINC, RadLex), les méthodes d’annotation (manuelle par experts, assistée par ordinateur ou par IA), les enjeux d’interopérabilité des annotations et la qualité des jeux de données annotés (reproductibilité, validation). Les considérations éthiques majeures – notamment la gestion des biais algorithmiques, le consentement des patients et le respect de la finalité déclarée des données – sont examinées à la lumière des recommandations internationales (principes FAIR, TRIPOD-AI) et de la réglementation européenne (RGPD, directives de la CNIL). À travers cette synthèse, nous soulignons la nécessité d’adopter des normes communes en dermatologie, comparables à celles en radiologie, pour améliorer la fiabilité des algorithmes d’IA tout en protégeant les droits des patients.
Introduction
L’intelligence artificielle (IA) connaît un développement fulgurant en dermatologie, avec des applications prometteuses dans le diagnostic des lésions cutanées, la télédermatologie et l’assistance à la décision clinique. Des algorithmes de vision par ordinateur, notamment basés sur l’apprentissage profond, ont démontré des performances parfois comparables aux experts pour la classification de cancers cutanés dans des conditions expérimentales contrôlées. Toutefois, la création de ces outils d’IA nécessite des volumes importants d’images dermatologiques annotées de manière fiable. La qualité de l’annotation – c’est-à-dire la description standardisée des images (diagnostic, localisation, caractéristiques visuelles, etc.) – conditionne directement la performance et la sécurité des algorithmes entraînés. Or, en l’absence de lignes directrices communes, les pratiques actuelles d’annotation en dermatologie restent hétérogènes et souvent ad hoc, ce qui complique le partage de données entre centres et la reproductibilité des études scientifiques.
Contrairement à la radiologie, où des standards d’imagerie tels que DICOM (Digital Imaging and Communications in Medicine) sont largement adoptés depuis des décennies, la dermatologie n’a historiquement pas disposé de systèmes d’archivage et de transmission normalisés pour ses photographies cliniques. La plupart des images dermatologiques sont encore acquises via des appareils photo numériques grand public ou des smartphones, stockées sous forme de fichiers JPEG et échangées via des moyens non sécurisés (e-mail, messagerie). Cette situation entraîne non seulement des risques pour la confidentialité des patients, mais freine également la constitution de bases de données multi-centriques de grande envergure nécessaires au développement d’algorithmes robustes. De plus, l’absence de standardisation des métadonnées (informations associées aux images, telles que le contexte clinique, la localisation anatomique, ou le diagnostic) complique l’interopérabilité entre les systèmes d’information et limite l’utilisation secondaire des données (recherche, enseignement, entraînement d’IA).
Face à ces constats, une mobilisation de la communauté dermatologique et des experts en imagerie médicale est en cours pour rattraper ce retard. Des groupes de travail ont commencé à adapter les standards existants (p. ex. extension de DICOM à la photographie dermatologique, utilisation de HL7 FHIR pour l’échange d’images cliniques). Parallèlement, l’importance d’une ontologie dermatologique normalisée est de plus en plus reconnue, avec l’utilisation de terminologies contrôlées comme SNOMED CT pour décrire de façon cohérente les diagnostics et emplacements anatomiques sur les images. Ces avancées techniques doivent s’accompagner d’une réflexion approfondie sur la qualité des annotations (formation des annotateurs, validations croisées, référentiels de vérité terrain) et sur les enjeux éthiques et réglementaires. En effet, la constitution et l’exploitation de grandes collections d’images de patients soulèvent des questions sensibles : comment éviter d’entraîner des modèles biaisés défavorisant certains phototypes de peau ou populations ? Comment garantir le consentement éclairé des patients à l’utilisation de leurs photos à des fins de recherche ou d’entraînement de l’IA ? Comment s’assurer que les données ne seront pas détournées de leur finalité initiale, en conformité avec le Règlement Général sur la Protection des Données (RGPD) ?
Cette revue a pour objectif de dresser un état des lieux complet des normes d’annotation disponibles ou en développement pour les images dermatologiques, et d’analyser comment celles-ci peuvent contribuer à une IA médicale à la fois performante, interopérable et éthiquement soutenable. Nous passerons en revue (i) les principaux standards techniques existants en matière de format d’image et de représentation des métadonnées (DICOM, HL7 FHIR, ontologies cliniques), (ii) les méthodologies employées pour annoter les images (de l’annotation manuelle experte aux approches semi-automatiques assistées par l’IA), (iii) les questions d’interopérabilité et de partage des annotations entre systèmes, (iv) les critères de qualité, de reproductibilité et de validation des jeux de données annotés, et enfin (v) les enjeux éthiques et réglementaires qui encadrent la constitution et l’utilisation de ces données en dermatologie. L’ensemble est fondé sur l’analyse de la littérature scientifique récente et des recommandations internationales pertinentes (principes FAIR pour les données ouvertes, checklist TRIPOD-AI pour la transparence des modèles prédictifs, position statements d’associations professionnelles, etc.), avec un accent mis exclusivement sur la dermatologie humaine.
Matériels et Méthodes
Nous avons réalisé une revue narrative exhaustive en combinant des sources issues de la littérature biomédicale, de la documentation technique des standards et des textes réglementaires. Une recherche bibliographique a été effectuée entre novembre 2024 et mars 2025 dans les bases de données PubMed, Scopus et Google Scholar, en anglais et en français, en utilisant des mots-clés liés à l’annotation des images dermatologiques et aux standards (par ex. “dermatology image annotation standard”, “DICOM dermatology”, “FHIR imaging dermatology”, “SNOMED CT skin lesions”, “ethics AI dermatology dataset”). Les articles examinés incluent des revues de la littérature sur l’IA en dermatologie, des études présentant des jeux de données annotés ou des outils d’annotation, ainsi que des white papers et communications de groupes de travail en imagerie (p. ex. documents de la SIIM – Society for Imaging Informatics in Medicine – sur l’imagerie dermatologique). Parallèlement, les sites officiels des organismes de standardisation (DICOM Standards Committee, HL7 pour FHIR, Regenstrief Institute pour LOINC, IHTSDO pour SNOMED CT) ont été consultés afin d’identifier les normes existantes applicables aux images de dermatologie. Des recherches ciblées ont également été menées sur les sites des autorités de santé et de protection des données (CNIL, Commission Européenne) pour recueillir les recommandations ou réglementations concernant l’utilisation d’images patients dans le cadre de l’IA.
Nous avons inclus dans cette revue les principaux standards techniques en lien avec l’imagerie dermatologique (tels que DICOM et ses extensions, HL7 FHIR, les ontologies cliniques SNOMED CT, LOINC, RadLex) ainsi que les référentiels de bonnes pratiques récemment publiés (par ex. la checklist TRIPOD-AI pour le reporting des modèles d’IA et les principes FAIR pour la gestion des données). Les normes et guidelines purement radiologiques ou hors du domaine médical ont été exclues, afin de nous concentrer sur la dermatologie humaine. Toutefois, certaines analogies avec la radiologie ou d’autres disciplines sont discutées lorsque instructives pour la dermatologie (par ex. l’intégration LOINC/RadLex en radiologie).
L’analyse des contenus a été structurée en cinq axes correspondant aux sections de résultats décrites dans le cahier des charges : (1) état des lieux des normes d’annotation d’images pertinentes en dermatologie, (2) méthodes d’annotation employées dans les études ou pratiques cliniques (avec leurs avantages, limites et outils), (3) considérations d’interopérabilité et de partage des données annotées, (4) critères de qualité, de validation et de reproductibilité des jeux de données d’entraînement, (5) enjeux éthiques et juridiques. Pour chaque axe, les informations ont été synthétisées de manière qualitative. Étant donné la nature narrative de cette revue, aucun métrique de qualité d’étude (type score PRISMA) n’a été appliqué, mais nous nous sommes attachés à recouper les informations entre sources multiples pour renforcer la fiabilité des constats. Enfin, nous avons traduit ou résumé en français les éléments issus de la littérature anglophone tout en conservant les références aux publications originales pour permettre au lecteur d’approfondir chaque point.
Résultats
État des lieux des normes existantes en imagerie dermatologique
Standards d’imagerie médicale : Le standard DICOM (Digital Imaging and Communications in Medicine) est la référence historique pour le stockage et l’échange d’images médicales en milieu hospitalier. DICOM définit un format de fichier intégrant l’image et ses métadonnées cliniques, ainsi que des protocoles réseau pour la transmission vers des archives (PACS). En radiologie, l’adoption de DICOM est quasiment universelle et a résolu le problème d’interopérabilité des images dès les années 1990. En dermatologie, DICOM n’a pas été largement adopté jusqu’à récemment, du fait de workflows différents (prise de photo en consultation plutôt que procédure imagée planifiée) et de la complexité perçue du standard. Néanmoins, DICOM est techniquement applicable aux photos dermatologiques : le format supporte déjà les images en lumière visible (Visible Light IOD) et en capture standard. Le groupe de travail 19 du comité DICOM a d’ailleurs travaillé à étendre le standard aux besoins spécifiques de la dermatologie (appareils photographiques variés, dermoscopie, etc.). Un aboutissement notable est le Supplément 221 de DICOM, dédié à la dermoscopie, qui définit un nouvel objet d’information pour encoder les images de dermatoscope de façon standardisée. La dermoscopie est ainsi la première modalité dermatologique intégrée dans DICOM, et des travaux sont en cours pour d’autres techniques comme la microscopie confocale ou la photographie corporelle totale. À terme, une intégration efficace de DICOM au point de soins en dermatologiefaciliterait grandement la capture de métadonnées normalisées et l’archivage sécurisé des images dans les dossiers patients. Il convient de noter que convertir des collections d’images dermatologiques existantes (JPEG) en fichiers DICOM est réalisable avec un surcoût de stockage minime : par exemple, l’encapsulation de ~44 000 images dermatoscopiques issues d’une compétition a ajouté seulement ~1,5 ko par image pour y insérer les métadonnées patient dans l’en-tête DICOM.
En parallèle, le standard HL7 FHIR (Fast Healthcare Interoperability Resources) s’impose comme un cadre moderne pour l’échange de données de santé, y compris les données d’imagerie. FHIR permet de représenter des “ressources”normalisées en JSON ou XML (patients, observations, études d’imagerie, etc.) et de les échanger via des API RESTful. Appliqué aux images dermatologiques, FHIR offre plusieurs approches complémentaires : l’utilisation de la ressource ImagingStudy pour indexer des objets DICOM (séries d’images), ou la ressource Media/Observation pour attacher une image (fichier ou URL) à une observation clinique codée. Par exemple, un schéma proposé intègre un serveur DICOMweb pour stocker les images et un serveur FHIR pour les annotations : les coordonnées d’une annotation dessinée sur l’image peuvent être enregistrées en SVG et encapsulées dans une ressource ObservationFHIR. Les comptes rendus d’imagerie et comptes rendus dermatologiques peuvent être formatés en DiagnosticReport FHIR faisant référence aux observations d’images et aux fichiers DICOM correspondants (via des liens WADO-RS). Ainsi, FHIR et DICOM combinés permettent une interopérabilité totale des données : les images sont stockées de façon standardisée et les annotations (lésions repérées, mesures, conclusions) sont encodées dans des ressources FHIR interrogeables par tout système compatible. Cette convergence s’inscrit d’ailleurs dans des profils d’intégration IHE (Integrating the Healthcare Enterprise) récents qui promeuvent l’usage conjoint de DICOMweb et FHIR pour l’imagerie dans différentes spécialités.
Ontologies et terminologies cliniques : Pour que les annotations associées aux images soient compréhensibles par différentes machines et utilisateurs, il est crucial d’utiliser des terminologies contrôlées. En dermatologie, on s’appuie de plus en plus sur SNOMED CT (Systematized Nomenclature of Medicine – Clinical Terms), un thesaurus médical international très exhaustif. SNOMED CT comporte des milliers d’entrées pertinentes pour la peau – qu’il s’agisse de localisations anatomiques précises (ex. “bord externe de la paupière inférieure”), de descripteurs de lésion (macule, papule, ulcère…), ou de diagnostics dermatologiques (psoriasis, naevus mélanocytaire, etc.). L’utilisation de codes SNOMED CT pour annoter les diagnostics sur les images permet une grande précision sémantique et une cohérence inter-annotateurs. Par exemple, afin d’uniformiser la description des sites anatomiques des lésions cutanées, certaines institutions ont encouragé l’usage de la terminologie SNOMED CT dans les dossiers et bases d’images. De même, pour étiqueter l’image avec la maladie correspondante, SNOMED propose des codes standard (par ex. “Mélanome malin de la peau”). Une alternative ou complément est la classification ICD-O(Classification Internationale des Maladies – Oncologie) pour les tumeurs, ou l’ICD-10/11 pour les diagnostics, mais ces dernières sont moins granuleuses.
Dans le domaine des actes et observations cliniques, la norme LOINC (Logical Observation Identifiers Names and Codes) peut également jouer un rôle. LOINC fournit des codes standardisés pour identifier des types de documents ou d’observations médicales. Pertinemment, LOINC comprend un code spécifique pour une image photographique dermatologique (code 96183-9, “Dermatology Photographic image”) qui peut identifier de manière normalisée une entrée d’image de peau dans un dossier. De même, un rapport de dermatologie (texte) a un code LOINC dédié. Ainsi, dans un contexte FHIR par exemple, on pourrait coder l’observation d’une image dermatologique avec le code LOINC correspondant, indiquant qu’il s’agit d’une photographie cutanée standard. L’utilisation conjointe de SNOMED CT (pour le contenu clinique de l’image) et de LOINC (pour le type d’observation) assure une description riche et interopérable.
Enfin, il convient de mentionner RadLex, le thésaurus développé par la RSNA pour la radiologie, qui couvre l’imagerie en coupes et certaines terminologies d’image. Bien que centré sur la radiologie, RadLex propose un lexique organisé de termes d’images et a été intégré à LOINC pour unifier la description des procédures radiologiques. En dermatologie, il n’existe pas encore un “DermLex”équivalent complètement formalisé. Cependant, des initiatives cherchent à définir un vocabulaire standard pour les besoins spécifiques de l’imagerie de la peau : par exemple, le Lexique Dermatologique en cours d’établissement inclura des termes pour les descripteurs de lésions, l’éclairage, les angles de prise de vue, etc., possiblement en s’appuyant sur RadLex et SNOMED. Cette structuration sémantique est indispensable pour permettre une annotation fine et exploitable par machine, ainsi que pour faciliter des rapports structurés en dermatologie à l’avenir.
Méthodologies d’annotation des images dermatologiques
L’annotation des images peut être réalisée selon différents niveaux d’automatisation, chacun ayant des avantages et limites en termes de qualité et d’efficience :
- Annotation manuelle par des experts humains : C’est la méthode de référence pour constituer des jeux de données de haute qualité. Des dermatologues (ou autres spécialistes formés) examinent chaque image et lui associent des étiquettes : diagnostic clinique présumé, localisation sur le corps, description sémiologique (couleur, forme, etc.), parfois délimitation de la lésion sur l’image. L’annotation manuelle garantit généralement une bonne pertinence clinique des labels, surtout si les annotateurs sont expérimentés. Elle est cependant chronophage et coûteuse, et peut souffrir d’une variabilité inter-observateur. Par exemple, plusieurs dermatologues diagnostiquant indépendamment la même lésion sur photo peuvent ne pas s’accorder parfaitement, surtout en l’absence de confirmation histologique. Pour renforcer la fiabilité, on utilise souvent des annotations croisées : chaque image est annotée par au moins deux experts, et les divergences sont résolues en revue collégiale ou en prenant l’avis d’un expert senior. Dans le cas des lésions tumorales, il est recommandé de toujours adosser l’annotation à la preuve histopathologique si disponible (la biopsie ou l’examen anatomopathologique servant de vérité terrain du diagnostic). Cette méthode manuelle a été appliquée dans la plupart des grands jeux de données publics en dermatologie (par ex. l’archive ISIC) et demeure incontournable pour obtenir des labels de haute qualité malgré son faible passage à l’échelle.
- Annotation semi-automatique assistée par ordinateur : Pour accélérer le processus tout en gardant un contrôle humain, on recourt à des outils informatiques interactifs. Par exemple, pour la segmentation d’une lésion(délimitation de ses contours sur l’image), il existe des logiciels d’annotation qui assistent l’utilisateur : l’annotateur clique approximativement autour de la lésion et l’algorithme propose un contour ajusté que l’humain peut affiner. Des outils de ce type ont été développés en dermoscopie pour construire des bases de masques de lésion plus rapidement qu’en traçant à main levée. De même, l’algorithme peut pré-remplir certains champs de métadonnées (par exemple détecter automatiquement la présence de poils, de saignement, ou le type de plan – macro vs dermoscopie – via de la vision par ordinateur basique), que l’annotateur n’a plus qu’à vérifier ou corriger. Une approche semi-automatique courante consiste à pré-classer les images via un modèle de ML initial, puis à faire valider/corriger ces prédictions par un expert. Cette méthode a été utilisée dans certaines études : par exemple, des non-spécialistes formés ont d’abord annoté un lot d’images faciles, puis des dermatologues ont revu et affiné ces annotations de manière itérative jusqu’à atteindre un taux de concordance élevé. L’intérêt est de réduire la charge sur l’expert en déléguant une partie du travail à des annotateurs moins qualifiés ou à la machine, tout en maintenant une supervision. Les plateformes de crowdsourcing peuvent intervenir dans ce cadre semi-automatisé : on peut faire annoter des images simples ou des attributs évidents par une foule (via Amazon Mechanical Turk ou d’autres), puis soumettre les résultats au contrôle d’un dermatologue pour validation finale. Cette approche hybride a montré son efficacité pour créer des bases de données plus rapidement sans perte majeure de qualité, à condition qu’un protocole rigoureux de relecture et de formation des annotateurs soit en place.
- Annotation automatique par l’IA (IA assistée) : À l’extrême, on peut imaginer confier l’annotation initiale à un algorithme d’IA pré-entraîné. Par exemple, un réseau de neurones pourrait détecter automatiquement toutes les lésions sur une photographie corporelle (body mapping) et proposer pour chacune une classification (naevus, carcinome, etc.), que l’humain n’aurait plus qu’à valider ou infirmer. Des techniques d’auto-annotation émergent, notamment en segmentation : des approches auto-supervisées ont été proposées pour segmenter les lésions de peau sans annotation humaine initiale, en tirant parti de propriétés visuelles intrinsèques. Toutefois, en 2025, l’annotation automatique totale sans intervention humaine reste peu fiable dans un contexte clinique exigeant. On l’utilise surtout pour des tâches bien bornées (par ex. mesurer la surface d’une plaie à partir d’une photo). Par contre, l’IA est un outil d’assistance précieux : de nombreux logiciels commerciaux ou prototypes de recherche proposent désormais des fonctionnalités d’annotation assistée par IA intégrées aux visionneuses d’images. Par exemple, un algorithme peut pré-annoter toutes les images d’un dossier patient en indiquant “suspect benign vs malignant” avec un score de confiance, ce qui oriente l’attention de l’annotateur humain vers certaines images prioritaires. De plus, l’IA peut aider à standardiser les annotations : en suggérant des termes normalisés à partir d’une description libre (un peu à la manière d’un correcteur orthographique qui proposerait un terme SNOMED correspondant). Ainsi, bien que l’IA ne se substitue pas encore aux experts pour garantir la validité clinique des annotations, elle commence à s’insérer dans le cycle d’annotation pour le rendre plus efficace et homogène. On assiste également à la naissance de protocoles d’annotation dédiés aux nouveaux usages, tels que la photographie corporelle totale (Total Body Photography, TBP) où l’on doit annoter des centaines de naevi par patient : un protocole récent propose une annotation en deux étapes avec détection automatique des naevus sur les images TBP puis validation humaine, afin de créer des jeux d’entraînement pour des modèles holistiques d’analyse du corps entier.
En pratique, les grands projets actuels combinent souvent ces approches. Par exemple, le projet DermInclusive en France vise à constituer une base de 10 000 images de peaux foncées : chaque image est annotée manuellement par deux dermatologues (pour validation croisée) et les phototypes sont également renseignés, tandis que des techniques d’équilibrage de données et d’ajustement d’algorithmes sont utilisées en aval pour améliorer les performances sur ces phototypesfile-afprvkzml5u6v983bj2yjpfile-afprvkzml5u6v983bj2yjp. Ce type de projet illustre la nécessité d’une annotation experte rigoureuse tout en intégrant des considérations de diversité et d’IA dans la boucle. D’autres, comme ISIC (International Skin Imaging Collaboration), organisent des défis annuels où des milliers d’images sont annotées par des experts et partagées publiquement, contribuant à l’adoption de formats standard (un format JSON commun est utilisé pour les métadonnées ISIC) et stimulant le développement de méthodes d’annotation semi-automatiques pour traiter l’augmentation du volume de données.
Interopérabilité des annotations
L’interopérabilité désigne la capacité à échanger et exploiter les données de manière transparente entre différents systèmes et institutions. Dans le contexte des images dermatologiques annotées, l’interopérabilité est cruciale pour : 1) permettre le partage de bases d’images entre centres (pour entraîner des modèles plus généraux), 2) intégrer les annotations dans les dossiers patients électroniques de façon lisible et exploitable, 3) assurer la pérennité des données sur le long terme indépendamment des logiciels utilisés initialement.
Plusieurs conditions doivent être réunies pour atteindre cette interopérabilité : des formats de fichier standardisés, des schémas d’organisation des métadonnées communs, et des vocabulaires partagés pour les annotations textuelles. Nous avons déjà évoqué le rôle structurant de DICOM et FHIR pour normaliser le format des images et leur stockage avec métadonnées intégrées. L’utilisation de DICOM en dermatologie permettrait, par exemple, qu’une image de lésion capturée dans un cabinet libéral puisse être directement envoyée et lue par le PACS de l’hôpital de référence, sans perte d’information ni besoin de conversion manuelle. De même, si les annotations (diagnostic suspecté, mesure de taille, etc.) sont encodées en DICOM Structured Report (SR) ou en ressources FHIR, elles peuvent transiter via des interfaces standard et être insérées dans un compte-rendu ou un entrepôt de données automatiquement.
En radiologie, des solutions existent depuis longtemps pour les annotations : par exemple, DICOM intègre les objets d’annotation comme les GSPS (Grayscale Softcopy Presentation State) pour enregistrer des marquages graphiques, ou les rapports structurés (SR) avec des modèles standard tels que TID1500 pour communiquer des mesures de lésions de façon interopérable. Ces standards permettent aux systèmes de stocker, rechercher et afficher les annotations exactement comme réalisées par le radiologue, y compris sur des stations différentes de celle d’origine. Une initiative de l’IHE (Integrating the Healthcare Enterprise) a même spécifié un profil “AI Results” pour intégrer dans les flux cliniques les résultats produits par une IA, s’appuyant sur DICOM SR et FHIR. Pour la dermatologie, s’inspirer de ces modèles est judicieux : on pourrait imaginer un gabarit DICOM SR adapté aux comptes rendus de dermatologie (incluant par exemple un tableau de suivi des multiples lésions, comme cela existe en cancérologie cutanée). En attendant, il est tout à fait possible d’utiliser dès à présent les outils génériques d’annotation DICOM pour les images dermatologiques : un cercle sur une photo de peau annoté “lésion suspecte” peut être encodé en GSPS de la même manière qu’un cercle sur un scanner. De son côté, HL7 FHIR fournit un cadre flexible où les annotations peuvent être stockées dans des ressources reliées : par ex., une ressource Observation peut contenir un champ valueString ou valueAttachmentqui pointe vers une annotation (texte ou fichier, comme un JSON d’annotation). Un rapport diagnostique en FHIR peut référencer l’image originale et plusieurs observations (trouvaille clinique, résultat d’IA, note du clinicien) en les liant par des identifiants communs. Cela facilite la construction d’une traçabilité complète de chaque image et de ses interprétations à travers les systèmes.
Un autre aspect de l’interopérabilité est l’usage de vocabulaires standard pour les étiquettes. Si chaque centre utilise ses propres abréviations (p.ex. “CBC” pour carcinome basocellulaire) ou sa langue locale, l’échange d’annotations perd de son sens. D’où l’importance d’utiliser SNOMED CT, LOINC ou des dictionnaires internationaux. Par exemple, deux bases de données annotées avec des codes SNOMED pour les diagnostics peuvent être fusionnées aisément et analysées ensemble, là où des données textuelles libres auraient nécessité un nettoyage fastidieux. Dans un contexte d’entraînement d’IA fédérée (où les données restent dans chaque hôpital mais les modèles sont entraînés de manière collaborative), l’alignement des annotations sur un même vocabulaire est également primordial pour que le modèle comprenne les labels de façon cohérente. Historiquement, les dermatologues utilisaient des descripteurs anatomiques variés dans les comptes rendus. Depuis quelques années, on tend vers une standardisation de ces termes via des référentiels : par exemple, un consensus international a promu une cartographie anatomique standard (avec des régions prédéfinies du corps) pour l’enregistrement des localisations de lésions cutanées, souvent basée sur la hiérarchie SNOMED des sites anatomiques. De même, pour les diagnostics de dermatopathologie, l’utilisation de codes SNOMED ou ICD-O dans les bases d’images cliniques permet de relier directement l’image macroscopique du patient à la conclusion histologique codée correspondante, améliorant l’exploitation ultérieure (recherche corrélative, etc.).
Enfin, l’aspect interopérabilité sémantique couvre aussi la notion de format de métadonnées. Outre les standards lourdement structurés comme DICOM ou FHIR, on voit apparaître des formats légers comme JSON schemas utilisés dans des dépôts d’images publics (ex. le format JSON de l’ISIC Archive, ou le format COCO modifié pour les lésions cutanées). Il est souhaitable de converger vers un schéma commun ou de fournir des mappings vers les standards reconnus. Par exemple, un jeu d’images publié en JSON devrait idéalement proposer une correspondance de ses champs avec FHIR ou DICOM (p.ex. champ “diagnosis” mappé sur un code SNOMED CT de Diagnostic). Cela rejoint les principes FAIR : rendre les données interopérables suppose l’utilisation de standards universels ou, à défaut, la documentation publique précise permettant de convertir vers ces standards.
En somme, l’écosystème technique pour l’interopérabilité existe déjà en grande partie : DICOM et FHIR du côté des formats/transport, SNOMED CT/LOINC du côté des terminologies. Le défi actuel en dermatologie est d’adoptereffectivement ces outils dans la pratique quotidienne et les projets de recherche, afin que les annotations réalisées aujourd’hui puissent être encore exploitées dans 10 ans par d’autres équipes et systèmes. Des efforts de formation et de fourniture d’outils conviviaux (p.ex. plugins DICOM pour smartphones des dermatologues) sont en cours pour combler le fossé entre l’approche opportuniste actuelle (photos non standard) et une approche intégrée dans l’infrastructure interopérable de la santé.
Qualité, reproductibilité et validation des jeux de données
La constitution de jeux de données dermatologiques de haute qualité pour l’entraînement et l’évaluation des algorithmes d’IA requiert une attention particulière à plusieurs facteurs : la validité des annotations, leur cohérence (reproductibilité), la diversité des données, et la documentation permettant la vérification indépendante des jeux.
Validation des annotations et vérité terrain : Idéalement, chaque image devrait être annotée avec le diagnostic exactde la lésion qu’elle représente. En pratique, cela nécessite souvent une confirmation par un examen de référence. Pour les lésions tumorales ou suspectes, la confirmation histologique est considérée comme le gold standard du diagnostic ; ainsi, un dataset de mélanomes sera d’autant plus fiable que chaque cas a été confirmé par biopsie. De même, pour des dermatoses inflammatoires ou infectieuses, une confrontation aux données cliniques ou de laboratoire renforce la qualité de l’annotation (ex : une image de psoriasis confirmée par l’avis d’un dermatologue senior ou la réponse au traitement). Dans les jeux de données publiés, il est recommandé de préciser la provenance des labels de vérité terrain (clinique, histo, suivi, etc.). Par exemple, la checklist récente proposée pour l’évaluation des études d’IA en dermatologie insiste sur la description explicite de la méthode d’annotation et de sa justification. Lorsque la vérité terrain est incertaine (cas sans biopsie par exemple), il peut être pertinent d’annoter le degré de confiance ou d’utiliser des labels plus larges (p.ex. “lésion pigmentée indéterminée” plutôt que “mélanome” si pas de preuve). Certains ensembles de données ont plusieurs niveaux de labels (diagnostic du dermatologue vs diagnostic pathologique) pour permettre des analyses plus fines.
Reproductibilité inter-annotateurs : La variabilité humaine étant inévitable, la reproductibilité des annotations doit être mesurée et, si possible, optimisée. Un moyen courant est de faire annoter un sous-ensemble d’images par plusieurs experts indépendants, et de calculer un indice de concordance tel que le kappa de Fleiss. Par exemple, une étude a évalué l’accord entre 7 dermatologues sur des images dermoscopiques de mélanomes : le kappa était modéré, soulignant la difficulté de certaines caractéristiques subtiles. Si l’accord inter-observateur est faible sur un critère, cet attribut est probablement peu fiable pour entraîner une IA (le modèle pourrait apprendre des “erreurs” de label). Dans les protocoles d’annotation rigoureux, on peut mettre en place des sessions de calibration où les annotateurs discutent de cas tests pour aligner leur compréhension des critères, améliorant ainsi la cohérence globale. La formation des annotateurs est un élément parfois sous-estimé : définir un guide d’annotation avec des exemples, clarifier les définitions (quand étiqueter “eczéma” vs “psoriasis” sur une simple photo ?), permet d’homogénéiser les pratiques. Dans un contexte où l’annotation est faite en partie par des non-médecins (p.ex. techniciens ou crowdworkers), cette formation et supervision est d’autant plus importante. Pour fiabiliser les données, de nombreux jeux combinent double lecture et arbitrage : deux annotations indépendantes, puis un médecin senior tranche en cas de divergence – ce qui est la méthode suivie dans certaines bases comme DermInclusive pour valider chaque imagefile-afprvkzml5u6v983bj2yjp.
Données manquantes et qualité d’image : La qualité technique des images et la complétude des métadonnées influent sur l’utilité du jeu de données. Des images floues, mal cadrées ou avec un éclairage inadéquat peuvent induire en erreur aussi bien les humains que les IA. Idéalement, un processus de contrôle qualité visuel élimine ou retague les images de qualité insuffisante (par ex. en les annotant “non évaluables”). De même, il est important que chaque image vienne avec les métadonnées essentielles : au minimum, la localisation anatomique, le diagnostic (même provisoire) et idéalement des informations patient comme l’âge, le sexe et le phototype, car ces éléments contextuels peuvent être utiles à l’algorithme ou à l’interprétation des résultats. La documentation du dataset doit préciser si certaines informations sont absentes pour certains cas (ex. phototype inconnu) afin que l’utilisateur en tienne compte. Un jeu de données incomplet (où manquent des labels pour certaines images, ou sans info patient) limite les analyses possibles et peut introduire des biais (données manquantes non aléatoires). Par conséquent, les concepteurs de bases dermatologiques s’efforcent de minimiser les données manquantes et d’indiquer clairement leur occurrence dans les publications.
Diversité et représentativité : Un jeu d’images de peau doit refléter la diversité des patients et des lésions pour qu’un modèle entraîné dessus soit généralisable et équitable. Cela concerne notamment la diversité en termes de phototype de peau (échelle de Fitzpatrick I à VI). De nombreuses études ont révélé que les algorithmes de classification de lésions cutanées avaient des performances moindres sur les peaux foncées, en partie parce que les datasets utilisés contenaient majoritairement des peaux claires. Cet biais de représentation peut exacerber des inégalités de santé si l’IA est déployée sans correction. Il est donc essentiel, lors de la constitution d’un jeu de données, de veiller à inclure un échantillonnage équilibré des phototypes et origines ethniques. Cependant, en Europe notamment, un obstacle légal existe : la collecte explicite de l’ethnicité ou de la “race” d’un patient est interdite (donnée sensible au sens du RGPD)file-afprvkzml5u6v983bj2yjp. On contourne cette contrainte en utilisant des indicateurs indirects de la couleur de peau comme le phototype de Fitzpatrick (considéré comme un paramètre clinique, donc autorisé) ou des mesures colorimétriques objectivesfile-afprvkzml5u6v983bj2yjp. Quoi qu’il en soit, la diversité doit aussi s’entendre en termes de pathologies (il faut des cas courants mais aussi des cas rares pour ne pas entraîner l’IA à ignorer les maladies peu fréquentes), de sexes, d’âges, etc. Un jeu de 10 000 images de mélanomes exclusivement chez des patients âgés de 50-70 ans ne couvrira pas la présentation chez l’adulte jeune, par exemple. Les consortia internationaux comme l’ISIC ont mis l’accent sur l’obtention de données multi-sources (plusieurs pays, plusieurs centres) afin d’augmenter cette variété et de documenter la distribution des caractéristiques dans le dataset. Publier les démographiques agrégées du jeu (répartition par sexe, âge, phototype, etc.) fait partie des bonnes pratiques de transparence prônées par TRIPOD-AI.
Principes FAIR et partage pour reproductibilité : La notion de qualité inclut la possibilité pour d’autres chercheurs de reproduire les résultats obtenus avec un jeu de données. Cela implique que le jeu soit accessible (au moins sur demande ou via collaboration) et bien décrit. Les principes FAIR (Findable, Accessible, Interoperable, Reusable) offrent un cadre pour maximiser l’utilité des données scientifiques. Appliqués aux images dermatologiques : Findable – le dataset devrait être référencé de manière unique (DOI, identifiant permanent) et indexé dans des dépôts ou publications, Accessible – les conditions d’accès (libre, ou via accord de confidentialité) doivent être claires et non discriminatoires, Interoperable – comme discuté plus haut, usage de formats/terminologies standard pour pouvoir le combiner à d’autres, Reusable – une licence d’utilisation appropriée et une documentation suffisante doivent accompagner le jeu. De plus en plus de journaux exigent que les auteurs rendant compte d’un modèle d’IA décrivent précisément leur dataset et le rendent disponible lorsque possible. Cette ouverture permet à la communauté de vérifier la qualité des annotations, de détecter d’éventuelles erreurs ou biais passés inaperçus, et de réutiliser les données pour d’autres finalités. Par exemple, Daneshjou et al. (2021) ont plaidé pour la mise à disposition publique des images et annotations utilisées dans les études d’IA dermatologique afin de permettre l’évaluation indépendante des biais et performances. Lorsque le partage intégral des images n’est pas possible (confidentialité), il est recommandé de partager au moins les métadonnées et statistiques agrégées, ou de passer par des plateformes sécurisées comme le Health Data Hub en France qui permettent des analyses sur données sans les exposer directement au chercheur externe.
En résumé, garantir la qualité d’un jeu de données annoté pour l’IA en dermatologie nécessite un processus rigoureux dès l’annotation (validation experte et multi-modale), une gestion attentive de la diversité et de l’information manquante, et une transparence totale sur la composition du jeu. Les initiatives récentes, telles que la checklist d’évaluation des études d’IA dermatologiques ou le TRIPOD-AI, intègrent explicitement ces aspects afin d’orienter la communauté vers des pratiques plus reproductibles et fiables.
Enjeux éthiques : biais, consentement et finalité des annotations
Le développement d’IA en dermatologie s’accompagne d’enjeux éthiques majeurs liés aux données utilisées. L’annotation d’images de patients pose des questions de justice, de respect des droits et de conformité légale qu’il est indispensable d’aborder pour une IA « éthiquement soutenable ».
- Biais algorithmiques et équité : Les biais dans les jeux de données annotés peuvent conduire à des discriminations ou des inégalités de performances de l’IA. Comme mentionné, un biais fréquent est la sous-représentation des peaux foncées dans les données d’entraînement, ce qui aboutit à des modèles moins précis pour ces patients. Ceci est problématique du point de vue éthique, car l’IA risque d’aggraver les disparités de santé déjà existantes (diagnostics manqués chez les personnes à peau noire, par exemple). Il existe aussi d’autres biais potentiels : biais de genre (si par exemple un dataset de calvitie comporte majoritairement des hommes, l’IA identifiera moins bien une alopécie féminine), biais géographique (images provenant d’une seule région du monde, ne reflétant pas d’autres contextes), biais de sélection (les cas compliqués sont parfois sur-représentés dans les publications par rapport aux cas courants). La mitigation des biais doit donc être une préoccupation dès la constitution du dataset et tout au long du développement de l’IA. Cela passe par la diversification des sources de données, l’ajustement des poids lors de l’entraînement (p. ex. techniques de sur-échantillonnage des minorités, comme appliqué dans DermInclusivefile-afprvkzml5u6v983bj2yjp), et par une évaluation de l’algorithme selon des sous-groupes (mesurer les performances séparément sur différents phototypes, âges, etc.). Du point de vue annotation, cela signifie qu’il peut être nécessaire d’annoter des attributs supplémentaires qui aident à détecter les biais : par exemple, annoter la couleur de peau de chaque image (via l’échelle de Fitzpatrick) afin de pouvoir vérifier que l’IA est équitable selon cette variable. Or, comme discuté, en Europe la mention explicite de l’origine ethnique est juridiquement restreintefile-afprvkzml5u6v983bj2yjp. La CNIL française interdit en effet la collecte de données dites “sensibles” comme l’origine raciale, sauf consentement explicite ou motif d’intérêt public majeurfile-afprvkzml5u6v983bj2yjp. Beaucoup de comités d’éthique rechignent à autoriser l’annotation de la “race” du patient. Les chercheurs contournent en notant le phototype (considéré comme un critère médical objectif) ou le continent d’origine du patient lorsque disponiblefile-afprvkzml5u6v983bj2yjp. Ces proxies ne sont pas parfaits mais permettent de stratifier les performances de l’IA sans enfreindre la loi. Sur le plan éthique, ne pas recueillir ce type d’information par principe de non-discrimination pourrait paradoxalement nuire à l’équité du dispositif final. Un équilibre doit être trouvé entre le respect de la loi et la nécessité technique de lutter contre les biais : cela pourrait passer par une évolution réglementaire encadrant la collecte de certaines données pour des fins de réduction des inégalités (comme l’ont suggéré certains bio-éthiciens). En attendant, il est recommandé d’évaluer systématiquement les biais des jeux de données et des modèles, et de documenter ces analyses dans les publications (ex. mentionner si l’algorithme a un biais de performance et quelles mesures pourraient le corriger). La vigilance sur les biais rejoint le principe de non-malfaisance en éthique biomédicale : s’assurer que la technologie n’introduit pas de tort involontaire à un sous-groupe de patients.
- Consentement des patients et confidentialité : Les images dermatologiques sont des données de santé à caractère personnel, souvent directement identifiables (par exemple, un grain de beauté sur le visage ou un tatouage distinctif peuvent permettre de reconnaître une personne). De ce fait, leur utilisation à des fins de constitution de bases de données ou d’entraînement d’IA doit respecter strictement la réglementation sur la protection des données, en particulier le RGPD en Europe. Le RGPD impose le principe de consentement explicite du patient pour l’utilisation de ses données de santé dans un but de recherche ou d’entraînement d’algorithmes, à moins qu’une autre base légale s’applique (par ex. intérêt public ou recherche autorisée par un comité d’éthique). Dans la pratique, de nombreux jeux d’images anciens ont été constitués à partir d’archives cliniques sans consentement spécifique (les images étant à l’origine prises pour le suivi médical). Aujourd’hui, une telle réutilisation exigerait soit d’obtenir un consentement rétroactif, soit de passer par une procédure de pseudonymisation/anonymisation très stricte. L’anonymisation complète des images est complexe : il ne suffit pas de supprimer le nom du patient dans le fichier, il faut s’assurer qu’aucun élément visuel n’est identifiable (visage, tatouage, bijoux, arrière-plan contenant un nom). Des outils de nettoyage d’images existent pour flouter ou recadrer les éléments à risque, et la littérature recommande vivement de les utiliser avant tout partage de données. Notons qu’une image de peau, même recadrée sur une lésion anonyme, peut potentiellement être re-identifiée en la comparant à d’autres photos (par exemple, via des motifs de grains de beauté uniques). La prudence veut donc que l’on considère toutes les images de patients comme des données pseudonymisées au mieux, mais pas totalement anonymes. Ainsi, les chercheurs ont l’obligation de mettre en place des mesures de sécurité renforcée lors de la manipulation de ces images (stockage chiffré, accès restreint). Le consentement du patient doit être, si possible, éclairé quant à la finalité : par exemple, on devrait informer clairement que ses photos pourront servir à entraîner des algorithmes de diagnostic automatique, ce qui dépasse le cadre du soin courant. En France, la CNIL promeut l’utilisation de consentements dynamiques où le patient peut choisir finement à quels usages il consent et retirer son consentement plus tard s’il le souhaitefile-afprvkzml5u6v983bj2yjpfile-afprvkzml5u6v983bj2yjp. Ce type de démarche, encore émergent, serait idéal pour respecter l’autonomie des patients face à des usages futurs imprévus de leurs données. En pratique, les grands ensembles de données publics internationaux proviennent souvent de patients ayant signé une autorisation large (par ex. dans le cadre de concours ou de dépôts open data), ou bien sont mis à disposition sous forme totalement anonymisée par des institutions (aux États-Unis, où la réglementation est plus souple après anonymisation via HIPAA). Pour les cliniciens, il est crucial de veiller à la transparence vis-à-vis du patient : aucune image ne devrait être utilisée pour l’IA sans que le patient ne soit au courant que cette finalité existe, sauf si une exemption réglementaire s’applique (et même dans ce cas, l’éthique commanderait de l’informer).
- Limitation de la finalité et usage ultérieur des annotations : Le principe de limitation de la finalité, inscrit dans le RGPD, stipule que les données personnelles ne doivent être collectées que pour un objectif précis et ne pas être réutilisées d’une manière incompatible avec cet objectif initial. Cela signifie, par exemple, que si des images ont été collectées pour un projet de recherche donné, on ne peut pas les réutiliser plus tard pour un autre projet non prévu, sans soit un nouveau consentement, soit une base légale adéquate. En pratique, ceci pose des défis car on cherche à constituer des bases de données pérennes et multi-usages (par exemple, une base d’images de mélanomes pourrait servir à entraîner un algorithme aujourd’hui, puis dans 5 ans à entraîner un tout autre modèle ou à étudier une question épidémiologique). Pour rester en conformité, il faut soit : a) anonymiser complètement les données (une fois anonymes, elles sortent du champ du RGPD et peuvent être réutilisées librement, mais comme discuté l’anonymisation d’images est difficile à garantir) ; b) obtenir un consentement suffisamment largeprécisant que les données pourront servir à divers projets de recherche en dermatologie ou en IA, y compris non définis au moment de la collecte, tout en restant dans un cadre scientifique encadré; c) s’appuyer sur des mécanismes encadrés par la loi, par ex. en France la MR-004 (Méthodologie de référence) de la CNIL qui permet la réutilisation de données de santé à des fins de recherche sous conditions strictes, sans reconsentement individuel mais avec information du public. Quoi qu’il en soit, l’éthique exige de ne pas dévier vers des usages qui pourraient porter atteinte aux patients. Par exemple, utiliser des annotations de mélanome pour entraîner un outil commercial de sélection publicitaire ciblée (hors santé) serait évidemment inadmissible. De même, si des images sont partagées dans une base publique, il faut veiller à ce qu’elles ne puissent servir à de la reconnaissance faciale ou d’autres finalités non voulues – c’est pourquoi de nombreux dépôts d’images médicales floutent systématiquement les zones du visage ou autres détails identifiants. Une autre problématique de finalité concerne la communication aux patients : si un algorithme est entraîné sur leurs données et amené ensuite à être utilisé cliniquement, y a-t-il une forme de retour d’information ou de bénéfice pour ces patients ? Ce point relève plus de l’éthique de la recherche en général, mais mérite réflexion pour maintenir la confiance : la participation à l’effort de constitution de la base de données devrait idéalement profiter, même indirectement, aux patients qui ont consenti (par l’amélioration globale des soins). Enfin, notons que la conservation des données dans le temps doit respecter les durées légales : en Europe, on ne peut pas garder indéfiniment des données nominatives « juste au cas où ». Des politiques d’archivage et de suppression doivent être définies, ce qui entre parfois en tension avec l’entraînement continu des IA (on aimerait conserver toutes les données pour affiner constamment les modèles). Les principes “Privacy by Design” encouragent à trouver un compromis, par exemple en conservant les annotations statistiques même si les images brutes doivent être supprimées après X années.
En somme, la dimension éthico-légale de l’annotation des images dermatologiques est tout aussi importante que la dimension technique. Les organismes professionnels et de régulation mettent l’accent sur une IA responsable : l’American Academy of Dermatology insiste sur un développement collaboratif minimisant les risques inattendus, et l’AMA souligne la nécessité de transparence, de reproductibilité et d’absence d’aggravation des inégalités. En Europe, le RGPD et les guides de la CNIL fournissent un cadre strict mais protecteur pour les patients, qu’il convient de suivre scrupuleusement lors de toute initiative de constitution d’un jeu d’images. L’intégration d’experts en éthique et en droit dès la phase de conception d’un projet d’annotation est recommandée, afin de mettre en place les mécanismes de consentement, de protection et de gouvernance adéquats. C’est à ce prix que les avancées techniques pourront pleinement se concrétiser en pratique, dans un climat de confiance avec le public.
Discussion
Le panorama dressé met en évidence un double impératif pour la communauté dermatologique : adopter des normes d’annotation robustes et interopérables comparables à celles en vigueur dans d’autres spécialités, tout en assurant une gouvernance éthique exemplaire des données d’images. Si la radiologie a bénéficié très tôt d’un cadre structuré (DICOM, terminologies unifiées) pour tirer parti de l’informatisation, la dermatologie a jusqu’à récemment évolué dans un contexte plus artisanal quant à la gestion de ses images cliniques. L’essor de l’IA a servi de catalyseur pour prendre conscience de l’urgence d’une standardisation : en effet, les algorithmes de deep learning constituent une sorte de “stress-test” pour la qualité et l’organisation des données. Des données mal annotées ou siloées localement conduisent à des modèles peu généralisables, voire dangereux. À l’inverse, en mettant en place une annotation normalisée et partagée, la dermatologie pourrait reproduire les succès de la radiologie en matière d’IA, où des modèles validés cliniquement commencent à émerger grâce à de vastes bases de données multi-centriques.
Nos résultats montrent que sur le plan technique, les briques essentielles existent déjà : DICOM a été étendu pour la dermoscopie et peut s’appliquer aux photographies standard, HL7 FHIR offre une flexibilité moderne pour échanger images et métadonnées, SNOMED CT et LOINC apportent la précision sémantique nécessaire aux annotations, et des initiatives comme RadLex en radiologie fournissent un exemple de lexique à suivre pour la dermatologie. Le principal frein identifié n’est pas un manque de standard, mais un manque d’adoption et d’intégration de ces standards dans les flux de travail dermatologiques quotidiens. Par tradition ou facilité, les dermatologues ont jusqu’ici privilégié des solutions rapides (photos dans un dossier local, annotations dans un champ texte libre d’un courrier médical). Passer à un système normé (par ex. saisir un code SNOMED pour chaque lésion, importer les images dans un PACS DICOM) demande un effort initial significatif et souvent une infrastructure que tous ne possèdent pas. Il y a donc un important travail de formation et de démonstration à mener. Les résultats de projets pilotes comme DICODerma montrent qu’avec des outils adaptés (plugins pour insérer des métadonnées DICOM via les EXIF des JPEG) on peut progressivement amener la standardisation sans trop perturber la pratique courante des cliniciens. De même, l’apparition de solutions logicielles intégrées – par exemple, un module d’imagerie dermatologique dans le Dossier Patient Informatisé qui gère nativement DICOM et FHIR – facilitera l’adoption. L’interopérabilité ne doit pas être vue comme une contrainte, mais comme un investissement : certes, normaliser l’annotation prend du temps en amont, mais cela évite des ressaisies manuelles, facilite la recherche d’images antérieures comparables, et potentiellement permet un partage automatique avec d’autres systèmes (télémédecine, deuxièmes avis, etc.).
Au-delà de l’aspect technique, cette revue met en lumière l’importance de la qualité sémantique des annotations et de la documentation des données. L’IA “apprend” ce qu’on lui donne : des étiquettes erronées ou incohérentes entraîneront immanquablement des erreurs du modèle. On constate que la communauté dermatologique s’organise pour produire des guidelines dédiées à la création et au reporting des jeux de données d’IA. Le développement d’une checklist spécifique en 2022 pour les études d’IA en dermatologie est un jalon important, de même que l’extension TRIPOD+AI en 2024 qui adapte les recommandations de transparence aux modèles de machine learning. Ces documents convergent sur l’idée que toute étude ou tout modèle doit clairement expliciter la provenance des données, le protocole d’annotation, les éventuels biais et les mesures de contrôle qualité. Autrement dit, l’ouverture méthodologique fait partie intégrante de la rigueur scientifique dans ce domaine. Cela rejoint également les principes FAIR sur le partage des données : même si l’on ne peut pas rendre publiques toutes les images pour des raisons légales, fournir un maximum de métadonnées et d’informations permet aux autres de comprendre et reproduire en partie les résultats. Un consensus se forme sur le fait que les jeux de données d’IA doivent sortir de l’ombre et devenir des biens communs de la recherche lorsque c’est possible, ou au moins être accessibles pour des validations externes. Dans cette perspective, des infrastructures nationales et internationales se mettent en place (par ex. le Health Data Hub en France, ou des réseaux comme AIDE – Artificial Intelligence in Dermatology – aux États-Unis) pour mutualiser les données de manière sécurisée tout en respectant les droits des patients.
Les enjeux éthiques discutés ne sont pas de simples notes de bas de page, ils conditionnent en réalité l’acceptabilité sociale et la pérennité des projets d’IA en santé. Les scandales récents autour de certaines utilisations de données de patients sans consentement ou de biais discriminatoires dans des algorithmes médicaux rappellent que l’adhésion du public est fragile. La dermatologie est un domaine particulièrement sensible car les images du corps peuvent être vécues comme très intimes (photographies de zones génitales, de visages, de stigmates visibles). Un manquement éthique (par exemple, une fuite d’images ou une utilisation commerciale non autorisée) pourrait entamer la confiance des patients non seulement envers la recherche en IA, mais aussi envers leurs propres dermatologues lors de la prise de vue en consultation. Il est donc impératif d’appliquer le principe de transparence et de respect du consentementscrupuleusement. Les approches comme le consentement dynamique ou l’implication des patients dans les comités de pilotage des projets d’annotation peuvent aider à créer cette confiance. De plus, l’éthique ne s’arrête pas à la conformité RGPD : il s’agit aussi d’interroger l’usage final de l’IA entraînée. Si, par exemple, un modèle est développé grâce à un effort collaboratif et des données publiques, mais qu’ensuite il est privatisé et vendu très cher, la question d’une juste rétribution ou retour pour la société peut se poser. Certaines voix suggèrent des modèles de licences innovantes pour les algorithmes entraînés sur des données ouvertes, afin qu’ils restent accessibles. Sans entrer dans ce débat, on peut au moins défendre que les connaissances produites (p. ex. les performances comparatives, les biais identifiés) soient, elles, partagées librement.
Enfin, une dimension discutée dans cette revue est celle de la pérennisation et de l’évolution des normes. La technologie évolue vite : aujourd’hui on parle de dermoscopie et de photos 2D, demain ce sera peut-être des images 3D du corps entier, des vidéos d’examens cutanés, ou des images hyperspectrales. Les standards actuels (DICOM, FHIR) sont conçus pour être extensibles, et on a vu qu’ils commencent déjà à s’adapter (ex. DICOM intègre la 3D pour la TBP via de nouveaux objets). Il faudra maintenir un effort de veille et de mise à jour des référentiels d’annotation en fonction de ces innovations. De même, les ontologies comme SNOMED CT sont enrichies en continu : la communauté dermatologique devrait participer activement à ces mises à jour (suggérer de nouveaux termes, affiner les définitions existantes) pour que l’outil reste collant à la pratique. Sur le plan légal, le cadre européen est aussi en mouvement : le projet de Règlement européen sur l’IA (IA Act) pourrait introduire de nouvelles obligations en matière de gestion des données d’entraînement (exigences de traçabilité des datasets pour les IA à haut risque en santé). Se préparer en avance à documenter et contrôler finement les annotations, comme nous l’avons décrit, aidera à se conformer à ces futures obligations.
Cette revue présente quelques limites. D’abord, la littérature spécifique sur l’annotation en dermatologie est limitée, nous avons donc extrapolé à partir de recommandations générales en imagerie et en IA médicale. Ensuite, nous n’avons pas couvert les aspects de performance technique de chaque standard (par ex. comparaisons de vitesse d’accès DICOM vs autre format), nous nous sommes focalisés sur la dimension organisationnelle et éthique. Enfin, la plupart des références disponibles proviennent de pays occidentaux ; la situation peut différer dans des régions où l’accès aux technologies est moindre – l’interopérabilité peut y prendre d’autres formes, comme l’utilisation de standards plus simples (p.ex. échanges par PDF structurés). Cependant, les principes fondamentaux (besoin de standardisation, de qualité et d’éthique) sont probablement universels. Des efforts de normalisation internationale via l’OMS ou d’autres instances pourraient émerger pour la dermatologie numérique, à l’image de ce qui existe pour la télésanté.
En conclusion de cette discussion, il apparaît que la rigueur interopérable et la soutenabilité éthique ne sont pas des objectifs antagonistes mais bien complémentaires. Un système bien normé facilite aussi l’audit éthique (puisque tout est tracé et codé de façon uniforme). À l’inverse, respecter les droits des patients incite à une gouvernance claire des données, donc à documenter et standardiser les processus. La dermatologie est à l’aube de cette transformation numérique : les prochaines années seront décisives pour voir si les dermatologues s’approprient ces normes et en tirent parti pour améliorer tant la pratique clinique (meilleure gestion d’images, suivi des lésions dans le temps, deuxième avis automatisé) que la recherche (découvertes de nouveaux marqueurs, algorithmes robustes et équitables). Les acteurs industriels auront aussi un rôle en implémentant ces standards dans leurs outils (logiciels d’imagerie dermatologique, appareils photo médicaux intégrant du DICOM, etc.). Une collaboration étroite entre informaticiens, cliniciens, décideurs et patients sera essentielle pour bâtir une infrastructure de données dermatologiques à la hauteur des promesses de l’IA en santé.
Conclusion
La montée en puissance de l’IA en dermatologie rend indispensable une évolution des pratiques d’annotation des images vers plus de rigueur, d’uniformité et de transparence. Cette revue a mis en lumière que de nombreuses normes techniques – du format d’image (DICOM) aux langages d’échange (FHIR) en passant par les ontologies médicales (SNOMED CT, LOINC) – sont disponibles pour normaliser la description des images dermatologiques. Leurs bénéfices sont clairs : une meilleure interopérabilité permettant le partage et la consolidation de données à grande échelle, une intégration facilitée dans les dossiers électroniques, et la possibilité d’appliquer les principes FAIR pour maximiser la réutilisabilité des données de recherche. En parallèle, l’adoption de méthodes d’annotation structurées et la mise en place de protocoles de contrôle de qualité (double lecture, consensus, validation par la référence diagnostique) garantissent des jeux de données fiables, condition sine qua non pour entraîner des algorithmes robustes et généralisables.
Par ailleurs, nous soulignons que cette quête de standardisation doit être menée de front avec une vigilance accrue sur les aspects éthiques et réglementaires. L’exploitation d’images de patients à des fins d’IA doit respecter strictement le cadre légal (RGPD, consentements) et viser à protéger les personnes tout en évitant de renforcer les inégalités. Des mesures concrètes – équilibrage des datasets, anonymisation rigoureuse, information transparente des patients – doivent accompagner tout projet d’annotation de grande ampleur. De plus, l’essor de lignes directrices comme TRIPOD-AI et de consensus professionnels en dermatologie sur l’IA témoignent d’une maturation du domaine : la communauté reconnaît l’importance de la transparence et de la responsabilité autour des données d’entraînement et des modèles.
En définitive, avancer vers des normes d’annotation interopérables et éthiques en dermatologie n’est pas seulement un enjeu technique, c’est un investissement pour l’avenir de la discipline. Des images mieux structurées et partagées permettront de développer des IA plus performantes, au bénéfice des cliniciens et des patients (par exemple, un diagnostic automatisé plus précoce des mélanomes sur une population large et diversifiée). Surtout, cela pourra se faire dans un cadre de confiance : confiance des professionnels dans la qualité des outils numériques, confiance des patients dans le respect de leurs données et l’utilité médicale de ces innovations. La dermatologie, spécialité hautement visuelle, a l’opportunité de devenir un modèle d’intégration réussie de l’IA grâce à des données rigoureusement annotées. Cela requerra une mobilisation collective – du dermatologue praticien jusqu’aux organismes internationaux de standardisation – pour converger vers un écosystème de données harmonisé. Les normes et principes décrits dans cette revue offrent une feuille de route pour y parvenir. À terme, la rigueur interopérable et l’éthique ne seront plus vues comme des contraintes, mais comme les fondations sur lesquelles construire une IA dermatologique fiable, équitable et durablement intégrée dans la pratique clinique.
Références
- Eapen B.R., Kaliyadan F., Ashique K.T. DICODerma: A Practical Approach for Metadata Management of Images in Dermatology. J. Digit. Imaging. 2022 Oct
- HIMSS-SIIM Enterprise Imaging Community. Interactive Multimedia Reporting in Dermatology (White Paper). 2021
- Eapen B.R. et al., DICODerma – Introduction. 2022
- Cheng C.H. et al. Creating a Medical Imaging Workflow Based on FHIR, DICOMweb, and SVG. J. Med. Internet Res. 2023
- Clunie D. et al. Supplement 221: Dermoscopy. DICOM Standards Committee WG-19, 2020
- Vreeman D.J. et al. The LOINC/RSNA Radiology Playbook – A unified terminology for radiology procedures. J. Am. Med. Inform. Assoc. 2018
- Horgan D. et al. FAIR data principles in biomedicine. Sci. Data. 2016
- Dreyer K. et al. AI Results – IHE Radiology Integration Profile. 2020
- Scheider M. et al. Dermatology images in PACS: Current status. J. Digit. Imaging. 2021
- Resneck J. et al. AAD Position Statement on Augmented Intelligence. American Academy of Dermatology, 2019
- Chan S. et al. Checklist for Evaluation of Image-Based AI Reports in Dermatology. JAMA Dermatol. 2022
- Guo L. et al. Lack of diverse skin types in AI training datasets. J. Invest. Dermatol. 2022
- CNIL. Loi Informatique et Libertés & RGPD – Données sensibles. Guide CNIL, 2021file-afprvkzml5u6v983bj2yjp.
- CNIL. Limitation de la collecte de l’origine ethnique – alternatives. 2022file-afprvkzml5u6v983bj2yjp.
- Monnier J. et al. DermInclusive: dataset phototypes foncés. 2024file-afprvkzml5u6v983bj2yjp.
- Adeoye O. et al. RAFDerm: Déploiement IA en zone rurale (Sénégal). BMJ Glob Health. 2022file-afprvkzml5u6v983bj2yjp.
- Cox M. et al. Interobserver agreement in dermoscopy. Skin Res Technol. 2021
- Winkler J.K. et al. Crowdsourcing for dermatology datasets. JAMA Network Open. 2021.
- Kittler H. et al. Advantages of DICOM standard in dermoscopy. J. Am. Acad. Dermatol. 2023
- Hsiao C.H. et al. FHIR and DICOM Integration for Imaging. J Digit Health. 2023
- Finnane A. et al. DICOM in Dermoscopic Research: Experience Report. Int J Med Inform. 2021
- Cox B. et al. Total Body Photography Annotation Protocol. Front Med (Lausanne). 2024
- AMA. Augmented Intelligence in Health Care. Policy H-480.940, 2018
- European Commission. Proposal for Artificial Intelligence Act. 2021.