Chercheur postdoctoral en droit et intelligence artificielle H/F
Description
L’Université d'Artois est implantée sur différents points du territoire du Nord-Pas de Calais : Arras (siège), Béthune, Douai, Lens et Liévin. Elle comprend huit UFR, deux IUT, une école d'ingénieurs, un service de formation continue (FCU) et dix-sept centres de recherche.
Depuis sa création en 1992, l’Université d’Artois s’impose comme un acteur de promotion sociale et bénéficie d’un environnement convivial et stimulant propice aux études et à la culture.
Placée sous la tutelle du ministère de l’enseignement supérieur et de la recherche, l'Université d'Artois accueille 13 000 étudiants et emploie un peu plus de 1 000 personnes. Elle est dotée d’un budget de 116 M€, dont 89 M€ de masse salariale et 7 M€ d’investissements.
Mission
Intitulé du poste : 1 Postdoctorant / Chercheur Associé en Droit, avec au moins deux des domaines d'expertise suivants : Intelligence Artificielle, Droits Fondamentaux, Droit de l'Union Européenne, Droit Numérique, pour participer au Projet « Cadre de Fiabilité de l'IA – Naviguer entre le Droit et les Normes » [AITF-NILS] supervisé par Marion Ho-Dac, Professeur de Droit à l'Université d'Artois, Centre Droit Éthique et Procédures UR2471.
Contexte : Le projet MAIA vise à développer des solutions de recherche originales et génériques pour faire avancer l'explicabilité formelle et l'acceptabilité sociétale de l'IA, avec un focus sur trois domaines phares – santé, chimie et environnement – pour l'alliance A2U (Université d'Artois, UPJV et ULCO) ainsi que pour la région Hauts-de-France.
Description: Le Projet de Recherche « Cadre de Fiabilité de l'IA – Naviguer entre le Droit et les Normes » s'inscrit dans le contexte normatif du Règlement de l'IA de l'UE adopté au printemps 2024 par l'Union Européenne. Ce texte établit un cadre réglementaire horizontal commun pour les systèmes d'intelligence artificielle (IA) au sein du marché intérieur de l'UE et, à cette fin, confère un rôle majeur à la normalisation technique. Il établit des exigences essentielles que les fournisseurs de systèmes d'IA, en dialogue avec les autres acteurs de la chaîne de valeur de l'IA, devront respecter en termes de gestion des risques (pour la santé, la sécurité et les droits fondamentaux), transparence, gouvernance des données, enregistrement, contrôle humain, robustesse, cybersécurité et précision (etc.). Un régime juridique spécifique est également établi pour les modèles d'IA à usage général.
L'objectif réglementaire du Règlement sur l'IA est d'assurer le développement et le déploiement de systèmes d'IA fiables et centrés sur l'humain tout en soutenant l'innovation. Ces exigences doivent être « traduites » par des normes harmonisées à élaborer pour le marché européen au sein des organismes de normalisation (CEN-CENELEC JTC 21, en dialogue avec l'ISO, SC 42 au niveau international), fournissant des guides de mise en œuvre, une terminologie commune, des mesures, des procédures de contrôle, des cadres analytiques, etc. pour les parties prenantes de l'écosystème des systèmes d'IA à haut risque.
Dans ce contexte, la recherche vise à construire un cadre normatif pour les systèmes d'IA fiables dans l'UE, prêt à être utilisé par les parties prenantes. Cela implique de travailler sur l'interaction et la coordination entre les exigences légales (établies dans le Règlement sur l'IA) et les normes techniques (c'est-à-dire les normes harmonisées à venir basées sur le Règlement sur l'IA) dans la mise en œuvre de la réglementation européenne des systèmes d'IA. L'objectif final est de produire un cadre de référence pour la gouvernance de l'IA fiable, combinant droit et normes, pour les autorités publiques et l'industrie, et ainsi aider à renforcer l'acceptabilité de l'IA dans la société.
Activités et tâches liées au poste : Le(s) candidat(s) sélectionné(s) seront chargés de rédiger trois documents principaux :
Un cadre juridique européen de la fiabilité pour les systèmes d'IA basé sur les exigences du Règlement sur l'IA (y compris une comparaison des résultats avec d'autres cadres normatifs à l'échelle mondiale)
Une « traduction normative » de ce cadre : le dialogue entre les exigences légales et les normes techniques sous la forme d'un cadre de référence pour lier les exigences juridiques et normatives
Une proposition de « cadre de référence pour la gouvernance de l'IA fiable » combinant droit et normes (y compris une version préliminaire pour publication dans une revue scientifique avec comité de lecture)
Participation à des réunions/ateliers de recherche réguliers et organisation d'événements de diffusion et de travail de publication
Profil
Compétences requises :
Excellente pratique de la recherche académique en droit
Ouverture aux méthodes des sciences humaines et sociales et aux approches pluridisciplinaires
Bonne connaissance de l'écosystème des technologies numériques avancées, y compris l'IA
Excellente capacité à travailler avec rigueur, précision, de manière documentée et en dialogue avec d'autres chercheurs, y compris d'autres disciplines
Travail en équipe et respect des contraintes (par exemple, instructions, calendrier)
Profil : Le(s) candidat(s) doivent avoir un doctorat en droit relatif aux technologies numériques avancées/émergentes (y compris l'IA) et/ou en Droit de l'UE (y compris l'analyse des droits fondamentaux et des principes, l'interaction réglementaire et la gouvernance à plusieurs niveaux). Une connaissance de base de l'écosystème de l'IA est attendue. Les candidatures avec un doctorat en sciences politiques ou en études européennes (ou d'autres domaines) peuvent être considérées si une connaissance dans les domaines d'étude mentionnés ci-dessus (c'est-à-dire l'IA, le droit de l'UE, les droits fondamentaux, la gouvernance à plusieurs niveaux) peut être démontrée/attestée.
CDD du 01/12/2024 au 30/11/2025
Rémunération mensuelle brute : 3121 €
Langue anglaise maitrisée : obligatoire.