⚖️💻 Ce que les 5A ont retenu : Droit, numérique et intelligence artificielle

À l’occasion de la dernière intervention, nous avons rencontré deux doctorants en droit, Elia Verdon et Yoann Nabat, qui nous ont permis de découvrir les liens entre le droit, les données personnelles et l’intelligence artificielle.

🎓 Deux parcours universitaires différents mais un sujet commun

Les deux intervenants ont particulièrement détaillé leur parcours universitaire, qui montrent que plusieurs voies sont possibles pour devenir chercheur en droit.

• Elia Verdon a suivi un cursus en droit public. Après un baccalauréat économique et social, elle a obtenu une licence de droit, puis un master en droit public, avant de débuter sa thèse sur la surveillance par l’État. Son travail interroge les limites légales de la collecte d’informations par les pouvoirs publics.

• Yoann Nabat a suivi un double cursus en droit et philosophie, avant de se spécialiser en droit pénal et criminologie. Sa thèse porte sur les fichiers de police et les libertés individuelles, un sujet au croisement du droit et des technologies de sécurité.

Nous avons appris que l’on peut travailler sur les mêmes problématiques – ici, le numérique et les libertés – tout en ayant des parcours disciplinaires variés. Cette diversité est précieuse dans une équipe de recherche, car elle permet de croiser les regards et les méthodes.

Le rôle du chercheur en droit

Nous savons maintenant qu’un chercheur en droit n’invente pas les lois, mais qu’il les étudie, les questionne et cherche à les améliorer. Ses activités principales sont : lire des textes juridiques, analyser les effets de la loi, et proposer des réformes. Le métier demande de la rigueur, de l’analyse, de la patience et un bon niveau d’expression écrite.

Nous avons comparé le chercheur à d’autres métiers comme un détective ou un journaliste: il doit enquêter, interpréter des faits, et rendre compréhensibles des notions complexes.

🔐 Comprendre les données personnelles

L’intervention nous a permis de faire la différence entre :

• les données personnelles (prénom, adresse, contenus privés…),

• et les données sensibles (santé, opinions…).

L’intelligence artificielle fonctionne en traitant des quantités massives de données, ce qui pose des questions juridiques : comment protéger la vie privée ? qui est responsable ?

Nous avons eu un rappel sur le rôle de la CNIL qui nous garantit : accès, rectification, suppression, opposition – autant de leviers pour garder le contrôle sur leurs données.

Une vision critique de l’IA

Enfin, nous avons bien pris conscience des risques liés à l’utilisation de ces données par les intelligences artificielles, qui ont besoin de grands volumes d’informations pour apprendre et fonctionner. Cela pose des questions éthiques et juridiques majeures, que les chercheurs en droit s’efforcent d’anticiper et de traiter. Cela rend essentiel l’encadrement légal et éthique de son usage.

L’un des principaux défis est de trouver un équilibre entre la régulation et l’innovation.

En conclusion, bien que des progrès significatifs aient été réalisés, il reste encore beaucoup à faire pour encadrer efficacement le développement des outils numériques et de l’IA. C’est pourquoi, les chercheurs doivent continuer à travailler en étroite collaboration avec les experts techniques pour s’assurer que les régulations sont à la fois efficaces et adaptées aux réalités technologiques en constante évolution.

🧠 Cette intervention nous a permis de découvrir à la fois un métier intellectuellement exigeant et des enjeux concrets qui nous concernent directement, en tant qu’usagers du numérique.

Informations complémentaires :

• La France est engagée dans la mise en œuvre du Règlement européen sur l’intelligence artificielle (IA Act), entré en vigueur le 1er août 2024.

Première mesure qui en découle : Le 2 février 2025 : Interdiction des systèmes d’IA présentant des risques jugés inacceptables, tels que la notation sociale ou la manipulation subliminale.

• Création de l’INESIA : L’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA) a été inauguré le 31 janvier 2025. Il est placé sous la supervision du Secrétariat général de la défense et de la sécurité nationale (SGDSN) et de la Direction générale des entreprises (DGE).