Dans ce cas le Évaluer les conséquences de l’utilisation de ces données doit s’effectuer tant au niveau de la partie apprentissage (apprentissage automatique) et pour générer la sortie. En ce sens, la dernière version du texte de la loi Ai approuvée par le Parlement européen le 11 mai prévoit l’obligation de transparence, par exemple pour mentionner l’utilisation des données protégées par le droit d’auteur. Un des Litiges sur l’IA générative il s’agissait de la dégradation possible du résultat généré en ce qui concerne la sortie (par exemple, on demande à l’IA qui est une personne et la réponse est diffamatoire).
La CNIL ne manque pas, tout comme notre garant de la protection des données Donner aux entreprises des conseils et des recommandations spécifiques, lors de l’application du RGPD à ces nouvelles situations. En effet, les autorités ont non seulement pour mission d’enquêter et de sanctionner les infractions, mais aussi de fournir des informations sur l’application de la réglementation.
L’une des applications les plus complexes est, par exemple, celle de principe de finalité dans le cas de l’IA générique (dite IA à usage général), où il peut être difficile de déterminer exactement comment et à quelles fins les données à caractère personnel seront traitées. Ensuite, il faut résoudre le problème de savoir comment « Partager les responsabilités entre les unités qui composent les bases de données, ceux qui développent des modèles à partir de ces données et ceux qui utilisent ces modèles; [elaborare, ndr] les règles et bonnes pratiques applicables à la sélection des données pour la formation, en tenant compte des principes d’exactitude et de minimisation des données ; [considerare, ndr] la gestion des droits des personnes, notamment le droit d’information, de rectification et d’opposition ; la réglementation en vigueur concernant la durée de maintenance, notamment pour les bases d’entraînement et les modèles plus complexes à utiliser ».
La CNIL tente également de comprendre ce les implications éthiques de ces modèles d’apprentissage, Cela peut entraîner des effets discriminatoires et néfastes sur les individus. De la reconnaissance faciale aux algorithmes utilisés pour accorder des allégements fiscaux, des cas ont également été constatés en Europe où l’utilisation incontrôlée d’algorithmes a conduit à de tels effets discriminatoires.
La CNIL aux côtés des entreprises
une aide concrète pour les entreprisesSuivant le modèle suivi par la loi Ai, la CNIL a créé une loi bac à sable pour accompagner des projets et des acteurs innovants, c’est-à-dire un espace dans lequel les entreprises peuvent expérimenter librement et corriger le tir avec le cahier des charges de la collectivité. Le bac à sable de santé a collecté 12 projets en 2021, celui sur l’éducation 10 en 2022, tandis que l’appel à propositions 2023 sur l’IA dans le secteur public est ouvert.
En vue de l’introduction imminente de la reconnaissance faciale dans les stades pour les Jeux Olympiques de 2024, la CNIL a lancé un programme d’accompagnement spécifique pour celle-ci Fournisseurs de vidéosurveillance « renforcée », dans le cadre des expérimentations prévues par la loi Jeux Olympiques et Paralympiques 2024 et portera également sur l’exploitation L’intelligence artificielle dans la lutte contre la fraude, en accordant une attention particulière à l’existence d’analyses d’impact adéquates sur la protection des données pour documenter les risques et prendre des mesures pour les atténuer ; Depuis des mesures appropriées pour informer les gens et d’exercer leurs droits d’une manière appropriée à ce contexte particulier. En fait, lors de l’utilisation de l’IA, la politique de confidentialité classique n’est pas toujours la meilleure façon de fournir des informations à l’utilisateur. Pour cette raison, les entreprises doivent proposer des méthodes alternatives démontrant leur efficacité concrète dans l’accomplissement de leur mission d’information.
« Evangelista de Internet. Comunicador extremo. Aficionado al alcohol sutilmente encantador. Típico fanático de la televisión ».