L’application Chat GPT a été réactivée en Italie suite au blocage demandé par la CNIL italienne. Ce système utilise un algorithme avancé pour imiter le langage humain et parler aux gens de manière naturelle. Le blocage de Chat GPT en Italie avait été décidé en avril 2023 par l’autorité italienne de protection des données (l’organisme responsable de la protection de la vie privée).
Pourquoi le blocage du Chat GPT a-t-il eu lieu ?
Les raisons officielles de cette décision sont principalement liées à des préoccupations concernant la sécurité et la confidentialité des données des utilisateurs. L’autorité a constaté que Chat GPT pourrait ne pas être conforme aux réglementations en vigueur, en particulier au règlement général sur la protection des données (RGPD).
D’autres préoccupations portent sur la crainte que l’intelligence artificielle soit utilisée à des fins inappropriées, telles que la diffusion de désinformation et la manipulation de l’opinion publique. Le blocage a donc été imposé pour protéger les citoyens italiens et garantir le respect des lois sur la protection de la vie privée et la sécurité des données personnelles.
À lire également
Faut-il avoir peur de ChatGPT ?
Quels sont les risques de l’IA selon l’autorité italienne de protection des données ?
L’utilisation de l’intelligence artificielle peut poser certains problèmes, notamment lorsqu’il s’agit de garantir la sécurité et la protection de la vie privée des personnes. Par exemple, un ancien employé de Google, Timnit Gebru, a récemment mis en garde contre les conséquences négatives potentielles de l’utilisation de l’IA sur le lieu de travail. Voici une liste des dangers potentiels que l’on peut rencontrer :
Discrimination. En raison de l’algorithme et des paramètres de données utilisés, l’IA peut perpétuer la discrimination fondée sur le sexe, la race ou l’âge, compromettant ainsi les possibilités d’emploi ou la qualité des services offerts. En outre, l’IA pourrait entraîner des pertes d’emplois pour les travailleurs humains, certaines tâches pouvant être exécutées plus efficacement par des robots et des logiciels intelligents;
Sécurité des données. Les algorithmes d’IA nécessitent de grandes quantités de données pour fonctionner correctement, et ces données peuvent facilement être exploitées ou piratées. Les données sensibles, telles que les informations financières ou médicales, peuvent être utilisées de manière frauduleuse si elles ne sont pas correctement protégées;
Fraude. Un clone généré par l’IA peut être utilisé pour escroquer des personnes et des organisations. C’est ce qu’a démontré une expérience menée par Joanna Stern, journaliste au Wall Street Journal. Ce cas démontre que la technologie de l’IA peut être exploitée par des criminels à des fins illicites et que, par conséquent, des mesures de sécurité doivent être prises pour protéger les personnes contre d’éventuelles attaques.
À lire également
Intelligence artificielle : l’Italie veut être un grand en Europe
Les conditions imposées par l’Autorité de contrôle italienne
Depuis le 28 avril, Chat GPT est à nouveau disponible en Italie, suite à un accord entre le Garante della Privacy et Open AI. Le Garante della Privacy a émis un certain nombre de remarques concernant l’information sur le traitement et l’utilisation des données, remarques qu’Open AI a dû accepter pour redevenir actif en Italie. L’une des principales remarques concerne la publication sur le site web de la notice d’information (fournie avant l’enregistrement et lors du premier accès après le 30 avril pour les personnes déjà enregistrées) afin d’expliquer aux parties intéressées les méthodes de traitement, la logique qui sous-tend le traitement nécessaire au fonctionnement du service dans toutes ses déclinaisons, les droits en tant que parties intéressées et toute autre information requise par le règlement.
D’autres demandes ont été formulées :
Permettre l’exercice du droit d’opposition au traitement, aux fins de la formation des algorithmes et de la prestation de services;
Permettre la demande éventuelle de correction des données personnelles concernant les utilisateurs, lorsqu’elles ont été traitées de manière inexacte lors de la génération de contenu ; si cela n’est pas possible, la suppression des données personnelles devrait être autorisée ;
Modifier la base juridique du traitement des données personnelles des utilisateurs à des fins de formation algorithmique, qui doit être fondée sur le consentement ou l’intérêt légitime ;
Prévoir une interdiction aux mineurs en l’absence de consentement parental exprès (d’ici le 30 septembre) ;
Promouvoir d’ici le 15 mai une campagne d’information (non promotionnelle) dans les principaux médias italiens (radio, télévision, journaux et Internet) sur la collecte des données personnelles et sur les moyens par lesquels toutes les personnes concernées peuvent demander et obtenir la suppression de leurs données personnelles.
À lire également
L’intelligence territoriale, un enjeu pour les territoires. Entretien de Jérôme Barrier