Tout sur ChatGPT
Tout sur Intelligence artificielle
Face au boom provoqué par ChatGPT depuis novembre dernier, montrant ses puissantes capacités, il y a aussi une certaine crainte quant aux limites qu’il peut atteindre – pour le meilleur ou pour le pire.
La mobilisation a commencé avec TikTok aux États-Unis, qui craignent que l’application chinoise ne transmette les données privées des utilisateurs au gouvernement chinois (le pays débat actuellement de l’interdiction du réseau social – d’autres pays travaillent sur la même idée). Les applications d’image alimentées par l’IA comme Midjourney font également l’objet d’un examen minutieux pour la mince ligne entre les images réelles et les images générées par ces applications.
En savoir plus:
Quant à ChatGPT, l’Italie a été le premier pays occidental à s’inquiéter de l’IA d’OpenAI et à l’interdire temporairement.
Ce qui s’est passé?
Effets
OpenAI – qui bénéficie du soutien de Microsoft et a implémenté ChatGPT dans Bing Chat – risque d’être condamné à une amende de 21,8 millions de dollars ou 4 % de son chiffre d’affaires mondial s’il ne corrige pas sa situation dans les 20 jours. L’application est également interdite en Italie pour le moment.
D’autres pays envisagent également ChatGPT
Et l’Italie n’est pas la seule à s’inquiéter de l’avancée rapide de ChatGPT et de ses implications pour la société. D’autres gouvernements font leurs propres lois pour l’IA (et pour les réseaux sociaux), en particulier l’IA générative (l’IA qui génère de nouveaux contenus basés sur les commandes des utilisateurs), comme ChatGPT.
Comme nous l’évoquions au début de cet article, l’IA est de plus en plus sophistiquée, possède sa propre conscience (IA générative) et crée même des images – comme la plus célèbre récemment : la « prison » de l’ancien président américain Donald Trump et le beau manteau d’hiver « porté » par le pape François – le tout en quelques secondes.
Avec cette avancée gigantesque, il est compliqué pour les gouvernements du monde de suivre le rythme de la technologie et d’imposer des limites pour protéger les données et l’intégrité de leur peuple.
Nous devons faire très attention à ne pas créer un monde où les humains sont en quelque sorte soumis à un avenir plus vaste de machines. La technologie est là pour nous servir. Il est là pour accélérer notre diagnostic de cancer, sinon les gens n’ont pas à faire un travail que nous ne voulons pas faire. Nous devons réfléchir très attentivement à cela maintenant et nous devons agir à ce sujet de manière réglementaire maintenant..
Sophie Hackford, futuriste et consultante en innovation technologique mondiale pour John Deere, sur « Squawk Box Europe » de CNBC
Découvrez ci-dessous comment certains pays gèrent ChatGPT et ses dérivés :
ROYAUME-UNI
La semaine dernière, le Royaume-Uni a annoncé son intention de réglementer l’IA. Au lieu de créer de nouvelles règles, le gouvernement britannique a demandé aux régulateurs de divers secteurs d’appliquer les lois existantes.
La proposition britannique ne mentionne pas ChatGPT, mais énumère certains principes clés que les entreprises devraient suivre lorsqu’elles utilisent l’IA dans leurs produits, notamment la sécurité, la transparence, l’équité, la responsabilité et la contestabilité.
La proposition britannique n’est plus de restreindre ChatGPT et autres, mais de s’assurer que les entreprises développent et utilisent l’IA de manière responsable et fournissent aux utilisateurs suffisamment d’informations sur comment et pourquoi certaines décisions sont prises.
Mercredi (29), la ministre du numérique, Michelle Donelan, a déclaré dans un discours au Parlement britannique qu’en adoptant une approche non statutaire, le gouvernement sera en mesure de « réagir rapidement aux avancées de l’IA et, si nécessaire, d’intervenir « .
UE (Union européenne)
Le reste de l’Europe s’attend à des réglementations beaucoup plus restrictives que les Britanniques. L’UE, qui a parfois été à l’avant-garde de la réglementation technologique, a proposé une législation révolutionnaire sur l’IA.
Le règlement, connu sous le nom de loi européenne sur l’IA, restreindra fortement l’utilisation de l’IA dans les infrastructures critiques, l’éducation, les forces de l’ordre et le système judiciaire.
La loi fonctionne en conjonction avec le règlement général sur la protection des données de l’UE. Lorsque la réglementation a été conçue, les régulateurs n’avaient aucune idée de la puissance de l’IA.
Selon Reuterle projet de loi considérait ChatGPT comme une forme d’IA à usage général utilisée dans les applications à haut risque (définies comme des applications qui compromettent les droits fondamentaux des personnes ou leur sécurité).
Ils seraient confrontés à des mesures telles que des évaluations rigoureuses des risques et des exigences pour mettre fin à la discrimination causée par les algorithmes de saisie des ensembles de données.
L’UE possède une grande et profonde expertise dans le domaine de l’IA. Ils ont accès à certains des meilleurs talents au monde et ce n’est pas une nouvelle conversation pour eux. Il vaut la peine de croire qu’ils disposent du meilleur des États membres et qu’ils sont pleinement conscients des avantages concurrentiels potentiels que ces technologies peuvent apporter face aux risques.
Max Heinemeyer, directeur des produits chez Darktrace, a déclaré à CNBC
Alors que l’UE travaille sur des lois pour l’IA, certains pays du bloc sont « impatients » et envisagent déjà de suivre l’exemple de l’Italie. « En principe, une procédure similaire est également possible en Allemagne », a déclaré Ulrich Kelber, le commissaire fédéral allemand à la protection des données, au journal Handelsblatt.
Reuters a rapporté que les régulateurs irlandais et français ont déjà contacté leurs homologues italiens pour en savoir plus sur leurs conclusions. La Suède, à son tour, a exclu une interdiction.
Etats-Unis
Jusqu’à présent, les États-Unis n’ont pas proposé de lois formelles pour freiner l’IA. Le National Institute of Science and Technology des États-Unis a publié un guide national qui aide les entreprises à utiliser, développer et déployer des systèmes d’IA pour gérer les risques et les dommages potentiels.
Cependant, il convient de noter que le guide est volontaire et ne pénalise pas les entreprises qui ne s’y conforment pas. De plus, il n’y a pas d’appels pour casser ChatGPT dans le pays.
Le mois dernier, la FTC (Federal Trade Commission) a reçu une plainte d’un groupe de recherche à but non lucratif alléguant que GPT-4, le dernier modèle de langage d’OpenAI, est « partial, trompeur et constitue un risque pour la vie privée et la sécurité publique » et viole l’IA de l’agence. des lignes directrices.
La plainte peut donner lieu à une enquête. Cependant, la FTC a refusé de commenter la question.
Chine
Comme de nombreux outils occidentaux, ChatGPT n’est pas disponible en Chine, comme c’est le cas dans d’autres pays où la censure d’Internet est forte, comme la Corée du Nord, l’Iran et la Russie. Comme d’autres entreprises qui n’autorisent pas leurs outils dans ces pays, OpenAI n’autorise pas les utilisateurs chinois à s’inscrire sur la plateforme.
Pourtant, le pays asiatique ne devrait pas se démoder : les géants chinois de la technologie tels que Baidu, Alibaba et JD.com envisagent déjà de développer leurs propres versions de ChatGPT.
La Chine tient à ce que ses grandes technologies développent des produits conformément à des réglementations locales strictes. Par exemple, le mois dernier, le pays a introduit une réglementation sans précédent concernant les deepfakes (images, textes ou vidéos générés ou modifiés par l’IA).
Les régulateurs chinois ont précédemment introduit des règles régissant la manière dont les entreprises utilisent les algorithmes de recommandation. L’une des exigences est que les entreprises doivent soumettre les détails de leurs algorithmes au régulateur. De telles lois pourraient théoriquement s’appliquer à tout type de technologie de style ChatGPT.
Brésil
Le Brésil suit les traces de l’UE et prépare déjà un projet de loi pour réglementer l’utilisation de l’IA. Le PL 21, rédigé par le député Eduardo Bismarck (PDT/CE) – qui a présidé le Front parlementaire conjoint pour l’intelligence artificielle en 2021 – a été approuvé par la Chambre des députés en septembre 2021, mais attend depuis une opportunité d’être adopté par le Sénat sont en cours de traitement.
Entre-temps, il a déjà reçu plusieurs ajouts marqués par un comité d’avocats associés au sujet, finalisé en décembre dernier, le projet initial ayant été envisagé avec peu de règles et des définitions divergentes. L’objectif du règlement est d’éviter de violer les droits fondamentaux des utilisateurs qui ont interagi avec l’IA d’une manière ou d’une autre.
son problème [definição de IA] est que, si vous la définissez très étroitement, les entreprises disposant d’une technologie d’IA qui ne correspond pas pourraient ne pas être concernées par la réglementation. Mais si c’est trop large, ça devient difficile, ça peut affecter des technologies qui ne sont pas forcément de l’IA.
Rodolfo Tamanaha, associé chez Madrona Advogados, dans une interview avec le magazine Exame
[Uma IA é um] système informatique, avec différents degrés d’autonomie [que utilize] des approches basées sur l’apprentissage automatique et/ou la logique et la représentation des connaissances, par le biais de données d’entrée provenant de machines ou d’humains, dans le but de produire des prédictions, des recommandations ou des décisions pouvant affecter l’environnement virtuel ou réel.
Compte 21
Cependant, le texte manque toujours de l’approche des thèmes en vogue après l’essor du ChatGPT et des outils basés sur l’IA, tels que la propriété intellectuelle des matériaux créés et des données utilisées pour former les IA.
Avec des informations de CNBC, Power360 C `est Examen
Image en vedette : Diego Thomazini/Shutterstock
Avez-vous regardé les nouvelles vidéos sur Youtube du look numérique ? Abonnez-vous à la chaîne !
« Maven du bacon indépendant. Étudiant. Fan extrême de la culture pop. Joueur amateur. Organisateur. Praticien de Twitter. »