Les IA nous mentent

Cette situation fait penser au début d’un mauvais film de science-fiction, c’est pourtant bien vrai.

Qui est responsable du discours nuisible généré dans les grands modèles de langage ? Le GPT-3 d’OpenAI est loué pour ses avancées impressionnantes dans le traitement et la génération du langage naturel. Il existe de nombreuses applications (productives) de la technologie, de la meilleure rédaction aux chatbots qui peuvent aider les clients dans leurs requêtes. Cependant, il existe des risques que des outils de génération de texte aussi puissants automatisent par inadvertance les abus et répandent des diffamations. Les mauvais acteurs peuvent également utiliser la technologie pour semer le chaos, créer des dommages et embraser le monde.

Un problème de développement ?

OpenAI s’inquiète en effet du risque que ses modèles sortent “totalement déraillé”, comme l’indique sa documentation. (En référence à un exemple où une entrée client abusive est rencontrée par une réponse d’IA très troll), il propose un filtre de contenu gratuit qui “vise à détecter le texte généré qui pourrait être potentiellement sensible ou dangereux sortant de l’API” (Pour clarifier , la documentation définit “dangereux” pour signifier que le texte contient un texte profane, préjudiciable ou haineux, ou qui dépeint certaines personnes de manière négative

La technologie est si nouvelle qu’il n’y a pas d’exigences légales claires pour l’utilisation des filtres de contenu. OpenAI peut agir par crainte que ses modèles puissent causer des dommages génératifs aux individus et/ou des problèmes de réputation. Si la technologie est associée à une toxicité immédiate, elle pourrait faire dérailler le développement.

Pas la première fois

Rappelez-vous le chatbot Twitter TayAI désastreux de Microsoft, qui a été lancé en mars 2016. Il a reçu beaucoup d’attention et a été surnommé une expérience de “compréhension conversationnelle”. Cependant, il n’a fallu que moins d’une journée à Microsoft pour débrancher sa prise après que les utilisateurs aient appris au bot à cracher des tropes haineux, racistes et antisémites. Cela a fini par être une expérience différente. Il s’agissait de savoir comment la culture en ligne peut amplifier et conduire les pires impulsions que les humains peuvent avoir.

Ces mêmes types de contenu Internet bas ont été aspirés dans les grands modèles linguistiques d’aujourd’hui. En effet, les constructeurs de modèles d’IA ont parcouru Internet pour trouver les énormes corpus de texte libre dont ils ont besoin pour former et améliorer leurs capacités de génération de langage. Wikipedia montre que 60% de l’ensemble de données de pré-formation pour le GPT-3 d’OpenAI était dérivé de Common Crawl, une version filtrée. Common Crawl est un ensemble de données Web gratuit. Ces grands modèles de langage puissants sont toujours sensibles à la pêche à la traîne sarcastique ou pire.

Les décideurs européens ont encore du mal à comprendre comment réglementer les dommages en ligne dans des contextes actuels tels que les plates-formes de réseaux sociaux triées par algorithmes où la plupart des discours peuvent être retracés au moins jusqu’à une personne – et même à considérer comment la génération de texte alimentée par l’IA pourrait augmenter le problème de toxicité en ligne tout en créant de nouveaux problèmes de responsabilité.

Il est difficile d’empêcher l’utilisation des systèmes d’IA pour étendre les dommages linguistiques sans responsabilité claire.

Prenez la diffamation. Déjà, la loi doit traiter du contenu généré automatiquement qui est tout simplement incorrect.

Porter plainte contre une IA ?

Marcus Hutchins, chercheur en sécurité, s’est adressé à TikTok pour partager son point de vue sur la façon dont il a été «intimidé» par l’IA de Google il y a quelques mois. Il l’a appelé. Hutchins est incroyablement perspicace pour expliquer un cauchemar kafkaïen dans lequel l’une des plus importantes entreprises au monde publie continuellement une suggestion diffamatoire.

Hutchins est surtout connu pour avoir arrêté WannaCry. L’IA de Google, cependant, s’est trompée sur cette tâche apparemment simple de distinguer les différences essentielles – et semble continuer à se tromper. À plusieurs reprises. (Vraisemblablement, parce que tant d’articles en ligne font référence à Hutchins dans le même texte que les références à “WannaCry”. Mais c’est parce que Hutchins est celui qui a empêché l’attaque mondiale de ransomware de s’aggraver. C’est la véritable stupidité artificielle de Google au travail.

Hutchins fait la vidéo TikTok suggérant qu’il n’y a aucun recours à Google pour le problème américain. Il dit que l’IA n’est pas légalement une personne et que personne n’est légalement responsable. Cela ne peut même pas être considéré comme une diffamation.

Le pays dans lequel vous déposez une plainte pour diffamation aura des lois différentes. Il est possible que Hutchins ait une meilleure chance d’obtenir un recours ordonné par le tribunal pour ce SERP si Hutchins déposait une plainte sur des marchés européens comme l’Allemagne, où Google a été poursuivi pour diffamation concernant les suggestions de recherche de saisie semi-automatique. (bien que l’issue de l’action en justice de Bettina Wulff ne soit pas claire, mais il semble que les fausses suggestions de saisie semi-automatique dont elle s’est plainte étaient liées à son compte par la technologie de Google) – contrairement au Communications Decency Act, les plates-formes sont généralement à l’abri des tiers contenu.

Qui est responsable ?

L’affaire Hutchins SERP soulève la question de savoir de quel contenu s’agit-il ? est une considération clé. Google soutiendra probablement que son IA ne reflète que ce que d’autres ont publié, donc l’immunité de l’article 230 devrait s’appliquer aux questions-réponses. Il est possible de contre-argumenter que la sélection et le texte de présentation de l’IA équivaut à un remix substantiel, ce qui indiquerait que Google crée un discours ou du moins un contexte. Le géant de la technologie devrait-il être protégé de toute responsabilité pour les arrangements textuels générés par l’IA ?

Il sera de plus en plus difficile pour les modélistes d’affirmer que leurs IA génèrent de la parole dans de grands modèles de langage. Les poursuites et les plaintes individuelles ne semblent pas être une solution viable pour la diffamation et les abus automatisés. Cela est dû à la puissance croissante des grands modèles de langage et à un accès plus large à mesure que les API deviennent plus ouvertes.

Cette question sera un défi pour les régulateurs. Ils doivent également tenir compte de la responsabilité pour les communications générées par l’IA. Cela signifie que les régulateurs devront traiter la question complexe de la répartition des responsabilités, en considérant combien d’entités pourraient être impliquées dans l’application et l’itération de grands modèles de langage et en façonnant et en distribuant les sorties de ces systèmes d’IA.

Les législateurs régionaux de l’Union européenne sont en avance sur la courbe réglementaire. Ils travaillent actuellement sur les détails d’un cadre basé sur les risques que la Commission a proposé en janvier dernier pour établir des règles pour certaines applications d’intelligence artificielle. Il s’agit de s’assurer que la technologie d’automatisation hautement évolutive est appliquée de manière sûre et non discriminatoire.

Il n’est pas clair, cependant, que la loi de l’UE sur l’IA, telle qu’elle est, fournirait des freins et contrepoids adéquats contre l’utilisation malveillante et/ou imprudente de grands modèles linguistiques. Ils sont classés comme des systèmes d’IA à usage général et ont donc été exclus du projet initial de la Commission.

La loi définit un cadre pour définir un petit nombre de catégories d’applications d’IA à haut risque, notamment l’emploi, l’application de la loi et l’identification biométrique, qui sont les plus axées sur la conformité. Un utilisateur en aval de la sortie de grands modèles de langage, qui est susceptible de s’appuyer sur une API pour l’acheminer dans son cas d’utilisation de domaine spécifique, n’aura pas accès (aux données de formation, etc.). Comprendre la robustesse du modèle et les risques potentiels ; pour faire des ajustements afin de minimiser les problèmes, comme le recycler avec différents ensembles de données.

Des experts juridiques et des groupes de la société civile de toute l’Europe ont soulevé des inquiétudes au sujet de cette disposition relative aux IA à usage général. Un texte de compromis partiel a été proposé pour inclure un article sur les systèmes d’IA à usage général. Cette question a également été soulevée lors des réunions des colégislateurs. Deux groupes de la société civile ont exprimé leur inquiétude quant au fait que le compromis suggéré continuerait à accorder une exception aux IA à usage général des fabricants. Ils placeraient toute la responsabilité de ceux qui utilisent des systèmes dont ils ne sont pas non plus au courant.

L’accès aux ensembles de données utilisés pour la formation des systèmes d’IA est requis pour de nombreuses exigences de gouvernance des données. Ils ont averti que ces ensembles de données ne sont pas entre les mains des utilisateurs, mais des développeurs qui ont mis le système d’IA à usage général “en service dans un but prévu”.

L’experte en droit de l’internet Lilian Edwards, qui a précédemment critiqué un certain nombre de limitations dans le cadre de l’UE, a déclaré que les propositions visant à introduire des exigences pour les fournisseurs de systèmes d’IA à usage général à grande échelle constituaient un pas en avant. Cependant, elle a dit que l’application est difficile. Elle s’est félicitée de l’idée d’exiger que les fournisseurs de systèmes d’IA, tels que les modèles en langage étendu, doivent « coopérer et fournir les informations requises » aux déployeurs en aval. Cependant, elle a noté qu’une exemption était également suggérée pour les droits de propriété intellectuelle et les informations commerciales confidentielles/secret commercial – ce qui pourrait conduire à la violation complète.

L’essentiel est que même le cadre le plus important d’Europe pour réglementer les applications d’intelligence artificielle a encore un long chemin à parcourir avant de pouvoir rattraper la pointe de l’IA. Ceci est crucial si le cadre doit vivre le battage médiatique d’être un modèle d’IA digne de confiance, respectueuse et centrée sur l’humain. Un torrent de dommages accélérés par la technologie semble presque certain – alimentant les guerres culturelles en ligne (niveaux de spam, trolling et abus par bouton-poussoir, discours de haine et désinformation). Cela crée un avenir sombre dans lequel des groupes et des individus ciblés doivent lutter contre un flot incessant de mensonges et de haine. Ce serait injuste.

Bien que l’UE ait fait l’éloge de sa vitesse de légifération numérique ces dernières années, les législateurs du bloc doivent penser au-delà des règles existantes sur les produits pour aborder les systèmes d’IA. Ils doivent également éviter les échappatoires qui permettent aux grands acteurs de continuer à ignorer leurs responsabilités sociales. L’automatisation des dommages ne devrait pas être autorisée, peu importe où elle se trouve ou quelle que soit la taille de l’utilisateur. Sinon, nous, les humains, continuerons à regarder dans le miroir sombre.

Vous avez besoin d'améliorer votre visibilité en ligne ?

Nous avons une solution idéale pour votre entreprise

On vous rappelle gratuitement

Valentin & Silvain - Experts Wordpress Woocommerce

Nos engagements

Site internet sur mesure

Une équipe de développeurs web et d'experts en stratégie digitale dédiée dédiée à la réalisation de votre projet

Première page sur Google

Notre agence spécialisée dans la rédaction de contenu SEO vous donne accès aux avantages du référencement local

De nouveaux clients

Améliorez la visibilité de votre entreprise grace au marketing digital sur les moteurs de recherche et réseaux sociaux

Nos chiffres clés

0 %
Satisfaction client
+ 0 /mois
Nouveaux projets
+ 0 M
Visites totales mensuelles