Pouvons-nous faire confiance à l’IA ?

Pouvons-nous faire confiance à l'IA?

Nous nous concentrons trop sur le mauvais sujet de l’IA

Le dernier mois a été une frénésie avec une couverture médiatique autour de Blake Lemoine. Il est ingénieur chez Google et a déclaré au Washington Post que LaMDA, qui est un grand modèle de langage qui permet aux utilisateurs de communiquer entre eux, est « sensible ».

Après avoir examiné une variété de points de vue sur le sujet, il est clair que les médias ont été déçus par le battage médiatique entourant la technologie actuelle de l’IA. De nombreux articles se sont concentrés sur les raisons pour lesquelles les réseaux de neurones profonds n’ont pas de facultés « sensibles » ou conscientes. Il s’agit d’une nette amélioration au cours des dernières années, lorsque les médias ont créé des histoires sensationnelles sur les systèmes d’IA créant leur propre langage et prenant en charge tous les emplois.

Cependant, le fait que nous discutions à nouveau de la sensibilité souligne un point important. Nous sommes à un stade où nos systèmes d’IA, à savoir les grands modèles de langage, deviennent de plus en plus convaincants tout en ayant des défauts fondamentaux qui ont été soulignés à plusieurs reprises par les scientifiques. Alors que « l’IA trompe les gens » est un sujet depuis le chatbot ELIZA des années 1960, les LLM d’aujourd’hui vont au-delà de cela. La conversation de Blake Lemoine avec LaMDA semble presque surréaliste – même si elles ont été choisies et éditées.

Pourquoi les grands modèles linguistiques ne parlent pas notre langue ?

Au cours de la dernière semaine, nous avons longuement discuté du fonctionnement des modèles de réseaux neuronaux et de grands langages. L’interview de Melanie Mitchell sur MSNBC est une bonne source d’informations équilibrées sur LaMDA et d’autres LLM. Une vue plus détaillée de la situation serait utile, en commençant par les langues humaines, que les LLM peuvent être comparés.

Le langage est utilisé par les humains pour communiquer des activations complexes et multidimensionnelles dans leur cerveau. Quand deux frères se parlent et que l’un d’eux dit « maman », cela déclenche beaucoup d’activations dans le cerveau. Cela inclut des souvenirs de la voix, du visage et des sentiments de leur mère, ainsi que différentes expériences du passé et du présent. D’après leurs expériences, le type de représentations que les frères ont dans leur cerveau peut différer considérablement. Cependant, le mot « maman » fournit une représentation simplifiée et bien représentée qui leur permet de s’entendre sur le concept.

La différence dans les souvenirs et les expériences entre vous et un étranger devient plus évidente lorsque vous utilisez le terme « maman » au cours d’une conversation. Vous parvenez à vous mettre à nouveau d’accord sur la base des idées partagées que vous avez en tête.

Le langage est un algorithme de compression qui aide à transférer d’énormes quantités d’informations du cerveau à une autre personne. L’évolution du langage est directement liée aux expériences que nous avons vécues dans le monde. Cela inclut les interactions physiques et sociales avec les autres humains.

Nos expériences partagées dans le monde sont ce qui construit le langage. Avant de pouvoir prononcer leurs premiers mots, les enfants sont déjà familiers avec la gravité, la dimension, la cohérence physique des objets et les concepts humains comme la douleur, la tristesse et la peur. Le langage n’a pas de sens sans ces expériences. Le langage néglige souvent d’inclure les connaissances de bon sens et l’information partagée par les interlocuteurs. La profondeur de votre conversation avec une autre personne dépendra de ce que vous avez en commun expérience et souvenirs.

Les grands modèles linguistiques, en revanche, n’ont aucune expérience sociale ou physique. Ils apprennent à reconnaître les invites et à prédire la prochaine séquence de mots en étant entraînés avec des milliards de mots. Cette approche a connu un grand succès, notamment depuis l’introduction de l’architecture Transformer.

Comment les transformateurs peuvent-ils faire des prédictions aussi convaincantes ? Ils transforment le texte en « intégrations » et en « jetons », qui sont des représentations mathématiques de mots dans des espaces multidimensionnels. L’incorporation est ensuite traitée pour ajouter des dimensions supplémentaires, telles que les relations entre les mots d’une phrase ou d’un paragraphe et les rôles qu’ils y jouent. Ces intégrations peuvent être utilisées pour approximer la façon dont les mots doivent apparaître dans les séquences s’il y a suffisamment d’exemples. Les transformateurs sont très populaires en raison de leur capacité à évoluer: ils sont plus précis à mesure qu’ils grandissent et peuvent être alimentés par plus de données. Plus important encore, ils peuvent être formés en utilisant sans supervision.

La différence fondamentale est toujours là. La différence fondamentale est que les réseaux de neurones convertissent le langage en intégrations. Le langage pour les humains est l’intégration des pensées, des sentiments et de la mémoire. Il y a beaucoup d’autres choses que nous ne savons toujours pas sur le cerveau.

Il est donc juste de dire que, malgré leurs avancées incroyables et leurs résultats impressionnants en traductions, grands modèles linguistiques, réseau neuronal profond, etc. Nous sommes loin de pouvoir parler notre langue.

Quels différence entre sensibilité, compatibilité et confiance dans l’IA ?

Beaucoup de discussions actuelles sont axées sur la question de savoir si nous devrions ou non attribuer des attributs tels que la sensibilité, la conscience ou la personnalité à l’IA. Ces discussions sont centrées sur des concepts vagues et peuvent signifier différentes choses pour différentes personnes.

Les fonctionnalistes peuvent soutenir que les grands modèles de langage et les réseaux de neurones sont conscients, car ils présentent le même comportement que les humains, même s’ils ont été construits sur des substrats différents. D’autres peuvent soutenir que la conscience dépend de la substance organique et prétendre que les réseaux de neurones ne seront pas conscients. Des arguments sur les qualia, les expériences en salle chinoise, les tests de Turing et d’autres sujets peuvent être ajoutés à la conversation.

Une question plus pratique, cependant, est de savoir dans quelle mesure les réseaux neuronaux actuels sont compatibles avec le cerveau humain et s’ils peuvent leur faire confiance avec des applications critiques. Il s’agit d’une discussion cruciale, car les grands modèles de langage sont principalement développés par des entreprises qui souhaitent les transformer en applications commerciales.

Vous pourriez, par exemple, être en mesure d’entraîner un chimpanzé à conduire une voiture. Vous ne le mettriez pas au volant d’une voiture dans une rue que les piétons traverseront. Parce que les chimpanzés ne sont pas aussi intelligents que les humains et qu’on ne peut donc pas leur confier des tâches qui pourraient mettre en danger la sécurité humaine, vous ne le feriez pas.

Un perroquet peut également apprendre de nombreuses phrases. Cependant, feriez-vous confiance à votre perroquet pour agir en tant que représentant du service à la clientèle? Ce n’est probablement pas le cas.

Certaines déficiences cognitives peuvent rendre difficile pour les gens d’effectuer certaines tâches ou emplois qui impliquent une interaction humaine. Ces personnes sont capables de lire, d’écrire, de parler couramment et de maintenir une conversation cohérente et logique. Nous ne remettons pas en question leur conscience, leur sensibilité ou leur personnalité. Nous savons que leurs décisions peuvent être incohérentes ou imprévisibles en raison de leur maladie. (Voir Phineas Gage).

Il est important de croire que la personne peut penser et prendre des décisions comme une personne moyenne. Nous faisons confiance aux personnes ayant des tâches dans de nombreux cas parce que nous savons que leur système sensoriel, leurs informations de bon sens, leurs sentiments, leurs objectifs et leurs récompenses sont compatibles avec les nôtres.

Que sait-on de LaMDA? Une chose que nous savons à propos de LaMDA, c’est qu’il ne perçoit pas le monde de la même manière que nous. Il n’a pas les mêmes expériences que nous. Parce que de grands volumes de texte ne sont pas garantis pour couvrir tout ce que nous laissons de côté dans la langue, ses connaissances de bon sens ont une base faible.

Cette incompatibilité rend difficile la confiance en LaMDA ou à d’autres grands modèles linguistiques. Tant que le chatbot n’oriente pas les conversations vers des zones sensibles, il peut être judicieux d’avoir un programme de chatbot convivial. Les LLM peuvent également être utilisés dans les moteurs de recherche (Google utilise le BERT dans la recherche depuis un certain temps). Cependant, il est difficile de leur confier des tâches sensibles comme un chatbot pour le service client ou un conseiller bancaire. Même s’ils ont été affinés et formés sur des tonnes de transcriptions pertinentes,

I believe that we will need to establish application-specific benchmarks in order to verify the consistency of LLMs as well as their compatibility with common human sense in different areas. Real applications should have clearly defined boundaries. They should indicate where the conversation is off-limits and should be given to a human operator.

L’IA peut-il être un résolveur de problèmes ?

Il y a quelque temps, mon essai était « chercheurs de problèmes » et « résolveurs de problèmes ». En substance, j’ai déclaré que l’intelligence humaine consiste à trouver le bon problème et que l’intelligence artificielle (ou l’IA disponible aujourd’hui) consiste à résoudre ces problèmes efficacement.

Les ordinateurs sont capables de trouver des raccourcis pour résoudre des problèmes complexes, sans avoir à acquérir les capacités cognitives des humains. Cela a été prouvé à maintes reprises. Cela a été démontré avec des concours de programmation et de repliement des protéines ainsi que d’autres tâches bien définies.

Le langage naturel est, à bien des égards, différent des autres problèmes résolus par l’IA. Les transformateurs et les LLM, d’une part, ont prouvé qu’ils peuvent obtenir des résultats impressionnants sans avoir à apprendre le langage comme une personne normale. En effet, ils ont d’abord besoin d’explorer le monde, de comprendre ses règles de base, puis d’acquérir le langage nécessaire pour interagir avec les autres sur la base de ces connaissances partagées. Ils n’ont pas l’expérience humaine de l’apprentissage de la langue. Ils sont utiles pour résoudre des problèmes spécifiques liés à la langue. Cependant, leur compatibilité avec le traitement du langage humain peut être limitée, nous devons donc faire attention à la confiance que nous leur accordons.

Cet article a été publié pour la première fois par Ben Dickson à TechTalks. TechTalks est une publication qui analyse les tendances technologiques et leur impact sur nos vies et nos affaires. Nous discutons également du côté négatif de la technologie et des implications que les nouvelles technologies ont sur nos vies, ainsi que de ce dont nous devrions être conscients. L’article original peut être trouvé ici.

Vous avez besoin d'améliorer votre visibilité en ligne ?

Nous avons une solution idéale pour votre entreprise

On vous rappelle gratuitement

Valentin & Silvain - Experts Wordpress Woocommerce

Nos engagements

Site internet sur mesure

Une équipe de développeurs web et d'experts en stratégie digitale dédiée dédiée à la réalisation de votre projet

Première page sur Google

Notre agence spécialisée dans la rédaction de contenu SEO vous donne accès aux avantages du référencement local

De nouveaux clients

Améliorez la visibilité de votre entreprise grace au marketing digital sur les moteurs de recherche et réseaux sociaux

Nos chiffres clés

0 %
Satisfaction client
+ 0 /mois
Nouveaux projets
+ 0 M
Visites totales mensuelles