vendredi, mars 29L'actualité des entrepreneurs

Une meilleure IA peut-il aider à construire une société meilleure ?

L’intelligence artificielle (IA), qui est une forme d’intelligence artificielle, a le potentiel d’apporter des innovations qui amélioreront tous les aspects de la société. Cela inclut les systèmes d’ingénierie hérités, les soins de santé, les processus créatifs dans le divertissement et les arts. Par exemple, l’IA est utilisée par les studios hollywoodiens pour détecter et mesurer les biais dans les scripts. Ce sont les outils mêmes dont les écrivains et les producteurs ont besoin inclusifs et équitables. L’IA n’est aussi intelligente que les données sur lesquelles elle est formée. Ces données reflètent souvent des biais réels. Les technologues s’efforcent d’aborder l’équité et l’inclusion dans la vie réelle et dans leurs inventions afin d’éviter de perpétuer les stéréotypes.

Pourquoi l’IA est un biais inné pour l’humain ?

Les technologues cherchent à faire en sorte que l’IA fonctionne pour les humains afin , et il est important de reconnaître les conséquences imprévues de nos préjugés inhérents.

Beena Ammanath est responsable mondiale du Deloitte AI Institute et responsable de la technologie et de l’éthique de l’IA chez Deloitte. « Et à mesure que ces préjugés sont intégrés dans les systèmes, il y a de très fortes chances que des sections de la société soient laissées pour compte – minorités sous-représentées, personnes – et cela peut entraîner davantage d’inégalités dans le monde. »

Même si les égaux ou réduire les inégalités passées, même s’ils commencent avec des intentions positives, des biais peuvent toujours se produire si les données sont biaisées ou si les chercheurs ne tiennent pas compte de l’impact de leurs perspectives sur les lignes de recherche.

Ammanath dit que l’ajustement pour les biais d’IA se fait souvent après coup. Cela a conduit à la découverte d’algorithmes biaisés et de populations sous-représentées. Les maintenant apprendre à être proactives et à éviter que ces problèmes n’apparaissent plus tard.

Qu’est-ce qu’est le biais algorithmique dans l’IA ?

Le biais algorithmique est une forme de biais dans l’IA. Kirk Bresniker (architecte en chef chez Hewlett Packard Labs et vice-président chez Hewlett Packard Enterprise) explique que le biais algorithmique s’accompagne d’une série de défis lors de la construction d’un modèle d’IA. Nous pouvons faire face à un défi soit parce que notre algorithme n’est pas capable de gérer différentes entrées, soit parce que nous n’avons pas assez de données pour entraîner notre modèle. Nous n’avons pas suffisamment de données dans les deux cas.

Le biais algorithmique peut également être causé par un traitement inexact, une modification des données ou l’injection d’un faux signal. Le biais peut conduire à des résultats injustes, qu’ils soient intentionnels ou non. Il peut être privilégiant ou excluant un groupe.

Ammanath décrit un algorithme qui peut reconnaître divers types de chaussures comme les tongs et les sandales ainsi que les chaussures formelles et les baskets. L’algorithme était incapable de reconnaître les chaussures avec des talons sur les pieds des femmes lors de sa première sortie. L’équipe de développeurs était composée de nouveaux diplômés universitaires, tous des hommes. Ils n’ont jamais envisagé d’entraîner l’algorithme sur les talons des femmes.

Ammanath a déclaré: « C’est un cas trivial, mais vous réalisez que l’ensemble de données était petit. » Pensez maintenant à un algorithme similaire qui utilise des données historiques pour diagnostiquer une maladie. Et si l’algorithme n’était pas entraîné sur des types de corps spécifiques, certains sexes ou certaines races? Ces impacts peuvent avoir d’énormes conséquences.

Elle dit : « Si vous n’avez pas de diversité à la table, vous manquerez certains scénarios. »

Que signifie une IA « meilleure » ?

Il est difficile d’obtenir plus de données et des ensembles de données plus variés, car les données sont devenues de plus en plus centralisées. Le partage des données soulève de nombreuses préoccupations, notamment en matière de confidentialité et de sécurité.

Nathan Schneider, professeur adjoint d’études sur les médias à l’Université du Colorado à Boulder, affirme qu’à l’heure actuelle, les utilisateurs individuels sont beaucoup moins puissants que les grandes entreprises qui collectent et traitent leurs données.

Des lois et réglementations élargies sont susceptibles de dicter . L’innovation ne s’arrête pas aux législateurs. Les entreprises qui développent l’IA ont la responsabilité d’être des gestionnaires de données et de protéger la vie privée des individus, tout en réduisant les biais algorithmiques. La technologie évolue si rapidement que la réglementation ne peut pas être appliquée à tous les scénarios possibles. « Nous entrerons dans une ère où il faut trouver un équilibre entre le respect des règlements existants et l’autoréglementation. »

Cette autorégulation vise à élever les normes pour toutes les technologies impliquées dans la construction de solutions d’IA. À partir des données, de la formation et de l’infrastructure pour les construire, ce type d’autorégulation aidera à relever la barre. Les entreprises doivent également fournir aux employés un moyen d’exprimer leurs préoccupations au sujet des préjugés dans tous les ministères. Les entreprises doivent auditer périodiquement l’efficacité de leurs solutions d’IA, même s’il est peu probable que les biais puissent être complètement éliminés.

L’autorégulation est différente pour chaque entreprise en raison de la nature contextuelle de l’IA. Par exemple, HPE a établi des lignes directrices pour une IA éthique. Près d’un an a été consacré par un groupe diversifié de personnes de l’entreprise à créer les principes de l’IA. Ensuite, ils les ont examinés avec un large éventail d’employés pour s’assurer qu’ils étaient faciles à suivre et correspondaient à la culture d’entreprise.

Bresniker, directeur de la recherche chez HPE, explique que l’objectif était d’accroître la sensibilisation et de collecter les meilleures pratiques. « C’est le travail de tout le monde : être alphabétisé sur ce sujet. »

La maturité de l’IA a atteint un point important pour les technologues. Il ne s’agit plus de recherche mais d’applications pratiques et de création de valeur dans toutes les industries. Parce que l’IA est de plus en plus répandue, les organisations ont la responsabilité éthique de fournir des solutions accessibles, robustes et inclusives. Les organisations ont été obligées d’examiner les données qu’elles utilisent dans un processus, souvent pour la première fois. Bresniker dit : « Nous voulons que les gens établissent cette providence et cette confiance mesurable à l’égard des données qui s’y trouvent. » « Ils peuvent cesser de perpétuer les inégalités systémiques et créer des résultats équitables pour un avenir meilleur. »

Vous pourriez également aimer ceci :

L’effondrement de la crypto est-il terminé ?

Les actifs cryptographiques ont connu une chute massive par rapport à leurs sommets de la fin de 2021. Coinbase Global (COIN) a chuté de 78,5% depuis le début de...

Les choses indispensables à savoir sur les salons professionnels du futur ?

Les salons professionnels vont-ils changer ? Il y a deux ans, les salons professionnels étaient pratiquement inexistants. Les confinements ont commencé et le COVID-...

Ce drone utilise l'IA pour vous prendre en photo sous les meilleurs angles possibles

Comment un drone avec IA fonctionne ? Vous avez suffisamment travaillé. Vous méritez des aventures estivales. Vous aurez envie de prendre des photos, peu importe si...

Le Google Pixel 6 Pro en réduction de 200 € sur Amazon, une offre incroyable à saisir !

Quelles sont les réductions sur les smartphones Google ? Amazon Prime Day est demain, mais nous voyons déjà des offres incroyables sur quelques smartphones intére...

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *