Pourquoi les entreprises devraient cesser d’essayer d’être “IA-first”


  • FrançaisFrançais


  • L’intelligence artificielle est devenue un mot à la mode dans l’industrie technologique. Les entreprises sont impatientes de se présenter comme « AI-first » et utilisent abondamment les termes « IA », « apprentissage automatique » et « apprentissage en profondeur » dans leur copie Web et marketing.

    Quels sont les effets du battage médiatique actuel autour de l’IA ? Est-ce que cela trompe simplement les consommateurs et les utilisateurs finaux ou affecte-t-il également les investisseurs et les régulateurs ? Comment façonne-t-il l’état d’esprit pour la création de produits et de services ? Comment la fusion de la recherche scientifique et du développement de produits commerciaux alimente-t-elle le battage médiatique ?

    Voici quelques-unes des questions auxquelles Richard Heimann, directeur de l’IA chez Cybraics, répond dans son nouveau livre Faire de l’IA. Le principal message de Heimann est que lorsque l’IA elle-même devient notre objectif, nous perdons de vue tous les problèmes importants que nous devons résoudre. Et par extension, nous tirons les mauvaises conclusions et prenons les mauvaises décisions.

    L’apprentissage automatique, l’apprentissage en profondeur et toutes les autres technologies qui relèvent du terme générique “IA” ne doivent être envisagés qu’après avoir défini des objectifs et des problèmes bien définis, affirme Heimann. Et c’est pourquoi être l’IA en premier signifie faire l’IA en dernier.

    L’un des thèmes sur lesquels Heimann revient dans le livre est la mauvaise focalisation. Lorsque les entreprises parlent d’être “IA-first”, leur objectif devient d’une manière ou d’une autre d’intégrer les dernières et les plus grandes avancées de la recherche sur l’IA dans leurs produits (ou fais au moins semblant de le faire). Lorsque cela se produit, l’entreprise commence par la solution, puis essaie de trouver un problème à résoudre.

    Un exemple frappant est peut-être la tendance entourant grands modèles de langage, qui font beaucoup de bruit dans les médias grand public et sont présentés comme des résolveurs de problèmes généraux dans le traitement du langage naturel. Bien que ces modèles soient vraiment impressionnants, ils ne sont pas une solution miracle. En fait, dans de nombreux cas, lorsque vous avez un problème bien défini, un modèle plus simple ou même une expression régulière ou un programme basé sur des règles peut être plus fiable que GPT-3.

    “Nous interprétons l’IA d’abord comme si nous devions littéralement devenir la solution d’abord sans savoir pourquoi. De plus, nous conceptualisons une solution abstraite et idéalisée que nous plaçons devant les problèmes et les clients sans vraiment nous demander s’il est sage de le faire, si le battage médiatique est vrai ou comment l’orientation vers la solution a un impact sur notre entreprise », écrit Heimann dans Faire de l’IA.

    C’est un point douloureux que j’ai rencontré maintes et maintes fois dans la façon dont les entreprises essaient de pitcher leurs produits. Je lis souvent un tas de jargon (parfois contradictoire) sur l’IA, en m’efforçant de découvrir quel type de problème l’entreprise résout. Parfois, je ne trouve rien d’impressionnant.

    “Quiconque parle d’IA sans le soutien d’un problème n’est probablement pas intéressé par la création d’une véritable entreprise ou n’a aucune idée de ce qu’une entreprise signifie”, a déclaré Heimann. TechTalks. « Peut-être que ces aspirants entrepreneurs recherchent une acquisition stratégique. Si votre rêve est d’être racheté par Google, vous n’avez pas toujours besoin d’une entreprise. Google en est un et n’a pas besoin du vôtre. Cependant, le fait que Google est une entreprise ne doit pas être négligé.

    Le battage médiatique de l’IA a suscité de l’intérêt et des financements dans le domaine, fournissant aux startups et aux laboratoires de recherche beaucoup d’argent pour poursuivre leurs rêves. Mais cela a aussi eu des effets pervers. D’une part, l’utilisation du terme « IA » ambigu, anthropomorphique et vaguement défini crée des attentes élevées chez les clients et les utilisateurs et sème la confusion. Cela peut également conduire les entreprises à négliger des solutions plus abordables et à gaspiller des ressources dans des technologies inutiles.

    “Ce qu’il est important de retenir, c’est que l’IA n’est pas un monolithe. Cela signifie différentes choses pour différentes personnes », a déclaré Heimann. « On ne peut pas le dire sans embrouiller tout le monde. Si vous êtes un manager et que vous dites “IA”, vous avez créé des objectifs externes pour les résolveurs de problèmes. Si vous dites « IA » sans lien avec un problème, vous créerez des désalignements, car le personnel trouvera des problèmes adaptés à une solution arbitraire. »

    La recherche universitaire en IA vise à repousser les limites de la science. Les scientifiques étudient la cognition, le cerveau et le comportement chez les animaux et les humains pour trouver des indices sur la création de l’intelligence artificielle. Ils utilisent ImageNet, COCO, GLUE, Winograd, ARC, des jeux de société, des jeux vidéo et d’autres repères pour mesurer les progrès de l’IA. Bien qu’ils sachent que leurs découvertes peuvent servir l’humanité à l’avenir, ils ne s’inquiètent pas de savoir si leur technologie sera commercialisée ou produite dans les prochains mois ou années.

    IA appliquée, d’autre part, vise à résoudre des problèmes spécifiques et à expédier des produits sur le marché. Les développeurs de systèmes d’IA appliquée doivent respecter les contraintes de mémoire et de calcul imposées par l’environnement. Ils doivent être conformes à la réglementation et répondre aux normes de sécurité et de robustesse. Ils mesurent le succès en termes d’audience, de profits et de pertes, de satisfaction client, de croissance, d’évolutivité, etc. En fait, dans le développement de produits, l’apprentissage automatique et l’apprentissage en profondeur (et toute autre technologie d’IA) deviennent l’un des nombreux outils que vous utilisez pour résoudre les problèmes des clients.

    Ces dernières années, d’autant plus que les entités commerciales et les grandes entreprises technologiques ont pris la tête de la recherche en IA, les frontières entre recherche et applications se sont estompées. Aujourd’hui, des entreprises comme Google, Facebook, Microsoft et Amazon représentent une grande partie de l’argent consacré à la recherche sur l’IA. Par conséquent, leurs objectifs commerciaux affectent les directions que prend la recherche en IA.

    “L’aspiration à tout résoudre, au lieu de quelque chose, est le sommet des initiés, et c’est pourquoi ils cherchent solutions cognitivement plausibles», écrit Heimann dans Faire de l’IA. « Mais cela ne change rien au fait que les solutions ne peuvent pas être tout à tous les problèmes, et, que cela nous plaise ou non, les entreprises non plus. Pratiquement aucune entreprise n’a besoin de solutions universelles, car l’entreprise n’est pas universelle par nature et ne peut souvent pas atteindre ses objectifs “dans un large éventail d’environnements”.

    Un exemple est DeepMind, le laboratoire de recherche sur l’IA basé au Royaume-Uni qui a été acquis par Google en 2014. La mission de DeepMind est de créer une intelligence générale artificielle sûre. En même temps, il a le devoir de générer des bénéfices pour son propriétaire.

    La même chose peut être dite d’OpenAI, un autre laboratoire de recherche qui poursuit le rêve d’AGI. Mais étant majoritairement financé par Microsoft, OpenAI doit trouver un équilibre entre la recherche scientifique et le développement des technologies qui peut être intégré dans les produits de Microsoft.

    “Les limites [between academia and business] sont de plus en plus difficiles à reconnaître et sont compliqués par des facteurs et des motivations économiques, un comportement malhonnête et des objectifs contradictoires », a déclaré Heimann. «C’est là que vous voyez des entreprises faire de la recherche et publier des articles et se comporter de la même manière que les institutions universitaires traditionnelles pour attirer des professionnels à l’esprit académique. Vous trouverez également des universitaires qui maintiennent leur poste tout en occupant des postes dans l’industrie. Les universitaires font des déclarations gonflées et créent des entreprises uniquement basées sur l’IA qui ne résolvent aucun problème pour récupérer de l’argent pendant les étés de l’IA. Les entreprises font de grandes revendications avec le soutien académique. Cela soutient les pipelines de ressources humaines, généralement le prestige de l’entreprise, et a un impact sur “l’effet multiplicateur”.

    À maintes reprises, les scientifiques ont découvert que les solutions à de nombreux problèmes ne nécessitent pas nécessairement une intelligence humaine. Des chercheurs ont réussi à créer des systèmes d’IA capables de maîtriser échecs, allez, concours de programmationet examens scientifiques sans reproduire le processus de raisonnement humain.

    Ces résultats créent souvent des débats sur la question de savoir si l’IA doit simuler le cerveau humain ou viser à produire des résultats acceptables.

    “La question est pertinente car l’IA ne résout pas les problèmes de la même manière que les humains”, a déclaré Heimann. « Sans la cognition humaine, ces solutions ne résoudront aucun autre problème. Ce que nous appelons ‘IA’ est étroit et ne résout que les problèmes qu’ils étaient censés résoudre. Cela signifie que les chefs d’entreprise doivent encore trouver les problèmes qui comptent et trouver la bonne solution ou concevoir la bonne solution pour résoudre ces problèmes. »

    Heimann a également averti que les solutions d’IA qui n’agissent pas comme des humains échoueront de manière unique. des manières qui ne ressemblent pas aux humains. Cela a des implications importantes pour la sûreté, la sécurité, l’équité, la fiabilité et de nombreux autres problèmes sociaux.

    “Cela signifie nécessairement que nous devons utiliser” l’IA “avec discrétion et jamais sur des problèmes simples que les humains pourraient résoudre facilement ou lorsque le coût de l’erreur est élevé et que la responsabilité est requise”, a déclaré Heimann. “Encore une fois, cela nous ramène à la nature du problème que nous voulons résoudre.”

    Dans un autre sens, la question de savoir si l’IA devrait simuler le cerveau humain manque de pertinence car la plupart des recherches sur l’IA se soucient très peu de la plausibilité cognitive ou de la plausibilité biologique, estime Heimann.

    “J’entends souvent des gens à l’esprit commercial dire des bêtises sur le fait que les réseaux de neurones artificiels sont” inspirés par… “ou” imitent grossièrement “le cerveau”, a-t-il déclaré. “L’aspect neuronal des réseaux de neurones artificiels n’est qu’une vitrine pour le fonctionnalisme informatique qui ignore de toute façon toutes les différences entre le silicium et la biologie. Mis à part quelques contre-exemples, la recherche sur les réseaux de neurones artificiels se concentre toujours sur le fonctionnalisme et ne se soucie pas d’améliorer la plausibilité neuronale. Si les initiés ne se soucient généralement pas de combler le fossé entre les réseaux de neurones biologiques et artificiels, vous ne devriez pas non plus.

    Dans Faire de l’IA, Heimann souligne que pour résoudre des problèmes suffisamment complexes, nous pouvons utiliser une technologie de pointe comme l’apprentissage automatique, mais le nom de cette technologie signifie moins que la raison pour laquelle nous l’avons utilisée. La survie d’une entreprise ne dépend pas du nom d’une solution, de la philosophie de l’IA ou de la définition de l’intelligence.

    Il écrit : « Plutôt que de demander si l’IA consiste à simuler le cerveau, il serait préférable de se demander : ‘Les entreprises sont-elles obligées d’utiliser des réseaux de neurones artificiels ?’ Si telle est la question, alors la réponse est non. La présomption selon laquelle vous devez utiliser une solution arbitraire avant d’identifier un problème est une supposition de solution. Bien que les réseaux de neurones artificiels soient très populaires et presque parfaits dans le sens étroit où ils peuvent adapter des fonctions complexes aux données – et ainsi compresser les données en représentations utiles – ils ne devraient jamais être l’objectif des entreprises, car rapprocher une fonction des données est rarement suffisant pour résoudre un problème et, en l’absence de résoudre un problème, jamais le but de l’entreprise.

    Lorsqu’il s’agit de développer des produits et des plans d’affaires, le problème vient en premier, et la technologie suit. Parfois, dans le contexte du problème, mettre en avant la technologie a du sens. Par exemple, une application “mobile-first” suggère qu’elle résout un problème auquel les utilisateurs sont principalement confrontés lorsqu’ils ne sont pas assis derrière un ordinateur. Une solution “cloud-first” suggère que le stockage et le traitement sont principalement effectués dans le cloud pour rendre les mêmes informations disponibles sur plusieurs appareils ou pour éviter de surcharger les ressources de calcul des appareils des utilisateurs finaux. (Il convient de noter que ces deux termes sont également devenus des mots à la mode sans signification après avoir été surutilisés. Ils étaient significatifs dans les années où les entreprises passaient des installations sur site au cloud et du web au mobile. Aujourd’hui, chaque application devrait être disponible. sur mobile et d’avoir une solide infrastructure cloud.)

    Mais que dit « AI-first » sur le problème et le contexte de l’application et le problème qu’elle résout ?

    « AI-first est un oxymore et un ego trip. Vous ne pouvez pas faire quelque chose avant de comprendre les circonstances qui le rendent nécessaire », a déclaré Heimann. “Les stratégies d’IA, telles que AI-first, peuvent signifier n’importe quoi. La stratégie d’entreprise est trop large lorsqu’elle inclut tout ou des choses qu’elle ne devrait pas, comme l’intelligence. La stratégie commerciale est trop étroite lorsqu’elle omet d’inclure des éléments qu’elle devrait, comme mentionner un problème réel ou un client du monde réel. Les stratégies circulaires sont celles dans lesquelles une solution définit un objectif et l’objectif définit cette solution.

    «Lorsque vous manquez d’informations spécifiques au problème, au client et au marché, les équipes rempliront les blancs et travailleront sur tout ce à quoi elles pensent lorsqu’elles pensent à l’IA. Néanmoins, il est peu probable que vous trouviez un client dans une solution abstraite telle que “IA”. Par conséquent, l’intelligence artificielle ne peut pas être un objectif commercial, et lorsqu’elle l’est, la stratégie est plus complexe, voire impossible.

    Cet article a été écrit à l’origine par Ben Dickson et publié par Ben Dickson sur TechTalks, une publication qui examine les tendances de la technologie, comment elles affectent notre façon de vivre et de faire des affaires, et les problèmes qu’elles résolvent. Mais nous discutons également du côté pervers de la technologie, des implications les plus sombres des nouvelles technologies et de ce que nous devons surveiller. Vous pouvez lire l’article original ici.

    Source

    N'oubliez pas de voter pour cet article !
    1 Star2 Stars3 Stars4 Stars5 Stars (No Ratings Yet)
    Loading...

    La Rédaction

    L'équipe rédactionnnelle du site

    Pour contacter personnellement le taulier :

    Laisser un commentaire

    Votre adresse e-mail ne sera pas publiée.