Le “parrain” de l’IA quitte Google et met en garde contre les dangers à venir

Le Dr Geoffry Hinton, communément appelé le « parrain » de l’IA, a confirmé dans un entretien avec le New York Times qu’il a quitté son emploi chez Google – pour parler des dangers de la technologie qu’il a aidé à développer.
Le travail de pionnier de Hinton sur les réseaux de neurones — pour lequel il a remporté le prix Turing en 2018 aux côtés de deux autres professeurs d’université – a jeté les bases de l’avancement actuel de l’IA générative.
L’universitaire et informaticien de longue date a rejoint Google en 2013, après que le géant de la technologie a dépensé 44 millions de dollars pour acquérir une société fondée par Hinton et deux de ses étudiants, Ilya Sutskever (maintenant scientifique en chef chez OpenAI) et Alex Krishevsky. Leur système de réseau neuronal a finalement conduit à la création de ChatGPT et de Google Bard.
Mais Hinton en est venu à regretter en partie le travail de sa vie, comme il l’a dit au NYT. “Je me console avec l’excuse normale : si je ne l’avais pas fait, quelqu’un d’autre l’aurait fait”, a-t-il déclaré. Il a décidé de quitter Google pour pouvoir parler librement des dangers de l’IA et s’assurer que ses avertissements n’affectent pas l’entreprise elle-même.
Au NYT aujourd’hui, Cade Metz sous-entend que j’ai quitté Google pour pouvoir critiquer Google. En fait, je suis parti pour pouvoir parler des dangers de l’IA sans tenir compte de l’impact que cela a sur Google. Google a agi de manière très responsable.
— Geoffrey Hinton (@geoffreyhinton) 1 mai 2023
Selon l’interview, Hinton a été incité par l’intégration par Microsoft de ChatGPT dans son moteur de recherche Bing, qui, selon lui, conduira les géants de la technologie dans une compétition potentiellement imparable. Cela pourrait entraîner un débordement de fausses photos, vidéos et textes dans la mesure où une personne moyenne ne pourra plus « dire ce qui est vrai ».
Mais en dehors de la désinformation, Hinton a également exprimé des inquiétudes quant au potentiel de l’IA à éliminer des emplois et même à écrire et exécuter son propre code, car il est apparemment capable de devenir plus intelligent que les humains beaucoup plus tôt que prévu.
Plus les entreprises améliorent l’intelligence artificielle sans contrôle, plus elle devient dangereuse, estime Hinton. « Regardez comment c’était il y a cinq ans et comment c’est maintenant. Prenez la différence et propagez-la vers l’avant. C’est effrayant.”
La nécessité de contrôler le développement de l’IA
Geoffry Hinton n’est pas le seul à exprimer ses craintes face au développement rapide et incontrôlé de l’IA.
Fin mars, plus de 2 000 experts et dirigeants de l’industrie en Amérique du Nord ont signé une lettre ouverte, appelant à une pause de six mois dans la formation de systèmes plus puissants que GPT-4, le successeur de ChatGPT.
Les signataires – dont des chercheurs de DeepMind, l’informaticien Yoshua Bengio et Elon Musk – ont souligné la nécessité de politiques réglementaires, avertissant que « de puissants systèmes d’IA ne devraient être développés qu’une fois que nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables. .”
Outre-Atlantique, la croissance de ChatGPT a suscité les efforts des autorités européennes et nationales pour réguler efficacement le développement de l’IA sans étouffer l’innovation.
Les États membres tentent de superviser le fonctionnement des modèles avancés. Par exemple, l’Espagne, la France et l’Italie ont ouvert des enquêtes sur ChatGPT pour des raisons de confidentialité des données – ce dernier étant le premier pays occidental à réglementer son utilisation après avoir imposé une interdiction temporaire du service.
Le syndicat dans son ensemble se rapproche également de l’adoption de la future loi sur l’IA – la première loi sur l’IA au monde par un organisme de réglementation majeur. La semaine dernière, les députés du Parlement européen convenu de faire passer le projet à l’étape suivanteappelé trilogue, au cours duquel les législateurs et les États membres mettront au point les derniers détails du projet de loi.
D’après Margrethe Vestagerle chef de la réglementation technologique de l’UE, le bloc devrait s’entendre sur la loi cette année, et les entreprises pourraient déjà commencer à réfléchir à ses implications.
“Avec ces règles historiques, l’UE est le fer de lance du développement de nouvelles normes mondiales pour s’assurer que l’IA est digne de confiance. En fixant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier et garantir que l’UE reste compétitive en cours de route », a déclaré Vestager. a dit lorsque le projet de loi a été annoncé pour la première fois.
À moins que les efforts réglementaires en Europe et dans le monde ne soient accélérés, nous risquons de répéter l’approche d’Oppenheimer dont Hinton tire maintenant la sonnette d’alarme : “Quand vous voyez quelque chose qui est techniquement agréable, vous allez de l’avant et vous le faites et vous vous disputez sur ce qu’il faut faire à ce sujet seulement après avoir eu votre succès technique.”