dim. Déc 22nd, 2024

Geoffrey Hinton l’un des pionniers de l’intelligence artificielle, à gauche Google  de pouvoir parler des dangers de l’IA sans se soucier de l’impact qu’elle a sur Google – comme il l’a écrit sur Twitter   . Google a agi de manière très responsable ».

Hinton, un chercheur britannique en réseaux neuronaux émigré au Canada, a créé en 2012 avec deux de ses étudiants de l’Université de Toronto un système qui, en analysant des milliers de photographies, est capable de reconnaître avec une extrême précision des objets tels que des fleurs ou des voitures dans les images. Quelque chose de « normal » aujourd’hui mais d’extrêmement innovant il y a dix ans, à tel point qu’autour de l’entreprise fondée par Hinton et ses deux étudiants, une vente aux enchères entre les Chinois et les Américains a été organisée. Baidu  et Google, qui s’est achevée par la cession de l’entreprise à Google pour 44 millions de dollars.

Hinton est ensuite resté au sein de Google jusqu’à il y a quelques jours. New York Times – a informé le PDG Sundar Pichai de sa décision de partir parce qu’il est trop préoccupé par les développements des systèmes d’intelligence artificielle, sur lesquels Alphabet travaille elle-même, et a publié la version « bêta » de son système. Bard  dans certains pays.

M. Hinton explique qu’il est particulièrement effrayé par les possibilités de désinformation, la suppression d’emplois et le comportement imprévisible que l’intelligence artificielle a déjà démontré qu’elle pouvait avoir. L’idée que cette machine puisse devenir plus intelligente que les gens… certains y ont cru », explique M. Hinton, « mais la plupart des gens pensaient qu’il s’agissait d’une perspective lointaine. Moi aussi, je pensais que c’était loin d’être le cas. Je pensais que c’était dans 30 à 50 ans, voire plus. Évidemment, ce n’est plus le cas aujourd’hui ».

Hinton ne figurait pas parmi les signataires de la lettre en mars dernier, dans laquelle des centaines d’experts en intelligence artificielle demandaient que les expériences soient interrompues et ne reprennent qu’après la définition de règles globales en matière d’IA. Sa position reste cependant la même : « Je ne pense pas qu’il faille augmenter encore la puissance de ces systèmes tant qu’on ne sait pas si on peut les contrôler », a-t-il expliqué.

By Nermond

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *