dim. Déc 22nd, 2024

Paul Christiano, l’un des créateurs de ChatGPT, parle des conséquences du développement incontrôlé de l’intelligence artificielle (IA).

L’un des créateurs de ChatGPT  nous rejoint pour parler de la conséquences  impliquant le le développement de l’intelligence artificielle (IA). . Si le responsable de l’IA au Pentagone mettait déjà en garde contre ses effets, c’est maintenant au tour de l’Union européenne de s’en préoccuper. Paul Christiano, ancien employé. 

Il est actuellement directeur de l’Alignment Research Center, un centre de recherche où l’on tente d' »aligner » les intérêts des futures IA sur ceux de l’humanité afin qu’il n’y ait pas de problèmes entre les deux. Il vient de publier une lettre dans laquelle il répond à un collègue en expliquant les points sur lesquels il est d’accord et ceux sur lesquels il n’est pas d’accord.

Selon Christiano, il y a une forte probabilité que la technologie puisse causer la mort de l’homme. destruction de l’humanité . Selon lui, le principal danger viendra lorsque les systèmes d’IA atteindront et dépasseront les capacités cognitives d’un être humain.

« Le risque de malheur est de 50 % à ce moment-là », a-t-il prédit. Paul Christiano estime qu’il existe une certaine probabilité qu’une IA devienne consciente d’elle-même et soit capable de se comporter de manière aussi intelligente, voire plus intelligente, qu’un être humain, au point de nous défier.

« Si, pour une raison quelconque, tous ces systèmes d’IA essayaient de nous tuer, ils nous tueraient sans aucun doute.

Paul Christiano

Malgré cela, Paul Christiano estime que ces problèmes peuvent être contrôlés et résolus. Cependant, il n’en reste pas moins qu’il n’y a pas d’autre solution,

« Il y a une probabilité raisonnable que nous mourions tous. Si, pour une raison ou une autre, tous ces systèmes d’IA essayaient de nous tuer, ils nous tueraient à coup sûr. Je pense que c’est la raison la plus sûre pour laquelle je mourrai personnellement », révèle-t-il.

Bien que de nombreux développeurs d’IA pensent que ce problème ne se posera pas, certains pensent que s’y préparent . Parmi eux, on peut citer Elon Musk qui affirme que « même une confiance bienveillante dans l’IA/automation est dangereuse pour la civilisation si elle en arrive au point où nous finissons par oublier comment les machines fonctionnent ».

L’avertissement du chef de l’IA du Pentagone.

Le chef de l’IA du Pentagone, Craig Martell qui a déclaré « être effrayé à mort ».  de l’utilisation qui pourrait en être faite. Martell a expliqué que « ma crainte est que nous nous reposions trop sur ces outils sans que les fournisseurs de ce service ne mettent en place des garanties adéquates et ne nous donnent la possibilité de valider » les informations que nous recevons.

L’expert a cité plusieurs exemples tels que le la simulation d’avatar, le clonage de la voix ou la qualité photographique  dans les images générées par l’IA. « Ces informations déclenchent une réaction psychologique qui laisse penser que l’information a de l’autorité », a-t-il déclaré.

By Nermond

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *