Le président Joe Biden est devenu plus préoccupé par l’IA après avoir regardé MISSION : IMPOSSIBLE – DEAD RECKONING PART ONE


Comme vous l’avez peut-être entendu, le président Joe Biden a récemment signé un décret établissant de nouvelles normes et mesures de sécurité en matière d’intelligence artificielle. Il s’avère que son inquiétude à l’égard de l’IA s’est accentuée après avoir regardé Tom Croisièrec’est Mission : Impossible – Dead Reckoning, première partie.

Chef de cabinet adjoint de la Maison Blanche Bruce Reed a déclaré à l’Associated Press que le président était également « impressionné et alarmé » après avoir vu « de fausses images d’IA de lui-même » et avoir été initié à « la terrifiante technologie de clonage de la voix ».

L’inquiétude de Biden concernant l’IA s’est ensuite accrue après avoir regardé Mission : Impossible – Dead Reckoning, première partie à Camp David. Reed a expliqué : « S’il ne s’était pas déjà préoccupé de ce qui pourrait mal se passer avec l’IA avant ce film, il voyait bien d’autres raisons de s’inquiéter. »

Mission : Impossible – À l’estime voit Ethan Hunt et son équipe en mission pour éliminer une IA sensible et dangereuse connue sous le nom de The Entity. Il a le pouvoir de contrôler le monde et d’orienter les choses dans une direction dangereuse.

Selon le rapport : « Biden était profondément curieux de connaître la technologie au cours des mois de réunions qui ont conduit à la rédaction de l’ordonnance. » Il a rencontré des scientifiques qui lui ont expliqué les avantages potentiels de l’IA, ainsi que ses dangers.

De nombreux films ont été réalisés au fil des ans sur les dangers de l’IA, comme celui-ci. Terminateur films, 2001 : Une odyssée de l’espace, Coureur de lame, M3GANet même le Un jeu d’enfant refaire. Il y en a d’autres, mais je suppose Mission impossible cela lui a donné l’impression d’être réel.

En ce qui concerne le décret, il sera mis en œuvre dans les 90 à 365 prochains jours, et la Maison Blanche affirme qu’il « ordonne les actions les plus radicales jamais prises pour protéger les Américains des risques potentiels des systèmes d’IA ». Cela comprend l’élaboration de normes, d’outils et de tests pour garantir la sécurité des systèmes d’IA ; et obliger les développeurs d’IA à partager leurs résultats de tests de sécurité et d’autres informations critiques avec le gouvernement américain. Il comprend des conseils sur « l’authentification du contenu et le filigrane pour étiqueter clairement le contenu généré par l’IA », afin de protéger les personnes contre la fraude induite par l’IA.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*