• Disiz Yyov
  • Posts
  • Cette intelligence artificielle fait des dizaines de milliers de morts

Cette intelligence artificielle fait des dizaines de milliers de morts

Et personne n'en parle. Je t'explique tout :

Aujourd’hui, je vous parlerai de cette intelligence artificielle qui a fait des dizaines de milliers de morts et qui continue d’en faire chaque jour.

Tu dois te dire… Comment ça l’intelligence artificielle tue ?

Je te donne un indice : Israël & Gaza

Tu l’as bien compris, je te parle de l’intelligence artificielle utilisée pour la guerre, pour les massacres et pour les bombardements.

Mais tu n’es sûrement pas au courant que ce qui est en train de se produire aujourd’hui…

Je t’explique tout et on commence avec le contexte :

Ce livre parle de la conception d’une machine capable de : Traiter rapidement d’énormes quantités de données pour générer des milliers de « cibles » potentielles pour des frappes militaires pendant la guerre.

Le but de cette machine ? Résoudre le problème pour localiser de nouvelles cibles et pour prendre la décision de les approuver pendant l'effort de guerre

En gros : avoir + de cibles et donc + de victimes dans les bombardements

3 ans plus tard, cette machine existe, développée par l'armée israélienne

Et elle est là, sous nos yeux et invisible, pendant qu’Israël frappe sur Gaza...

Et selon ces services de renseignement, Lavender a concentré le rôle le plus important lors des bombardements

C'est-à-dire que la majorité des opérations militaires qui ont eu lieu étaient dictées par l'intelligence artificielle. Des décisions prises à partir des analyses de la machine, appliquées à la lettre comme s'il s'agissait de décisions humaines.

De base, Lavender est conçu pour marquer tous les membres présumés des branches militaires du Hamas et du Djihad islamique palestinien comme cibles potentielles de bombardement.

Le pire dans cette utilisation, c'est qu'on ne prend même pas la peine d'analyser les cibles pointées par l'IA : On vérifie juste que c'est un humain et on bombarde.

Les bombardements sur ces cibles n'étaient pas faits pendant le jour, pendant les activités militaires 'classiques' mais... pendant la nuit, dans le domicile des cibles, lorsqu'elles étaient réunies en famille. Parfois même alors que la cible n’était pas chez elle.

Et à ce moment, on remarque que Lavender n'est pas le seul système IA utilisé. Il y a aussi 'Where's daddy', un outil IA qui traque les victimes, génère des listes et cible les familles chez elles.

On pensait tous que l'intelligence artificielle pour la guerre était encore loin devant nous et pourtant, on y est déjà. C'est déjà incontrôlable et ici, personne n'en parle.

Et puis, c'est pas tout.

En plus de ces deux machines qui tuent, il y a aussi 'The Gospel' : ce système est spécialisé pour cibler les bâtiments quand Lavender écrit la liste des victimes...

Et ne croyez pas que les missiles étaient bien ciblés Evidemment, il y a eu de gros dégâts... Les bombes utilisées étaient des "dumb bombs" en opposition aux bombes de précision (plus coûteuses et plus rares).

C'est-à-dire que ces bombes ne sont pas guidées, alors elles tombent un peu n'importe où et causent ce qu'ils appellent des "dommages collatéraux".

On parle quand même de dizaines de milliers de civils et de familles entières...

Rappellez-vous du livre dont je vous ai parlé au tout début de ce thread.

Il y est décrit absolument tout le processus pour créer Lavender avec des apprentissages automatiques et des systèmes de notation (de 1 à 100) pour qualifier une personne susceptible d'être militant.

Sauf qu'une machine reste...une machine. Elle ne sait pas faire la différence entre ce qu'ils qualifient de "membre du Hamas" ou non.

Et c'est là qu'on se retrouve avec des dizaines et des dizaines de milliers de familles détruites.

Le but étant d'avoir toujours plus de cibles, civils ou non. Il y aurait tellement d'autres choses à écrire sur le sujet. Rien que pour chaque système d'IA utilisé, on pourrait en écrire un livre.

Mais je vous délivre au moins ces quelques points pour que vous soyez au courant que c'est déjà fait : l'IA n'est pas utilisée que pour le bien, c'est une arme, une bombe à retardement

Comme d'habitude, quand la technologie se trouve entre de mauvaises mains, ça donne ça.

Que pensez-vous de la newsletter d'aujourd'hui ?

Connexion ou S'abonner pour participer aux sondages.

Reply

or to participate.