Tellement vrai, et cette dictature AVEUGLE des algorithmes est déjà présente en France à Pôle Emploi, alors avec le passeport numérique européen, voilà ce qui NOUS attend.... et vraisemblablement VOUS le savez...
Ils ont du sang sur les mains ! C’est à nous les citoyens d’aller les chercher et dire STOP pic.twitter.com/RvAJaWMY6y
— Mimi (@MyriamFournie10) May 11, 2022
Amitiés,
f.
Par John W. Whitehead et Nisha Whitehead
"La solution gouvernementale à un problème est généralement aussi mauvaise que le problème et, très souvent, elle aggrave le problème." Milton Friedman
Vous avez été signalé comme une menace.
D'ici peu, tous les ménages américains seront marqués de la même façon et se verront attribuer un score de menace.
Sans avoir jamais commis de crime en connaissance de cause ni avoir été condamnés, vous et vos concitoyens avez probablement été évalués pour des comportements que le gouvernement pourrait considérer comme sournois, dangereux ou inquiétants ; on vous a attribué un score de menace en fonction de vos associations, de vos activités et de vos points de vue ; et vous avez été catalogués dans une base de données gouvernementale en fonction de la manière dont la police et d'autres agences gouvernementales devraient vous approcher en fonction de votre niveau de menace particulier.
Si les ramifications de l'utilisation et de l'abus d'un tel programme ne vous inquiètent pas, continuez à lire.
Ce n'est qu'une question de temps avant que vous ne soyez accusé à tort, que vous ne fassiez l'objet d'une enquête et que vous ne soyez confronté à la police sur la base d'un algorithme fondé sur des données ou d'une évaluation des risques élaborée par un programme informatique géré par une intelligence artificielle.
Prenons le cas de Michael Williams, qui a passé près d'un an en prison pour un crime qu'il n'a pas commis. Williams était au volant lorsqu'une voiture qui passait a tiré sur son véhicule, tuant son passager de 25 ans, Safarian Herring, qui avait fait du stop.
Malgré le fait que Williams n'avait aucun mobile, qu'il n'y avait aucun témoin oculaire de la fusillade, qu'aucune arme n'a été trouvée dans la voiture et que Williams lui-même a conduit Herring à l'hôpital, la police a accusé l'homme de 65 ans de meurtre au premier degré en se basant sur ShotSpotter, un programme de détection de coups de feu qui avait capté une forte détonation sur son réseau de microphones de surveillance et triangulé le bruit pour qu'il corresponde à une vidéo de sécurité silencieuse montrant la voiture de Williams traversant une intersection. L'affaire a finalement été rejetée pour manque de preuves.
Bien que les programmes de détection de coups de feu comme ShotSpotter gagnent en popularité auprès des forces de l'ordre, des procureurs et des tribunaux, ils sont truffés de défauts, confondant "les bennes à ordures, les camions, les motos, les hélicoptères, les feux d'artifice, les travaux de construction, le ramassage des ordures et les cloches d'église... avec des coups de feu.
Comme l'a constaté une enquête de l'Associated Press, "le système peut manquer des tirs en direct juste sous ses microphones, ou classer à tort les bruits de feux d'artifice ou de voitures pétaradantes comme des coups de feu".
Dans une communauté, le ShotSpotter a fonctionné moins de 50% du temps.
Ensuite, il y a l'élément humain de la corruption qui s'ajoute invariablement au mélange. Dans certains cas, "des employés ont modifié les sons détectés par le système pour dire qu'il s'agit de coups de feu". Les rapports médico-légaux préparés par les employés de ShotSpotter ont également "été utilisés au tribunal pour affirmer à tort qu'un accusé a tiré sur la police, ou fournir un décompte douteux du nombre de coups de feu prétendument tirés par les accusés".
La même société qui possède ShotSpotter possède également un programme de police prédictive qui vise à utiliser les données de détection des coups de feu pour "prédire" les crimes avant qu'ils ne se produisent. Les présidents Biden et Trump ont tout deux poussé à une plus grande utilisation de ces programmes prédictifs pour lutter contre la violence armée dans les communautés, malgré le fait qu'il n'a pas été constaté qu'ils réduisaient la violence armée ou augmentaient la sécurité des communautés.
La raison d'être de cette fusion de la surveillance généralisée, des technologies de prédiction du comportement, de l'exploration des données, de la technologie précognitive et des programmes de dénonciation des quartiers et des familles est censée permettre au gouvernement de prendre des mesures préventives pour combattre la criminalité (ou tout ce que le gouvernement a choisi d'interdire à un moment donné).
Il s'agit de la précriminalité, tout droit sortie du royaume des films de science-fiction dystopiques tels que Minority Report, qui vise à prévenir les crimes avant qu'ils ne se produisent, mais en fait, ce n'est qu'un autre moyen de placer les citoyens dans le collimateur du gouvernement afin de verrouiller la nation.
Même les services sociaux s'y mettent, avec des algorithmes informatiques qui tentent de prédire quels ménages pourraient être coupables d'abus et de négligence envers les enfants.
Il suffit qu'un robot IA signale un foyer pour négligence potentielle pour qu'une famille fasse l'objet d'une enquête, soit reconnue coupable et que les enfants soient placés en famille d'accueil.
Il faut savoir que la négligence potentielle peut aller d'un logement inadéquat à une mauvaise hygiène, mais qu'elle est différente des abus physiques ou sexuels.
Selon un rapport d'enquête de l'Associated Press, une fois que des incidents de négligence potentielle sont signalés à une ligne téléphonique de protection de l'enfance, les rapports sont soumis à un processus de filtrage qui rassemble "des données personnelles recueillies à partir des dossiers de naissance, de Medicaid, de toxicomanie, de santé mentale, de prison et de probation, entre autres ensembles de données gouvernementales". L'algorithme calcule ensuite le risque potentiel de l'enfant et lui attribue un score de 1 à 20 pour prédire le risque qu'un enfant soit placé en famille d'accueil dans les deux années suivant l'enquête. "Plus le chiffre est élevé, plus le risque est grand. Les travailleurs sociaux utilisent alors leur pouvoir discrétionnaire pour décider d'enquêter ou non."
D'autres modèles prédictifs utilisés dans tout le pays s'efforcent "d'évaluer le risque de décès et de blessures graves d'un enfant, de déterminer si les enfants doivent être placés en famille d'accueil et, si oui, où."
Aussi incroyable que cela puisse paraître, il n'y a aucun moyen pour une famille de savoir si la technologie prédictive de l'IA est responsable du fait qu'elle ait été ciblée, enquêtée et séparée de ses enfants. Comme le note l'AP, "les familles et leurs avocats ne peuvent jamais être sûrs du rôle de l'algorithme dans leur vie, car ils ne sont pas autorisés à connaître les scores".
Une chose que nous savons, cependant, c'est que le système cible de manière disproportionnée les familles pauvres et noires pour une intervention, une perturbation et éventuellement un déplacement, parce que la plupart des données utilisées sont glanées dans les communautés à faible revenu et minoritaires.
La technologie est également loin d'être infaillible. Dans un seul comté, un problème technique a présenté aux travailleurs sociaux des scores erronés, sous-estimant ou surestimant le risque d'un enfant.
Pourtant, faillible ou non, le programme de dépistage prédictif de l'IA est largement utilisé dans tout le pays par les agences gouvernementales pour surveiller et cibler les familles à enquêter. Les retombées de cette surveillance excessive, selon Aysha Schomburg, commissaire adjointe du Bureau des enfants des États-Unis, sont des "séparations familiales massives".
L'impact de ce type d'outils prédictifs d'IA se fait sentir dans presque tous les domaines de la vie.
Sous le prétexte d'aider les agences gouvernementales débordées à travailler plus efficacement, les technologies prédictives et de surveillance de l'IA sont utilisées pour classer, séparer et signaler la population sans se soucier du droit à la vie privée ou de la procédure régulière.
Tous ces tris, tamisages et calculs sont effectués rapidement, secrètement et sans cesse à l'aide de la technologie de l'IA et d'un État de surveillance qui surveille chacun de vos mouvements.
Cela devient particulièrement dangereux lorsque le gouvernement prend des mesures préventives pour lutter contre la criminalité ou les abus, ou tout ce qu'il a choisi de proscrire à un moment donné.
Ainsi, les agents du gouvernement - avec l'aide d'yeux et d'oreilles automatisés, d'un arsenal croissant de logiciels, de matériel et de techniques de haute technologie, de la propagande gouvernementale incitant les Américains à devenir des espions et des mouchards, ainsi que des médias sociaux et des logiciels de détection du comportement - tissent une toile d'araignée collante d'évaluations de menaces, d'avertissements de détection du comportement, de "mots" marqués et de rapports d'activités "suspectes" visant à piéger les ennemis potentiels de l'État.
Êtes-vous un vétéran de l'armée souffrant du syndrome de stress post-traumatique ? Avez-vous exprimé des opinions controversées, découragées ou en colère sur les médias sociaux ? Fréquentez-vous des personnes ayant un casier judiciaire ou adhérant à des théories du complot ? Vous a-t-on vu avoir l'air en colère à l'épicerie ? Votre apparence est-elle négligée en public ? Votre conduite est-elle irrégulière ? Les précédents occupants de votre maison ont-ils eu des démêlés avec la police ?
Tous ces détails et bien d'autres sont utilisés par la technologie de l'IA pour créer un profil de vous qui aura un impact sur vos relations avec le gouvernement.
C'est l'État policier américain réuni en un seul ensemble oppressant de pré-crime et de crime pré-pensé, et le résultat final est la mort de la procédure régulière.
En un mot, la procédure régulière a été conçue comme un rempart contre les abus du gouvernement. L'application régulière de la loi interdit au gouvernement de priver quiconque de "vie, liberté et propriété" sans s'assurer au préalable que les droits d'une personne ont été reconnus et respectés et qu'elle a eu l'occasion de connaître les accusations portées contre elle et de se défendre contre ces accusations.
Avec l'avènement des programmes de police prédictive IA financés par le gouvernement, qui surveillent et signalent une personne comme une menace potentielle devant faire l'objet d'une enquête et être traitée comme dangereuse, il ne peut y avoir aucune garantie de procédure régulière : vous avez déjà été transformé en suspect.
Pour vous dégager des retombées d'une telle évaluation de la menace, la charge de la preuve vous incombe de prouver votre innocence.
Vous voyez le problème ?
Autrefois, toute personne avait le droit d'être présumée innocente jusqu'à preuve du contraire, et la charge de la preuve incombait à ses accusateurs. Cette présomption d'innocence a depuis été renversée par un État de surveillance qui nous rend tous suspects et une surcriminalisation qui nous rend tous potentiellement coupables d'un méfait ou d'un autre.
Combinez la technologie de l'IA prédictive avec la surveillance et la surcriminalisation, puis ajoutez une police militarisée qui s'introduit dans les portes au milieu de la nuit pour délivrer un mandat de routine, et vous aurez de la chance de vous en sortir vivant.
Mais attention : une fois que vous êtes repéré par une caméra de surveillance, signalé par un programme de dépistage prédictif de l'IA et placé sur une liste de surveillance gouvernementale - qu'il s'agisse d'une liste de surveillance pour négligence envers les enfants, d'une liste de surveillance de la santé mentale, d'une liste de surveillance des dissidents, d'une liste de surveillance des terroristes ou d'une liste de surveillance des armes à feu avec signal rouge - il n'y a pas de moyen clair d'en sortir, que vous deviez ou non y figurer.
Vous serez suivi partout où vous irez, signalé comme une menace potentielle et traité en conséquence.
Si vous n'avez pas encore peur, vous devriez avoir peur.
Nous avons fait en sorte qu'il soit trop facile pour le gouvernement d'identifier, d'étiqueter, de cibler, de désamorcer et de détenir toute personne qu'il considère comme une menace potentielle pour toute une série de raisons qui vont de la maladie mentale au fait d'avoir un passé militaire, en passant par le fait de contester son autorité ou simplement d'être sur la liste des persona non grata du gouvernement.
Comme je l'explique clairement dans mon livre Battlefield America : The War on the American People et dans son pendant fictif The Erik Blair Diaries, il n'est même pas nécessaire d'être un dissident pour être signalé par le gouvernement aux fins de surveillance, de censure et de détention.
Il suffit d'être un citoyen de l'État policier américain.
À PROPOS DE JOHN W. WHITEHEAD
John W. Whitehead, avocat spécialiste des questions constitutionnelles et auteur, est le fondateur et le président du Rutherford Institute. Ses livres Battlefield America : The War on the American People et A Government of Wolves : The Emerging American Police State sont disponibles sur www.amazon.com. Il peut être contacté à l'adresse
Directives de publication / Autorisation de réimpression
Les commentaires hebdomadaires de John W. Whitehead peuvent être publiés gratuitement dans les journaux et sur le Web. Veuillez contacter
Source : Activistpost.com
Informations complémentaires :
Crashdebug.fr : Le « big data » ou la recette secrète du succès d'Emmanuel Macron ?
Terms & Conditions
Subscribe
Report
My comments