Escrito por John W. Whitehead y Nisha Whitehead a través del Instituto Rutherford

Visto en: ZeroHedge

“La solución gubernamental a un problema suele ser tan mala como el problema y muy a menudo empeora el problema”.

– Milton Friedman

Has sido marcado como una amenaza.

En poco tiempo, todos los hogares de Estados Unidos serán marcados de manera similar y se les asignará una puntuación de amenaza.

Sin haber cometido un delito a sabiendas o haber sido condenado por uno, es probable que usted y sus conciudadanos hayan sido evaluados por comportamientos que el gobierno podría considerar tortuosos, peligrosos o preocupantes ; asignado un puntaje de amenaza  basado en sus asociaciones, actividades y puntos de vista; y  catalogado en una base de datos del gobierno  de acuerdo con la forma en que la policía y otras agencias gubernamentales deben acercarse a usted en función de su nivel de amenaza particular.

Si no está nervioso por las ramificaciones de cómo se podría usar y abusar de un programa de este tipo, siga leyendo.

Es solo cuestión de tiempo antes de que la policía lo acuse, investigue y enfrente injustamente en función de un algoritmo basado en datos o una evaluación de riesgos recopilada por un programa informático ejecutado por inteligencia artificial.

Considere  el caso de Michael Williams , quien pasó casi un año en la cárcel por un crimen que no cometió. Williams estaba detrás del volante cuando un automóvil que pasaba disparó contra su vehículo, matando a su pasajero Safarian Herring, de 25 años, que había hecho autostop.

A pesar de que Williams no tenía un motivo, no hubo testigos presenciales del tiroteo, no se encontró ningún arma en el automóvil y el propio Williams llevó a Herring al hospital, la policía acusó al hombre de 65 años de asesinato en primer grado basado en  ShotSpotter , un programa de detección de disparos que había captado un fuerte estruendo en su red de micrófonos de vigilancia y triangulado el ruido para que se correspondiera con un video de seguridad sin ruido que mostraba el automóvil de Williams conduciendo por una intersección. El caso finalmente fue desestimado por falta de pruebas.

Aunque los programas de detección de disparos como ShotSpotter están ganando popularidad entre las fuerzas del orden, los fiscales y los tribunales por igual, están  plagados de fallas , confundiendo «contenedores de basura, camiones, motocicletas, helicópteros, fuegos artificiales, construcción, recolección de basura y campanas de iglesias… con disparos».

Como descubrió una investigación de Associated Press, “el  sistema puede pasar por alto los disparos en vivo justo debajo de sus micrófonos , o clasificar erróneamente los sonidos de los fuegos artificiales o los disparos de los autos como disparos”.

En una comunidad, ShotSpotter  funcionó menos del 50 % del tiempo .

Luego está el elemento humano de la corrupción que invariablemente se agrega a la mezcla. En algunos casos, “los empleados han  cambiado los sonidos que  detecta el sistema para decir que son disparos”. Los informes forenses preparados por los empleados de ShotSpotter también “se han utilizado en los tribunales para  afirmar indebidamente que un acusado disparó a la policía , o proporcionar recuentos cuestionables de la cantidad de disparos que supuestamente hicieron los acusados”.

La misma empresa propietaria de ShotSpotter también posee  un programa policial predictivo que tiene como objetivo utilizar los datos de detección de disparos para «predecir» el crimen antes de que suceda . Tanto los presidentes Biden como Trump han presionado para un mayor uso de estos programas predictivos para combatir la violencia armada en las comunidades, a pesar de que se descubrió que no reducen la violencia armada o aumentan la seguridad de la comunidad.

La lógica detrás de esta fusión de vigilancia generalizada, tecnologías de predicción del comportamiento, minería de datos, tecnología precognitiva y programas de soplones de vecindarios y familias supuestamente permite que el gobierno tome  medidas preventivas  para combatir el crimen (o cualquier cosa que el gobierno haya decidido prohibir en un momento dado). ).

Esto es precrimen, sacado directamente del ámbito de las películas de ciencia ficción distópicas como  Minority Report , cuyo objetivo es prevenir los delitos antes de que sucedan, pero de hecho, es solo otro medio de poner a la ciudadanía en la mira del gobierno para bloquear el nación.

Incluso los Servicios Sociales están entrando en acción, con  algoritmos informáticos que intentan predecir qué hogares podrían ser culpables de abuso  y negligencia infantil.

Todo lo que se necesita es un bot de IA que marque un hogar por  negligencia potencial  para que una familia sea investigada, declarada culpable y los niños colocados en hogares de guarda.

Eso sí,  la negligencia potencial  puede incluir todo, desde una vivienda inadecuada hasta una higiene deficiente, pero es diferente del abuso físico o sexual.

Según un informe de investigación de Associated Press, una vez que los incidentes de  negligencia potencial  se informan a una línea directa de protección infantil, los informes pasan por un proceso de selección que reúne «datos personales recopilados desde el nacimiento, Medicaid, abuso de sustancias, salud mental, cárcel». y registros de libertad condicional, entre otros conjuntos de datos gubernamentales”. Luego, el algoritmo calcula el riesgo potencial del niño y asigna una puntuación de 1 a 20 para predecir  el riesgo de que un niño sea colocado en un hogar de acogida en los dos años posteriores a la investigación . “Cuanto mayor sea el número, mayor será el riesgo. Los trabajadores sociales luego usan su discreción para decidir si investigar ”.

Otros modelos predictivos que se utilizan en todo el país se esfuerzan por “ evaluar el riesgo de muerte y lesiones graves de un niño , si los niños deben ser colocados en hogares de guarda y, de ser así, dónde”.

Increíblemente, no hay forma de que una familia sepa si la tecnología predictiva de IA fue responsable de que fueran atacados, investigados y separados de sus hijos. Como señala AP, «las familias y sus abogados tampoco pueden estar seguros del papel del algoritmo en sus vidas porque  no se les permite conocer los puntajes «.

Sin embargo, una cosa que sí sabemos es que el  sistema se enfoca desproporcionadamente en las familias negras pobres para intervención , interrupción y posible desplazamiento, porque gran parte de los datos que se utilizan provienen de comunidades minoritarias y de bajos ingresos.

La tecnología también está lejos de ser infalible. Solo en un condado, una falla técnica  presentó a los trabajadores sociales con puntajes incorrectos , ya sea subestimando o sobreestimando el riesgo de un niño.

Sin embargo, falible o no, el programa de detección predictiva de IA está siendo utilizado ampliamente en todo el país por agencias gubernamentales para vigilar y seleccionar familias para su investigación. Las consecuencias de esta sobrevigilancia, según Aysha Schomburg, comisionada asociada de la Oficina de la Infancia de EE. UU., es la » separación masiva de familias «.

El impacto de este tipo de herramientas predictivas de IA se siente en casi todas las áreas de la vida.

Con el pretexto de ayudar a las agencias gubernamentales abrumadas a trabajar de manera más eficiente, las tecnologías de vigilancia y predicción de IA se utilizan para clasificar, segregar y marcar a la población sin preocuparse por los derechos de privacidad o el debido proceso.

Toda esta clasificación, tamizado y cálculo se realiza de forma rápida, secreta e incesante con la  ayuda de la tecnología de inteligencia artificial y un estado de vigilancia  que monitorea cada uno de tus movimientos.

Donde esto se vuelve particularmente peligroso es cuando el gobierno toma medidas preventivas para combatir el crimen o el abuso, o cualquier cosa que el gobierno haya decidido prohibir en un momento dado.

De esta manera, los agentes del gobierno, con la ayuda de ojos y oídos automatizados, un creciente arsenal de software, hardware y técnicas de alta tecnología, propaganda del gobierno que insta a los estadounidenses a convertirse en espías y soplones, así como redes sociales y software de detección de comportamiento. están tejiendo una telaraña pegajosa de evaluaciones de amenazas, advertencias de detección de comportamiento, «palabras» marcadas e informes de actividades «sospechosas» destinados a atrapar a los enemigos potenciales del estado.

¿Es usted un veterano militar que sufre de trastorno de estrés postraumático? ¿Ha expresado puntos de vista controvertidos, abatidos o enojados en las redes sociales? ¿Te asocias con personas que tienen antecedentes penales o suscribes teorías de conspiración? ¿Te vieron enojado en la tienda de comestibles? ¿Tu apariencia es descuidada en público? ¿Tu conducción ha sido errática? ¿Los ocupantes anteriores de su casa tuvieron algún encontronazo con la policía?

Todos estos detalles y más están siendo utilizados por la tecnología de inteligencia artificial para crear un perfil suyo que afectará sus tratos con el gobierno.

Es el estado policial estadounidense combinado en un paquete opresivo previo al crimen y al crimen previo, y el resultado final es la muerte del debido proceso.

En pocas palabras, el debido proceso pretendía ser un baluarte contra los abusos del gobierno. El debido proceso prohíbe al gobierno privar a cualquier persona de “Vida, Libertad y Propiedad” sin antes asegurarse de que los derechos de una persona hayan sido reconocidos y respetados y que se le haya dado la oportunidad de conocer los cargos en su contra y defenderse de esos cargos.

Con la llegada de  los programas policiales predictivos de IA financiados por el gobierno  que vigilan y señalan a alguien como una amenaza potencial para ser investigado y tratado como peligroso, no puede haber garantía de debido proceso: ya se ha convertido en sospechoso.

Para desenredarse de las consecuencias de tal evaluación de amenazas, la carga de la prueba recae sobre usted para demostrar su inocencia.

¿Ves el problema?

Antes, toda persona tenía derecho a ser considerada inocente hasta que se probara su culpabilidad, y la carga de la prueba recaía en los acusadores. Desde entonces, esa suposición de inocencia ha sido puesta de cabeza por un estado de vigilancia que nos convierte a todos en sospechosos y una sobrecriminalización que nos hace a todos potencialmente culpables de una u otra fechoría.

Combine la tecnología de inteligencia artificial predictiva con la vigilancia y la sobrecriminalización, luego agregue policías militarizados que atraviesan puertas en medio de la noche para cumplir una orden de arresto de rutina, y tendrá suerte de escapar con vida.

Sin embargo, tenga cuidado: una vez que lo enganche una cámara de vigilancia, lo marque un programa de detección predictiva de IA y lo coloque en una lista de vigilancia del gobierno, ya sea una lista de vigilancia por negligencia infantil, una lista de vigilancia de salud mental, una lista de vigilancia de disidentes, una lista de vigilancia de terroristas, o una lista de vigilancia de armas de bandera roja: no hay una forma clara de salir, ya sea que deba o no estar allí.

Será rastreado donde quiera que vaya, marcado como una amenaza potencial y tratado en consecuencia.

Si aún no tienes miedo, deberías estarlo.

Hemos hecho que sea demasiado fácil para el gobierno identificar, etiquetar, apuntar, desactivar y detener a cualquier persona que considere una amenaza potencial por una variedad de razones que van desde enfermedades mentales hasta tener antecedentes militares y desafiar su autoridad para simplemente estar en la lista del gobierno de persona non grata.

Como aclaro en mi libro  Battlefield America: The War on the American People  y en su homólogo ficticio  The Erik Blair Diaries , ni siquiera es necesario ser un disidente para que el gobierno lo señale por vigilancia, censura y detención.

Todo lo que realmente necesita ser es un ciudadano del estado policial estadounidense.

Deja una respuesta

1 comentario

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *