El régimen chino desarrolla una herramienta capaz de detectar delitos antes de que sucedan

Fuente: gaceta.es

Visto en: TierraPura.Org

La realidad supera a la ficción, sobre todo en China. El régimen chino está estudiando el desarrollo de una peligrosa nueva tecnología que permitiría al Estado predecir la comisión de delitos; ‘Minority Report’ en carne y hueso.

Con el uso del reconocimiento facial –en uso desde hace ya varios años en el país– y la recopilación de datos de los 1.4000 millones de ciudadanos chinos, el Estado podrá detectar, por ejemplo, dónde se encuentra una persona que tiene antecedentes penales, según ‘The New York Times.

También será posible seguir los movimientos de activistas que hayan participado en manifestaciones o de personas que sufran algún tipo de problema mental. Es decir, la herramienta china podrá detectar al instante un comportamiento sospechoso en un individuo, algo que se salga de su rutina, y avisar a las autoridades para que investiguen la posible comisión de un delito.

De acuerdo con el medio estadounidense, esta tecnología serviría para controlar no solo a potenciales criminales, sinotambién a colectivoscomo inmigrantes, minorías étnicas y personas que sufren algún tipo de trastorno mental.

Actualmente, el sistema estaría siendo desarrollado por la startup china Megvii. Su fundador y director ejecutivo, Yin Qi, explicó a medios chinos que el método «es muy neutral»: «Sería aterrador si realmente hubiera gente mirando detrás de la cámara, pero detrás hay un sistema (…) Es como el motor de búsqueda que usamos todos los días para navegar en Internet». «Así los malos no tendrán dónde esconderse«, remarcó.

Los expertos ya han reaccionado al posible uso de esta tecnología y advierten de que atenta contra la privacidad y la libertad individual de los individuos. «Se recopilan datos en los que se mezcla información del ámbito público y también en el privado (…). Atentan contra la idea básica de la libertad individual.

En el sentido de que un individuo puede haber pensado en cometer una ilegalidad, pero, llegado el momento, siempre es posible que cambie de opinión. La IA funciona con probabilidad de acuerdo a hechos pasados, pero, evidentemente, puede cometer errores«, explica el profesor de inteligencia artificial y robótica de la Universidad Internacional de La Rioja, Juan Ignacio Rouyet, al diario ABC.

Mientras China avanza a pasos agigantados en el uso de esta tecnología, vulnere o no los derechos básicos de sus ciudadanos, la Unión Europea está estudiando nuevos métodos para regular el uso de la Inteligencia Artificial.

Deja una respuesta

Deja un comentario