Mira lo que sientes: China ahora usa tecnología de “reconocimiento de emociones” para arrestar a personas

Por Ramon Tomey  /  Natural News

China ahora está utilizando tecnología especializada de “reconocimiento de emociones” para monitorear los sentimientos de las personas. Esta tecnología le permite al régimen chino criminalizar ciertas emociones y arrestar a los ciudadanos en base a estas. 

De hecho, ha comenzado a utilizar inteligencia artificial que analiza si una persona está más nerviosa de lo normal con fines de prevención de delitos, como lo menciona una publicación estatal.

El periódico estatal chino Global Times escribió en un artículo del 4 de marzo que el Partido Comunista Chino (PCCh) está aplicando la tecnología en “varios campos”, como la salud y la seguridad urbana. Agregó que los ciudadanos chinos se están acostumbrando cada vez más al uso diario de la tecnología de reconocimiento de emociones.

El periódico estatal ilustró un ejemplo de cómo la tecnología de reconocimiento de emociones puede combatir el crimen. Con la ayuda de los sistemas de preaviso de inteligencia artificial (IA) que observan a los conductores y pasajeros, los oficiales pueden monitorear a las personas que se ven extrañamente nerviosas mientras están dentro de un automóvil. Una bajada de bandera y una búsqueda posteriores revelan drogas ilegales escondidas dentro del vehículo.

Global Times comentó que la tecnología de reconocimiento de emociones en China ha logrado un uso de “alta precisión”. Según el director de EmoKit Tech Co., Ltd., Wei Qingchen, los productos basados ​​en el reconocimiento de emociones por IA pueden lograr una tasa de precisión del 70 al 95 por ciento. Su empresa se especializa en el desarrollo de productos basados ​​en su motor de reconocimiento de emociones Emokit: el motor “[combina] con precisión señales de video, audio y sensores corporales y [realiza] análisis de superposición de frecuencias múltiples”.

Wei citó un ejemplo de la precisión del motor Emokit en un entorno clínico a través de un proyecto realizado en cooperación con un renombrado hospital psiquiátrico de Beijing. El sistema de IA logró una precisión computarizada combinada del 78,8 por ciento en la identificación de la esquizofrenia, casi la misma que la del rendimiento de las pruebas clínicas. Agregó que el sistema diagnosticó la depresión con una tasa de precisión del 70 por ciento, simplemente escuchando la voz del paciente.

Global Times también señaló el uso de la tecnología de reconocimiento de emociones en el sistema penal chino en 2019, y agregó que “ha contribuido a la evaluación de riesgos de los presos en algunas prisiones regionales”. Según el profesor de sociología Ma Ai de la Universidad de Ciencias Políticas y Derecho de China , la tecnología ayuda a los funcionarios penitenciarios a evaluar si un recluso “presenta riesgos potenciales… [como] posibles problemas mentales y tendencias violentas o suicidas”. Agregó que la tecnología también puede estimar la reincidencia de los presos después de la liberación.

Ma le dijo al periódico estatal que esta “[tecnología] más avanzada del mundo” se usa en cinco o seis prisiones en China. 

El uso de tecnología de reconocimiento de emociones en prisioneros puede conducir a usos más nefastos

Un informe de diciembre de 2019 de MIT Technology Review estimó que el mercado de la tecnología de reconocimiento de emociones es de al menos $ 20 mil millones, y está creciendo rápidamente. Actualmente, la tecnología se utiliza para evaluar a las personas que solicitan un trabajo y a los sospechosos de delitos. Se están realizando más pruebas para otras aplicaciones, como en cascos de realidad virtual para conocer los estados emocionales de los jugadores.

La editora de seguridad nacional de Breitbart , Frances Martel, advirtió que China puede usar la tecnología de reconocimiento de emociones para propósitos más siniestros. Señaló específicamente que se puede incorporar a los sistemas existentes para vigilar a los uigures musulmanes en la región autónoma occidental de Xinjiang. 

El PCCh ha instalado cámaras de seguridad de alta resolución con tecnología de reconocimiento facial para monitorear los movimientos de la minoría uigur. Esto es aparte de la detención arbitraria y la esterilización forzada que se les impone, que varias naciones han condenado. 

Además de los posibles malos usos, también han surgido preocupaciones sobre la privacidad en la industria en ciernes. Algunos han expresado su incomodidad acerca de que la tecnología de inteligencia artificial capture y “lea” sus emociones. Otros también han señalado el posible abuso y fuga de información personal que posteriormente puede socavar la seguridad de las personas.

Pero varios expertos chinos han señalado que la tecnología de reconocimiento de emociones no necesita ser vilipendiada. El experto en neuromanejo de la Universidad de Ningbo , Ma Qingguo, dijo: “El derecho a la vida es un derecho humano fundamental. En algunos casos, el reconocimiento de emociones puede identificar a personas peligrosas o violentas y ayudar a prevenir sus fechorías, lo que ayuda a salvar la vida de las personas”.

Mientras tanto, Wei comentó que la computación de emociones no es una técnica malvada de “lectura de la mente”. 

Afirmó que las empresas chinas detrás de las tecnologías de reconocimiento de emociones “siguen estrictamente el principio de ‘tecnología para el bien'”. El jefe de EmoKit le dijo al Global Times que las tecnologías de reconocimiento de emociones tienen el objetivo final de “servir mejor a las personas” y “no permitir que los infractores de la ley se salgan con la suya [sus crímenes]”.

Visite Surveillance.news para obtener más información sobre la incursión del PCCh en el monitoreo de las emociones de los ciudadanos.

Las fuentes incluyen:

Breitbart.com

GlobalTimes.cn

TechnologyReview.com

Deja una respuesta

Deja un comentario