Noticias sobre salud y tecnología en Colombia y el mundo

Encuentre todo sobre el panorama actual sobre salud y tecnología.

Monday, 30 July 2018 09:15

'Mirror analyzes' el software que evalúa la personalidad para mostrar los peligros de la I.A.

Escrito por Heon Health On line
Valora este artículo
(0 votos)

Un nuevo sistema de inteligencia artificial detecta y muestra los rasgos de personalidad de las personas a partir de una sola foto de su rostro.

El sistema, llamado Biometric Mirror (Espejo biométrico), investiga la comprensión que una persona tiene sobre temas como la sexualidad, el consumo de licor entre otros y su respuesta a la información sobre sus rasgos únicos, que pueden ser correctos o no.

Cuando alguien se para frente a este espejo biométrico, el sistema detecta una serie de características faciales en segundos. Luego compara los datos del usuario con los de miles de fotos faciales, las cuales fueron evaluadas por un grupo de respondedores de la multitud para su psicometría.

Espejo biométrico muestra 14 características, desde el género, la edad y el origen étnico hasta el atractivo, la rareza y la estabilidad emocional. Cuanto más tiempo permanece una persona allí, más personales se vuelven los rasgos.

Biometric Mirror no es una herramienta para el análisis psicológico, sino que tiene como objetivo provocar preguntas desafiantes sobre los límites del ser humano. El objetivo es mostrar a los usuarios lo fácil que es implementar la Inteligencia Artificial (IA) que discrimina de manera poco ética o problemática.

Niels Wouters y el profesor Frank Vetere de la Universidad de Melbourne, creadores del espejo, explican la razón de ser de su proyecto y por qué este análisis de las posibilidades de la IA es tan importante:

En 2002, el thriller de ciencia ficción Minority Report  dio una visión ficticia de la vida en 2054. Inicialmente, la película evoca una sociedad utópica perfecta donde la inteligencia artificial (IA) se mezcla con tecnología de vigilancia para el bienestar de la humanidad.

La IA supuestamente previene el crimen usando las predicciones de tres precognitivos - estos psíquicos visualizan los asesinatos antes de que ocurran y la policía actúa basándose en la información.

"Los precogs nunca se equivocan. Pero ocasionalmente, no están de acuerdo". Eso dice el científico principal de la película y estos desacuerdos resultan en informes de minorías; relatos de futuros alternativos, a menudo donde el crimen no ocurre realmente. Pero estos informes se eliminan convenientemente y, a medida que se desarrolla la historia, se ponen en juego vidas inocentes.

En última instancia, la película nos muestra un futuro en el que las predicciones son intrínsecamente poco fiables e ineficaces y que vale la pena tener en cuenta a medida que luchamos con los avances en curso en la inteligencia artificial.

También le puede interesar:Las lámparas de lava pueden proteger su información de caer en manos de un hackerLas lámparas de lava pueden proteger su información de caer en manos de un hacker.

Minority Report puede ser ficción, pero la tecnología de la IA en rápida evolución no lo es. Y aunque no hay psíquicos involucrados en el mundo real, la película destaca un desafío clave para la IA y los algoritmos: ¿qué pasa si producen resultados falsos o dudosos? ¿Y si estos resultados tienen consecuencias irreversibles?

Las autoridades industriales y gubernamentales ya mantienen y analizan grandes colecciones de conjuntos de datos interrelacionados que contienen información personal.

Por ejemplo, las compañías de seguros recopilan datos de salud y hacen un seguimiento de las conductas de conducción para personalizar las tarifas de los seguros. Las fuerzas del orden utilizan las fotos de las licencias de conducir para identificar a los delincuentes y a los presuntos delincuentes, y los centros comerciales analizan los rasgos faciales de las personas para orientar mejor la publicidad.

Si bien la recopilación de información personal para adaptar un servicio individual puede parecer inofensiva, estos conjuntos de datos suelen analizarse mediante algoritmos de "caja negra", en los que la lógica y la justificación de las predicciones son opacas. Además, es muy difícil saber si una predicción se basa en datos incorrectos o en datos que han sido recolectados ilegalmente o sin ética, o en datos que contienen suposiciones erróneas.

¿Qué pasa si una cámara de tráfico detecta incorrectamente su exceso de velocidad y automáticamente activa una cancelación de licencia? ¿Y si una cámara de vigilancia confunde un apretón de manos con un negocio de drogas? ¿Qué pasa si un algoritmo asume que eres similar a un criminal buscado? E imagine no tener control sobre un algoritmo que erróneamente decide que usted no es elegible para un título universitario.

Incluso si los datos subyacentes son exactos, la opacidad de los procesos de IA dificulta la corrección del sesgo algorítmico, como ocurre en algunos sistemas de IA sexistas, racistas o discriminatorios contra los pobres.

¿Cómo se puede apelar contra las malas decisiones si los datos subyacentes o la justificación de la decisión no están disponibles?

Una respuesta es crear IA explicable, que es parte de un programa de investigación en curso dirigido por el profesor asociado de la Universidad de Melbourne Tim Miller, donde la justificación subyacente de una decisión de IA se explica de una manera que puede ser fácilmente entendida por todos.

Otra respuesta es crear interfaces humano-computadora que sean abiertas y transparentes sobre las suposiciones hechas por la IA. Las representaciones claras, abiertas y transparentes de las capacidades de IA pueden contribuir a una discusión más amplia de sus posibles impactos sociales y a un debate más informado sobre las implicaciones éticas de las tecnologías de rastreo humano.

¿Cómo funciona el "espejo"?

Biometric Mirror es una aplicación interactiva que toma la foto de las personas y las analiza para identificar sus características demográficas y de personalidad. Estos incluyen rasgos como su nivel de atractivo, agresividad, estabilidad emocional e incluso su "rareza".

La IA utiliza un conjunto de datos abierto de miles de imágenes faciales y evaluaciones de fuentes multitudinarias, en las que un gran grupo de personas ha valorado previamente los rasgos de personalidad percibidos para cada uno de esos rostros. La IA utiliza este conjunto de datos para comparar su foto con el conjunto de datos de fuentes múltiples.

Biometric Mirror evalúa y muestra sus rasgos de personalidad individuales. Uno de sus rasgos es entonces elegido -digamos, su nivel de responsabilidad- y Biometric Mirror le pide que imagine que esta información está siendo compartida con alguien, como su aseguradora o futuro empleador.

Cada vez más, la IA está siendo usada por empresas de diferentes partes del mundo para tomar decisiones en todo tipo de temas. 

Privacidad y vigilancia masiva

A pesar de su apariencia, Biometric Mirror no es una herramienta para el análisis psicológico, sólo calcula la percepción pública estimada de los rasgos de personalidad basados en la apariencia facial. Por lo tanto, no sería apropiado sacar conclusiones significativas sobre los estados psicológicos.

Es una herramienta de investigación que nos ayuda a entender cómo cambian las actitudes de las personas a medida que se revelan más datos, mientras que una serie de entrevistas a los participantes van más allá para revelar las preocupaciones éticas, sociales y culturales de las personas.

La discusión sobre el uso ético de la IA está en curso, pero hay una necesidad urgente de que el público participe en el debate sobre estos temas. Nuestro estudio apunta a provocar preguntas desafiantes sobre los límites de la IA. Al fomentar el debate sobre la privacidad y la vigilancia masiva, este debate contribuirá a una mejor comprensión de la ética que subyace a la IA.

Aunque Minority Report es sólo una película, aquí en el mundo real, Biometric Mirror pretende concienciar sobre las implicaciones sociales de una IA sin restricciones, para que un futuro distópico ficticio no se convierta en una oscura realidad.

 

Visto 1380 veces Modificado por última vez en Tuesday, 31 July 2018 11:47