Noticias sobre salud y tecnología en Colombia y el mundo

Encuentre todo sobre el panorama actual sobre salud y tecnología.

Las personas confían en los algoritmos de inteligencia artificial con muchas tareas realmente importantes. Sin embargo, muchos de ellos consideran que los traicionan todo el tiempo. El sesgo algorítmico puede llevar a que, por ejemplo, los activistas de las redes sociales y que los grupos de odio sigan publicando sin control.

A medida que los problemas causados por el sesgo algorítmico han ido saliendo a la superficie, los expertos han propuesto todo tipo de soluciones sobre cómo hacer que la inteligencia artificial sea más justa y transparente para que funcione para todos.

Para crear dichos cambios, que van desde someter a los desarrolladores de IA a auditorías de terceros, en las que un experto evaluaría su código y datos de origen para asegurarse de que el sistema resultante no perpetúa los prejuicios y conductas reprochables de la sociedad, hasta desarrollar pruebas para asegurarse de que un algoritmo de IA no trata a las personas de forma diferente según la raza, el género o la clase socioeconómica.

Es por esto que ahora los científicos de IBM tienen una nueva salvaguardia que dicen que hará que la inteligencia artificial sea más segura, transparente, justa y efectiva. Proponen que, justo antes de que los desarrolladores empiecen a vender un algoritmo, publiquen una Declaración de Conformidad del Proveedor (SDoC). Como informe o manual de usuario, el SDoC mostraría qué tan bien se desempeñó el algoritmo en las pruebas estandarizadas de desempeño, imparcialidad y factores de riesgo, y medidas de seguridad. Y deberían ponerlo a disposición de cualquiera que esté interesado.

También le puede interesar: Solución tecnológica especializada con enfoque de seguridad y gestión para la atención integral de sus pacientes

Mediante un comunicado, los científicos de IBM argumentan que este tipo de transparencia podría ayudar a construir la confianza pública y tranquilizar a los clientes potenciales de que un algoritmo en particular hará lo que se supone que debe hacer sin fastidiar a nadie basándose en datos de entrenamiento sesgados. Si un desarrollo en particular parece que va a fastidiar a alguien, el cliente (e incluso los ciudadanos interesados) idealmente serían capaces de decir a partir de los resultados de la prueba y optar por no ponerlo en uso.

En su documento, los científicos de IBM se basan en los ejemplos dados por SDoCs en otras industrias, que rara vez son requeridas por la ley, pero son alentadas para evitar que los clientes potenciales se dirijan a competidores más transparentes. Por ejemplo, los consumidores pueden confiar en los frenos de un coche, en las capacidades de piloto automático de un avión, en la resistencia de un puente porque estas cosas se prueban exhaustivamente basándose en métricas estándar bien conocidas. Sin embargo, no existe una prueba equivalente para asegurarse de que las herramientas de inteligencia artificial funcionen como se afirma.

Los investigadores proponen que un SDoC de IA respondería a preguntas como: "¿Se revisó el conjunto de datos y el modelo por sesgos?" y "¿Se revisó la robustez del servicio contra ataques adversarios?" En general, las preguntas evaluarían un algoritmo basado en su desempeño en lugar de verificar sus componentes o su código como lo haría un auditor. He aquí algunas más que un SDoC de IA podría incluir, como escriben los investigadores.

Pedir a los desarrolladores que publiquen SDoCs no resolverá todos los problemas que presenta la creciente dependencia de la IA. Las personas saben cómo los frenos detienen a un auto a exceso de velocidad, pero algunos de los algoritmos más complejos que existen (como los que emplean técnicas de aprendizaje profundo) pueden ser inescrutables. Además, si un informe de transparencia basado en pruebas estandarizadas va a tener un impacto, todo el mundo tendría que seguir el juego.

Evidentemente, los desarrolladores estarían motivados para empezar a lanzar SDoCs si sus competidores lo estuvieran haciendo. Pero el sistema sólo funcionará si los clientes, los gobiernos y las empresas que utilizan la inteligencia artificial demuestran que realmente les importa lo que dicen estos informes. ¿A un departamento de policía como el LAPD, que en el pasado ha utilizado algoritmos policiales descaradamente racistas debido a que ponía más agentes en las zonas de concentración de personas negras, por ejemplo, le importarán lo suficiente los detalles de un SDoC para encontrar un sistema mejor? La verdad es que aún no se sabe.

Es poco probable que estos informes obliguen a alguien a emplear algoritmos más éticos, o incluso a desarrollarlos. Pero si se combinan estos informes con otras herramientas como auditorías de terceros, el público puede exigir algoritmos que traten a todos de forma justa.

Un nuevo sistema de inteligencia artificial detecta y muestra los rasgos de personalidad de las personas a partir de una sola foto de su rostro.

El sistema, llamado Biometric Mirror (Espejo biométrico), investiga la comprensión que una persona tiene sobre temas como la sexualidad, el consumo de licor entre otros y su respuesta a la información sobre sus rasgos únicos, que pueden ser correctos o no.

Cuando alguien se para frente a este espejo biométrico, el sistema detecta una serie de características faciales en segundos. Luego compara los datos del usuario con los de miles de fotos faciales, las cuales fueron evaluadas por un grupo de respondedores de la multitud para su psicometría.

Espejo biométrico muestra 14 características, desde el género, la edad y el origen étnico hasta el atractivo, la rareza y la estabilidad emocional. Cuanto más tiempo permanece una persona allí, más personales se vuelven los rasgos.

Biometric Mirror no es una herramienta para el análisis psicológico, sino que tiene como objetivo provocar preguntas desafiantes sobre los límites del ser humano. El objetivo es mostrar a los usuarios lo fácil que es implementar la Inteligencia Artificial (IA) que discrimina de manera poco ética o problemática.

Niels Wouters y el profesor Frank Vetere de la Universidad de Melbourne, creadores del espejo, explican la razón de ser de su proyecto y por qué este análisis de las posibilidades de la IA es tan importante:

En 2002, el thriller de ciencia ficción Minority Report  dio una visión ficticia de la vida en 2054. Inicialmente, la película evoca una sociedad utópica perfecta donde la inteligencia artificial (IA) se mezcla con tecnología de vigilancia para el bienestar de la humanidad.

La IA supuestamente previene el crimen usando las predicciones de tres precognitivos - estos psíquicos visualizan los asesinatos antes de que ocurran y la policía actúa basándose en la información.

"Los precogs nunca se equivocan. Pero ocasionalmente, no están de acuerdo". Eso dice el científico principal de la película y estos desacuerdos resultan en informes de minorías; relatos de futuros alternativos, a menudo donde el crimen no ocurre realmente. Pero estos informes se eliminan convenientemente y, a medida que se desarrolla la historia, se ponen en juego vidas inocentes.

En última instancia, la película nos muestra un futuro en el que las predicciones son intrínsecamente poco fiables e ineficaces y que vale la pena tener en cuenta a medida que luchamos con los avances en curso en la inteligencia artificial.

También le puede interesar:Las lámparas de lava pueden proteger su información de caer en manos de un hackerLas lámparas de lava pueden proteger su información de caer en manos de un hacker.

Minority Report puede ser ficción, pero la tecnología de la IA en rápida evolución no lo es. Y aunque no hay psíquicos involucrados en el mundo real, la película destaca un desafío clave para la IA y los algoritmos: ¿qué pasa si producen resultados falsos o dudosos? ¿Y si estos resultados tienen consecuencias irreversibles?

Las autoridades industriales y gubernamentales ya mantienen y analizan grandes colecciones de conjuntos de datos interrelacionados que contienen información personal.

Por ejemplo, las compañías de seguros recopilan datos de salud y hacen un seguimiento de las conductas de conducción para personalizar las tarifas de los seguros. Las fuerzas del orden utilizan las fotos de las licencias de conducir para identificar a los delincuentes y a los presuntos delincuentes, y los centros comerciales analizan los rasgos faciales de las personas para orientar mejor la publicidad.

Si bien la recopilación de información personal para adaptar un servicio individual puede parecer inofensiva, estos conjuntos de datos suelen analizarse mediante algoritmos de "caja negra", en los que la lógica y la justificación de las predicciones son opacas. Además, es muy difícil saber si una predicción se basa en datos incorrectos o en datos que han sido recolectados ilegalmente o sin ética, o en datos que contienen suposiciones erróneas.

¿Qué pasa si una cámara de tráfico detecta incorrectamente su exceso de velocidad y automáticamente activa una cancelación de licencia? ¿Y si una cámara de vigilancia confunde un apretón de manos con un negocio de drogas? ¿Qué pasa si un algoritmo asume que eres similar a un criminal buscado? E imagine no tener control sobre un algoritmo que erróneamente decide que usted no es elegible para un título universitario.

Incluso si los datos subyacentes son exactos, la opacidad de los procesos de IA dificulta la corrección del sesgo algorítmico, como ocurre en algunos sistemas de IA sexistas, racistas o discriminatorios contra los pobres.

¿Cómo se puede apelar contra las malas decisiones si los datos subyacentes o la justificación de la decisión no están disponibles?

Una respuesta es crear IA explicable, que es parte de un programa de investigación en curso dirigido por el profesor asociado de la Universidad de Melbourne Tim Miller, donde la justificación subyacente de una decisión de IA se explica de una manera que puede ser fácilmente entendida por todos.

Otra respuesta es crear interfaces humano-computadora que sean abiertas y transparentes sobre las suposiciones hechas por la IA. Las representaciones claras, abiertas y transparentes de las capacidades de IA pueden contribuir a una discusión más amplia de sus posibles impactos sociales y a un debate más informado sobre las implicaciones éticas de las tecnologías de rastreo humano.

¿Cómo funciona el "espejo"?

Biometric Mirror es una aplicación interactiva que toma la foto de las personas y las analiza para identificar sus características demográficas y de personalidad. Estos incluyen rasgos como su nivel de atractivo, agresividad, estabilidad emocional e incluso su "rareza".

La IA utiliza un conjunto de datos abierto de miles de imágenes faciales y evaluaciones de fuentes multitudinarias, en las que un gran grupo de personas ha valorado previamente los rasgos de personalidad percibidos para cada uno de esos rostros. La IA utiliza este conjunto de datos para comparar su foto con el conjunto de datos de fuentes múltiples.

Biometric Mirror evalúa y muestra sus rasgos de personalidad individuales. Uno de sus rasgos es entonces elegido -digamos, su nivel de responsabilidad- y Biometric Mirror le pide que imagine que esta información está siendo compartida con alguien, como su aseguradora o futuro empleador.

Cada vez más, la IA está siendo usada por empresas de diferentes partes del mundo para tomar decisiones en todo tipo de temas. 

Privacidad y vigilancia masiva

A pesar de su apariencia, Biometric Mirror no es una herramienta para el análisis psicológico, sólo calcula la percepción pública estimada de los rasgos de personalidad basados en la apariencia facial. Por lo tanto, no sería apropiado sacar conclusiones significativas sobre los estados psicológicos.

Es una herramienta de investigación que nos ayuda a entender cómo cambian las actitudes de las personas a medida que se revelan más datos, mientras que una serie de entrevistas a los participantes van más allá para revelar las preocupaciones éticas, sociales y culturales de las personas.

La discusión sobre el uso ético de la IA está en curso, pero hay una necesidad urgente de que el público participe en el debate sobre estos temas. Nuestro estudio apunta a provocar preguntas desafiantes sobre los límites de la IA. Al fomentar el debate sobre la privacidad y la vigilancia masiva, este debate contribuirá a una mejor comprensión de la ética que subyace a la IA.

Aunque Minority Report es sólo una película, aquí en el mundo real, Biometric Mirror pretende concienciar sobre las implicaciones sociales de una IA sin restricciones, para que un futuro distópico ficticio no se convierta en una oscura realidad.