Por: Cortesía

Artículo

Analizan lo fácil que es para una IA decidir una elección

La inteligencia artificial ya cuenta con la capacidad de manipular a los humanos

El desarrollo de la Inteligencia Artificial (IA) nos promete un mundo mejor en muchos sentidos. Su desarrollo ético está permitiendo, por ejemplo, poder diagnosticar enfermedades de una manera más precisa. Pero también tiene una parte que muchos especialistas cuestionan y es que también puede ser más utilizada y servir para los intereses de unos cuantos, por ejemplo, para manipular una elección, lo que ya es posible de acuerdo con una investigación  de la Universidad de Deusto en España. 

Los investigadores, Ujué Agudo y Helena Matute de la institución citada, publicaron un estudio que demuestra lo fácil que es influir en las decisiones de los humanos utilizando algoritmos. De hecho, pudieron demostrar que las personas terminan haciendo lo que las máquinas quieren, incluso, votar por un candidato específico que el sistema les recomendó. 

De acuerdo con el informe somos peligrosamente fáciles de influenciar con la psicología básica y la IA rudimentaria. Esto a pesar de que nos gusta pensar que somos agentes independientes que toman decisiones informadas. 

Básicamente la conclusión del estudio es que si un algoritmo nos dice que algo es cierto, generalmente estamos de acuerdo. Los investigadores aseguran que ya no somos homo-sapiens, que significa "hombre sabio" en latín, sino más homomutatas inversas. Hay que explicar que las homomutatas son formaciones, tipo nubes, causadas por la interferencia humana en la atmósfera natural que han trascendido su estado inicial para convertirse en algo más, es decir que para su creación se necesitó de una combinación de los subproductos de la humanidad y la influencia de la naturaleza.

Pues, según el informe, en lo que se ha convertido la humanidad es en lo contrario. Una vez fuimos el "hombre sabio" de la naturaleza, ahora somos seres cibernéticos totalmente aumentados que hemos evitado millones de años de evolución natural a cambio de la capacidad de exteriorizar nuestras funciones cognitivas. En otras palabras, dejamos que las computadoras hagan el trabajo para el que se desarrollaron nuestros cerebros para que podamos ocupar nuestro tiempo con esfuerzos más creativos. 

¿En qué consistió el experimento?

Los investigadores realizaron cuatro experimentos distintos en condiciones similares. Cada uno comenzó con una prueba de personalidad falsa. Una vez que los participantes completaron la prueba, se les dio un perfil de personalidad que se les dijo que se le daría al algoritmo y ayudaría a determinar los mejores resultados personalizados para ellos.

En realidad, no existían perfiles de personalidad individuales. A todos los participantes se les dio el mismo perfil falso, uno vagamente redactado que podría aplicarse a cualquier persona.

En el primer experimento, los investigadores utilizaron manipulación explícita para que los participantes eligieran votar por un candidato político específico. En este caso a las personas se les mostraron imágenes de políticos ficticios y se les dijo qué candidato coincidía con su personalidad. Luego se les preguntó, basándose únicamente en las imágenes de los políticos y las recomendaciones algorítmicas, por quién era más probable que votaran.

En comparación con un grupo de control de personas que veían imágenes sin manipulación algorítmica, era mucho más probable que los evaluados dijeran que votarían por el candidato que la IA les decía.

En el segundo experimento se utilizó manipulación indirecta. En lugar de decirles a los participantes que una IA estaba recomendando a cierto político, el algoritmo eligió en secreto a cuatro candidatos y preexpuso a los participantes a sus imágenes. En este caso las personas no parecían estar influenciadas de ninguna manera significativa cuando el algoritmo trató de forzar su decisión.

Lo que resultó curioso es que parece que la gente confía más en el algoritmo cuando se trata de política que aplicaciones de citas. Y es que, cuando la IA les dijo a las personas que serían compatibles con ciertos candidatos, eligieron la recomendación, pero eso sucedió en un menor porcentaje cuando se les decía que cierta persona era mejor elección de pareja. 

Al final los investigadores señalaron  que la persuasión es posible y que diferentes estilos de convencimiento son más efectivos dependiendo del contexto de decisión. “Concluimos que es importante educar a las personas para que no confíen y sigan ciegamente los consejos de los algoritmos”.

También alertaron que la velocidad con la que los científicos humanos pueden realizar nuevos experimentos y recopilar datos es muy lenta en comparación con la facilidad con la que muchas empresas de IA y su tecnología ya están realizando experimentos, “por lo tanto, su capacidad para influir en las decisiones, tanto de forma explícita como encubierta, es ciertamente mucho mayor de lo que se muestra en la presente investigación” y, en ese sentido, debemos tener más cuidado y ser más conscientes. 
 

 

Temas relacionados: