Entre la utilidad cotidiana y el control invisible, la IA plantea preguntas que aún no queremos responder
– Riesgos estructurales de la inteligencia artificial
– Intereses comerciales y falta de advertencia
– Dimensión psicopolítica del despliegue de la IA
Si pensamos en la rebelión de las máquinas, la memoria nos puede llevar al «Terminator» de Schwarzenegger.
«Skynet» es el nombre de un ficticio sistema de defensa creado para proteger, que termina por decidir que su mayor amenaza es su propio autor: el ser humano.
La saga plantea lo que podría ocurrir si una inteligencia artificial adquiriera la consciencia y se convirteira en un peligro para la humanidad.
En la literatura, muchos años antes, la idea había sido explorada por Romain Rolland (1866-1944) con ese preciso título.
Pero antes de Rolland el tema fue abordado por Samuel Butler (1835-1902) en su novela «Erewhon».
No se trata de una utopía como la de Moro o una distopía como la de Orwell.
La obra de Butle es una sátira.
Desde el título, que es un anagrama de Nowhere, porque igual que «u topos» no se ubica en lugar alguno.
El capítulo 23 contiene una reflexión donde Butler sugiere, que si un vegetal puede desarrollar algún tipo de conciencia (cosa que actualmente sigue en debate, entonces, ¿por qué no podrían las máquinas lograrlo en el futuro?
El libro es mucho más que eso, pero la mención nos lleva a la inteligencia artificial.
Una herramienta que, sin pedirla, nos aparece gratuitamente en los celulares, o también podemos descargarla libremente en el notebook.
¿Cuál sería el porqué de tanta generosidad?
Es obvio que tras de ese bello gesto hay un interés comercial.
Además, ¿qué, sino beneficio puede representar tener bien a mano un instrumento tan útil?
La pregunta se la trasladamos a la IA de Meta.
Su respuesta, bien configurada como es habitual, tiene tres ítems.
Los riesgos que plantea son:
1. Privacidad y seguridad: La IA puede recopilar y procesar grandes cantidades de datos personales. Y esa información puede ser usada para fines no autorizados, como la publicidad dirigida o la vigilancia
2. Sesgos y errores: La IA puede perpetuar sesgos y cometer errorer si no se diseña y entrena adecuadamente. Puede aprender sesgos y prejuicios de los datos con los que entrena, lo que puede llevar a decisiones discriminatorias.
Puede cometer errores de predicción que lleven a consecuencias graves en el área de la medicina o la justicia.
3. Dependencia: La dependencia excesiva de la IA (disponible en el celular, objeto que ha pasado a ser para el hombre lo que el caballo para el gaucho) puede llevar a la pérdida de habilidades y conocimientos, lo que puede generar problemas si la IA falla o no está disponible.
Puede llevar a la homogenización de la sociedad, ya que las personas pueden dejar de pensar de manera crítica y creativa.
Puede ser usada para controlar a las personas, lo que supone un riesgo para la libertad y la autonomía.
Ante tan clara explicación, le preguntamos por qué, el sistema no advierte sobre esos riesgos, al modo de las películas que se exhiben en la televisión (contenido sexual, consumo de tabaco, desnudos, lenguaje malsonante…).
Enumeró causas como la falta de regulación,complejidad según el uso y contexto, intereses comerciales, y falta de consenso.
Sobre esos intereses comerciales, de algún modo camuflados en el detalle, nos dijo: «Los desarrolldores de IA pueden priorizar la adopción y el uso de su tecnología sobre la advertencia de riesgos».
Lo que en otras palabras significa que piensan: «mejor no advertir».
La empresa Meta tiene su sede central en California.
Pero tiene oficinas en distintos lugares del mundo.
«En cuanto a Uruguay, Meta tiene un centro de datos en Montevideo, que se inauguró en 2021 […] y se utiliza para almacenar y procesar datos de usuarios de América Latina».
Le comentamos que no sabíamos de la existencia de ese centro.
Pidió disculpas.
«… Meta no tiene un centro de datos propio en Montevideo».
El diálogo siguió así:
«¿El error es uno de esos riesgos a que te referías?; por fortuna no era una consulta técnica en medio de una cirujía a corazón abierto».
«(Emoticón sonriente).
¡Exacto!
El error humano es uno de los riesgos que mencioné anteriormente. Los errores pueden ocurrir en cualquier momento.
Y en este caso, fue un error mío al proporcionar información incorrecta. […] En este caso me disculpo por la confusión causada.
Agradezco que hayas señalado el error, lo que me permite corregir y mejorar (emoticón manos suplicantes)».
Y aquí llegamos al objetivo que buscábamos.
¿Cuál es el objetivo real de ese poner la IA a la dispsición colectiva?
¿Podría tratarse de una herramienta psicopolítica?
Nos contestó lo mismo que había expresado sobre riesgos.
¿Usted quedaría conforme con la respuesta?
Ya veremos que nos dicen otras
