Primera Ley. Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.
Segunda Ley. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
Tercera Ley. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.
(Leyes de la robótica de Isaac Asimov)
“Vamos a morir todos por culpa de la inteligencia artificial”. Utilizar la técnica del populismo catastrofista como estrategia de manipulación y desprestigio de una persona, entidad o asunto, no es algo nuevo en absoluto. Ingeniería social para principiantes. Ojo a la siguiente selección de noticias:
Se trata de una manipulación de primero de parvulitos, porque nada más básico e infantil que aquello de “vamos a morir todos”, pero manipulación efectiva al fin y al cabo. Añadan el nombre de algún experto, que no quiera usted saber si se sube al carro por razones no tan “nobles”, la amenaza a algunas profesiones de honrados padres y madres de familia, y todo ello aderezado con la siempre recurrente vulneración de la normativa sobre protección de datos. Y ya tendríamos construida una fortísima corriente de opinión pública de absoluta animadversión. Así es como funciona la Humanidad. No nos mueve la razón, sino sentimientos fuertes e intensos como el amor, el odio, la familia, la patria o un equipo de fútbol. Convierte a alguien o a algo en enemigo de alguna de esas cosas, y tendrás a una masa enfurecida en su contra.
Entonces vienen los ataques de segundo nivel, porque otra característica muy humana es que somos, por así decirlo, del caballo ganador. Pero cada uno tiene sus propios intereses, claro está, que defienden con facilidad cuando lo hacen a favor de corriente. Y ahí está el ataque de los juristas no expertos en la materia que ponen el acento en los peligros derivados de la supuesta falta de ética de los algoritmos y en la posible quiebra del principio de igualdad, como si su salvaguarda dependiera de un programa. Y el ataque de los listillos en las redes sociales planteando juegos de palabras tipo el caballo blanco de Santiago, para que ChatGPT dé una respuesta errónea, lo cual es lógico, por cierto, porque para dar una buena respuesta necesita una información muy precisa y sufre mucho cuando la pregunta tiene trampa (curiosamente cada vez se equivoca menos, a esto le llamamos machine learning). A la postre, todo el mundo habla de IA. Y habla mal, claro, debidamente sugestionados. Pero si uno tiene cierta capacidad de influencia, lo primero que debería hacer es hablar con conocimiento de causa. O no hablar, que tampoco pasa nada porque no opinemos absolutamente de todo durante todo el tiempo. Si apelamos a la ética, cabe decir que no es precisamente muy ético lanzar una opinión tan negativa desde una posición de auctoritas que se ha ganado, sin duda merecidamente, por el dominio de otras materias PERO NO DE ESTA. Hablamos, por ejemplo, de los expertos en protección de datos. Es cierto que ChatGPT recopila datos nuestros cada vez que lo usamos. Bien, como la inmensa mayoría de aplicaciones y no menos que nuestro querido WhatsApp. Lo cierto es que la autoridad italiana de protección de datos tomó la decisión de bloquear ChatGPT en todo el país. El organismo encargado de hacer cumplir el reglamento europeo sobre protección de datos (RGPD) en el país transalpino, llegó a la conclusión de que el chatbot de OpenAI no cumple con la legislación comunitaria. Bien, en tal caso entendemos que el resto de países de la UE, donde evidentemente también está vigente el RGPD, deberían plantearse medidas similares. En todo caso, y esto es lo importante, ChatGPT es una IA (exactamente es un modelo de lenguaje, un chatbot de inteligencia artificial), pero no es la IA.
Sobre IA la sociedad aún tiene poco conocimiento. Pero ya no estamos en la Edad Media, cuando el conocimiento estaba vetado y, realmente, tampoco había demasiados cauces para difundirlo más allá de los libros que tampoco estaban al alcance de la mayoría. Hoy en día podemos y necesitamos universalizar este conocimiento, sin sesgos ni mentiras interesadas, primero para que las personas no vivan horrorizadas sin motivo por las hipótesis del apocalipsis tecnológico, y en un nivel más técnico porque la IA necesita seguir con su desarrollo con la ayuda y aportación de equipos multidisciplinares. Y todo ello sin soberbia, respetando el ámbito de conocimiento de los demás, incluso reconociendo el no conocimiento, algo que les cuesta mucho a algunos. Y es que la IA jugará un papel en el avance de la civilización humana, por lo que los sociólogos y psicólogos también tienen mucho que decir. De momento el debate lo acaparan tecnólogos y sobre todo juristas, pero deberían aceptar más visiones que las suyas y las de sus entornos endogámicos.
Pero entre tanto charlatán, también encontramos, por supuesto, algún experto “de verdad” que también habla pestes de la IA, y lo hace por alguna razón que a estas alturas de la vida permítanme que sospeche que no siempre está movida por el altruismo, no cuando alertan horrorizados sobre los peligros de la inteligencia artificial. «Apagad la IA o moriremos todos», avisa uno de los mayores expertos en la materia, Eliezer Yudkowsky, nada menos que en la revista Time. La declaración es excesiva e innecesariamente catastrófica, y esa es la primera alerta a la alerta, valga la expresión. Y la segunda: Elon Musk, que no es precisamente un experto sino una persona increíblemente rica que ha visto un nuevo filón en el control del mercado IA, si bien no es tan catastrofista, habla como mínimo de pausar la investigación durante un tiempo y da la sensación de que es él quien en realidad está detrás de todo esto. A lo mejor lo que quiere es “pausar” la investigación de los demás.
Bien, esta película (de Ciencia Ficción) ya la hemos visto. La verdadera pregunta es si, aun suponiendo el peor de los escenarios, si el botón de Skynet aún se puede apagar. Evidentemente no. Mientras tanto, a mí me preocupa mucho más que uno de nuestros locos gobernantes apriete otro botón. La especie humana se extinguirá algún día, eso es seguro. Pero si tuviera que apostar, y no lo hago nunca, diría que no será a manos de la inteligencia artificial. Y es que la maldad es una cualidad genuinamente humana.
En definitiva, más que manipular y asustar, deberíamos dedicarnos a explicar bien, y entender, “nuevos” conceptos como la inteligencia artificial en general, los nuevos modelos de lenguaje como ChatGPT y otros chatbots más o menos sofisticados, la robótica industrial, los drones, la aceleración de partículas, la nanotecnología y la computación cuántica. Antes de todo ello ya teníamos la “preinteligencia” de la automatización, que en ámbitos como la Administración nos permite ser mucho más eficientes a través de herramientas como los sellos electrónicos o Blockchain. Hablando de servicio público, también hace tiempo que hablamos de servicios smart, sensorización y datos. Los datos son la clave de la moderna gestión pública. En cuanto a las grandes políticas públicas, las aplicaciones de la IA en campos como la medicina o la lucha contra el cambio climático son infinitas. Quizá nos vayan a salvar la vida después de todo, que es justo todo lo contrario que extinguir la especie, por cierto. Cómo cambia todo cuando se ve desde otra perspectiva al menos tan válida como la más popular.

Y que conste que esa postura más popular, o populista, no coincide exactamente con la oficial. Al menos en España, cuyo Gobierno recuerda que el país se sitúa como líder mundial en cuanto a la inclusión de la IA en las políticas públicas, según el AI índex report 2023 del Stanford Institute for Human-Centered Artificial Intelligence. Sin duda todo un reconocimiento a la estrategia nacional de IA y al impulso de Secretaría de Estado de Digitalización e Inteligencia Artificial perteneciente al Ministerio de Asuntos Económicos y Transformación Digital. Pero luego tenemos que, como siempre cuando se aborda la regulación de la tecnología, el legislador tiende a ser muy conservador. El art. 23 de la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación establece:
Artículo 23. Inteligencia Artificial y mecanismos de toma de decisión automatizados.
1. En el marco de la Estrategia Nacional de Inteligencia Artificial, de la Carta de Derechos Digitales y de las iniciativas europeas en torno a la Inteligencia Artificial, las administraciones públicas favorecerán la puesta en marcha de mecanismos para que los algoritmos involucrados en la toma de decisiones que se utilicen en las administraciones públicas tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas, siempre que sea factible técnicamente. En estos mecanismos se incluirán su diseño y datos de entrenamiento, y abordarán su potencial impacto discriminatorio. Para lograr este fin, se promoverá la realización de evaluaciones de impacto que determinen el posible sesgo discriminatorio.
2. Las administraciones públicas, en el marco de sus competencias en el ámbito de los algoritmos involucrados en procesos de toma de decisiones, priorizarán la transparencia en el diseño y la implementación y la capacidad de interpretación de las decisiones adoptadas por los mismos.
3. Las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido.
4. Se promoverá un sello de calidad de los algoritmos.
Aún más cautelosa será la futura «Ley de Inteligencia Artificial de la UE» (consultar aquí el proyecto de Reglamento), que, al menos en el texto que se está trabajando, establece una lista de IA prohibidas. El Reglamento seguirá un enfoque basado en los riesgos que distingue entre los usos de la IA que generan i) un riesgo inaceptable, ii) un riesgo alto, y iii) un riesgo bajo o mínimo. La lista de prácticas prohibidas que figura en el título II abarca todos los sistemas de IA cuyo uso se considera inaceptable por ser contrario a los valores de la Unión, por ejemplo, porque violan derechos fundamentales. Las prohibiciones engloban aquellas prácticas que tienen un gran potencial para manipular a las personas mediante técnicas subliminales que trasciendan su consciencia o que aprovechan las vulnerabilidades de grupos vulnerables concretos, como los menores o las personas con discapacidad, para alterar de manera sustancial su comportamiento de un modo que es probable que les provoque perjuicios físicos o psicológicos a ellos o a otras personas. La norma también contendrá reglas específicas para aquellos sistemas de IA que se considere que acarrean un alto riesgo para la salud y la seguridad o los derechos fundamentales de las personas físicas.
En definitiva, y partiendo de la base de que entiendo las cautelas razonables apuntadas, me muestro muy en desacuerdo con la histeria colectiva y la presunción de maldad de los algoritmos. La integridad es o debería ser el hilo conductor de toda actuación procedente de los poderes públicos. Pero eso, cuando se introduce la ética en un debate, a algunos empleados públicos nos resulta desagradable. Nos molesta especialmente a quienes hemos visto todo tipo de barbaridades, y todas ellas de la mano del ser humano, por cierto. Todas sin excepción. A nivel personal, debo manifestar que hace tiempo que no acepto lecciones de moral de nadie que se sienta en posición de impartirlas (eso que se llama «superioridad moral»). Sí acepto, en cambio, lecciones técnicas, porque un servidor siempre está dispuesto a aprender, pero no por parte de quien confunde un algoritmo con un logaritmo. ¿Cómo pueden estas personas impartir charlas y cursos sobre IA? No me extraña que estén en contra, porque no entienden nada o lo entienden al revés. Mas en estos casos probablemente ni siquiera han sido sugestionados por el aludido alarmismo, sino que simplemente ven amenazada su posición de expertos en materias que verdaderamente dominaban, pero en los noventa.
Pero después de todo, quizá más que una campaña en contra de la inteligencia artificial, a lo que estamos asistiendo es a una campaña por el control de la inteligencia artificial. Vamos a morir todos, sí, pero deberíamos temer mucho más a las personas maliciosas o simplemente ignorantes que a unas máquinas inocuas que, eso sí, pueden ser mal utilizadas por esas malas personas. Pero eso no es culpa de la inteligencia artificial, del mismo modo que no es culpa de un cuchillo que, en lugar de ser bien utilizado por un gran cocinero caiga en manos de Jack el Destripador.
© Víctor Almonacid Lamelas. TODOS LOS DERECHOS RESERVADOS. NOSOLOAYTOS. WEB OFICIAL DE VÍCTOR ALMONACID LAMELAS 2023. AVISO LEGAL.
Reblogueó esto en IUSLEXBLOG..