Juli Ponce Solé (Barcelona, 57 años) es catedrático de Derecho Administrativo de la Universitat de Barcelona. Acaba de publicar un manual sobre el uso adecuado y razonable de la inteligencia artificial (IA) en las administraciones públicas con un título larguísimo: El reglamento de inteligencia artificial de la Unión Europea de 2024, el derecho a una buena administración digital y su control judicial en España. Como en muchos otros oficios, los funcionarios van a aprovechar y sufrir la IA. Pero por su tipo de trabajo delicado, los requisitos para las máquinas son más exigentes. Ponce Solé cree que su “falta de empatía y otras emociones hace que no puedan tomar decisiones que afecten a humanos”.Pregunta. ¿Cómo usa ChatGPT un catedrático de derecho administrativo?Respuesta. Lo uso, y animo a mis estudiantes a que lo usen, porque sé que lo van a utilizar en cualquier caso. Les doy pautas sobre sus posibilidades y límites. Para los juristas es importante la jurisprudencia. ChatGPT se la inventa o es más sincero y te dice que no tiene acceso a bases de datos de jurisprudencia, lo que es una laguna importante. Sirve mucho, sobre todo, para situarte.P. No parece tan útil.R. Alguna revista jurídica de la que soy miembro del consejo editor ya nos ha hecho alguna consulta discreta sobre qué uso hacemos en las universidades porque se están encontrando cada vez más artículos científicos de investigación hechos con IA. No sé el porcentaje, pero es algo que existe y preocupa.Más informaciónP. ¿Los funcionarios también usan estas herramientas?R. Estamos en un momento de Far West. En mi universidad pregunté si había algún criterio, algún protocolo ético para el uso de IA y me contestaron que no. Creo que es algo general. No me consta que haya ninguna guía o indicación. Cada cual hace lo que le parece. Queda en manos de cada servidor público.P. ¿Teme este descontrol con la IA en la administración pública?R. A la inteligencia artificial no hay que tenerle miedo, sino respeto y prudencia. La IA necesita ingentes cantidades de datos y las administraciones públicas tienen que tener muy en cuenta la legislación de protección de datos. Otra prevención son los límites actuales de la inteligencia artificial, que es estrecha o débil. Tiene limitaciones y si la usaran altos cargos en la toma de decisiones, sería un error y sería ilegal.P. Los funcionarios humanos también cometen errores, y no por ello son ilegales.R. Es verdad, los humanos cometen errores y tienen un problema específico de sesgos cognitivos. Son sesgos exclusivamente humanos porque solo nosotros tenemos cerebro. Las máquinas no pueden tener esos sesgos, pero tienen otros, como las alucinaciones. Tanto los humanos como las máquinas cometen errores. Pero una inteligencia artificial es capaz de replicar su error miles o cientos de miles de veces. Es un tema de escalabilidad. La inteligencia artificial, si funciona bien, va a acelerar la gestión. Pero, a cambio, habrá que pagar un peaje si funciona mal: el impacto puede ser de una escala mayor. Juli Ponce, este jueves en Sant Cugat del Vallés.massimiliano minocriP. Las emociones son relevantes para las decisiones, dice. Como la IA no tiene, ¿sus decisiones son ilegales?R. No sé si nunca tendrá emociones. Desde luego, ahora no; a medio plazo tampoco, y a largo plazo ya veremos.P. Pero sí imita las emociones.R. Pero es evidente que la inteligencia artificial no dispone de emociones, no dispone de cerebro y entre las emociones no dispone de la empatía porque no tiene neuronas espejo. El 100% de las máquinas de IA son psicópatas porque carecen de empatía. Los humanos, efectivamente, cometemos errores: pero solo un 1% es psicópata. Ahí entramos en un campo interesante que excede con mucho el derecho y que nos afecta a todos. La decisión de una máquina nos podría enviar a prisión, que sería lo más visible para el ciudadano medio. Es un debate que ya teníamos con los humanos antes de que llegara la inteligencia artificial. Obama eligió para el Tribunal Supremo a la magistrada Sonia Sotomayor y dijo que la nombraba porque valoraba su capacidad empática en sus decisiones. Ahí hubo un cisma. A los juristas se nos entrena para que el derecho esté vinculado a la fría racionalidad. Es una herencia que arrastramos desde la Ilustración. Este modelo se cuestiona desde hace años. La tradición es que había que aislar las emociones para tomar buenas decisiones. Pero el neurocientífico António Damásio afirma lo contrario: no es posible tomar buenas decisiones sin emociones. Debe haber un equilibrio. También expone que las emociones están vinculadas a la existencia en los humanos de un cuerpo físico, que las máquinas no tienen. Yo no estoy muy seguro de querer que decida sobre mí una máquina incapaz de tener ningún tipo de emoción, de desplegar empatía y que, por tanto, es incapaz de desplegar equidad. La equidad está desde hace muchos años en nuestro Código Civil, las normas tienen que templarse, tienen que ajustarse al caso. No estaría muy tranquilo.P. Es lógico.R. Con la tecnología que tenemos hoy, es sencillamente ilegal la utilización de máquinas para tomar decisiones que implican márgenes de apreciación, que han de tener en cuenta intereses y derechos de personas.P. Pero hay a menudo quejas sobre jueces cuyos veredictos suelen ser sesgados siempre en la misma dirección o que tratan mal a víctimas.R. No tenemos por qué elegir. Tenemos que ser inteligentes para unir lo mejor de los dos mundos. Lo ideal sería una colaboración entre máquinas como asistentes y humanos como decisores finales. El reglamento de IA de la Unión Europea hace una apuesta importante: la inteligencia artificial no puede dictar sentencias. Solo puede ayudar al juez. Y añade que la función de juzgar es intrínsecamente humana. Eso no quiere decir que no se pueda utilizar la IA, solo que la última palabra no la puede tener una máquina.P. Sería un cambio importante.R. Suena muy razonable porque el punto medio siempre lo es. Pero voy a hacer de abogado del diablo de mí mismo. Que haya un humano al final tranquiliza conciencias. Pero sufrimos de un sesgo llamado de automatización: tendemos a confiar mucho en las máquinas. Y hay otro elemento humano importante: pensar desgasta. En lugar de que el humano supervise y decida, lo que puede acabar pasando es que el humano solo firme lo que le ha dicho la IA. Si un juez debe dictar, por ejemplo, 30 sentencias en un mes, en la primera quizás será muy prudente, la segunda a lo mejor también; pero cuando vea que la IA funciona relativamente bien como asistente, al hacer la número 300 es probable que estampe la firma y a otra cosa. Es un riesgo del que deberíamos ser conscientes.P. ¿Puede ocurrir que los humanos se escuden en decisiones de la IA para evitar responsabilidades?R. Es un riesgo en un contexto donde se está produciendo un fenómeno llamado burocracia defensiva, el miedo a firmar. Se ha generado es un cierto miedo a estampar tu firma, no vayas a tener un problema con un organismo contable o en el ámbito penal. El uso de IA puede agravar este problema, porque si yo tengo miedo, lo más fácil es que adopte la decisión una máquina. Tendemos a autoprotegernos y a evitarnos problemas. Y no puede ser. Tiene que quedar muy clara la responsabilidad de quién toma la decisión.P. Si sigue avanzando como en el sector privado, igual necesitamos menos funcionarios.R. Es muy probable que se necesiten menos funcionarios.P. Los funcionarios no están exentos de este avance.Juli Ponce, en Sant Cugat del Vallés este jueves.massimiliano minocriR. En el sector público y en el privado habrá evoluciones similares. En el libro despliego el concepto de reserva de humanidad. Ya lo había impulsado hace años. El creador de Eliza [uno de los primeros chatbots] ya dijo en los años sesenta que había cosas que no podían dejarse a las máquinas. Esta intuición sigue siendo válida. La reserva de humanidad no es un coto para salvar a los últimos altos funcionarios del sector público. He tenido estas conversaciones con personas especializadas en el sector privado y en los consejos de administración. Hay un cierto consenso en que hay que establecer una reserva de humanidad para un conjunto de funciones y tareas que afectan a derechos e intereses muy sensibles de los ciudadanos: derecho penal, concesión de créditos, multas grandes.El Reglamento Europeo de Inteligencia Artificial es un buen ejemplo de norma que no quiere rigidizarse. Está llena de puertas y portillos para ir adaptándose. Un mal uso de la inteligencia artificial, un uso inadecuado, nos llevaría a lo contrario de lo que queremos. No soy tecnopesimista ni antitecnología, todo lo contrario. Hay que encontrar el equilibrio. Hacer grandes proclamas de que la IA nos va a solucionar todos los problemas o que va a generar desastres épicos es lo sencillo y lo que da un titular. Pero la realidad es el trabajo callado que se tendrá que hacer en los próximos años. En los juzgados, ¿cómo se usa la inteligencia artificial? ¿Para qué asuntos? ¿Qué papel va a tener el juez? O en un plan de urbanismo, ¿qué papel puede tener? ¿Quién va a tomar la decisión final?P. No parece fácil de responder.R. Hay temas muy grandes que ya discutíamos antes de la IA, los estamos discutiendo ahora y los seguiremos discutiendo. Cuando hablamos de IA, por contraste, hablamos de qué significa ser humano, qué significa tomar una buena decisión: ¿qué plus aporta el humano frente a la máquina y qué plus aporta la máquina frente al humano? Ya he leído ofertas electorales que decían que iban a automatizar para ahorrar 15.000 millones de euros. Las inteligencias artificiales no se cansan, no piden bajas laborales, no se toman vacaciones, no se sindican, no plantean problemas. Es muy atractivo decir que vas a evitar a esos vagos funcionarios. Pero vamos a intentar evitar distopías.La inteligencia artificial debe incorporarse y ya estamos tardando. Las administraciones públicas deberían utilizar mucho más la IA para ofrecer servicios personalizados y proactivos. Igual que en el sector privado, te identifican y predicen lo que puedes necesitar, obviamente con ánimo de lucro. Lo mismo podrían hacer las administraciones públicas: identificar qué niños en los comedores escolares necesitan la beca y no esperar a que la soliciten los padres, que quizás no saben que hay beca o encuentran difícil la solicitud.

Juli Ponce, jurista: “El 100% de las máquinas de IA son psicópatas, los humanos solo un 1%” | Tecnología
Shares: