Hablarles, a estas alturas, de la utilidad de la inteligencia artificial agéntica para automatizar tareas sonaría a perogrullada. Todos hemos trasteado, en mayor o menor medida, con sistemas capaces de navegar por páginas web, rellenar formularios, realizar compras, reservar citas o ejecutar todo tipo de acciones de manera relativamente autónoma. Es indudable que la tecnología funciona, pero… ¿nos hemos planteado si puede utilizarse libremente sobre plataformas de terceros?
A veces nos olvidamos de una cuestión básica: las plataformas digitales también son software, y su utilización se encuentra sometida al cumplimiento de determinados términos y condiciones, plasmados en una licencia. Los titulares de estos servicios pueden delimitar cómo interactuamos con ellos y qué usos consideran admisibles; y pueden hacerlo tanto a nivel contractual como mediante la implementación de medidas técnicas orientadas a impedir usos no autorizados.
Como es natural, la gran mayoría de estas plataformas digitales fueron diseñadas para dar servicio a usuarios de carne y hueso. Usuarios que consumen publicidad, generan datos analíticos y pueden ser influidos a través del propio diseño de la interfaz. La proliferación de agentes automatizados altera por completo esa lógica; y probablemente por eso estamos viendo cómo cada vez más servicios introducen restricciones orientadas a limitar determinadas formas de automatización.
Pongámonos prosaicos. Imaginen que quieren comprar unas zapatillas de edición limitada que suelen agotarse en segundos, o monitorizar el stock de un determinado producto para ejecutar la compra en cuanto baje de un precio determinado. Técnicamente, resulta relativamente sencillo desplegar un agente IA capaz de automatizar esa operativa. El problema es que tendemos a asumir que, si el agente utiliza nuestras propias credenciales, su actividad constituye poco menos que una extensión natural de la nuestra. “Si yo tengo acceso legítimo a la plataforma, ¿qué diferencia hay?”. Pero las cosas no siempre son tan simples. Para muchos servicios digitales, un sistema automatizado capaz de interactuar persistentemente con su infraestructura no equivale a un usuario ordinario: se acerca más a un parásito que consume recursos sin ver un solo anuncio, y que rompe las reglas del juego para el resto de clientes.
Naturalmente, no toda automatización plantea los mismos problemas. Limitarnos a una interacción puntual presenta un escenario muy distinto a diseñar un sistema concebido para operar de forma persistente, masiva o coordinada sobre plataformas ajenas. Tampoco tiene la misma relevancia utilizar funcionalidades abiertamente disponibles, que desplegar mecanismos destinados a sortear bloqueos, captchas y otras limitaciones técnicas.
Desde el punto de vista jurídico, estas herramientas pueden generar conflictos relacionados con el incumplimiento de condiciones de uso, la afectación a bases de datos ajenas o la propia interferencia en la operativa de terceros. En determinados supuestos especialmente intensos, el problema puede desplazarse incluso hacia terrenos más delicados, como la vulneración de medidas técnicas de protección o la obstaculización grave del funcionamiento de un sistema informático. Palabras mayores; recogidas, incluso, en nuestro Código Penal.
A ello se añade un factor adicional: la escala. Una interacción individual puede resultar irrelevante; pero miles de agentes automatizados operando simultáneamente pueden generar una presión significativa sobre servicios ajenos, alterar su funcionamiento o incrementar notablemente sus costes operativos.
Evidentemente, estas tecnologías presentan utilidades perfectamente legítimas y un enorme potencial económico y organizativo; pero precisamente por ello conviene evitar aproximaciones ingenuas o excesivamente agresivas desde el inicio. A fin de cuentas, identificar ciertos riesgos antes del despliegue suele resultar bastante más sencillo que gestionar sus consecuencias después.
Antes de desplegar soluciones de IA agéntica, por tanto, merece la pena plantearse algunas preguntas básicas. ¿La plataforma donde queremos que corran permite realmente ese tipo de automatización? ¿Existen restricciones técnicas o contractuales? ¿Estamos automatizando una tarea razonable… o intentando forzar un entorno que claramente no desea ser automatizado?
La IA agéntica abre posibilidades enormemente interesantes, pero también introduce riesgos que muchas organizaciones y usuarios todavía no han terminado de dimensionar correctamente. Por eso conviene volver a la pregunta inicial: ¿por qué no hacerlo, si la máquina me deja? Pues porque, como recordaba el añorado Stefano Rodotà, “no todo lo que es técnicamente posible es también socialmente y políticamente aceptable, éticamente admisible y jurídicamente lícito”.
Automatizar la compra de esas estupendas zapatillas puede parecer una idea brillante… hasta que alguien decida recordarnos que las plataformas también tienen reglas, abogados y una forma muy particular de expresar su descontento.
¿Te ha resultado interesante?
Acompañamos a empresas que implementan soluciones de inteligencia artificial en la identificación y gestión de riesgos, obligaciones y decisiones de gobernanza exigidas por la normativa europea.






Deja un comentario