Si alguien dudaba de que el foco se movió de los chatbots a los agentes autónomos, el movimiento de Sam Altman el pasado 15 de febrero despejó cualquier incertidumbre. A través de un post en la red X, el CEO de OpenAI confirmó el fichaje de Peter Steinberger, el cerebro detrás de OpenClaw.
OpenClaw no es solo un software; es el estándar de lo que significa dotar a la inteligencia de capacidad operativa. Steinberger no se suma a OpenAI para pulir el próximo modelo de lenguaje, sino para liderar la próxima generación de agentes personales inteligentes.
En octubre de 2024, Gartner nombró la IA agente como la principal tendencia tecnológica de 2025. La consultora predijo que el 33% de las aplicaciones empresariales incluirán IA agente para 2028, frente a menos del 1% en 2024.
Aunque no cabe duda de que la “IA agentica” es una de las tendencias que más hype ha generado, pero que al mismo tiempo presenta serios problemas, especialmente de seguridad de datos.
«Los entornos digitales no limitan a las personas como lo hacen con los agentes de IA», explica mran Aftab, CEO y cofundador de 10Pearls. «No dependemos completamente de los datos que nos suministran, y es nuestra capacidad innata para pensar tanto de forma creativa como crítica lo que nos diferencia de todo lo demás en el planeta.»
La supervisión irremplazable
Los expertos señalan la falta de visibilidad como una razón fundamental por la que los humanos deben vigilar e implicarse con los agentes autónomos. Esto resulta especialmente crítico cuando la tecnología es capaz de tomar decisiones independientes y generar un conjunto de resultados sin supervisión.
Recientemente, Dario Amodei, CEO de Anthropic, lanzó una advertencia que pasó desapercibida para el gran público pero que retumba en los cimientos de Silicon Valley: estamos llegando al final de la exponencial, en términos de entrenamiento. Durante años, el debate se centró en quién tenía el modelo más grande o quién razonaba mejor.
Amodei sugiere que el escalado de datos y cómputo está mutando hacia un nuevo paradigma. Ya no se trata de inyectar más información en una caja negra, sino de cómo esa inteligencia aprende a interactuar con el mundo real a través del aprendizaje por refuerzo.
Para Aftab, esa interacción con el mundo real es precisamente el territorio donde los humanos marcan la diferencia de manera insustituible. «Los agentes de IA nunca podrán igualar la capacidad humana para pensar de forma creativa, tomar decisiones estratégicas y evaluar críticamente cualquier situación dada», afirma.
«Los humanos también tienen una ventaja en adaptabilidad y flexibilidad que las máquinas simplemente no tienen. Habilidades blandas como la mente abierta, pensar fuera de la caja y nuestra capacidad para distinguir el bien del mal son rasgos que no pueden programarse simplemente en una herramienta.»
El factor de la seguridad
Recientemente, se llevó a cabo un experimento utilizando 100 clientes virtuales y 300 negocios virtuales, el experimento modeló transacciones como pedir comida o contratar servicios de mejora del hogar. Cada cliente tenía una lista de artículos y servicios deseados para que la transacción se considerara satisfactoria.
El estudio encontró que estos agentes son susceptibles a la manipulación y tienden a tener dificultades cuando se les presentan demasiadas opciones, al igual que los humanos. Los resultados sugieren que la tecnología aún tiene mucho camino por recorrer antes de estar lista para su adopción generalizada.
En este contexto de cajas negras y autonomía creciente, Aftab reivindica la función humana como custodio del proceso. «El papel de los humanos en un mundo de IA es actuar como custodios y asegurar que las herramientas de IA cumplan con las directrices éticas y legales», subraya.
La capacidad humana para ejercer ese juicio final resulta tanto más valiosa cuanto más autónomas se vuelven las máquinas. Aftab insiste en que, aunque la IA agente está diseñada para decidir y actuar de forma autónoma sobre procesos complejos hasta cierto punto, las personas aún deben liderar la supervisión. «Los humanos seguiremos al mando cuando se trate de liderar empresas y de tomar esas decisiones finales sobre la dirección estratégica», asegura. «Los agentes son simplemente un medio para avanzar hacia nuestros objetivos, no el fin último.»
El ejecutivo de 10Pearls identifica además un problema recurrente que observa en las organizaciones con las que trabaja. «Otro punto de dolor que veo repetidamente causar estragos es la falta de construcción de la arquitectura adecuada, dejando a las organizaciones y sus herramientas de IA vulnerables a riesgos como las amenazas de ciberseguridad», advierte.
«La supervisión humana siempre será necesaria para mitigar fallos y brechas cuando ocurran, así como para guiar a los agentes de IA en seguimientos estratégicos para lograr los mejores resultados empresariales.» En un mundo que corre hacia la automatización, la paradoja se revela nítida: cuanto más inteligentes se vuelven las máquinas, más importantes resultamos los humanos.
ComputerHoy










