F5 presentó una nueva generación de herramientas de ciberseguridad enfocadas en la protección en “tiempo de ejecución”, con el objetivo de reducir el impacto deF5 presentó una nueva generación de herramientas de ciberseguridad enfocadas en la protección en “tiempo de ejecución”, con el objetivo de reducir el impacto de

F5 apuesta a AI Guardrails para contener alucinaciones y proteger datos sensibles

2026/01/29 12:35

F5 presentó una nueva generación de herramientas de ciberseguridad enfocadas en la protección en “tiempo de ejecución”, con el objetivo de reducir el impacto de las “alucinaciones” de la inteligencia artificial (IA) en entornos corporativos. El enfoque busca evitar que los modelos de lenguaje generen respuestas falsas o erróneas —o incluso potencialmente peligrosas— con apariencia de certeza, un freno para integrar esta tecnología en procesos donde la precisión es clave.

El problema se volvió más visible a medida que estos modelos ganaron peso en la vida profesional. En ese marco, la propuesta se orienta a limitar fallas de desempeño y resultados inconsistentes, además de prevenir situaciones en las que el sistema “invente” información.

El eje técnico es el concepto de AI Guardrails, o guías de contención. A diferencia de un antivirus tradicional, estos sistemas analizan el “flujo de pensamiento” de la IA en tiempo real y operan como un filtro entre la máquina y el usuario. Si el modelo intenta desviarse hacia un dato falso, inventar una normativa o acceder a información privada de un cliente sin permiso, el “escudo” bloquea la respuesta antes de que aparezca.

El esquema apunta a transformar a la IA de una “caja negra” impredecible en una herramienta auditable. En la misma línea, los especialistas plantean que esa transparencia puede habilitar un uso más consistente en servicio al cliente y en la toma de decisiones estratégicas, al reducir el margen de error y aumentar el control sobre lo que el sistema entrega como respuesta.

El componente humano se mantiene como parte del diseño y la operación. Roberto Ricossa, vicepresidente de F5 para Latinoamérica, señaló: “Las personas tenemos algo que la IA no tiene: empatía y lógica. Sin embargo, la tarea es cada vez más difícil por la velocidad con la que avanza la tecnología”. También remarcó que, aunque las herramientas de seguridad pueden frenar alucinaciones y ataques, una IA ética y segura requiere supervisión humana constante.

Para poner a prueba estos filtros, se adopta el “Red Teaming” automatizado. Se trata de sistemas que “atacan” a la propia IA con miles de preguntas engañosas para forzarla a alucinar o a romper sus reglas en un entorno controlado. La detección anticipada de fallas permite ajustar los filtros de seguridad y robustecer el sistema frente a intentos de manipulación externa.

La entrada F5 apuesta a AI Guardrails para contener alucinaciones y proteger datos sensibles se publicó primero en Revista Mercado.

Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección service@support.mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.