La expectación por la IA y las promesas de la ciberseguridad han de equilibrarse con la preocupación y el riesgo. Estos son los aspectos en los que debes centrarte.
La expectación por la IA y las promesas de la ciberseguridad han de equilibrarse con la preocupación y el riesgo. Estos son los aspectos en los que debes centrarte.
La expectación en torno a la IA sigue conformando el panorama de la ciberseguridad, y las organizaciones se enfrentan a nuevas oportunidades y retos. La IA tiene el potencial de transformar las prácticas de seguridad, pero el camino está marcado por los riesgos y la incertidumbre.
Descarga este ebook para:
Para abordar los diversos impactos de la IA en la ciberseguridad, como CISO, lo primero que debes hacer es entender la expectación que hay a su alrededor, los riesgos asociados y su potencial.
La expectación inicial por la IA generativa ha hecho que muchas organizaciones se lancen a implementarla sin pensarlo dos veces. Esta falta de planificación es un riesgo, ya que la recompensa no suele estar a la altura de las expectativas.
La realidad suele consistir en meses de prueba y error, seguidos de una evaluación retroactiva, pérdidas financieras y, en ocasiones, la salida de un ejecutivo como chivo expiatorio (dependiendo de la magnitud de las pérdidas). El mayor impacto llegará después, en forma de oportunidades perdidas debido al retraso en la implementación de capacidades generativas.
La expectación por la IA generativa está destinada a crear desilusiones a corto plazo, ya que la presión externa para aumentar la productividad de las operaciones de seguridad colisiona con funciones poco maduras y flujos de trabajo fragmentados.
Existen ciertas señales comunes que denotan una preparación insuficiente para la integración de la IA generativa:
Uso de la “mejora de la productividad” como indicador clave a falta de indicadores reales para cuantificar los beneficios de IA generativa y su impacto en el negocio, además de los altos precios de los complementos de la IA generativa.
Dificultad en la integración de asistentes de IA en los flujos de trabajo colaborativos de los equipos de operaciones de seguridad o con el proveedor de operaciones de seguridad.
“Fatiga por las consultas”: demasiadas herramientas que ofrecen interfaces interactivas para consultar amenazas e incidentes.
Para contrarrestar la distorsión inherente a las promesas exageradas de la IA, planifica adecuadamente la hoja de ruta. Ten en cuenta todas las posibilidades y equilibra la realidad de la ciberseguridad con las expectativas de la IA generativa:
Adopta un enfoque a varios años. Comienza con la seguridad de las aplicaciones y las operaciones de seguridad y, a continuación, integra progresivamente la oferta de IA generativa cuando sus capacidades mejoren los flujos de trabajo de seguridad.
Pregúntate si merece la pena. Define las expectativas de la inversión y mide el progreso en relación a esos objetivos. Evalúa las mejoras en la eficiencia junto con los costes. Perfecciona los indicadores de detección y productividad para tener en cuenta las nuevas funciones de ciberseguridad de la IA generativa.
Prioriza la potenciación de la fuerza laboral con IA (no solo la automatización de tareas). Planifica los cambios en los requisitos de competencias a largo plazo que conllevará la IA generativa.
Considera los retos en cuanto a privacidad y equilibra los beneficios esperados con los riesgos de adoptar la IA generativa en el ámbito de la seguridad.
La IA generativa es la más reciente de una serie de tecnologías que han prometido grandes mejoras en la productividad gracias a la automatización de las tareas. Los últimos intentos de automatizar por completo actividades de seguridad complejas rara vez han tenido éxito, y pueden acabar siendo una costosa distracción.
Aunque el uso de modelos de IA generativa y grandes modelos de lenguaje (LLM) de terceros aporta beneficios, también conlleva riesgos únicos para los usuarios que requieren nuevas prácticas de seguridad. Se pueden clasificar en tres categorías:
Detección de anomalías de contenido
Alucinaciones o resultados inexactos, ilegales, no deseados, no intencionados o que infrinjan los derechos de autor y comprometan la toma de decisiones o causen daño a la marca.
Uso inaceptable o malicioso.
Contenido empresarial no gestionado que se transmite a través de las consultas y compromete los datos confidenciales introducidos.
Protección de datos
Filtración de datos, compromiso de la integridad y confidencialidad del contenido y los datos de los usuarios en un entorno alojado por el proveedor.
Incapacidad de regular las políticas de privacidad y protección de datos en entornos alojados externamente.
Dificultades para llevar a cabo evaluaciones del impacto en la privacidad y cumplir con las regulaciones regionales debido a la naturaleza de caja negra de los modelos de terceros.
Imposibilidad de eliminar fácilmente los datos sin procesar una vez introducidos en el modelo. La única opción es reconstruir dicho modelo, algo poco práctico y extremadamente costoso.
Seguridad de las aplicaciones de IA
Ataques de consultas maliciosas, como abusos de lógica empresarial e inyecciones de consultas directas e indirectas.
Ataques a bases de datos vectoriales.
Acceso de piratas informáticos a los estados y parámetros del modelo.
Los grandes modelos de lenguaje alojados externamente y otros modelos de IA generativa incrementan estos riesgos, ya que las empresas no pueden controlar directamente los procesos de aplicación ni la manipulación y almacenamiento de los datos. Sin embargo, los modelos locales alojados en la empresa también presentan riesgos, especialmente cuando se carece de controles de seguridad y gestión de riesgos. Los usuarios se enfrentan a estas tres categorías de riesgo durante la ejecución de modelos y aplicaciones de IA.
Irónicamente, la interfaz conversacional que ha puesto en el centro de atención a la IA generativa es la responsable del aumento del riesgo de fracaso de la IA generativa en casos de uso internos en la empresa. Este incremento en el riesgo de fracaso se debe a dos motivos:
Uso y ROI. El ROI depende de que tus empleados usen la tecnología y obtengan beneficios de ella. No hay garantías de que los empleados usen una interfaz conversacional. Sin una propuesta de valor clara, los empleados no integrarán la IA generativa en sus flujos de trabajo cotidianos. Demostrar los beneficios es una ardua batalla, ya que solo se puede rastrear el uso; el resto queda en manos del usuario.
Consultas y alucinaciones. Los distintos usuarios formulan la misma pregunta de distintas maneras y, por tanto, pueden recibir respuestas diferentes. La calidad de las consultas afecta a la calidad de las respuestas, que pueden ser meras alucinaciones. Las organizaciones deben formar a sus empleados en la creación de consultas, ofrecer asistencia cuando reciban respuestas erróneas e invertir en el procesamiento previo de consultas y el posprocesamiento de respuestas para reducir estos problemas.
Para combatir estos obstáculos, ayuda a los profesionales de la ciberseguridad con consultas prediseñadas según la actividad observada en una tarea específica en lugar de esperar que interrumpan su trabajo para formular una pregunta.
Utiliza aumentos generativos (Generative Augments, GA) como plugins o extensiones desarrolladas sobre las aplicaciones para supervisar al usuario. Los GA toman los datos observados, junto con datos de otros sistemas, y los incorporan a un conjunto preprogramado de consultas para guiar a los usuarios en la realización de sus tareas. Las consultas a los grandes modelos de lenguaje reciben las respuestas en un formato predefinido, por lo que es más fácil reducir las alucinaciones. La lógica del aumento valida cada respuesta antes de transmitirla al usuario. Se elimina la interfaz conversacional o de chat.
Súmate a otros profesionales del sector en la presentación de la información más reciente en las conferencias de Gartner.
Si eres cliente de Gartner: inicia sesión y accede a un paquete completo de conocimientos prácticos y herramientas sobre ciberseguridad e IA.
En el ámbito de la ciberseguridad, la IA (inteligencia artificial) comprende la aplicación de tecnologías y técnicas de IA para mejorar la seguridad de sistemas informáticos, redes y datos, protegiéndolos de posibles amenazas y ataques. La IA permite que los sistemas de ciberseguridad analicen grandes volúmenes de datos, identifiquen patrones, detecten anomalías y tomen decisiones inteligentes en tiempo real para prevenir, detectar y responder a las ciberamenazas.
La IA está revolucionando la ciberseguridad al mejorar la detección de amenazas, automatizar las operaciones de seguridad, perfeccionar la autenticación de usuarios y proporcionar capacidades de análisis avanzados.
A la hora de integrar la IA en una infraestructura de ciberseguridad existente, es necesario tener en cuenta varias consideraciones clave:
Disponibilidad y calidad de los datos
Compatibilidad e integración
Escalabilidad y rendimiento
Explicabilidad y transparencia
Colaboración humano-máquina
Consideraciones éticas y legales
Formación y desarrollo de competencias
Selección y experiencia de los proveedores
Evaluación y reducción de riesgos