EmilyAI puede
Resumir alertas, extraer indicadores, realizar búsquedas de inteligencia de amenazas, identificar patrones históricos, redactar notas de casos, destacar anomalías y reducir ruido.
Nuestro compromiso con operaciones de seguridad asistidas por IA seguras, transparentes y responsables.
La IA puede mejorar la ciberdefensa, pero solo cuando se aplica con disciplina, transparencia y supervisión humana. En Ciberdefensa, usamos inteligencia artificial para apoyar a los analistas, no para reemplazarlos. EmilyAI — nuestro asistente interno de SOC — acelera la triaje, enriquecimiento, correlación y documentación, mientras que todo juicio y decisión crítica permanece firmemente en manos humanas.
Nuestro marco ético de IA se basa en principios inspirados en la guía temprana de Alan Turing sobre razonamiento computacional, combinada con estándares modernos de seguridad, privacidad, auditabilidad y responsabilidad operativa.
Seguimos un conjunto estricto de principios para garantizar que la IA se use de manera responsable y segura dentro de Ciberdefensa:
Humano al mando, IA como soporte — Los analistas siguen siendo totalmente responsables de las decisiones de investigación, acciones de contención y escalamiento. EmilyAI proporciona contexto, no conclusiones.
Privacidad y minimización de datos — EmilyAI solo procesa los metadatos mínimos necesarios para apoyar la triaje y correlación. Ningún dato bruto de clientes se expone a flujos de trabajo de IA.
Transparencia de capacidades — Las funciones de EmilyAI están claramente definidas. No predice resultados, toma decisiones de seguridad ni realiza acciones en sistemas de clientes.
Auditabilidad — Todas las interacciones con EmilyAI se registran, revisan y son atribuibles.
Seguridad desde el diseño — EmilyAI se ejecuta completamente dentro del entorno seguro interno de Ciberdefensa con controles de acceso estrictos, nunca como herramienta pública.
Supervisión continua — Las actualizaciones se revisan para garantizar corrección, seguridad y valor operativo antes de su implementación.
Alcance
La claridad del alcance es fundamental para nuestro uso ético de la IA. EmilyAI es un asistente, no un actor autónomo.
Resumir alertas, extraer indicadores, realizar búsquedas de inteligencia de amenazas, identificar patrones históricos, redactar notas de casos, destacar anomalías y reducir ruido.
Tomar acciones de contención, modificar sistemas de clientes, crear o desplegar detecciones, cambiar configuraciones, suprimir alertas u operar sin supervisión de un analista.
A los equipos de ingeniería de detecciones identificando patrones repetidos o falsos positivos, ayudando a priorizar el trabajo de ajuste.
Accede a datos en bruto, documentos de clientes, credenciales o material sensible. Solo analiza metadatos estructurados proporcionados intencionalmente por los analistas.
Bajo estrictos controles RBAC, segmentación de red, monitoreo y auditoría interna, como cualquier otro sistema crítico del SOC.
Una herramienta para aumentar el juicio humano, nunca un sustituto de analistas o respondedores de incidentes calificados.
Alan Turing propuso que los sistemas computacionales deben evaluarse no solo por las tareas que realizan, sino por la fiabilidad, previsibilidad y controlabilidad de su comportamiento. Aplicamos estos principios directamente a EmilyAI:
Fiabilidad — Se espera que EmilyAI se comporte de manera consistente, repita los pasos de investigación con precisión y proporcione resultados estables para los analistas.
Previsibilidad — Sin lógica oculta. Las funciones de EmilyAI son conocidas, documentadas y deliberadamente limitadas en alcance.
Controlabilidad — Los analistas determinan cuándo se usa EmilyAI y validan todas las sugerencias apoyadas por IA.
Seguridad — La IA no debe crear nuevas vías de ataque, riesgos operativos ni ambigüedad en la responsabilidad.
Este enfoque asegura que la IA siga siendo un contribuyente seguro, predecible y beneficioso para las operaciones del SOC, nunca un actor autónomo e impredecible.
Salvaguardas
Aplicamos múltiples salvaguardas para garantizar que la IA se use de manera responsable y segura en todas las operaciones de seguridad.
Cada paso de investigación asistido por EmilyAI debe ser iniciado y validado por un analista humano.
EmilyAI se ejecuta completamente en la infraestructura de Ciberdefensa, sin transmitir datos externamente.
EmilyAI solo recibe metadatos estructurados necesarios para contexto y correlación.
Todas las actualizaciones de EmilyAI siguen estrictos flujos de revisión, pruebas y aprobación.
Todas las interacciones, prompts y resultados de IA se registran para asegurar trazabilidad y análisis forense.
Solo el personal autorizado del SOC puede acceder a las funciones de EmilyAI, y los permisos se revisan continuamente.
La IA responsable requiere reconocer y mitigar riesgos de manera proactiva. Ciberdefensa monitorea:
• Posible deriva del modelo o respuestas inesperadas
• Resúmenes incorrectos o engañosos
• Dependencia excesiva por analistas inexpertos
• Requisitos regulatorios o éticos emergentes
Las mitigaciones incluyen capacitación continua, supervisión, validación del modelo y revisión manual periódica de investigaciones asistidas por IA.
Nuestros clientes operan en sectores donde la confidencialidad, la seguridad y la confianza son críticas. El uso indebido o la mala configuración de la IA podría tener un impacto regulatorio, operativo o reputacional. EmilyAI está diseñada deliberadamente para ofrecer valor sin introducir riesgos.
Al mantener la IA responsablemente limitada y dirigida por humanos, aseguramos que la IA sea un multiplicador de fuerza, no una responsabilidad.
Para entender cómo la IA mejora SOC365 sin comprometer la seguridad, integridad o control, visita nuestra página dedicada a EmilyAI.