Click acá para ir directamente al contenido
El Dilema del Defensor frente a la Inteligencia Artificial

El Dilema del Defensor frente a la Inteligencia Artificial

Google I/O presentó una nueva edición enfocada en productos y servicios impulsados por la IA.

<

Internet ha fomentado una rápida innovación, interconectividad y libre flujo de información alrededor del mundo. Sin embargo, las tecnologías que permiten su funcionamiento no fueron diseñadas en sus inicios teniendo en cuenta la seguridad. Así, el crecimiento explosivo de lo digital sobre esta base creó un entorno propicio para una amplia gama de comportamientos maliciosos. 

Los atacantes cuentan con ventajas en el ciberespacio: pueden elegir entre una variedad de objetivos y solo necesitan tener éxito una vez, mientras que los defensores deben proteger un terreno cada vez más complejo y necesitan tener éxito en todo momento. Esta dinámica, conocida como el "Dilema del Defensor", ha afectado a organizaciones y usuarios durante décadas.

Aunque los productos de software se vuelven gradualmente más seguros y se están desarrollando enfoques novedosos para la ciberseguridad, los hackers también están volviéndose más hábiles, sus herramientas son mejores y sus mercados están floreciendo. 

La irrupción de la Inteligencia Artificial

El crecimiento de la inteligencia artificial ya está remodelando el mundo digital. Un estudio de Google plantea que la IA ofrece la mejor oportunidad para poner fin al Dilema del Defensor y desequilibrar la balanza en favor de la defensa, siempre que se cumplan algunas premisas. Entre estas, se cuentan:

  • Asegurar los mejores modelos para la defensa: Google argumenta que es necesario permitir el entrenamiento de modelos usando bases de datos públicas, y luego especializarlos con bases de datos privadas de ser necesario. Restringir el uso de los datos públicos para el entrenamiento de modelos de IA haría que estos queden incompletos, en comparación a los utilizados por agentes que no siguen las reglas y que utilizarán estos datos de forma ilegal. 
  • No permitir a los usuarios excluirse de medidas de seguridad provistas por IA: Permitir a los usuarios excluirse o hacer “opt out” de sistemas de seguridad podría provocar daños a múltiples usuarios en una red. Los sistemas con IA se utilizan por ejemplo para detectar interacciones fraudulentas, maliciosas o sistemas que han sido comprometidos. 
  • Promover el uso de herramientas de seguridad con IA en el sector público: El sector público y la infraestructura crítica son objetivos codiciados por actores maliciosos, y requieren una mejora continua de sus defensas. Algunas propuestas de regulación limitan la capacidad de estas organizaciones de adoptar sistemas de seguridad con Inteligencia Artificial. Google argumenta que esto podría hacer crecer las asimetrías entre los recursos de los que disponen los atacantes en comparación a la defensa.

La IA tiene varios posibles usos para generar una defensa automatizada ante las amenazas, incluyendo la clasificación e identificación de riesgos, priorización de amenazas, detección de eventos inusuales, monitoreo y otros. También puede ayudar de otras formas, creando resúmenes de la situación y textos para informar rápidamente a los afectados ante posibles vulneraciones.

Google plantea un framework para el trabajo en ciberseguridad asociado a la inteligencia artificial, con seis puntos claves:

  • Incluir la seguridad en las bases del desarrollo de la Inteligencia Artificial
  • Extender la detección y respuesta para incorporar la IA en el universo de amenazas de una organización.
  • Automatizar las defensas para mantenerse al día frente a amenazas existentes y nuevas.
  • Armonizar los controles a nivel de plataforma para asegurar una seguridad coherente en toda la organización.
  • Adaptar los controles para ajustar las mitigaciones y crear retroalimentación más rápida para el despliegue de la IA.
  • Contextualizar los riesgos de los sistemas de IA en los procesos empresariales circundantes.

La irrupción de la IA creará nuevos paradigmas para la seguridad y el desarrollo de software. Las empresas digitales han aprendido duras lecciones sobre cómo asegurar servidores y sistemas, intentando compensar las fallas fundamentales en internet. Ahora, existe la oportunidad de diseñar herramientas de seguridad de IA que sean construidas de manera segura desde el principio.

Sumado a esto también es importante señalar el rol de las políticas y leyes, para regular el uso de los datos, su aplicación para IA y explorar las responsabilidades de intercambio de información.

Comencemos a trabajar juntos

Cotiza tu proyecto con nosotros. Podemos acompañarte en el proceso y llevar tus ideas a la web.

Contáctanos