MWC 2025 | IA es un riesgo para la seguridad, pero no adoptarla es un riesgo mayor

dplnews panelpymes ep 030425 1 scaled

Barcelona, España.- Empresas de ciberseguridad presentes en el MWC 2025 advirtieron que si bien la Inteligencia Artificial (IA) representa un riesgo para la seguridad, la falta de su adopción como protección representa un riesgo igual o mayor, en tanto la tecnología puede ayudar también para hacer frente a retos como la identificación eficiente de amenazas o compensar la falta de talento en el mercado.

Durante el panel “¿Superará la IA nuestras defensas de seguridad?”, los ponentes alertaron que existen aproximadamente 4 millones de vacantes laborales en el sector de seguridad a nivel mundial, en medio de nuevas amenazas generadas por el uso de IA, incluyendo deep fakes, phishing o para automatizar la creación de malware.

Inna Ushakova, CEO de AI EdgeLabs, destacó que si no se usa la IA para procesos de seguridad o si aún se depende de procesos manuales, eso ya representa una brecha que los ciberdelincuentes buscarán aprovechar, al contar con herramientas que facilitan la creación de ataques.

Ushakova recomendó que se requiere la adopción de un proceso de seguridad multicapa, que considere la protección de componentes como el hardware o las cargas de trabajo. Por ejemplo, si se implementa una IA en una instalación física como una estación de energía remota, la información aún puede ser vulnerada por alguien que tenga acceso físico a las GPUs.

Paolo Palumbo, vicepresidente de WithSecure Intelligence, coincidió en que no hay opción más que fortalecer las defensas propias con IA, pero esta debe estar debidamente integrada o embebida en las aplicaciones y procesos. De este modo, consideró que se podría nivelar el nivel de juego entre organizaciones y ciberdelincuentes y democratizar el acceso a capacidades de defensa.

Melanie Garson, profesora del University College London, indicó que si bien un 76 por ciento de ejecutivos están incrementando el presupuesto en IA, debería acompañarse de una inversión equivalente en seguridad, a la vez que se debe planear la protección como una forma preventiva antes del despliegue de una nueva solución o aplicación.

Al mismo tiempo, los panelistas indicaron que la seguridad basada en IA debe implementarse con un enfoque equilibrado que considere la privacidad, los sesgos y la responsabilidad compartida entre desarrolladores y usuarios.

Ushakova también recomendó mantener cautela sobre el tipo de información que se comparte con chatbots como ChatGPT, que podrían vulnerar información confidencial. Alertó también que ante el crecimiento exponencial de datos, las organizaciones deben ser selectivas en lo que se debe proteger.

Rebekah Johnson, CEO de Numeracle, consideró que también existe cierta responsabilidad de parte del gobierno para permitir que la IA se pueda adoptar como una herramienta de protección; así como de los desarrolladores de IA, quienes deberían tomarse en serio la seguridad, y no dejar que los usuarios sean los únicos responsables de protegerla.

Adicionar aos favoritos o Link permanente.