Google levanta prohibición de usar su Inteligencia Artificial para armas y vigilancia

dplnews google ai mc60225

Google eliminó de sus políticas el compromiso de no aplicar Inteligencia Artificial (IA) en aplicaciones relacionadas con armas o vigilancia que violen normas internacionales o contraríen los derechos.

Antes de la reciente modificación, el manejo sobre la IA en estos ámbitos decía que excluía “tecnologías que causan o es probable que causen daño general”.

En su reporteInforme anual de progreso de IA responsable explica la actualización de sus Principios de IA, a los que califica como cruciales para el desarrollo y socialización de esta tecnología.

La compañía dijo que desde la publicación de los Principios de IA en 2018, la tecnología ha evolucionado rápidamente y se ha convertido en una plataforma de uso general.

“Los principios básicos comunes se han vuelto cruciales, y se ha observado progreso global en los principios de IA por parte de organizaciones y gobiernos”, apuntó Google.

Asimismo, explicó que los Principios de IA actualizados se centran en tres aspectos fundamentales: innovación audaz, desarrollo e implementación responsables, y progreso colaborativo.

Estos principios, aseguró, buscan fomentar la creación de IA que proteja a las personas, promueva el crecimiento global y respalde la seguridad nacional, siempre alineada con valores fundamentales como la libertad, igualdad y respeto por los derechos humanos.

“Guiados por estos principios, se continuará enfocando en investigaciones y aplicaciones de IA que se alineen con su misión y principios éticos, evaluando cuidadosamente los beneficios y riesgos potenciales, especialmente en sectores críticos como atención médica, ciencia, ciberseguridad, transporte y más”, dijo la compañía.

En su sexto “Informe anual de progreso de IA responsable” se detallan los esfuerzos realizados para gobernar, mapear, medir y gestionar los riesgos de la IA a lo largo de su ciclo de vida de desarrollo.

El informe destaca avances significativos en la creación de estructuras de gobernanza para lanzamientos de productos de IA y la inversión en investigación y productos que benefician a la sociedad, así como en seguridad de IA y mitigación de riesgos potenciales.

El informe incluye aspectos destacados de más de 300 artículos de investigación publicados por sus equipos sobre temas de responsabilidad y seguridad, y describe el progreso en técnicas de mitigación de riesgos, controles de seguridad y privacidad, y la educación sobre alfabetización en IA.

Además, se menciona el apoyo al ecosistema de IA mediante financiación, herramientas y desarrollo de estándares.

Con el avance del desarrollo de IA, nuevas capacidades pueden traer nuevos riesgos, advierte Google. Por ello, se presentó el Marco de seguridad de Frontera, un conjunto de protocolos para anticiparse a posibles riesgos de modelos de IA avanzados.

El marco ha sido implementado en procesos de seguridad y gobernanza para evaluar modelos como Gemini 2.0. La actualización del marco incluye recomendaciones para aumentar la seguridad, procedimientos de mitigación de implementación y abordaje del riesgo de alineación engañosa.

Adicionar aos favoritos o Link permanente.