Google, una empresa que una vez se rigió por el lema "no ser el malo", parece estar cambiando de rumbo. El gigante tecnológico anunció el martes cambios significativos en su política de inteligencia artificial (IA) que, desde 2018 hasta hace muy poco, había guiado el trabajo de la compañía en IA.
Los principios de responsabilidad en IA de Google anteriormente establecían que la compañía no desarrollaría IA "para su uso en armas" o donde el propósito principal fuera la vigilancia. Google se había comprometido a "no diseñar ni desplegar IA" que cause "daño general" o "contravenga los principios ampliamente aceptados del derecho internacional y los derechos humanos". Estos compromisos ya no son válidos.
Los nuevos principios de la empresa afirman que los productos de inteligencia artificial de Google "se ajustarán: a los derechos humanos, sin explicar cómo. Este alejamiento de los usos explícitamente prohibidos de la IA es muy preocupante. A veces, simplemente es demasiado arriesgado utilizar la IA, un conjunto de tecnologías complejas y de rápido desarrollo cuyas consecuencias estamos descubriendo en tiempo real.
El hecho de que un líder mundial de la industria como Google pueda abandonar de repente prácticas autoproclamadas prohibidas subraya por qué las directrices voluntarias no son un sustituto de la regulación y la legislación obligatoria. La legislación y las normas internacionales vigentes en materia de derechos humanos son aplicables al uso de la IA, y la regulación puede ser crucial para llevar las normas a la práctica.
No está claro hasta qué punto Google seguía sus anteriores principios de responsabilidad en IA, pero los trabajadores de Google pudieron al menos citarlos para oponerse a un supuesto desarrollo irresponsable de la IA.
El giro de Google, que ha pasado de negarse a construir IA para armas a declarar su intención de crear IA que respalde empresas de seguridad nacional, es contundente. Los ejércitos utilizan cada vez más la IA en la guerra, donde su dependencia de datos incompletos o defectuosos y de cálculos erróneos aumenta el riesgo de daños a civiles. Estas herramientas digitales complican la rendición de cuentas por decisiones tomadas en el campo de batalla que pueden tener consecuencias de vida o muerte.
Los directivos de Google describen una "competencia mundial... por el liderazgo en IA" y afirman que creen que el desarrollo de la IA debe "guiarse por valores fundamentales como la libertad, la igualdad y el respeto de los derechos humanos". Sin embargo, la empresa está restando prioridad a la consideración de cómo las nuevas y potentes tecnologías afectan a nuestros derechos. Esto parece destinado a desembocar en una carrera a pique.
De acuerdo con los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos, todas las empresas deben cumplir con su responsabilidad de respetar los derechos humanos en todos sus productos y servicios. En el contexto del uso militar de la IA, lo que está en juego no podría ser más grave.