En una nueva revisiĂłn de sus normas Ă©ticas, una importante compañĂa del sector tecnolĂłgico ha suprimido su promesa anterior de no emplear la inteligencia artificial (IA) en usos ligados a armamento o vigilancia que puedan violar leyes internacionales o derechos humanos. Anteriormente, la polĂtica de la empresa prohibĂa la creaciĂłn de tecnologĂas capaces de causar daño general, incluidas armas, estando en consonancia con los principios de derechos humanos a nivel internacional.
Este cambio ha suscitado diferentes reacciones, tanto en el interior como en el exterior de la empresa. Algunos trabajadores han manifestado su inquietud en foros internos, poniendo en duda la orientaciĂłn que está adoptando la compañĂa. Por ejemplo, en la plataforma interna Memegen, se publicaron memes y comentarios crĂticos acerca de la decisiĂłn, demostrando preocupaciones sobre el empleo de la IA en ámbitos militares y de vigilancia.
La revisión de las pautas se da en un contexto de creciente competencia mundial por el dominio de la IA. Los directivos de la empresa sostienen que las democracias deben encabezar el desarrollo de la IA, guiándose por valores esenciales como la libertad, la igualdad y el respeto a los derechos humanos. Asimismo, subrayan la importancia de la cooperación entre empresas, gobiernos y organizaciones afines que compartan estos valores para desarrollar una IA que resguarde a las personas, impulse el crecimiento global y apoye la seguridad nacional.
Esta decisiĂłn representa un cambio importante respecto a la postura asumida en 2018, cuando la compañĂa prohibiĂł el uso de su tecnologĂa de IA en armamento luego de protestas internas por un contrato con el Departamento de Defensa de Estados Unidos para analizar videos de drones. Desde aquel entonces, la tecnologĂa ha progresado significativamente, y la IA se ha transformado en una herramienta omnipresente en numerosas aplicaciones, desde telĂ©fonos mĂłviles hasta internet.
Esta decisiĂłn marca un cambio significativo respecto a la postura adoptada en 2018, cuando la empresa prohibiĂł el uso de su tecnologĂa de IA en armamento tras protestas internas relacionadas con un contrato con el Departamento de Defensa de Estados Unidos para analizar videos de drones. Desde entonces, la tecnologĂa ha avanzado considerablemente, y la IA se ha convertido en una herramienta omnipresente en diversas aplicaciones, desde telĂ©fonos mĂłviles hasta internet.
La eliminaciĂłn de la prohibiciĂłn alinea a la empresa con otras en el sector tecnolĂłgico que permiten ciertas aplicaciones militares de sus tecnologĂas. Por ejemplo, desarrolladores de IA como Meta y OpenAI han permitido el uso de sus tecnologĂas en contextos militares. Esta tendencia refleja una reevaluaciĂłn de las polĂticas corporativas en respuesta a las dinámicas geopolĂticas y los avances tecnolĂłgicos actuales.
Sin embargo, esta decisiĂłn tambiĂ©n ha suscitado preocupaciones entre expertos y defensores de la Ă©tica en la IA. Algunos argumentan que el desarrollo de sistemas de armas autĂłnomas y herramientas de vigilancia impulsadas por IA podrĂa tener implicaciones Ă©ticas y de derechos humanos significativas. La comunidad cientĂfica ha advertido sobre los riesgos asociados con el desarrollo de armas autĂłnomas y ha abogado por un sistema de control global para mitigar posibles amenazas.



