![]()  | 
| Fuente Web | 
¿Qué obtienes cuando cruzas la tecnología avanzada con la
guerra y la vigilancia gubernamental? Cientos de empleados inestables, cientos
de miles de personas angustiadas y una cantidad incalculable de malas
relaciones públicas.
En Amazon, los empleados están en pie de guerra por la
decisión de la compañía de vender su software de reconocimiento facial
Rekognition a los departamentos de policía y agencias gubernamentales. La
tecnología usa inteligencia artificial (IA) para identificar, rastrear y
analizar rostros en tiempo real, y Amazon afirma que puede reconocer hasta 100
personas en una imagen e identificar "personas de interés" para fines
como la vigilancia gubernamental. En mayo, una investigación de la Unión
Americana de Libertades Civiles (ACLU) mostró que Amazon estaba comercializando
y vendiendo activamente el software de reconocimiento facial a las agencias gubernamentales.
Los trabajadores de Amazon no están de acuerdo. En una carta
interna al CEO Jeff Bezos la semana pasada, los empleados mencionaron el
informe de ACLU y sus temores de que el software se utilizara para dañar a los
más marginados.
"La tecnología como la nuestra juega un papel cada vez
más crítico en muchos sectores de la sociedad", dice la carta. "Lo
que está claro para nosotros es que nuestras prácticas de desarrollo y ventas
todavía tienen que reconocer la obligación que conlleva esto. Concentrarse
exclusivamente en el valor para los accionistas es una carrera hacia el fondo
en la que no participaremos. Rehusamos construir la plataforma que impulsa a
ICE, y nos negamos a contribuir con herramientas que violan los derechos
humanos. Como amazónicos éticamente interesados, exigimos una elección en lo
que construimos y una opinión sobre cómo se usa. Aprendemos de la historia y
comprendemos cómo se emplearon los sistemas de IBM en la década de 1940 para
ayudar a Hitler. IBM no se responsabilizó entonces, y para cuando se entendió
su rol, ya era demasiado tarde. No dejaremos que eso suceda nuevamente".
Los empleados pidieron a Amazon que dejara de vender
servicios de reconocimiento facial a las agencias policiales, dejaran de
asociarse con Palantir y otras compañías que trabajan con el Servicio de
Inmigración y Control de Aduanas (ICE), abandonaran por completo el negocio de
la vigilancia e implementaron fuertes medidas de transparencia sobre las
compañías y agencias usando los servicios de Amazon y cómo. Al hablar, los
empleados de Amazon agregan sus voces a las de muchos otros. El lunes,
organizaciones de derechos civiles, religiosos y comunitarios visitaron la sede
central de Amazon en Seattle, entregando más de 150,000 firmas de peticiones,
una carta de coalición firmada por 70 organizaciones comunitarias en los EE.UU.
y una carta de los accionistas de la compañía.
En una publicación de blog de junio, Amazon Web Services
(AWS) dijo que el software de reconocimiento facial de la compañía también se
ha utilizado para prevenir el tráfico de personas, la explotación infantil y el
robo de paquetes.
"Creemos que es un enfoque equivocado imponer una
prohibición a las nuevas tecnologías, ya que podrían ser utilizadas por las
malas personas para fines nefastos en el futuro", escribió el Dr. Matt
Wood, gerente general de AI en AWS. "El mundo sería un lugar muy diferente
si restringiéramos que la gente comprara computadoras porque es posible usarlas
para hacer daño".
La compañía no respondió a una solicitud de comentarios
adicionales y no respondió públicamente a la carta abierta de los empleados.
No solo Amazon
Lo que está sucediendo en Amazon apunta a una tendencia de
la industria tecnológica mucho más grande en los últimos meses. Los empleados
se están dando cuenta (y usan) de su capacidad de unirse para configurar la
política de la empresa y, con ella, las trayectorias de las causas que les
importan.
"Como este debate particular está siendo dirigido por
empleados dentro de las empresas, se está jugando en un foro muy público, lo
cual es inusual", dice Alan Smeaton, profesor de informática en la
Universidad de Dublín. "Señala una lucha de poder desde adentro".
En una publicación de blog de enero, Microsoft elogió su
orgullo de apoyar el trabajo de seguridad interna de ICE con sus servicios en
la nube. La controvertida política de "cero tolerancia" de la
administración Trump para las personas que cruzan la frontera ilegalmente ha
sido noticia en las últimas semanas por separar a más de 2,300 niños de sus
familias. (después de un alboroto nacional, el presidente Trump firmó una orden
ejecutiva para mantener unidas a las familias). La semana pasada, más de 100
empleados de Microsoft firmaron una carta abierta al presidente ejecutivo,
Satya Nadella, en protesta por el contrato de la compañía con ICE.
"Creemos que Microsoft debe adoptar una postura ética y
poner a los niños y las familias por encima de las ganancias", dice la
carta. "Como las personas que crean las tecnologías de las que Microsoft
se beneficia, nos negamos a ser cómplices. Somos parte de un movimiento en
crecimiento, compuesto por muchos en toda la industria que reconocen la grave
responsabilidad que tienen quienes crean una poderosa tecnología para
garantizar que lo que construyen se use para bien, y no para dañarlo ".
En un memo interno a los empleados, Nadella denunció la
política de separación familiar en la frontera como "cruel y
abusiva", pero también restó importancia a la participación de la compañía
con ICE. "Quiero dejarlo claro: Microsoft no está trabajando con el
gobierno de los EE. UU. en ningún proyecto relacionado con la separación de
niños de sus familias en la frontera", escribió, y mencionó que los
servicios en la nube son para "correo, calendario, mensajería y gestión de
documentos". No presentó pautas de transparencia específicas para estos
contratos y, en respuesta a una solicitud de comentarios, un representante dijo
que Microsoft no tenía nada más que comentar.
Los empleados de Amazon y Microsoft no son los únicos
trabajadores tecnológicos que emiten una alarma.
En marzo, el sitio de noticias tecnológicas Gizmodo informó
por primera vez sobre la decisión de Google de emplear a inteligencia
artificial para apoyar un controvertido programa piloto militar llamado Project
Maven. La iniciativa tiene como objetivo mejorar el análisis de metraje de
drones mediante la auto clasificación de imágenes de personas y objetos, y
podría utilizarse para hacer que los ataques con drones sean más precisos. La
participación de Google provocó la renuncia de aproximadamente 12 empleados.
"En algún momento, me di cuenta de que no podía
recomendar de buena fe a nadie que se uniera a Google sabiendo lo que
sabía", le dijo un empleado de Google a Gizmodo en mayo. "Me di
cuenta de que si no puedo recomendar que la gente se una, ¿por qué sigo
aquí?" (En noticias relacionadas, la compañía silenciosamente eliminó la
mayoría de las menciones de su viejo lema "Don’t be evil" del código
de conducta de toda la compañía a fines de abril o principios de mayo).
La participación de Google en Project Maven provocó una gran
protesta pública, y los investigadores de AI de todo el país firmaron una carta
abierta en la que le pedían a la compañía que se comprometiera a no utilizar
nunca su tecnología. Google anunció en junio que no renovaría su contrato con
el Pentágono luego de su expiración el próximo año.
"Reconocemos que una tecnología tan poderosa plantea
preguntas igualmente importantes sobre su uso", publicó Google en un blog
en junio después del anuncio de que la compañía no renovaría su contrato con el
Pentágono. La firma presentó siete principios para su futuro trabajo en IA,
aclarando que no serían tratados como conceptos teóricos sino como
"estándares concretos que gobernarán activamente nuestra investigación y
desarrollo de productos". Los principios mismos: ser socialmente
beneficioso, evitar crear o reforzar los prejuicios injustos, construirse y
someterse a pruebas de seguridad, rendir cuentas a las personas, incorporar
principios de diseño de privacidad, mantener altos estándares de excelencia
científica y estar disponibles para usos acordes con estos principios.
Google también estableció claramente las pautas para los
usos de inteligencia artificial que no perseguirá, aunque el lenguaje podría
decirse que permite cierto margen de maniobra. En cuanto a las tecnologías que
causan o pueden causar un daño general, la empresa aclaró: "Donde haya un
riesgo material de daño, procederemos solo cuando creamos que los beneficios
superan sustancialmente los riesgos e incorporarán las restricciones de
seguridad apropiadas". La compañía dice que no colaborará en armas u
"otras tecnologías cuyo principal propósito o implementación sea causar o
facilitar lesiones directas a las personas", así como "tecnologías
que recopilan o usan información para la vigilancia violando normas
internacionalmente aceptadas" y "tecnologías" cuyo propósito
contraviene los principios ampliamente aceptados del derecho internacional y
los derechos humanos".
Power to the people
(El poder de la gente)
Cuando se trata del poder colectivo de los trabajadores de
la tecnología para dar forma a la naturaleza de la política de la empresa, las
implicaciones en las industrias, la política y las relaciones internacionales
son amplias.
Esas implicaciones no han sido exploradas adecuadamente por
investigadores, diseñadores de políticas y compañías tecnológicas, según los 26
autores detrás de un informe reciente titulado "El uso malicioso de la
inteligencia artificial". Los antecedentes de los autores abarcaron la
academia, la sociedad civil y la industria, desde el Universidad de Cambridge
al Instituto del Futuro de la Humanidad. Cuando se trata de seguridad política,
el informe destaca el uso potencial de IA para la propaganda y el engaño
dirigidos, como la manipulación de videos o el habla humana.
"Los investigadores de IA y las organizaciones que los
emplean se encuentran en una posición única para dar forma al panorama de
seguridad del mundo habilitado para la IA", dice el informe, que destaca
la necesidad de educación, estándares éticos y expectativas.
No es la primera vez que IA se ha visto implicada en
controversias. En 2015, Google Photos etiquetó a los usuarios afroamericanos
como gorilas, y en 2017, los desarrolladores rusos de FaceApp
"embellecieron" las caras aligerando los tonos de la piel. Pero
"lo que estamos viendo ahora es diferente", dice Smeaton, se debe a
controversias previas relacionadas con el uso de datos asimétricos utilizados
para entrenar la tecnología, no la tecnología de inteligencia artificial en sí.
Los investigadores de IA están cada vez más conscientes de
cómo el trabajo que pretendían para un solo uso podría ser utilizado por otros
para algo bastante diferente, quizás incluso con intenciones maliciosas.
Smeaton señala al investigador de la Universidad de Cambridge Aleksandr Kogan
como un excelente ejemplo. "Kogan no es el primero en descubrir que una
vez que su trabajo está fuera de la caja, otros toman el control de cómo se
usa", dice, mencionando que después de ver la devastación causada por las
bombas atómicas de Hiroshima y Nagasaki, Robert Oppenheimer intentó detener el
desarrollo posterior de la energía atómica 
y luego renunció al Proyecto Manhattan. "De alguna manera, estamos
viendo que la historia se repite", dice Smeaton.
Después de noticias sobre la participación de Google en la
tecnología de guerra y el Pentágono, más de 300 empleados de la industria
tecnológica firmaron una petición dirigida a Google, Amazon, Microsoft e IBM
con una premisa: la tecnología no debería estar en el negocio de la guerra.

No hay comentarios:
Publicar un comentario