La ética de la IA explicada: por qué las empresas deben pensar en los daños potenciales de su tecnología

Perseguir la ética de la IA sobre el terreno se trata menos de asignar principios éticos a las acciones corporativas que de implementar estructuras y procesos de gestión que permitan a una organización detectar y mitigar amenazas.

La prisa por implementar nuevas y poderosas tecnologías de IA generativa, como ChatGPT, ha generado alarmas sobre posibles daños y mal uso. La respuesta glacial de la ley a tales amenazas ha provocado demandas de que las empresas que desarrollan estas tecnologías implementen la IA “éticamente”.

Pero, ¿qué significa exactamente eso?

La respuesta directa sería alinear las operaciones de una empresa con uno o más de las docenas de conjuntos de principios éticos de IA que han producido gobiernos, grupos de múltiples partes interesadas y académicos. Pero eso es más fácil decirlo que hacerlo.

Nosotros y nuestros colegas pasamos dos años entrevistando y encuestando a profesionales de la ética de la IA en una variedad de sectores para tratar de comprender cómo buscaban lograr una IA ética y qué es lo que les faltaba. Aprendimos que perseguir la ética de la IA en el terreno se trata menos de mapear principios éticos en acciones corporativas que de implementar estructuras y procesos de gestión que permitan a una organización detectar y mitigar amenazas.

Es probable que esta sea una noticia decepcionante para las organizaciones que buscan una guía inequívoca que evite las áreas grises y para los consumidores que esperan estándares claros y protectores. Pero apunta a una mejor comprensión de cómo las empresas pueden buscar una IA ética.

LIDIAR CON LAS INCERTIDUMBRES ÉTICAS
Nuestro estudio, que es la base de un próximo libro, se centró en los responsables de gestionar los problemas de ética de la IA en las principales empresas que utilizan la IA. Desde finales de 2017 hasta principios de 2019, entrevistamos a 23 de estos gerentes. Sus títulos iban desde oficial de privacidad y asesor de privacidad hasta uno que era nuevo en ese momento pero cada vez más común en la actualidad: oficial de ética de datos. Nuestras conversaciones con estos gerentes de ética de IA produjeron cuatro conclusiones principales.

Primero, además de sus muchos beneficios, el uso comercial de la IA presenta riesgos sustanciales, y las empresas lo saben. Los gerentes de ética de AI expresaron su preocupación por la privacidad, la manipulación, el sesgo, la opacidad, la desigualdad y el desplazamiento laboral. En un ejemplo bien conocido, Amazon desarrolló una herramienta de inteligencia artificial para ordenar los currículos y la capacitó para encontrar candidatos similares a los que había contratado en el pasado. El dominio masculino en la industria tecnológica significó que la mayoría de los empleados de Amazon fueran hombres. En consecuencia, la herramienta aprendió a rechazar candidatas. Incapaz de solucionar el problema, Amazon finalmente tuvo que desechar el proyecto.

La IA generativa plantea preocupaciones adicionales sobre la desinformación y el discurso de odio a gran escala y la apropiación indebida de la propiedad intelectual.

En segundo lugar, las empresas que persiguen una IA ética lo hacen en gran medida por razones estratégicas. Quieren mantener la confianza entre los clientes, socios comerciales y empleados. Y quieren adelantarse o prepararse para las regulaciones emergentes. El escándalo de Facebook-Cambridge Analytica, en el que Cambridge Analytica usó datos de usuarios de Facebook, compartidos sin consentimiento, para inferir los tipos psicológicos de los usuarios y atacarlos con anuncios políticos manipuladores, demostró que el uso poco ético de análisis avanzados puede destruir la reputación de una empresa o incluso , como en el caso de la propia Cambridge Analytica, derribarlo. Las empresas con las que hablamos querían ser vistas como administradores responsables de los datos de las personas.

El desafío que enfrentaron los gerentes de ética de la IA fue descubrir la mejor manera de lograr una «IA ética». Primero examinaron los principios éticos de la IA, en particular los que tienen sus raíces en la bioética o los principios de los derechos humanos, pero los encontraron insuficientes. No se trataba simplemente de que hubiera muchos conjuntos de principios en competencia. Era que la justicia, la equidad, la beneficencia, la autonomía y otros principios similares son impugnados y sujetos a interpretación y pueden entrar en conflicto entre sí.

Esto llevó a nuestra tercera conclusión: los gerentes necesitaban más que principios de IA de alto nivel para decidir qué hacer en situaciones específicas. Un gerente de ética de IA describió el intento de traducir los principios de derechos humanos en un conjunto de preguntas que los desarrolladores podrían hacerse para producir sistemas de software de IA más éticos. “Nos detuvimos después de 34 páginas de preguntas”, dijo el gerente.

En cuarto lugar, los profesionales que se enfrentaban a incertidumbres éticas recurrieron a estructuras y procedimientos organizativos para llegar a juicios sobre qué hacer. Algunos de estos eran claramente inadecuados. Pero otros, aunque todavía estaban en gran parte en desarrollo, fueron más útiles, como:

  • Contratación de un oficial de ética de AI para construir y supervisar el programa
  • Establecimiento de un comité de ética interno de IA para sopesar y decidir cuestiones difíciles
  • Elaborar listas de verificación de ética de datos y requerir que los científicos de datos de primera línea las completen
  • Llegar a académicos, ex reguladores y defensores de perspectivas alternativas
  • Realización de evaluaciones de impacto algorítmico del tipo que ya se usa en la gobernanza ambiental y de privacidad.

LA ÉTICA COMO TOMA DE DECISIONES RESPONSABLE

La idea clave que surgió de nuestro estudio es la siguiente: las empresas que buscan usar la IA de manera ética no deben esperar descubrir un conjunto simple de principios que brinde respuestas correctas desde una perspectiva que todo lo sabe, el ojo de Dios. En su lugar, deberían centrarse en la tarea muy humana de tratar de tomar decisiones responsables en un mundo de entendimiento finito y circunstancias cambiantes, incluso si algunas decisiones terminan siendo imperfectas.

En ausencia de requisitos legales explícitos, las empresas, al igual que las personas, solo pueden hacer todo lo posible para ser conscientes de cómo la IA afecta a las personas y al medio ambiente y mantenerse al tanto de las preocupaciones del público y las últimas investigaciones e ideas de los expertos. También pueden buscar aportes de un conjunto grande y diverso de partes interesadas y comprometerse seriamente con principios éticos de alto nivel.

Esta simple idea cambia la conversación de manera importante. Alienta a los profesionales de la ética de la IA a concentrar sus energías menos en identificar y aplicar los principios de la IA, aunque siguen siendo parte de la historia, y más en adoptar estructuras y procesos de toma de decisiones para garantizar que consideren los impactos, los puntos de vista y las expectativas públicas que deberían informar sus decisiones comerciales.

En última instancia, creemos que las leyes y los reglamentos deberán proporcionar puntos de referencia sustantivos a los que aspirar las organizaciones. Pero las estructuras y los procesos de toma de decisiones responsable son un punto de partida y deberían, con el tiempo, ayudar a construir el conocimiento necesario para elaborar normas jurídicas sustantivas protectoras y viables.

De hecho, la nueva ley y política de IA se centra en el proceso. La ciudad de Nueva York aprobó una ley que obliga a las empresas a auditar sus sistemas de IA en busca de sesgos dañinos antes de utilizar estos sistemas para tomar decisiones de contratación. Los miembros del Congreso han presentado proyectos de ley que exigirían que las empresas realicen evaluaciones de impacto algorítmico antes de utilizar la IA para préstamos, empleo, seguros y otras decisiones consecuentes. Estas leyes enfatizan los procesos que abordan de antemano las muchas amenazas de la IA.

Algunos de los desarrolladores de IA generativa han adoptado un enfoque muy diferente. Sam Altman, el CEO de OpenAI, explicó inicialmente que, al lanzar ChatGPT al público, la compañía buscó darle al chatbot «suficiente exposición al mundo real para que encuentres algunos de los casos de uso indebido en los que no habrías pensado para que puedes construir mejores herramientas”. Para nosotros, eso no es IA responsable. Es tratar a los seres humanos como conejillos de indias en un experimento arriesgado.

El llamado de Altman en una audiencia del Senado de mayo de 2023 para la regulación gubernamental de la IA muestra una mayor conciencia del problema. Pero creemos que va demasiado lejos al transferir al gobierno las responsabilidades que también deben asumir los desarrolladores de IA generativa. Mantener la confianza pública y evitar daños a la sociedad requerirá que las empresas asuman más plenamente sus responsabilidades.

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.

Escrito por Dennis Hirsch, profesor de derecho e informática y director del Programa de datos y gobernanza de la Universidad Estatal de Ohio. Piers Norris Turner, profesor asociado de filosofía y director del Centro de Ética y Valores Humanos de la Universidad Estatal de Ohio.