En el marco de Jalisco Talent Land 2023, una verdadera feria de la innovación, el emprendimiento y la empleabilidad, promovida por el gobierno de ese estado, el profesor Juan Alberto Amézquita Zamora, profesor del Campus Guadalajara, impartió la charla “Desarrollo ético y responsable de proyectos de inteligencia artificial (IA)”, en su calidad de coordinador del Comité de Riesgos Éticos y Gobernanza de Datos, de fAIr LAC Jalisco, iniciativa del Banco Interamericano de Desarrollo, el Hub de Inteligencia Artificial del Tecnológico de Monterrey y el gobierno de Jalisco. En dicha conferencia, el profesor Amézquita Zamora desarrolló, entre otras, las ideas que se describen a continuación.
La finalidad de incorporar la ética en los sistemas de IA no es otra que la maximización de los beneficios que tales desarrollos tecnológicos pueden traer para las personas y para nuestras sociedades, al tiempo que se minimizan sus posibles efectos adversos. No incluir la dimensión ética puede conducir a graves consecuencias sociales, legales, regulatorias, reputacionales, económicas e incluso penales. Por ejemplo, Amazon tuvo que retirar un sistema de inteligencia artificial que usó para agilizar los procesos de contratación de personal, pues se descubrió que tenía un sesgo discriminatorio que le impedía contratar a mujeres. Esta noticia afectó negativamente la imagen de la empresa, pero dejar de usar esta tecnología también implicó una considerable pérdida económica, sin considerar el efecto fundamental: la discriminación hacia las mujeres que intentaban obtener un puesto. Además de los sesgos que afectan a los algoritmos, los sistemas de IA requieren otras salvaguardas para garantizar que se proteja el derecho a la privacidad de las personas que los usan, y que los datos personales sean también protegidos. También deben ser sistemas robustos, en los que se mantengan altos estándares de ciberseguridad, para evitar hackeos o fugas de información. Asimismo, los procesos de toma de decisión de los sistemas de IA deben ser comprensibles para las personas usuarias, quienes deben contar con la posibilidad de impugnar dichas decisiones si les perjudican o dañan sus derechos fundamentales. Finalmente, los actores que desarrollan estos sistemas deben hacerse cargo de sus impactos y responder de ellos.
Existen diversas guías éticas para el desarrollo de los sistemas de IA, como la Recomendación sobre la Ética de la Inteligencia Artificial de la Unesco, o los Principios de la OCDE sobre Inteligencia Artificial. En todos los casos, el reto consiste en “operacionalizar los principios”, en frase de Reid Blackman, de manera que no sean solo guías o criterios abstractos, sino que conduzcan efectivamente el trabajo de quienes desarrollan estos sistemas. Para lograr esta operacionalización, es necesario considerar cómo funciona un sistema de inteligencia artificial e implementar tales principios a lo largo de todo su ciclo de vida, desde su conceptualización hasta su implementación y monitoreo. Como se ha visto en los ejemplos anteriores, los principios éticos como la equidad, la transparencia, la robustez del sistema, su seguridad y protección, y la rendición de cuentas se traducen en exigencias concretas como la eliminación de los sesgos, la explicabilidad del sistema, la ciberseguridad, la gestión integral de riesgos y las responsabilidades diferenciadas de los actores de la IA ante las personas usuarias por los impactos de los sistemas en las personas y las sociedades.
Una idea en la que hizo énfasis el profesor Amézquita Zamora en su charla es que la ética no puede ser considerada un añadido, un apéndice o un “chipote” del sistema de IA. No es el betún que se pone al final de la preparación del pastel, sino que la ética debe ser un ingrediente con el que debe “cocinarse” el proyecto desde un inicio. Para lograr esta incorporación de la ética en todo el ciclo de vida de un sistema de IA, se requiere un equipo especializado de personas expertas. Idealmente, deben participar personas expertas en ética de la tecnología, en ciberseguridad, gobernanza y protección de datos personales. Así como el equipo que desarrolla desde un punto de vista técnico un sistema de IA debe estar conformado por expertos y expertas, lo mismo aplica para el equipo que acompaña desde una perspectiva ética el desarrollo de un sistema de IA.
Este es uno de los principales aprendizajes obtenidos en el Comité de Riesgos Éticos y de Gobernanza de Datos de fAIr LAC Jalisco, sobre cuyo funcionamiento versó la última parte de la plática. El trabajo del profesor Amézquita Zamora en fAIr LAC Jalisco es una muestra del empeño de la EHE por desarrollar proyectos inter y transdisciplinares con otras Escuelas del Tecnológico de Monterrey, para contribuir a la humanización y al desarrollo ético de actividades relevantes para el progreso de nuestras sociedades y para el beneficio de las personas.