Cuando Elon Musk asistió al debate de salón bimestral del Laboratorio de Inteligencia Artificial de Stanford que proviene de la costumbre francesa del siglo 18 en donde las personas se reunían a hablar con un anfitrión inspirador, le hizo una pregunta punzante acerca del futuro a la directora del laboratorio, Fei-Fei Li: "¿No está preocupada?" 

Mientras que Musk ha estado a la vanguardia de la conversación sobre el conflicto con respecto a las implicaciones futuras de la IA, Li ha estado del otro lado, haciendo avanzar a la tecnología al enseñarle a las computadoras a pensar (aprendizaje automático y ver (visión artificial). 

"No puedo estar preocupada", respondió. 

Li cree que la respuesta a lo que ella denomina "el conflicto de la IA" es simple: diversidad. Según Li, la IA no depende solo del gran código, sino también de la intención humana detrás de ella. Como una mujer asiática-americana en un campo dominado por hombres blancos, Li parece estar altamente calificada para introducir diversas intensiones humanas a su investigación innovadora.

 

¿Cuáles son algunas de las maneras en las que combate el "conflicto" de la IA?
Cuando me convertí en directora del Laboratorio de IA, me di cuenta de que no contábamos con una plataforma para realmente sentarnos y hablar acerca de IA en el contexto más amplio de la sociedad –leyes, ética, filosofía–; estamos todos tan concentrados en el desarrollo de la tecnología. Entonces creé el debate de salón con este fin.

Esta conversación es importante ya que, como alguien que investiga y desarrolla esta tecnología, no sólo estás creando un código para decidir cuándo evitar a un peatón en un vehículo autónomo. Tu decisión se referirá a la ética. ¿Y si tuvieras que elegir entre chocar un árbol que puede herir al conductor y chocar un carrito que lleva un bebé? No tengo una respuesta, pero necesitamos pensarla.

¿Cómo ha impulsado tu formación tu dedicación para hacer crecer la diversidad en la investigación de IA?
Ha sido un largo viaje. Mi pasado en este país es muy diferente al de un niño típico de clase media que tuvo una computadora desde los cinco años. Mi camino comenzó en un restaurant chino y trabajando como una chica de limpieza. Tenía un contacto más profundo con un aspecto diferente de la sociedad.

Además, soy madre. Ser madre te proporciona una percepción muy rica y profunda de la humanidad. Tengo que creer en el poder benevolente de mi tecnología. Debemos pensar en forma responsable, diseñar en forma responsable. Pienso en esto profundamente, porque soy madre.

Tú crees que esta visión humana de la tecnología creará diversidad. ¿Cómo?
Las personas de los ámbitos más diversos de la sociedad se encuentran mucho más atraídas a una declaración de misión humanística. Si pueden elegir entre estudiar una investigación sobre cáncer que cura el cáncer de mama o una investigación de IA que produce el siguiente dispositivo moderno, elegirán la investigación sobre cáncer. Introducir humanismo en la tecnología, lo cual es necesario para la tecnología en sí misma, también es una manera de atraer talentos diversos en el mundo de la tecnología.

La tecnología, sin importar lo poderosa que sea, se encuentra en manos de humanos. Por eso, desde la educación de técnicos humanísticos hasta el diseño de leyes y políticas responsables, toda la sociedad, todo el espectro, debe involucrarse.

En la función multiparte con WIRED Brand Lab, Lenovo observa seis innovadores extraordinarios que trabajan incansablemente para progresar en su campo. Visite las seis historias de la serie aquí.

Rahil Arora conduce el programa "Customer Stories" (Historias de los clientes) de Lenovo.