Tecnología, ética y ley: Cómo enfrentar nuestro futuro impulsado por la IA


Brad Smith, Where Law of Tech Meets Tech of Law

La tecnología digital avanza a diario. El amplio poder computacional de la nube y una inmensa acumulación de datos se han reunido. La Inteligencia Artificial (IA) crece a nuestro alrededor y las computadoras se comportarán más y más como humanos.

¿Cómo afecta a individuos y sociedad esta transformación global’ Y, ¿Qué leyes deberían ser promulgadas para guiar la marcha del progreso en un mundo digital?

Para Brad Smith, Presidente de Microsoft, esto comienza cuando se hace una pregunta ética fundamental acerca de “no sólo qué pueden hacer las computadoras, también que deberían hacer”.

“Esa es la pregunta que cada comunidad, y cada país en el mundo, necesitará hacerse en el transcurso de la siguiente década”, comentó a abogados, legisladores y académicos durante una visita a Singapur – una ciudad estado con un impresionante registro de adopción de nuevas tecnologías e innovación.

Mientras los desarrolladores, con toda razón, se emocionan por los innovadores productos que crean, “no podemos darnos el lujo de ver al mundo con ojos faltos de crítica”, advirtió.

Conforme las computadoras comienzan a actuar más como humanos, habrá retos sociales. “No sólo necesitamos una visión tecnológica para la IA, necesitamos una visión ética para la IA”, mencionó.

Estos problemas éticos no deberían ser el foco sólo de “ingenieros y empresas tecnológicas… De hecho, lo son para todos” porque cada vez más personas y organizaciones crean sus propios sistemas de IA a través de los “bloques de construcción” tecnológicos que las empresas, como Microsoft, producen.

Smith – quien dio una presentación en la conferencia TechLaw.Fest y en la Escuela Lee Kuan Yew de Políticas Públicas en la Universidad Nacional de Singapur – comentó que la ciudad del sudeste asiático “es un gran lugar para ver el futuro y qué tan dispersa de manera amplia es y será la creación de IA”.

Brad Smith, Presidente de Microsoft (izq), y el Doctor Janil Puthucheary, Ministro del Estado para Comunicaciones, Información y Educación, en una charla en la Escuela Lee Kuan Yew de Políticas Públicas en la Universidad Nacional de Singapur.

A inicios de 2018, Smith y Harry Shum, quien es Vicepresidente Ejecutivo del Grupo de IA e Investigación en Microsoft, escribieron en conjunto el libro The Future Computed: Artificial Intelligence and its role in society. Y durante su visita a Singapur, Smith exploró seis principios éticos clave a considerar.

Equidad. “¿Qué significa crear tecnología que comienza a tomar decisiones como lo hacen los seres humanos? ¿Las computadoras serán justas? ¿O las computadoras van a discriminar en maneras que abogados, gobiernos, y reguladores encuentren ilegales? Si el conjunto de datos es tendencioso el sistema de IA lo será”. Parte de esto es una urgente necesidad de ajustar cualquier falta actual de diversidad en el sector tecnológico actual que está dominado por el sexo masculino.

Confiabilidad y Protección. La mayoría de las leyes y normas actuales de responsabilidad de producto están basadas en el impacto de tecnologías inventadas hace un siglo o más. Esto requiere evolucionar para enfrentar el aumento de computadoras e IA. “La gente necesita entender no sólo lo que puede hacer la IA, sino también los límites de lo que la IA puede hacer”. Esto asegurará que los humanos estén al tanto y se realicen pruebas extensas.

Privacidad y Seguridad. “Conforme leemos sobre los problemas en las noticias, y pensamos acerca de hacia dónde se dirige la IA y otras tecnologías de la información, existen algunos problemas que son más importantes. Debemos empezar con aplicar las leyes de privacidad que existen en la actualidad, pero luego pensar sobre las brechas en esas reglas legales… para que la gente pueda gestionar sus datos, para que podamos diseñar sistemas que protejan contra los criminales y asegurar un uso responsable de los datos”.

“No sólo necesitamos una visión tecnológica para la IA, necesitamos una visión ética para la IA”.

Inclusividad. “Muchas personas tienen alguna discapacidad. Los sistemas basados en IA podrán hacer su día mejor o hacerlo peor. Esto depende de si la gente que diseña los sistemas de IA lo hace con las necesidades de estas personas en mente”.

Todas las cuatro áreas mencionadas arriba recaen en los siguientes dos puntos:

Transparencia. “Hay una doctrina de ‘explicar todo’ que emerge de manera rápida en el campo de la IA”. En otras palabras, la gente que crea sistemas de IA tiene la responsabilidad de asegurar que aquellos que los utilicen, o que sean impactados por, esos sistemas sepan “cómo funcionan en realidad los algoritmos. Y ese va a ser un problema muy complicado”.

Por último, está el “principio fundamental” de la Responsabilidad. “Mientras pensamos acerca de impulsar a las computadoras para que tomen más decisiones, necesitamos asegurar, de manera fundamental, que las computadoras mantengan responsabilidad con la gente. Y, necesitamos asegurarnos de que la gente que diseña estas computadoras y esos sistemas tenga un nivel de responsabilidad con otras personas y el resto de la sociedad.”

Estas seis áreas se complementan entre sí. Pero aún así “no hacen todo lo que creo que el mundo va a necesitar”.

“Es por eso que hemos iniciado un llamado para la creación de, en efecto, un Juramento Hipocrático para codificadores, como el que existe para los doctores – un principio que hace un llamado a la gente que diseña esos sistemas para asegurar que la IA ‘no hará daño’”.

Smith mencionó que el lanzamiento de este libro con Shum ha encendido una conversación global. “Hemos encontrado que ha hecho que estudiantes alrededor del mundo se reúnan y diseñen diferentes versiones de este juramento y eso es justo lo que el mundo necesita, involucrar a la gente para que definan un futuro ético”.

Por último, sin embargo, no será suficiente sólo con que el mundo esté de acuerdo con la ética. “Porque si tenemos un consenso en la ética y eso es todo lo que hacemos, lo que vamos a encontrar es que sólo la gente ética diseñará sistemas IA de manera ética. Eso no será suficiente… Necesitamos tomar esos principios y volverlos ley.

“Sólo al crear un futuro donde la ley de IA sea tan importante en una década como, digamos, la ley de privacidad lo es hoy, aseguraremos que vivimos en un mundo donde la gente puede tener confianza en que las computadoras toman decisiones de manera ética”.

Mientras tanto, el rango de conjuntos de habilidades requerido por las empresas tecnológicas se hace más amplio. “Ciencia, tecnología, ingeniería, y matemáticas (STEM, por sus siglas en inglés) serán más importante que nunca. Pero conforme las computadoras se comportan más como humanos, las ciencias sociales, las humanidades, serán mucho más importantes para la creación de tecnología de lo que han sido en los años recientes”.

Comments (0)

Skip to main content