UNI Global Union pide el establecimiento de una convención mundial sobre inteligencia artificial ética

¿Qué pasará el día en que los robots se vuelvan más inteligentes que los humanos? ¿Estamos listos para ello? Sam Harris hace estas dos preguntas fundamentales en esta charla ted mindboggling. Él responde con un escenario:

«Piensa en cómo nos relacionamos con las hormigas. No las odiamos. No salimos de nuestro camino para dañarlas. De hecho, a veces nos esforzamos por no dañarlas. Pasamos sobre ellas en la acera. Pero cada vez que su presencia entra en serio conflicto con uno de nuestros objetivos, digamos cuando construimos un edificio como éste, las aniquilamos sin ningún escrúpulo. La preocupación es que algún día construiremos máquinas que, sean conscientes o no, podrían tratarnos con igual desprecio «.

31086904065_3f6b0c974b_kHarris no está solo al plantear preocupaciones acerca de los límites y fronteras de la inteligencia artificial. De hecho, el mundialmente famoso profesor Stephen Hawking ya en 2014 advirtió que «el desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana». Más tarde continuó: «La Inteligencia Artificial diezmará los empleos de clase media, empeorará la desigualdad y  «concluyó:» Tenemos los medios para destruir nuestro mundo, pero no para escapar de él. »

Otros académicos y expertos, como los dos profesores de Inteligencia Artificial Evers y Pantic , que se dirigieron a la Cumbre de Liderazgo de UNI, no están de acuerdo en los potenciales destructivos de la IA y del aprendizaje automático. Avisaron de que estamos a años, si no décadas, de una inteligencia artificial que pueda superar a la raza humana. ((Tech Crunch 2016, the Telegraph 2016). Ellos ven el aprendizaje automático y la inteligencia artificial como formas de inteligencia que beneficiarán a los seres humanos y apuntan a las muchas áreas donde la IA ya está beneficiando a la humanidad, y no es de los menores el campo de la asistencia sanitaria.Eric Schmidt, el presidente ejecutivo de Google Alphabet, dijo:

Imagina un mundo en el que aplicaciones y dispositivos inteligentes podrían ayudarnos a reconocer a todas las personas que hemos conocido, recordar cualquier cosa que hayamos dicho y experimentar cualquier momento que hayamos olvidado. Un mundo donde pudiéramos hablar cada idioma. (Ya vemos destellos de esto hoy con Google Translate.) Las herramientas sofisticadas de IA nos capacitarán para aprender mejor de las experiencias de otros y para transmitir más sobre nuestros aprendizajes a nuestros hijos «.

A pesar de estas dos opiniones fundamentalmente diferentes sobre cómo la IA afectará nuestras sociedades, ambos grupos creen que la AI está aquí para quedarse y ambos están de acuerdo en que cambiará significativamente nuestros mercados de trabajo, requisitos de capacidades y empleos. Además, un número creciente de grupos y empresas desconectados están empezando a enfocarse en los temas centrales de la ética del aprendizaje de las máquinas de IA ((www.futureoflife.org, World Economic Forum 2016, New York Times 2016 ).

Eric Schmidt de Google ha establecido tres principios para la IA para asegurar que beneficie positivamente a los seres humanos (Time 2015):

  • La IA debería beneficiar a la mayoría, no a unos pocos. La IA debe apuntar hacia el bien común.
  • La investigación y el desarrollo de la IA deben ser abiertos, responsables y socialmente comprometidos.
  • Aquellos que diseñan la IA deben establecer las mejores prácticas para evitar resultados indeseables. Debería haber sistemas de verificación que evalúen si un sistema de IA está haciendo auqeloo para lo que fue diseñado.

Los académicos Diakopoulos y Friedler argumentan que la responsabilidad de IA puede ser analizada a través de la lente de cinco principios básicos: responsabilidad, explicabilidad, exactitud, auditabilidad y equidad.

Y, aunque criticado por obsoleto y no aplicable a la Inteligencia super-inteligente, las «Tres Leyes de la Robótica» de Isaac Asimov en 1942 proporcionan otro conjunto de reglas, a saber

  • Un robot no puede dañar a un ser humano o, por la inacción, permitir que un ser humano sea dañado.
  • Un robot debe obedecer órdenes dadas por los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  • Un robot debe proteger su propia existencia siempre y cuando dicha protección no entre en conflicto con la Primera o Segunda Ley.

Si bien UNI Global Union apoya plenamente que estas consideraciones éticas estén siendo presentadas, no es suficiente que tengan lugar en círculos empresariales exclusivos, desconectados o en dominios académicos cerrados. La naturaleza global de la economía digital, sus implicaciones globales tanto para los trabajadores como para los ciudadanos, requieren de una solución global.

UNI Global Union pide por lo tanto el establecimiento de una convención global sobre el uso ético, el desarrollo y el despliegue de la inteligencia artificial, algoritmos y Big Data. Los universitarios, las empresas, los sindicatos, los consumidores, los gobiernos y las organizaciones de la sociedad civil deberían unirse para establecer estos estándares globales, de modo que no sólo se garantice una transición justa al mundo futuro del trabajo y la tecnología, sino también la tecnología futura en interés de los seres humanos, De manera justa, transparente y sostenible.

Publicado en UNI Global Union

Comentarios cerrados.