Ética y gobernanza de la Inteligencia Artificial

¿Por qué es tan importante la ética en temas de Inteligencia Artificial? ¿Somos vulnerables ante las nuevas tecnologías sin saberlo?

Dotar a la Inteligencia Artificial de valores y principios morales que rijan su desarrollo es un tema de interés compartido por los lideres empresariales. Nos enfrentamos al dilema de la ética y los valores frente a los avances tecnológicos que tienen a sus espaldas intereses creados.

Cuando los ingenieros desarrollan tecnología basada en IA es importante que sea supervisada por humanos competentes, probos moralmente, personas que sean capaces de imponer límites para evitar conductas abusivas.   Sucumbir a conductas que violen la ética es muy sencillo cuando son pocos los que saben o dominan lo que haces.

Prácticamente la mayoría de la población, en este momento, desconoce las implicaciones éticas en las que se incurre al diseñar un producto con Inteligencia Artificial, más allá de la implicación de los datos y preservar la privacidad de los usuarios, hay muchos espacios grises que pueden prestarse para manipulaciones y sistematizar conductas inapropiadas.

Luchar contra sesgos es parte de los retos. La batalla frontal contra la discriminación al momento de diseñar perfiles y soluciones, retirar anti-valores de los desarrollos de IA no es labor sencilla. Clic para tuitear

Directa o indirectamente los valores, juicios, la intencionalidad y la carga de condicionamientos culturales que posee quien desarrolla o crea productos de Inteligencia Artificial se verá reflejada en lo que haga, es por ello que la ética y legislación se hace necesaria.

Europa ha dado un paso adelante en el camino de la legislación para la IA denominada confiable. La Comisión Europea hizo público, el año pasado, un documento que contiene siete puntos para que el desarrollo de la inteligencia artificial (IA) en el territorio comunitario se haga de forma ética y beneficiosa para la sociedad.

De acuerdo con las directrices, la IA confiable debe ser:

(1) legal – respetando todas las leyes y regulaciones aplicables.
(2) ética – respetando principios y valores éticos.
(3) robusta, tanto desde una perspectiva técnica como teniendo en cuenta su entorno social.

Las directrices se engloban en siete requisitos clave que los sistemas de IA deben cumplir para ser considerados confiables, a saber:

  • Organismo humano y supervisión: Los sistemas de IA deben empoderar a los seres humanos, permitiéndoles tomar decisiones informadas y promover sus derechos fundamentales. Al mismo tiempo, es necesario garantizar mecanismos de supervisión adecuados, que se pueden lograr a través de enfoques de persona en el ciclo, persona con el lazo y persona con el comando.
  • Robustez y seguridad técnicas: Los sistemas de AI deben ser resistentes y seguros. Deben estar seguros, garantizar un plan de recuperación en caso de que algo salga mal, además de ser precisos, confiables y reproducibles. Esa es la única manera de garantizar que también se puedan minimizar y prevenir los daños no intencionados.
  • Privacidad y control de datos: Además de garantizar el pleno respeto de la privacidad y la protección de datos, también deben garantizarse mecanismos adecuados de control de datos, teniendo en cuenta la calidad e integridad de los datos y garantizando el acceso legítimo a los datos.
  • Transparencia: Los datos, el sistema y los modelos de negocio de AI deben ser transparentes: Los mecanismos de trazabilidad pueden ayudar a lograr esto. Además, los sistemas de AI y sus decisiones deben explicarse de una manera adaptada a los interesados ​​en cuestión. Los seres humanos deben ser conscientes de que están interactuando con un sistema de IA, y deben ser informados de las capacidades y limitaciones del sistema.
  • Diversidad, no discriminación y equidad: Debe evitarse el sesgo injusto, ya que podría tener múltiples implicaciones negativas, desde la marginación de los grupos vulnerables hasta la exacerbación del prejuicio y la discriminación. Fomentando la diversidad, los sistemas de IA deben ser accesibles para todos, independientemente de cualquier discapacidad, e involucrar a las partes interesadas relevantes a lo largo de todo su círculo vital.
  • Bienestar social y ambiental: Los sistemas de AI deben beneficiar a todos los seres humanos, incluidas las generaciones futuras. Por lo tanto, debe garantizarse que sean sostenibles y respetuosos con el medio ambiente. Además, deben tener en cuenta el entorno, incluidos otros seres vivos, y su impacto social y social debe considerarse cuidadosamente.
  • Responsabilidad: Deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de IA y sus resultados. La capacidad de auditoría, que permite la evaluación de algoritmos, datos y procesos de diseño, juega un papel clave, especialmente en aplicaciones críticas. Además, debe garantizarse una reparación adecuada y accesible.

Seguir estos siete requisitos establece una normativa que en principio ayudará a poner límites que hoy no tienen los desarrollos IA.

La publicación digital Retina indica sobre este tema que: “La infinita complejidad de un sistema de valores humanos hace que la inteligencia artificial no encuentre motivaciones amigables en formas de proceder humanas. No obstante, es la ética la que sostiene la mayoría de organizaciones. El común entender y la aceptación de nuestros esquemas culturales, implica el funcionamiento de complejos recovecos y motivaciones de la psique humana. Al incorporar la Inteligencia Artificial a los procesos de las organizaciones, es importante dotar a esta nueva tecnología de valores y principios. Y, dentro de las organizaciones, son los desarrolladores de esta tecnología las personas que realmente han de trabajar siendo conscientes de las implicaciones morales y éticas que conlleva su trabajo.«

La ética de la IA es considerada también desde la Academia, el director del MIT Media Lab Joichi Ito dirige un curso junto a Jonathan Zittrain confundador del Centro Berkman Klein para Internet y la Sociedad de la Universidad de Harvard, un curso de Ética y gobernanza de la Inteligencia Artificial.  

Todos estos pasos firmes hacia la legislación y democratización nos muestran que el tema ético de las nuevas tecnologías estará ocupando un sitial de importancia en las conversaciones que marcan el devenir de la sociedad.

Imagen: Pixabay

Fuentes Consultadas

https://retina.elpais.com/retina/2019/02/25/tendencias/1551089772_654032.html

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *