¿Qué es la Inteligencia Artificial (en adelante, IA)? La IA es un sistema, una simulación que comprende un conjunto de procesos que reproducen el pensamiento humano; automatizando actividades en base al aprendizaje y tomando decisiones para alcanzar el éxito en algún objetivo o tarea.
La Comisión Europea acaba de presentar una Guía ética de 7 puntos sobre el desarrollo de la inteligencia artificial. Con este documento, la Comisión pretende anticiparse a los cambios tecnológicos que se avecinan, de modo que la privacidad de las personas se vea garantizada evitando, así, abusos, ataques y manipulaciones. Se trata de un avance de las normas sobre robótica, que se irán actualizando e implantando en la Unión Europea en los próximos años. Estamos hablando de cifras de un mínimo de 200.000 millones de euros que la UE va a dedicar a este sector hasta 2030.
Las empresas deben ser conscientes de que la tendencia es que las compañías/creadores serán responsables de los daños causados a los humanos, en caso de que se produzca algún problema con la IA. Y es que se está empezando a exigir a las compañías transparencia y responsabilidad en estos temas ante el creciente desarrollo de sistemas y procesos automatizados. Incluso se ha planteado que instituciones imparciales supervisen los proyectos y los algoritmos de los sistemas de IA, aunque siempre garantizando el secreto profesional.
La Comisión considera que hay que ir profundizando en esta área de forma progresiva y diferenciando bien el contexto, ya que: «no es lo mismo una herramienta que falle al recomendar un libro a un lector que una aplicación que diagnostica erróneamente un cáncer«. De este modo, a fin de lograr una IA ética y confiable, las Directrices presentadas se pueden resumir en los siguientes puntos:
- SUPERVISIÓN: La IA debe empoderar a los seres humanos, garantizando el pleno ejercicio y disfrute de sus derechos fundamentales. Asimismo, deben articularse mecanismos que permitan comprobar que el sistema funciona correctamente.
- SEGURIDAD: Los algoritmos de la IA deben ser seguros, de modo que resistan cualquier intento de alteración que pueda producir algún error o daño. Debe existir un plan de contingencia y de restauración durante todas las fases del ciclo de vida de los sistemas de inteligencia artificial.
- CONTROL DE DATOS: Se debe de garantizar la privacidad, tanto en el acceso, como en la calidad y la integridad de los datos. Los ciudadanos deben tener el control sobre la información en todo momento.
- TRANSPARENCIA: Los datos, el sistema y los modelos de negocio de AI deben ser transparentes. Los seres humanos deben ser conscientes de que están interactuando con un sistema de IA, y deben ser informados de las capacidades, comportamientos y limitaciones del sistema. También debe conocerse quién o quiénes son los responsables de la IA.
- ACCESIBILIDAD: Los sistemas de IA deben ser accesibles para todos, independientemente de cualquier discapacidad, e involucrar a las partes interesadas durante todo el proceso.
- BIENESTAR: El desarrollo tecnológico debe de tener en cuenta su impacto social y medioambiental (teniendo en cuenta el entorno y su impacto social).
- RESPONSABILIDAD: La IA debe rendir cuentas ante auditores externos e internos, de modo que se realice una evaluación completa de sus resultados.
Documentación:
– GUÍA DE USO ÉTICO DE LA INTELIGENCIA ARTIFICIAL – UNIÓN EUROPEA[Texto en Inglés].