Algunos expertos hablan de que nos encontramos ya en la Cuarta Revolución Industrial gracias a los avances conseguidos con Inteligencias Artificiales. Pueden jugar al ajedrez, pueden escribir artículos, pueden hackear. Pueden hacer prácticamente de todo y están constantemente aprendiendo más y más. ¿Deberíamos estar temiendo la revolución de las máquinas?

Elon Musk dice que sí, que hasta podríamos convertirnos en los “gatos domésticos” de las inteligencias artificiales. ¿Os imagináis que supondría eso? La verdad es que yo veo a mi gata durmiendo tranquilamente y no me parece tan mala idea. Sin embargo, Musk considera necesario evitar este posible futuro. Cree que la mejor manera de conseguirlo es unir nuestros cerebros con inteligencias artificiales, para que así nosotros sigamos pudiendo controlar a las máquinas. Es por esto por lo que ha invertido en Neuralink. Este chip va injertado al cerebro y ha conseguido que un mono pueda jugar videojuegos con el poder de su mente.

Otra de las opciones en las que Elon Musk lucha en esta guerra es con la inteligencia artificial de código abierto OpenAI. OpenAI puede escribir correos por ti y crear imágenes que antes no existían. Tal y como establecen en su página web, puedes probar su inteligencia artificial para “explorar las fortalezas y limitaciones de esta tecnología”.

Legislar sobre Inteligencias Artificiales también es necesario. Como explican en la Comisión Europea, las Inteligencias Artificiales “son un medio, no un fin”. La semana pasada publicaron el primer marco jurídico sobre Inteligencias Artificiales de la historia. Este, combinado con una nueva normativa sobre maquinaria y un nuevo plan de coordinación para los Estados miembro, planea dar respuesta a la necesidad de legislar sobre Inteligencias Artificiales.

La nueva legislación europea

Este nuevo marco jurídico “garantizará la seguridad y los derechos fundamentales de las personas y las empresas, al tiempo que reforzará la adopción, la inversión y la innovación en materia de IA en toda la Unión Europea”, explicaban en la propia Comisión.

“La confianza es una obligación, no un adorno, mediante estas reglas de referencia, la Unión Europea lidera la formulación de nuevas normas mundiales para que garanticen que se pueda confiar en la IA”, declaraba también Margrethe Vestager, vicepresidenta ejecutiva responsable de la cartera de una Europa Adaptada a la Era Digital.

La semana pasada, Nuria Oliver, que ya adelantaba este marco legislativo en el streaming de WATTBA, advertía sobre la facilidad con la que los seres humanos somos manipulados, poniendo como ejemplo los dark patterns de la informática persuasiva: “el principio ético de autonomía puede ser violado en cualquier momento del día, ¿cómo tener garantías de que no estamos siendo manipulados”.

Cuatro niveles de riesgo

Esto es lo que pretende esta nueva regulación estableciendo cuatro niveles distintos de riesgo. El nivel más extremo o “riesgo inadmisible” prohíbe las inteligencias artificiales que son una amenaza “para la seguridad, los medios de subsistencia y los derechos de las personas”. Es decir, aquellas IA que manipulan a las personas para eludir su voluntad o aquellas inteligencias que permiten a los gobiernos la puntuación de su ciudadanía.

Aquellos sistemas que permiten a empresas puntuar a posibles candidatos o a las que evalúan en la escuela se encuentran en un nivel de peligrosidad alto. En este nivel también se encuentran las inteligencias artificiales usadas en la aplicación de leyes, control de fronteras o la administración de justicia. No están totalmente prohibidas, pero tienen que pasar una serie de exámenes y aportar información a los posibles usuarios de que estarán siendo analizados por inteligencias artificiales.

Los otros dos niveles son los de riesgo “limitado”, como los robots conversacionales, y de “riesgo nulo”, como aquellos videojuegos basados en inteligencia artificial. Tal y como explican en la Comisión Europea, la inmensa mayoría de IA se encuentran en el último nivel por lo que el “reglamento no interviene aquí, ya que estos sistemas de IA solo representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos”.

Europa y las Inteligencias Artificiales

Nuria Oliver también explicó en WATTBA que su deseo era conseguir que Europa se convirtiera en el destino favorito para todos aquellos que quisieran investigar con IA, “que si eres una persona que quiere cambiar el mundo con inteligencias artificiales, quieras venir a Europa”.

Esto es lo que se quiere convertir con el proyecto ELLIS, con unidades en 14 países distintos de Europa. Esta fundación sin ánimo de lucro planea poder competir con Estados Unidos y China. De momento, lo están consiguiendo, el equipo de Nuria Oliver ganó el XPRIZE por su sistema de IA, que es capaz de predecir la evolución de la pandemia de Coronavirus y asesorar una serie de medidas óptimas.

Por otro lado, la Unión Europea planea invertir unos 20 billones de euros anuales en iniciativas públicas y privadas que investiguen inteligencias artificiales. Destacan algunas como FANDANGO (para la lucha contra Fake News), FABULOS (creación de un transporte público local compuesto por autobuses autónomos) o Deep Health (diagnóstico, seguimiento y tratamiento de enfermedades mediante Big Data y Deep Learning).

¿Y ahora qué?

La Comisión Europea está preparando otras dos normativas relacionadas con las Inteligencias Artificiales. En el segundo trimestre de 2021 se publicará una revisión de la legislación de seguridad sectorial para que los productos cumplan todos los requisitos establecidos anteriormente. A finales de 2021 o comienzos de 2022 se espera un reglamento que aborde los problemas de responsabilidad relacionados con las nuevas tecnologías.  

De momento, tendremos que esperar a que el Parlamento Europeo adopte el marco legislativo creado por la Comisión Europea. Una vez hecho esto, este reglamento será aplicable en todos los países miembro.