Un gran poder conlleva una gran responsabilidad

Si alguna vez habéis leído un comic sabréis que el mejor consejo que se ha visto nunca en la saga de comics de Marvel es cuando el tío de Peter Parker (de apodo, Spiderman) le dijo la frase ‘Un gran poder conlleva una gran responsabilidad’ (Winston Churchill también lo dijo, ¡pero solo nos acordamos de Spiderman!) Usando Inteligencia Artificial esta gran responsabilidad es más importante que nunca, ya que el poder capacitivo es el más potente nunca visto.

Hemos visto un abuso del poder de Inteligencia Artificial tanto intencionado como accidental. En algunos casos hay empresas y países que utilizan el reconocimiento facial y la usan sin consentimiento previo de los afectados. Incluso, en el Reino Unido, se han visto autoridades locales decidir sobre subsidios y otros beneficios de los ciudadanos sin tener en cuenta los riesgos de esta tecnología.

Esta tecnología va más rápida que ninguna regulación o ley. No es de extrañar que todas aquellas regulaciones y leyes han de ser muy robustas, ya que tienen un impacto directo en la sociedad. La pregunta es: ¿mientras no tengamos un marco legal, ¿quién se encarga del abuso de la Inteligencia Artificial?

Afortunadamente algunas empresas privadas, compañías de investigación y empresas del sector público han publicado los denominados “marcos éticos”. Una investigación de Anna John, Marcello Lenca y Effy Vayena de the Health Ethics & Policy Lab en la ETH, en Zurich en Suiza observa el panorama global que hace referencia a los marcos de Inteligencia Artificial. Han encontrado 84 documentos que contienen principios éticos y guías de IA, datados, la mayoría (88%) con anterioridad a 2016.

Es una sorpresa saber que hay acuerdos sobre los principios clave: la transparencia, lo que es justo y no que no, responsabilidad, privacidad, etc. Lo que no queda tan claro es saber como estos principios se han de interpretar. Encontrar una armonía entre diferentes países y culturas es la parte más compleja de alinear.

Una manera de solucionar esto sería intentar controlar el problema de inicio. Hannah Fry, profesora asociada de matemáticas en el University College London es partidaria de los desarrolladores de Inteligencia Artificial (concretamente, matemáticos e ingenieros) deberían firmar lo que equivaldría al Juramento hipocrático del doctorado. Aunque hay doctores con diferencias étnicas, para los matemáticos son más abstractas y habría más puntos de colaboración.

A nivel conceptual esto podría ser parte de la solución, pero se habría de definir quien se incluye y quien no. Los matemáticos no están regulados ni calificados de la misma manera que los doctores, mientras que la democratización de la Inteligencia Artificial es diaria. Si encontramos algunas personas con el raciocinio suficiente (en algunos casos, niños) para trabajar sobre un algoritmo e intentar seleccionar aquellos que se incluirían en el juramento podríamos hacer una selección más certera. Hannah Fry comparte sus ideas en la Royal Institution, en las conferencias de Navidad de 2019, este mes.

Aunque hay muchos problemas, es mejor comentarlos que silenciarlos. Cuanto más se señalen los abusos de la Inteligencia Artificial, más cerca estaremos de crear un marco regulador. Ya sea mediante juramentos y leyes internacionales, (o algo intermedio) esperamos verlo pronto.

Tags: Inteligencia Artificial