La inteligencia artificial pide un puesto en la mesa
junio 29, 2018 8:16 am

Tanto las oportunidades como los desafíos en materia de IA y uso de datos personales requerirán de empresas, gobiernos y sociedades que entiendan de datos, de algoritmos, de su alcance y de sus limitaciones

 

Logotipo de Facebook reflejado en una pantalla con información binaria. LIONEL BONAVENTURE AFP

 

 

 

Hace unas semanas aparecieron noticias preocupantes en todos los medios de comunicación sobre posibles influencias deshonestas en el referéndum sobre el Brexit y en la elección de Donald Trump como presidente de los Estados Unidos. Una empresa, Cambridge Analytica (CA), habría usado datos privados de Facebook para clasificar a los electores en grupos con especial sensibilidad hacia cierto tipo de noticias falsas y sesgadas. Una campaña personalizada usando este conocimiento sería la responsable de decantar estas votaciones.

 

 

Todos pudimos leer a intelectuales y analistas políticos preocupados por la vulnerabilidad de los procesos democráticos frente a la fuerza despiadada de los “algoritmos”. Se daba por supuesto que cualquier cosa es posible usando datos personales. Indirectamente se estaba entronizando una nueva religión. Los herejes estarían condenados por ingenuos o por desconocer el poder de la Inteligencia Artificial (IA).

 

 

Pero, ¿qué hay de verdad en todo esto? Los detalles no podemos saberlos porque el escándalo ha tomado la forma de una guerra de informaciones cruzadas. Y, como escribió Esquilo hace unos 2.500 años, “la verdad es la primera víctima de una guerra”. Sin embargo creemos que hay algunos hechos que deben tenerse en cuenta.

 

 

 

El tratamiento que habría hecho CA se basó en el trabajo científico publicado en 2015 en la prestigiosa revista PNAStitulado “Computer-based personality judgments are more accurate than those made by humans”. En este artículo se describe un estudio análogo con datos de Facebook. Lo publicado está lejos de ser útil más allá del mundo académico. Pero es cierto que hay otros resultados que sí están siendo aprovechables desde el punto de visto económico. Basta ver qué empresas ocupan los primeros puestos del mundo en valor bursátil y dónde estaban hace solo 10 años.

 

 

 

Daremos un ejemplo significativo. Cuando se trataba de averiguar la “actitud política” de los usuarios de Facebook, se pretendía clasificarlos en liberales o conservadores. La precisión del modelo aprendido por el algoritmo se midió usando el Área Bajo la Curva (en inglés, AUC). Esta es una medida que representa la proporción de pares de personas (una liberal y la otra conservadora) que son clasificados correctamente; es decir, 0.50 se correspondería con una clasificación al azar y 1.00 sería el acierto pleno. El resultado obtenido fue 0.63; mejor que el azar, pero bastante lejos de la perfección. Por otra parte, cuando se buscaba determinar los rasgos de la personalidad, el acierto se midió mediante el llamado coeficiente de correlación que, elevado al cuadrado, da un valor entre 0 (azar) y 1 (perfección). El algoritmo presentado en PNAS solo alcanzó un modestísimo 0.33.

 

 

 

 

Las personas que participaban en los experimentos que permitían obtener información sobre sus likes en Facebook, sin duda lo hicieron de buena fe, pero desconocían las repercusiones.

 

 

 

La mayor parte de quien opinó sobre esta cuestión no leyó el artículo de PNAS. Tampoco preguntó a quienes estaban en condiciones de explicarlo. En definitiva, hay un desconocimiento general sobre la IA, que hoy se considera sinónimo de Big Data o incluso de “algoritmo”.

 

 

 

La conclusión que podemos sacar de esta situación es que si las consecuencias del uso de la lA son importantes en nuestras vidas, deberíamos formar a nuestros hijos para que puedan tener una opinión crítica. Por otra parte, los poderes públicos deberían velar por la seguridad de sus ciudadanos. La entrada en vigor el 25 de mayo de la ley europea GDPR (General Data Protection Regulation) es una oportunidad para llevar esto a cabo.

 

 

 

En cualquier caso, tanto las oportunidades como los desafíos en materia de IA y uso de datos personales requerirán de empresas, gobiernos y sociedades que entiendan de datos, de algoritmos, de su alcance y de sus limitaciones, por lo que en los próximos años será muy importante la ‘educación en IA’ a todos los niveles.

 

 

 

También deberíamos pedir a nuestros opinadores que incluyan a la informática entre los conocimientos que se atribuyen a una persona culta. La IA, la Informática, debe tener ya un lugar en la mesa.

 

 

EL PAÍS

Antonio Bahamonde es catedrático de la Universidad de Oviedo en Gijón y presidente de la Sociedad Científica Informática de España (SCIE)

 

 

Amparo Alonso es catedrática de la Universidad de La Coruña

 

 

 

ç