Más sobre la Inteligencia Artificial Explicable (XAI)
El pasado jueves, participé en una mesa redonda en el I Foro Garrigues Digital, organizado por el conocido despacho de abogados.
Aunque se trataron muchos temas muy interesantes, el asunto que generó más comentarios fue, sin duda, todo lo relacionado con la explotación de los datos y la regulación al respecto. No podía ser de otro modo, en estas semanas de resaca tras la plena entrada en vigor del GDPR.
Y entre las cuestiones relacionadas con los datos, me llamó la atención cuánto se habló de un concepto que, hace sólo unos meses, era un tema marcadamente de nicho: la explicabilidad de la inteligencia artificial.
(Si quieres conocer más sobre este término, te recomiendo el artículo del The New York Times que enlacé desde este post del año pasado sobre Inteligencia Artificial Explicable.)
No cabe duda de que el artículo 22 del GDPR ha extendido y popularizado la noción de que no siempre es sencillo entender qué ocurre en las tripas de los algoritmos de aprendizaje automático. Esto explica que, cuando en una mesa redonda preguntas a responsables jurídicos de Google, Facebook, IBM o Telefónica cuál es el principal reto al que se enfrentan actualmente con respecto a los datos, los cuatro coincidan en señalar directamente a la explicabilidad de los algoritmos.
La explicabilidad no es sólo una cuestión legal
Aunque me gustó ver cómo la explicabilidad de los algoritmos ocupaba un lugar central en una conversación así, también me quedó un cierto regustillo amargo.
El contexto importa, por supuesto: se trataba de un foro organizado por un despacho de abogados y protagonizado, en su mayor parte, por abogados. Así que era obvio que todo se iba a abordar desde la perspectiva jurídica. Pero es que no se mencionó, ni una sola vez, el impacto en el negocio de la (falta de) explicabilidad.
La dimensión legal de la explicabilidad no debería apropiarse por completo del discurso sobre el tema, porque no es la más importante. Tampoco es trivial, qué duda cabe, pero carece de sentido centrar los esfuerzos sobre la explicabilidad en el mero cumplimiento de las obligaciones legales o, digámoslo claramente, en cubrirnos el culo por si acaso algún día revienta la cloaca.
Carece de sentido porque tener cubiertos los riesgos legales que podrían emanar de un algoritmo sólo tiene sentido si estás seguro de que ese algoritmo hace lo que tú quieres que haga.
Es decir, mucho antes de pensar en si la explicabilidad de un algoritmo es suficientemente elevada como para estar tranquilos desde la perspectiva legal, debemos preguntarnos si esa explicabilidad es suficiente como para verificar que sus resultados son adecuados para el propósito que hemos planteado.
Porque, si no lo es, no tiene sentido continuar por ese camino.