“Sé que vas a morir. En menos de doce meses. Lo que no sé es por qué”

Esta podría ser la conversación que tengas con tu médico muy pronto, según la noticia que muestra la capacidad de la Inteligencia Artificial para predecir de manera muy fiable la muerte de una persona sin que la medicina sea capaz de explicar a priori las causas.

Así se cumple la profética tercera ley de Clarke, según la cual “cualquier tecnología suficientemente avanzada es indistinguible de la magia”

Una de las cuestiones que plantean noticias como estas es cómo podemos prepararnos para un mundo en el que la tecnología avanza a un ritmo que parece indicar que el ser humano puede perder el control “a manos” de las máquinas. ¿La fe o la ciencia pueden ser sustituidas por la sumisión? ¿La intuición va a desaparecer como capacidad humana, en favor de los datos?

La trampa del tablero de ajedrez

Viene muy a cuento el conocido cuento hindú en el que un rey pretende recompensar al brahmán que le había enseñado el juego del ajedrez, y, tan magnánimo como ingenuo, acepta su aparentemente humilde petición.

Es claro que sólo uno de los dos personajes había leído a Ray Kurzweil, y sabía que la trampa de los crecimientos exponenciales está en la segunda mitad del tablero.

granos2

O lo que es lo mismo, la ley de Moore acerca del ritmo de incremento de la capacidad de procesamiento de los ordenadores también parece que se está cumpliendo. El problema –uno de ellos, y no menor- es que el ritmo de evolución neurológica en el ser humano es el mismo y su curva de aprendizaje es un obstáculo difícil de superar.

¿Nos va a pasar lo mismo que al pobre rey, al que sus buenas intenciones se volvieron contra él? ¿Nos vamos a encontrar de la noche a la mañana con una tecnología que no podremos manejar?

Minority report

A poco que pensemos, hay una gran cantidad de situaciones en las que los procesos de computación de la información pueden interferir la toma de decisiones por parte de las personas.

Por ejemplo, ¿Y si los sistemas a bordo de un avión comercial impiden que los pilotos ejecuten sus rutinas de vuelo porque predicen un accidente que los seres humanos no pueden anticipar?

Si llevamos estas hipótesis al ámbito de las organizaciones, aparecen componentes éticos muy serios. ¿Dispondremos de programas que indiquen quién debe ser seleccionado y quién no?¿Nuestros sistemas serán capaces de predecir quién va a dejar la compañía en los próximos seis meses? ¿O quién va a mostrar un bajo nivel de desempeño? ¿O quién va a robar? ¿Quién va usar en beneficio propio información? ¿Qué nivel de transparencia debemos -y podemos-asegurar? ¿Con qué niveles de infalibilidad toleraremos trabajar?

De este modo podemos vernos inmersos en mundo similar al que vimos en la película Minority Report. Las mismas posibilidades, los mismos dilemas y dos grandes desafíos: ser capaces de diseñar tecnología al servicio del ser humano, e identificar qué habilidades de las personas, aún no sustituibles por los sistemas, aportan valor sostenible, y por tanto tenemos que desarrollar.

Me atrevo a hacer una quiniela con dos de las competencias que serán más críticas en el futuro inmediato: la capacidad para convertir los datos en información y la creatividad en la toma de decisiones. ¿Estamos invirtiendo en ellas?

3 comentarios

  1. 17 noviembre, 2019 at 1:53 pm — Responder

    Juan Antonio, una gran reflexión. Creo que dedicamos poco tiempo a estas cuestiones porque estamos muy ocupados con el pasado.

  2. 17 noviembre, 2019 at 6:02 pm — Responder

    Me ha gustado tu artículo, Juan Antonio. Quizás se plantean demasiadas preguntas, pero la relación máquinas/personas está muy bien establecida. ¿Somo capaces de imaginar la evolución de la tecnología?

  3. 17 noviembre, 2019 at 7:54 pm — Responder

    […] para predecir de manera muy fiable la muerte, Juan Antonio Esteban, en un artículo titulado Sé que vas a morir, lleva estas hipótesis sobre el desarrollo de la inteligencia artificial al mundo de los recursos […]

Responder

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *