Hector Levesque |
Hector Levesque, científico informático y de robótica en la Universidad de Toronto, da un ejemplo de una pregunta simple que las personas pueden contestar en un segundo y que aturde a los ordenadores: La pelota grande golpeó la mesa atravesándola porque estaba hecha de poliestireno extruido. ¿Qué es lo que estaba hecho de poliestireno extruido, la pelota grande o la mesa? La respuesta nos viene sin esfuerzo porque entendemos qué es el poliestireno extruido y lo que pasa cuando dejas caer algo sobre una mesa y cómo suelen ser las mesas y lo que implica el adjetivo grande. Captamos el contexto, tanto de la situación como de las palabras usadas para describirla.
Un ordenador, al no tener ninguna comprensión real del mundo, encuentra el lenguaje de la pregunta irremediablemente ambiguo. Se queda atrapado en sus algoritmos.
Reducir la inteligencia al análisis estadístico de grandes cantidades de datos puede conducirnos, dice Levesque, a sistemas con un rendimiento impresionante que son, sin embargo, sabios-idiotas. Pueden ser muy buenos en el ajedrez, el Jeopardy!, el reconocimiento facial u otros ejercicios mentales muy delimitados, pero son completamente inútiles fuera de su área de pericia. Su precisión es extraordinaria, pero muchas veces es un síntoma de la estrechez de su percepción. Incluso ante preguntas susceptibles de respuestas probabilísticas, el análisis informático no es perfecto.
La velocidad y aparente exactitud de los cálculos de un ordenador pueden enmascarar limitaciones y distorsiones de los datos subyacentes, por no mencionar las imperfecciones de los propios algoritmos de búsqueda de datos. Cualquier gran conjunto de datos, dice Nicholas Carr, contiene abundantes correlaciones espurias junto a las fiables. No es difícil ser llevado a engaño por mera coincidencia o conjurar una asociación fantasma. Más aún, una vez que un conjunto de datos concreto se convierte en la base de importantes decisiones, los datos y su análisis son susceptibles de corromperse. La gente tratará de burlar al sistema buscando ventajas financieras, políticas o sociales.
Donald T. Campbell |
Como explicó el científico social Donald T. Campbell, cuanto más se usa un indicador social cuantitativo para la toma de decisiones sociales, más sujeto estará a presiones corruptas y más apto será para distorsionar y corromper los procesos sociales que está llamado a monitorizar.Cuando las condiciones se desvían de los patrones establecidos, los algoritmos pueden hacer predicciones brutalmente erróneas (algo que ya ha causado desastres a algunos fondos de cobertura y sociedades de valores sumamente automatizados). Para tener tantos dones,dice Nicholas Carr, los ordenadores muestran todavía una falta espeluznante de sentido común.
No hay comentarios:
Publicar un comentario