¿Puede una computadora castigar?
En Minority Report, una novela de Phillip K. Dick publicada en 1956, las personas son detenidas y apresadas por crímenes que están a punto de cometer. Una tríada de criaturas mutantes predice homicidios, y un cuerpo especial de policía actúa en función de estas predicciones. El libro explora los dilemas morales del castigo preventivo.
No estamos tan lejos del universo de Dick, que Spielberg llevó al cine en 2002. Algunos tribunales de los Estados Unidos, al momento de decidir si una persona puede beneficiarse con la libertad condicional, hacen uso de software que predice la probabilidad de esa persona de reincidir. No hace falta ser especialista en inteligencia artificial para entender la idea fundamental: el software es un detector de patrones. El programa procesa toda la información disponible sobre reincidentes en el pasado, y el algoritmo clasifica a la persona que está frente al tribunal: ¿se parece lo suficiente a un reincidente?
Los problemas filosóficos saltan a la vista: mantener a alguien preso es una forma de castigarlo. ¿Podemos castigar a alguien solamente por que se parece a alguien que fue castigado en el pasado? ¿Podemos castigar a alguien por un crimen que todavía no cometió?
Filósofos y juristas han reflexionado desde tiempos antiguos sobre el problema del castigo. Platón, en las Leyes, anticipaba una idea central en la concepción moderna del castigo: el castigo se justifica por sus potenciales efectos benéficos. La versión moderna más influyente de este argumento se la debemos a Jeremy Bentham (1748-1832). Bentham sostenía que las acciones justas son las que aumentan la felicidad total (o reducen el sufrimiento), y que las acciones injustas son aquellas que generan más sufrimiento (o reducen la felicidad). El castigo representa un desafío, entonces, porque siempre agrega sufrimiento al mundo. La única manera de que esto sea aceptable es que el daño que le hacemos a la persona castigada se compense con los potenciales efectos benéficos de castigarla.
Dicho de otro modo, de acuerdo con esta concepción del castigo, que suele llamarse consecuencialista, castigamos mirando hacia el futuro. Lo hacemos porque nos importan las consecuencias: el castigo busca que el niño aprenda a comportarse, que el delincuente se reforme, o que no cometa otros crímenes mientras está encerrado, o que otros criminales potenciales se asusten y se vean disuadidos.
Ahora bien, si solo nos importara mirar al futuro, podríamos usar la fuerza del Estado contra una persona inocente para disuadir a las demás. Y eso, parece claro, es injusto: incluso si castigar a un inocente sirve para producir consecuencias deseables (que se reduzca el crimen, por ejemplo), esa persona no merece ser castigada. Este tipo de objeción se inspira en Immanuel Kant (1724-1804): no podemos tratar a las personas meramente como medios. Si las personas son fines en sí mismos, usar a un individuo como chivo expiatorio es no respetarlo en su humanidad.
Por eso castigamos también mirando hacia el pasado: castigamos a alguien porque lo merece. Esta es la dimensión retributiva del castigo. La principal diferencia entre las posiciones consecuencialistas y las retributivistas es que las primeras sostienen que el castigo tiene un valor instrumental: es valioso porque sirve para lograr fines valiosos. En cambio, de acuerdo con las segundas, el castigo es valioso en sí mismo. Cuando alguien infringe una norma, corresponde castigarlo, independientemente de si eso produce consecuencias deseables. En el mismo sentido, si alguien no infringe ninguna norma, castigarlo es inaceptable, sin importar qué tan beneficioso sea para la sociedad. El propio Kant entendía que sólo podían tomarse en cuenta los potenciales efectos positivos de condenar a un culpable. Es decir, lo fundamental es determinar si un individuo es merecedor del castigo. Sin esa determinación, discutir las consecuencias puede comprometernos con injusticias atroces.
Y este es el problema con los algoritmos predictivos en el sistema penal: la computadora nunca nos puede decir quién merece ser castigado. Sólo puede decirnos que una persona se parece mucho a los miembros de un determinado grupo. O puede decirnos que es probable que si metemos a esta persona presa, se produzcan efectos positivos. La dimensión retributiva del castigo conlleva un juicio de valor, que sólo podemos hacer las personas.
Sin ese juicio de valor, perdemos algo esencial del castigo. Cuando castigamos a alguien, además de imponerle alguna forma de sufrimiento, le estamos comunicando que merece ese sufrimiento. Si castigamos a alguien porque se parece a los miembros de un grupo, o porque predecimos una acción futura, no podemos decirle sinceramente que merece el castigo. Sólo le decimos que nos conviene castigarlo.
La computadora nunca puede decirnos que alguien merece ser castigado, pero quizás puede establecer, con probabilidad bastante alta, si alguien tiene las características de un culpable o de un inocente. ¿Qué pasa si las predicciones de la la inteligencia artificial se vuelven cada vez mejores? En particular, ¿qué pasa si las inteligencias artificiales se vuelven mucho más precisas que los jueces humanos? Los jueces que conocemos son bastante malos haciendo predicciones, y bastante sesgados al sentenciar: los estudios muestran que otorgan sentencias más duras cuando se acerca la hora del almuerzo y tienen hambre, o cuando su equipo de fútbol perdió, o que benefician al acusado si el juicio es el día de su cumpleaños…
¿Existe un punto en el que nuestras predicciones se vuelven tan precisas que cambia nuestra concepción del castigo? En Minority Report, las personas sólo son castigadas en nombre de las consecuencias futuras, preventivas, de ese castigo: es difícil decir que alguien merece un castigo por un crimen que todavía no cometió.
Usted, lector, puede pensarlo así: si lo acusan de un crimen que no cometió, ¿prefiere un juez humano, al que puede explicarle su caso, y que va a entender las circunstancias particulares de su situación, o un algoritmo que simplemente va a imprimir un veredicto sin explicarle por qué? ¿Y si ahora le digo que el juez humano acierta en 70% de las veces y el algoritmo acierta el 90%? ¿Cambia en algo su opinión?