A medida que los estados de todo el país comienzan a repensar el uso de la fianza, muchos recurren a los algoritmos, pero los críticos afirman que pueden tener prejuicios raciales.
La investigación muestra que las prácticas de fijación de fianzas ya están lejos de ser equitativas. Un estudio de la Universidad Estatal de Bowling Green de 2003 descubrió que los acusados afroamericanos y latinos tenían más del doble de probabilidades que los acusados blancos de quedar atrapados en la cárcel porque no podían pagar la fianza, un estudio que ha sido citado por otros investigadores más de 100 veces.
De manera similar, los un estudio de 2007 publicado en una revista revisada por pares en la Universidad de Missouri Central encontró que los acusados afroamericanos y latinos tenían menos de la mitad de probabilidades de poder pagar los mismos montos de fianza que los acusados blancos.
Más de Más allá de la fianza
Pero si estos algoritmos informáticos empeorarán o ayudarán a corregir estas disparidades es objeto de un acalorado debate.
Las herramientas, llamadas evaluaciones de riesgo previas al juicio, utilizan datos sobre los acusados, incluidos sus antecedentes penales o su asistencia anterior a las audiencias judiciales, para predecir la probabilidad de que cometan un nuevo delito o se salten la audiencia si son liberados antes del juicio.
Los condados de Dane y Milwaukee utilizan Evaluaciones de Seguridad Pública, una de esas herramientas, para ayudar a tomar algunas o todas las decisiones de fianza. Otros siete condados (Chippewa, Eau Claire, La Crosse, Marathon, Outagamie, Rock y Waukesha) acordaron realizar programas piloto de anuncios de servicio público.

La mayoría de los acusados son de bajo riesgo, por lo que la esperanza es que las herramientas alienten a los jueces a otorgar libertad preventiva a más acusados de bajos ingresos, que pueden quedar atrapados en la cárcel por delitos menores solo porque son pobres y no pueden pagar la fianza.
Pero las herramientas han sido criticadas por casi 120 organizaciones de justicia penal que firmaron un declaración de julio argumentando que las herramientas de evaluación de riesgos previas al juicio pueden reforzar la desigualdad racial en el sistema de justicia penal. Monique Dixon, subdirectora de políticas y asesora principal del Fondo Educativo y de Defensa Legal de la NAACP, llamó a los algoritmos una “herramienta de opresión” para las personas de color.
El Instituto de Justicia Previa al Juicio, que aboga por prácticas de justicia previa al juicio "seguras, justas y efectivas", afirma lo contrario: tales herramientas pueden "reducir sustancialmente el impacto desigual que experimentan las personas de color".
La Red Colaborativa de Correccionales Comunitarias, una red compuesta por asociaciones que representan a más de 90,000 profesionales de libertad condicional, libertad condicional, antes del juicio y tratamiento en todo el país, también apoya el uso de las herramientas.
¿Cómo pueden estas organizaciones, todas dedicadas a la equidad en la justicia penal, llegar a conclusiones tan contrarias sobre las herramientas?
En realidad, nadie sabe con certeza qué efecto tendrá dicha evaluación de riesgos en las disparidades raciales existentes, dijo Chris Griffin, exdirector de investigación del Laboratorio de Acceso a la Justicia de la Universidad de Harvard, que está realizando un estudio de evaluación de riesgos en el condado de Dane.
“Simplemente no sabemos si los problemas con el sistema actual son mejores o peores que los problemas que podrían surgir con la herramienta”, dijo Griffin.
Las herramientas no 'causarán estragos'

Entonces, ¿por qué no evitar usar las herramientas por completo?
Griffin dijo que si los condados nunca implementan las herramientas, los investigadores nunca podrán probarlas para ver si ayudan al sistema. Eso es lo que los investigadores del Laboratorio de Acceso a la Justicia están haciendo en el condado de Dane en este momento.
“Siento simpatía por ese lazo de '¿Deberías publicar esto en el mundo antes de saber si funciona o no?' —dijo Griffin—. “Y mi respuesta es sí, pero si y solo si tiene suficiente evidencia para sugerir que no causará estragos”.
Sharad Goel, profesor asistente de ciencias administrativas e ingeniería en la Universidad de Stanford, dijo que los científicos informáticos aún no han encontrado evidencia de que los algoritmos tengan prejuicios raciales. Algunos datos sugieren que las herramientas no son discriminatorias, agregó.

En Kentucky, la PSA pronosticó igualmente bien tanto para los acusados negros como para los blancos en términos del riesgo de cometer un nuevo delito o un nuevo delito violento, según un estudio reciente por investigadores del Research Triangle Institute, una organización independiente sin fines de lucro “dedicada a mejorar la condición humana”.
Cuando se implementó el PSA en el condado de Yakima, Washington, el condado vio una disminución de las disparidades raciales. La tasa de liberación de acusados blancos se mantuvo igual, mientras que la tasa de liberación de latinos, afroamericanos, asiáticos y nativos americanos aumentó.
Arnold Ventures, que desarrolló el PSA, reclamaciones es neutral en cuanto a raza y género. Al calcular los puntajes de riesgo, el PSA no considera el origen étnico, los ingresos, el nivel de educación, el empleo o el vecindario de una persona, factores que algunos temen que puedan conducir a resultados discriminatorios.
Arnold Ventures, anteriormente conocida como la Fundación Laura y John Arnold, planea pruebas adicionales en esta área para obtener respuestas más definitivas.
“Es absolutamente lo más importante para nosotros poder garantizar que los esfuerzos de reforma de la fianza que incluyen evaluaciones de riesgo terminen con resultados que reduzcan las disparidades raciales”, dijo Jeremy Travis de Arnold Ventures.
Consolidar las disparidades sigue siendo un "riesgo real"
Las organizaciones que se oponen a la evaluación de riesgos han dicho que tales herramientas pueden basarse en datos de la justicia penal de EE. UU. en los que están incrustadas las desigualdades raciales. Cuando estos datos sesgados entran en el algoritmo, pueden convertirse en un ciclo de retroalimentación, lo que consolida las disparidades raciales.

“Incluso cuando solo incluye antecedentes penales, debido a las disparidades raciales que tenemos en el sistema legal penal, termina habiendo muchos sesgos que se filtran en estos algoritmos”, dijo Thea Sebastian, asesora de políticas de Civil. Rights Corps, una de las organizaciones que firmaron la declaración.
Goel reconoció que recrear sesgos es un "riesgo real", pero eso no significa que los algoritmos estén sesgados. La Red Colaborativa de Correccionales Comunitarias dijo que los resultados de las herramientas de evaluación de riesgos “reflejan la realidad de que existe un sesgo dentro del sistema de justicia penal”, y las herramientas mismas no tienen el poder de mitigar la discriminación arraigada en nuestro sistema actual.
Pero incluso una herramienta que usa datos de un sistema “contaminado” podría terminar dejando que más acusados negros y latinos salgan del juicio previo, dijo Griffin.
Como mínimo, dijo Goel, las herramientas de evaluación de riesgos probablemente estén menos sesgadas que los jueces, ya que los tomadores de decisiones humanos por sí solos son “particularmente malos”.
“Hay que ver cuál es el statu quo. Tenemos… tomadores de decisiones que actúan según sus propios prejuicios”, dijo Goel. “Es un listón tan bajo en este momento en términos de mejorar las decisiones que creo que pueden tener un efecto positivo”.
La organización sin fines de lucro Wisconsin Center for Investigative Journalism (www.WisconsinWatch.org) colabora con Wisconsin Public Radio, Wisconsin Public Television, otros medios de comunicación y la Escuela de Periodismo y Comunicación de Masas de UW-Madison. Todas las obras creadas, publicadas, publicadas o difundidas por el Centro no reflejan necesariamente los puntos de vista u opiniones de UW-Madison o cualquiera de sus afiliadas.