Algunos estudios sobre las prácticas de fijación de fianzas muestran que las minorías tienen más del doble de probabilidades de quedar atrapadas en la cárcel sin poder pagar la fianza en comparación con sus contrapartes blancas. Los expertos no están de acuerdo sobre si las herramientas de evaluación de riesgos empeorarán o ayudarán a estas disparidades. Aquí, Cornell Watson escucha a un comisionado de la corte que fijó su fianza en efectivo de $1,000 en el Edificio de Seguridad Pública del Condado de Dane el 25 de mayo de 2018. Una evaluación de riesgos recomendó la liberación de Watson con una fianza firmada, a pesar de que enfrentaba seis cargos por delitos graves, incluido el incumplimiento de la fianza. El fiscal había recomendado una fianza en efectivo de $ 3,000. Coburn Dukehart / Centro de Wisconsin para el periodismo de investigación
Tiempo de leer: 5 minutos

A medida que los estados de todo el país comienzan a repensar el uso de la fianza, muchos recurren a los algoritmos, pero los críticos afirman que pueden tener prejuicios raciales.

La investigación muestra que las prácticas de fijación de fianzas ya están lejos de ser equitativas. Un estudio de la Universidad Estatal de Bowling Green de 2003 descubrió que los acusados ​​afroamericanos y latinos tenían más del doble de probabilidades que los acusados ​​blancos de quedar atrapados en la cárcel porque no podían pagar la fianza, un estudio que ha sido citado por otros investigadores más de 100 veces.

De manera similar, los un estudio de 2007 publicado en una revista revisada por pares en la Universidad de Missouri Central encontró que los acusados ​​afroamericanos y latinos tenían menos de la mitad de probabilidades de poder pagar los mismos montos de fianza que los acusados ​​blancos.

Pero si estos algoritmos informáticos empeorarán o ayudarán a corregir estas disparidades es objeto de un acalorado debate.

Las herramientas, llamadas evaluaciones de riesgo previas al juicio, utilizan datos sobre los acusados, incluidos sus antecedentes penales o su asistencia anterior a las audiencias judiciales, para predecir la probabilidad de que cometan un nuevo delito o se salten la audiencia si son liberados antes del juicio.

Los condados de Dane y Milwaukee utilizan Evaluaciones de Seguridad Pública, una de esas herramientas, para ayudar a tomar algunas o todas las decisiones de fianza. Otros siete condados (Chippewa, Eau Claire, La Crosse, Marathon, Outagamie, Rock y Waukesha) acordaron realizar programas piloto de anuncios de servicio público.

Robert E. Webb Jr., comisionado de la corte del condado de Milwaukee, se ve durante un descanso en la corte de admisión, donde se lleva a los acusados ​​​​después de ingresar en la cárcel del condado de Milwaukee. En el condado de Milwaukee, los jueces utilizan la Evaluación de seguridad pública para ayudar con las decisiones de fianza al predecir los riesgos de que un acusado cometa un nuevo delito o no comparezca ante el tribunal. Después de liberar a un acusado con una fianza firmada, a pesar de que no se presentó a una audiencia judicial anterior, Webb dice: "No seré tan comprensivo la próxima vez, independientemente de lo que diga la herramienta". Coburn Dukehart / Centro de Wisconsin para el periodismo de investigación

La mayoría de los acusados ​​son de bajo riesgo, por lo que la esperanza es que las herramientas alienten a los jueces a otorgar libertad preventiva a más acusados ​​de bajos ingresos, que pueden quedar atrapados en la cárcel por delitos menores solo porque son pobres y no pueden pagar la fianza.

Pero las herramientas han sido criticadas por casi 120 organizaciones de justicia penal que firmaron un declaración de julio argumentando que las herramientas de evaluación de riesgos previas al juicio pueden reforzar la desigualdad racial en el sistema de justicia penal. Monique Dixon, subdirectora de políticas y asesora principal del Fondo Educativo y de Defensa Legal de la NAACP, llamó a los algoritmos una “herramienta de opresión” para las personas de color.

El Instituto de Justicia Previa al Juicio, que aboga por prácticas de justicia previa al juicio "seguras, justas y efectivas", afirma lo contrario: tales herramientas pueden "reducir sustancialmente el impacto desigual que experimentan las personas de color".

La Red Colaborativa de Correccionales Comunitarias, una red compuesta por asociaciones que representan a más de 90,000 profesionales de libertad condicional, libertad condicional, antes del juicio y tratamiento en todo el país, también apoya el uso de las herramientas.

¿Cómo pueden estas organizaciones, todas dedicadas a la equidad en la justicia penal, llegar a conclusiones tan contrarias sobre las herramientas?

En realidad, nadie sabe con certeza qué efecto tendrá dicha evaluación de riesgos en las disparidades raciales existentes, dijo Chris Griffin, exdirector de investigación del Laboratorio de Acceso a la Justicia de la Universidad de Harvard, que está realizando un estudio de evaluación de riesgos en el condado de Dane.

“Simplemente no sabemos si los problemas con el sistema actual son mejores o peores que los problemas que podrían surgir con la herramienta”, dijo Griffin.

Las herramientas no 'causarán estragos'

Sharad Goel es profesor asistente en la Universidad de Stanford en ciencias administrativas e ingeniería. Goel dice que incluso si las evaluaciones de riesgo producen algunos resultados sesgados, probablemente sean mejores que los jueces cuyos sesgos personales influyen en las decisiones. Cortesía de Sharad Goel

Entonces, ¿por qué no evitar usar las herramientas por completo?

Griffin dijo que si los condados nunca implementan las herramientas, los investigadores nunca podrán probarlas para ver si ayudan al sistema. Eso es lo que los investigadores del Laboratorio de Acceso a la Justicia están haciendo en el condado de Dane en este momento.

“Siento simpatía por ese lazo de '¿Deberías publicar esto en el mundo antes de saber si funciona o no?' —dijo Griffin—. “Y mi respuesta es sí, pero si y solo si tiene suficiente evidencia para sugerir que no causará estragos”.

Sharad Goel, profesor asistente de ciencias administrativas e ingeniería en la Universidad de Stanford, dijo que los científicos informáticos aún no han encontrado evidencia de que los algoritmos tengan prejuicios raciales. Algunos datos sugieren que las herramientas no son discriminatorias, agregó.

Jeremy Travis es el vicepresidente ejecutivo de justicia penal de Arnold Ventures, que se asoció con destacados investigadores de justicia penal para crear la Evaluación de seguridad pública. Él dice que Arnold Ventures planea investigar más sobre si las herramientas reducen o exacerban los prejuicios raciales en el sistema de justicia penal. Cortesía de Arnold Ventures

En Kentucky, la PSA pronosticó igualmente bien tanto para los acusados ​​negros como para los blancos en términos del riesgo de cometer un nuevo delito o un nuevo delito violento, según un estudio reciente por investigadores del Research Triangle Institute, una organización independiente sin fines de lucro “dedicada a mejorar la condición humana”.

Cuando se implementó el PSA en el condado de Yakima, Washington, el condado vio una disminución de las disparidades raciales. La tasa de liberación de acusados ​​blancos se mantuvo igual, mientras que la tasa de liberación de latinos, afroamericanos, asiáticos y nativos americanos aumentó.

Arnold Ventures, que desarrolló el PSA, reclamaciones es neutral en cuanto a raza y género. Al calcular los puntajes de riesgo, el PSA no considera el origen étnico, los ingresos, el nivel de educación, el empleo o el vecindario de una persona, factores que algunos temen que puedan conducir a resultados discriminatorios.

Arnold Ventures, anteriormente conocida como la Fundación Laura y John Arnold, planea pruebas adicionales en esta área para obtener respuestas más definitivas.

“Es absolutamente lo más importante para nosotros poder garantizar que los esfuerzos de reforma de la fianza que incluyen evaluaciones de riesgo terminen con resultados que reduzcan las disparidades raciales”, dijo Jeremy Travis de Arnold Ventures.

Consolidar las disparidades sigue siendo un "riesgo real"

Las organizaciones que se oponen a la evaluación de riesgos han dicho que tales herramientas pueden basarse en datos de la justicia penal de EE. UU. en los que están incrustadas las desigualdades raciales. Cuando estos datos sesgados entran en el algoritmo, pueden convertirse en un ciclo de retroalimentación, lo que consolida las disparidades raciales.

Thea Sebastian se desempeña como asesora de políticas para Civil Rights Corps, una organización sin fines de lucro que trabaja para corregir la injusticia en el sistema legal. Su organización se opone al uso de herramientas de evaluación de riesgos para establecer la fianza. Ella dice que "mucho sesgo... se filtra en estos algoritmos". Clarissa Kimmey / Cuerpo de Derechos Civiles

“Incluso cuando solo incluye antecedentes penales, debido a las disparidades raciales que tenemos en el sistema legal penal, termina habiendo muchos sesgos que se filtran en estos algoritmos”, dijo Thea Sebastian, asesora de políticas de Civil. Rights Corps, una de las organizaciones que firmaron la declaración.

Goel reconoció que recrear sesgos es un "riesgo real", pero eso no significa que los algoritmos estén sesgados. La Red Colaborativa de Correccionales Comunitarias dijo que los resultados de las herramientas de evaluación de riesgos “reflejan la realidad de que existe un sesgo dentro del sistema de justicia penal”, y las herramientas mismas no tienen el poder de mitigar la discriminación arraigada en nuestro sistema actual.

Pero incluso una herramienta que usa datos de un sistema “contaminado” podría terminar dejando que más acusados ​​negros y latinos salgan del juicio previo, dijo Griffin.

Como mínimo, dijo Goel, las herramientas de evaluación de riesgos probablemente estén menos sesgadas que los jueces, ya que los tomadores de decisiones humanos por sí solos son “particularmente malos”.

“Hay que ver cuál es el statu quo. Tenemos… tomadores de decisiones que actúan según sus propios prejuicios”, dijo Goel. “Es un listón tan bajo en este momento en términos de mejorar las decisiones que creo que pueden tener un efecto positivo”.

La organización sin fines de lucro Wisconsin Center for Investigative Journalism (www.WisconsinWatch.org) colabora con Wisconsin Public Radio, Wisconsin Public Television, otros medios de comunicación y la Escuela de Periodismo y Comunicación de Masas de UW-Madison. Todas las obras creadas, publicadas, publicadas o difundidas por el Centro no reflejan necesariamente los puntos de vista u opiniones de UW-Madison o cualquiera de sus afiliadas.

Vuelva a publicar nuestros artículos de forma gratuita, en línea o impresos, bajo una licencia Creative Commons.

Historias populares de Wisconsin Watch

Emily Hamer se graduó recientemente de UW–Madison con títulos en periodismo y filosofía. Anteriormente trabajó como pasante para University Communications y WisPolitics, y como editora en el periódico The Badger Herald.