La Evaluación de Seguridad Pública, o PSA, es un algoritmo informático que utiliza el historial criminal del acusado y su desempeño anterior en el tribunal para predecir los riesgos de cometer un nuevo delito o no comparecer ante el tribunal después de su liberación. La herramienta se está utilizando en el condado de Milwaukee y se está probando en el condado de Dane. Aquí, la PSA calificó al acusado Eddie Armstrong con un 3 de 6 por su probabilidad de cometer un nuevo delito y un 4 de 6 por su probabilidad de no comparecer ante el tribunal, siendo 6 el más riesgoso para cada medida. Emily Hamer / Centro de Periodismo de Investigación de Wisconsin
Tiempo de leer: 4 minutos

Pregunta: ¿Las herramientas de evaluación de riesgos previas al juicio reemplazan la discreción de un juez?

Respuesta No. Los jueces y los comisionados de la corte enfatizan que las herramientas de evaluación de riesgos previas al juicio son solo una parte de la información que tienen en cuenta al tomar decisiones sobre la fianza.

Durante las audiencias de fianza en los condados de Dane y Milwaukee, que utilizan una herramienta de evaluación de riesgos llamada Evaluación de seguridad pública, los comisionados de la corte también escuchan los argumentos de fianza de los abogados defensores y los fiscales.

Pregunta: ¿Se utilizan las evaluaciones de riesgo solo para las decisiones de fianza? ¿Cuántas herramientas de evaluación de riesgos hay?

Respuesta Hay muchas herramientas diferentes de evaluación de riesgos, que se utilizan en varios puntos del sistema de justicia penal, incluso durante las audiencias de fianza, sentencias, determinaciones de libertad condicional y decisiones de libertad condicional. A partir de 2017, se utilizaron hasta 60 herramientas de evaluación de riesgos en los Estados Unidos, según para informar para Centro para la Innovación de la Corte, una organización sin fines de lucro que realiza investigaciones y ayuda con los esfuerzos de reforma de la justicia penal en todo el mundo.

Las herramientas se pueden utilizar para conectar a los delincuentes con los programas de rehabilitación adecuados, determinar los niveles apropiados de supervisión como el monitoreo electrónico, reducir las sentencias de los delincuentes que presentan un bajo riesgo de reincidencia y desviar a los delincuentes de bajo riesgo de la cárcel o prisión.

Algunas herramientas de evaluación de riesgos están mejor diseñadas que otras, por lo que si una no funciona bien, no se refleja en todas las herramientas. Cada herramienta debe validarse, lo que significa que debe probarse su precisión en la población de la jurisdicción donde se utilizará.

Pregunta: ¿Sabemos cómo funcionan las herramientas de evaluación de riesgos?

Respuesta Algunas veces. Una herramienta de evaluación de riesgos llamada Gestión de delincuentes correccionales

La elaboración de perfiles para sanciones alternativas, o COMPAS, enfrentó controversia en 2016 debido a su naturaleza patentada.

En una caso que fue a la Corte Suprema de Wisconsin, el creador de la herramienta, entonces llamado Northpointe, Inc., no reveló cómo el algoritmo COMPAS determinó sus puntajes de riesgo o cómo sopesó ciertos factores, citando secretos comerciales. Un hombre de Wisconsin que fue sentenciado a seis años, en parte debido a un puntaje COMPAS, argumentó que la naturaleza secreta de la herramienta violaba sus derechos al debido proceso. El tribunal confirmó el uso de la herramienta, pero describió precauciones para que los jueces las consideren.

Otras herramientas, incluido el PSA, son más transparentes. Los factores de riesgo que utiliza la PSA y cómo se ponderan al calcular el riesgo están disponibles públicamente. Otra herramienta, el Instrumento de Evaluación de Riesgos Previos al Juicio de Virginia (VPRAI), también es transparente sobre sus métodos.

Aun así, Logan Koepke, analista principal de políticas de Repunte, una organización sin fines de lucro que investiga y aboga por tecnologías que promuevan la equidad en el sistema de justicia penal, dijo que incluso Arnold Ventures, que desarrolló el PSA, no revela los datos que usa para crear el algoritmo, que incluye alrededor de 750,000 casos de todo Estados Unidos. . Le gustaría una "línea de visión completa" en los conjuntos de datos utilizados para crear cualquier herramienta de evaluación de riesgos previa al juicio.

Pregunta: ¿ProPublica no probó que una evaluación de riesgo previa al juicio estaba sesgada contra los acusados ​​negros?

Respuesta Es complicado.

En 2016, en una ProPublica encontrado que COMPAS era "particularmente probable que marcara falsamente a los acusados ​​negros como (potenciales) futuros delincuentes, etiquetándolos erróneamente de esta manera en casi el doble de la tasa que los acusados ​​blancos". Debido a que los acusados ​​negros se vieron afectados de manera desproporcionada por estos "falsos positivos", ProPublica concluyó que el algoritmo estaba "sesgado contra los negros".

Investigadores de la Universidad Estatal de California, la Oficina Administrativa de los Tribunales de EE. UU. y el Instituto de Crimen y Justicia Desafiado Análisis de ProPublica. Cuando volvieron a analizar los datos de ProPublica, no encontraron evidencia de prejuicio racial.

COMPAS predijo correctamente el riesgo esencialmente a las mismas tasas para los acusados ​​blancos y negros, encontraron. Por ejemplo, para los acusados ​​clasificados como de alto riesgo, el 73 por ciento de los acusados ​​blancos reincidieron y el 75 por ciento de los acusados ​​negros reincidieron.

Pero cuando un grupo, en este caso, los acusados ​​negros, tiene una tasa base más alta de reincidencia, se garantiza matemáticamente que ese grupo tendrá más falsos positivos, dijo Sharad Goel, profesora asistente de ciencias administrativas e ingeniería en la Universidad de Stanford.

Pero eso no significa que el algoritmo en sí esté sesgado; refleja “patrones estadísticos reales” impulsados ​​por “desigualdades sociales” en el sistema de justicia, dijo Goel.

“Si los acusados ​​negros tienen una tasa general de reincidencia más alta, una mayor proporción de acusados ​​negros se clasificará como de alto riesgo... (y) una mayor proporción de acusados ​​negros que no reinciden también se clasificará como de alto riesgo”, dijo Goel en una columna de 2016 que coescribió en el Washington Post.

Una forma de reducir las diferencias sería calificar sistemáticamente a los acusados ​​blancos como más riesgosos de lo que realmente son, pero luego el algoritmo trataría a los acusados ​​de manera diferente según la raza, dijo.

Si se corrigieran las disparidades raciales en el sistema de justicia penal, una gran tarea que está fuera del alcance de una sola herramienta, se podrían incluir mejores datos en los algoritmos, dijo Chris Griffin, consultor del Harvard Access to Justice Lab, que es investigando en el condado de Dane sobre el PSA.

Los primeros datos del PSA muestran que más acusados ​​negros y latinos son puestos en libertad antes del juicio cuando se utiliza una herramienta de evaluación de riesgos, según Arnold Ventures. Según el Instituto de Justicia Previa al Juicio, tanto el PSA como el VPRAI son capaces de producir resultados de raza neutral.  

Pregunta: ¿Las herramientas de evaluación de riesgos previas al juicio darán como resultado "multitudes de criminales violentos” ser devuelto a la comunidad?

Respuesta Los datos muestran que la gran mayoría de los acusados ​​son de bajo riesgo cuando son puestos en libertad antes del juicio, lo que significa que la mayoría se presenta ante el tribunal y no comete nuevos delitos. Los datos también han demostrado que el 98 por ciento o más de los acusados ​​en prisión preventiva no cometen nuevos delitos violentos cuando son puestos en libertad.

Las herramientas de evaluación de riesgos recomiendan la liberación de los acusados ​​de bajo riesgo y la detención de los delincuentes de alto riesgo y potencialmente violentos. Los condados pueden elegir dónde trazar la línea sobre cuánto riesgo están dispuestos a aceptar.

En cualquier sistema, se cometerán errores porque es imposible predecir el comportamiento humano futuro con un 100 por ciento de precisión. En un sistema sin herramientas de evaluación de riesgos, los acusados ​​peligrosos pueden pagar la fianza y cometer un nuevo delito violento mientras están en libertad.

La única forma de prevenir toda nueva actividad delictiva violenta entre los acusados ​​en espera de juicio sería detener a todos. Eso sería inconstitucional.

La organización sin fines de lucro Wisconsin Center for Investigative Journalism (www.WisconsinWatch.org) colabora con Wisconsin Public Radio, Wisconsin Public Television, otros medios de comunicación y la Escuela de Periodismo y Comunicación de Masas de UW-Madison. Todas las obras creadas, publicadas, publicadas o difundidas por el Centro no reflejan necesariamente los puntos de vista u opiniones de UW-Madison o cualquiera de sus afiliadas.

Vuelva a publicar nuestros artículos de forma gratuita, en línea o impresos, bajo una licencia Creative Commons.

Historias populares de Wisconsin Watch

Emily Hamer se graduó recientemente de UW–Madison con títulos en periodismo y filosofía. Anteriormente trabajó como pasante para University Communications y WisPolitics, y como editora en el periódico The Badger Herald.