El pequeño cartel en la comisaría de Benalmádena (Málaga) podría haber parecido inocuo: “Riesgo: medio”. Fueron las palabras que el sistema VioGén asignó al caso de Lina, tras 35 preguntas sobre amenazas, maltrato y salud mental de su expareja. Tres semanas después, aquella evaluación resultó letal: su verdugo cruzó la orden de alejamiento denegada, prendió fuego a su casa y la dejó atrapada entre las llamas.
La tragedia de Lina reaviva el debate sobre las herramientas algorítmicas en la lucha contra la violencia de género. ¿Pueden sistemas como VioGén predecir con fiabilidad el peligro que corre una mujer? ¿O estamos delegando en un programa decisiones que deberían tomar policías y jueces con perspectiva humana?
VioGén: el algoritmo que vigila la violencia de género
VioGén (Sistema de Seguimiento Integral en los casos de Violencia de Género) es una plataforma desarrollada por la Guardia Civil, la Policía Nacional y la Universidad de Málaga. Desde 2014 se emplea en casi toda España (excepto País Vasco y Cataluña) para:
-
Registrar cada denuncia de violencia de género.
-
Evaluar el riesgo de reincidencia mediante un cuestionario de 35 ítems.
-
Clasificar a la víctima en cinco niveles: desde “despreciable” hasta “extremo”.
-
Determinar protocolos de seguimiento policiaco: visitas de agentes, pulseras telemáticas, escoltas…
¿Qué preguntas hace VioGén?
Algunos ejemplos de las 35 preguntas que responden las agentes al imputado y a la víctima:
Ítem | Variable medida |
---|---|
¿Ha mostrado el agresor conductas de control (celos)? | Dinámica de poder |
¿Posee armas o acceso a ellas? | Peligrosidad potencial |
¿Ha amenazado de muerte explícitamente? | Grado de violencia verbal |
¿Existen menores en el hogar? | Vulnerabilidad de terceros |
¿La víctima ha intentado romper la relación? | Motivación de huida |
Cada respuesta suma puntos que derivan en un score. Según el umbral, la mujer queda en nivel medio, alto o extremo. Solo a partir de “alto” la policía programa un seguimiento inmediato (visita en 7 días) o protección 24 h (nivel extremo).
El caso de Lina: cronología y puntos de fallo
Fecha | Hecho |
---|---|
Enero (día X) | Lina denuncia amenazas y un intento de agresión de su expareja en comisaría. |
Mismo día | VioGén la clasifica como “riesgo medio”. |
Día +1 | Solicita orden de alejamiento; un juzgado de Málaga la deniega. |
Semanas siguientes | Lina pide cambiar cerraduras; no obtiene apoyo. |
Día +21 | Su expareja entra con llave, incendia la casa. Lina muere calcinada. |
Inmediato | Arresto del agresor; familia y vecinos consternados. |
Punto clave: al ser “riesgo medio”, el protocolo exigía un nuevo seguimiento en 30 días. Lina ya no estaba viva para entonces. Si VioGén la hubiese declarado “alto”, la visita policial habría llegado en 7 días. ¿Habría bastado para salvarla?
Protocolos internacionales: VioGén frente a DASH y DARA
-
Reino Unido:
-
DASH (Domestic Abuse, Stalking, Harassment and Honour-Based Violence). Lista de verificación de 27 preguntas.
-
MARAC: reuniones multidisciplinares tras evaluación para coordinar apoyo.
-
-
Estados Unidos:
-
ODARA (Ontario Domestic Assault Risk Assessment). Modelo estadístico.
-
SARA (Spousal Assault Risk Assessment). Entrevista estructurada + juicio profesional.
-
Solo España usa un algoritmo integrado en comisarías y juzgados. Otros países combinan checklists con decisión humana en equipos multidisciplinares.
La justicia y la “lotería del código postal”
La magistrada María del Carmen Gutiérrez aclara que para autorizar una orden de alejamiento se requieren:
-
Prueba de delito (amenazas, agresión).
-
Peligro grave e inminente para la víctima.
VioGén es un elemento más, no vinculante. Estudios de la Universidad de Sevilla muestran que la tasa de concesión varía drásticamente entre provincias: algunas otorgan el 80 % de las solicitudes, otras solo el 30 %. Esa “lotería del código postal” obedece a:
-
Criterios discrecionales de jueces.
-
Diferente interpretación de la inminencia del peligro.
-
Recursos locales: partidos judiciales con más psicólogos o más juzgados especializados.
Críticas y defensores de VioGén
Críticas
-
Delegación algorítmica: riesgo de desresponsabilizar a policías y jueces.
-
Falsos negativos: víctimas subestimadas (caso Lina) quedan desprotegidas.
-
Falsos positivos: recursos malgastados en casos de bajo peligro.
-
Opacidad: el código del algoritmo no es público; se desconoce peso de cada variable.
Defensores
-
Eficiencia: homogeneiza criterios en 2.000 comisarías.
-
Estadísticas: detecta patrones que el juicio humano podría pasar por alto.
-
Aceptación policial: estudio de 2014 halló un 95 % de conformidad de agentes con la evaluación.
-
Complemento, no sustituto: inspectora Isabel Espejo sostiene que facilita seguimiento, sin eximir responsabilidad humana.
Hacia un sistema mixto: recomendaciones de expertos
-
Transparencia del algoritmo: publicar criterios y pesos para auditorías independientes.
-
Revisión multidisciplinar: combinar score algorítmico con evaluación de equipos de psicólogos, trabajadores sociales y juristas.
-
Alertas dinámicas: reevaluar el riesgo tras cada incidente menor, no solo con visitas periódicas.
-
Formación continua: entrenar a policías y jueces en sesgos algorítmicos y perspectiva de género.
-
Feedback loop: incorporar datos de casos resueltos (positivos y negativos) para recalibrar el modelo.
Conclusión: ni algoritmos ni humanos pueden fallar
La muerte de Lina expone las limitaciones de confiar ciegamente en un semáforo digital para la protección de vidas humanas. VioGén ofrece una evaluación estandarizada que ha salvado muchas mujeres, pero también puede subestimar casos extremos. La solución no es eliminar el algoritmo, sino reforzar el sistema con supervisión humana, transparencia y recursos adecuados.
-
Sin algoritmo, las decisiones quedarían al puro criterio individual, con mayor variabilidad y posibles injusticias.
-
Sin supervisión humana, un software no puede comprender matices emocionales, socioculturales ni urgencias que escapan a sus preguntas binarias.
Para honrar la memoria de Lina —y de tantas otras—, España debe avanzar hacia un modelo híbrido: algoritmos que alerten, equipos humanos que decidan y un marco judicial que actúe con celeridad. Solo así evitaremos que un “riesgo medio” se convierta en una condena de muerte.