Antes la criba era humana: alguien leía currículums y decidía a quién llamar. Hoy, en muchos procesos, la primera puerta es un filtro automático. Este post explica cómo funciona, por qué deja gente fuera sin entrevista y qué efectos tiene sobre desigualdad, transparencia y oportunidades.
1. Introducción
Entras en una oferta, envías tu candidatura y… silencio. No es necesariamente que “no encajes”. A veces significa que no pasaste la primera máquina: un sistema que ordena, descarta o prioriza perfiles antes de que una persona mire nada.
El filtro previo no siempre es una “IA avanzada”. A veces es un conjunto de reglas. Pero el efecto es similar: la decisión ocurre antes del contacto humano, y eso cambia la experiencia del empleo.
2. Qué hace realmente un filtro automático
- Extraer información: títulos, fechas, habilidades, palabras clave.
- Normalizar: convertir currículums distintos en campos comparables.
- Puntuar: asignar una puntuación según criterios (requisitos, experiencia, coincidencias).
- Ordenar o cortar: se revisan solo los primeros N perfiles, o se descarta por umbral.
3. Por qué mucha gente queda fuera antes de la entrevista
Causa 1: el sistema confunde “señales” con “potencial”
Un filtro suele premiar señales fáciles de medir (palabras, títulos, años) y penalizar lo difícil (trayectorias raras, cambios de sector, aprendizaje informal).
Causa 2: requisitos convertidos en muros
En humano, un requisito puede ser flexible (“si falta, pero compensa con otra cosa”). En automático, un requisito puede convertirse en puerta cerrada.
Causa 3: sesgos heredados
Si el histórico de contrataciones favoreció ciertos perfiles, un sistema que aprende de ese histórico puede amplificar esa preferencia. Incluso sin “intención”, el patrón se replica.
Causa 4: opacidad práctica
Muchas veces no sabes si te rechazó una persona, una regla o una puntuación. Sin esa información, mejorar el CV se vuelve un juego de adivinanzas.
4. Cuadro comparativo
| Etapa | Criba humana clásica | Criba automática previa | Riesgo principal |
|---|---|---|---|
| Primera lectura | Interpretación contextual | Extracción y puntuación | Perder matices |
| Flexibilidad | Excepciones posibles | Umbrales y reglas rígidas | Descartar potencial |
| Transparencia | Motivos más “conversables” | Motivos difusos | Imposible aprender del rechazo |
| Escala | Límite de tiempo humano | Procesa miles | Error masivo |
5. Esquemas visuales
flowchart TD
A[Candidatura] --> B[Parser de CV]
B --> C[Campos: skills, experiencia, estudios]
C --> D[Puntuación / reglas]
D --> E{Umbral}
E -- Pasa --> F[Revisión humana]
E -- No pasa --> G[Descartado sin entrevista]
flowchart LR H[Histórico de contrataciones] --> M[Modelo / criterio] M --> R[Ranking de candidatos] R --> S[Perfiles priorizados] S -->|Retroalimenta| H
6. Línea de tiempo: de “selección” a “preselección automatizada”
- Etapa 1: RRHH filtra manualmente un volumen moderado.
- Etapa 2: aparecen sistemas de seguimiento de candidatos (ATS) con palabras clave.
- Etapa 3: ranking automático, tests, filtros de riesgo y priorización.
- Etapa 4: la entrevista llega tarde: primero pasas por máquina, luego por humano.
7. Implicaciones prácticas: cómo pensar tu CV en este entorno sin convertirlo en “spam”
- Claridad estructural: fechas, puestos y habilidades visibles, sin esconder lo básico.
- Coherencia semántica: usar términos habituales del sector, sin inflar ni inventar.
- Evitar muros innecesarios: si tienes un cambio de sector, explica el puente (proyectos, cursos, logros).
- Portafolio verificable: cuando aplica, muestra evidencia (proyectos, publicaciones, resultados).
- Aprender del silencio con prudencia: no es “culpa tuya” siempre; a veces es un filtro mal diseñado.
Cómo encaja este tema en el contexto actual
El filtro automático en empleo encaja con el debate de la Ley europea de IA, porque la selección y evaluación laboral puede entrar en categorías donde se exige más control, explicaciones y supervisión. No se trata de “prohibir”, sino de que una puerta tan decisiva sea auditable y tenga salidas cuando se equivoca.
También conecta con profesiones que desaparecen sin titulares: cuando el mercado cambia rápido, los currículums se vuelven más “raros” (saltos, reciclaje, transiciones). Un filtro rígido puede castigar justo a quien está intentando adaptarse.
Y, por último, enlaza con sesgos de la IA: un sistema puede parecer neutral, pero si aprende o se calibra con datos sesgados, termina amplificando desigualdades. La injusticia no siempre se ve; se nota cuando ciertas personas dejan de llegar a entrevista.
Comentarios
Publicar un comentario