Cada vez más gente usa la IA para descubrir vulnerabilidades en código y cobrar recompensas. El problema es que la IA se las inventa

Los programas de recompensas seguirán siendo esenciales para la seguridad digital, pero el auge de la generación automática de reportes obliga a replantear las reglas del juego

Los programas de recompensas seguirán siendo esenciales para la seguridad digital, pero el auge de la generación automática de reportes obliga a replantear las reglas del juego

En el mundo de la ciberseguridad, encontrar vulnerabilidades reales en sistemas y programas es una tarea compleja, laboriosa y sumamente valiosa. Por ello existen los llamados bug bounty programs —programas de recompensas por errores—, mediante los cuales empresas e instituciones pagan a investigadores de ciberseguridad por reportar fallos de seguridad antes de que los delincuentes puedan localizarlos y explotarlos. Los pagos pueden llegar a ser millonarios.

Sin embargo, en los últimos meses ha emergido una nueva amenaza inesperada: las vulnerabilidades falsas inducidas por la IA. Y es que estamos experimentando una oleada de «descubrimientos» inexistentes que está inundando las plataformas de referencia de bug bounty como HackerOne o Bugcrowd, en un intento de usuarios por conseguir recompensas rápidas sin hacer investigación real.

El fenómeno ha alcanzado tal nivel que incluso proyectos emblemáticos como cURL, una de las herramientas más utilizadas de la red, han tenido que tomar medidas drásticas: bloquear de inmediato a quienes envían reportes generados por IA.

Qué está pasando realmente

El caso de cURL es ilustrativo. Su responsable principal, Daniel Stenberg, recopiló recientemente decenas de reportes de ‘vulnerabilidades’ supuestamente críticas enviadas al programa oficial de recompensas de la herramienta. Los títulos suenan bastante alarmantes:

  • “Buffer Overflow Vulnerability in WebSocket Handling”
  • “HTTP/3 Stream Dependency Cycle Exploit”
  • “Use of Deprecated strcpy() with Fixed-Size Buffers”

Pero tras una revisión mínima, se descubrió que ninguna de ellas tenía la más mínima base técnica. Los informes repetían patrones comunes de descripciones generadas por IA: lenguaje vago, ejemplos de código inventado, ubicaciones de archivo incorrectas y referencias a funciones inexistentes.

En palabras de los propios responsables del proyecto:

«Nuestra política actual establece que banearemos instantáneamente a todos los que envían ‘AI slop'».

El término AI slop (literalmente ‘papilla de IA’) es uno de esos que seguramente estará generalizado en unos meses: se usa ya en varios entornos para describir contenido de baja calidad generado por modelos de lenguaje (coherente a simple vista, pero carente de sustancia técnica o de verificación factual).

Cómo se detecta el ‘slop’ generado por IA

Los responsables de seguridad están desarrollando estrategias para filtrar automáticamente este tipo de reportes. Como decíamos, algunos indicios comunes son:

  • Repetición de frases idénticas en múltiples informes.
  • Referencias a funciones, rutas o ficheros que no existen.
  • Código de ejemplo que no compila o carece de coherencia lógica.
  • Falta total de Proof of Concept (prueba de concepto) o de exploit verificable.

La economía del bug bounty y los incentivos perversos

Los bug bounty programs ofrecen incentivos financieros legítimos: grandes empresas como Google, Meta o Apple pagan entre cientos y miles de dólares por vulnerabilidades comprobadas. Esto ha generado un ecosistema de investigadores, muchos de ellos ‘freelance’, que dedican su tiempo a auditar código y buscar errores reales.

Pero con la expansión de herramientas generativas, apareció una tentación obvia: ¿y si una IA puede redactar un informe convincente de ‘caza de bugs’ sin que el supuesto experto se moleste en hacer su trabajo?