El mito del “99,8 % de precisión”: por qué la geolocalización por IP no se mide con un único número

En el mercado de la geolocalización por IP hay una cifra que aparece una y otra vez como si fuese un sello de calidad incuestionable: “99,8 % de precisión”. Suena contundente, parece científica y, para quien necesita tomar una decisión rápida de compra, resulta tentadora. El problema es que, cuando se mira de cerca, esa promesa suele apoyarse en un terreno resbaladizo: no existe una definición compartida de “precisión”, no hay un dataset global de referencia y tampoco hay una metodología estándar.

La consecuencia es incómoda para cualquier responsable de producto, seguridad, fraude o analítica: dos proveedores pueden presumir de “99 %” y estar hablando de cosas distintas. Uno puede considerar “correcto” acertar el país; otro exigir ciudad; un tercero aceptar un radio amplio (por ejemplo, decenas de kilómetros) y aun así publicarlo como éxito.

Un Internet demasiado grande (y cambiante) para una cifra mágica

Si el objetivo fuese validar de forma sólida un porcentaje global del estilo “99,8 %”, el requisito básico sería disponer de “verdad de terreno” (ground truth) verificable para una muestra masiva y representativa. Y ahí aparece la primera gran barrera: Internet no es un laboratorio cerrado.

En IPv4 ya hay más de 4,29 mil millones de direcciones posibles. En IPv6, la escala es directamente descomunal: el espacio de direcciones es tan enorme que hablar de “cobertura total” carece de sentido práctico. Pero el tamaño no es el único problema. Las IP se mueven, se reasignan, cambian de ASN, rotan en entornos móviles, pasan por NAT, CGNAT, VPNs, proxies, redes corporativas o nubes públicas. Todo se comporta diferente.

Pretender resumir ese caos en un único porcentaje global es, como mínimo, una simplificación agresiva.

El verdadero problema: no todas las IP son “del mismo tipo”

La geolocalización por IP no falla por capricho. Falla porque muchos segmentos de Internet están diseñados para ser dinámicos o para ocultar el origen.

  • Banda ancha residencial: suele ser relativamente estable, aunque con reasignaciones y CGNAT en algunos operadores.
  • Redes móviles: tienden a cambiar con frecuencia; una IP puede servir a muchos usuarios y saltar entre ubicaciones.
  • CGNAT: miles de usuarios pueden quedar “detrás” de una sola IP pública.
  • VPNs y proxies: su propósito explícito es deslocalizar o enmascarar el origen.
  • Cloud e infraestructura: se reasigna constantemente; bloques que hoy pertenecen a un uso pueden mañana estar en otro.

Cuando un proveedor anuncia “99,8 %”, la pregunta crítica es: ¿sobre qué mezcla de IPs? Porque no es lo mismo evaluar un conjunto dominado por residencial estable que uno con alto peso de móviles, VPNs y cloud.

“Preciso” según quién: el truco está en el criterio de acierto

Otro punto clave es la definición de “correcto”. En este sector no hay un estándar universal y eso abre la puerta a comparaciones engañosas. Algunos criterios típicos:

  • Acierto por país (mucho más fácil).
  • Acierto por región/provincia (ya complica).
  • Acierto por ciudad (donde se concentran muchas expectativas comerciales).
  • Acierto por radio de distancia (por ejemplo, “dentro de 50 millas” o “dentro de 50 km”), a veces sin explicitarlo.

Así, dos compañías pueden presentar cifras similares, pero una puede estar midiendo “país correcto” y otra “ciudad correcta con tolerancia amplia”. En apariencia compiten en igualdad. En realidad, no.

Además, muchas pruebas publicadas —cuando se publican— tienden a sufrir problemas clásicos: muestras pequeñas, regiones sobrerrepresentadas, entornos autoseleccionados o comparaciones internas en lugar de validación independiente.

Por qué el mercado sigue atrapado en el “teatro de la precisión”

La razón por la que estas cifras sobreviven no es técnica, es comercial. El mercado compra números.

En licitaciones y procesos de compra, se piden porcentajes porque permiten comparar en una tabla. El proveedor que se niega a dar una cifra puede quedar fuera, aunque su enfoque sea más honesto o más verificable. A partir de ahí nace la dinámica de carrera armamentística: si uno dice “99 %”, el siguiente siente presión por decir “99,5 %”. Con el tiempo, los números suben y el significado baja.

También influye la asimetría informativa: la mayoría de compradores no puede auditar metodología, tamaño de muestra, distribución geográfica o mezcla de tipos de IP. El “99,8 %” funciona como atajo mental.

Una alternativa más útil: verificación continua y evidencias inspeccionables

Frente a la obsesión del porcentaje único, algunos enfoques proponen cambiar el marco: menos promesas globales y más evidencia verificable. La idea es tratar la precisión como un sistema vivo, apoyado en señales reales (routing, latencia, comportamiento de red), múltiples fuentes de datos, detección de anomalías y actualizaciones frecuentes.

En lugar de “confiar” en un eslogan, el comprador debería poder responder a preguntas prácticas:

  • ¿Con qué frecuencia se actualiza la base de datos?
  • ¿Qué señales usa para detectar movimiento o reasignación?
  • ¿Cómo gestiona móviles, CGNAT, cloud y VPN?
  • ¿Ofrece herramientas para validar casos reales y ver discrepancias?
  • ¿Publica metodología, tamaño de muestra y criterios de acierto?

En otras palabras: la precisión no debería ser un claim, sino un proceso auditable.

Lo que una empresa debería exigir antes de comprar datos de IP

Para cualquier equipo que dependa de geolocalización por IP (fraude, compliance, personalización, publicidad, ciberseguridad, control de acceso), el filtro mínimo debería incluir:

  1. Definición de acierto (país, ciudad, radio, tolerancia).
  2. Metodología (cómo se midió, con qué muestra y con qué sesgos).
  3. Segmentación por tipo de red (móvil vs residencial vs hosting vs VPN).
  4. Cadencia de actualización (diaria, semanal, mensual) y mecanismos de detección de cambios.
  5. Transparencia (herramientas de validación, ejemplos, explicaciones de discrepancias).

Si un proveedor no puede explicar esto con claridad, el porcentaje publicitario sirve de poco para estimar el rendimiento real en producción.


Preguntas frecuentes

¿Por qué la geolocalización por IP falla más en móviles y CGNAT?
Porque las IP se comparten entre muchos usuarios y cambian con frecuencia; la relación “una IP = una ubicación” se rompe.

¿Qué significa realmente “precisión a nivel ciudad” en geolocalización IP?
Depende del proveedor: puede ser “ciudad exacta” o “cerca de la ciudad”, a veces con un radio de tolerancia (decenas de kilómetros) que no siempre se detalla.

¿Cada cuánto debería actualizarse una base de datos de geolocalización IP para ser fiable?
Cuanto más dinámica sea la mezcla de IPs (cloud, móviles, proxies), más crítica es una actualización frecuente. En muchos casos, lo relevante es que haya señales de cambio y refresco continuo, no solo “un update mensual”.

¿Cómo puede una empresa validar un proveedor de IP sin creerse el marketing?
Probando con tráfico real, segmentando por tipo de red (móvil/residencial/cloud/VPN), midiendo errores por país/ciudad/radio y exigiendo metodología, tamaño de muestra y criterios de acierto.

vía: hackernoon

Suscríbete al boletín SysAdmin

Este es tu recurso para las últimas noticias y consejos sobre administración de sistemas, Linux, Windows, cloud computing, seguridad de la nube, etc. Lo enviamos 2 días a la semana.

¡Apúntate a nuestro newsletter!


– patrocinadores –

Noticias destacadas

– patrocinadores –

¡SUSCRÍBETE AL BOLETÍN
DE LOS SYSADMINS!

Scroll al inicio
×