Tenemos que dejar claro que, prácticamente cualquier sitio donde haya datos es susceptible de scrapearse. Lo más popular es scrapear páginas web, pero también se pueden scrapear resultados de las redes sociales, fichas de Google Maps, comentarios de YouTube… Siempre que tengamos el programa necesario podremos hacer que un bot pase por determinado sitio y extraiga todos los datos que necesitamos.
Esto es muy útil para sacar información de una forma muy rápida para un objetivo concreto. Algunos de los más comunes son:
- Extraer correos en masa de potenciales clientes.
- Conseguir textos para poder crear artículos de una forma automática.
- Comparación de precios de la competencia de infinidad de artículos y servicios.
- Controlar la imagen y la visibilidad de nuestra marca personal en un sitio concreto.
- Agrupar una gran cantidad de datos para crear un servicio concreto (por ejemplo sería rastrear todas las empresas de un sitio y agruparlas en una página web a modo de directorio automático).
Y podríamos seguir así con infinitos ejemplos, ya que con una gran cantidad de información el límite que podemos tener son nuestras ideas.