Español | English
rss facebook linkedin Twitter

Yo Robot

Algo ya sabido es que un buscador web se puede usar para encontrar vulnerabilidades web de manera rápida, por ejemplo mediante una técnica denominada google hacking.

Hace unos días se publicó en una web un articulo llamado “I, Bot: Taking advantage of robots power”; el articulo, interesante hasta cierto punto resalta una realidad presente en Internet desde hace mucho tiempo, la presencia de Robots de búsqueda y explotación de vulnerabilidades web automáticas, algo que ya se apuntaba en el articulo de Michal Zalewski.

Usar estos buscadores web para localizar y explotar las vulnerabilidades es un paso que ya lo han dado, de hecho no es difícil localizar muchos servidores web vulnerables a SQL Injection que entre las tablas de su base de datos haya una con caracteres asiáticos.

Lo relevante de este articulo es una forma de explotación en la que se involucra a los diferentes buscadores, dado que la explotación de la vulnerabilidad se hace a través de ellos, exponiendo en una página web indexada la URL a la que se debe acceder para explotar la vulnerabilidad, a la que se van añadiendo las diferentes URLs de exploit conforme se obtienen mas resultados.

Esto nos deberia dar de pensar si verdaderamente obtenemos una ganancia cuando permitimos a los buscadores que revisen los contenidos de nuestros servidores web, o bien deberíamos de añadir un archivo robots.txt mucho mas restrictivo para no permitirles acceder a zonas sensibles de nuestras aplicaciones web.

1 comentario:

Empresas de Seguridad dijo...

Tengo un pagina web y me preocupa mucho la seguridad en ella, gracias por la informacion.


(+34 902 222 521)


24 horas / 7 días a la semana



© Copyright S21sec 2013 - Todos los derechos reservados


login