A grandes rasgos, mencionaré 4 pilares fundamentales en los que se basan.
- Un robot o bot, también llamado spider (o araña en español) o crawler (rastreador). El robot es una aplicación cliente utilizada dentro de un protocolo de red que realiza peticiones a servidores Web, conocido como User-agent (Agente-Usuario) es específico y propio de cada buscador. Su misión es rastrear con regularidad la red y recopilar información sobre los sitios Web y páginas que visita. Algunos robots conocidos son: GoogleBot (Google), Slurp (Yahoo!) y MsnBot (Bing).
- Un índice o index, es un catálogo sustentado en bases de datos muy grandes donde se guarda parte de la información que el robot recoge durante el rastreo.
- Una interfaz de búsqueda, que es el mismo buscador, es accesible en la Internet a través de una URL y es donde el usuario introduce su consulta en forma de palabra(s) clave(s).
- Un algoritmo de posicionamiento o relevancia, a través del cual el buscador ordena los resultados por orden de importancia. Este algoritmo es secreto.
=)
2 comentarios :
Hola,
Quisiera contactarla por un proyecto pero no pude ya que su correo no sale. mi correo businessonline20008@gmail.com
Hola!! el correo del blog es seo.venezuela@gmail.com, de todas maneras te contactaré por tu correo.
Saludos!
Publicar un comentario