Autor Tópico: O que é um “web crawler”?  (Lida 5628 vezes)

0 Membros e 1 Visitante estão a ver este tópico.

Offline ajaraujo

  • Newbie
  • *
  • Mensagens: 3
  • Karma: 0
    • Ver Perfil
O que é um “web crawler”?
« em: Junho 06, 2013, 11:32:42 am »
O que é um “web crawler”?

Offline alexandra gomes

  • Newbie
  • *
  • Mensagens: 2
  • Karma: 0
    • Ver Perfil
Re: O que é um “web crawler”?
« Responder #1 em: Junho 06, 2013, 11:36:26 am »
Web crawler é um programa de computador que navega pela World Wide Web de uma forma metódica e automatizada. Outros termos para Web crawlers são indexadores automáticos, bots, web spiders, Web robot, ou Web scutter. :D

Offline Dricka

  • Newbie
  • *
  • Mensagens: 2
  • Karma: 0
    • Ver Perfil
Re: O que é um “web crawler”?
« Responder #2 em: Junho 06, 2013, 11:40:14 am »

O processo que um Web crawler executa é chamado de Web crawling ou spidering. Muitos sites, em particular os motores de busca, usam crawlers para manter uma base de dados atualizada. Os Web crawlers são principalmente utilizados para criar uma cópia de todas as páginas visitadas para um pós-processamento por um motor de busca que irá indexar as páginas baixadas para prover buscas mais rápidas. Crawlers também podem ser usados para tarefas de manutenção automatizadas em um Web site, como checar os links ou validar o código HTML.

Dricka, Ana e Mónica

Offline EduardaGomes

  • Newbie
  • *
  • Mensagens: 2
  • Karma: 0
    • Ver Perfil
Re: O que é um “web crawler”?
« Responder #3 em: Junho 06, 2013, 11:43:43 am »
Web crawler é um programa de computador que navega pela World Wide Web de uma forma metódica e automatizada. Outros termos para Web crawlers são indexadores automáticos, bots, web spiders, Web robot, ou Web scutter.
O processo que um Web crawler executa é chamado de Web crawling ou spidering. Muitos sites, em particular os motores de busca, usam crawlers para manter uma base de dados atualizada. Os Web crawlers são principalmente utilizados para criar uma cópia de todas as páginas visitadas para um pós-processamento por um motor de busca que irá indexar as páginas baixadas para prover buscas mais rápidas. Crawlers também podem ser usados para tarefas de manutenção automatizadas em um Web site, como checar os links ou validar o código HTML.1 Os crawlers também podem ser usados para obter tipos específicos de informação das páginas da Web, como minerar endereços de email (mais comumente para spam).
Um Web crawler é um tipo de robô de Internet ou agente de software.2 Em geral, ele começa com uma lista de URLs para visitar (também chamado de seeds). À medida que o crawler visita essas URLs, ele identifica todos os links na página e os adiciona na lista de URLs para visitar. Tais URLs são visitadas recursivamente de acordo com um conjunto de regras.[/font]

Offline barbaramachado

  • Newbie
  • *
  • Mensagens: 3
  • Karma: 0
    • Ver Perfil
Re: O que é um “web crawler”?
« Responder #4 em: Junho 06, 2013, 11:46:23 am »
Web crawler é um programa de computador que navega pela World Wide Web de uma forma metódica e automatizada. Outros termos para Web crawlers são indexadores automáticos, bots, web spiders, Web robot, ou Web scutter.
 
O processo que um Web crawler executa é chamado de Web crawling ou spidering. Muitos sites, em particular os motores de busca, usam crawlers para manter uma base de dados atualizada. Os Web crawlers são principalmente utilizados para criar uma cópia de todas as páginas visitadas para um pós-processamento por um motor de busca que irá indexar as páginas baixadas para prover buscas mais rápidas. Crawlers também podem ser usados para tarefas de manutenção automatizadas em um Web site, como checar os links ou validar o código HTML.1 Os crawlers também podem ser usados para obter tipos específicos de informação das páginas da Web, como minerar endereços de email.
Um Web crawler é um tipo de robô de Internet ou agente de software.2 Em geral, ele começa com uma lista de URLs para visitar (também chamado de seeds). À medida que o crawler visita essas URLs, ele identifica todos os links na página e os adiciona na lista de URLs para visitar. Tais URLs são visitadas recursivamente de acordo com um conjunto de regras.

Bárbara Machado e Catarina Azevedo