I sammenheng med Internett refererer vanligvis til søkemotoren WWW, og ikke protokollen eller andre områder. I tillegg søkemotoren data tilgjengelige i nyhetsgrupper, store databaser, eller åpne kataloger som DMOZ.org.
Fordi datainnsamling skjer automatisk, i motsetning til Search Engine webkatalog av menneskelig arbeid. De fleste Search Engine drevet av private selskaper som bruker proprietære algoritmer og lukket databaser - den mest populære er Google (MSN Search og Yahoo Venstre litt bak).
Det har vært flere forsøk på å lage søkemotor med åpen kildekode (open source), for eksempel er htdigs, Nutch, Egothor og OpenFTS.
Hvordan fungerer det Søkemotor? Før du registrerer deg på nettsiden til Search Engine, hjelper det hvis du vet fugleperspektiv på hvordan det fungerer. Search Engine er et databasesystem designet for å indeksere internettadresser (URL, FTP, etc.). For å utføre denne oppgaven, har Search Engine et spesielt program som vanligvis kalles edderkopp, bot, eller crawler. At You registrere en websiteSearch Engine vil akseptere og analysere URL. Med visse algoritmer, vil edderkopper avgjør om web du sendte akseptabelt eller ikke. Hvis mulig, vil edderkopper legge inn nettadressen det inn i sine databasesystemer. Men hvis ikke, må du være tålmodig og gjentatt innmelding i en bestemt periode. Hastigheten på hver søkemotor crawler annerledes. Så hvis du registrerer URL nå kan nye muligheter dilisting innen 2 uker til 2 måneder. Dette er fordi det er tusenvis av nye nettadresser registrerer hver dag Den viktigste komponenten i Search Engine. En søkemotor har flere komponenter for å gi den viktigste tjenesten som en informasjon Search Engine. Komponenter inkluderer Annet: 1. Web Crawler 2. indeksering System 3. Søk System * Web Crawler Web crawler eller også kjent som web edderkopp sikt plikt til å samle all informasjon på nettstedet. Web crawlSøkemotor optimzation Tips