*   >> Lese Utdanning Artikler >> tech >> internet

Hvordan Søk Engi es Work -? Web Crawler

Det er søkemotorene som til slutt bringe ditt nettsted til innkalling til potensielle kunder. Derfor er det bedre å vite hvordan disse søkemotorene faktisk fungerer og hvordan de presenterer informasjon til kunden initiere et søk.

Det er i utgangspunktet to typer søkemotorer. Den første er av roboter som kalles crawlers eller edderkopper.

Søkemotorer

bruke edderkopper til å indeksere nettsteder. Når du sender inn ditt nettsted sider til en søkemotor ved å fullføre sin nødvendige for innsending, søkemotorer vil indeksere hele nettstedet.

En "edderkopp" er et automatisert program som kjøres av søkemotoren system. Edderkopp besøker et nettsted, lese innholdet på selve området, områdets metakoder og også følge linkene at området kobles. Edderkoppen returnerer deretter all denne informasjonen tilbake til et sentralt depot, hvor dataene er indeksert. Det vil gå hver kobling du har på ditt nettsted og indeksere disse nettstedene også.

Noen edderkopper vil bare indeksere et visst antall sider på nettstedet ditt, så ikke lage et nettsted med 500 sider!

Edderkoppen vil med jevne mellomrom tilbake til nettsteder for å se etter noen informasjon som er endret. Hvor ofte dette skjer er bestemt av moderatorene av søkemotoren.

En edderkopp er nesten som en bok hvor det inneholder innholdsfortegnelsen, det faktiske innhold og lenker og referanser for alle nettsteder det finner under sitt søk, og det kan indeksere opp til en million sider per dag

Eksempel:..

Excite, Lycos, Altavista og Google

Når du spør en søke motoren for å finne informasjon, det er faktisk søker gjennom indeksen som den har skapt og faktisk ikke å søke på nettet. Ulike søkemotorer produserer ulike rangeringer fordi ikke alle søkemotorer bruker samme algoritme for å søke gjennom indeksene.

En av de tingene som en søkemotor algoritmen søker etter er den frekvens og plassering av søkeord på en webside, men det kan også oppdage kunstig ordet stuffing

eller spamdexing.

Da algoritmer analysere måten sider lenker til andre sider på nettet.

Ved å kontrollere hvordan sider lenker til hverandre, kan en motor både finne ut hva en side handler om, hvis søkeordene av de koblede sidene er lik søkeordene på den opprinnelige siden. Anmeldelser

Copyright © 2008 - 2016 Lese Utdanning Artikler,https://utdanning.nmjjxx.com All rights reserved.