Historien om websøgemaskiner: Hvad kom før Google?

Afsløring: Din support hjælper med at holde webstedet kørt! Vi tjener et henvisningsgebyr for nogle af de tjenester, vi anbefaler på denne side.


Der er tre værktøjer, der er centrale for funktionaliteten i enhver moderne søgemaskine. Hvad er disse tre værktøjer?

  1. En måde at opdage nyt indhold automatisk og kontinuerligt;
  2. En måde at indeksere indhold, som det opdages;
  3. En måde at søge gennem indekseret indhold for at finde bits og stykker, som en søgemaskine bruger leder efter.

Ved denne definition er en søgemaskine et ret simpelt koncept. Imidlertid har det i praksis vist sig lettere sagt end gjort at sammensætte disse tre bit af teknologi, og tidlige søgemaskiner opfyldte kun et eller to af disse krav.

I dag er førende søgemaskiner nogle af de mest synlige og værdifulde teknologiselskaber rundt omkring. Og teknologier, der er banebrydende af søgemaskiner, implementeres på næsten alle moderne websteder.

Det var dog ikke altid på denne måde. Dagens søgemaskiner kommer fra ydmyg begyndelse, og søgningen er nået langt i de sidste par årtier.

Søgemaskiner før internettet

Historien om søgemaskinen starter faktisk på Cornell University, før Internettet endda var blevet oprettet. I 1960’erne udviklede Gerard Salton og hans kolleger i Cornell SMART Information Retrieval System.

SMART står enten for System til mekanisk analyse og hentning af tekst eller Saltons magiske automatiske hentning af tekst afhængigt af hvem du spørger.

Det var et tidligt informationsindhentningssystem, der etablerede mange af de konceptuelle understøttelser, som søgemaskiner er baseret på, herunder termingvægtning, relevant feedback, termafhængighed og meget mere.

Fra SMART går vi videre til den første generation af internetbaserede søgemaskiner. Internettet er egentlig kun et system af computernetværk, der er forbundet via TCP / IP-kommunikationsprotokoller. Det blev udviklet mere end et årti, før Tim Berners-Lee oprettede World Wide Web, eller bare internettet.

Flere forskellige kommunikationsprotokoller blev brugt til at transmittere data via internetforbindelser inden internettet blev født. Og de tidligste søgemaskiner var designet til at blive brugt over nogle af disse ældre protokoller.

Hvem er det?

WHOIS-protokollen, der stadig bruges i dag, debuterede i 1982 og var et af de første værktøjer, der blev brugt til at stille spørgsmål til databaser over internettet.

Oprindeligt var WHOIS-søgninger ret kraftige og kunne bruges til at finde en masse information om en blok internetressourcer eller til at spore alle ressourcerne, der er forbundet med en enkelt person eller organisation, op.

I dag er WHOIS-søgeparametre meget mere begrænset, og WHOIS bruges til at lokalisere den registrerede ejer af en enkelt ressource, eller helt almindeligt, til at lokalisere den fortrolighedstjeneste, der bruges til at skjule ejerskabet af en enkelt ressource.

Archie

Offentlige FTP-servere, der er dokumentlagrings- og genvindingsservere, som alle kan få adgang til via en internetforbindelse, var almindelige i slutningen af ​​1980’erne og begyndelsen af ​​1990’erne.

Der var dog ingen let måde at finde oplysninger på en offentlig FTP-server medmindre du vidste placeringen af ​​serveren og navnet og placeringen på det dokument, du ville have adgang til. Alt dette ændrede sig, da Archie blev frigivet i 1990.

Archie betragtes ofte som den første rigtige søgemaskine. Mens der var søgeteknologier som WHOIS, der blev udviklet tidligere, var Archie bemærkelsesværdig, fordi det var det første værktøj, der kunne bruges til at søge efter indhold frem for brugere.

Archie bestod af to komponenter:

  1. En Archie-server, der indekserede indholdet af offentlige FTP-servere.
  2. Et søgeværktøj, der bruges til at forespørge navnene på de filer, der blev indekseret på Archie-serveren.

Efter moderne standarder var Archie et temmelig groft værktøj. På det tidspunkt var Archie imidlertid et stort skridt fremad i brugen af ​​internettet til indhentning af information. Sådan fungerer systemet:

  • Når en ny offentlig FTP-server kom online, ville ejeren af ​​serveren komme i kontakt med administratoren af ​​en Archie-server og bede om at få deres FTP-server inkluderet i Archie-indekset.
  • En gang om måneden, mere eller mindre, vil hver af disse servere tage et øjebliksbillede af navnene på filerne, der er gemt på hver kortlagte FTP-server.
  • Archie-servere blev netværket sammen, og indholdet af hver blev periodisk spejlet til alle de andre Archie-servere.
  • På denne måde indeholdt hver Archie-server et relativt komplet og opdateret indeks over indholdet af hver FTP-server, der blev kortlagt af systemet.

Indholdet af en Archie-server kunne søges på et par forskellige måder. Hvis en bruger havde direkte adgang til en server, kunne de bruge et søgeprogram, der er installeret direkte på serveren.

Kommandolinjeforbindelser kunne oprettes for at søge på en Archie-server via en Telnet-internetforbindelse. Senere kunne der stilles forespørgsler ved at sende en korrekt formateret e-mail til serveren eller ved hjælp af en webbaseret søgeflade.

Archies venner

Hvad Archie var for FTP-servere, Archies ven, Veronica, var for Gopher-servere.

Gopher var en internetkommunikationsprotokol udviklet i de tidlige 1990’ere af Mark McCahill ved University of Minnesota. Det lignede meget på internettet end FTP. Men der var også mange forskelle.

Gopher var en ret streng protokol sammenlignet med webs HTTP-protokol. Entusiaster siger, at det var hurtigere og mere organiseret end internettet, mens kritikere måske kalder det restriktivt og indeslutende.

Gopher lignede mere en File Manager (tænk: Windows Stifinder) end en webside. Hver Gopher-server bestod af en række menuer og undermenuer, som blev brugt til at organisere de dokumenter, der er gemt på serveren.

Oprindeligt krævede det at finde information på en Gopher-server manuelt at navigere gennem en række menuer og undermenuer baseret på titler og beskrivelser, der er knyttet til hver menu, indtil den ressource, du ledte efter, blev fundet.

Veronica tilbød snart et alternativ til denne manuelle navigationsproces.

Veronica var dybest set anvendelsen af ​​Archie-modellen til Gopher-protokollen. Oplysninger om Gopher-servere blev gemt på Veronica-servere, og Veronica-serverne blev spurgt for at finde oplysninger om dokumenter, der er gemt på de indekserede Gopher-servere.

Ikke længe efter udviklingen af ​​Veronica dukkede Jughead op. Selvom det også var et Gopher-værktøj, var Jughead et helt andet dyr helt. Jughead kunne kun bruges til at søge gennem menuer og undermenuer på en meget begrænset del af Gopher – normalt kun en enkelt server.

Nogle avancerede søgeoperatører kunne bruges sammen med Jughead, hvilket gør det til et kraftfuldt værktøj til at sile og lokalisere indholdet på en enkelt Gopher-server.

Hvad er i et navn?

Jeg er sikker på, at du på dette tidspunkt undrer dig over navnene på disse tre søgemaskiner: Archie, Veronica og Jughead.

Archie kom først og havde intet at gøre med den populære tegneserie. Navnet blev oprettet ved at tage ordet arkiv og fjerne bogstavet v. Navnene Veronica og Jughead var en simuleret henvisning til deres forhold til Archie og et nik til tegneserien.

Af interesse for at foregive som navnene Veronica og Jughead havde nogen form for betydning ud over en legende henvisning til Archie, blev akronymer senere oprettet (bagronymer).

Veronica siges at være forkortelse med meget let gnaverorienteret netindeks til Computerarkiver. Og Jughead var Jonzy’s Universal Gopher Hierarchy Excavation and Display.

Problemet med Archie og hans venner

Mens Archie, Veronica og Jughead alle var nyttige og banebrydende værktøjer på det tidspunkt, led de alle af visse begrænsninger.

For det første opfyldte alle tre det første krav fra en moderne søgemaskine: at besidde en måde at opdage nyt indhold automatisk og kontinuerligt. Mens Archie og Veronica indekserede indhold på en bred vifte af servere, måtte nye servere tilføjes manuelt til indekset.

Der var ingen mekanisme til automatisk opdagelse af nye servere. Jughead på den anden side var begrænset til kun en enkelt server.

For det andet var alle tre søgemaskiner kun i stand til at søge titler og beskrivelser. Ingen af ​​de tre indekserede indholdet af nogen af ​​de dokumenter, der var inkluderet i deres indeks.

Mens alle disse tre søgemaskiner var vigtige skridt på vejen til opbygning af en moderne søgemaskine, var alle disse tre værktøjer effektivt manuelle indekser med begrænset søgefunktion.

Hvad der skete med Gopher?

Gopher ekspanderede hurtigt gennem midten af ​​1990’erne. I 1993 besluttede University of Minnesota, der ejede immaterielle rettigheder til Gopher, imidlertid at begynde at opkræve licensafgift for hver Gopher-installation.

World Wide Web, der var blevet lanceret efter Gopher og blev hængende, var blevet frigivet som en helt gratis platform. Som et resultat begyndte brugere efter 1993 at strømme til nettet for at undgå licensafgift, der er forbundet med Gopher.

Mens Gopher til sidst blev frigivet som GPL-software i år 2000, og der er et par aktive Gopher-servere i dag, er Gopher stort set et hobbyprojekt, der holdes i live af Gopher-entusiaster.

Webets første søgemaskiner

Da internettet først blev oprettet, var der ingen søgemaskiner designet til at fungere via nettets kommunikationsprotokol, HTTP. Oprindeligt vedligeholdt og opdaterede Tim Berners-Lee en mappe med alle webservere.

I 1993 var nettet imidlertid vokset til det punkt, at det ikke længere var muligt at opretholde et omfattende manuelt bibliotek, og behovet for gode søgemaskiner var tydeligt at se.

Som nævnt i indledningen skal en websøgemaskine gøre tre ting for at være virkelig nyttige:

  • Indholdsopdagelse: computerprogrammer kaldet webcrawlere skal bruges til automatisk og systematisk gennemsøgning af internettet for at søge nyt eller opdateret indhold.
  • Indeksindeksering: et indeks over det opdagede indhold skal oprettes og vedligeholdes.
  • Søgning: indekset skal være tilgængeligt med et søgeværktøj, der sammenligner søgeudtryk med indholdet i indekset og returnerer nyttige resultater.

Tidlige værktøjer til hentning af information som WHOIS, Archie, Veronica og Jughead opfyldte ikke alle tre krav.

Hvor de alle kom til kort var, at de manuelt blev oprettet mapper med begrænset søgefunktionalitet, som ikke havde en mekanisme til automatisk at finde og indeksere nyt indhold.

Søgbare manuelle instruktioner

De tidligste websøgemaskiner var søgbare mapper svarende til Archie og Veronica.

W3Catalog, den allerførste websøgemaskine, lignede meget Archie eller Veronica i koncept. Da det blev oprettet i 1993, var der flere højkvalitets, kuraterede webstedsindekser, som hver dækkede en begrænset del af nettet. Hvad W3Catalog gjorde var:

  • Brug et computerprogram til at hente oplysningerne fra de forskellige indekser;
  • Omformater indholdet, så listerne blev præsenteret konsekvent uanset det indeks, hvorfra de stammer;
  • Giv et forespørgselsværktøj, der kan bruges til at søge efter relevante lister.

Aliweb fulgte hurtigt på hælene på W3Catalog og var et andet indeks-søgende værktøj i samme ånd som Archie, Veronica og W3Catalog.

Mens W3Catalog imidlertid kun hentede oplysninger fra et par kuraterede webstedsindekser, kunne enhver webmaster sende deres websted til notering på Aliweb.

Indekser som W3Catalog og Aliweb, også kaldet webkataloger, var fortsat populære i 1990’erne. Yahoo var den mest succesrige af disse webkataloger!

Yahoo!

Yahoo! blev grundlagt i 1994. Et af dets største bidrag til søgning var dets katalogtjeneste: en stor samling autoritative websteder, der blev brugt til deres søgeresultater.

Yahoo! selv startede som et bibliotek med websider uden at bruge en webcrawler. Yahoo! Directory var ikke det første, men det var sandsynligvis det største.

Yahoo! var – og er stadig – et af de mest genkendelige navne på søgemaskinerne. I de tidlige dage var dens søgefunktion bare en frontend for resultater, der kom fra andre webcrawlere.

Virksomheden forgrenede sig til andre områder af informationsdistribution som Yahoo! Grupper. Men det var først i 2003, at Yahoo! blev sin egen selvcrawlende søgemaskine. Før dette fik Inktomi, efterfulgt af Google, Yahoo! Ironisk nok ville Google senere blive deres største konkurrent.

Derudover Yahoo! købte flere søgemaskinefirmaer: Inktomi, AlltheWeb og Overture.

Yahoo! introducerede eller blev populære, et antal elementer, som mange søgemaskiner stadig bruger. Det muliggjorde lodrette søgeresultater, som er en søgning inden for en bestemt kategori.

En person kunne køre en søgning bare efter billeder, bare efter nyheder og så videre. Yahoo! er stadig i drift, men ligesom tidligere har et andet søgefirma beføjelse til søgeresultaterne. I dag er det Bing.

Webcrawlere automatiserer og fremskynder indekseringsprocessen

Den første webcrawler blev oprettet i juni 1993 og blev navngivet World Wide Web Wanderer, eller bare Wanderer for kort.

Det blev oprettet af Matthew Gray for at generere et indeks kaldet Wandex, som i det væsentlige var et mål for størrelsen på nettet. Wanderer holdt Wandex opdateret indtil sidst i 1995, men indekset blev aldrig brugt til informationsindsamling.

JumpStation

Den første anvendelse af en webcrawler til at oprette et søgemaskineindeks var JumpStation.

Oprettet i december 1993 på University of Stirling i Skotland af Jonathan Fletcher, “faren til moderne søgning”, JumpStation brugte webcrawlere til at oprette et søgbart indeks med titler og overskrifter på websiden.

I løbet af mindre end et år, mens de kørte på en enkelt delt server i Skotland, havde JumpStations webcrawlere indekseret 275.000 poster.

Fletcher var imidlertid ikke i stand til at overbevise universitetet om at investere yderligere ressourcer eller yde finansiering til projektet, og da Fletcher forlod universitetet i slutningen af ​​1994 blev JumpStation lukket ned.

WebCrawler

WebCrawler, der blev frigivet kort efter JumpStation, var den første crawler-baserede søgemaskine, der gennemsøgte hele teksten på hver indekseret webside.

I løbet af de efterfølgende to til tre år blev mange crawler-baserede søgemaskiner i all tekst såsom Magellan, Northern Light, Infoseek, HotBot, MSN Search og Inktomi lanceret, købt, solgt, skoddet og fusioneret.

Lycos

Lycos startede som et forskningsprojekt. Det blev lanceret i 1994 og blev den mest populære webdestination i 1999.

I modsætning til andre søgemaskiner var Lycos en fuld virksomhed ud af porten. Det tjente penge, og det gjorde det hurtigt. Hovedårsagen til dens popularitet som søgemaskine var dens enorme katalog over indekserede dokumenter.

Det indekserede omkring 400.000 dokumenter pr. Måned ved lanceringen og rampede op til at indeksere i alt 60.000.0000 dokumenter på mindre end to år – flere indekserede sider end nogen anden søgemaskine. Lycos gennemgik flere opkøb og salg.

Som virksomhed ejede det mange andre virksomheder og websteder. Som en søgemaskine findes den stadig i dag.

Ophidse

Excite startede i 1995. Det var den første søgemaskine, der brugte ordrelationer og statistisk analyse for at gøre søgeresultaterne mere relevante.

I dag er det kendt mere for hvad det ikke gjorde. I 1999 havde lejlighed til at købe Google – to gange! Først blev det tilbudt for en million dollars. Senere blev prisen reduceret til kun $ 750.000. Excite afviste begge tilbud.

AltaVista

I slutningen af ​​1995 lancerede Digital Equipment Corporation AltaVista. Selvom det ikke var den første søgemaskine, forbedrede den sig på sine forgængere og blev til sidst en af ​​de mest populære søgemaskiner i sin tid.

AltaVista var den første, der gav mulighed for søgninger på naturligt sprog, hvilket betyder, at folk simpelthen kunne indtaste, hvad de ledte efter, i stedet for at bruge forespørgselsstrenge. Det indekserede også meget mere af nettet, end folk endda vidste, at der eksisterede på det tidspunkt.

Endelig var det en af ​​de første søgemaskiner, der brugte boolske operatører. Det blev til sidst en del af Yahoo!

Spørg Jeeves

Ask.com startede som Ask Jeeves i 1996. Søgemaskinen fungerede på en spørgsmål-og-svar platform, hvor brugere kunne stille et spørgsmål ved hjælp af naturligt sprog, og søgemaskinen ville finde et svar.

Et af Asks vigtigste bidrag til søgning er deres egen siderangeringsalgoritme, ExpertRank. ExpertRank arbejder med emnespecifik popularitet. Hvis et websted om et specifikt emne har backlinks fra andre sider om det samme emne, er det mere relevant.

Ask sluttede med at fokusere på søgning. Det findes stadig som en søgemaskine, men dets kerneprodukt er dens søgbare database med spørgsmål, der er besvaret af brugerne.

Bing

Microsofts Bing blev lanceret i 2009, men det er faktisk ikke så nyt. Bing eksisterede som MSN-søgning og Windows Live-søgning – dateret tilbage til 1998. Tredjeparter leverede sine tidlige søgninger.

Omkring 2004 begyndte Microsoft at bruge sine egne søgeresultater. Dette drev den eventuelle ændring fra MSN Search til Windows Live Search og endelig Bing. Selvom Bing ikke er så populær som Google, har Bing formået at skære ud en anstændig del af markedet for søgemaskiner.

Samme år, hvor Microsoft kom ind i søgemaskinebranchen (1998), blev Google lanceret. Det ville snart revolutionere søgeverdenen.

PageRank: En revolutionær idé

Selvom det er umuligt at tilskrive Googles succes til en enkelt faktor, er det også svært at overdrive, hvor vigtig PageRank var for Googles tidlige succes. Så hvad er PageRank?

Google bruger flere algoritmer til at bestemme i hvilken rækkefølge søgeresultaterne skal præsenteres. PageRank var den første af disse algoritmer brugt af Google. Det er fortsat en vigtig del af Googles samlede metod for resultatrangering. Der er to grundlæggende ideer bag PageRank:

  1. Når masser af websteder linker til en webside antyder det, at websiden er nyttig og pålidelig.
  2. Links fra en nyttig og pålidelig webside er mere værdifulde og pålidelige end links fra en ikke-betroet webside.

Disse to ideer kombineres for at skabe et hierarki af webstedets pålidelighed og anvendelighed kendt som PageRank.

Som du kan se, strømmer disse ideer ind i hinanden. Tilstedeværelsen af ​​flere indgående links betyder, at et websted er mere pålideligt, og links fra pålidelige websteder er mere værdifulde end links fra websteder, der ikke har mange indgående links.

Hvad der sker er, at hvert link fra et websted til et andet tildeles en bestemt vægt, som typisk kaldes link juice i SEO cirkler. Denne vægt er baseret på PageRank på det websted, hvor linket stammer fra, og antallet af udgående links fra det oprindelige websted.

Google tilføjer al den linkssaft, der strømmer fra websteder, der stammer fra, til den pågældende webside og bruger disse oplysninger til at beslutte, hvilken PageRank skal tildeles til websiden..

PageRank viste sig at være en fantastisk måde at identificere nyttige websteder, og brugerne indså hurtigt, at Google-søgeresultater var mere nyttige end dem, der blev genereret af nogen anden søgemaskine. Som et resultat strømte brugerne hurtigt til Google, og andre søgemaskiner blev efterladt til at komme ind.

I 2002 var Google steget fremtrædende på markedet for søgemaskiner, delvis takket være deres innovative PageRank-teknologi og det strømlinede design af Googles hjemmeside, som stod i skarp kontrast til de reklame- og indholdstunge webportaler implementeret af stort set alle andre søgemaskiner..

Søg vokser op og får et job

I 1990’erne var investering i søgning en spekulativ bestræbelse. Alle vidste, at søgning var værdifuld, men ingen tjente virkelig penge med søgning.

Det forhindrede dog ikke investorerne i at pumpe enorme summer i innovative søgemaskiner, hvilket gjorde søgningsinvesteringer til en væsentlig medvirkende faktor til dot-com-boblen.

I slutningen af ​​1990’erne begyndte man for alvor at tjene penge på søgningen.

Søgemaskiner indså, at de havde adgang til webbrugere, der fortalte dem nøjagtigt, hvad de ville have. Det eneste, der blev tilbage, var, at købmænd skulle placere annoncer, der ville blive vist til de brugere, der ledte efter deres produkter og tjenester.

Overture tjener penge på søgning

I 1996 var Open Text den første, der forsøgte at kommercialisere søgningen ved at tilbyde betalte søgelister. Reaktionen på at se betalte annonceplaceringer var imidlertid hurtig fordømmelse, og ideen startede ikke.

To år senere tog GoTo, der senere blev omdøbt til Overture, et andet skud på betalte søgeplaceringer, og konceptet blev accepteret. Dette skyldtes i vid udstrækning, at nettet var modnet markant mellem 1996 og 1998 og overgik fra at være primært en akademisk platform til en kommercielt understøttet platform.

Kort efter lanceringen i begyndelsen af ​​1998 lånte Google ideen om betalte søgeplaceringer fra Overture og omdannede hurtigt fra en kæmpende opstart til en af ​​de mest rentable internetvirksomheder.

Som det kunne være forudsagt, tog Overture ikke for venligt til, at Google koopererede deres idé, og Overture sagsøgte Google for krænkelse af deres patenterede intellektuelle ejendom i 2002.

Yahoo! blev involveret i retssagen, da de købte Overture i 2003 og derefter fortsatte med at bilægge sagen. Google tjente en evigvarende licens til at bruge Overtures patenter til gengæld for 2,7 millioner aktier af Googles fælles aktie.

I dag er reklame i søgeresultater den primære finansieringsmekanisme, der bruges af søgemaskiner og genererer milliarder af dollars i årlige indtægter.

Det moderne søgemaskine-landskab

Dagens marked for søgemaskiner domineres af kun fire konkurrenter, hvis kombinerede søgevolumen udgør cirka 98% af det samlede globale marked for søgemaskiner.

  • Google kommandoerer cirka 70% af det globale marked for søgemaskiner.
  • Bing kommer på andenpladsen med lidt over 10% af markedet.
  • Baidu kommer på tredjeplads med lidt under 10% af markedet.
  • Yahoo! kommer ind bundet til tredje med Baidu.

Mens andre søgemaskiner, som AOL og Ask, stadig bruges millioner af gange hver dag, er deres samlede markedsandel betydeligt mindre end 1% af det globale marked for søgemaskiner.

Youtube?!

En bemærkelsesværdig undladelse fra de fleste lister over top søgemaskiner er YouTube. Mens YouTube ikke er en søgemaskine i traditionel forstand, søger flere og flere brugere YouTube efter Sådan finder du videoer, produktinformation, musik, nyheder og andre emner, der tidligere var fundet primært gennem søgemaskiner.

Hvis YouTubes søgevolumen sammenlignes med listen over søgemaskiner, kan YouTube, der ejes af Google, faktisk være den næststørste søgemaskine på nettet.

Kun for dine øjne

Et hurtigt voksende segment på markedet for søgemaskiner er det private søgesegment. Dette segment består af søgemaskiner som DuckDuckGo, Startpage af Ixquick og Qrobe.it.

Det er attraktivt for privatpersoner, der ikke gør, hvad deres søgevaner spores og sælges til annoncører. Mens disse søgemaskiner stadig bruger en reklamebaseret søgemodel, indsamler de ikke, lagrer eller sælger identificerbare brugerdata.

Mens DuckDuckGos nuværende gennemsnit på omkring 10 millioner forespørgsler pr. Dag bleges i sammenligning med de 3,5 mia. Forespørgsler, der behandles hver dag af Google, repræsenterer det en 100-fold stigning i den samlede søgevolumen mellem 2011 og 2016.

Sofistikering af søgemaskiner

Tendensen i de sidste par år inden for udvikling af søgeteknologi har været mod større sofistikering. Eksempler på innovation i søgning siden 2010 inkluderer:

  • Hurtigere søgeydelse takket være autofuldførelse og øjeblikkeligt genererede søgeresultater, en innovation kaldet Instant Search.
  • Brug af Schema.org-markering til at producere rige søgeresultater, såsom produktvurderinger baseret på et 5-stjernet bedømmelsessystem, der vises lige på søgeresultatsiden.
  • Stadig mere målrettede nedbrud på spam, duplikering af indhold, indhold af lav kvalitet og websteder, der gør overdreven brug af reklamer.
  • Søgemaskiners evne til at behandle enhedskonvertering, valutakonvertering, enkle matematiske beregninger, termdefinitioner, sprogoversættelse og lignende opgaver og vise resultaterne på resultatsiden med søgemaskinerne.
  • Visning af public domain encyklopædisk information direkte i søgeresultater, en funktion kaldet viden graf.

Det er klart, at førende søgemaskiner ikke længere er tilfredse med blot at fortælle dig, hvor du kan finde de oplysninger, du leder efter.

De leverer i stigende grad disse oplysninger selv og leverer dem direkte til brugerne, mens de samtidig leverer yderligere indtryk til betalende annoncører.

Fremtiden for søgning på Internettet

Hvor søgningen går hen, er nogens gæt. Privat søgning, et klart pushback mod reklamepraksis og sporingspraksis fra branchens ledere som Google, eksploderer i vækst, men repræsenterer stadig kun en lille brøkdel af det samlede marked.

Google er på den anden side vokset til et selskab, der er værd at hundreder af milliarder af dollars og genererede næsten 75 milliarder dollars i omsætning i 2015 alene.

Samtidig vokser antallet af internetforbundne enheder, husholdninger og brugere fortsat med at vokse, og søgningen repræsenterer den grundlæggende mekanisme, der bruges til at finde information på nettet.

Mens fremtiden for søgning kan være nogens gæt, kan vi af en ting være sikre på: søgning forsvinder ikke snart.

Jeffrey Wilson Administrator
Sorry! The Author has not filled his profile.
follow me
    Like this post? Please share to your friends:
    Adblock
    detector
    map