SeoWiki

Zoekmachine Optimalisatie (SEO) Wikipedia

From Wikipedia, the free encyclopedia

Deze artikel is geschreven door een gebruiker van SEO Wikipedia

SEO Wiki
Zoekmachine optimalisatie (SEO)

Zoekmachineoptimalisatie (SEO) is het proces van het verhogen van de kwaliteit en kwantiteit van websiteverkeer door de zichtbaarheid van een website of een webpagina voor gebruikers van een webzoekmachine te vergroten.

SEO verwijst naar de verbetering van onbetaalde resultaten (bekend als "natuurlijke" of "organische" resultaten) en sluit direct verkeer / bezoekers en de aankoop van betaalde plaatsing uit.

SEO kan gericht zijn op verschillende soorten zoekopdrachten, waaronder afbeeldingen zoeken, video zoeken, academisch zoeken, nieuws zoeken en branchespecifieke verticale zoekmachines.

Het optimaliseren van een website kan het bewerken van de inhoud, het toevoegen van inhoud en het wijzigen van HTML en bijbehorende codering omvatten om zowel de relevantie voor specifieke zoekwoorden te vergroten en belemmeringen voor de indexeringsactiviteiten van zoekmachines zoals Google, Yahoo etc. weg te nemen [nodig citaat] Een site promoten om het aantal backlinks of inkomende links vergroten, is een andere SEO-tactiek. In mei 2015 had mobiel zoeken desktoponderzoek overtroffen.

Als een internetmarketingstrategie houdt SEO rekening met de werking van zoekmachines, de door de computer geprogrammeerde algoritmen die het gedrag van zoekmachines bepalen, waarnaar mensen zoeken, de daadwerkelijke zoektermen of trefwoorden die in zoekmachines zijn getypt en welke zoekmachines de voorkeur hebben van hun doelgroep . SEO wordt uitgevoerd omdat een website meer bezoekers van een zoekmachine zal ontvangen naarmate de website hoger scoort op de pagina met zoekresultaten van zoekmachines (SERP). Deze bezoekers kunnen vervolgens worden omgezet in klanten.

SEO verschilt van lokale zoekmachineoptimalisatie doordat het laatste is gericht op het optimaliseren van de online aanwezigheid van een bedrijf, zodat zijn webpagina's door zoekmachines worden weergegeven wanneer een gebruiker een lokale zoekopdracht voor zijn producten of diensten invoert. De eerste is in plaats daarvan meer gericht op nationale of internationale zoekopdrachten.

Zoekmachine Optimalisatie

Geschiedenis

Webmasters en contentproviders begonnen medio jaren negentig websites voor zoekmachines te optimaliseren, omdat de eerste zoekmachines het vroege web catalogiseerden. Aanvankelijk hoefden alle webmasters alleen het adres van een pagina of URL in te dienen bij de verschillende zoekmachines die een "spin" zouden sturen om die pagina te "crawlen", links naar andere pagina's eruit te halen en informatie terug te vinden die op de pagina staat. worden geïndexeerd. Het proces houdt in dat een spin van een zoekmachine een pagina downloadt en opslaat op de eigen server van de zoekmachine. Een tweede programma, bekend als een indexeerprogramma, extraheert informatie over de pagina, zoals de woorden die het bevat, waar ze zich bevinden, en elk gewicht voor specifieke woorden, evenals alle links die de pagina bevat. Al deze informatie wordt vervolgens in een planner geplaatst om op een later tijdstip te crawlen.

Website-eigenaren erkenden de waarde van een hoge positie en zichtbaarheid in de resultaten van zoekmachines, [6] en creëerden een kans voor SEO-beoefenaars met zowel White Hat als Black Hat. Volgens industrieanalist Danny Sullivan is de uitdrukking 'zoekmachineoptimalisatie' waarschijnlijk in 1997 in gebruik gekomen. Sullivan noemt Bruce Clay een van de eerste mensen die de term populair maakte. Op 2 mei 2007 probeerde Jason Gambert de term SEO te handelsmerken door het Handelsmerkkantoor in Arizona te overtuigen dat SEO een 'proces' is waarbij manipulatie van zoekwoorden betrokken is en geen 'marketingdienst'.

Vroege versies van zoekalgoritmen waren afhankelijk van door webmasters verstrekte informatie, zoals de trefwoord-metatag of indexbestanden in zoekmachines zoals ALIWEB. Metatags bieden een gids voor de inhoud van elke pagina. Het gebruik van metagegevens voor het indexeren van pagina's bleek echter minder dan betrouwbaar, omdat de keuze van de webmaster voor zoekwoorden in de metatag mogelijk een onjuiste weergave van de werkelijke inhoud van de site zou kunnen zijn. Onnauwkeurige, onvolledige en inconsistente gegevens in metatags konden en deden pagina's rangschikken voor irrelevante zoekopdrachten. [] [dubieus - bespreek] Webinhoudproviders manipuleerden ook enkele attributen binnen de HTML-bron van een pagina in een poging om goed te scoren in zoekmachines. Tegen erkenden de ontwerpers van zoekmachines dat webmasters inspanningen leverden om goed te scoren in hun zoekmachine, en dat sommige webmasters zelfs hun ranglijst in zoekresultaten manipuleerden door pagina's te vullen met buitensporige of irrelevante zoekwoorden. Vroege zoekmachines, zoals Altavista en Infoseek, hebben hun algoritmen aangepast om te voorkomen dat webmasters ranglijsten manipuleren.

Door zoveel te vertrouwen op factoren zoals zoekwoorddichtheid die exclusief binnen de controle van een webmaster waren, leden vroege zoekmachines onder misbruik en rangmanipulatie. Om hun gebruikers betere resultaten te bieden, moesten zoekmachines zich aanpassen om ervoor te zorgen dat hun resultatenpagina's de meest relevante zoekresultaten vertoonden, in plaats van niet-verwante pagina's gevuld met talloze trefwoorden door gewetenloze webmasters. Dit betekende weggaan van een zware afhankelijkheid van termdichtheid naar een meer holistisch proces voor het scoren van semantische signalen. Aangezien het succes en de populariteit van een zoekmachine wordt bepaald door het vermogen om de meest relevante resultaten voor een bepaalde zoekopdracht te produceren, kunnen slechte kwaliteit of irrelevante zoekresultaten gebruikers ertoe leiden andere zoekbronnen te vinden. Zoekmachines reageerden door complexere rangschikkingsalgoritmen te ontwikkelen, rekening houdend met aanvullende factoren die voor webmasters moeilijker te manipuleren waren. In werd een jaarlijkse conferentie, AIRWeb (Adversarial Information Retrieval on the Web), opgericht om artsen en onderzoekers samen te brengen die zich bezighouden met zoekmachineoptimalisatie en aanverwante onderwerpen.

Bedrijven die te agressieve technieken gebruiken, kunnen ervoor zorgen dat hun klantwebsites worden verbannen uit de zoekresultaten. In rapporteerde de Wall Street Journal over een bedrijf, Traffic Power, dat naar verluidt risicovolle technieken gebruikte en deze risico's niet aan zijn klanten had bekendgemaakt . Wired magazine meldde dat hetzelfde bedrijf blogger en SEO Aaron Wall had aangeklaagd wegens het schrijven van het verbod. Matt Cutts van Google bevestigde later dat Google inderdaad Traffic Power en sommige van zijn klanten verbood.

Sommige zoekmachines hebben ook contact opgenomen met de SEO-industrie en zijn frequente sponsors en gasten op SEO-conferenties, webchats en seminars. Grote zoekmachines bieden informatie en richtlijnen om te helpen met website-optimalisatie. Google heeft een Sitemaps-programma om webmasters te helpen ontdekken of Google problemen heeft met het indexeren van hun website en verstrekt ook gegevens over Google-verkeer naar de website. Bing Webmaster Tools biedt een manier voor webmasters om een ​​sitemap en webfeeds in te dienen, stelt gebruikers in staat om de "crawlsnelheid" te bepalen en de indexstatus van de webpagina's te volgen.

In 2015 werd gemeld dat Google mobiel zoeken ontwikkelde en promoot als een belangrijke functie in toekomstige producten. In reactie daarop begonnen veel merken hun internetmarketingstrategieën op een andere manier te benaderen .

Relatie met Google

In ontwikkelden twee afgestudeerde studenten aan Stanford University, Larry Page en Sergey Brin, "Backrub", een zoekmachine die afhankelijk was van een wiskundig algoritme om de prominentie van webpagina's te beoordelen. Het aantal dat wordt berekend door het algoritme, PageRank, is een functie van de hoeveelheid en sterkte van inkomende links. PageRank schat de waarschijnlijkheid dat een bepaalde pagina zal worden bereikt door een webgebruiker die willekeurig op internet surft en links van de ene pagina naar de andere volgt. Dit betekent in feite dat sommige links sterker zijn dan andere, omdat een hogere PageRank-pagina waarschijnlijk meer wordt bereikt door de willekeurige websurfer.

Page en Brin hebben Google opgericht in 1998. Google trok een trouwe aanhang onder het groeiende aantal internetgebruikers, die het eenvoudige ontwerp leuk vonden. Off-page factoren (zoals PageRank en hyperlink-analyse) werden overwogen evenals factoren op de pagina (zoals trefwoordfrequentie, metatags, koppen, links en sitestructuur) om Google in staat te stellen het soort manipulatie te vermijden dat wordt gezien in zoekmachines die alleen rekening houden met factoren op de pagina voor hun ranglijst. Hoewel PageRank moeilijker te gamen was, hadden webmasters al hulpmiddelen en schema's voor linkbuilding ontwikkeld om de Inktomi-zoekmachine te beïnvloeden, en deze methoden bleken op dezelfde manier van toepassing op gaming PageRank. Veel sites waren gericht op het uitwisselen, kopen en verkopen van links, vaak op grote schaal. Sommige van deze schema's, of linkfarms, betroffen het creëren van duizenden sites met als enig doel link-spamming.

Tegen 2004 hadden zoekmachines een groot aantal niet-bekendgemaakte factoren in hun rangschikkingsalgoritmen opgenomen om de impact van linkmanipulatie te verminderen. In juni 2007 verklaarde Saul Hansell van de New York Times dat Google sites rangschikt met meer dan 200 verschillende signalen. De toonaangevende zoekmachines, Google, Bing en Yahoo, maken de algoritmen die ze gebruiken om pagina's te rangschikken niet bekend. Sommige SEO-beoefenaars hebben verschillende benaderingen van zoekmachineoptimalisatie bestudeerd en hebben hun persoonlijke meningen gedeeld. Octrooien met betrekking tot zoekmachines kunnen informatie verschaffen om zoekmachines beter te begrijpen. In 2005 begon Google de zoekresultaten voor elke gebruiker te personaliseren. Afhankelijk van hun geschiedenis van eerdere zoekopdrachten, heeft Google resultaten gemaakt voor ingelogde gebruikers.

In 2007 kondigde Google een campagne aan tegen betaalde links die PageRank overdragen. Op 15 juni 2009 heeft Google bekendgemaakt dat ze maatregelen hadden genomen om de effecten van PageRank-beeldhouwen te verminderen door het nofollow-kenmerk op links te gebruiken. Matt Cutts, een bekende software-ingenieur bij Google, kondigde aan dat Google Bot geen nofollow-links meer op dezelfde manier zou behandelen om te voorkomen dat SEO-dienstverleners nofollow gebruiken voor PageRank-beeldhouwen. Als gevolg van deze verandering leidde het gebruik van nofollow tot verdamping van PageRank. Om het bovenstaande te voorkomen, ontwikkelden SEO-ingenieurs alternatieve technieken die niet-volgde tags vervangen door verduisterde JavaScript en daarmee PageRank beeldhouwen mogelijk maken. Daarnaast zijn er verschillende oplossingen voorgesteld die het gebruik van iframes, Flash en JavaScript omvatten.

In december 2009 kondigde Google aan dat het de webzoekgeschiedenis van al zijn gebruikers zou gebruiken om de zoekresultaten te vullen. Op 8 juni 2010 werd een nieuw webindexeringssysteem genaamd Google Cafeïne aangekondigd. Ontworpen om gebruikers in staat te stellen nieuwsresultaten, forumberichten en andere inhoud veel sneller na publicatie te vinden, was Google cafeïne een verandering in de manier waarop Google zijn index bijwerkte om dingen sneller op Google te laten verschijnen dan voorheen. Volgens Carrie Grimes, de software-ingenieur die cafeïne voor Google aankondigde, "biedt cafeïne 50 procent frissere resultaten voor zoekopdrachten op het web dan onze vorige index ..." Google Instant, realtime zoeken, werd eind 2010 geïntroduceerd in een poging om zoekresultaten actueler en relevanter te maken. Historisch gezien hebben sitebeheerders maanden of zelfs jaren besteed aan het optimaliseren van een website om de zoekresultaten te verbeteren. Met de groei van de populariteit van sociale mediasites en blogs hebben de toonaangevende zoekmachines hun algoritmen gewijzigd om nieuwe inhoud snel in de zoekresultaten te plaatsen.

In februari 2011 kondigde Google de Panda-update aan, die websites bestraft met inhoud die is gedupliceerd van andere websites en bronnen. Historisch gezien hebben websites inhoud van elkaar gekopieerd en geprofiteerd van zoekmachine rankings door deze praktijk te volgen. Google heeft echter een nieuw systeem geïmplementeerd dat sites bestraft waarvan de inhoud niet uniek is. De Google Penguin 2012 probeerde websites te bestraffen die manipulatieve technieken gebruikten om hun positie in de zoekmachine te verbeteren. Hoewel Google Penguin is gepresenteerd als een algoritme dat gericht is op het bestrijden van webspam, richt het zich echt op spammy links door de kwaliteit te meten van de sites waar de links vandaan komen. De Google Hummingbird-update van 2013 bevatte een algoritmewijziging die is ontworpen om de natuurlijke taalverwerking van Google en semantisch begrip van webpagina's te verbeteren. Het taalverwerkingssysteem van Hummingbird valt onder de nieuw erkende term 'Conversational Search', waarbij het systeem meer aandacht besteedt aan elk woord in de zoekopdracht om de pagina's beter af te stemmen op de betekenis van de zoekopdracht in plaats van op een paar woorden . Met betrekking tot de wijzigingen die zijn aangebracht in de optimalisatie van zoekmachines, voor inhouduitgevers en schrijvers, is Hummingbird bedoeld om problemen op te lossen door zich te ontdoen van irrelevante inhoud en spam, waardoor Google inhoud van hoge kwaliteit kan produceren en erop kan vertrouwen dat deze 'vertrouwde' auteurs zijn .

Methodes

Geïndexeerd worden

De toonaangevende zoekmachines, zoals Google, Bing en Yahoo !, gebruiken crawlers om pagina's te vinden voor hun algoritmische zoekresultaten. Pagina's die zijn gekoppeld vanuit andere geïndexeerde pagina's hoeven niet te worden ingediend omdat ze automatisch worden gevonden. De Yahoo! Directory en DMOZ, twee grote directories die respectievelijk in 2014 en 2017 werden gesloten, beide vereisten handmatige indiening en menselijke redactionele beoordeling. Google biedt Google Search Console, waarvoor een XML-sitemapfeed kan worden gemaakt en gratis kan worden verzonden om ervoor te zorgen dat alle pagina's worden gevonden, met name pagina's die niet kunnen worden gevonden door automatisch links te volgen naast hun URL-verzendconsole. Yahoo! voorheen exploiteerde een betaalde indieningservice die gegarandeerd crawlen voor kosten per klik garandeerde , maar deze praktijk werd in 2009 stopgezet.

Zoekmachinecrawlers kunnen bij het crawlen van een site naar een aantal verschillende factoren kijken. Niet elke pagina wordt geïndexeerd door de zoekmachines. De afstand van pagina's vanaf de hoofdmap van een site kan ook een factor zijn bij het al dan niet crawlen van pagina's.

Tegenwoordig zoeken de meeste mensen op Google met behulp van een mobiel apparaat. In november 2016 heeft Google een belangrijke wijziging aangekondigd in de manier waarop websites worden gecrawld en is begonnen om hun index eerst mobiel te maken, wat betekent dat de mobiele versie van uw website het startpunt wordt voor wat Google in hun index opneemt.

Indexen voorkomen

Om ongewenste inhoud in de zoekindexen te voorkomen, kunnen webmasters spiders instrueren bepaalde bestanden of mappen niet te crawlen via het standaard robots.txt-bestand in de hoofdmap van het domein. Bovendien kan een pagina expliciet worden uitgesloten van de database van een zoekmachine door een metatag te gebruiken die specifiek is voor robots (meestal ). Wanneer een zoekmachine een site bezoekt, is het robots.txt-bestand in de hoofdmap het eerste gecrawlde bestand. Het robots.txt-bestand wordt vervolgens ontleed en zal de robot instrueren welke pagina's niet moeten worden gecrawld. Omdat een zoekmachine-crawler een kopie in de cache van dit bestand kan bewaren, kan het soms pagina's crawlen die een webmaster niet wenst te crawlen. Pagina's die doorgaans niet kunnen worden gecrawld, zijn onder andere aanmeldingsspecifieke pagina's zoals winkelwagentjes en gebruikersspecifieke inhoud zoals zoekresultaten van interne zoekopdrachten. In maart 2007 heeft Google webmasters gewaarschuwd dat ze het indexeren van interne zoekresultaten moeten voorkomen, omdat die pagina's als zoekspam worden beschouwd.

Zichtbaarheid vergroten

Een verscheidenheid aan methoden kan de bekendheid van een webpagina in de zoekresultaten vergroten. Crosslinking tussen pagina's van dezelfde website om meer links naar belangrijke pagina's te bieden, kan de zichtbaarheid ervan verbeteren. [48] Het schrijven van inhoud die vaak gezochte trefwoorden bevat, om relevant te zijn voor een breed scala aan zoekopdrachten, zal de neiging hebben om het verkeer te verhogen. [48] Het bijwerken van inhoud om ervoor te zorgen dat zoekmachines vaak terug blijven kruipen, kan een site extra gewicht geven. Het toevoegen van relevante zoekwoorden aan de metagegevens van een webpagina, inclusief de titeltag en metabeschrijving, zal de relevantie van de zoekvermeldingen van een site verbeteren, waardoor het verkeer toeneemt. URL-canonisatie van webpagina's die toegankelijk zijn via meerdere URL's, met behulp van het canonical link-element [49] of via 301-omleidingen, kan ervoor zorgen dat koppelingen naar verschillende versies van de URL allemaal meetellen voor de linkpopulariteitsscore van de pagina.

Witte hoed vs Zwarte hoed

SEO-technieken kunnen worden onderverdeeld in twee brede categorieën: technieken die door zoekmachines worden aanbevolen als onderdeel van een goed ontwerp ("white hat"), en die technieken die zoekmachines niet goedkeuren ("black hat"). De zoekmachines proberen het effect van deze laatste te minimaliseren, waaronder spamdexing. Commentatoren uit de branche hebben deze methoden, en de beoefenaars die ze gebruiken, geclassificeerd als white hat SEO of black hat SEO. Witte hoeden hebben de neiging om resultaten te produceren die lang meegaan, terwijl zwarte hoeden verwachten dat hun sites uiteindelijk tijdelijk of permanent kunnen worden verbannen zodra de zoekmachines ontdekken wat ze doen.

Een SEO-techniek wordt als white hat beschouwd als deze voldoet aan de richtlijnen van de zoekmachines en geen misleiding inhoudt. Aangezien de richtlijnen voor zoekmachines niet zijn geschreven als een reeks regels of geboden, is dit een belangrijk onderscheid dat moet worden gemaakt. Bij White hat SEO gaat het niet alleen om het volgen van richtlijnen, maar ook om ervoor te zorgen dat de inhoud die een zoekmachine indexeert en vervolgens rangschikt, dezelfde inhoud is die een gebruiker te zien krijgt. White hat-advies wordt over het algemeen samengevat als het creëren van inhoud voor gebruikers, niet voor zoekmachines, en vervolgens die inhoud gemakkelijk toegankelijk maken voor de online "spider" -algoritmen, in plaats van te proberen het algoritme te misleiden vanuit het beoogde doel. White hat SEO is in veel opzichten vergelijkbaar met webontwikkeling die de toegankelijkheid bevordert, hoewel de twee niet identiek zijn.

Black hat SEO probeert de ranglijst te verbeteren op manieren die door de zoekmachines worden afgekeurd of waarbij misleiding wordt betrokken. Eén Black Hat-techniek maakt gebruik van verborgen tekst, hetzij als tekst die vergelijkbaar is met de achtergrond, in een onzichtbare div of buiten het scherm geplaatst. Een andere methode geeft een andere pagina, afhankelijk van of de pagina wordt opgevraagd door een menselijke bezoeker of een zoekmachine, een techniek die bekend staat als cloaking. Een andere categorie die soms wordt gebruikt, is SEO met grijze hoed. Dit zit tussen black hat en white hat benaderingen, waarbij de gebruikte methoden voorkomen dat de site wordt bestraft, maar niet de beste inhoud voor gebruikers produceren. Gray hat SEO is volledig gericht op het verbeteren van de rankings van zoekmachines.

Zoekmachines kunnen sites die ze ontdekken bestraffen met behulp van zwarte of grijze hoed-methoden, hetzij door hun ranglijst te verlagen of hun vermeldingen helemaal uit hun databases te verwijderen. Dergelijke boetes kunnen automatisch worden toegepast door de algoritmen van de zoekmachines of door een handmatige sitebeoordeling. Een voorbeeld was de Google-verwijdering in februari 2006 van zowel BMW Duitsland als Ricoh Duitsland voor het gebruik van misleidende praktijken. Beide bedrijven verontschuldigden zich echter snel, repareerden de aanstootgevende pagina's en werden hersteld op de resultatenpagina van Google.

Als marketingstrategie

SEO is geen geschikte strategie voor elke website en andere internetmarketingstrategieën kunnen effectiever zijn, zoals betaalde advertenties via PPC-campagnes (pay per click), afhankelijk van de doelstellingen van de exploitant van de site. Zoekmachinemarketing (SEM) is de praktijk van het ontwerpen, uitvoeren en optimaliseren van advertentiecampagnes voor zoekmachines. Het verschil met SEO wordt het eenvoudigst weergegeven als het verschil tussen betaalde en onbetaalde prioriteitsranglijst in zoekresultaten. Het doel ervan is belangrijker dan relevantie; website-ontwikkelaars moeten SEM met het grootste belang beschouwen met het oog op zichtbaarheid, aangezien de meeste naar de primaire lijsten van hun zoekopdracht navigeren. Een succesvolle internetmarketingcampagne kan ook afhangen van het bouwen en overtuigen van webpagina's van hoge kwaliteit, het opzetten van analyseprogramma's waarmee site-eigenaren resultaten kunnen meten en het conversiepercentage van een site verbeteren. In november 2015 heeft Google een volledige versie van 160 pagina's van zijn richtlijnen voor het beoordelen van zoekkwaliteit vrijgegeven aan het publiek , waaruit een verschuiving in hun focus naar "bruikbaarheid" en mobiel zoeken bleek. In de afgelopen jaren is de mobiele markt geëxplodeerd, waardoor het gebruik van desktops werd ingehaald, zoals bleek in StatCounter in oktober 2016, waar ze 2,5 miljoen websites analyseerden en ontdekten dat 51,3% van de pagina's door een mobiel apparaat werd geladen . Google is een van de bedrijven die gebruik maakt van de populariteit van mobiel gebruik door websites aan te moedigen hun Google Search Console te gebruiken, de mobielvriendelijke test, waarmee bedrijven hun website kunnen meten met de resultaten van de zoekmachine en hoe gebruiksvriendelijk deze is.

SEO kan een voldoende rendement op uw investering genereren. Zoekmachines worden echter niet betaald voor organisch zoekverkeer, hun algoritmen veranderen en er zijn geen garanties voor voortdurende verwijzingen. Vanwege dit gebrek aan garanties en zekerheid kan een bedrijf dat sterk afhankelijk is van het verkeer van zoekmachines, grote verliezen lijden als de zoekmachines stoppen met het verzenden van bezoekers. Zoekmachines kunnen hun algoritmen wijzigen, wat de plaatsing van een website beïnvloedt, wat mogelijk kan leiden tot ernstig verkeersverlies. Volgens CEO van Google, Eric Schmidt, heeft Google in 2010 meer dan 500 algoritmewijzigingen doorgevoerd - bijna 1,5 per dag. Het wordt als een verstandige handelspraktijk beschouwd voor website-exploitanten om zichzelf te bevrijden van afhankelijkheid van verkeer via zoekmachines . Naast toegankelijkheid in termen van webcrawlers (hierboven behandeld), is de toegankelijkheid van gebruikerswebsites steeds belangrijker geworden voor SEO.

Internationale markten

Optimalisatietechnieken zijn in hoge mate afgestemd op de dominante zoekmachines in de doelmarkt. Het marktaandeel van de zoekmachines varieert van markt tot markt, evenals concurrentie. In 2003 verklaarde Danny Sullivan dat Google ongeveer 75% van alle zoekopdrachten vertegenwoordigde. In markten buiten de Verenigde Staten is het aandeel van Google vaak groter en blijft Google vanaf 2007 de dominante zoekmachine wereldwijd Vanaf 2006 had Google een marktaandeel van 85-90% in Duitsland . Hoewel er op dat moment honderden SEO-bedrijven in de VS waren, waren er slechts ongeveer vijf in Duitsland. Vanaf juni 2008 was het marktaandeel van Google in het VK volgens Hitwise bijna 90% . Dat marktaandeel wordt in een aantal landen bereikt.

Vanaf 2009 zijn er slechts enkele grote markten waar Google niet de toonaangevende zoekmachine is. In de meeste gevallen blijft Google achter bij een lokale speler als het niet op een bepaalde markt voorop loopt. De meest opvallende voorbeeldmarkten zijn China, Japan, Zuid-Korea, Rusland en Tsjechië, waar respectievelijk Baidu, Yahoo! Japan, Naver, Yandex en Seznam zijn marktleiders.

Succesvolle zoekoptimalisatie voor internationale markten kan professionele vertaling van webpagina's, registratie van een domeinnaam met een topniveau-domein in de doelmarkt en webhosting met een lokaal IP-adres vereisen. Anders zijn de fundamentele elementen van zoekoptimalisatie in wezen hetzelfde, ongeacht de taal.

Wettelijke precedenten

Op 17 oktober 2002 heeft SearchKing bij de Amerikaanse rechtbank in het westelijke district van Oklahoma een rechtszaak aangespannen tegen de zoekmachine Google. De claim van SearchKing was dat de tactiek van Google om spamdexing te voorkomen een martelende inmenging in contractuele relaties vormde. Op 27 mei 2003 keurde de rechtbank het voorstel van Google goed om de klacht af te wijzen, omdat SearchKing 'geen claim had gemaakt waarop vrijstelling kon worden verleend'

In maart 2006 heeft KinderStart een rechtszaak aangespannen tegen Google over zoekmachine rankings. De website van KinderStart werd voorafgaand aan de rechtszaak uit de index van Google verwijderd en de hoeveelheid verkeer naar de site daalde met 70%. Op 16 maart 2007 heeft de Amerikaanse rechtbank voor het Noordelijk District van Californië (divisie San Jose) de klacht van KinderStart afgewezen zonder toestemming om te wijzigen, en heeft Google gedeeltelijk motie voor sancties van regel 11 tegen de advocaat van KinderStart toegewezen, waarbij hij een deel van de kosten van Google moest betalen gerechtskosten.