Optimalizace pro vyhledávače ( SEO ) je soubor opatření pro interní a externí optimalizaci pro zvýšení pozice webu ve výsledcích vyhledávače pro určité požadavky uživatelů, za účelem zvýšení síťového provozu (pro informační zdroje) a potenciálních zákazníků (pro komerční zdroje). ) a následné zpeněžení (generování výnosů) tohoto provozu. SEO může být zaměřeno na různé typy vyhledávání, včetně vyhledávání informací, produktů, služeb, obrázků, videí, zpráv a vyhledávačů specifických pro dané odvětví. [jeden]
Obvykle platí, že čím vyšší pozice stránky ve výsledcích vyhledávání, tím více zájemců o ni z vyhledávačů . Při analýze efektivity optimalizace pro vyhledávače se odhadují náklady na cílového návštěvníka , přičemž se bere v úvahu doba, za kterou web dosáhne zadaných pozic a konverze webu .
Vyhledávače při výpočtu jeho relevance (stupeň shody se zadaným dotazem) berou v úvahu mnoho interních a externích parametrů webu:
Všechny faktory, které ovlivňují pozici webu ve výsledcích vyhledávače, lze rozdělit na externí a interní. Interní optimalizace (označující výhradně vnitřní systém webu) zahrnuje práce zaměřené na zlepšení celkové kvality webu, výhody, které to návštěvníkovi přináší. To zahrnuje práci na struktuře projektu, na usnadnění vnímání obsahu a přímo na kvalitě tohoto obsahu. Hodnota celkového počtu takových faktorů se ve většině zdrojů pohybuje kolem 200. Funkční přístup k optimalizaci pro vyhledávače, zaměřený na přizpůsobení určitých faktorů jejich cílovým hodnotám, se stal minulostí kvůli komplikacím algoritmů vyhledávačů - náklady na „vyvážení“ desítek faktorů jsou mnohonásobně vyšší než náklady na vytvoření originálního kvalitního zdroje.
Interní optimalizace zahrnuje práci s názvy stránek, které jsou obsaženy v kódu se značkami <h1>, <h2>, <h3>, nápisem, který se zobrazuje na kartě prohlížeče - Title, a vytvářením jedinečného textu na stejných stránkách. . Je také důležité věnovat pozornost metaznačce description , protože je to ta, kterou uživatel nejčastěji vidí pod adresou URL webu ve výsledcích vyhledávání. Kromě práce s meta tagy zahrnuje interní optimalizace webu soubor opatření[ co? ] , aby se zlepšila jeho použitelnost[ styl ] .
Metody interní optimalizace pro vyhledávače [2] :
Vnější faktory se dělí na statické a dynamické :
Externí metody optimalizace pro vyhledávače:
Osoba, která pracuje na optimalizaci webových stránek, se nazývá optimalizátor nebo SEO specialista ( seo/seo) .
Existují různé SEO služby, které optimalizátorům zjednodušují práci a dávají majitelům stránek možnost je samostatně propagovat (provádět SEO audity, vybírat klíčová slova, nakupovat odkazy, kontrolovat kvalitu dárců odkazů).
Mezi faktory, které snižují hodnocení webu, patří:
Některé vyhledávače (včetně Google) navíc snižují hodnocení webu, pokud nemá mobilní verzi (samostatnou nebo adaptivní) – když se na telefonech a tabletech zobrazuje plná verze webu. [6]
Spolu s nástupem a rozvojem vyhledávačů v polovině 90. let se objevila optimalizace pro vyhledávače. Vyhledávače v té době kladly velký důraz na text stránky, klíčová slova v metaznačkách a další interní faktory, se kterými mohli majitelé stránek snadno manipulovat. To vedlo k tomu, že při vydávání mnoha vyhledávačů bylo prvních několik stránek obsazeno weby, které byly zcela věnovány reklamě, což drasticky snížilo kvalitu vyhledávačů. S příchodem technologie PageRank byla přikládána větší váha externím faktorům, což pomohlo Googlu stát se lídrem v globálním vyhledávání, což znesnadnilo optimalizaci pouze pomocí textu na webu.
Optimalizace se však vyvíjí spolu s vyhledávači a v dnešních výsledcích vyhledávání můžete vidět stále více komerčních stránek s uměle navyšovanou popularitou, zejména pro komerčně atraktivní dotazy (transakční dotazy, transakční analýzy).
Spolu s tímto celosvětovým trendem, kterému přední vyhledávače aktivně vzdorují, probíhají důležité změny na jednotlivých regionálních trzích optimalizace a propagace pro vyhledávače. Runet posledních let se tak vyznačuje odlivem skutečně hodnotných odborníků na zahraniční trhy. Vysvětluje to skutečnost, že domácí trhy již nemohou naplnit plnohodnotné SEO společnosti likviditou. A rozpočty na propagaci vyhledávačů na Západě jsou větší, což je činí atraktivnějšími pro SEO. [7]
V roce 1998 dva postgraduální studenti ze Stanfordské univerzity, Larry Page a Sergey Brin , vyvinuli vyhledávač Backrub, který používal matematický algoritmus k hodnocení popularity webových stránek. Počet vypočítaný algoritmem PageRank je funkcí počtu a síly zpětných odkazů [8] . PageRank odhaduje pravděpodobnost, že daná stránka bude přístupná uživateli webu, který náhodně surfuje po webu a sleduje odkazy z jedné stránky na druhou. V podstatě to znamená, že některé odkazy jsou silnější než jiné, protože náhodný uživatel webu se s větší pravděpodobností dostane na stránku s vyšším hodnocením PageRank.
Page a Brin založili Google v roce 1998 [9] . Google přilákal věrné následovníky mezi rostoucím počtem uživatelů internetu , kteří milují jeho jednoduchý design [10] . Faktory mimo stránku (jako je hodnocení PageRank a analýza hypertextových odkazů) i faktory na stránce (jako frekvence klíčových slov, meta tagy , názvy, odkazy a struktura webu) byly brány v úvahu, aby se Google vyhnul manipulaci pozorované při vyhledávání. motory. Při hodnocení bere v úvahu pouze faktory na stránce. Zatímco s hodnocením PageRank bylo těžší hrát, webmasteři již vyvinuli nástroje a schémata pro vytváření odkazů na ovlivnění vyhledávače Inktomi a bylo zjištěno, že tyto techniky jsou podobně použitelné pro herní PageRank. Mnoho stránek se zaměřuje na výměnu, nákup a prodej odkazů, často v masivním měřítku. Některé z těchto schémat nebo propojovacích farem zahrnovaly vytvoření tisíců stránek pouze za účelem spamování [11] .
Do roku 2004 začlenily vyhledávače do svých hodnotících algoritmů širokou škálu nezveřejněných faktorů, aby snížily dopad manipulace s odkazy. V červnu 2007 Saul Hansell z The New York Times uvedl, že Google hodnotí stránky pomocí více než 200 různých signálů [12] . Přední vyhledávače, Google, Bing a Yahoo , nezveřejňují algoritmy, které používají k hodnocení stránek. Někteří odborníci na SEO studovali různé přístupy k optimalizaci pro vyhledávače a sdíleli své osobní názory [13] . Patenty související s vyhledávači mohou poskytnout informace pro lepší pochopení vyhledávačů [14] . V roce 2005 začal Google personalizovat výsledky vyhledávání pro každého uživatele. V závislosti na historii předchozích vyhledávání vytvořil Google výsledky pro registrované uživatele [15] .
V roce 2007 Google oznámil kampaň proti placeným odkazům, které překračují hodnocení PageRank [16] . Dne 15. června 2009 Google oznámil, že podnikl kroky ke zmírnění účinků vyřezávání PageRank pomocí atributu nofollow na odkazy. Matt Cutts , významný softwarový inženýr ve společnosti Google, oznámil, že Google Bot již nebude zacházet s nofollowed odkazy stejným způsobem, aby zabránil poskytovatelům SEO služeb používat nofollow k vyřezávání PageRank [17] . V důsledku této změny způsobilo použití nofollow, že se PageRank vypařil. Aby se předešlo všemu výše uvedenému, SEO inženýři vyvinuli alternativní metody, které nahrazují prázdné značky skrytým Javascriptem a umožňují tak vyřezávání PageRank. Kromě toho bylo navrženo několik řešení, která zahrnují použití prvků Iframe , Flash a Javascript [18] .
V prosinci 2009 Google oznámil, že bude používat webovou historii všech svých uživatelů k naplnění výsledků vyhledávání [19] . 8. června 2010 byl oznámen nový systém indexování webu s názvem Google Caffeine . Google Caffeine, navržený tak, aby uživatelům umožnil najít výsledky zpráv, příspěvky na fórech a další obsah mnohem rychleji po zveřejnění než dříve, změnil způsob aktualizace indexu Google tak, aby se vše na Googlu zobrazovalo rychleji než dříve. Podle Carrie Grimes, vývojářky softwaru, která oznámila Caffeine společnosti Google, „kofein poskytuje o 50 % aktuálnější výsledky vyhledávání na webu než náš nejnovější index… [20] “. Okamžité vyhledávání Google, vyhledávání v reálném čase, bylo představeno na konci roku 2010 jako pokus o to, aby výsledky vyhledávání byly aktuálnější a relevantnější. Historicky správci stránek strávili měsíce nebo dokonce roky optimalizací stránek pro lepší umístění ve vyhledávačích. S popularitou stránek sociálních sítí a blogů provedly přední motory změny ve svých algoritmech, aby rychle seřadily čerstvý obsah ve výsledcích vyhledávání [21] .
V únoru 2011 Google oznámil aktualizaci Panda, která penalizuje stránky obsahující obsah duplikovaný z jiných stránek a zdrojů. Historicky stránky navzájem kopírovaly obsah a těžily z hodnocení vyhledávačů tím, že se zapojily do této praxe. Google však zavedl nový systém, který penalizuje stránky, jejichž obsah není unikátní [15] . V roce 2012 se Google Penguin pokusil penalizovat webové stránky, které používaly manipulativní metody ke zvýšení pozice ve vyhledávačích [22] . Ačkoli Google Penguin byl prezentován jako algoritmus pro boj se spamem na webu, zaměřuje se na spamové odkazy měřením kvality stránek, ze kterých tyto odkazy pocházejí [15] . Aktualizace Google Hummingbird z roku 2013 zavedla změnu algoritmu, která má zlepšit zpracování přirozeného jazyka Google a sémantické chápání webových stránek. Systém zpracování jazyka Hummingbird spadá pod nově uznávaný termín „Conversational Search“, kde systém věnuje více pozornosti každému slovu v dotazu, aby lépe porovnal stránky s hodnotou dotazu, spíše než pár slov [23] . Pokud jde o změny provedené v SEO pro vydavatele a autory obsahu, Hummingbird je navržen tak, aby řešil problémy tím, že se zbavil irelevantního obsahu a spamu, což Googlu umožňuje produkovat vysoce kvalitní obsah a spoléhat se na ně jako na „důvěryhodné“ autory.
Metody optimalizace lze rozdělit do tří tříd podle jejich barvy (bílá, šedá a černá), nicméně nedávné události ve světě vyhledávačů jasně ukazují, že toto rozdělení je velmi libovolné - jakákoliv manipulace s určitými parametry webu může být považována za tzv. vyhledávač jako krajně nežádoucí vliv na jeho výsledky. V licenci k používání vyhledávače Yandex je tedy výslovně zakázán jakýkoli pokus o manipulaci s výsledky vyhledávání . „Bílí“ optimalizátoři a marketéři využívají doporučení Yandexu pro vytváření „dobrých“ stránek [24] . Stránky jsou tedy propagovány bez porušení pravidel vyhledávačů.
Bílá optimalizace je optimalizační práce na zdroji bez použití metod propagace zdroje, které jsou oficiálně zakázány každým vyhledávačem - bez ovlivnění vyhledávacích algoritmů stránek. To zahrnuje práci na samotném webu, konkrétně na vnitřní navigaci a obsahu, a práci na vnějším prostředí webu, tedy propagaci webu, který je optimalizován prostřednictvím recenzí, tiskových zpráv, přidávání záložek na sociálních sítích , přidružených programů atd. s uvedením odkazů na stránka. " Yandex " varuje, že pokud nějaká optimalizační metoda není oficiálně zakázána, neznamená to, že ji lze použít.
Roboti vyhledávačů mohou při procházení webu brát v úvahu mnoho různých faktorů. Ne každá stránka je však indexována vyhledávači. Vlastník webu nebo webový programátor může určité stránky z vyhledávání vyloučit. To se provádí pomocí meta tagu <nofollow>. Vzdálenost stránek od kořenového adresáře webu může také záviset na tom, zda jsou stránky procházeny. [25]
Dnes stále roste počet zobrazení internetových zdrojů pomocí mobilních zařízení. Proto byla pro Google jedním z hodnotících faktorů dostupnost adaptivní mobilní verze webu. [26]
Šedá optimalizace pro vyhledávače zahrnuje přidání velkého počtu klíčových slov do textu stránky, často na úkor lidské čitelnosti, například: „Máselný olej, protože obsahuje mastné tuky získané z ropy.“ (S příchodem Baden-Badenova algoritmu [27] Yandex takové stránky najde a uvalí na ně sankce [28] .) Optimalizace přitom spočívá nejprve ve výběru klíčových dotazů pro konkrétní webovou stránku, určení velikosti cílový „SEO text“ a nezbytnou frekvenci klíčových slov v něm a následně při formulaci vět a frází obsahujících klíčové dotazy určitý počet frází v různých pádech, jednotném i množném čísle, s různými tvary sloves. Tyto parametry lze následně upravit podle výsledků výsledků vyhledávačů. Úkolem SEO copywritera je přitom napsat originální text tak, aby taková optimalizace byla pro „živého“ čtenáře (a zejména pro hodnotitele vyhledávačů ) co nejméně nápadná . Široce se používá také zahrnutí klíčového dotazu do atributu HTML tagů title, meta description, h1, alt, meta keywords.
Dalším příkladem šedé optimalizace jsou dveře bez přesměrování , kdy po stisknutí dveří nedojde k automatickému přesměrování na propagovaný web.
Šedá optimalizace se od černé liší tím, že není oficiálně zakázána, ale její používání lze stále považovat za nepřirozený nárůst popularity webu. Některé vyhledávače, jako je Google , mohou takové stránky dočasně nebo trvale zablokovat. To znamená, že konečné rozhodnutí o tom, zda jsou metody propagace legální nebo ne, dělá specialista - moderátor vyhledávače, a ne program.
Black hat optimalizace zahrnuje všechny metody, které jsou v rozporu s pravidly vyhledávačů. Mezi ně patří: používání dveří (stránky a zdroje vytvořené speciálně pro roboty vyhledávačů, často s velkým počtem klíčových slov na stránce), technika zvaná maskování (návštěvníkům se zobrazuje jeden obsah, vyhledávacímu robotu jiný), používání skrytého textu na stránkách webu, používání „jednopixelových odkazů“.
Pro černou optimalizaci se často používá hackování stránek s vysokou návštěvností nebo mnoha stránek s nízkou návštěvností, aby se na ně umístily odkazy (včetně skrytých) na propagované zdroje. Ve většině případů se takové odkazy automaticky každých pár dní nebo týdnů mění kvůli škodlivému kódu černého optimalizátoru, který lze detekovat pomocí bezplatných online antivirových skenerů webových stránek.
Wiki, které nechrání své externí odkazy pomocí instrukcí rel="nofollow" a wiki engine, které tuto funkci nemají, jsou obzvláště zranitelné. Použití i velmi spolehlivého captcha populárních formátů v takových případech nezastaví spammery, protože IQ [29] /PR wiki stránek je obvykle zvýšeno.
Aby bylo možné manipulovat s vyhledávači, existuje taková metoda černé optimalizace, jako jsou sítě PBN ( satelity ). Ve většině případů se jedná o vytváření velkého množství malých stránek, které následně umísťují umělé odkazy na propagované stránky. .
SEO není správná strategie pro každý web a v závislosti na cílech provozovatele webu mohou být efektivnější jiné strategie internetového marketingu , například placená reklama prostřednictvím kampaní s platbou za proklik (CPC). Marketing ve vyhledávačích (SEM) je praxe navrhování, provádění a optimalizace reklamních kampaní pro vyhledávače. [třicet]
V listopadu 2015 vydal Google svým uživatelům kompletního 160stránkového průvodce hodnocením kvality vyhledávání [31] , který nyní ukazuje jejich posun v zaměření na „užitečnost“ webu a mobilní vyhledávání.
SEO může generovat návratnost investic a vyšší tržby z prodeje pro firmu. Vyhledávače však nejsou placeny za běžný provoz vyhledávání, jejich algoritmy se mění a neexistuje žádná záruka, že dříve používané optimalizační metody nepřestanou být brány v úvahu nebo se nestanou pobídkou k pesimizaci vydávání internetového zdroje. Kvůli tomuto nedostatku záruk a jistoty může podnik, který je vysoce závislý na provozu z vyhledávačů, utrpět velké ztráty, pokud vyhledávače přestanou posílat návštěvníky. [32]
Existují desktopové aplikace pro SEO analýzu, ale většinou jde o online SEO služby. Zpravidla jsou placené, ale poskytují zkušební dobu používání.
Pro nákup odkazů existují speciální stránky, kde si můžete odkazy koupit a zároveň poskytnout možnost (za poplatek) je umístit na vaše stránky. Cena za odkazy se pohybuje od 5 do 500 USD.
Optimalizace pro vyhledávače | |
---|---|
Výjimky | |
Marketing |
|
Marketing ve vyhledávání |
|
Spam |
|
Odkazy |
|
jiný |
|
Web a webové stránky | |
---|---|
globálně | |
Lokálně | |
Typy stránek a služeb |
|
Tvorba a údržba | |
Typy rozložení, stránek, webů | |
Technický | |
Marketing | |
Společnost a kultura |