A keresőrobot nyelvezete és működése, avagy mit iszik egy keresőrobot!


keresőrobot

A keresőrobot tevékenysége. Miért is szeretnek olvasni a keresőrobotok?!

keresőrobotok

A különböző keresőrobotok másként értékelik oldalaink, így más keresési listát láthatunk egyik és másik keresőoldalon. Aktív internetes keresők, keresőszolgáltatások 2018

keresőrobot

A keresőrobot próbálja értelmezni az új adatokat (szöveget, képet, stb.) és ezeket osztályozza és listába helyezi a megadott paraméterek alapján..

  Ezt a területet úgy tudnánk érthetővé tenni a webes szakmán kívül létezők számára, hogy összehasonlítjuk a mesterséges intelligenciával a keresőrobot intelligenciáját.
   
  Filmekben már gyakran látjuk, hogy milyen magas szinten állnak a gépek, mert akár egy világháborút is kirobbantanak. A valóságban pedig még nagyon messze vagyunk ettől a gépi kvalitástól.

  A sakk is felhozható ebben a témában, hiszen rengeteg fejlesztés létezik a sakkot játszó motorok (lépéseket, variációkat számoló programok) esetében. Itt azt mondják sok esetben, hogy a sakkmotorok már jobbak az embereknél. Mi ezt minden szempontból cáfoljuk, mert ugyan egy kötött idővel lejátszott partiban az átlag sakkozót könnyen legyőzik az erősebb programok, viszont a legjobb sakkozóknál nem erősebbek. Persze a szoftvereket gyártó vállalkozások, mind az ellenkezőjét sugallják. A valóságban másképpen állnak a dolgok.
A sakkozó szoftverek fejlődése folyamatosnak mondható ugyan, hasonlóan a keresőrobotokéhoz, viszont rengeteg problémát látok az elmúlt időszakban. Arra gondolok, hogy inkább több hasonló erejű szoftver keletkezett, mint sem hogy a legjobbak elhúztak volna a többiek elől. Ez a legmagasabb tudás határát megközelítését jelenti a sakkban, valamint a számítógépek kapacitásának határát. Jelenleg ez az oka annak, hogy nehéz fejlődni, hiszen már lassan mindent megtanítottak a szoftvernek a sakkról. Viszont még mindig vannak helyzetek, ahol hibáznak a sakkgépek és nem találják a legjobb lépéseket, illetve egy stratégiai, esetleg taktikai hibát vétenek.

  A Word szövegszerkesztőt is minduntalan új verziók kiadásával tolják a felhasználók elé, és nehezen tudjuk elképzelni, hogy mondjuk a 10 évvel ezelőtti verzió ne tudott volna már szinte mindent, főleg amire egy átlag felhasználónak szüksége van egy levél megírásához.
 
  A keresőrobotok algoritmusai is sokat fejlődtek a kezdetektől számítva, de mindenki tapasztalhatta hiányosságaikat mind a mai napig, akár egy-egy keresési eredményben is. Magyarul arra szerettem volna kilyukadni, hogy sokféle kiskapu létezik, és sokféle tapasztalati tudás halmozódott fel a keresőrobotok működésével kapcsolatban, ami nem konkrétan leírt szabályok felhasználásával ismerünk. Hiszen gondoljunk csak bele mikor kerestünk valamire és két lehetőség közül a nekünk relevánsabb eredmény sokkal hátrébb volt a listában, mint amelyik kevésbé volt az. Ezeket nem csak egy újonnan megjelenő oldalnál tapasztalhatjuk, amelyik még nem érte el a jogos helyét a keresőkben, hanem olyan esetekben is amikor már régóta létező oldalról beszélünk. Nyilván lehet magyarázatot találni az ilyen visszásságokra és elméletileg is meglehet magyarázni, de azt biztosan mondhatjuk, hogy nagyon nehéz megtanítani egy programot arra, hogy minőségileg értékelni tudjon egy bizonyos szöveget. Főleg úgy, hogy biztosan nem érti a tartalmát, csak a megtanított logika, struktúra, algoritmus alapján próbálja értelmezni az új adatokat (szöveget, képet, stb.) és ezeket osztályozza és listába helyezi a megadott paraméterek alapján. De el kell ismerni, hogy egyre jobb eredményeket kapunk, amik nem akármilyen munka eredményeként születnek meg. Sokan sokféle módszerrel állnak neki a weboldalak felkészítésének a keresőrobotokkal való első találkozására, de korántsem mindegy miként fogadjuk..


A legtöbb weboldalnál azonban kihagyják, illetve nem csinálják meg a legfontosabb optimális


megjelenéshez szükséges teendőket vagy legalábbis egy részét:

1.

az egyes oldalak tartalmának minősége és hossza nem megfelelő

2.

a ránk mutató linkek minősége és száma kevés (új oldal esetében ez persze nem csoda)

3.

az oldal elrendezése nehezen követhető vagy mindig más szerkezetű

4.

a kulcsszavaink nem jelennek meg a tartalomban vagy éppen nem a legjobb helyen

5.

a domain nevünk túl fiatal és ráadásul Brandet szeretnénk építeni mindenáron

6.

a meta címkék kihasználatlanok

7.

a közösségi média nem létezik

8.

nincsenek megragadó képek vagy a keresőrobotot nem tájékoztatjuk arról, hogy mi van a képünkön

9.

a weboldalunk nem használ https protokollt

10.

a link struktúra kevésbé olvasható, például az anotherpoint.hu/keresőrobot-nyelvezete sokkal jobb, mint a anotherpoint.hu/blog.php&id=123

11.

kulcsszavak az linkekben hiányoznak

12.

nem mobilbarát az oldalunk

13.

kulcsszavak az linkekben hiányoznak

14.

hírleveleket sohasem küldünk, nincsenek ideiglenes vagy stratégiai reklámjaink

15.

pagerank tényezőinek figyelmen kívül hagyása

16.

nem működő linkek figyelmenkívül hagyása

  Nyilván sok minden mást lehetne még felsorolni, minden esetre egy keresőrobot sokkal jobb helyre pozícionál bennünket, ha ebből a felsorolásból a többséget megtartjuk és nem hanyagoljuk el a saját oldalunk építésénél.
Aztán ahogy oldalunk korosodik, karbantartásának, frissítésének és bővítésének lehetőség szerint állandónak kell lennie, amivel a keresőrobot "fittségét", "edzettségét" is elősegítjük és így a honlapunk értékelése egyre jobbá válik.
Ha minden összeáll az elsőhelyekre kerülünk weboldalainkkal a legtöbb keresőben.