mi az a faceted navigation?

a sokoldalú navigáció általában az e-kereskedelmi webhely oldalsávján található, és oldalvonalakat és szűrőket tartalmaz. Lehetővé teszi a felhasználók számára, hogy kiválasszák a számukra fontos attribútumok kombinációit, hogy kiszűrjék a termékek listáját az igényeiknek megfelelőre.

a Facets indexelt kategóriák, amelyek segítenek meghatározni a terméklistát, és a webhely fő kategóriáinak kiterjesztéseként működnek. Az oldalaknak egyedi értéket kell adniuk minden választáshoz, és mivel indexelve vannak, a webhely minden oldalának releváns jeleket kell küldenie a keresőmotoroknak, biztosítva, hogy minden fontos attribútum megjelenjen az oldal tartalmában.

a szűrőket az elemek listázási oldalon belüli rendezésére vagy szűkítésére használják. Míg ezek szükségesek a felhasználó számára, nem változtatják meg az oldal tartalmát (ugyanaz marad, csak más sorrendben rendezve), ami több URL-hez vezet, amelyek ismétlődő tartalmi problémákat generálnak.

milyen lehetséges problémákat okozhat?

mivel az oldalak minden lehetséges kombinációja jellemzően egyedi URL, a csiszolt navigáció néhány problémát okozhat a SEO számára:

na 6V.a csiszolt navigáció

az összes oldal és szűrő feltérképezése és indexelése – még akkor is, ha az oldal tartalma nem változik – ismétlődő tartalmi problémákhoz, a feltérképezési költségvetés jelentős pazarlásához és a link tőke hígításához vezethet. Ahogy a paraméterek szaporodnak, a majdnem duplikált oldalak száma exponenciálisan növekszik, és a linkek a különböző verziókba kerülhetnek, hígítva a link méltányosságát és korlátozva az oldal organikus rangsorolását. Ez tovább növeli a kulcsszó kannibalizáció esélyét, amely forgatókönyv szerint több oldal töltődik be ugyanazon kulcsszavakhoz, ami kevésbé stabil, és gyakran alacsonyabb rangsorolást eredményez.

annak érdekében, hogy a keresőmotor botjai ne pazarolják az értékes craw-költségvetést olyan oldalakra, amelyek nem adnak hozzá értéket, létre kell hozni néhány szabályt a szűrőkön belüli feltérképezés és indexelés korlátozására. Például határozza meg, hogy mely oldalaknak nincs SEO előnye (például “méret”, “ár”), és feketelistára tegye őket, vagy megakadályozza, hogy a keresőrobotok több kiválasztott elemet fedezzenek fel.

Faceted Nav kategóriák

a csatabárd megközelítés

a fenti megoldással ellentétes reakció az, hogy blokkolja a webhely minden szűrt oldalának feltérképezését és indexálását, megakadályozva, hogy a releváns kulcsszavak nagy csoportja rangsoroljon.

Faceted Navigation solutions

amikor egy faceted Navigation solutions megoldásról döntünk, el kell döntenünk, hogy mit akarunk az Indexben, és növelnünk kell az indexelt hasznos oldalak számát, miközben minimalizáljuk azon haszontalan oldalak számát, amelyeket nem akarunk indexelni.

számos megoldás áll rendelkezésre ezeknek a problémáknak a kezelésére, mindegyik implementációnak vannak előnyei és hátrányai:

1.megoldás: AJAX

az AJAX faceted navigációhoz való használatának fő előnye, hogy nem jön létre új URL, amikor a felhasználó egy oldalon van, és szűrőt vagy rendezési sorrendet alkalmaz. Az egész folyamat történik kliens oldali JavaScript, bevonása nélkül a webszerver egyáltalán.

ennek a megközelítésnek a használatakor csak meg kell győződnie arról, hogy van-e HTML feltérképezési útvonal a rangsorolni kívánt termékekhez és oldalakhoz, és győződjön meg arról, hogy a keresőmotorok hozzáférhetnek minden értékes oldalhoz. A HTML5 history API pushState módszerének felhasználásával, és a szerver konfigurálásával, hogy válaszoljon ezekre a kérésekre HTML renderelt szerveroldali, akkor részesülhet a gyors, AJAX-alapú csiszolt navigációban anélkül, hogy feláldozná a webhely SEO-barátságát.

ez elméletileg nagyszerű megközelítés, mivel kiküszöbölheti a duplikált tartalom, a kannibalizáció és a feltérképezési költségvetés pazarlását. Ez azonban nem használható SEO javításként egy meglévő faceted navigációhoz. Emellett nagy kezdeti beruházást igényel a fejlesztési időben és a golyóálló végrehajtásban.

ha kérdése van az AJAX-alapú faceted navigációval vagy általában a JavaScript SEO-val kapcsolatban, vegye fel velünk a kapcsolatot.

2.megoldás: Metarobotok és robotok.txt

ez egy megbízható megközelítés a sokoldalú navigációból létrehozott URL – ek blokkolására, mivel – még akkor is, ha inkább Irányelvek, mint végrehajtások-a keresőmotorok pókjai általában engedelmeskednek nekik. Az ötlet az, hogy állítson be egy egyéni paramétert, amely kijelöli a blokkolni kívánt szűrők és aspektusok összes kombinációját (például “noidx=1”), majd adja hozzá minden blokkolni kívánt URL-karakterlánc végéhez. Akkor lehet egy bejegyzést a robotok.TXT fájl, hogy blokkolja ezeket:
User-agent: *
Disallow: /*noidx=1

azt is beállíthatja az összes kívánt oldalakat blokkolni egy meta robotok noindex tag a fejlécben. Felhívjuk figyelmét, hogy ajánlott 3 vagy 4 hetet hagyni a keresőmotorok robotjainak, hogy felvegyék ezeket a változásokat, mielőtt blokkolnák ezeket a robotokkal.txt fájl.

egyszer meta robotok és robotok.a TXT blokkolási Irányelvek érvényben vannak, be kell állítanunk a kiszolgálót, hogy bizonyos szabályokkal automatikusan hozzáadja a noidx= paramétert az URL-ekhez: például, ha legfeljebb oldalcsoportokat választanak ki (a túl szűk kategóriák indexelésének elkerülése érdekében, mint például www.domain.com/skirts?Szín=Fekete&méret=10&anyag=bőr), vagy ha egy csoporton belül két vagy több szűrő van kiválasztva (www.domain.com/skirts?color=black& color = white).

néhány fontos szempontot szem előtt kell tartani, amikor ezt a megközelítést alkalmazzuk:

  • az ismétlődő tartalmi problémák elkerülése érdekében minden indexelt oldalnak egyedi és optimalizált oldalelemekkel kell rendelkeznie (legalább metacím, fejlécek és metaleírás).
  • a szigorú URL-sorrend segít elkerülni a duplikált tartalmat is azáltal, hogy az attribútumokat mindig ugyanúgy rendeli, függetlenül attól, hogy a felhasználó milyen sorrendben választotta ki őket.
  • ne feledje, hogy hagyja feltérképezett és indexelt egy – a preferált – változata a tartalom, így a keresőmotorok is látogasson el, és index a keresési eredmények között.

3.megoldás: az indexálás irányítása a Rel=canonical

segítségével ez egy egyszerű megoldás, amely segít a robotokat a valóban feltérképezni kívánt tartalom felé irányítani, miközben megtartja azt a tartalmat, amely segít a felhasználóknak a termékek megtalálásában. Míg a rel=canonical elem segít elkerülni az ismétlődő tartalmi problémákat, ez a megközelítés nem takarít meg feltérképezési költségkeretet (ez az előző robotokkal érhető el.txt megoldás).

ezenkívül a keresőmotorok botjai gyakran figyelmen kívül hagyhatják a kanonikus címkéket, ezért ezt egy másik megközelítéssel együtt kell használni, hogy a keresőmotorokat az egyes oldalak előnyben részesített – a legmagasabb konvertáló – verziója felé irányítsák.

4. megoldás: Google Search Console

bár ez egy jó módszer ideiglenes javítások létrehozására, miközben egy jobb, csiszolt navigációt épít, csak azt mondja meg a Google-nak, hogyan kell feltérképezni a webhelyet (ahelyett, hogy ténylegesen megoldaná a problémát), és végső megoldásként kell gondolni.

a konzol URL-paraméterek eszközén keresztül megadhatja, hogy az egyes paraméterek milyen hatással vannak az oldalra (függetlenül attól, hogy megváltoztatja-e a tartalmát vagy sem), és hogyan kezelje ezeket az oldalakat a Google (ne feledje, hogy ez csak a Googlebotot fogja utasítani, ezért nem fog működni a Bing vagy a Yahoo felhasználói ügynökök számára).

legjobb gyakorlatok a sokoldalú navigációhoz

íme néhány alapvető tipp, amelyek segítenek a legtöbbet kihozni a sokoldalú navigációból:

  • tiltsa le a kattintható linkeket, ha a
  • kategóriához/szűrőhöz nincs termék, minden oldalnak hivatkoznia kell a gyermekeire és a szüleire (általában a breadcrumb trails segítségével érhető el). Termékétől függően hasznos lehet A testvéroldalakra mutató linkek felvétele is.
  • szigorú URL-oldalrendezés (az attribútumok mindig ugyanúgy vannak rendezve). Ennek elmulasztása párhuzamos problémákat okozhat.
  • lehetővé teszi az indexálás bizonyos aspektus kombinációk nagy volumenű keresési forgalmat.
  • URL-paraméterek konfigurálása a Google Search Console-ban (de ne feledje, hogy nem támaszkodik erre a megoldásra)
  • ne támaszkodjon a noindex & nofollow-ra (a rel=nofollow és a canonical nem őrzi meg a feltérképezési sávszélességet).
  • Nofollow az első szűrő után egy csoportban (alternatívaként robotok.txt disallow)
  • néhány paraméternek soha nem szabad indexelhetőnek lennie

következtetés

négy különböző megoldást vázoltam fel az oldalakon és szűrőkön keresztüli navigáció kezelésére, de minden vállalkozás más, és nincs egy legjobb megközelítés, amely minden weboldal és platform esetében működni fog. Amikor a vállalkozása számára tökéletes megoldásról dönt, ne feledje, hogy a kategóriarendszerének és a webhely architektúrájának tükröznie kell az ügyfelek igényeit. A boldog ügyfelek és a boldog keresőmotorok a siker kulcsa az e-kereskedelmi navigációban.

végül, bár az optimalizált, sokoldalú navigáció segíthet a webhely rangsorolásában a kifejezések szélesebb körében, magas kockázatot jelent, ha nem megfelelően kezelik. Létfontosságú a fejlesztés minden szakaszában tesztelni, hogy megbizonyosodjon arról, hogy a rendszer megfelelően van-e beállítva.