logo
Robots.txt vs noindex
etrusco Offline
#1 Inviato : giovedì 16 maggio 2024 10:18:49(UTC)
Rank: Newbie

Gruppi: Registered
Iscritto: 16/05/2024(UTC)
Messaggi: 4
Locazione: Viterbo

Ciao a tutti,
Sul mio sito web ho delle pagine che chiamo ‘goto’ le quali fanno un redirect javascript ad altre pagine fuori del mio dominio (link affiliati)

In ottica SEO è consigliabile bloccare la pagina con il robots.txt oppure con il tag noindex?

Io fino ad oggi ho sempre usato la direttiva disallow nel file robots.txt tuttavia alcuni seo consigliano di usare il tag NOINDEX in combinata con il NOFOLLOW

Questo perché le pagine essendo dei meri redirect su siti affiliati NON devono trasferire la ‘link_juice’

La mia paura è che avendo moltissime pagine di tipo goto ed ‘aprendo’ il rubinetto togliendo il disallow sul robots (e simultaneamente aggiungere il tag noindex) il website potrebbe andare in affanno , soprattutto la prima volta ovvero alla prima scansione per intercettare il tag noindex

Voi come vi comportate in tal senso ?

Grazie
Ale
albyberto Offline
#2 Inviato : martedì 11 giugno 2024 16:39:24(UTC)
Rank: Newbie

Gruppi: Registered
Iscritto: 11/06/2024(UTC)
Messaggi: 4

Ciao Ale,

Capisco il tuo dilemma. Ecco alcune considerazioni che farei:

Tag Noindex e Nofollow: utilizzare il tag noindex insieme a nofollow sulle tue pagine di tipo "goto" è una buona pratica. Questo impedisce che le pagine siano indicizzate e che trasmettano "link juice" ai siti affiliati [4].

Robots.txt vs Noindex: bloccando le pagine tramite robots.txt, i motori di ricerca non le vedranno affatto, il che va bene. Tuttavia, se utilizzi il tag noindex, i motori di ricerca potranno ancora vedere le pagine ma sapranno di non indicizzarle. Questo può essere utile se vuoi monitorare il traffico su queste pagine tramite Google Analytics.

Effetti sulla scansione: rimuovere la direttiva disallow nel robots.txt e aggiungere il tag noindex può portare ad un aumento temporaneo del carico di scansione mentre Google aggiorna il suo indice. Tuttavia, questo effetto dovrebbe essere temporaneo e gestibile, a meno che non ci siano migliaia di pagine coinvolte.

Pratica Consigliata: una soluzione potrebbe essere implementare gradualmente i tag noindex e nofollow mentre monitori l'impatto sul traffico e la scansione. Inoltre, assicurati di avere una buona gestione delle risorse del server per affrontare eventuali aumenti di scansione.

In sintesi, entrambi gli approcci sono validi, ma l'uso del tag noindex offre un controllo più granulare e una migliore monitorabilità rispetto alla direttiva disallow nel robots.txt.

Spero che queste informazioni ti siano utili!
Rss Feed  Atom Feed
Utenti che sfogliano il topic
Guest
Forum Jump  
Tu NON puoi inviare nuovi topic in questo forum.
Tu NON puoi rispondere ai topics in this forum.
Tu NON puoi cancellare i tuoi messaggi in questo forum.
Tu NON puoi modificare i tuoi messaggi in questo forum.
Tu NON puoi creare sondaggi in questo forum.
Tu NON puoi votare nei sondaggi di questo forum.