Sostituzione prefissi URL con espressione regolare.

Proprio in questi giorni avevamo la necessità di trovare tutte quelle pagine che non ricevono visite attraverso ricerca organica, accesso diretto o tramite navigazione dei nostri utenti nel sito Web. In pratica trovare quelle pagine che non portano benefici in termini di traffico e “usabilità” agli utenti del nostro sito.

Quando il sito è di piccole dimensioni non occorre un metodo vero e proprio: basta andare su analytics, cliccare su “comportamento”->”contenuti sito”->”tutte le pagine” e fare una differenza fra le pagine viste e quelle presenti nel sito Web.

Quando invece le dimensioni di un sito non consentono questa sottrazione in maniera manuale è possibile operare in due vie:

  • utilizzando Screaming Frog
  • armandosi di notepad++ e di espressioni regolari

Screaming Frog

Screaming Frog, per chi non lo conoscesse, è uno strumento eccezionale per l’analisi interna di un sito Web. Il software (gratuito per scansioni di siti con meno di 500 url) consente l’analisi di tutte le url di un sito Web di cui fornisce dati preziosi su URL interni ed esterni, META, HTTP STATUS CODE, CONTENUTI ecc… e, integrandosi con analytics, preziosi dati sugli accessi dei visitatori.

Integrare Google Analytics con Screaming Frog è una questione di pochi semplici passaggi:

  • Vai su configurazione
  • Clicca su ACCESSO API-> Google Analytics
  • Inserisci le tue credenziali di accesso
  • Seleziona i dati che vuoi visualizzare nelle colonne dei risultati

 

 

 

 

Una volta configurato effettua una nuova ricerca, esporta i risultati in excel e analizza le pagine che non hanno traffico. Potrai capire le motivazioni di un insuccesso.

Qualora ti interessasse esclusivamente conoscere le potenzialità della tua pagina sulle SERP puoi integrare i dati di Google Search Console. Per questo ti consiglio la visione di questo bellissimo tutorial di Giorgio Tave:

 

I

Notepadd++ – TextFX ed espressioni regolari

Questa via è dedicata a tutti coloro che non hanno una licenza di Screaming Frog o desiderano procedere in maniera manuale.

Connettiti ad analytics, vai su Comportamento->Contenuti del sito->Tutte le pagine (visualizza tutto).

  • Dal menu in alto clicca su ESPORTA e salva i dati in excel.
  • Una volta esportati i dati prendi la colonna delle URL, importale su Notepad++.
  • Adesso con un cerca e sostituisci (una piccola espressione regolare) in cui inserire ^/ nel trova e la url completa del sito nel sostituisci (es. https://pianoweb.eu/).

N.B. In questi esempi saranno frequenti le espressioni regolari, in quanto sono delle vere e proprie scorciatoie in grado di farci risparmiare ore di lavoro inutile.

  • Ottenuta la lista completa delle pagine con visite dobbiamo accorparci la lista completa delle url del sito. Per comodità ho utilizzato la sitemap (a patto di avere quelle che sono un po’ tutte le pagine del sito web).
  • Ottenuta la sitemap copiate l’xml e incollalo testualmente dentro a
  • https://pgl.yoyo.org/urlex/
  • Esporta i risultati senza tag Html
  • Copia e incolla la lista su Notepad++ insieme alle altre URL

Secondo il nostro ragionamento la lista delle URL ottenuta conterrà dei valori duplicati, che rappresentano le pagine con traffico. Dobbiamo quindi lasciare esclusivamente le URL uniche. Possiamo farlo con l’ausilio di TextFX e l’uso di un’espressione regolare.

  • Scarica il plugin TextFX per Notepad++
  • Apri lo Zip ed estrai il dll NppTextFX.dll nella cartella plugins di Notepad++ (Programmi)\Notepad++\plugins
  • Riavvia Notepad++
  • Seleziona le righe da ordinare
  • Vai sulla nuova voce menu TextFX, poi TextFX Tools e infine Sort lines
  • Una volta che hai ordinato la lista puoi utilizzare questa espressione regolare con cerca e sostituisci: ^(.*?\R)\1+   (Naturalmente il sostituisci verrà lasciato vuoto).

Il risultato sarà una lista senza i duplicati, otterai le pagine del sito Web che non ricevono visite.

 

L’alternativa – SeoZoom – Pagine peggiori (Beta)

Per coloro che invece desiderano conoscere quali pagine del sito non hanno pagine posizionate per alcuna keyword è possibile utilizzare una feature molto interessante di SEOZoom: pagine peggiori.

Consiglio di valutare risultato per risultato in quanto il tool è ancora in fase beta, per cui potrebbero esserci degli errori nel software. Infatti controllando alcuni dei risultati emersi per PianoWeb non risulta particolarmente preciso: il software prende in esame anche le anchor interne. Per il resto sembra essersela cavata egregiamente. Occhio però, si tratta di pagine che non hanno keyword posizionate, quindi potrebbero comunque essere utili ai fini della navigazione e dell’esperienza utente.

 

Se hai trovato interessante il nostro metodo di lavoro condividi l’articolo e commenta. Saremo lieti di rispondere alle tue domande o di condividere la tua esperienza, chissà che tu abbia soluzioni più efficaci.

My Agile Privacy
Privacy and Consent by My Agile Privacy

Questo sito utilizza cookie tecnici e di profilazione. 

Puoi accettare, rifiutare o personalizzare i cookie premendo i pulsanti desiderati. 

Chiudendo questa informativa continuerai senza accettare. 

Open chat
Ciao, come possiamo aiutarti ?