Come raccogliere oltre 100 domande correlate alle parole chiave di riferimento

Ultimo aggiornamento il sabato 11 novembre 2023

How to Collect 100+ Related Questions to Your Target Keywords
Con l'aumento dell'importanza della visibilità sui motori di ricerca, soprattutto con il calo del coinvolgimento e del monitoraggio dei social media, la SEO è diventata sempre più un canale altamente competitivo.

Come può il vostro sito web ritagliarsi un posto nei vasti risultati che il web offre? La risposta potrebbe essere nelle domande!

Nell'articolo di oggi, costruiremo uno scraper "People Also Ask" per raccogliere centinaia (o addirittura migliaia) di domande correlate alle vostre parole chiave target, consentendovi di costruire un cluster di argomenti più completo, ottimizzare i vostri contenuti e migliorare l'intento di ricerca.

Che cos'è "People Also Ask"?

La funzione "Anche le persone chiedono" di Google è una sezione dei risultati di ricerca che mostra domande e risposte correlate provenienti da altre fonti. Aiuta gli utenti a trovare maggiori informazioni sulla loro domanda o a esplorare diversi aspetti dell'argomento.

People also ask - Google

La funzione è dinamica e può espandersi o cambiare a seconda dell'interazione dell'utente.

PPA - Dynamic questions

Come utilizzare le domande PAA per incrementare il SEO

Sebbene "People Also Ask" (PAA) sia principalmente una funzione per gli utenti finali, può essere un grande alleato nella creazione e nell'ottimizzazione dei contenuti del vostro sito.

L'idea alla base della PAA è quella di aiutare gli utenti a trovare ulteriori informazioni sulla loro richiesta o di aiutare gli utenti smarriti che non sono sicuri di come cercare un'informazione, per cui Google deve "prevedere" l'intento dietro la ricerca.

Avete capito l'idea?

Le domande PAA sono un ottimo modo per identificare potenziali domande a cui i vostri contenuti dovrebbero rispondere - aumentando l'autorevolezza dell'argomento - o nuovi argomenti per creare contenuti intorno alla vostra parola chiave principale.

Ad esempio, supponiamo che vogliate scrivere un articolo sulla ricerca delle parole chiave. Di cosa dovreste occuparvi?

La maggior parte delle persone cerca il termine target su Google, dà un'occhiata a ciò che è già presente nel ranking e chiude la questione.

Tuttavia, se controlliamo la casella PAA, troveremo alcune idee interessanti:

  • Che cos'è la ricerca di parole chiave?

  • Come posso trovare buone parole chiave di ricerca?

  • Google Keyword Tool è gratuito?

  • La SEO è la stessa cosa della ricerca di parole chiave?

  • Come si fa la ricerca di parole chiave nel 2023?

Solo da queste domande possiamo determinare alcune cose:

  1. La domanda "La SEO è la stessa cosa della ricerca per parole chiave?" ci dice che si tratta di un argomento di base, quindi le persone che cercano questo termine sono principianti e noi dobbiamo impostare il tono per loro.

  2. Si tratta di un argomento in evoluzione che deve essere aggiornato frequentemente, in quanto abbiamo una domanda sull'anno in corso.

  3. Dovremmo aggiungere una sezione con i titoli "Che cos'è la ricerca di parole chiave?" e "Come trovare buone parole chiave di ricerca" - non userei il secondo esattamente così, ma avete capito il senso.

  4. Dovremmo menzionare l'uso di "Google Keyword Planner" come parte del tutorial, poiché Google lo collega alla query.

Possiamo ottenere molte informazioni preziose sulle nostre parole chiave, costruire un elenco di parole chiave correlate, ottimizzare i nostri contenuti per rispondere alle domande comuni intorno alla parola chiave target e trovare nuove idee di argomenti per costruire cluster di argomenti completi.

Raccogliere le domande "Anche le persone chiedono" con Python

C'è però una sfida. Raccogliere tutte queste domande per i nostri contenuti esistenti o per usarle come supporto per la pianificazione dei contenuti è un compito che richiede tempo e risorse.

I SEO e i content manager hanno già molto lavoro da svolgere per aggiungere ulteriori ricerche, quindi come risolviamo il problema?

Semplice, automatizziamo il processo!

Costruiremo un web scraper che:

  • Prende un elenco di parole chiave

  • Naviga nella SERP della parola chiave

  • Estrarre tutte le domande PAA

  • Esportare le informazioni in un CSV

Per questa esercitazione, utilizzeremo Python con un semplice strumento che si occuperà di tutta la complessità, e sarete in grado di utilizzare il codice risultante cambiando semplicemente le parole chiave.

Pronti? Iniziamo.

Passo 1: Impostazione del progetto

La prima cosa da fare è creare una nuova cartella per il vostro progetto (chiamatela paa-scraper) e creare un nuovo file paa_scraper.py al suo interno.

Se siete su Mac, il vostro computer ha già installato una versione di Python. Se siete su Windows, seguite questo tutorial per installarlo sul vostro computer.

Quindi, aprite la cartella in VScode e un nuovo terminale.

Open new terminal in VScode

Da qui, inserite il seguente comando.

pip installa richieste pandas

Il comando precedente installerà due utili strumenti (dipendenze):

  • Requests ci consentirà di richiedere le informazioni che vogliamo estrarre

  • Pandas ci aiuterà a esportare le informazioni in un file CSV.

Per concludere questo passaggio, importate entrambe le dipendenze all'inizio del file.

importare requests importare pandas come pd

Passo 2: invio della richiesta tramite ScraperAPI

Tradizionalmente, per ottenere i dati che stiamo cercando, dovremmo costruire uno scraper che navighi su Google, cerchi le informazioni usando i selettori CSS, prenda le informazioni, le formatti... capite cosa intendo? Di solito si tratta di un sacco di logica.

Open new terminal in VScode

Invece, possiamo utilizzare uno strumento di web scraping per ridurre i costi, i tempi di implementazione e la manutenzione.

Inviando la nostra richiesta attraverso gli endpoint di dati strutturati di ScraperAPI, saremo in grado di recuperare le domande PAA di qualsiasi query senza preoccuparci di analizzare l'HTML, di essere bloccati o di qualsiasi altro problema che potremmo incontrare.

Per iniziare, create un account ScraperAPI gratuito e andate nella vostra dashboard per copiare la vostra chiave API.

Quindi, creeremo un payload come questo:

payload = { 'api_key': 'YOUR_API_KEY', 'country': 'us', 'query': 'keyword+research', }

Il parametro paese indicherà a ScraperAPI da dove inviare le richieste - ricordiamo che Google mostra risultati diversi in base alla posizione geografica - mentre il parametro query contiene la parola chiave.

Con questi parametri pronti, possiamo inviare la nostra richiesta usando il metodo get():

response = requests.get('https://api.scraperapi.com/structured/google/search', params=payload)

Passo 3: stampare le domande PAA

Se stampiamo(response.text), ecco le informazioni che otteniamo:

Printing PAA questions

Come si può vedere, lo strumento restituisce l'intera SERP come dati JSON e le domande principali relative alla query sono contenute nella chiave "related_questions".

Poiché stiamo ottenendo dati strutturati invece di dati HTML grezzi, possiamo selezionare elementi specifici usando il nome della loro chiave:

serp = response.json() all_questions = serp['related_questions'] for paa in all_questions: print(paa['question'])
  1. Memorizziamo l'intera risposta JSON in una variabile serp

  2. Prendiamo le "domande_relative" e creiamo un elenco di elementi, dove ogni elemento è una domanda PAA.

  3. Per prendere le domande, scorriamo l'elenco e stampiamo solo la chiave "question".

Il risultato è un elenco di domande PAA stampato sulla console:

PAA questions inside the console

Passo 4: Esportazione dei dati in un file CSV

Per il file CSV, potremmo anche voler abbinare la parola chiave alla domanda PAA, quindi prendiamola:

parola chiave = serp['search_information']['query_displayed']

Dopo aver fatto questo, creiamo un elenco vuoto che useremo per formattare i dati come vogliamo:

paa_questions = []

E vi aggiungiamo le informazioni estratte:

for paa in all_questions: paa_questions.append({ 'Parola chiave': parola chiave, 'Domanda correlata': paa['domanda'] })

Se stampiamo paa_questions, ecco come appare nella console:

print PAA questions

Questo è importante perché è la base del file CSV e ci aiuterà a identificare la provenienza delle domande quando espanderemo lo scraper a migliaia di parole chiave.

Per l'ultimo passo, creiamo il file CSV usando Pandas per facilitare l'esportazione:

db = pd.DataFrame(paa_questions) db.to_csv('paa_questions.csv', index=False)

Se si esegue il codice ora, non verrà stampato nulla nella console. Al contrario, verrà creato un nuovo file CSV come questo:

Run code

Passo 5: raccogliere le domande PAA in scala

Naturalmente, è possibile ottenere le domande per una sola parola chiave a mano, ma come si fa a scalare questo progetto?

Ecco il bello del web scraping. È tutta una questione di loop!

Per prima cosa, creare un elenco con le parole chiave desiderate:

keywords = { 'keyword+research', 'keyword+tracker' }

Quindi, inseriremo tutto il codice precedente all'interno di un nuovo ciclo, che prenderà ogni termine dell'elenco di parole chiave ed eseguirà l'intero processo.

Ecco il frammento di codice finale e completo:

import requests import pandas as pd paa_questions = [] keywords = { 'keyword+research', 'keyword+tracker' } for query in keywords: payload = { 'api_key': 'YOUR_API_KEY', 'country': 'us', 'query': query, } response = requests.get('https://api.scraperapi.com/structured/google/search', params=payload) serp = response.json() keyword = serp['search_information']['query_displayed'] all_questions = serp['related_questions'] for paa in all_questions: paa_questions.append({ 'Keyword': keyword, 'Related Question': paa['question'] }) db = pd.DataFrame(paa_questions) db.to_csv('paa_questions.csv', index=False)

A scopo di test, ne abbiamo aggiunte solo due, ma è possibile creare un elenco di migliaia o addirittura milioni di parole chiave mirate.

Il risultato è un file CSV di facile lettura:

easy to read CSV file

Congratulazioni, avete appena raccolto le vostre prime 9 domande PAA! 🎉

Conclusione

In questo articolo avete imparato come:

  • Avviare un nuovo scraper in Python

  • Inviare richieste HTTP tramite ScraperAPI

  • Scegliere punti di dati specifici

  • Formattare i dati estratti

  • Esportare i dati in un file CSV

È possibile personalizzare il codice sopra riportato aggiungendo la propria chiave API e l'elenco delle parole chiave all'interno della variabile keywords. Potete anche utilizzare la stessa logica per raccogliere i top ranking per ogni parola chiave target, aumentando i vostri sforzi di ricerca automatizzando questi processi.

Se non volete occuparvi della codifica, potete anche utilizzare DataPipeline di ScraperAPI, uno strumento senza codice progettato per automatizzare interi progetti di scraping senza scrivere una sola riga di codice. Basta aggiungere l'elenco delle parole chiave e lasciare che lo strumento faccia il resto.

Raccogliere e utilizzare le domande della PAA per migliorare i contenuti del sito è un'arma segreta che la maggior parte dei professionisti SEO ignora. I dati sono i vostri migliori amici se sapete come usarli, quindi siate creativi e spingetevi oltre i limiti per dominare la vostra nicchia!

Avete bisogno di un modo per monitorare i vostri sforzi SEO? Iniziate la prova gratuita di Accuranker e ottenete un quadro completo della vostra campagna SEO in un paio di clic.

Leonardo

Articolo di:

Leonardo

Capo redattore tecnico presso ScraperAPI

Leo è un technical content writer di base in Italia con esperienza in Python e Node.js. Attualmente lavora per ScraperAPI come scrittore tecnico e content manager.

Articoli consigliati

L'evoluzione delle caratteristiche delle SERP: Cambiamenti chiave e come adattarsi

L'evoluzione delle caratteristiche delle SERP: Cambiamenti chiave e come adattarsi

Panoramica sull'intelligenza artificiale: ecco come influirà sulla vostra SEO

Panoramica sull'intelligenza artificiale: ecco come influirà sulla vostra SEO

Il parametro del Google Merchant Centre (srsltid) sta creando scompiglio nelle SERP?

Il parametro del Google Merchant Centre (srsltid) sta creando scompiglio nelle SERP?