Slik samler du inn mer enn 100 spørsmål relatert til søkeordene du har valgt
Sist oppdatert den lørdag 11. november 2023
Så hvordan kan nettstedet ditt skaffe seg en plass blant de enorme søkeresultatene på nettet? Svarene ligger kanskje i spørsmålene!
I dagens artikkel skal vi bygge en "People Also Ask"-skraper for å samle inn hundrevis (eller til og med tusenvis) av relaterte spørsmål rundt målsøkeordene dine, slik at du kan bygge en mer omfattende emneklynge, optimalisere innholdet ditt og forbedre søkeintensjonen.
Hva er "People Also Ask"?
Googles "People Also Ask"-funksjon er en del av søkeresultatene som viser relaterte spørsmål og svar fra andre kilder. Det hjelper brukerne med å finne mer informasjon om det de spør om, eller utforske ulike aspekter av emnet.
Funksjonen er dynamisk og kan utvides eller endres avhengig av brukerens interaksjon.
Slik bruker du PAA-spørsmål til å øke SEO
Selv om "People Also Ask" (PAA) hovedsakelig er en sluttbrukerfunksjon, kan den være en god alliert i arbeidet med å skape og optimalisere innholdet på nettstedet ditt.
Tanken bak PAA er å hjelpe brukere med å finne mer informasjon om det de søker etter, eller å hjelpe brukere som er usikre på hvordan de skal søke etter informasjon, slik at Google kan "forutsi" hensikten bak søket.
Skjønner du ideen nå?
PAA-spørsmål er en flott måte å identifisere potensielle spørsmål som innholdet ditt bør svare på - noe som øker emneautoriteten - eller nye emner for å skape innhold rundt hovednøkkelordet ditt.
La oss for eksempel si at du ønsker å skrive en artikkel om søkeordsanalyse. Hva bør du skrive om?
De fleste vil søke etter målbegrepet i Google, ta en titt på hva som allerede er rangert, og kalle det en dag.
Men hvis vi sjekker PAA-boksen, finner vi noen interessante ideer:
Hva er søkeordforskning?
Hvordan finner jeg gode søkeord?
Er Google Keyword Tool gratis?
Er SEO det samme som søkeordforskning?
Hvordan gjøre søkeordforskning 2023?
Fra disse spørsmålene alene kan vi bestemme noen få ting:
Spørsmålet "Er SEO det samme som søkeordforskning?" forteller oss at dette er et veldig nybegynneremne, så folk som søker på dette begrepet er nybegynnere, og vi bør sette tonen for dem.
Det er et emne i utvikling som må oppdateres ofte ettersom vi har et spørsmål om inneværende år.
Vi bør legge til en seksjon med overskriftene "Hva er søkeordsforskning?" og "Hvordan finner jeg gode søkeord" - jeg ville ikke brukt den andre nøyaktig slik, men du skjønner poenget.
Vi bør nevne hvordan du bruker "Google Keyword Planner" som en del av veiledningen, ettersom Google knytter det til spørringen.
Vi kan få mye verdifull informasjon om søkeordene våre, lage en liste over relaterte søkeord, optimalisere innholdet vårt for å svare på vanlige spørsmål rundt målsøkeordet, og finne nye emneideer for å bygge komplette emneklynger.
Samle inn "Folk spør også"-spørsmål med Python
Det er imidlertid en utfordring. Det er en tidkrevende og ressurskrevende oppgave å samle inn alle disse spørsmålene til eksisterende innhold eller som støtte for planleggingen av innholdet vårt.
SEO-er og innholdsansvarlige har allerede mye arbeid med å legge til ekstra undersøkelser, så hvordan løser vi det?
Enkelt, vi automatiserer prosessen!
Vi bygger en webskraper som:
Tar en liste med søkeord
Navigerer til søkeordets SERP
Trekker ut alle PAA-spørsmål
Eksporterer informasjonen til en CSV
I denne opplæringen bruker vi Python med et enkelt verktøy for å ta seg av all kompleksiteten, og du vil kunne bruke den resulterende koden ved bare å endre nøkkelordene.
Er du klar? La oss komme i gang.
Trinn 1: Sette opp prosjektet ditt
Det første du må gjøre er å opprette en ny mappe for prosjektet ditt (gi den navnet paa-scraper) og opprette en ny paa_scraper.py-fil inni den.
Hvis du bruker Mac, har maskinen din allerede en versjon av Python installert. Hvis du bruker Windows, kan du følge denne veiled ningen for å få det på maskinen din.
Deretter åpner du mappen i VScode og en ny terminal.
Derfra skriver du inn følgende kommando.
pip install forespørsler pandas
Kommandoen ovenfor vil installere to nyttige verktøy (avhengigheter):
Requests lar oss be om informasjonen vi ønsker å hente ut
Pandas hjelper oss med å eksportere informasjonen som en CSV-fil
For å fullføre dette trinnet, importerer du begge avhengighetene øverst i filen.
import requests import pandas as pd
Trinn 2: Sende forespørselen vår gjennom ScraperAPI
For å få tak i dataene vi er ute etter, må vi tradisjonelt bygge en skraper som navigerer til Google, søker etter informasjonen ved hjelp av CSS-selektorer, plukker ut informasjonen, formaterer den ... du skjønner hva jeg mener? Det er vanligvis mye logikk.
I stedet kan vi bruke et webskrapeverktøy for å redusere kostnader, implementeringstid og vedlikehold.
Ved å sende forespørselen vår gjennom ScraperAPIs strukturerte dataendepunkter, kan vi hente PAA-spørsmålene til enhver forespørsel uten å bekymre oss for å analysere HTML, bli blokkert eller andre problemer vi måtte støte på.
For å komme i gang oppretter du en gratis ScraperAPI-konto og går til dashbordet for å kopiere API-nøkkelen din.
Deretter oppretter vi en nyttelast som dette:
nyttelast = { 'api_key': 'YOUR_API_KEY', 'country': 'us', 'query': 'keyword+research', }
Landsparameteren forteller ScraperAPI hvor forespørslene dine skal sendes fra - husk at Google viser forskjellige resultater basert på hvor du befinner deg - mens spørringsparameteren inneholder søkeordet ditt.
Når disse parameterne er klare, kan vi sende forespørselen vår ved hjelp av get()-metoden:
response = requests.get('https://api.scraperapi.com/structured/google/search', params=payload)
Trinn 3: Skrive ut PAA-spørsmål
Hvis vi skriver ut(response.text), får vi denne informasjonen:
Som du kan se, returnerer verktøyet hele SERP som JSON-data, og de viktigste spørsmålene knyttet til spørringen er inne i "related_questions"-nøkkelen.
Fordi vi får strukturerte data i stedet for rå HTML-data, kan vi velge spesifikke elementer ved hjelp av nøkkelnavnet:
serp = response.json() all_questions = serp['related_questions'] for paa in all_questions: print(paa['question'])
Vi lagrer hele JSON-svaret i en serp-variabel
Vi henter "related_questions" og oppretter en liste med elementer - der hvert element er et PAA-spørsmål
For å hente ut spørsmålene går vi gjennom listen og skriver bare ut "question"-nøkkelen
Resultatet av dette er en liste over PAA-spørsmål som skrives ut på konsollen:
Trinn 4: Eksportere dataene til en CSV-fil
For CSV-filen vil vi kanskje også matche søkeordet med PAA-spørsmålet, så la oss hente det:
nøkkelord = serp['search_information']['query_displayed']
Når dette er gjort, oppretter vi en tom liste som vi bruker til å formatere dataene slik vi ønsker:
paa_questions = []
Og legger til den ekstraherte informasjonen:
for paa in all_questions: paa_questions.append({ 'Keyword': keyword, 'Related Question': paa['question'] })
Hvis vi skriver ut paa_questions, ser det slik ut i konsollen:
Dette er viktig fordi det er basen i CSV-filen og vil hjelpe oss med å identifisere hvor spørsmålet kommer fra når vi utvider skraperen til tusenvis av søkeord.
For det siste trinnet, la oss lage CSV-filen ved hjelp av Pandas for enkel eksport:
db = pd.DataFrame(paa_questions) db.to_csv('paa_questions.csv', index=False)
Hvis du kjører koden din nå, vil den ikke skrive ut noe på konsollen. I stedet vil den opprette en ny CSV-fil som denne:
Trinn 5: Samle inn PAA-spørsmål i stor skala
Det er selvfølgelig mulig å hente inn spørsmålene for bare ett nøkkelord for hånd, så hvordan skalerer vi dette prosjektet?
Her er det fine med nettskraping. Alt handler om sløyfen!
Først oppretter du en liste med de ønskede søkeordene:
nøkkelord = { 'nøkkelord+søk', 'nøkkelord+sporing' }
Deretter legger vi all den tidligere koden vår inn i en ny løkke, som tar hvert begrep i søkeordlisten og kjører hele prosessen.
Her er den endelige og fullstendige kodebiten:
import requests import pandas as pd paa_questions = [] keywords = { 'keyword+research', 'keyword+tracker' } for query in keywords: payload = { 'api_key': 'YOUR_API_KEY', 'country': 'us', 'query': query, } response = requests.get('https://api.scraperapi.com/structured/google/search', params=payload) serp = response.json() keyword = serp['search_information']['query_displayed'] all_questions = serp['related_questions'] for paa in all_questions: paa_questions.append({ 'Keyword': keyword, 'Related Question': paa['question'] }) db = pd.DataFrame(paa_questions) db.to_csv('paa_questions.csv', index=False)
For testformål la vi bare til to, men du kan opprette en liste med tusenvis eller til og med millioner av målrettede søkeord.
Resultatet er en lettlest CSV-fil:
Gratulerer, du har nettopp samlet inn dine første 9 PAA-spørsmål! 🎉
Innpakning
I denne artikkelen har du lært hvordan du gjør det:
Starte en ny Python-skraper
Sende HTTP-forespørsler gjennom ScraperAPI
Velge spesifikke datapunkter
Formaterer de ekstraherte dataene
Eksportere dataene til en CSV-fil
Du kan gjøre koden ovenfor til din egen ved å legge til API-nøkkelen din og listen over søkeord i søkeordvariabelen. Du kan også bruke den samme logikken til å samle topprangeringer for hvert målnøkkelord, og skalere forskningsinnsatsen din ved å automatisere disse prosessene.
Hvis du ikke ønsker å håndtere koding, kan du også bruke ScraperAPIs DataPipeline, et verktøy uten kode som er designet for å automatisere hele skrapingsprosjekter uten å skrive en eneste linje med kode. Bare legg til listen med nøkkelord, og la verktøyet gjøre resten.
Å samle inn og bruke PAA-spørsmål til å forbedre innholdet på nettstedet ditt er et hemmelig våpen som de fleste SEO-profesjonelle ignorerer. Data er din beste venn hvis du vet hvordan du skal bruke dem, så vær kreativ og utfordre grensene for å dominere din nisje!
Trenger du en måte å spore SEO-innsatsen din på? Start en gratis prøveversjon av Accuranker og få et fullstendig bilde av SEO-kampanjen din med et par klikk.
Artikkel av:
Leonardo
Ledende teknisk skribent hos ScraperAPI
Leo er en teknisk innholdsforfatter med base i Italia og erfaring med Python og Node.js. Han jobber for tiden i ScraperAPI som teknisk skribent og innholdsansvarlig.