Cómo recopilar más de 100 preguntas relacionadas con sus palabras clave objetivo
Última actualización sábado, 11 de noviembre de 2023
Entonces, ¿cómo puede su sitio web hacerse un hueco entre los vastos resultados que ofrece la web? La respuesta está en las preguntas.
En el artículo de hoy, vamos a crear un scraper "La gente también pregunta" para recopilar cientos (o incluso miles) de preguntas relacionadas en torno a las palabras clave objetivo, lo que le permitirá crear un grupo de temas más completo, optimizar su contenido y mejorar la intención de búsqueda.
¿Qué es "La gente también pregunta"?
La función "La gente también pregunta" de Google es una sección de los resultados de búsqueda que muestra preguntas y respuestas relacionadas de otras fuentes. Ayuda a los usuarios a encontrar más información sobre su consulta o a explorar diferentes aspectos del tema.
La función es dinámica y puede ampliarse o modificarse en función de la interacción del usuario.
Cómo utilizar las preguntas PAA para impulsar su SEO
Aunque "La gente también pregunta" (PAA) es principalmente una característica de usuario final, puede ser un gran aliado en la creación y optimización del contenido de su sitio.
La idea detrás de PAA es ayudar a los usuarios a encontrar información adicional sobre su consulta o ayudar a los usuarios perdidos que no están seguros de cómo buscar una pieza de información, por lo que Google necesita "predecir" la intención detrás de la búsqueda.
¿Captas la idea?
Las preguntas PAA son una excelente forma de identificar posibles preguntas a las que debería responder su contenido -aumentando la autoridad temática- o nuevos temas para crear contenido en torno a su palabra clave principal.
Por ejemplo, digamos que quieres escribir un artículo sobre la investigación de palabras clave. ¿Qué debería cubrir?
La mayoría de la gente buscará el término objetivo en Google, echará un vistazo a lo que ya está posicionado y lo dará por terminado.
Sin embargo, si marcamos la casilla PAA, encontraremos algunas ideas interesantes:
¿Qué es la búsqueda de palabras clave?
¿Cómo puedo encontrar buenas palabras clave de investigación?
¿Es gratuita la herramienta de palabras clave de Google?
¿Es SEO lo mismo que keyword research?
¿Cómo hacer keyword research 2023?
Sólo a partir de estas preguntas, podemos determinar algunas cosas:
La pregunta "¿Es el SEO lo mismo que la investigación de palabras clave?" nos dice que este es un tema muy básico, por lo que las personas que buscan este término son principiantes, y debemos establecer el tono para ellos.
Es un tema en evolución que debe actualizarse con frecuencia, ya que tenemos una pregunta sobre el año en curso.
Deberíamos añadir una sección con los títulos "¿Qué es la investigación de palabras clave?" y "¿Cómo puedo encontrar buenas palabras clave de búsqueda?" - Yo no usaría el segundo exactamente así, pero se entiende.
Deberíamos mencionar cómo utilizar "Google Keyword Planner" como parte del tutorial, ya que Google lo vincula a la consulta.
Podemos obtener mucha información valiosa sobre nuestras palabras clave, construir una lista de palabras clave relacionadas, optimizar nuestro contenido para responder a preguntas comunes en torno a la palabra clave objetivo y encontrar nuevas ideas de temas para construir grupos temáticos completos.
Recopilación de preguntas "La gente también pregunta" con Python
Sin embargo, hay un reto. Recopilar todas estas preguntas para nuestro contenido existente o para utilizarlas como apoyo en la planificación de nuestro contenido es una tarea que consume mucho tiempo y recursos.
Los SEO y los gestores de contenidos ya tienen mucho trabajo para añadir investigaciones adicionales, así que ¿cómo lo solucionamos?
Sencillo, ¡automatizamos el proceso!
Construiremos un raspador web que:
Tome una lista de palabras clave
Navegue hasta la SERP de la palabra clave
Extraiga todas las preguntas PAA
Exporte la información a un CSV
Para este tutorial, utilizaremos Python con una herramienta sencilla que se encargará de toda la complejidad, y podrás utilizar el código resultante con sólo cambiar las palabras clave.
¿Preparado? Comencemos.
Paso 1: Configurar tu proyecto
Lo primero que hay que hacer es crear una nueva carpeta para tu proyecto (llámala paa-scraper) y crear un nuevo archivo paa_scraper.py dentro.
Si estás en Mac, tu máquina ya tiene una versión de Python instalada. Si estás en Windows, sigue este tutorial para instalarlo en tu máquina.
A continuación, abra la carpeta en VScode y un nuevo terminal.
Desde allí, introduce el siguiente comando
pip install peticiones pandas
El comando anterior instalará dos herramientas útiles (dependencias):
Requests nos permitirá pedir la información que queremos extraer
Pandas nos ayudará a exportar la información como un archivo CSV
Para finalizar este paso, importa ambas dependencias en la parte superior del fichero.
import requests import pandas as pd
Paso 2: Enviar nuestra petición a través de ScraperAPI
Tradicionalmente, para obtener los datos que buscamos, tendríamos que construir un scraper que navegara a Google, buscara la información usando selectores CSS, recogiera la información, le diera formato... ¿me entiendes? Suele ser mucha lógica.
En su lugar, podemos utilizar una herramienta de web scraping para reducir costes, tiempo de implementación y mantenimiento.
Al enviar nuestra solicitud a través de los puntos finales de datos estructurados de ScraperAPI, podremos recuperar las preguntas PAA de cualquier consulta sin preocuparnos de analizar el HTML, bloquearnos o cualquier otro problema al que podamos enfrentarnos.
Para empezar, crea una cuenta gratuita de ScraperAPI y ve a tu panel de control para copiar tu clave de API.
A continuación, crearemos un payload como este:
payload = { 'api_key': 'YOUR_API_KEY', 'country': 'us', 'query': 'keyword+research', }
El parámetro del país le dirá a ScraperAPI desde dónde enviar tus peticiones - recuerda que Google muestra diferentes resultados en función de tu ubicación - mientras que el parámetro de consulta contiene tu palabra clave.
Con estos parámetros listos, podemos enviar nuestra petición usando el método get():
response = requests.get('https://api.scraperapi.com/structured/google/search', params=carga)
Paso 3: Impresión de las preguntas PAA
Si imprimimos(response.text), ésta es la información que obtenemos:
Como puede ver, la herramienta devuelve toda la SERP como datos JSON, y las principales preguntas relacionadas con la consulta están dentro de la clave "related_questions".
Como estamos obteniendo datos estructurados en lugar de datos HTML sin procesar, podemos seleccionar elementos específicos utilizando su nombre clave:
serp = response.json() all_questions = serp['preguntas_relacionadas'] for paa in all_questions: print(paa['pregunta'])
Almacenamos toda la respuesta JSON en una variable serp
Obtenemos las "preguntas_relacionadas" y creamos una lista de elementos, donde cada elemento es una pregunta PAA.
Para obtener las preguntas, recorremos la lista e imprimimos sólo la clave "question".
El resultado es una lista de preguntas PAA impresa en la consola:
Paso 4: Exportar los datos a un archivo CSV
Para el archivo CSV, es posible que también queramos hacer coincidir la palabra clave con la pregunta PAA, así que vamos a cogerla:
keyword = serp['search_information']['query_displayed']
Una vez hecho esto, crearemos una lista vacía que usaremos para formatear los datos como queramos:
paa_questions = []
Y le añadiremos la información extraída:
for paa in all_questions: paa_questions.append({ 'Palabra clave': palabra clave, 'Pregunta relacionada': paa['pregunta'] })
Si imprimimos paa_preguntas, así es como se ve en la consola:
Esto es importante porque es la base del archivo CSV y nos ayudará a identificar de dónde viene la pregunta cuando ampliemos el scraper a miles de palabras clave.
Para el último paso, vamos a crear el archivo CSV usando Pandas para facilitar la exportación:
db = pd.DataFrame(paa_questions) db.to_csv('paa_questions.csv', index=False)
Si ejecutas tu código ahora, no imprimirá nada en la consola. En su lugar, creará un nuevo archivo CSV como éste:
Paso 5: Recopilación de preguntas PAA a escala
Por supuesto, obtener las preguntas para una sola palabra clave puede hacerse a mano, así que ¿cómo escalamos este proyecto?
Bueno, aquí está la belleza del web scraping. Se trata del bucle.
En primer lugar, cree una lista con las palabras clave deseadas:
keywords = { 'keyword+research', 'keyword+tracker' }
Luego, pondremos todo nuestro código anterior dentro de un nuevo bucle, que tomará cada término dentro de la lista de palabras clave y ejecutará todo el proceso.
Aquí está el fragmento de código final y completo:
import requests import pandas as pd paa_questions = [] keywords = { 'keyword+research', 'keyword+tracker' } for query in keywords: payload = { 'api_key': 'YOUR_API_KEY', 'country': 'us', 'query': query, } response = requests.get('https://api.scraperapi.com/structured/google/search', params=payload) serp = response.json() keyword = serp['search_information']['query_displayed'] all_questions = serp['related_questions'] for paa in all_questions: paa_questions.append({ 'Keyword': keyword, 'Related Question': paa['question'] }) db = pd.DataFrame(paa_questions) db.to_csv('paa_questions.csv', index=False)
Por motivos de prueba, sólo hemos añadido dos, pero puede crear una lista de miles o incluso millones de palabras clave.
El resultado es un archivo CSV fácil de leer:
Enhorabuena, ¡acabas de recopilar tus primeras 9 preguntas PAA! 🎉
Para terminar
En este artículo, has aprendido cómo:
Iniciar un nuevo scraper Python
Enviar peticiones HTTP a través de ScraperAPI
Recoger puntos de datos específicos
Formatear los datos extraídos
Exportar los datos a un archivo CSV
Puede hacer suyo el código anterior añadiendo su clave API y la lista de palabras clave dentro de la variable keywords. También puede utilizar la misma lógica para recopilar los mejores rankings para cada palabra clave objetivo, escalando sus esfuerzos de investigación mediante la automatización de estos procesos.
Si no quiere ocuparse de la codificación, también puede utilizar DataPipeline de ScraperAPI, una herramienta sin código diseñada para automatizar proyectos completos de scraping sin escribir una sola línea de código. Sólo tiene que añadir su lista de palabras clave y dejar que la herramienta haga el resto.
Recopilar y utilizar preguntas de PAA para mejorar el contenido de su sitio es un arma secreta que la mayoría de los profesionales de SEO ignoran. Los datos son tus mejores amigos si sabes cómo utilizarlos, así que sé creativo y supera los límites para dominar tu nicho.
¿Necesita una forma de realizar un seguimiento de sus esfuerzos de SEO? Comience su prueba gratuita de Accuranker y obtenga la imagen completa de su campaña SEO en un par de clics.
Artículo de:
Leonardo
Redactor técnico jefe en ScraperAPI
Leo es un escritor de contenido técnico con sede en Italia y experiencia en Python y Node.js. Actualmente trabaja en ScraperAPI como redactor técnico y gestor de contenidos.