타겟 키워드와 관련된 100개 이상의 관련 질문을 수집하는 방법

마지막 업데이트 2023년 11월 11일 토요일

How to Collect 100+ Related Questions to Your Target Keywords
검색 엔진 가시성이 점점 더 중요해지면서, 특히 소셜 미디어 참여와 추적이 감소함에 따라 SEO는 점점 더 경쟁이 치열한 채널이 되었습니다.

그렇다면 웹이 제공하는 방대한 검색 결과에서 내 웹사이트가 자리를 잡으려면 어떻게 해야 할까요? 질문에 답이 있을지도 모릅니다!

오늘의 글에서는 타겟 키워드와 관련된 수백 개(또는 수천 개)의 관련 질문을 수집하여 보다 포괄적인 주제 클러스터를 구축하고, 콘텐츠를 최적화하고, 검색 의도를 개선할 수 있는 "사람들이 묻는 질문" 스크레이퍼를 구축하는 방법에 대해 설명합니다.

"사람들이 많이 묻는 질문"이란 무엇인가요?

Google의 '사람들이 묻습니다' 기능은 다른 출처의 관련 질문과 답변을 표시하는 검색 결과 섹션입니다. 사용자가 검색어에 대한 자세한 정보를 찾거나 주제의 다양한 측면을 탐색하는 데 도움이 됩니다.

People also ask - Google

이 기능은 동적이며 사용자의 상호작용에 따라 확장되거나 변경될 수 있습니다.

PPA - Dynamic questions

PAA 질문을 사용하여 SEO를 높이는 방법

"사용자도 질문하기"(PAA)는 주로 최종 사용자를 위한 기능이지만 사이트의 콘텐츠를 만들고 최적화하는 데 큰 도움이 될 수 있습니다.

PAA의 기본 개념은 사용자가 검색어에 대한 추가 정보를 찾거나 정보를 검색하는 방법을 모르는 사용자를 돕기 위한 것이므로 Google은 검색의 의도를 '예측'해야 합니다.

이제 이해가 되시나요?

PAA 질문은 콘텐츠가 답변해야 할 잠재적인 질문을 파악하여 주제 권위를 높이거나 주요 키워드를 중심으로 콘텐츠를 만들 수 있는 새로운 주제를 파악할 수 있는 좋은 방법입니다.

예를 들어 키워드 조사에 관한 글을 쓰고 싶다고 가정해 봅시다. 무엇을 다뤄야 할까요?

대부분의 사람들은 Google에서 대상 용어를 검색하고 이미 순위에 오른 내용을 살펴본 다음 하루를 마무리할 것입니다.

하지만 PAA 상자를 체크하면 흥미로운 아이디어를 찾을 수 있습니다:

  • 키워드 리서치란 무엇인가요?

  • 좋은 리서치 키워드는 어떻게 찾나요?

  • Google 키워드 도구는 무료인가요?

  • SEO는 키워드 리서치와 같은 의미인가요?

  • 2023년 키워드 리서치는 어떻게 하나요?

이 질문들만으로도 몇 가지를 파악할 수 있습니다:

  1. "SEO는 키워드 리서치와 같은 것인가요?"라는 질문은 이 주제가 매우 초보적인 주제이므로 이 용어를 검색하는 사람들은 초보자이며, 이들을 위한 분위기를 조성해야 한다는 것을 알려줍니다.

  2. 이 주제는 현재에 대한 질문이 있는 만큼 자주 업데이트해야 하는 진화하는 주제입니다.

  3. "키워드 리서치란 무엇인가요?" 및 "좋은 검색 키워드를 찾는 방법"이라는 제목의 섹션을 추가해야 합니다. 두 번째 제목을 그대로 사용하진 않겠지만 요점은 알 수 있습니다.

  4. 튜토리얼의 일부로 'Google 키워드 플래너'를 사용하는 방법을 언급해야 하는데, Google은 이를 검색어와 연결하기 때문입니다.

키워드에 대한 많은 유용한 정보를 얻고, 관련 키워드 목록을 작성하고, 대상 키워드와 관련된 일반적인 질문에 답하도록 콘텐츠를 최적화하고, 완전한 주제 클러스터를 구축할 수 있는 새로운 주제 아이디어를 찾을 수 있습니다.

Python으로 "사람들이 많이 묻는" 질문 수집하기

하지만 문제가 있습니다. 기존 콘텐츠에 대한 질문이나 콘텐츠 기획을 위한 지원 자료로 사용하기 위해 이러한 모든 질문을 수집하는 것은 시간과 리소스를 많이 소모하는 작업입니다.

SEO와 콘텐츠 관리자는 이미 추가 조사를 위해 많은 업무를 하고 있는데, 이 문제를 어떻게 해결할 수 있을까요?

간단하게 프로세스를 자동화하면 됩니다!

웹 스크레이퍼를 만들겠습니다:

  • 키워드 목록을 가져옵니다.

  • 키워드의 SERP로 이동합니다.

  • 모든 PAA 질문 추출

  • 정보를 CSV로 내보내기

이 튜토리얼에서는 간단한 도구와 함께 Python을 사용하여 모든 복잡한 작업을 처리하고, 키워드만 변경하면 결과 코드를 사용할 수 있습니다.

준비되셨나요? 그럼 시작해 보겠습니다.

1단계: 프로젝트 설정

가장 먼저 할 일은 프로젝트의 새 폴더를 만들고(이름을 paa-scraper로 지정) 그 안에 새 paa_scraper.py 파일을 만드는 것입니다.

Mac을 사용하는 경우 컴퓨터에 이미 파이썬 버전이 설치되어 있을 것입니다. Windows를 사용하는 경우 이 튜토리얼을 따라 컴퓨터에 설치하세요.

그런 다음 VScode에서 폴더를 열고 새 터미널을 엽니다.

Open new terminal in VScode

거기에서 다음 명령을 입력합니다.

pip 설치 요청 팬더

위의 명령은 두 가지 유용한 도구(종속성)를 설치합니다:

  • 요청을 사용하면 추출하려는 정보를 요청할 수 있습니다.

  • Pandas는 정보를 CSV 파일로 내보내는 데 도움을 줍니다.

이 단계를 완료하려면 파일 상단에서 두 종속 요소를 모두 가져옵니다.

요청 가져오기 팬더를 PD로 가져오기

2단계: 스크래퍼API를 통해 요청 보내기

기존에는 원하는 데이터를 얻으려면 Google로 이동하는 스크레이퍼를 만들고, CSS 선택기를 사용하여 정보를 검색하고, 정보를 선택하고, 서식을 지정하고... 무슨 말인지 아시겠죠? 일반적으로 많은 로직이 필요합니다.

Open new terminal in VScode

대신 웹 스크래핑 도구를 사용하면 비용, 구현 시간, 유지보수를 줄일 수 있습니다.

스크래퍼API의 구조화된 데이터 엔드포인트를 통해 요청을 전송하면 HTML 파싱, 차단 또는 기타 문제에 대한 걱정 없이 모든 쿼리의 PAA 질문을 검색할 수 있습니다.

시작하려면 무료 스크래퍼API 계정을 만들고 대시보드로 이동하여 API 키를 복사하세요.

그런 다음 다음과 같이 페이로드를 생성합니다:

페이로드 = { 'API_KEY': 'YOUR_API_KEY', 'country': 'us', 'query': 'keyword+research', }

국가 매개변수는 요청을 어디에서 보낼지 ScraperAPI에 알려주며(Google은 사용자의 위치에 따라 다른 결과를 표시한다는 점을 기억하세요), 쿼리 매개변수는 사용자의 키워드를 보관합니다.

이러한 매개변수가 준비되면 get() 메서드를 사용하여 요청을 전송할 수 있습니다:

response = requests.get('https://api.scraperapi.com/structured/google/search', params=payload)

3단계: PAA 질문 인쇄하기

print(response.text)를 실행하면 다음과 같은 정보를 얻을 수 있습니다:

Printing PAA questions

보시다시피 이 도구는 전체 SERP를 JSON 데이터로 반환하며, 쿼리와 관련된 주요 질문은 "related_questions" 키 안에 있습니다.

원시 HTML 데이터 대신 구조화된 데이터를 가져오기 때문에 키 이름을 사용하여 특정 요소를 선택할 수 있습니다:

serp = response.json() all_questions = serp['related_questions'] for paa in all_questions: print(paa['question'])
  1. 전체 JSON 응답을 serp 변수에 저장합니다.

  2. "related_questions"를 가져와서 각 항목이 PAA 질문인 항목 목록을 만듭니다.

  3. 질문을 가져 오기 위해 목록을 반복하고 "question" 키만 인쇄합니다.

그 결과 콘솔에 PAA 질문 목록이 인쇄됩니다:

PAA questions inside the console

4단계: 데이터를 CSV 파일로 내보내기

CSV 파일의 경우 키워드를 PAA 질문과 일치시키고 싶을 수도 있으므로 키워드를 가져와 보겠습니다:

keyword = serp['search_information']['query_displayed']

이 작업이 완료되면 원하는 대로 데이터 서식을 지정하는 데 사용할 빈 목록을 만듭니다:

paa_questions = []

그리고 여기에 추출된 정보를 추가합니다:

for paa in all_questions: paa_questions.append({ '키워드': keyword, '관련 질문': paa['question'] })

paa_questions를 출력하면 콘솔에서 다음과 같이 표시됩니다:

print PAA questions

이것은 CSV 파일의 기초가 되며 스크레이퍼를 수천 개의 키워드로 확장할 때 질문의 출처를 파악하는 데 도움이 되기 때문에 중요합니다.

마지막 단계로, 쉽게 내보낼 수 있도록 Pandas를 사용해 CSV 파일을 만들어 보겠습니다:

db = pd.DataFrame(paa_questions) db.to_csv('paa_questions.csv', index=False)

지금 코드를 실행하면 콘솔에 아무 것도 출력되지 않습니다. 대신 다음과 같은 새 CSV 파일이 생성됩니다:

Run code

5단계: 대규모로 PAA 질문 수집하기

물론 하나의 키워드에 대한 질문만 수집하는 것은 수작업으로 할 수 있는데 이 프로젝트를 어떻게 확장할 수 있을까요?

웹 스크래핑의 장점은 바로 여기에 있습니다. 바로 루프에 관한 것입니다!

먼저 원하는 키워드로 목록을 만듭니다:

keywords = { '키워드+검색', '키워드+트래커' }

그런 다음, 키워드 목록 내의 각 용어를 가져와 전체 프로세스를 실행하는 새 루프 안에 이전 코드를 모두 넣습니다.

다음은 마지막 전체 코드 스니펫입니다:

요청 가져오기 판다를 PD로 가져오기 paa_questions = [] 키워드 = { '키워드+검색', '키워드+트래커' } 키워드의 쿼리: 페이로드 = { 'api_key': 'YOUR_API_KEY', 'country': 'us', 'query': query, } response = requests.get('https://api.scraperapi.com/structured/google/search', params=payload) serp = response.json() keyword = serp['검색_정보']['쿼리_디스플레이'] all_questions = serp['관련_질문'] for paa in all_questions: paa_questions.append({ '키워드': keyword, '관련 질문': paa['질문'] }) db = pd.DataFrame(paa_questions) db.to_csv('paa_questions.csv', index=False)

테스트 목적으로 두 개만 추가했지만 수천 개 또는 수백만 개의 타겟팅 키워드 목록을 만들 수 있습니다.

결과는 읽기 쉬운 CSV 파일입니다:

easy to read CSV file

축하합니다, 방금 첫 번째 PAA 질문 9개를 수집하셨습니다! 🎉

마무리

이 글에서는 방법을 배웠습니다:

  • 새 파이썬 스크래퍼 시작하기

  • 스크래퍼API를 통해 HTTP 요청 보내기

  • 특정 데이터 포인트 선택하기

  • 추출된 데이터 포맷 지정하기

  • 데이터를 CSV 파일로 내보내기

키워드 변수 안에 API 키와 키워드 목록을 추가하여 위의 코드를 직접 만들 수 있습니다. 또한 동일한 로직을 사용하여 모든 타겟 키워드에 대한 상위 순위를 수집하여 이러한 프로세스를 자동화함으로써 리서치 작업을 확장할 수 있습니다.

코딩을 처리하고 싶지 않다면, 코드 한 줄 작성 없이 전체 스크래핑 프로젝트를 자동화하도록 설계된 노코드 도구인 ScraperAPI의 데이터파이프라인을 사용할 수도 있습니다. 키워드 목록을 추가하기만 하면 나머지는 도구가 알아서 처리합니다.

사이트 콘텐츠를 개선하기 위해 PAA 질문을 수집하고 사용하는 것은 대부분의 SEO 전문가들이 간과하는 비밀 무기입니다. 데이터는 사용 방법만 알면 가장 좋은 친구이므로 창의력을 발휘하여 한계를 뛰어넘어 틈새 시장을 지배하세요!

SEO 노력을 추적할 방법이 필요하신가요? Accuranker 무료 체험판을 시작하고 클릭 몇 번으로 SEO 캠페인의 전체 상황을 파악하세요.

Leonardo

작성자:

Leonardo

스크레이퍼API의 수석 테크니컬 라이터

Leo는 이탈리아에 거주하는 기술 콘텐츠 작가로 파이썬과 Node.js에 대한 경험이 있습니다. 그는 현재 ScraperAPI에서 수석 기술 작가 겸 콘텐츠 관리자로 일하고 있습니다.

추천 문서

SERP 기능의 진화: 주요 변경 사항 및 적응 방법

SERP 기능의 진화: 주요 변경 사항 및 적응 방법

AI 개요 - SEO에 미치는 영향은 다음과 같습니다.

AI 개요 - SEO에 미치는 영향은 다음과 같습니다.

Google 판매자 센터 매개 변수(srsltid)가 SERP에 혼란을 일으키고 있나요?

Google 판매자 센터 매개 변수(srsltid)가 SERP에 혼란을 일으키고 있나요?