타겟 키워드와 관련된 100개 이상의 관련 질문을 수집하는 방법
마지막 업데이트 2023년 11월 11일 토요일
그렇다면 웹이 제공하는 방대한 검색 결과에서 내 웹사이트가 자리를 잡으려면 어떻게 해야 할까요? 질문에 답이 있을지도 모릅니다!
오늘의 글에서는 타겟 키워드와 관련된 수백 개(또는 수천 개)의 관련 질문을 수집하여 보다 포괄적인 주제 클러스터를 구축하고, 콘텐츠를 최적화하고, 검색 의도를 개선할 수 있는 "사람들이 묻는 질문" 스크레이퍼를 구축하는 방법에 대해 설명합니다.
"사람들이 많이 묻는 질문"이란 무엇인가요?
Google의 '사람들이 묻습니다' 기능은 다른 출처의 관련 질문과 답변을 표시하는 검색 결과 섹션입니다. 사용자가 검색어에 대한 자세한 정보를 찾거나 주제의 다양한 측면을 탐색하는 데 도움이 됩니다.
이 기능은 동적이며 사용자의 상호작용에 따라 확장되거나 변경될 수 있습니다.
PAA 질문을 사용하여 SEO를 높이는 방법
"사용자도 질문하기"(PAA)는 주로 최종 사용자를 위한 기능이지만 사이트의 콘텐츠를 만들고 최적화하는 데 큰 도움이 될 수 있습니다.
PAA의 기본 개념은 사용자가 검색어에 대한 추가 정보를 찾거나 정보를 검색하는 방법을 모르는 사용자를 돕기 위한 것이므로 Google은 검색의 의도를 '예측'해야 합니다.
이제 이해가 되시나요?
PAA 질문은 콘텐츠가 답변해야 할 잠재적인 질문을 파악하여 주제 권위를 높이거나 주요 키워드를 중심으로 콘텐츠를 만들 수 있는 새로운 주제를 파악할 수 있는 좋은 방법입니다.
예를 들어 키워드 조사에 관한 글을 쓰고 싶다고 가정해 봅시다. 무엇을 다뤄야 할까요?
대부분의 사람들은 Google에서 대상 용어를 검색하고 이미 순위에 오른 내용을 살펴본 다음 하루를 마무리할 것입니다.
하지만 PAA 상자를 체크하면 흥미로운 아이디어를 찾을 수 있습니다:
키워드 리서치란 무엇인가요?
좋은 리서치 키워드는 어떻게 찾나요?
Google 키워드 도구는 무료인가요?
SEO는 키워드 리서치와 같은 의미인가요?
2023년 키워드 리서치는 어떻게 하나요?
이 질문들만으로도 몇 가지를 파악할 수 있습니다:
"SEO는 키워드 리서치와 같은 것인가요?"라는 질문은 이 주제가 매우 초보적인 주제이므로 이 용어를 검색하는 사람들은 초보자이며, 이들을 위한 분위기를 조성해야 한다는 것을 알려줍니다.
이 주제는 현재에 대한 질문이 있는 만큼 자주 업데이트해야 하는 진화하는 주제입니다.
"키워드 리서치란 무엇인가요?" 및 "좋은 검색 키워드를 찾는 방법"이라는 제목의 섹션을 추가해야 합니다. 두 번째 제목을 그대로 사용하진 않겠지만 요점은 알 수 있습니다.
튜토리얼의 일부로 'Google 키워드 플래너'를 사용하는 방법을 언급해야 하는데, Google은 이를 검색어와 연결하기 때문입니다.
키워드에 대한 많은 유용한 정보를 얻고, 관련 키워드 목록을 작성하고, 대상 키워드와 관련된 일반적인 질문에 답하도록 콘텐츠를 최적화하고, 완전한 주제 클러스터를 구축할 수 있는 새로운 주제 아이디어를 찾을 수 있습니다.
Python으로 "사람들이 많이 묻는" 질문 수집하기
하지만 문제가 있습니다. 기존 콘텐츠에 대한 질문이나 콘텐츠 기획을 위한 지원 자료로 사용하기 위해 이러한 모든 질문 을 수집하는 것은 시간과 리소스를 많이 소모하는 작업입니다.
SEO와 콘텐츠 관리자는 이미 추가 조사를 위해 많은 업무를 하고 있는데, 이 문제를 어떻게 해결할 수 있을까요?
간단하게 프로세스를 자동화하면 됩니다!
웹 스크레이퍼를 만들겠습니다:
키워드 목록을 가져옵니다.
키워드의 SERP로 이동합니다.
모든 PAA 질문 추출
정보를 CSV로 내보내기
이 튜토리얼에서는 간단한 도구와 함께 Python을 사용하여 모든 복잡한 작업을 처리하고, 키워드만 변경하면 결과 코드를 사용할 수 있습니다.
준비되셨나요? 그럼 시작해 보겠습니다.
1단계: 프로젝트 설정
가장 먼저 할 일은 프로젝트의 새 폴더를 만들고(이름을 paa-scraper로 지정) 그 안에 새 paa_scraper.py 파일을 만드는 것입니다.
Mac을 사용하는 경우 컴퓨터에 이미 파이썬 버전이 설치되어 있을 것입니다. Windows를 사용하는 경우 이 튜토리얼을 따라 컴퓨터에 설치하세요.
그런 다음 VScode에서 폴더를 열고 새 터미널을 엽니다.
거기에서 다음 명령을 입력합니다.
pip 설치 요청 팬더
위의 명령은 두 가지 유용한 도구(종속성)를 설치합니다:
요청을 사용하면 추출하려는 정보를 요청할 수 있습니다.
Pandas는 정보를 CSV 파일로 내보내는 데 도움을 줍니다.
이 단계를 완료하려면 파일 상단에서 두 종속 요소를 모두 가져옵니다.
요청 가져오기 팬더를 PD로 가져오기
2단계: 스크래퍼API를 통해 요청 보내기
기존에는 원하는 데이터를 얻으려면 Google로 이동하는 스크레이퍼를 만들고, CSS 선택기를 사용하여 정보를 검색하고, 정보를 선택하고, 서식을 지정하고... 무슨 말인지 아시겠죠? 일반적으로 많은 로직이 필요합니다.
대신 웹 스크래핑 도구를 사용하면 비용, 구현 시간, 유지보수를 줄일 수 있습니다.
스크래퍼API의 구조화된 데이터 엔드포인트를 통해 요청을 전송하면 HTML 파싱, 차단 또는 기타 문제에 대한 걱정 없이 모든 쿼리의 PAA 질문을 검색할 수 있습니다.
시작하려면 무료 스크래퍼API 계정을 만들고 대시보드로 이동하여 API 키를 복사하세요.