Google의 &num=100 제거가 SEO와 AI 검색에 미친 영향
&num=100: SEO 업계를 뒤흔든 Google의 한 가지 변경사항
2025년 9월 12일, Google의 작은 파라미터 하나가 사라지면서 전 세계 SEO 업계가 멈췄습니다. Ahrefs는 X(구 트위터)에 긴급 공지를 올렸어요. “Google이 검색 결과를 10개로 제한했습니다. 더 이상 100개 결과 페이지는 없습니다. 이 변경사항은 Ahrefs를 포함한 모든 SEO 순위 추적 툴에 영향을 미칩니다.” SEMrush, Moz 등 주요 SEO 툴들도 비슷한 메시지를 내보냈죠.
Reddit의 SEO 커뮤니티는 난리가 났어요. “Google Search Console에서 노출수가 50%나 떨어졌다”, “추적하던 키워드가 갑자기 사라졌다”, “순위는 올랐는데 트래픽은 그대로다” 등 제보가 쏟아졌습니다. 많은 마케터들은 자신의 웹사이트에 문제가 생긴 줄 알고 당황했어요. 하지만 이건 개별 사이트의 문제가 아니었습니다. Google이 검색 생태계의 룰을 바꿔버린 것입니다.
표면적으로는 SEO 툴들의 데이터 수집 문제처럼 보였습니다. 하지만 며칠이 지나면서 더 충격적인 사실이 드러났어요. Reddit의 ChatGPT 가시성이 하루아침에 97% 폭락했고, AI 검색 엔진들이 하위 순위 콘텐츠에 접근할 수 없게 되었습니다. SEO 전문가들이 순위 분석 문제로 난리일 때, 진짜 위기는 AI 트래픽 생태계의 붕괴였던 것이죠.

num=100 파라미터란 무엇이었나?
num=100은 Google 검색 URL에 붙일 수 있었던 파라미터입니다. 예를 들어 https://www.google.com/search?q=example&num=100처럼 URL 끝에 &num=100을 추가하면, 기본 10개가 아닌 100개의 검색 결과를 한 페이지에 표시할 수 있었어요. 일반 사용자에게는 크게 중요하지 않은 기능이었지만, SEO 툴과 데이터 분석 업체들에게는 필수 기능이었습니다.
Ahrefs, SEMrush 같은 순위 추적 툴들은 이 파라미터를 활용해 효율적으로 데이터를 수집했습니다. 한 번의 요청으로 100개 결과를 가져올 수 있었기 때문에, 수백만 개의 키워드 순위를 추적하는 비용과 시간을 10분의 1로 줄일 수 있었어요. 하지만 Google이 num=100을 제거하면서 상황이 완전히 달라졌습니다. Reddit SEO 커뮤니티의 한 사용자가 계산한 바에 따르면, “SEMrush는 273억 개의 키워드를 추적하는데, 이제 한 키워드당 10번씩 요청을 보내야 한다면 월 2,730억 번의 요청이 필요하다”고 합니다. SEO 툴 업계의 운영 비용이 하루아침에 10배로 뛴 셈이죠.
Google은 왜 &num=100을 제거했을까?
Google은 &num=100 제거에 대해 공식적으로 상세한 설명을 내놓지 않았습니다. 다만 “이 URL 파라미터의 사용은 우리가 공식적으로 지원하는 기능이 아니었다”는 짧은 코멘트만 남겼어요. 하지만 SEO 업계 전문가들은 몇 가지 이유를 추측하고 있습니다.
첫 번째 이유는 AI 기업들과의 경쟁입니다. OpenAI, Anthropic, Perplexity 같은 AI 검색 엔진들이 Google 검색 데이터에 무임승차하고 있었어요. &num=100을 활용해 대량의 검색 결과를 가져가 자신들의 AI 답변에 활용했죠. Google 입장에서는 자체 AI인 Gemini를 키우는 마당에, 경쟁사들에게 무료로 핵심 자산인 검색 데이터를 제공할 이유가 없었습니다.
두 번째는 인프라 부담 감소입니다. SEO 툴들과 스크래퍼들이 &num=100을 사용해 엄청난 양의 요청을 보내고 있었어요. 한 번에 100개 결과를 가져가는 요청은 10개씩 가져가는 요청보다 서버에 훨씬 큰 부담을 줍니다. 수백만 개의 키워드를 추적하는 SEO 툴들이 동시다발적으로 이런 요청을 보내면, Google 입장에서는 상당한 비용이 발생해요. 실제 사용자가 아닌 봇 트래픽에 리소스를 쓸 필요가 없다고 판단한 것으로 보입니다.
세 번째는 데이터 정확성 개선입니다. Google Search Console 데이터에 SEO 툴과 스크래퍼들이 만든 가짜 노출이 대량으로 섞여 있었어요. 어떤 사이트는 실제 사용자보다 봇이 만든 노출이 더 많았을 정도입니다. &num=100을 제거하면서 이런 왜곡된 데이터가 정리되었고, 이제 웹사이트 운영자들이 실제 사용자 행동을 더 정확하게 파악할 수 있게 되었습니다.
결국 Google의 의도가 무엇이든, 결과는 명확합니다. 검색 생태계의 통제권을 다시 가져간 것이에요. SEO 툴 업계는 10배 높아진 운영 비용을 감수해야 하고, AI 기업들은 직접 데이터 계약을 맺거나 자체 크롤링 시스템을 구축해야 합니다. 작은 파라미터 하나로 Google은 게임의 룰을 다시 썼습니다.
데이터로 보는 충격의 크기
&num=100 제거 이후, 구체적인 지표들이 그 변화의 충격을 말해줍니다. 87.7%의 웹사이트에서 노출수(impression) 감소가 발생한 것이죠. Google Search Console을 열어본 마케터들은 전날까지 멀쩡하던 그래프가 갑자기 절벽처럼 떨어진 걸 보고 당황했습니다. 어떤 사이트는 노출수가 50%나 줄었고, 심한 경우 하루 만에 20만 건의 노출이 사라졌어요.
그런데 노출수가 줄어든 이유가 충격적입니다. 실제 사용자가 줄어든 게 아니라, SEO 툴과 스크래퍼들이 만들어낸 가짜 노출이 사라진 것입니다. 많은 랭킹 추적 툴과 데이터 수집 업체들이 &num=100 파라미터를 사용해 Google 검색 결과를 대량으로 크롤링했고, 이 과정에서 발생한 노출이 Google Search Console에 집계되고 있었습니다. LinkedIn에서 SEO 전문가 Chris Long은 이렇게 설명했어요. “이런 스크래퍼들이 너무 활발해서 우리가 보고하는 수치에 큰 영향을 미치고 있었다. 이제 Search Console 데이터가 실제 사용자 검색을 더 정확하게 반영하게 되었다.”
또한 역설적으로 노출수는 줄었는데 평균 순위는 오히려 올라갔습니다. LinkedIn에서 SEO 전문가 Chris Long이 공유한 사례를 보면, 노출수가 급감했지만 평균 순위는 상승했고 클릭 수는 안정적으로 유지되었습니다. 이유는 간단합니다. 이전에는 11위부터 100위까지의 낮은 순위도 평균에 포함되었는데, 이제는 상위 10위만 집계되면서 평균 순위가 좋아 보이게 된 것입니다. 실제 성과는 변하지 않았는데 데이터만 왜곡된 셈인 것이죠.

SEO 전문가들이 놓친 진짜 이슈: AI 검색엔진의 위기
SEO 툴들의 데이터 수집 문제가 화제였지만, 정작 중요한 변화는 다른 곳에서 일어나고 있었습니다. &num=100 제거의 가장 큰 피해자는 AI 검색 엔진들이었어요. 접근할 수 있는 검색 데이터가 줄어들었기 때문인데요. 특히 ChatGPT, Perplexity, Claude 같은 AI 엔진에서 Reddit 콘텐츠가 참조되는 비율이 급락했어요. 구체적으로는 7% 수준에서 0.3%로, 무려 97%가 증발하였습니다.
왜 이런 일이 벌어졌을까요? AI 엔진들이 답변을 생성할 때 Google 검색 데이터에 의존하고 있었기 때문입니다. 이들은 중간 데이터 공급업체를 통해 Google 검색 결과를 받아왔는데, 이때 &num=100 파라미터가 핵심 도구였어요. 한 번에 100개 결과를 가져올 수 있었으니까요. AI가 모든 결과를 다 활용한 건 아니지만, 사용자에게 유용한 답변을 만드는 데 필요한 소스는 주로 상위 10개 밖에 있었습니다.
Reddit 게시글이나 커뮤니티 토론, 전문가들의 스레드를 떠올려 보세요. 이런 콘텐츠들이 상업적 검색어로 Google 상위 10위 안에 들어갈까요? 거의 없습니다. 하지만 15~40위권은 Reddit이 장악하고 있었습니다. AI 모델들은 이런 콘텐츠를 정말 좋아했습니다. 실제 사람들의 의견, 장단점 비교, 구체적인 사용 후기는 AI가 균형 잡힌 답변을 만드는 데 필수적인 재료였으니까요.
문제는 &num=100이 사라지면서 이 모든 게 접근 불가능해졌다는 것입니다. 그나마 Reddit은 사정이 나은 편입니다. 2024년 5월 OpenAI와 맺은 7천만 달러 규모의 데이터 계약 덕분에 ChatGPT만큼은 직접 Reddit 콘텐츠에 접근할 수 있으니까요. 이런 직접 계약이 없는 중소 플랫폼이나 개인 블로그들은 사실상 AI 검색 생태계에서 퇴출당한 셈입니다.

B2B 마케터와 콘텐츠 크리에이터를 위한 대응 전략
&num=100 제거가 가져온 변화는 명확합니다. AI 검색 엔진에 노출되려면 Google 검색 상위 10위 안에 들어야 해요. 물론 11위 이하도 여전히 일반 검색에서는 트래픽을 가져올 수 있습니다. 하지만 ChatGPT, Perplexity, Claude 같은 AI 엔진을 통한 유입은 사실상 차단된다는 점을 알아야 합니다. 그렇다면 B2B 마케터와 콘텐츠 크리에이터는 어떻게 대응해야 할까요?

핵심은 경쟁도가 낮지만 구매 의도가 분명한 키워드를 선별하는 것입니다. 이전에는 11위에서 30위 사이를 오가며 천천히 순위를 올려도 괜찮았어요. 하지만 이제는 다릅니다. 상위 10위 안에 빠르게 안착하지 못하면 AI 검색 생태계에서 아예 존재하지 않는 것과 같습니다. 예를 들어 “CRM”처럼 경쟁이 치열한 숏테일 키워드보다는, “50명 이하 스타트업에서 무료로 시작할 수 있는 CRM 도구”처럼 구체적이고 의도가 명확한 롱테일 키워드를 공략해보세요. 경쟁은 낮지만 고객의 니즈는 분명한 키워드를 찾는 안목이 중요해졌습니다.
둘째, 고객이 물어볼 법한 다양한 질문을 콘텐츠로 만드는 것입니다. 결국 본질로 돌아가는 시대예요. 하나의 메인 키워드로 1위를 노리기보다는, 고객이 실제로 검색할 만한 여러 질문에 대한 답변을 각각 콘텐츠로 만드는 것이 효과적입니다. “B2B CRM 추천”, “소규모 팀 CRM 가격 비교”, “CRM 도입 시 체크리스트”, “영업팀 없는 스타트업 CRM 필요한가요” 같은 식으로요. 각 질문마다 별도의 페이지를 만들어 상위 10위에 안착시키는 전략입니다. 포트폴리오처럼 다양한 키워드에서 10위 안에 들어가는 것이 AI 시대의 SEO 전략이에요.
셋째, SEO의 기본기를 다시 점검하세요. &num=100이 사라졌어도 Google이 콘텐츠를 평가하는 방식 자체는 크게 달라지지 않았습니다. 타겟 키워드를 페이지 제목, URL, 메타 디스크립션, H1 태그, 첫 문단에 자연스럽게 배치하는 것은 여전히 유효해요. 다만 이제는 “상위 10위 안에 드는 것”이 필수 조건이 되었을 뿐입니다. 콘텐츠 품질, 페이지 속도, 모바일 최적화, 내부 링크 구조 같은 기본기가 탄탄해야 경쟁도 낮은 키워드라도 빠르게 상위권에 안착할 수 있어요.

변화는 계속된다, 본질에 집중하자
&num=100 제거는 단순한 기술적 변경이 아닙니다. Google이 검색 생태계의 통제권을 다시 가져간 사건이에요. AI 기업들의 무임승차를 차단하고, 인프라 부담을 줄이며, 데이터 정확성을 높이는 동시에 자체 AI인 Gemini를 위한 경쟁 우위를 확보했습니다. 작은 파라미터 하나로 SEO 툴 업계와 AI 검색 생태계 전체를 흔든 것입니다.
흥미로운 점은 Google이 이 변경을 영구적으로 유지할 것인지에 대해 명확한 입장을 내놓지 않았다는 것이에요. “공식 지원 기능이 아니었다”는 짧은 코멘트만 있을 뿐입니다. 하지만 데이터를 보면 이미 돌아갈 수 없는 강을 건넌 것처럼 보여요. SEO 툴 업계는 새로운 데이터 수집 방법을 찾고 있고, AI 기업들은 Reddit처럼 직접 라이센싱 계약을 맺거나 자체 크롤링 시스템을 구축하고 있습니다.
여기서 중요한 건 SEO의 기본 원칙은 여전히 유효하다는 점이에요. 좋은 콘텐츠를 만들고, 사용자의 질문에 정확하게 답하고, 기술적으로 최적화하는 것. 이 본질은 변하지 않습니다. 다만 “상위 10위”라는 새로운 기준선이 생겼을 뿐이에요. 11위 이하도 여전히 일반 검색 트래픽을 가져올 수 있지만, AI 검색이라는 새로운 유입 채널은 닫히게 됩니다. 변화는 계속될 것입니다. Google의 다음 업데이트가 무엇일지, AI 기업들이 어떻게 대응할지 아무도 몰라요. 하지만 한 가지는 분명합니다. 고객이 정말 궁금해하는 질문에 진심으로 답하는 콘텐츠를 만드는 것. 그것이 검색 환경이 어떻게 변하든 살아남을 수 있는 유일한 전략입니다.

📎 SEO 체크리스트 다운로드
이 내용, 놓치지 않고 적용하고 싶으신가요?
리캐치가 SEO 체크리스트를 준비했어요. 지금 다운 받아 보세요.