
2026年3月は、SEOの現場にとって確認すべき動きが多い月でした。特に下旬には、Googleのスパムアップデートとコアアップデートが続けて実施され、検索順位の変動を感じた方も多かったのではないでしょうか。
あわせて、Search Consoleではブランド名を含む検索と含まない検索を切り分けやすくなり、分析のしやすさが一段と高まりました。さらに、AI Modeまわりでも新しい機能や識別子の追加が続き、検索体験がより会話型で、ユーザーごとに最適化される方向へ進んでいます。
こうした変化が重なった3月は、慌てて結論を出すよりも、まずは落ち着いて状況を見極めることが大切です。特に下旬のアップデートについては、短期的な揺れと中長期的な評価変化が重なっている可能性があります。4月上旬までは変動が続く前提で、計測、判断、改修の順番を崩さずに進めることが重要です。
4月上旬までは変動が続く前提で、計測・判断・改修の手順を崩さないことが重要です。2026年3月の要点は以下の3点です。
【2026年3月の要点】
✓下旬の「スパムアップデート」「Googleコアアップデート」で、短期のノイズと中長期の評価変化が同時に起きている
✓Googleサーチコンソールの「ブランドクエリフィルタ」が全サイト(一部条件付き)に展開。指名・非指名でKPIを分けて分析可能
✓AI Mode関連(パーソナルインテリジェンス・Search Live・Googleエージェント)がさらなる進化
<Pickup記事>
SEOとは?SEO対策の基本から具体的な施策手順や注意点を初心者にもわかりやすくプロが解説
目次
今すぐ無料で、
あなたのSEO対策費用を
シミュレーション!
簡単な質問に答えるだけで、
最適なSEOプランと費用が無料でわかります。
SEO対策を
行ったことはありますか?
画像サムネイルの「preferred image」指定が明文化
3月2日のドキュメント更新で、Googleは検索結果やDiscoverに表示される画像サムネイルについて、基本は自動で選ばれるものの、メタデータを通じて「優先して見せたい画像」を指定できることを、これまで以上にわかりやすく示しました。
この更新が大切なのは、記事やカテゴリページ、サービスページなどで、どの画像が検索結果に出るかが、クリック率や第一印象に影響しやすいためです。特に、検索結果で画像が目に入るかどうかは、ユーザーがページを選ぶときの判断材料になりやすく、内容に合った画像が表示されるだけでも流入に差が出ることがあります。
実際の運用では、og:image にロゴだけを設定していたり、構造化データの image にテンプレート共通の画像を使っていたりして、ページ内容とサムネイルが合わなくなるケースが少なくありません。
今回の更新では、schema.org の primaryImageOfPage や主なエンティティに紐づく image、あるいは og:image などを通じて、代表画像を指定する考え方が整理されたと見てよいでしょう。
企業が取るべき対策
まずは、流入の多い記事、サービスページ、カテゴリページを中心に、og:image が本当にそのページを代表する画像になっているかを確認するとよいです。あわせて、構造化データ側の image や primaryImageOfPage が適切に出力されているかも見ておくと安心です。
文字が多すぎる画像や、極端に縦長・横長の画像は、検索面で見栄えが悪くなることがあるため、画像の見せ方もあわせて見直したいところです。
また、テンプレート側で画像指定のルールをそろえておくのがおすすめです。たとえば、記事ページなら BlogPosting などの該当タイプに必ず image を付ける、WebPage には primaryImageOfPage を設定する、といった形です。Discoverを意識している場合は、1,200px以上の高品質な画像や max-image-preview:large の扱いも含めて、編集と開発で共通ルールを持っておくと運用が安定します。
代表画像の選び方をルール化しておくと効果的です。ページ内容との一致、解像度、ロゴの扱い、権利関係などを含めて文書化し、公開フローに組み込んでおけば、後からまとめて修正する手間を減らせます。
■参照ソース
・Google Search Central「ドキュメントの最新の更新内容」、「Google 画像検索 SEO ベスト プラクティス」、「Discover とウェブサイト」
「JavaScript SEOの基本」からアクセシビリティ章が削除
3月4日、Googleは「Java Script SEOの基本を理解する」からアクセシビリティに関する章を削除しました。理由としては、記載内容が古くなっていたことや、Google検索が長年JavaScriptをレンダリングできる状態にあることが説明されています。
この更新が企業にとって意味を持つのは、「JavaScriptを使うとSEOに不利になる」という古い理解を見直すきっかけになるからです。特に、プロダクトやサービスサイトでフロントエンドが複雑になっている企業では、以前の前提のまま要件を決めてしまうと、開発とSEOの間に不要な対立が生まれやすくなります。
一方で、この更新を「JavaScriptを使っていれば何をしても問題ない」と受け取るのは適切ではありません。GoogleはJavaScriptを処理できますが、実装方法や配信の仕方によっては、うまく読み取られない部分が出る可能性は残ります。今回の更新は、必要以上に恐れる必要はないというメッセージであって、設計や出力を丁寧に考えなくてよい、という意味ではありません。
企業が取るべき対策
社内にJavaScriptに関するSEOルールが存在する場合は、チェック項目を見直すのがよいでしょう。たとえば、「JavaScriptだからSEOに弱い」「テキストだけで見えなければ即NG」といった古い考え方がそのままレビュー基準になっていないかを確認したいところです。今回の更新の趣旨は、過剰な警戒を見直すことにあります。
重要なページに絞って、初期HTMLで主要情報が把握できるか、重要コンテンツがユーザー操作をしないと出てこない構造になっていないか、構造化データや計測タグが安定して出力されているかを点検しておくとよいです。SEO、解析、UXの3つを同時に満たす視点で確認するのが現実的です。
中長期的には、コンポーネント設計や配信設計の中に、技術SEOの基本ルールを組み込んでいくことが重要です。HTMLの軽量化、重要情報の先頭配置、不要なスクリプトの削減などは、後半で触れるHTMLサイズの話ともつながります。
■参照ソース
・Google Search Central「ドキュメントの最新の更新内容」
・Google検索センター「Java Script SEOの基本を理解する」
・Search Engine Land「Google removes accessibility section from JavaScript SEO section」
Googleサーチコンソールの「ブランドクエリフィルター」が条件を満たす全サイトへ
3月11日時点で、Search Consoleの「ブランドクエリフィルター(Branded queries filter)」が、条件を満たしたすべてのサイトで使えるようになりました。これは、ブランド名を含む検索と、ブランド名を含まない検索を切り分けて分析できる機能です。もともと2025年11月に段階ロールアウトとして告知されていましたが、今回の更新で対象サイトに広く開放された形です。
ブランドクエリフィルターが表示されるサイトは以下のように開示されています。
レポートにこのオプションが表示されない場合は、次のいずれかの原因が考えられます。
・これはトップレベルのプロパティでのみ使用できます(https://example.com/path などの URL パスプロパティや developers.google.com などのサブドメイン プロパティでは使用できません)。
・この機能は、シグナルに十分な量のクエリとインプレッションがあるサイトでのみ使用できます。引用:Google Search Central「Search Console にブランドクエリ フィルタを導入」
重要なのは、このフィルターが「正規表現での単語一致」ではなく、内部のAI支援システムで判定している点です。誤判定の可能性は示されているものの、目的は分析の手間を減らすことであり、ランキングに影響するものではないとも明確に書かれています。
このフィルタは、Search Console 内でデータを簡単にセグメント化して分析できるように設計されたもので、Google 検索のランキングの仕組みには影響しません。
引用:Google Search Central「Search Console にブランドクエリ フィルタを導入」
現場では、指名検索の増減をそのままSEOの良し悪しと判断してしまうことがあります。しかし、ブランド流入と非ブランド流入では、変化の背景が違うことが多くあります。AI Modeや「パーソナルインテリジェンス(Personal Intelligence)」のように検索体験が個別化や会話化するほど、指名検索の落ち方・非指名の落ち方が別の理由で起きるケースが増えます。今回のフィルターは、まさにその切り分けをやりやすくするための、計測方法として使えます。
企業が取るべき対策
まずは、月次レポートの見方を見直し、ブランド検索と非ブランド検索を分けて確認できる形に整えるとよいです。3月下旬にはアップデートも重なっているため、全体数値だけを見ていると、どこを改善すべきかを見誤りやすくなります。
非ブランド側のデータを使って、表示回数はあるのにCTRが伸びないページ、順位は維持しているのにCVが落ちているページなどを洗い出しておきたいところです。
検索タイプごとに見られるので、記事、画像、動画、ニュースなど、自社の運用領域に合わせて整理すると、施策に落とし込みやすくなります。
また、ブランド語の定義や、商品名・サービス名をどう扱うかを社内でそろえておくと、数字の読み方がぶれにくくなります。ブランド施策とSEO施策を同じ軸で評価してしまうと、判断が難しくなるためです。
■参照ソース
・Google Search Central「Search Console にブランドクエリ フィルタを導入」
AI Modeで「パーソナルインテリジェンス」が米国の無料ユーザーにも拡張
3月17日、Googleは「パーソナルインテリジェンス(Personal Intelligence)」の提供範囲を広げ、米国の無料ユーザーにも展開すると発表しました。対象はAI Mode in Search、Geminiアプリ、Chromeで、Workspaceなどの企業・教育アカウントは対象外であることも明記されています。
パーソナルインテリジェンスとは、ユーザーの許可に基づき、GmailやGoogleフォトなどのアプリから情報連携・個人データを分析し、最適な提案や回答を行う機能です。
パーソナルインテリジェンスは、 GmailやGoogleフォトなどのアプリから情報を安全に連携させ、Geminiを他に類を見ないほど便利なアプリにします。この機能をオンにすると、連携させるアプリを正確に制御でき、それぞれのアプリがユーザーエクスペリエンスを向上させます。
引用:Google公式ブログ「ジェミニがパーソナルインテリジェンスを発表」
SEOの視点で見ると、検索結果やAIの回答が、ユーザーごとの文脈によってこれまで以上に変わりやすくなる流れが強まったといえます。GmailやPhotosなどの情報をもとに、より個別に最適化された回答が表示される可能性があるため、従来のように「同じ検索なら同じ結果が出る」とは限らない場面が増えていくかもしれません。
ただし、これをもって「順位はもう追えない」「SEOは終わる」と考えるのは行き過ぎです。今回の発表は主に米国の個人向けで、ユーザーが連携を選ぶ仕組みでもあります。また、Googleは個人のメールや写真の中身を直接学習に使うわけではないとも説明しています。日本企業にとっては、まず海外向け、とくに米国市場に関わる場合に注意深く見ておきたい変化です。
企業が取るべき対策
まずは、海外流入がある企業ほど、国別でデータを見る体制を整えるのがよいでしょう。GSCやGA4で、国ごとに指名・非指名を分けて観測し、どの市場で変化が起きそうかをあらかじめ見ておくと、後の判断がしやすくなります。
また、コンテンツの基本設計も見直したいところです。結論を先に示すこと、定義や比較、手順、注意点をわかりやすく整理すること、自社の事例やFAQなどの一次情報を加えることは、AIが内容を要約する場面でも価値を発揮しやすくなります。WEB上によくある一般論だけのコンテンツでは、今後相対的に埋もれやすくなる可能性があります。
■参照ソース
・Google公式ブログ「より多くの人々にパーソナルインテリジェンスの力を届ける」
新ユーザーエージェント「グーグルエージェント(Google-Agent)」が追加
3月20日、Googleはクローリング関連のドキュメントに「Google-Agent user agent」を追加しました。これは、Googleのインフラ上で動くエージェントが、ユーザーの依頼に応じてWebページを巡回したり操作したりする際に使われる識別子です。数週間かけて段階的に展開されると案内されています。
実務で重要なのは、サーバーログやWAF、ボット判定の仕組みに、新しいユーザーエージェントが現れる可能性があることです。ドキュメントでは、Google-Agentのユーザーエージェント例や、関連するIPレンジの確認先も示されています。また、ユーザー起点のフェッチャーは一般的なクローラーとは性質が異なる点にも触れられています。
注意したいのは、見慣れないUAだからといってすぐに遮断してしまうことと、逆にUA文字列だけを見てGoogleだと判断してしまうことです。Google自身も、UAは偽装される可能性があるため、IPレンジや検証手順を組み合わせて確認するよう案内しています。
企業が取るべき対策
まずインフラ、セキュリティ、解析の担当者と連携し、Google-Agent を観測できる状態になっているかを確認するとよいです。すぐに許可・遮断を判断するのではなく、まずはログ上で出現状況や頻度を把握するところから始めれば十分です。
Google由来のリクエストを確認する手順を整理し、逆引きDNSやIPレンジ照合などを運用手順に落とし込んでおくのがおすすめです。担当者が変わっても判断できる状態にしておくと、運用が安定します。
中長期的には、AIエージェント経由のアクセスが増える可能性も踏まえ、リクエストの種類ごとに計測、制御、負荷対策を分けて考えられるようにしておくと安心です。
■参照ソース
・Google Crawling Infrastructure「変更履歴」、「Google ユーザー トリガー フェッチャーの一覧」、「Google のクローラーとフェッチャーからのリクエストを確認する」
フォーラム・Q&A構造化データとrobots metaの扱いがアップデート
3月24日のGoogle Search Centralの更新では、「Discussion Forum」と「Q&Aページ」の構造化データに対応プロパティが追加され、コメントスレッドのような複雑な構造を、検索側がより正しく理解しやすくなる方向が示されました。同じ日に、「robots meta tags」についても、body内に記述されていても尊重される場合があることが追記されました。なお、これは新しい仕様というより、これまでもそうした挙動だったが、ドキュメントに明記されていなかったという位置づけです。
前者は、コミュニティやサポートフォーラム、Q&Aサイトを運用している企業にとって、マークアップの正確さがより大切になったことを意味します。後者は、CMSやタグマネージャーの事情で meta robots が head 以外に出てしまった場合の補足情報として役立ちます。
ただし、この記載を見て「meta robots はどこに置いてもよい」と判断するのは避けたいところです。あくまで例外的に尊重されることがあるという話で、通常運用では head 内に正しく置くという基本は変わりません。
企業が取るべき対策
フォーラムやQ&Aを持つサイトほど、構造化データの実装が最新の記述に沿っているかを点検するとよいです。コメントや返信の構造が複雑なサイトほど、ネストのミスやプロパティ不足が起きやすいため、公式サンプルと照らし合わせて確認するのが近道です。
robots meta の出力位置も含めて、CMS、タグマネージャー、ABテストツールの影響範囲を整理しておくのがおすすめです。もし noindex などが誤って混入しても気づけるよう、差分監視やテンプレート監査の仕組みも考えておきたいところです。
また、UGC(ユーザー投稿型)を扱うサイトほど、スパム対策、構造化データ、インデックス制御が密接に関わります。関係部署が分かれやすい領域なので、定期的に横断レビューの場を設けると運用しやすくなります。
■参照ソース
・Google Search Central「ドキュメントの最新の更新内容」、「Robots meta タグ、data-nosnippet、X-Robots-Tag の指定」、「ディスカッション フォーラム(DiscussionForumPosting)の構造化データ」、「Q&A(QAPage)の構造化データ」
March 2026スパムアップデートが短時間で完了
「Google Search Status Dashboard」によると、March 2026 spam update は、米国太平洋時間で3月24日12時に開始し、3月25日7時30分に完了しました。日本時間では、3月25日の早朝から深夜にかけての更新です。対象は全世界・全言語とされています。
スパムアップデートは、Googleのスパム検出システムの改善にあたるもので、影響を受けた場合はスパムポリシーへの適合を見直す必要があります。とくに、リンクに依存した不自然な評価上昇や、薄い内容のページが多いサイトでは、影響が残る可能性があります。回復には数か月単位で時間がかかることがある、という点も公式に案内されています。
ここで気をつけたいのは、更新が短時間で終わったことと、評価の回復が早いことは同じではない、という点です。完了したからすぐ戻るとは限らないため、施策判断のタイミングを混同しないことが大切です。
企業が取るべき対策
まずは、3月25日前後で急に落ちたディレクトリやテンプレートがないかを確認し、該当箇所があれば、スパムポリシー上で問題になりやすい要素が含まれていないかを点検するとよいです。UGC、アフィリエイト、内容の薄いページ群などが混在している場合は、まず影響範囲を切り分けることが先です。
表面的な対症療法ではなく、ページの役割の見直し、重複ページの整理、一次情報の追加など、運用の中身を改善する方向で方針を立てたいところです。スパム系の評価は、短期的な調整よりも、再発しにくい運用設計の方が効果的です。
また、スパムポリシーの考え方を、編集ガイドラインと開発ガイドラインの両方に反映し、外部制作を含めた品質管理の基準として整えておくことが重要です。
■参照ソース
・Google Search Status Dashboard「March 2026 spam update」
・Google Search Central「Google 検索のスパム アップデートとお客様のサイト」
Search Live がグローバル展開
3月26日、Googleは Search Live をグローバルに拡大し、AI Mode が使える言語・地域で利用できるようになると発表しました。200以上の国と地域で、音声やカメラを使った対話型検索が可能になると説明されています。
SEO担当者として見ておきたいのは、Search Live が「検索して終わり」ではなく、「質問を重ねながら必要に応じてWebページを見に行く」という流れを強めている点です。従来の検索結果一覧に加え、AIとのやり取りが入り口になる場面が増えると、ページ側には、短くても意味が通る結論、わかりやすい手順、根拠の示し方がより求められます。
とはいえ、新機能が出たからといって、すぐにすべての流入が減るわけではありません。どのくらい影響が出るかは、業種や検索意図、コンテンツの種類によって差が出ます。大切なのは、自社に関係する検索場面を想定しながら準備を進めることです。
企業が取るべき対策
設置方法、比較、選び方、トラブル対応など、現場で使われやすいコンテンツを中心に、結論から理由、手順、注意点までが1ページでわかる構成になっているかを確認するとよいです。Search Live ではカメラ入力も前提になるため、画像、図解、名称表記の統一といった視覚情報の整備も重要になります。
また、構造化データ、著者情報、更新履歴など、信頼性を示す情報を整備しておくのがおすすめです。比較記事や安全性に関わる情報では、一次情報や自社検証、仕様表、注意事項を加えることで、AI経由でも誤解されにくいページになりやすくなります。
中長期では、GSCでCTRや順位が大きく動いたクエリを、ブランド/非ブランドに分けて観測できるようにしておくと、AI体験の拡張がどこに影響しているのかを判断しやすくなります。
■参照ソース
・Google公式ブログ「Search Live is expanding globally」
March 2026コアアップデート開始
「Google Search Status Dashboard」では、March 2026 core update が、米国太平洋時間の3月27日2時に開始したと記録されています。ロールアウトには最大2週間かかる見込みで、4月上旬まで変動が続く可能性があります。
コアアップデートは、特定のサイトだけを対象にするものではなく、検索結果全体の有用性や信頼性を高めるための広範な変更です。Googleは、アップデートの完了を確認したうえで、さらに1週間ほど待ってから分析を始めることを勧めています。途中のデータだけで結論を出したり、小さな変動に対して急いで修正を繰り返したりするのは避けた方がよいという考え方です。
実務でありがちな失敗は、アップデート期間中の数字だけを見て判断してしまうことと、季節性や広告施策、計測変更など別の要因まで、すべてコアアップデートの影響と見なしてしまうことです。ブランド・非ブランドや検索タイプ別に分けて確認するだけでも、誤解をかなり減らせます。
企業が取るべき対策
まずは、Search Status Dashboard の開始日を基準に、Googleサーチコンソールの比較期間をあらかじめ固定しておくのがよいです。今の時点では、原因を断定するのではなく、どのクエリとどのページに影響が出ていそうかを整理する段階と捉えるのが現実的です。
つまり4月中旬にかけては、影響が大きいページから優先して、構成の見直しや情報不足の補強、一次情報の追加など、ユーザーにとって意味のある改善を積み上げていくのがおすすめです。Googleは、安易な削除や小手先の修正ではなく、本質的な改善を重視する姿勢を繰り返し示しています。
また、アップデートのたびに場当たり的な対応にならないよう、重要ページの品質チェック項目や更新ルール、一次情報の追加方針を平時から整えておくと、変動が起きたときも判断しやすくなります。
■参照ソース
Google Search Status Dashboard「2026年3月コアアップデート」
Google Search Central「Google 検索のコア アップデートとウェブサイト」
Search Engine Land「Google March 2026 core update rolling out now」
Inside Googlebot で「2MB制限」などクロールの仕様が明確化
3月31日、Google Search Central Blog で、Googlebot のクロールや処理サイズに関する技術的な説明が公開されました。その中で特に注目されたのが、Googlebot と WRS が、各リソースについて最大2MBまでしか処理しないという点です。あわせて、クロール基盤のデフォルト上限や、Searchインデクサーの上限も整理されています。
企業サイトでは、HTMLが大きくなりすぎているケースが珍しくありません。長い一覧、不要なインラインJSON、過剰なスクリプトなどによってページが重くなると、重要な情報が後ろへ押し出され、そもそも十分に見てもらえない可能性があります。商品仕様や料金、FAQ、一次情報が後半にある場合は、評価以前に読み取られにくくなるおそれがあります。
ただし、「2MB未満なら安心」と単純に考えるのも危険です。重要なのはサイズだけでなく、何がどこに置かれているかです。価値のある情報をページの前半に配置することは、今後ますます基本になるでしょう。
参考までに、公開された主な上限のイメージです。
| 対象 | 目安(記事/ドキュメントで明示) |
|---|---|
| Googlebotのフェッチャー | 1リソースあたり 2MB |
| WRS(レンダリング) | 1リソースあたり 2MB |
| クロール基盤のデフォルト | 15MB |
| Google Searchのインデクサー | 1HTML/テキストあたり 5MB |
企業が取るべき対策
重要なページのHTMLサイズを計測し、2MBに近い、あるいは超えているページがないかを確認するとよいです。そのうえで、重要情報がページの前半に配置されているかもあわせて見ておきたいところです。もし後ろへ押し出されているなら、見出し構造や折りたたみ、遅延ロードの設計を見直す価値があります。
テンプレート側で、要点を先に出す構成に寄せたり、不要なスクリプトやスタイルを減らしたり、巨大な一覧を分割したりといった対応を進めるのがおすすめです。これはSEOだけでなく、表示速度やUXの改善にもつながります。
中長期では、HTMLやJavaScriptのサイズ予算を開発のルールとして持ち、リリース時に肥大化を検知できる仕組みを作っておくと、大規模な後追い修正を防ぎやすくなります。
■参照ソース
・Google Search Central「Googlebot の内部: クロール、取得、処理するバイトの謎を解く」
・Google Crawling Infrastructure「Google のクローラーとフェッチャー(ユーザー エージェント)の概要」
GoogleクローラーIP範囲ファイルの場所変更
同じく3月31日、GoogleはクローラーのIP範囲をまとめたJSONファイルの提供先を、従来の /search/ 配下から /crawling/ipranges/ 配下へ変更すると発表しました。旧パスはしばらく併存しますが、6か月以内に新パスへリダイレクトされる予定とされています。
これは一見するとSEO担当者向けではなく、インフラやセキュリティ寄りの話に見えるかもしれません。しかし、実際には、WAFでGooglebotを許可している企業や、ログ判定にIP情報を使っている企業にとって、見逃せない変更です。参照先が古いままだと、ある日突然、正しいGoogleのアクセスをうまく扱えなくなる可能性があります。
Googleは、確認方法としてDNSによる手動確認と、公開IPレンジとの照合の2つを案内しています。ユーザーエージェントだけで判定しないという基本姿勢も、ここで改めて確認しておきたいところです。
企業が取るべき対策
自社内でGoogleのIPレンジJSONを参照している仕組みがあるかを確認するとよいです。自動取得スクリプト、監視、WAF設定、運用マニュアルなど、該当しそうなものを棚卸しし、参照先URLを新しいパスへ切り替えるタスクを早めに作っておくのがおすすめです。
また、IPレンジ取得の自動化や更新監視まで進められるとより安全です。あわせて、必要に応じてDNS確認も併用できる運用にしておくと、ユーザーエージェント偽装のリスクにも対応しやすくなります。
中長期的には、Google由来のアクセスがクローラー、特別用途のフェッチャー、ユーザー起点のエージェントなどに分かれていく流れも見据え、カテゴリごとに制御方針を整理しておくと運用しやすくなります。
■参照ソース
・Google Search Central「Google クローラーの IP 範囲ファイルの新しい場所」
・Google Crawling Infrastructure「Google のクローラーとフェッチャーからのリクエストを確認する」
まとめ
2026年3月は、下旬にスパムアップデートとコアアップデートが続けて実施され、短期的な順位変動と中長期的な品質評価の両方を意識する月になりました。
加えて、Googleサーチコンソールではブランド・非ブランドの切り分けが広がり、AI Mode関連では 「パーソナルインテリジェンス(Personal Intelligence)」、「Search Live」、「グーグルエージェント(Google-Agent)」 など、検索体験や計測・運用に関わる変化が続きました。
4月に向けて大切なのは、まずアップデート完了後の正しい比較期間で影響を見極めることです。そのうえで、非ブランド流入の伸びしろがあるページを優先的に改善し、AIやクローラーまわりの変化に備えた計測と技術ルールを整えていくと、判断しやすくなります。大きな変化が続く時期ほど、落ち着いて事実を見て、優先順位をつけて進めることが重要です。









