身為內容行銷人員或網站經營者,你是否發現:同樣一段內容,在 Google 搜尋排名明明很好,但在 ChatGPT 或 Perplexity 引用卻完全找不到?這背後的關鍵在於——混合式搜尋評分 (RRF) 正在改變搜尋的遊戲規則,AI 助理與搜尋引擎其實已經成為兩套截然不同的「內容推薦系統」。
本文將介紹搜尋引擎與 AI 助理在資料檢索上的邏輯差異、RRF 技術的運作原理,以及如何透過行銷角度解讀這些變化,優化內容策略,讓品牌在未來的「雙重曝光」中搶得先機。

傳統搜尋 vs AI 推薦:從關鍵字比對到語意比對
語意 vs 字詞:AI 助理不是在找「字」,而是在猜「意思」
搜尋引擎(如 Google)是以「關鍵字」作為主要檢索依據,背後技術如 BM25,就是在比對文字中關鍵詞出現的頻率與匹配度。這種檢索方式擅長處理精確的查詢,但難以理解語境或同義詞。
相對地,AI 助理(如 ChatGPT、Perplexity)則是基於語意檢索,它們使用「向量嵌入(Embeddings)」來理解概念與上下文——不是找一模一樣的字,而是判斷「這段內容跟你在說的話有沒有意義上的關聯」。
傳統搜尋 v.s AI:檢索層面差異 – BM25 vs 向量檢索
BM25:傳統詞彙檢索(Lexical Retrieval)
- 核心原理:根據查詢詞與文件中詞頻的匹配程度進行打分。
- 常用於:Google Search、Elasticsearch、OpenSearch 傳統模組。
- 詞頻高、文件短、詞稀有 → 排名高。
向量檢索(Semantic Retrieval using Embeddings)
- 原理:將文本與查詢轉換成高維向量,計算兩者的距離或相似度。
- 模型:OpenAI
text-embedding-3-large、bge-large-en、E5、Cohere Embed等。 - 常見距離指標:
- Cosine similarity
- Dot product
- Euclidean distance (L2)
- 向量檢索會捕捉語意相似,例如「buy car」≈「purchase vehicle」。
| 傳統 SEO | 語意 SEO | 向量 SEO (GEO) | |
| 對象 | 搜尋引擎爬蟲 | BERT / NLP 模型 | LLM / Embedding 模型 |
| 核心思維 | 關鍵字匹配 | 語義關聯 | 向量相似度 |
| 技術重點 | Title、Meta、H1 | 主題樹(Topic cluster) | 向量空間定位(Vector cluster) |
| 寫作焦點 | 排名 | 內容理解 | 被引用、被生成 |
| 成功指標 | SERP 頁面曝光 | 搜尋意圖覆蓋 | AI Overview 收錄率、生成內容被引用率 |
這也意味著,相同的內容在 AI 助理與搜尋引擎的曝光表現可能天差地遠。舉例來說,當使用者搜尋:「AI 內容優化方法」:
傳統 SEO 寫手會放關鍵字:「AI 內容優化、AI SEO、AI 文案生成工具」;
但 LLM 會這樣想:「這篇文章的語意是否涵蓋了 AI 如何理解內容品質、語意結構、向量關聯?」因此更適合 LLM 的寫法應為:
「AI 模型會將文章轉成向量,在語意空間中評估其主題一致性與知識權威性。因此,內容優化的重點,不只是關鍵字密度,而是如何讓模型清楚辨識主題核心。」
混合式搜尋評分(RRF)是什麼?如何影響曝光排名?
現代搜尋引擎與 AI 系統,往往不是單用其中一種檢索技術,而是同時使用關鍵字檢索(BM25)與語意檢索(向量模型)。這兩份結果清單如何融合?就是透過「RRF(倒數秩融合)」公式:
RRF 公式:分數 = 1 ÷ (k + 排名)(k 通常為 60)
同一篇文章如果在兩種檢索結果中都有出現,會加總分數,得分高者勝。
以下是 AI LLM(如 ChatGPT Search、Perplexity、Claude Search)採用的 RRF 流程範例:
Q [使用者查詢 Query]
-->A[Lexical Search (BM25)]
-->B[Semantic Search (Embedding Similarity)]
-->C[RRF Score Fusion]
-->D[結果排序 + Context 塊]
-->E[LLM 回答 + 引用來源]
LLM 並不直接搜尋網頁,而是依賴「Retrieval Layer」提供的前 N 筆結果。這層的結果融合邏輯(RRF)決定了 哪些文件被 LLM 看見、被引用。
混合檢索(Hybrid Search):RRF(Reciprocal Rank Fusion)
結合 BM25、向量檢索兩者的搜尋模式,使得結果兼具「關鍵字精準」與「語意理解」。若一份文件在多個模型中排名都高,則它的最終分數加總也高。
範例:
| 文件 | BM25 排名 | 向量 排名 | 最終分數 (k=10) |
|---|---|---|---|
| A | 1 | 3 | 1/(10+1)+1/(10+3)=0.1678 |
| B | 2 | 1 | 1/(10+2)+1/(10+1)=0.1742 |
| C | 3 | 2 | 0.1602 |
結果:B > A > C。B 兼顧兩種檢索的高分,因此最終名列前茅。
各主流引擎中的 Hybrid Search 實作
| 平台 | 模組/功能 | 官方文件 |
|---|---|---|
| Azure AI Search | Hybrid retrieval with BM25 + vector | 微軟雲原生混合檢索系統 |
| ElasticSearch / OpenSearch | Reciprocal Rank Fusion (RRF) API | 8.11 之後支援混合排序 |
| Vespa.ai | Hybrid Search Tutorial | Yahoo/Oath 開源的分散式搜尋引擎 |
| Weaviate | Hybrid Queries | 內建 BM25 + cosine similarity |
| Qdrant / Milvus | 可在 client-side 實作 RRF 加權融合 | 需手動整合 keyword + vector 檢索 |
行銷人員如何觀察與應對?非工程師也能用的 RRF 3 指標
雖然行銷人員無法看到 AI 助理或搜尋引擎的演算法細節,但可以透過「重疊率觀察法」來理解內容曝光狀況:
1. SVR(Shared Visibility Rate)
SVR 是指在相同查詢中,Google 搜尋結果與 AI 助理引用來源重複的比例。Google 與 AI 助理都引用你的內容,表示內容同時被兩邊信任。
SVR 越高,表示你的內容不僅符合關鍵字匹配邏輯,也具備 AI 助理「語意上的信任」,是雙重標準下的「強內容」。這代表你製作的內容在結構與語意層面上都表現優秀。
舉例而言,若針對某關鍵字查詢,Google 前 10 名網站中有 3 個網域與 AI 助理的引用來源重複,那麼 SVR 就是 0.3。
要有好的 SVR,建議保持內容更新頻率、加強標題層級與語意明確性,讓內容在兩大系統中維持曝光。
2. UAVR(Unique Assistant Visibility Rate)
UAVR 是獲得 AI 助理引用的來源中,未出現在 Google 搜尋結果前 10 名的比例。
UAVR 高表示 AI 助理有「自己的偏好」,它發現了 Google 還沒列入的內容。這代表 AI 模型是根據語意與上下文的判斷,而非字面關鍵字來挑選資料來源。
舉例:AI 助理引用 6 個來源,其中只有 2 個也在 Google Top 10,UAVR 就是 (6-2)/6 = 0.67。
除了關鍵字語意內容,AI 也偏好結構化的資訊。可以在文章中放入條列式摘要、FAQ、HowTo 內容、白皮書格式等,提升語意辨識率。
3. RCC(Recurrent Citation Count)
RCC 是指相同網域在多個不同查詢中,被 AI 助理反覆引用的次數比例。可以視為對網域的品質信任度。RCC 高的品牌,代表在 AI 模型的語意世界中具有穩定可信度。即使查詢不同,只要是相關主題,AI 仍選擇引用你。
舉例而言,10 個不同的產品查詢中,有 4 次都出現你的網域,被 ChatGPT、Perplexity 反覆引用,RCC 就是 0.4。
建議操作策略:打造主題式內容集群(Content Cluster),讓網站中的知識結構完整一致,增加「語意指紋」,提升 AI 模型對你網站的整體信任感。
如何優化內容,讓 AI 與搜尋引擎都推薦?
| 目標 | 優化方法 | 適用平台 |
|---|---|---|
| 提升關鍵字命中 | 強化 H 標題層級、明確使用關鍵字 | Google 搜尋引擎 |
| 增加語意信任 | 條列摘要、FAQ、HowTo 結構化資料 | AI 助理 |
| 強化穩定引用 | 固定作者名、加時間戳、規範網址 | 向量模型 |
| 提供信任內容 | 白皮書、PDF、規格書等高格式內容 | AI 助理優先引用 |
FAQ:關於混合式搜尋評分(RRF)你可能想問的
混合式搜尋評分(RRF)和 SEO 有什麼關係?
RRF 是目前 AI 助理與進階搜尋平台用來排序內容的方式之一。對於 SEO 來說,代表我們不再只優化關鍵字,也要讓內容「語意清晰、邏輯完整」,讓 AI 看得懂。
怎麼知道 AI 助理有沒有引用我的內容?
可觀察 Perplexity、ChatGPT Search 等 AI 搜尋結果中是否引用你的網域,或使用上文的 SVR、UAVR、RCC 指標自製報表追蹤。
如何讓品牌內容在 AI 與搜尋引擎中雙重曝光?
若你是內容經營者、SEO 優化人員或品牌主,現在就是升級內容結構的時機:
- 檢查標題與段落層級,確保 H2/H3 明確定義主題
- 增加條列摘要、QA、HowTo 類型內容,幫助 AI 準確解析
- 提供結構化文件或高格式檔案,增強模型引用穩定度
想讓品牌內容不只排上第一頁,還能成為 AI 助理眼中的信任來源嗎?
現在就開始優化你的內容架構、語意設計與引用格式,掌握混合式搜尋評分(RRF) 的脈絡,讓你在未來的搜尋世界中立於不敗之地。

2025 年 SEO 行銷該如規劃?歡迎與我們諮詢!現在聯絡我們並提供上限 5 個競爭者對手網站,限時免費贈送「競爭者 SEO 表現分析」報告一份,輕鬆掌握對手 SEO 動態 & 差距!
了解最新 SEO 行銷解決方案:【新世代 AI SEO x 數位品牌優化】計畫
延伸:RRF 如何測試(Python 範例)?
若想在內部驗證品牌內容在「AI 助理 vs Google 搜尋」的重疊,可參考文中計算框架。
指標定義
| 符號 | 定義 | 計算公式 |
|---|---|---|
| I | 交集數(重疊的 URL/domain) | count(Google ∩ Assistant) |
| N | 助理引用但 Google 未列出的 | Assistant_total − I |
| F | 特定 domain 出現頻率 | across 10 queries |
| SVR | Shared Visibility Rate | I ÷ 10 |
| UAVR | Unique Assistant Visibility Rate | N ÷ Assistant_total |
| RCC | Recurrent Citation Count | ΣF ÷ queries_count |
範例:
Google Top10 URLs: 10
Assistant citations: 6
Overlap: 3
.com domain appeared 4 times
SVR = 3/10 = 0.30
UAVR = (6-3)/6 = 0.50
RCC = 4/10 = 0.40
模擬 RRF 實作(Python 範例)
def rrf_score(rank_lists, k=60):
"""
rank_lists: list of dicts, each {doc_id: rank_position}
return: dict of {doc_id: combined_score}
"""
from collections import defaultdict
scores = defaultdict(float)
for ranks in rank_lists:
for doc, r in ranks.items():
scores[doc] += 1 / (k + r)
return dict(sorted(scores.items(), key=lambda x: x[1], reverse=True))
# Example
bm25 = {'A': 1, 'B': 2, 'C': 3}
vector = {'A': 3, 'B': 1, 'C': 2}
print(rrf_score([bm25, vector], k=10))
輸出:
{'B': 0.1742, 'A': 0.1678, 'C': 0.1602}
RRF 對資料科學家與搜尋工程師的啟示
- 混合檢索不是排序最佳化(ranking optimization),而是信任校正(consensus calibration)。
- RRF 可視為多模態資訊整合的 baseline ensemble。
- 在多源檢索架構中,可延伸為:
- 加入 meta-weighting(根據模型信任度調整權重);
- 使用 learning-to-rank 模型(例如 LambdaMART、RankNet);
- 評估指標可採用 NDCG、MAP、Jaccard overlap。
延伸閱讀與官方技術文件
| 主題 | 文件連結 |
|---|---|
| BM25 原理 | https://en.wikipedia.org/wiki/Okapi_BM25 |
| 向量嵌入基礎 | https://platform.openai.com/docs/guides/embeddings |
| Reciprocal Rank Fusion (RRF) | https://trec.nist.gov/pubs/trec21/papers/UniversityofWaterloo-RankFusion.pdf |
| Hybrid Search in Azure | https://learn.microsoft.com/en-us/azure/search/hybrid-search-overview |
| Vespa Hybrid Ranking | https://docs.vespa.ai/en/hybrid-ranking.html |
| OpenSearch Hybrid Search | https://opensearch.org/docs/latest/search-plugins/knn/reciprocal-rank-fusion/ |
| Perplexity 檢索架構解析 | https://www.perplexity.ai/hub/articles/how-perplexity-search-works |
