混合式相關性搜尋評分(RRF)是什麼?如何影響曝光排名?AI 推薦 v.s 搜尋引擎的差異 & 計算技術介紹

身為內容行銷人員或網站經營者,你是否發現:同樣一段內容,在 Google 搜尋排名明明很好,但在 ChatGPT 或 Perplexity 引用卻完全找不到?這背後的關鍵在於——混合式搜尋評分 (RRF) 正在改變搜尋的遊戲規則,AI 助理與搜尋引擎其實已經成為兩套截然不同的「內容推薦系統」。

本文將介紹搜尋引擎與 AI 助理在資料檢索上的邏輯差異、RRF 技術的運作原理,以及如何透過行銷角度解讀這些變化,優化內容策略,讓品牌在未來的「雙重曝光」中搶得先機。

 

傳統搜尋 vs AI 推薦:從關鍵字比對到語意比對

語意 vs 字詞:AI 助理不是在找「字」,而是在猜「意思」

搜尋引擎(如 Google)是以「關鍵字」作為主要檢索依據,背後技術如 BM25,就是在比對文字中關鍵詞出現的頻率與匹配度。這種檢索方式擅長處理精確的查詢,但難以理解語境或同義詞。

相對地,AI 助理(如 ChatGPT、Perplexity)則是基於語意檢索,它們使用「向量嵌入(Embeddings)」來理解概念與上下文——不是找一模一樣的字,而是判斷「這段內容跟你在說的話有沒有意義上的關聯」。

傳統搜尋 v.s AI:檢索層面差異 – BM25 vs 向量檢索

BM25:傳統詞彙檢索(Lexical Retrieval)

  • 核心原理:根據查詢詞與文件中詞頻的匹配程度進行打分。
  • 常用於:Google Search、Elasticsearch、OpenSearch 傳統模組。
  • 詞頻高、文件短、詞稀有 → 排名高。

向量檢索(Semantic Retrieval using Embeddings)

  • 原理:將文本與查詢轉換成高維向量,計算兩者的距離或相似度。
  • 模型:OpenAI text-embedding-3-largebge-large-enE5Cohere Embed 等。
  • 常見距離指標:
    • Cosine similarity
    • Dot product
    • Euclidean distance (L2)
  • 向量檢索會捕捉語意相似,例如「buy car」≈「purchase vehicle」。

 傳統 SEO語意 SEO向量 SEO (GEO)
對象搜尋引擎爬蟲BERT / NLP 模型LLM / Embedding 模型
核心思維關鍵字匹配語義關聯向量相似度
技術重點Title、Meta、H1主題樹(Topic cluster)向量空間定位(Vector cluster)
寫作焦點排名內容理解被引用、被生成
成功指標SERP 頁面曝光搜尋意圖覆蓋AI Overview 收錄率、生成內容被引用率

這也意味著,相同的內容在 AI 助理與搜尋引擎的曝光表現可能天差地遠。舉例來說,當使用者搜尋:「AI 內容優化方法」:

傳統 SEO 寫手會放關鍵字:「AI 內容優化、AI SEO、AI 文案生成工具」;

但 LLM 會這樣想:「這篇文章的語意是否涵蓋了 AI 如何理解內容品質、語意結構、向量關聯?」因此更適合 LLM 的寫法應為:

「AI 模型會將文章轉成向量,在語意空間中評估其主題一致性與知識權威性。因此,內容優化的重點,不只是關鍵字密度,而是如何讓模型清楚辨識主題核心。」

 

混合式搜尋評分(RRF)是什麼?如何影響曝光排名?

現代搜尋引擎與 AI 系統,往往不是單用其中一種檢索技術,而是同時使用關鍵字檢索(BM25)與語意檢索(向量模型)。這兩份結果清單如何融合?就是透過「RRF(倒數秩融合)」公式:

RRF 公式分數 = 1 ÷ (k + 排名)(k 通常為 60)

同一篇文章如果在兩種檢索結果中都有出現,會加總分數,得分高者勝。

以下是 AI LLM(如 ChatGPT Search、Perplexity、Claude Search)採用的 RRF 流程範例:

Q [使用者查詢 Query]
-->A[Lexical Search (BM25)]
-->B[Semantic Search (Embedding Similarity)]
-->C[RRF Score Fusion]
-->D[結果排序 + Context 塊]
-->E[LLM 回答 + 引用來源]

LLM 並不直接搜尋網頁,而是依賴「Retrieval Layer」提供的前 N 筆結果。這層的結果融合邏輯(RRF)決定了 哪些文件被 LLM 看見、被引用。

混合檢索(Hybrid Search):RRF(Reciprocal Rank Fusion)

結合 BM25、向量檢索兩者的搜尋模式,使得結果兼具「關鍵字精準」與「語意理解」。若一份文件在多個模型中排名都高,則它的最終分數加總也高。

範例:

文件BM25 排名向量 排名最終分數 (k=10)
A131/(10+1)+1/(10+3)=0.1678
B211/(10+2)+1/(10+1)=0.1742
C320.1602

結果:B > A > C。B 兼顧兩種檢索的高分,因此最終名列前茅。

各主流引擎中的 Hybrid Search 實作

平台模組/功能官方文件
Azure AI SearchHybrid retrieval with BM25 + vector微軟雲原生混合檢索系統
ElasticSearch / OpenSearchReciprocal Rank Fusion (RRF) API8.11 之後支援混合排序
Vespa.aiHybrid Search TutorialYahoo/Oath 開源的分散式搜尋引擎
WeaviateHybrid Queries內建 BM25 + cosine similarity
Qdrant / Milvus可在 client-side 實作 RRF 加權融合需手動整合 keyword + vector 檢索

行銷人員如何觀察與應對?非工程師也能用的 RRF 3 指標

雖然行銷人員無法看到 AI 助理或搜尋引擎的演算法細節,但可以透過「重疊率觀察法」來理解內容曝光狀況:

1. SVR(Shared Visibility Rate)

SVR 是指在相同查詢中,Google 搜尋結果與 AI 助理引用來源重複的比例。Google 與 AI 助理都引用你的內容,表示內容同時被兩邊信任。

SVR 越高,表示你的內容不僅符合關鍵字匹配邏輯,也具備 AI 助理「語意上的信任」,是雙重標準下的「強內容」。這代表你製作的內容在結構與語意層面上都表現優秀。

舉例而言,若針對某關鍵字查詢,Google 前 10 名網站中有 3 個網域與 AI 助理的引用來源重複,那麼 SVR 就是 0.3。

要有好的 SVR,建議保持內容更新頻率、加強標題層級與語意明確性,讓內容在兩大系統中維持曝光。

2. UAVR(Unique Assistant Visibility Rate)

UAVR 是獲得 AI 助理引用的來源中,未出現在 Google 搜尋結果前 10 名的比例。

UAVR 高表示 AI 助理有「自己的偏好」,它發現了 Google 還沒列入的內容。這代表 AI 模型是根據語意與上下文的判斷,而非字面關鍵字來挑選資料來源。

舉例:AI 助理引用 6 個來源,其中只有 2 個也在 Google Top 10,UAVR 就是 (6-2)/6 = 0.67。

除了關鍵字語意內容,AI 也偏好結構化的資訊。可以在文章中放入條列式摘要、FAQ、HowTo 內容、白皮書格式等,提升語意辨識率。

3. RCC(Recurrent Citation Count)

RCC 是指相同網域在多個不同查詢中,被 AI 助理反覆引用的次數比例。可以視為對網域的品質信任度。RCC 高的品牌,代表在 AI 模型的語意世界中具有穩定可信度。即使查詢不同,只要是相關主題,AI 仍選擇引用你。

舉例而言,10 個不同的產品查詢中,有 4 次都出現你的網域,被 ChatGPT、Perplexity 反覆引用,RCC 就是 0.4。

建議操作策略:打造主題式內容集群(Content Cluster),讓網站中的知識結構完整一致,增加「語意指紋」,提升 AI 模型對你網站的整體信任感。

如何優化內容,讓 AI 與搜尋引擎都推薦?

目標優化方法適用平台
提升關鍵字命中強化 H 標題層級、明確使用關鍵字Google 搜尋引擎
增加語意信任條列摘要、FAQ、HowTo 結構化資料AI 助理
強化穩定引用固定作者名、加時間戳、規範網址向量模型
提供信任內容白皮書、PDF、規格書等高格式內容AI 助理優先引用

FAQ:關於混合式搜尋評分(RRF)你可能想問的

混合式搜尋評分(RRF)和 SEO 有什麼關係?

RRF 是目前 AI 助理與進階搜尋平台用來排序內容的方式之一。對於 SEO 來說,代表我們不再只優化關鍵字,也要讓內容「語意清晰、邏輯完整」,讓 AI 看得懂。

怎麼知道 AI 助理有沒有引用我的內容?

可觀察 Perplexity、ChatGPT Search 等 AI 搜尋結果中是否引用你的網域,或使用上文的 SVR、UAVR、RCC 指標自製報表追蹤。

如何讓品牌內容在 AI 與搜尋引擎中雙重曝光?

若你是內容經營者、SEO 優化人員或品牌主,現在就是升級內容結構的時機:

  • 檢查標題與段落層級,確保 H2/H3 明確定義主題
  • 增加條列摘要、QA、HowTo 類型內容,幫助 AI 準確解析
  • 提供結構化文件或高格式檔案,增強模型引用穩定度

想讓品牌內容不只排上第一頁,還能成為 AI 助理眼中的信任來源嗎?

現在就開始優化你的內容架構、語意設計與引用格式,掌握混合式搜尋評分(RRF) 的脈絡,讓你在未來的搜尋世界中立於不敗之地。

 

2025 年 SEO 行銷該如規劃?歡迎與我們諮詢!現在聯絡我們並提供上限 5 個競爭者對手網站,限時免費贈送「競爭者 SEO 表現分析」報告一份,輕鬆掌握對手 SEO 動態 & 差距!

了解最新 SEO 行銷解決方案:【新世代 AI SEO x 數位品牌優化】計畫

Contact Form Demo

延伸:RRF 如何測試(Python 範例)?

若想在內部驗證品牌內容在「AI 助理 vs Google 搜尋」的重疊,可參考文中計算框架。

指標定義

符號定義計算公式
I交集數(重疊的 URL/domain)count(Google ∩ Assistant)
N助理引用但 Google 未列出的Assistant_total − I
F特定 domain 出現頻率across 10 queries
SVRShared Visibility RateI ÷ 10
UAVRUnique Assistant Visibility RateN ÷ Assistant_total
RCCRecurrent Citation CountΣF ÷ queries_count

範例:

Google Top10 URLs: 10
Assistant citations: 6
Overlap: 3
.com domain appeared 4 times

SVR = 3/10 = 0.30
UAVR = (6-3)/6 = 0.50
RCC = 4/10 = 0.40

模擬 RRF 實作(Python 範例)

def rrf_score(rank_lists, k=60):
    """
    rank_lists: list of dicts, each {doc_id: rank_position}
    return: dict of {doc_id: combined_score}
    """
    from collections import defaultdict
    scores = defaultdict(float)
    for ranks in rank_lists:
        for doc, r in ranks.items():
            scores[doc] += 1 / (k + r)
    return dict(sorted(scores.items(), key=lambda x: x[1], reverse=True))

# Example
bm25 = {'A': 1, 'B': 2, 'C': 3}
vector = {'A': 3, 'B': 1, 'C': 2}
print(rrf_score([bm25, vector], k=10))

輸出:

{'B': 0.1742, 'A': 0.1678, 'C': 0.1602}

RRF 對資料科學家與搜尋工程師的啟示

  • 混合檢索不是排序最佳化(ranking optimization),而是信任校正(consensus calibration)。
  • RRF 可視為多模態資訊整合的 baseline ensemble。
  • 在多源檢索架構中,可延伸為:
    • 加入 meta-weighting(根據模型信任度調整權重);
    • 使用 learning-to-rank 模型(例如 LambdaMART、RankNet);
    • 評估指標可採用 NDCG、MAP、Jaccard overlap

延伸閱讀與官方技術文件

主題文件連結
BM25 原理https://en.wikipedia.org/wiki/Okapi_BM25
向量嵌入基礎https://platform.openai.com/docs/guides/embeddings
Reciprocal Rank Fusion (RRF)https://trec.nist.gov/pubs/trec21/papers/UniversityofWaterloo-RankFusion.pdf
Hybrid Search in Azurehttps://learn.microsoft.com/en-us/azure/search/hybrid-search-overview
Vespa Hybrid Rankinghttps://docs.vespa.ai/en/hybrid-ranking.html
OpenSearch Hybrid Searchhttps://opensearch.org/docs/latest/search-plugins/knn/reciprocal-rank-fusion/
Perplexity 檢索架構解析https://www.perplexity.ai/hub/articles/how-perplexity-search-works
返回頂端