1、爬蟲:從互聯(lián)網爬取原始網頁數(shù)據(jù),存儲于文檔知識庫服務器。
2、文檔知識庫服務器:存儲原始網頁數(shù)據(jù),通常是分布式Key-Value數(shù)據(jù)庫,能根據(jù)URL/UID快速獲取網頁內容。
3、索引:讀取原始網頁數(shù)據(jù),解析網頁,抽取有效字段,生成索引數(shù)據(jù)。索引數(shù)據(jù)的生成方式通常是增量的,分塊/分片的,并會進行索引合并、優(yōu)化和刪除。生成的索引數(shù)據(jù)通常包括:字典數(shù)據(jù)、倒排表、正排表、文檔屬性等。生成的索引存儲于索引服務器。
4、索引服務器:存儲索引數(shù)據(jù),主要是倒排表,通常是分塊、分片存儲,并支持增量更新和刪除。數(shù)據(jù)內容量非常大時,還根據(jù)類別、主題、時間、網頁質量劃分數(shù)據(jù)分區(qū)和分布,更好地服務在線查詢。
5、檢索:讀取倒排表索引,響應前端查詢請求,返回相關文檔列表數(shù)據(jù)。
6、排序:對檢索器返回的文檔列表進行排序,基于文檔和查詢的相關性、文檔的鏈接權重等屬性。
7、鏈接分析:收集各網頁的鏈接數(shù)據(jù)和錨文本(Anchor Text),以此計算各網頁鏈接評分,最終會作為網頁屬性參與返回結果排序。
8、網頁去重:提取各網頁的相關特征屬性,計算相似網頁組,提供離線索引和在線查詢的去重服務。
9、網頁反垃圾:收集各網頁和網站歷史信息,提取垃圾網頁特征,從而對在線索引中的網頁進行判定,去除垃圾網頁。
10、查詢分析:分析用戶查詢,生成結構化查詢請求,指派到相應的類別、主題數(shù)據(jù)服務器進行查詢。
11、頁面描述/摘要:為檢索和排序完成的網頁列表提供相應的描述和摘要。
12、前端:接受用戶請求,分發(fā)至相應服務器,返回查詢結果。