中文字幕日韩精品一区二区免费_精品一区二区三区国产精品无卡在_国精品无码专区一区二区三区_国产αv三级中文在线

成都網(wǎng)站建設(shè)哪家技術(shù)知名

2022-11-01    分類: 網(wǎng)站建設(shè)

網(wǎng)站建設(shè)- 建站教程 - 網(wǎng)頁設(shè)計- 成都網(wǎng)站建設(shè)哪家技術(shù)知名
通過接觸有關(guān)海量數(shù)據(jù)處理和搜索引擎的諸多技術(shù),常常見識到不少精妙絕倫的架構(gòu)圖。除了每每感嘆于每幅圖表面上的繪制的精細之外,更為架構(gòu)圖背后所隱藏的設(shè)計思想所嘆服。個人這兩天一直在搜集各大型網(wǎng)站的架構(gòu)設(shè)計圖,一為了一飽眼福,領(lǐng)略各類大型網(wǎng)站架構(gòu)設(shè)計的精彩之外,二來也可供閑時反復(fù)琢磨體會,何樂而不為呢?特此,總結(jié)整理了諸如國外wikipedia,F(xiàn)acebook,Yahoo!,YouTube,MySpace,Twitter,國內(nèi)如優(yōu)酷網(wǎng)等大型網(wǎng)站的技術(shù)架構(gòu)(本文重點分析優(yōu)酷網(wǎng)的技術(shù)架構(gòu)),以饗讀者。
本文著重凸顯每一幅圖的精彩之處與其背后含義,而圖的說明性文字則從簡從略。ok,好好享受此番架構(gòu)盛宴吧。當(dāng)然,若有任何建議或問題,歡迎不吝指正。謝謝。
1、WikiPedia 技術(shù)架構(gòu)
WikiPedia 技術(shù)架構(gòu)圖Copy @Mark Bergsma 來自wikipedia的數(shù)據(jù):峰值每秒鐘3萬個 HTTP 請求 每秒鐘 3Gbit流量, 近乎375MB350 臺 PC 服務(wù)器。 GeoDNSA :40-line patch for BIND to add geographical filters support to the existent views in BIND", 把用戶帶到近的服務(wù)器。GeoDNS 在 WikiPedia 架構(gòu)中擔(dān)當(dāng)重任當(dāng)然是由 WikiPedia 的內(nèi)容性質(zhì)決定的--面向各個國家,各個地域。 負載均衡:LVS,請看下圖: 。 2、Facebook 架構(gòu)
Facebook 搜索功能的架構(gòu)示意圖細心的讀者一定能發(fā)現(xiàn),上副架構(gòu)圖之前出現(xiàn)在此文之中:從幾幅架構(gòu)圖中偷得半點海里數(shù)據(jù)處理經(jīng)驗。本文與前文大的不同是,前文只有幾幅,此文系列將有上百幅架構(gòu)圖,任您盡情觀賞。
3、Yahoo! Mail 架構(gòu)
Yahoo! Mail 架構(gòu)Yahoo! Mail 架構(gòu)部署了 Oracle RAC,用來存儲 Mail 服務(wù)相關(guān)的 Meta 數(shù)據(jù)。
4、twitter技術(shù)架構(gòu)
twitter的整體架構(gòu)設(shè)計圖twitter平臺大致由twitter.com、手機以及第三方應(yīng)用構(gòu)成,如下圖所示(其中流量主要以手機和第三方為主要來源):
緩存在大型web項目中起到了舉足輕重的作用,畢竟數(shù)據(jù)越靠近CPU存取速度越快。下圖是twitter的緩存架構(gòu)圖:
關(guān)于緩存系統(tǒng),還可以看看下幅圖:
5、Google App Engine技術(shù)架構(gòu)
GAE的架構(gòu)圖簡單而言,上述GAE的架構(gòu)分為如圖所示的三個部分:前端,Datastore和服務(wù)群。
前端包括4個模塊:Front End,Static Files,App Server,App Master。 Datastore是基于BigTable技術(shù)的分布式數(shù)據(jù)庫,雖然其也可以被理解成為一個服務(wù),但是由于其是整個App Engine存儲持久化數(shù)據(jù)的地方,所以其是App Engine中一個非常核心的模塊。其具體細節(jié)將在下篇和大家討論。 整個服務(wù)群包括很多服務(wù)供App Server調(diào)用,比如Memcache,圖形,用戶,URL抓取和任務(wù)隊列等。 6、Amazon技術(shù)架構(gòu)
Amazon的Dynamo Key-Value存儲架構(gòu)圖可能有讀者并不熟悉Amazon,它現(xiàn)在已經(jīng)是全球商品品種多的網(wǎng)上零售商和全球第2大互聯(lián)網(wǎng)公司。而之前它僅僅是一個小小的網(wǎng)上書店。ok,下面,咱們來見識下它的架構(gòu)。
Dynamo是亞馬遜的key-value模式的存儲平臺,可用性和擴展性都很好,性能也不錯:讀寫訪問中99.9%的響應(yīng)時間都在300ms內(nèi)。按分布式系統(tǒng)常用的哈希算法切分數(shù)據(jù),分放在不同的node上。Read操作時,也是根據(jù)key的哈希值尋找對應(yīng)的node。Dynamo使用了 Consistent Hashing算法,node對應(yīng)的不再是一個確定的hash值,而是一個hash值范圍,key的hash值落在這個范圍內(nèi),則順時針沿ring找,碰到的個node即為所需。
Dynamo對Consistent Hashing算法的改進在于:它放在環(huán)上作為一個node的是一組機器(而不是memcached把一臺機器作為node),這一組機器是通過同步機制保證數(shù)據(jù)一致的。
下圖是分布式存儲系統(tǒng)的示意圖,讀者可觀摩之:
Amazon的云架構(gòu)圖如下:
Amazon的云架構(gòu)圖 7、優(yōu)酷網(wǎng)的技術(shù)架構(gòu)從一開始,優(yōu)酷網(wǎng)就自建了一套CMS來解決前端的頁面顯示,各個模塊之間分離得比較恰當(dāng),前端可擴展性很好,UI的分離,讓開發(fā)與維護變得十分簡單和靈活,下圖是優(yōu)酷前端的模塊調(diào)用關(guān)系:
這樣,就根據(jù)module、method及params來確定調(diào)用相對獨立的模塊,顯得非常簡潔。下圖是優(yōu)酷的前端局部架構(gòu)圖:
優(yōu)酷的數(shù)據(jù)庫架構(gòu)也是經(jīng)歷了許多波折,從一開始的單臺MySQL服務(wù)器(Just Running)到簡單的MySQL主從復(fù)制、SSD優(yōu)化、垂直分庫、水平sharding分庫。
簡單的MySQL主從復(fù)制。
MySQL的主從復(fù)制解決了數(shù)據(jù)庫的讀寫分離,并很好的提升了讀的性能,其原來圖如下:
其主從復(fù)制的過程如下圖所示:
但是,主從復(fù)制也帶來其他一系列性能瓶頸問題: 寫入無法擴展 寫入無法緩存 復(fù)制延時 鎖表率上升 表變大,緩存率下降 那問題產(chǎn)生總得解決的,這就產(chǎn)生下面的優(yōu)化方案。 MySQL垂直分區(qū)
如果把業(yè)務(wù)切割得足夠獨立,那把不同業(yè)務(wù)的數(shù)據(jù)放到不同的數(shù)據(jù)庫服務(wù)器將是一個不錯的方案,而且萬一其中一個業(yè)務(wù)崩潰了也不會影響其他業(yè)務(wù)的正常進行,并且也起到了負載分流的作用,大大提升了數(shù)據(jù)庫的吞吐能力。經(jīng)過垂直分區(qū)后的數(shù)據(jù)庫架構(gòu)圖如下:
然而,盡管業(yè)務(wù)之間已經(jīng)足夠獨立了,但是有些業(yè)務(wù)之間或多或少總會有點聯(lián)系,如用戶,基本上都會和每個業(yè)務(wù)相關(guān)聯(lián),況且這種分區(qū)方式,也不能解決單張表數(shù)據(jù)量暴漲的問題,因此為何不試試水平sharding呢? MySQL水平分片(Sharding)
這是一個非常好的思路,將用戶按一定規(guī)則(按id哈希)分組,并把該組用戶的數(shù)據(jù)存儲到一個數(shù)據(jù)庫分片中,即一個sharding,這樣隨著用戶數(shù)量的增加,只要簡單地配置一臺服務(wù)器即可,原理圖如下:
如何來確定某個用戶所在的shard呢,可以建一張用戶和shard對應(yīng)的數(shù)據(jù)表,每次請求先從這張表找用戶的shard id,再從對應(yīng)shard中查詢相關(guān)數(shù)據(jù),如下圖所示:但是,優(yōu)酷是如何解決跨shard的查詢呢,這個是個難點,據(jù)介紹優(yōu)酷是盡量不跨shard查詢,實在不行通過多維分片索引、分布式搜索引擎,下策是分布式數(shù)據(jù)庫查詢(這個非常麻煩而且耗性能)。 緩存策略
貌似大的系統(tǒng)都對“緩存”情有獨鐘,從http緩存到memcached內(nèi)存數(shù)據(jù)緩存,但優(yōu)酷表示沒有用內(nèi)存緩存,理由如下: 避免內(nèi)存拷貝,避免內(nèi)存鎖 如接到老大哥通知要把某個視頻撤下來,如果在緩存里是比較麻煩的 而且Squid 的 write() 用戶進程空間有消耗,Lighttpd 1.5 的 AIO(異步I/O) 讀取文件到用戶內(nèi)存導(dǎo)致效率也比較低下。
但為何我們訪問優(yōu)酷會如此流暢,與土豆相比優(yōu)酷的視頻加載速度略勝一籌?這個要歸功于優(yōu)酷建立的比較完善的內(nèi)容分發(fā)網(wǎng)絡(luò)(CDN),它通過多種方式保證分布在全國各地的用戶進行就近訪問——用戶點擊視頻請求后,優(yōu)酷網(wǎng)將根據(jù)用戶所處地區(qū)位置,將離用戶近、服務(wù)狀況知名的視頻服務(wù)器地址傳送給用戶,從而保證用戶可以得到快速的視頻體驗。這就是CDN帶來的優(yōu)勢,就近訪問。

文章標(biāo)題:成都網(wǎng)站建設(shè)哪家技術(shù)知名
分享URL:http://www.rwnh.cn/news30/210130.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供移動網(wǎng)站建設(shè)商城網(wǎng)站、微信小程序Google、響應(yīng)式網(wǎng)站、微信公眾號

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都做網(wǎng)站
衡东县| 泗阳县| 高邮市| 五大连池市| 静宁县| 徐汇区| 施秉县| 宕昌县| 江华| 东宁县| 长宁县| 富川| 抚远县| 鄂州市| 如东县| 会东县| 新闻| 安庆市| 江华| 龙川县| 抚顺市| 台东市| 建瓯市| 义马市| 广宁县| 临西县| 龙口市| 双柏县| 安乡县| 织金县| 延川县| 方城县| 东阿县| 金昌市| 南部县| 团风县| 富源县| 无棣县| 长汀县| 榆中县| 玛多县|