News
您的位置:
以下摘自《雲原生能力成熟度(dù)模型 第2部分:業務應用》:--雲原生:雲原生是麵向雲(yún)應用設計的(de)一種思想理念,充分發揮雲效能的最(zuì)佳實踐路徑,幫助企業(yè)構建彈性可(kě)靠、鬆(sōng)耦合、易管理、可觀測的應用係統,提升交(jiāo)付效率,降(jiàng)低運維複(fù)雜度。--雲原生業務應用成熟度模型:從企業業務應用基礎(chǔ)設(shè)施域、應用研發(fā)域以及服務治理域等三個(gè)能力域、二十個過程域綜合評估企業業務應用在彈性、高可用、自愈性、可觀測(cè)性以及(jí)自動化等五個維度的雲原生能力成(chéng)熟度水平。
建設背景:業務發展變(biàn)化快隨著移(yí)動互聯網進入5G時代,O2O、秒殺、團購、直播帶貨、新零售等新商業模式不斷湧現,運營商市(shì)場也從傳統的個人(rén)家庭用戶(hù)拓展到政企用戶多樣性(xìng)的(de)業務中,傳(chuán)統業務和新型業務間的融合將(jiāng)更加緊密,訂單模式提(tí)出新的支撐要求(qiú)。這(zhè)種創新融合發(fā)展的趨(qū)勢(shì),對運營商的訂單服務帶來了新的挑戰:隨著(zhe)政企等新興業務的拓展,訂單量增長迅速,原有應用+數據庫的架構麵臨著很大的壓力,一(yī)方麵,煙囪式的應用難以快速橫向擴展,另外一方麵,需要引入新的數(shù)據(jù)組件緩衝數據庫(kù)壓力。秒殺、直播帶貨等新(xīn)興業務(wù)帶來訂單量(liàng)在短時(shí)間內的突增,如何應對短時間(jiān)內的高峰對主機(jī)資源的要求又(yòu)能盡量降低擴容成本?需要(yào)考慮在係統過載的情況下能對(duì)自身的服務和外部的請求都進行取舍,保障核心服務的穩定性,實現係統的韌性。為了搶占(zhàn)新市場,需求交付周期越來越短,版本上線愈發頻(pín)繁(fán),傳統的(de)手工作坊式的(de)研發交付模式已經不能滿足業務(wù)交付要求了,需要在DevOps理念下引入研發效能工具體係。訂單中心係統(tǒng)日(rì)益(yì)龐大,涉及到複雜的(de)技術組件(jiàn)和架構,特別在麵向政企業務支撐過程中,非標準、長流程及(jí)多係統協同的場景非常普遍,一旦(dàn)訂單中心自身或(huò)周邊係統異常,出現各種組件的連鎖反應,產生大量的告警,如何(hé)快速定位問題根因(yīn),如何實現係統自愈、實現業務層麵無感知,如何以可視化的方式立體化呈(chéng)現整(zhěng)個係統(tǒng)、實現(xiàn)數字孿(luán)生。問題解決之道:擁抱雲原生為了(le)解(jiě)決以上難題,国产亚洲熟妇在线视频科技訂單中(zhōng)心產品圍繞全麵雲化、微服務、DevOps、智能運維,通過技術(shù)發展驅動IT支撐係統為業務提供創新價值(zhí),從四個方麵全麵實現雲原生架構:全麵雲化:應用完成容器化(huà)改造,基於雲原(yuán)生PaaS平(píng)台,適配磐基底(dǐ)座(zuò),使用雲原生的技(jì)術組件。微服務:領域驅動設計指導微服(fú)務改造,訂單中心(xīn)拆分成若幹個微服務線,構建“管、診、治”微服務治理體係,提供可視化服(fú)務編排能力。DevOps:構建研運一體化的工具(jù)體係,實現訂單中心的敏捷(jié)研發、快速交(jiāo)付、縮短迭代周期,快速響應客戶(hù)需(xū)求。智能運維:實現多維監控與告警,業務與係統的監控聯動和統一展示(shì),支撐(chēng)故障的快速定位(wèi)與恢複,實現常態化故障攻防演(yǎn)練。雲原生總體架構構(gòu)建研運(yùn)一體化的工具(jù)實現敏捷研發(fā)、快速迭代。通過訂單中心(xīn)的微服(fú)務拆(chāi)分和雲原生架構及灰度發布機製,實現升級或故障不影響業務,通過多維監控(kòng)快速發現問題,通(tōng)過調用鏈快速定位問題,通過統一的(de)服務治理和自(zì)動化的(de)容器調度實現係統的彈性伸縮,確保(bǎo)訂單中心7*24小(xiǎo)時高可用。訂單中心自底向上可分為基礎設施(shī)層、數據(jù)層、應(yīng)用服務端、應用客戶端,還有統一監控運維中心:基礎設施層:訂(dìng)單中心運行於虛擬化(huà)的基礎設施上,平台PaaS組件運行在虛擬機上,業務應用運行在容器上。數據層:訂單中心大量(liàng)采用雲原生PaaS組(zǔ)件,包括redis、MQ、ElasticSearch等(děng),降低數據庫壓力的同時保(bǎo)證數據(jù)層的高(gāo)可用。應用(yòng)服務端(duān):基於微服務(wù)化構建了多(duō)條微服務線,通過構建訂單中(zhōng)心的微服務網關實現多條微服(fú)務線的統一服務治(zhì)理,確保訂單中心的高可用(yòng)。應用客戶端:多渠道(dào)多類(lèi)型的客戶端訪問請求(qiú),先通過Nginx再進入訂單中心。訂單中心內部部署了生產中心、灰度中心和災備中心,Nginx主要用於多中心之間的切換。統一監(jiān)控(kòng)運維(wéi):構建研運一體化工具(jù)實現敏捷研發、快速迭代,通過統一日誌和運維監控實現業務和係統的多維統一監控和展示(shì),通過(guò)調用鏈實現問題的快速定位。雲原(yuán)生(shēng)應(yīng)用實踐雲(yún)原生實踐 1雲(yún)原(yuán)生PAAS平台底層PaaS平台都使用雲原生組(zǔ)件,如Redis、MQ、ES等,確保底層PaaS組件的高可用。使用Redis緩(huǎn)存配(pèi)置數據和熱點實例數據。訂單(dān)首次(cì)查(chá)詢時將物理庫查詢結果加載到緩(huǎn)存中(zhōng),在途訂單存入熱點(diǎn)緩存集群,竣工存入普(pǔ)通緩存集群,後續訂(dìng)單查詢先從緩(huǎn)存查(chá)詢,通過這(zhè)種方式(shì)可以大大減少數據庫的訪問壓力。將訂(dìng)單及其擴展信息中強搜索需求的(de)索引(yǐn)字段同步到ElasticSearch後,就可以將查詢服務單獨剝離出(chū)來,從而在不影響(xiǎng)訂單流程運(yùn)轉的同時,提升訂(dìng)單查詢(xún)效率,訂單查詢性(xìng)能從(cóng)600筆/s提升到3000筆/s。使(shǐ)用MQ做訂單收單,通過消息服務實現(xiàn)削(xuē)峰填穀,提升訂單(dān)收(shōu)單效(xiào)率;利用MQ實現異步接口日誌消費;通過消息服務實現(xiàn)訂單多中心之(zhī)間的緩存同步。雲原生實踐 2微服務化按照領(lǐng)域驅動設計(DDD)方法論,訂單中心按照(zhào)業(yè)務領域(yù)拆分成(chéng)鬆耦合的若幹(gàn)微服務線,各司其(qí)職,減少關聯影響,縮短迭(dié)代周期(qī)。數據庫也做相應拆分,減少故障的影響麵。如下(xià)圖(tú)所示,訂單中心拆分成集團號卡、省內號(hào)卡、寬帶、集客、電子協議、調(diào)度等微服務線,每(měi)條微服務(wù)線都有自己(jǐ)的數據庫,從而實現了微服務線之間的應用隔離和數據隔離,可(kě)按需靈(líng)活擴展。雲原生實踐 3微服務治(zhì)理訂單中心使用微服務網關實現服務治理,使用Spring Cloud Gateway框架,再加上認證服務和微服務管控平台(tái)SCP(Sentinel)的配套(tào),實現訂單中心多條微服(fú)務線統一(yī)的安全鑒權、業務分流(liú)、服務跟蹤、監控診斷、限流、熔斷、降級等服務治理能力,使用策略配置實現自動化的流量管理,實現服務的可管理、可觀測和自動化運維。微服務治理(lǐ)關鍵能力:服(fú)務熔斷:訂單中心的服務(wù)可以配置,當其下遊服務單(dān)位(wèi)時間內調用(yòng)失敗次數達到閥值時,防止整個係統出現連鎖反應甚(shèn)至雪崩,暫時停止對該(gāi)服務的調用。服務限流:當入口請求 QPS 超過服(fú)務配置的閥值時,如瞬時(shí)出現高並發訂單查詢請求時,訂單(dān)查詢服務可以配置對某些渠道的查詢請求進行限製,以保證本服務不被壓垮。服務降級:如(rú)上圖所示,當訂單中心的服務壓力達到一(yī)定程度(dù)時,訂單中心配置了服(fú)務降級策略,對容忍度高的(de)服(fú)務進行降級(jí),如對(duì)查詢服(fú)務降級,以保證訂單創建服務等核心服務的穩定性。雲原(yuán)生實(shí)踐 4研運一體化引入DevOps研運一體化工具,實現(xiàn)需求管(guǎn)理、迭代計劃、源代碼管控、源代(dài)碼編譯打(dǎ)包、靜態檢(jiǎn)測、生成鏡像、自(zì)動化測試、持續發布部署、全棧監控、自動化運維的研發運維全流水線的(de)工(gōng)具支撐,實現業務係統的敏捷研發、快速發布上線、縮短迭代周期,快(kuài)速響應客(kè)戶需求。雲原生實踐 5多活/灰度切換訂單中心版本上生(shēng)產前首先要在灰度中心完成驗證。版本在灰度中心發布後,調整路由策略,切換一部分業務流量(liàng)到灰度中心上,運行2天驗證(zhèng)沒問題(tí)後再正(zhèng)式發布(bù)到(dào)生(shēng)產中心。多活/灰度切換關鍵能力:灰度路由(yóu)切換:新(xīn)版本在灰度中心發布後,調整路(lù)由策略,切換一部分業務流量到灰度中心上,運行(háng)2天驗證沒問題後才正式發布到南京中心(xīn)。多中心緩存同步:灰度發布期間,兩個中心(xīn)間的緩存數據需要同步,通過MQ相互通知機(jī)製把變動數(shù)據加載(zǎi)到各中心緩存,並通過數據庫日誌、消息監(jiān)控(kòng)等額外手段保證多中心緩(huǎn)存同步的正確性和一致性,實現了生產(chǎn)中心和灰度中心的無縫切換。數據層版本控製:數(shù)據庫表中(zhōng)都有版本號字段,可以識別新舊版本(běn)涉及的數據,可用於問題定位和版本回退,實(shí)現了(le)數據層的灰度發布。雲原生實踐 6多維監控和運維通過係統監控、日誌的統一采集分析,實現係統多維(wéi)監控的可視化和(hé)自動告警。通過調用鏈快速定位問題。可根據資源和業務(wù)指(zhǐ)標或故障情況自動觸發應用容器的彈性伸縮,確保業務7*24小時不間斷運行。多維監控運維關鍵能力:通過統(tǒng)一日誌(zhì)采集實現日誌監控及調用鏈輸(shū)出,通過調用鏈快速定位問題(tí)。具備業務和係統的綜合監控展示分析,實現(xiàn)業務和係統的監控聯動,便於快速定位異常原因。支持告警的閉環管理:支持告警的歸集、通知相關責任人、告警超時提醒、問題處理和記錄、告警恢複確認、告警關閉。運維人員通過體係化的運維(wéi)工具,可在5分鍾內快速找(zhǎo)到問題根(gēn)因並處理之,極大縮減整體故障修複所需時間。雲原生(shēng)實踐 7常態化的故障注入訂單中心係統日益龐大,升級(jí)或潛在故障難以(yǐ)評估影響。通過常態化的主動故障注入,驗證係統架構的(de)容錯能力,提前發現(xiàn)潛在問題,迭代(dài)改進架構和運維方式,最終實現業務韌性。訂單中心解決方案:模擬(nǐ)訂單中心突發高並發訂購或(huò)查詢和偶(ǒu)發性的故障(zhàng),定製了以下(xià)故障演練方案:(以下(xià)舉(jǔ)例的為常見演練場景)CPU滿載:場景說明:模擬部(bù)分節點cpu滿載,導致cpu平均(jun1)使用(yòng)率保持高水位演練效果:係統監控到cpu負載高後,自動水平擴容節點,直到cpu負載保持正常(cháng)水平服(fú)務延遲:場景說明:模擬部分節點的服務延遲,導(dǎo)致服務(wù)整體時延偏高演練效(xiào)果:係統自動水平擴容節點,直到時延回落到正(zhèng)常(cháng)水平Pod終止:場景說(shuō)明:模擬部分節點因故障導(dǎo)致服務終止,實際停掉部(bù)分節(jiē)點演練效果:係統發現部分節點停機(jī),自動拉起新的Pod節點雲原生(shēng)建設帶來的價值1、通過引入DevOps,實(shí)現訂單係統的敏捷研發、快速發布上線、縮短迭代周期,快(kuài)速響應客戶需求(qiú)。實現業務係統的敏(mǐn)捷研發,特別是政企長流程多樣化業務的快(kuài)速支撐,需求平均上線周(zhōu)期(qī)縮短50%。通過在線灰度發布實現版本的提前驗證(zhèng),實(shí)現了生產和灰度的無縫(féng)切換。通過實(shí)現版本的快速發(fā)布上線、縮短迭代周期,一周上線一個版(bǎn)本。每月研發產能增加50%。2、雲原生(shēng)技術實現高性能的同時降低了數據庫壓力,通過redis緩存配置數據和熱點實例數據,通過(guò)使用ES實現訂(dìng)單查詢的提速,通(tōng)過使用MQ提升(shēng)訂單收單效率、實現多中心緩存同步。訂(dìng)單創建性能提升到5萬(wàn)筆/分鍾。訂單查詢性能(néng)提升到3000筆/秒。3、滿足秒殺、直播等新興業務及政企業務2C化麵臨的訂單量高峰突增的要求,確保(bǎo)訂單中心實(shí)時高(gāo)可用。訂單中心具備負載均衡能力,包括過載的水平擴縮容能力,保證應用自身可靠(kào)性(xìng)。實現故障隔離和恢複(fù):應(yīng)對故障,通過主動控製渠道接入點,將交易接入到正常運行的接(jiē)入點,實現故障(zhàng)的完全隔離。通(tōng)過故障點的自動重啟和擴縮容實現故障的恢複。在係統壓力達到一定程度時(shí),能有效實現限流和高危熔斷/降級處理。4、實現多層次立體化的監控和可視化展示(shì),通過(guò)業務和係統監控的聯動提高運(yùn)維效率,通過調用鏈快速定位問(wèn)題,支持告警(jǐng)的閉環管理,可根據資源和業務指標或故障情況自動觸發應用容器的彈性伸縮,實現了係統的(de)可觀測性和自動化運維。如感(gǎn)興(xìng)趣,歡迎(yíng)掃碼留言谘(zī)詢
建設背景:業務發展變(biàn)化快
隨著(zhe)政企等新興業務的拓展,訂單量增長迅速,原有應用+數據庫的架構麵臨著很大的壓力,一(yī)方麵,煙囪式的應用難以快速橫向擴展,另外一方麵,需要引入新的數(shù)據(jù)組件緩衝數據庫(kù)壓力。
秒殺、直播帶貨等新(xīn)興業務(wù)帶來訂單量(liàng)在短時(shí)間內的突增,如何應對短時間(jiān)內的高峰對主機(jī)資源的要求又(yòu)能盡量降低擴容成本?需要(yào)考慮在係統過載的情況下能對(duì)自身的服務和外部的請求都進行取舍,保障核心服務的穩定性,實現係統的韌性。
為了搶占(zhàn)新市場,需求交付周期越來越短,版本上線愈發頻(pín)繁(fán),傳統的(de)手工作坊式的(de)研發交付模式已經不能滿足業務(wù)交付要求了,需要在DevOps理念下引入研發效能工具體係。
訂單中心係統(tǒng)日(rì)益(yì)龐大,涉及到複雜的(de)技術組件(jiàn)和架構,特別在麵向政企業務支撐過程中,非標準、長流程及(jí)多係統協同的場景非常普遍,一旦(dàn)訂單中心自身或(huò)周邊係統異常,出現各種組件的連鎖反應,產生大量的告警,如何(hé)快速定位問題根因(yīn),如何實現係統自愈、實現業務層麵無感知,如何以可視化的方式立體化呈(chéng)現整(zhěng)個係統(tǒng)、實現(xiàn)數字孿(luán)生。
問題解決之道:擁抱雲原生
全麵雲化:
應用完成容器化(huà)改造,基於雲原(yuán)生PaaS平(píng)台,適配磐基底(dǐ)座(zuò),使用雲原生的技(jì)術組件。
微服務:
領域驅動設計指導微服(fú)務改造,訂單中心(xīn)拆分成若幹個微服務線,構建“管、診、治”微服務治理體係,提供可視化服(fú)務編排能力。
DevOps:
構建研運一體化的工具(jù)體係,實現訂單中心的敏捷(jié)研發、快速交(jiāo)付、縮短迭代周期,快速響應客戶(hù)需(xū)求。
智能運維:
實現多維監控與告警,業務與係統的監控聯動和統一展示(shì),支撐(chēng)故障的快速定位(wèi)與恢複,實現常態化故障攻防演(yǎn)練。
雲原生總體架構
基礎設施層:訂(dìng)單中心運行於虛擬化(huà)的基礎設施上,平台PaaS組件運行在虛擬機上,業務應用運行在容器上。
數據層:訂單中心大量(liàng)采用雲原生PaaS組(zǔ)件,包括redis、MQ、ElasticSearch等(děng),降低數據庫壓力的同時保(bǎo)證數據(jù)層的高(gāo)可用。
應用(yòng)服務端(duān):基於微服務(wù)化構建了多(duō)條微服務線,通過構建訂單中(zhōng)心的微服務網關實現多條微服(fú)務線的統一服務治(zhì)理,確保訂單中心的高可用(yòng)。
應用客戶端:多渠道(dào)多類(lèi)型的客戶端訪問請求(qiú),先通過Nginx再進入訂單中心。訂單中心內部部署了生產中心、灰度中心和災備中心,Nginx主要用於多中心之間的切換。
統一監(jiān)控(kòng)運維(wéi):構建研運一體化工具(jù)實現敏捷研發、快速迭代,通過統一日誌和運維監控實現業務和係統的多維統一監控和展示(shì),通過(guò)調用鏈實現問題的快速定位。
雲原(yuán)生(shēng)應(yīng)用實踐
服(fú)務熔斷:訂單中心的服務(wù)可以配置,當其下遊服務單(dān)位(wèi)時間內調用(yòng)失敗次數達到閥值時,防止整個係統出現連鎖反應甚(shèn)至雪崩,暫時停止對該(gāi)服務的調用。
服務限流:當入口請求 QPS 超過服(fú)務配置的閥值時,如瞬時(shí)出現高並發訂單查詢請求時,訂單(dān)查詢服務可以配置對某些渠道的查詢請求進行限製,以保證本服務不被壓垮。
服務降級:如(rú)上圖所示,當訂單中心的服務壓力達到一(yī)定程度(dù)時,訂單中心配置了服(fú)務降級策略,對容忍度高的(de)服(fú)務進行降級(jí),如對(duì)查詢服(fú)務降級,以保證訂單創建服務等核心服務的穩定性。
灰度路由(yóu)切換:新(xīn)版本在灰度中心發布後,調整路(lù)由策略,切換一部分業務流量到灰度中心上,運行(háng)2天驗證沒問題後才正式發布到南京中心(xīn)。
多中心緩存同步:灰度發布期間,兩個中心(xīn)間的緩存數據需要同步,通過MQ相互通知機(jī)製把變動數(shù)據加載(zǎi)到各中心緩存,並通過數據庫日誌、消息監(jiān)控(kòng)等額外手段保證多中心緩(huǎn)存同步的正確性和一致性,實現了生產(chǎn)中心和灰度中心的無縫切換。
數據層版本控製:數(shù)據庫表中(zhōng)都有版本號字段,可以識別新舊版本(běn)涉及的數據,可用於問題定位和版本回退,實(shí)現了(le)數據層的灰度發布。
通過統(tǒng)一日誌(zhì)采集實現日誌監控及調用鏈輸(shū)出,通過調用鏈快速定位問題(tí)。
具備業務和係統的綜合監控展示分析,實現(xiàn)業務和係統的監控聯動,便於快速定位異常原因。
支持告警的閉環管理:支持告警的歸集、通知相關責任人、告警超時提醒、問題處理和記錄、告警恢複確認、告警關閉。
運維人員通過體係化的運維(wéi)工具,可在5分鍾內快速找(zhǎo)到問題根(gēn)因並處理之,極大縮減整體故障修複所需時間。
場景說明:模擬部(bù)分節點cpu滿載,導致cpu平均(jun1)使用(yòng)率保持高水位
演練效果:係統監控到cpu負載高後,自動水平擴容節點,直到cpu負載保持正常(cháng)水平
場景說明:模擬部分節點的服務延遲,導(dǎo)致服務(wù)整體時延偏高
演練效(xiào)果:係統自動水平擴容節點,直到時延回落到正(zhèng)常(cháng)水平
場景說(shuō)明:模擬部分節點因故障導(dǎo)致服務終止,實際停掉部(bù)分節(jiē)點
演練效果:係統發現部分節點停機(jī),自動拉起新的Pod節點
雲原生(shēng)建設帶來的價值
實現業務係統的敏(mǐn)捷研發,特別是政企長流程多樣化業務的快(kuài)速支撐,需求平均上線周(zhōu)期(qī)縮短50%。
通過在線灰度發布實現版本的提前驗證(zhèng),實(shí)現了生產和灰度的無縫(féng)切換。
通過實(shí)現版本的快速發(fā)布上線、縮短迭代周期,一周上線一個版(bǎn)本。
每月研發產能增加50%。
訂(dìng)單創建性能提升到5萬(wàn)筆/分鍾。
訂單查詢性能(néng)提升到3000筆/秒。
訂單中心具備負載均衡能力,包括過載的水平擴縮容能力,保證應用自身可靠(kào)性(xìng)。
實現故障隔離和恢複(fù):應(yīng)對故障,通過主動控製渠道接入點,將交易接入到正常運行的接(jiē)入點,實現故障(zhàng)的完全隔離。通(tōng)過故障點的自動重啟和擴縮容實現故障的恢複。
在係統壓力達到一定程度時(shí),能有效實現限流和高危熔斷/降級處理。
国产亚洲熟妇在线视频雲計算科技股份有限公(gōng)司 版權所有 2003-2023
蘇ICP備10224443號-6 蘇公網安備 32011402011374號