經(jīng)理讓我復盤上次Redis緩存雪崩事故…
事故背景
公司最近安排了一波商品搶購活動,由于后臺小哥操作失誤最終導致活動效果差,被用戶和代理商投訴了。經(jīng)理讓我?guī)聜円黄饛捅P這次線上事故。
什么原因造成的?
搶購活動計劃是零點準時開始,
22:00 運營人員通過后臺將商品上線
23:00后臺小哥已經(jīng)將商品導入緩存中,提前預熱
搶購開始的瞬間流量非常大,按計劃是通過Redis承擔大部分用戶查詢請求,避免請求全部落在數(shù)據(jù)庫上。
如上圖預期大部分請求會命中緩存,但是由于后臺小哥預熱緩存的時候?qū)⑺猩唐返木彺鏁r間都設置為2小時過期,所有的商品在同一個時間點全部失效,瞬間所有的請求都落在數(shù)據(jù)庫上,導致數(shù)據(jù)庫扛不住壓力崩潰,用戶所有的請求都超時報錯。
實際上所有的請求都直接落到數(shù)據(jù)庫,如下圖:
什么時候發(fā)現(xiàn)的?
凌晨01:02 SRE 收到系統(tǒng)告警,登錄運維管理系統(tǒng)發(fā)現(xiàn)數(shù)據(jù)庫節(jié)點 CPU和內(nèi)存飆升超過閾值,迅速聯(lián)系后臺開發(fā)人員定位排查。
為什么沒有早點發(fā)現(xiàn)?
由于緩存設置過期時間是2小時,凌晨1點前緩存可以命中大部分請求,數(shù)據(jù)庫服務處于正常狀態(tài)。
發(fā)現(xiàn)時采取了什么措施?
后臺小哥通過日志定位排查發(fā)現(xiàn)問題后,進行了一系列操作:
首先通過API Gateway(網(wǎng)關)限制大部分流量進來?
接著將宕機的數(shù)據(jù)庫服務重啟?
再重新預熱緩存?
確認緩存和數(shù)據(jù)庫服務正常后將網(wǎng)關流量正常放開,大約01:30 搶購活動恢復正常。
如何避免下次出現(xiàn)?
這次事故的原因其實就是出現(xiàn)了緩存雪崩,查詢數(shù)據(jù)量巨大,請求直接落到數(shù)據(jù)庫上,引起數(shù)據(jù)庫壓力過大宕機。
在業(yè)界解決緩存雪崩的方法其實比較成熟了,比如有:
-
均勻過期 -
加互斥鎖 -
緩存永不過期
(1)均勻過期
設置不同的過期時間,讓緩存失效的時間點盡量均勻。通??梢詾橛行谠黾与S機值或者統(tǒng)一規(guī)劃有效期。
(2)加互斥鎖
跟緩存擊穿解決思路一致,同一時間只讓一個線程構建緩存,其他線程阻塞排隊。
(3)緩存永不過期
跟緩存擊穿解決思路一致,緩存在物理上永遠不過期,用一個異步的線程更新緩存。
復盤總結(jié)
通過與同事復盤這次線上事故,大家對于緩存雪崩有了更深刻的理解。為了避免再次出現(xiàn)緩存雪崩事故,大家一起討論了多個解決方案:
(1)均勻過期
(2)加互斥鎖
(3)緩存永不過期
希望技術人能夠敬畏每一行代碼!
- END -
特別推薦一個分享架構+算法的優(yōu)質(zhì)內(nèi)容,還沒關注的小伙伴,可以長按關注一下:

長按訂閱更多精彩▼
如有收獲,點個在看,誠摯感謝
免責聲明:本文內(nèi)容由21ic獲得授權后發(fā)布,版權歸原作者所有,本平臺僅提供信息存儲服務。文章僅代表作者個人觀點,不代表本平臺立場,如有問題,請聯(lián)系我們,謝謝!





