本文由小米技術團隊分享,原題“小愛接入層單機百萬長連接演進”,有修訂。
1、引言
小愛接入層是小愛云端負責設備接入的第一個服務,也是最重要的服務之一,本篇文章介紹了小米技術團隊2020至2021年在這個服務上所做的一些優化和嘗試,最終將單機可承載長連接數從30w提升至120w+,節省了機器30+臺。

提示:什么是“小愛”?
小愛(全名“小愛同學”)是小米旗下的人工智能語音交互引擎,搭載在小米手機、小米AI音箱、小米電視等設備中,在個人移動、智能家庭、智能穿戴、智能辦公、兒童娛樂、智能出行、智慧酒店、智慧學習共八大類場景中使用。
(本文同步發布于:http://www.52im.net/thread-3860-1-1.html)
2、專題目錄
本文是專題系列文章的第7篇,總目錄如下:
- 《長連接網關技術專題(一):京東京麥的生產級TCP網關技術實踐總結》
- 《長連接網關技術專題(二):知乎千萬級并發的高性能長連接網關技術實踐》
- 《長連接網關技術專題(三):手淘億級移動端接入層網關的技術演進之路》
- 《長連接網關技術專題(四):愛奇藝WebSocket實時推送網關技術實踐》
- 《長連接網關技術專題(五):喜馬拉雅自研億級API網關技術實踐》
- 《長連接網關技術專題(六):石墨文檔單機50萬WebSocket長連接架構實踐》
- 《長連接網關技術專題(七):小米小愛單機120萬長連接接入層的架構演進》(* 本文)
3、什么是小愛接入層
整個小愛的架構分層如下:
接入層主要的工作在鑒權授權層和傳輸層,它是所有小愛設備和小愛大腦交互的第一個服務。
由上圖我們知道小愛接入層的重要功能有如下幾個:
- 1)安全傳輸和鑒權:維護設備和大腦的安全通道,保障身份認證有效和傳輸數據安全;
- 2)維護長連接:維持設備和大腦的長連接(Websocket等),做好連接狀態存儲,心跳維護等工作;
- 3)請求轉發:針對每一次小愛設備的請求做好轉發,保障每一次請求的穩定。
4、早期接入層的技術實現
小愛接入層最早的實現是基于Akka和Play,我們使用它們搭建了第一個版本,該版本特點如下:
- 1)基于Akka我們基本做到了初步的異步化,保障核心線程不被阻塞,性能尚可。
- 2)Play框架天然支持Websocket,因此我們在有限的人力下能夠快速搭建和實現,且能夠保障協議實現的標準性。
5、早期接入層的技術問題
隨著小愛長連接的數量突破千萬大關,針對早期的接入層方案,我們發現了一些問題。
主要的問題如下:
1)長連接數量上來后,需要維護的內存數據越來越多,JVM的GC成為不可忽略的性能瓶頸,且一旦代碼寫的不好有GC風險。經過之前事故分析,Akka+Play版的接入層其單實例長連接數量的上限在28w左右。
2)老版本的接入層實現比較隨意,其Akka Actor之間存在非常多的狀態依賴而不是基于不可變的消息傳遞這樣使得Actor之間的通信變成了函數調用,導致代碼可讀性差且維護很困難,沒有發揮出Akka Actor在構建并發程序的優勢。
3)作為接入層服務,老版本對協議的解析是有很強的依賴的,這導致它要隨著版本變動而頻繁上線,其上線會引起長連接重連,隨時有雪崩的風險。
4)由于依賴Play框架,我們發現其長連接打點有不準確的問題(因為拿不到底層TCP連接的數據),這個會影響我們每日巡檢對服務容量的評估,且依賴其他框架在長連接數量上來后我們沒有辦法做更細致的優化。
6、新版接入層的設計目標
基于早期接入層技術方案的種種問題,我們打算重構接入層。
對于新版接入層我們制定的目標是:
- 1)足夠穩定:上線盡可能不斷連接且服務穩定;
- 2)極致性能:目標單機至少100w長連接,最好不要受GC影響;
- 3)最大限度可控:除了底層網絡I/O的系統調用,其他所有代碼都要是自己實現/或者內部實現的組件,這樣我們有足夠的自主權。
于是,我們開始了單機百萬長連接的漫漫實踐之路。。。
7、新版接入層的優化思路
7.1 接入層的依賴關系
接入層與外部服務的關系理清如下:
7.2 接入層的功能劃分
接入層的主要功能劃分如下:
- 1)WebSocket解析:收到的客戶端字節流,要按照WebSocket協議要求解析出數據;
- 2)Socket狀態保持:存儲連接的基本狀態信息;
- 3)加密解密:與客戶端通訊的所有數據都是加密過的,而與后端模塊之間傳輸是json明文的;
- 4)順序化:同一個物理連接上,先后兩個請求A、B到達服務器,后端服務中B可能先于A得到了應答,但是我們收到B不能立刻發送給客戶端,必須等待A完成后,再按照A,B的順序發給客戶端;
- 5)后端消息分發:接入層后面不止對接單個服務,可能根據不同的消息轉發給不同的服務;
- 6)鑒權:安全相關驗證,身份驗證等。
7.3 接入層的拆分思路
把之前的單一模塊按照是否有狀態,拆分為兩個子模塊。
具體如下:
- 1)前端:有狀態,功能最小化,盡量少上線;
- 2)后端:無狀態,功能最大化,上線可做到用戶無感知。
所以,按照上面的原則,理論上我們會做出這樣的功能劃分,即前端很小、后端很大。示意圖如下圖所示。
8、新版接入層的技術實現
8.1 總覽
模塊拆分為前后端:
- 1)前端有狀態,后端無狀態;
- 2)前后端是獨立進程,同機部署。
補充:前端負責建立與維護設備長連接的狀態,為有狀態服務;后端負責具體業務請求,為無狀態服務。后端服務上線不會導致設備連接斷開重連及鑒權調用,避免了長連接狀態因版本升級或邏輯調整而引起的不必要抖動;
前端使用CPP實現:
- 1)Websocket協議完全自己解析:可以從Socket層面獲取所有信息,任何Bug都可以處理;
- 2)更高的CPU利用率:沒有任何額外JVM代價,無GC拖累性能;
- 3)更高的內存利用率:連接數量變大后與連接相關的內存開銷變大,自己管理可以極端優化。
后端暫時使用Scala實現:
- 1)已實現的功能直接遷移,比重寫代價要低得多;
- 2)依賴的部分外部服務(比如鑒權)有可直接利用的Scala(Java)SDK庫,而沒有C++版本,若用C++重寫代價非常大;
- 3)全部功能無狀態化改造,可以做到隨時重啟而用戶無感知。
通訊使用ZeroMQ:
進程間通訊最高效的方式是共享內存,ZeroMQ基于共享內存實現,速度沒問題。
8.2 前端實現
整體架構:

如上圖所示,由四個子模塊組成:
- 1)傳輸層:Websocket協議解析,XMD協議解析;
- 2)分發層:屏蔽傳輸層的差異,不管傳輸層使用的什么接口,在分發層轉化成統一的事件投遞到狀態機;
- 3)狀態機層:為了實現純異步服務,使用自研的基于Actor模型的類Akka狀態機框架XMFSM,這里面實現了單線程的Actor抽象;
- 4)ZeroMQ通訊層:由于ZeroMQ接口是阻塞實現,這一層通過兩個線程分別負責發送和接收。
8.2.1)傳輸層:
WebSocket 部分使用 C++ 和 ASIO 實現 websocket-lib。小愛長連接基于WebSocket協議,因此我們自己實現了一個WebSocket長連接庫。
這個長連接庫的特點是:
- a. 無鎖化設計,保障性能優異;
- b. 基于BOOST ASIO 開發,保障底層網絡性能。
壓測顯示該庫的性能十分優異的:
這一層同時也承擔了除原始WebSocket外,其他兩種通道的的收發任務。
目前傳輸層一共支持以下3種不同的客戶端接口:
- a. websocket(tcp):簡稱ws;
- b. 基于ssl的加密websocket(tcp):簡稱wss;
- c. xmd(udp):簡稱xmd。
8.2.2)分發層:
把不同的傳輸層事件轉化成統一事件投遞到狀態機,這一層起到適配器的作用,確保無論前面的傳輸層使用哪種類型,到達分發層變都變成一致的事件向狀態機投遞。
8.2.3)狀態機處理層:
主要的處理邏輯都位于這一層中,這里非常重要的一個部分是對于發送通道的封裝。
對于小愛應用層協議,不同的通道處理邏輯是完全一致的,但是在處理和安全相關邏輯上每個通道又有細節差異。
比如:
- a. wss 收發不需要加解密,加解密由更前端的Nginx做了,而ws需要使用AES加密發送;
- b. wss 在鑒權成功后不需要向客戶端下發challenge文本,因為wss不需要做加解密;
- c. xmd 發送的內容與其他兩個不同,是基于protobuf封裝的私有協議,且xmd需要處理發送失敗后的邏輯,而ws/wss不用考慮發送失敗的問題,由底層Tcp協議保證。
針對這種情況:我們使用C++的多態特性來處理,專門抽象了一個Channel接口,這個接口中提供的方法包含了一個請求處理的一些關鍵差異步驟,比如如何發送消息到客戶端,如何stop連接,如何處理發送失敗等等。對于3種(ws/wss/xmd)不同的發送通道,每個通道有自己的Channel實現。
客戶端連接對象一創建,對應類型的具體Channel對象就立刻被實例化。這樣狀態機主邏輯中只實現業務層的公共邏輯即可,當在有差異邏輯調用時,直接調用Channel接口完成,這樣一個簡單的多態特性幫助我們分割了差異,確保代碼整潔。
8.2.4)ZeroMQ 通訊層:
通過兩個線程將ZeroMQ的讀寫操作異步化,同時負責若干私有指令的封裝和解析。
8.3 后端實現
8.3.1)無狀態化改造:
后端做的最重要改造之一就是將所有與連接狀態相關的信息進行剔除。
整個服務以 Request(一次連接上可以傳輸N個Request)為核心進行各種轉發和處理,每次請求與上一次請求沒有任何關聯。一個連接上的多次請求在后端模塊被當做獨立請求處理。
8.3.2)架構:
Scala 服務采用 Akka-Actor 架構實現了業務邏輯。
服務從 ZeroMQ 收到消息后,直接投遞到 Dispatcher 中進行數據解析與請求處理,在 Dispatcher 中不同的請求會發送給對應的 RequestActor進行 Event 協議解析并分發給該 event 對應的業務 Actor 進行處理。最后將處理后的請求數據通過XmqActor 發送給后端 AIMS&XMQ 服務。
一個請求在后端多個 Actor 中的處理流程:
8.3.3)Dispatcher 請求分發:
前端與后端之間通過 Protobuf 進行交互,避免了Json 解析的性能消耗,同時使得協議更加規范化。
后端服務從 ZeroMQ 收到消息后,會在 DispatcherActor 中進行PB協議解析并根據不同的分類(簡稱CMD)進行數據處理,分類包括如下幾種。
* BIND 命令:
鑒權功能,由于鑒權功能邏輯復雜,使用C++語言實現起來較為困難,目前依然放在 scala 業務層進行鑒權。該部分對設備端請求的 HTTP Headers 進行解析,提取其中的 token 進行鑒權,并將結果返回前端。
* LOGIN 命令:
設備登入,設備鑒權通過后當前連接已成功建立,此時會進行 Login 命令的執行,用于將該長連接信息發送至AIMS并記錄于Varys服務中,方便后續的主動下推等功能。在 Login 過程中,服務首先將請求 Account 服務獲取長連接的 uuid(用于連接過程中的路由尋址),然后將設備信息+uuid 發送至AIMS進行設備登入操作。
* LOGOUT 命令:
設備登出,設備在與服務端斷開連接時需要進行 Logout 操作,用于從 Varys 服務中刪除該長連接記錄。
* UPDATE 與 PING 命令:
a. Update 命令,設備狀態信息更新,用于更新該設備在數據庫中保存的相關信息;
b. Ping 命令,連接保活,用于確認該設備處于在線連接狀態。
* TEXT_MESSAGE 與 BINARY_MESSAGE:
文本消息與二進制消息,在收到文本消息或二進制消息時將根據 requestid 發送給該請求對應的RequestActor進行處理。
8.3.4)Request 請求解析:
針對收到的文本和二進制消息,DispatcherActor 會根據 requestId 將其發送給對應的RequestActor進行處理。
其中:文本消息將會被解析為Event請求,并根據其中的 namespace 和 name 將其分發給指定的業務Actor。二進制消息則會根據當前請求的業務場景被分發給對應的業務Actor。
8.4 其他優化
在完成新架構 1.0 調整過程中,我們也在不斷壓測長連接容量,總結幾點對容量影響較大的點。
8.4.1)協議優化:
a. JSON替換為Protobuf: 早期的前后端通信使用的是 json 文本協議,后來發現 json 序列化、反序列化這部分對CPU的占用較大,改為了 protobuf 協議后,CPU占用率明顯下降。
b. JSON支持部分解析:業務層的協議是基于json的,沒有辦法直接替換,我們通過"部分解析json"的方式,只解析很小的 header 部分拿到 namespace 和 name,然后將大部分直接轉發的消息轉發出去,只將少量 json 消息進行完整反序列化成對象。此種優化后CPU占用下降10%。
8.4.2)延長心跳時間:
在第一次測試20w連接時,我們發現在前后端收發的消息中,一種用來保持用戶在線狀態的心跳PING消息占了總消息量的75%,收發這個消息耗費了大量CPU。因此我們延長心跳時間也起到了降低CPU消耗的目的。
8.4.3)自研內網通訊庫:
為了提高與后端服務通信的性能,我們使用自研的TCP通訊庫,該庫是基于Boost ASIO開發的一個純異步的多線程TCP網絡庫,其卓越的性能幫助我們將連接數提升到120w+。
9、未來規劃
經過新版架構1.0版的優化,驗證了我們的拆分方向是正確的,因為預設的目標已經達到:
- 1)單機承載的連接數 28w => 120w+(普通服務端機器 16G內存 40核 峰值請求QPS過萬),接入層下線節省了50%+的機器成本;
- 2)后端可以做到無損上線。
再重新審視下我們的理想目標,以這個為方向,我們就有了2.0版的雛形:
具體就是:
- 1)后端模塊使用C++重寫,進一步提高性能和穩定性。同時將后端模塊中無法使用C++重寫的部分,作為獨立服務模塊運維,后端模塊通過網絡庫調用;
- 2)前端模塊中非必要功能嘗試遷移到后端,讓前端功能更少,更穩定;
- 3)如果改造后,前端與后端處理能力差異較大,考慮到ZeroMQ實際是性能過剩的,可以考慮使用網絡庫替換掉ZeroMQ,這樣前后端可以從1:1單機部署變為1:N多機部署,更好的利用機器資源。
2.0版目標是:經過以上改造后,期望單前端模塊可以達到200w+的連接處理能力。
10、參考資料
[1] 上一個10年,著名的C10K并發連接問題
[2] 下一個10年,是時候考慮C10M并發問題了
[3] 一文讀懂高性能網絡編程中的線程模型
[4] 深入操作系統,一文讀懂進程、線程、協程
[5] Protobuf通信協議詳解:代碼演示、詳細原理介紹等
[6] WebSocket從入門到精通,半小時就夠!
[7] 如何讓你的WebSocket斷網重連更快速?
[8] 從100到1000萬高并發的架構演進之路
學習交流:
(本文同步發布于:http://www.52im.net/thread-3860-1-1.html)