<rt id="bn8ez"></rt>
<label id="bn8ez"></label>

  • <span id="bn8ez"></span>

    <label id="bn8ez"><meter id="bn8ez"></meter></label>

    ivaneeo's blog

    自由的力量,自由的生活。

      BlogJava :: 首頁 :: 聯系 :: 聚合  :: 管理
      669 Posts :: 0 Stories :: 64 Comments :: 0 Trackbacks

     Linux下高并發socket最大連接數所受的限制問題

      1、修改用戶進程可打開文件數限制

      在Linux平臺上,無論編寫客戶端程序還是服務端程序,在進行高并發TCP連接處理時,最高的并發數量都要受到系統對用戶單一進程同時可打開文件數量的限制(這是因為系統為每個TCP連接都要創建一個socket句柄,每個socket句柄同時也是一個文件句柄)。可使用ulimit命令查看系統允許當前用戶進程打開的文件數限制:

      [speng@as4 ~]$ ulimit -n

      1024

      這表示當前用戶的每個進程最多允許同時打開1024個文件,這1024個文件中還得除去每個進程必然打開的標準輸入,標準輸出,標準錯誤,服務器監聽 socket,進程間通訊的unix域socket等文件,那么剩下的可用于客戶端socket連接的文件數就只有大概1024-10=1014個左右。也就是說缺省情況下,基于Linux的通訊程序最多允許同時1014個TCP并發連接。

      對于想支持更高數量的TCP并發連接的通訊處理程序,就必須修改Linux對當前用戶的進程同時打開的文件數量的軟限制(soft limit)和硬限制(hardlimit)。其中軟限制是指Linux在當前系統能夠承受的范圍內進一步限制用戶同時打開的文件數;硬限制則是根據系統硬件資源狀況(主要是系統內存)計算出來的系統最多可同時打開的文件數量。通常軟限制小于或等于硬限制。

      修改上述限制的最簡單的辦法就是使用ulimit命令:

      [speng@as4 ~]$ ulimit -n

      上述命令中,在中指定要設置的單一進程允許打開的最大文件數。如果系統回顯類似于"Operation notpermitted"之類的話,說明上述限制修改失敗,實際上是因為在中指定的數值超過了Linux系統對該用戶打開文件數的軟限制或硬限制。因此,就需要修改Linux系統對用戶的關于打開文件數的軟限制和硬限制。

      第一步,修改/etc/security/limits.conf文件,在文件中添加如下行:

      speng soft nofile 10240

      speng hard nofile 10240

      其中speng指定了要修改哪個用戶的打開文件數限制,可用'*'號表示修改所有用戶的限制;

      soft或hard指定要修改軟限制還是硬限制;10240則指定了想要修改的新的限制值,即最大打開文件數(請注意軟限制值要小于或等于硬限制)。修改完后保存文件。

      第二步,修改/etc/pam.d/login文件,在文件中添加如下行:

      session required /lib/security/pam_limits.so 這是告訴Linux在用戶完成系統登錄后,應該調用pam_limits.so模塊來設置系統對該用戶可使用的各種資源數量的最大限制(包括用戶可打開的最大文件數限制),而pam_limits.so模塊就會從/etc/security/limits.conf文件中讀取配置來設置這些限制值。修改完后保存此文件。

      第三步,查看Linux系統級的最大打開文件數限制,使用如下命令:

      [speng@as4 ~]$ cat /proc/sys/fs/file-max

      12158

      這表明這臺Linux系統最多允許同時打開(即包含所有用戶打開文件數總和)12158個文件,是Linux系統級硬限制,所有用戶級的打開文件數限制都不應超過這個數值。通常這個系統級硬限制是Linux系統在啟動時根據系統硬件資源狀況計算出來的最佳的最大同時打開文件數限制,如果沒有特殊需要,不應該修改此限制,除非想為用戶級打開文件數限制設置超過此限制的值。

      修改此硬限制的方法是修改/etc/rc.local腳本,在腳本中添加如下行:

      echo 22158 > /proc/sys/fs/file-max

      這是讓Linux在啟動完成后強行將系統級打開文件數硬限制設置為22158.修改完后保存此文件。

      完成上述步驟后重啟系統,一般情況下就可以將Linux系統對指定用戶的單一進程允許同時打開的最大文件數限制設為指定的數值。如果重啟后用 ulimit-n命令查看用戶可打開文件數限制仍然低于上述步驟中設置的最大值,這可能是因為在用戶登錄腳本/etc/profile中使用ulimit -n命令已經將用戶可同時打開的文件數做了限制。由于通過ulimit-n修改系統對用戶可同時打開文件的最大數限制時,新修改的值只能小于或等于上次 ulimit-n設置的值,因此想用此命令增大這個限制值是不可能的。

      所以,如果有上述問題存在,就只能去打開/etc/profile腳本文件,在文件中查找是否使用了ulimit-n限制了用戶可同時打開的最大文件數量,如果找到,則刪除這行命令,或者將其設置的值改為合適的值,然后保存文件,用戶退出并重新登錄系統即可。 通過上述步驟,就為支持高并發TCP連接處理的通訊處理程序解除關于打開文件數量方面的系統限制。

      2、修改網絡內核對TCP連接的有關限制

      在Linux上編寫支持高并發TCP連接的客戶端通訊處理程序時,有時會發現盡管已經解除了系統對用戶同時打開文件數的限制,但仍會出現并發TCP連接數增加到一定數量時,再也無法成功建立新的TCP連接的現象。出現這種現在的原因有多種。

      第一種原因可能是因為Linux網絡內核對本地端口號范圍有限制。此時,進一步分析為什么無法建立TCP連接,會發現問題出在connect()調用返回失敗,查看系統錯誤提示消息是"Can't assign requestedaddress".同時,如果在此時用tcpdump工具監視網絡,會發現根本沒有TCP連接時客戶端發SYN包的網絡流量。這些情況說明問題在于本地Linux系統內核中有限制。

      其實,問題的根本原因在于Linux內核的TCP/IP協議實現模塊對系統中所有的客戶端TCP連接對應的本地端口號的范圍進行了限制(例如,內核限制本地端口號的范圍為1024~32768之間)。當系統中某一時刻同時存在太多的TCP客戶端連接時,由于每個TCP客戶端連接都要占用一個唯一的本地端口號(此端口號在系統的本地端口號范圍限制中),如果現有的TCP客戶端連接已將所有的本地端口號占滿,則此時就無法為新的TCP客戶端連接分配一個本地端口號了,因此系統會在這種情況下在connect()調用中返回失敗,并將錯誤提示消息設為"Can't assignrequested address".

      有關這些控制邏輯可以查看Linux內核源代碼,以linux2.6內核為例,可以查看tcp_ipv4.c文件中如下函數:

      static int tcp_v4_hash_connect(struct sock *sk)

      請注意上述函數中對變量sysctl_local_port_range的訪問控制。變量sysctl_local_port_range的初始化則是在tcp.c文件中的如下函數中設置:

      void __init tcp_init(void)

      內核編譯時默認設置的本地端口號范圍可能太小,因此需要修改此本地端口范圍限制。

      第一步,修改/etc/sysctl.conf文件,在文件中添加如下行:

      net.ipv4.ip_local_port_range = 1024 65000

      這表明將系統對本地端口范圍限制設置為1024~65000之間。請注意,本地端口范圍的最小值必須大于或等于1024;而端口范圍的最大值則應小于或等于65535.修改完后保存此文件。

      第二步,執行sysctl命令:

      [speng@as4 ~]$ sysctl -p

      如果系統沒有錯誤提示,就表明新的本地端口范圍設置成功。如果按上述端口范圍進行設置,則理論上單獨一個進程最多可以同時建立60000多個TCP客戶端連接。

      第二種無法建立TCP連接的原因可能是因為Linux網絡內核的IP_TABLE防火墻對最大跟蹤的TCP連接數有限制。此時程序會表現為在 connect()調用中阻塞,如同死機,如果用tcpdump工具監視網絡,也會發現根本沒有TCP連接時客戶端發SYN包的網絡流量。由于 IP_TABLE防火墻在內核中會對每個TCP連接的狀態進行跟蹤,跟蹤信息將會放在位于內核內存中的conntrackdatabase中,這個數據庫的大小有限,當系統中存在過多的TCP連接時,數據庫容量不足,IP_TABLE無法為新的TCP連接建立跟蹤信息,于是表現為在connect()調用中阻塞。此時就必須修改內核對最大跟蹤的TCP連接數的限制,方法同修改內核對本地端口號范圍的限制是類似的:

      第一步,修改/etc/sysctl.conf文件,在文件中添加如下行:

      net.ipv4.ip_conntrack_max = 10240

      這表明將系統對最大跟蹤的TCP連接數限制設置為10240.請注意,此限制值要盡量小,以節省對內核內存的占用。

      第二步,執行sysctl命令:

      [speng@as4 ~]$ sysctl -p

      如果系統沒有錯誤提示,就表明系統對新的最大跟蹤的TCP連接數限制修改成功。如果按上述參數進行設置,則理論上單獨一個進程最多可以同時建立10000多個TCP客戶端連接。

      3、使用支持高并發網絡I/O的編程技術在Linux上編寫高并發TCP連接應用程序時,必須使用合適的網絡I/O技術和I/O事件分派機制。可用的I/O技術有同步I/O,非阻塞式同步I/O(也稱反應式I/O),以及異步I/O.在高TCP并發的情形下,如果使用同步I/O,這會嚴重阻塞程序的運轉,除非為每個TCP連接的I/O創建一個線程。

      但是,過多的線程又會因系統對線程的調度造成巨大開銷。因此,在高TCP并發的情形下使用同步 I/O是不可取的,這時可以考慮使用非阻塞式同步I/O或異步I/O.非阻塞式同步I/O的技術包括使用select(),poll(),epoll等機制。異步I/O的技術就是使用AIO.

      從I/O事件分派機制來看,使用select()是不合適的,因為它所支持的并發連接數有限(通常在1024個以內)。如果考慮性能,poll()也是不合適的,盡管它可以支持的較高的TCP并發數,但是由于其采用"輪詢"機制,當并發數較高時,其運行效率相當低,并可能存在I/O事件分派不均,導致部分TCP連接上的I/O出現"饑餓"現象。而如果使用epoll或AIO,則沒有上述問題(早期Linux內核的AIO技術實現是通過在內核中為每個 I/O請求創建一個線程來實現的,這種實現機制在高并發TCP連接的情形下使用其實也有嚴重的性能問題。但在最新的Linux內核中,AIO的實現已經得到改進)。

      綜上所述,在開發支持高并發TCP連接的Linux應用程序時,應盡量使用epoll或AIO技術來實現并發的TCP連接上的I/O控制,這將為提升程序對高并發TCP連接的支持提供有效的I/O保證。

      內核參數sysctl.conf的優化

      /etc/sysctl.conf 是用來控制linux網絡的配置文件,對于依賴網絡的程序(如web服務器和cache服務器)非常重要,RHEL默認提供的最好調整。

      推薦配置(把原/etc/sysctl.conf內容清掉,把下面內容復制進去):

      net.ipv4.ip_local_port_range = 1024 65536

      net.core.rmem_max=16777216

      net.core.wmem_max=16777216

      net.ipv4.tcp_rmem=4096 87380 16777216

      net.ipv4.tcp_wmem=4096 65536 16777216

      net.ipv4.tcp_fin_timeout = 10

      net.ipv4.tcp_tw_recycle = 1

      net.ipv4.tcp_timestamps = 0

      net.ipv4.tcp_window_scaling = 0

      net.ipv4.tcp_sack = 0

      net.core.netdev_max_backlog = 30000

      net.ipv4.tcp_no_metrics_save=1

      net.core.somaxconn = 262144

      net.ipv4.tcp_syncookies = 0

      net.ipv4.tcp_max_orphans = 262144

      net.ipv4.tcp_max_syn_backlog = 262144

      net.ipv4.tcp_synack_retries = 2

      net.ipv4.tcp_syn_retries = 2

      這個配置參考于cache服務器varnish的推薦配置和SunOne 服務器系統優化的推薦配置。

      varnish調優推薦配置的地址為:http://varnish.projects.linpro.no/wiki/Performance

      不過varnish推薦的配置是有問題的,實際運行表明"net.ipv4.tcp_fin_timeout = 3"的配置會導致頁面經常打不開;并且當網友使用的是IE6瀏覽器時,訪問網站一段時間后,所有網頁都會

      打不開,重啟瀏覽器后正常。可能是國外的網速快吧,我們國情決定需要調整"net.ipv4.tcp_fin_timeout = 10",在10s的情況下,一切正常(實際運行結論)。

      修改完畢后,執行:

      /sbin/sysctl -p /etc/sysctl.conf

      /sbin/sysctl -w net.ipv4.route.flush=1

      命令生效。為了保險起見,也可以reboot系統。

      調整文件數:

      linux系統優化完網絡必須調高系統允許打開的文件數才能支持大的并發,默認1024是遠遠不夠的。

      執行命令:

      Shell代碼

      echo ulimit -HSn 65536 》 /etc/rc.local

      echo ulimit -HSn 65536 》/root/.bash_profile

      ulimit -HSn 65536

    posted on 2013-11-15 20:00 ivaneeo 閱讀(513) 評論(0)  編輯  收藏 所屬分類: debian-企鵝中最像牛
    主站蜘蛛池模板: 久久午夜免费鲁丝片| 一级毛片正片免费视频手机看| 最近的2019免费中文字幕| 亚洲精品国自产拍在线观看| 国产亚洲福利精品一区二区| 免费人成在线观看网站品爱网日本| 亚洲av无一区二区三区| 日韩免费一区二区三区| 国产天堂亚洲精品| 亚洲?v无码国产在丝袜线观看| 免费无码午夜福利片| 亚洲综合色自拍一区| 久久福利青草精品资源站免费| 亚洲AV第一页国产精品| 精品一区二区三区免费毛片爱| 亚洲精品欧洲精品| 大地资源免费更新在线播放| 亚洲αⅴ无码乱码在线观看性色| 国产传媒在线观看视频免费观看| 一级黄色片免费观看| 亚洲成AV人片在线播放无码| 国产国产人免费视频成69堂| 亚洲高清毛片一区二区| 亚洲福利精品电影在线观看| a级黄色毛片免费播放视频| 久久精品国产亚洲精品2020| 在线观看视频免费完整版| 亚洲AV成人无码网站| 亚洲日本乱码在线观看| 2020久久精品国产免费| 精品亚洲视频在线| 亚洲乱码一区二区三区在线观看| 18观看免费永久视频| 污网站免费在线观看| 亚洲国产精品久久久久| 日本免费电影一区| 国产午夜精品久久久久免费视| 亚洲av无码国产综合专区| 国产亚洲精品激情都市| 青春禁区视频在线观看直播免费| 一级毛片一级毛片免费毛片|