日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問(wèn)題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
解決LinuxSocket阻塞問(wèn)題的方法(linuxsocket阻塞)

在Linux操作系統(tǒng)中,Socket編程是一種常見(jiàn)的網(wǎng)絡(luò)編程方式。Socket編程包含了分客戶端和服務(wù)端兩個(gè)角色,客戶端向服務(wù)端發(fā)起請(qǐng)求,服務(wù)端接收請(qǐng)求并處理,之后向客戶端返回響應(yīng)。在執(zhí)行這個(gè)過(guò)程中,有時(shí)會(huì)出現(xiàn)Socket阻塞問(wèn)題,導(dǎo)致程序失去響應(yīng),無(wú)法正常運(yùn)行。本文將介紹幾種。

在昌江等地區(qū),都構(gòu)建了全面的區(qū)域性戰(zhàn)略布局,加強(qiáng)發(fā)展的系統(tǒng)性、市場(chǎng)前瞻性、產(chǎn)品創(chuàng)新能力,以專注、極致的服務(wù)理念,為客戶提供網(wǎng)站設(shè)計(jì)制作、成都網(wǎng)站設(shè)計(jì) 網(wǎng)站設(shè)計(jì)制作按需定制,公司網(wǎng)站建設(shè),企業(yè)網(wǎng)站建設(shè),品牌網(wǎng)站制作,營(yíng)銷型網(wǎng)站,成都外貿(mào)網(wǎng)站建設(shè),昌江網(wǎng)站建設(shè)費(fèi)用合理。

1. 設(shè)置Socket為非阻塞模式

阻塞是Socket程序中最常見(jiàn)的問(wèn)題之一,當(dāng)Socket在讀或?qū)憯?shù)據(jù)時(shí),如果沒(méi)有數(shù)據(jù)可用或者緩沖區(qū)已滿,程序?qū)?huì)永遠(yuǎn)阻塞在那里,以至于無(wú)法繼續(xù)執(zhí)行。我們可以通過(guò)設(shè)置Socket為非阻塞模式來(lái)避免這個(gè)問(wèn)題。在非阻塞模式下,Socket將沒(méi)有數(shù)據(jù)可用時(shí),立即返回錯(cuò)誤而不是阻塞,并且當(dāng)緩沖區(qū)已滿時(shí),立即返回錯(cuò)誤。對(duì)于非阻塞Socket,我們可以使用select、poll、epoll等多路復(fù)用IO技術(shù),以實(shí)現(xiàn)非阻塞IO。

2. 設(shè)置Socket超時(shí)時(shí)間

超時(shí)時(shí)間是指在指定時(shí)間內(nèi)如果沒(méi)有數(shù)據(jù)讀取或?qū)懭?,Socket將會(huì)自動(dòng)關(guān)閉,以避免程序永久阻塞的情況。我們可以使用setsockopt函數(shù)來(lái)設(shè)置Socket的超時(shí)時(shí)間,如下所示:

“`c

struct timeval timeout;

timeout.tv_sec = 5; // 超時(shí)時(shí)間5秒

timeout.tv_usec = 0;

setsockopt(sockfd, SOL_SOCKET, SO_RCVTIMEO, (char *)&timeout, sizeof(timeout));

“`

在上面的代碼中,SO_RCVTIMEO選項(xiàng)將Socket的接收超時(shí)時(shí)間設(shè)置為5秒。當(dāng)Socket在接收數(shù)據(jù)時(shí),如果在5秒內(nèi)沒(méi)有收到數(shù)據(jù),Socket將自動(dòng)關(guān)閉,程序?qū)⒉粫?huì)永久阻塞。

3. 使用多線程/多進(jìn)程

多線程/多進(jìn)程是一種常用的解決Socket阻塞問(wèn)題的方法。我們可以在程序中啟動(dòng)多個(gè)線程或進(jìn)程,每個(gè)線程/進(jìn)程負(fù)責(zé)管理一個(gè)Socket連接,讀取數(shù)據(jù)并處理。這樣可以避免Socket在讀取或?qū)懭霐?shù)據(jù)時(shí)出現(xiàn)阻塞,提高程序的執(zhí)行效率。

4. 使用異步Socket編程

異步Socket編程是一種高效的Socket編程方式,它在沒(méi)有數(shù)據(jù)可用時(shí)不會(huì)阻塞程序,而是通過(guò)回調(diào)函數(shù)或事件通知的方式來(lái)處理數(shù)據(jù)。與傳統(tǒng)的同步Socket編程模型不同,異步Socket編程使用了IO Completion Ports(I/O完成端口)、Linux O、Event-driven等技術(shù)。異步Socket編程能夠更大程度地利用CPU和系統(tǒng)資源,提高程序的處理效率,在高并發(fā)場(chǎng)景下表現(xiàn)優(yōu)異。

綜上所述,以上是一些。開(kāi)發(fā)Socket程序時(shí),我們應(yīng)該根據(jù)具體的情況選擇合適的方法,以實(shí)現(xiàn)高效穩(wěn)定的網(wǎng)絡(luò)通信。

成都網(wǎng)站建設(shè)公司-創(chuàng)新互聯(lián)為您提供網(wǎng)站建設(shè)、網(wǎng)站制作、網(wǎng)頁(yè)設(shè)計(jì)及定制高端網(wǎng)站建設(shè)服務(wù)!

linuxsocket無(wú)法斷開(kāi)

c++

Linux環(huán)境中使用socket進(jìn)行UDP和TCP多線程通信無(wú)法關(guān)閉socket

(^v^)

原創(chuàng)

關(guān)注

0點(diǎn)贊·641人閱讀

在Linux下,使用QT編程網(wǎng)絡(luò)通信,為提高通信效率,使用原始socket進(jìn)行網(wǎng)絡(luò)編程,在QT線程中經(jīng)常出現(xiàn)線程無(wú)法退出,原因來(lái)源于socket無(wú)法關(guān)閉。

線程處理如下:

void communicationClass::run()

{

// 開(kāi)啟數(shù)據(jù)處理線程

#ifdef Q_OS_LINUX

//配置服務(wù)器信息

bzero(&m_sServer_addr, sizeof(m_sServer_addr));

m_sServer_addr.sin_family = AF_INET;

//設(shè)置為IPV4通信

m_sServer_addr.sin_addr.s_addr = htonl(INADDR_ANY);

//設(shè)置目的ip

m_sServer_addr.sin_addr.s_addr = inet_addr(m_strSendIP.toStdString().c_str());

//設(shè)置目的端口去鏈接服務(wù)器

m_sServer_addr.sin_port = htons(m_ui16Port);

//配置本地信息

bzero(&m_sLocal_addr, sizeof(m_sLocal_addr));

m_sLocal_addr.sin_family = AF_INET;

//設(shè)置為IPV4通信

//loc_addr.sin_addr.s_addr = htonl(INADDR_ANY);

//設(shè)置目的ip

m_sLocal_addr.sin_addr.s_addr = htonl(INADDR_ANY);

//設(shè)置本地端口去鏈接服務(wù)器

m_sLocal_addr.sin_port = htons(m_ui16Port);

m_iSockedFd = socket(AF_INET, SOCK_DGRAM, IPPROTO_UDP);//設(shè)置UDP報(bào)文傳輸 0表示默認(rèn) SOCK_DGRAM 默認(rèn)使用UDP

//其中第三位 0 是調(diào)用方式標(biāo)志位嫌巖吵,設(shè)置socket通方式,比如非阻塞

if(m_iSockedFd 0)

{

// 組裝返回?cái)?shù)據(jù)buffer

QByteArray arrayRecvData;

arrayRecvData.resize(count);

memcpy(arrayRecvData.data(), buf, count);

// qDebug() 0)

{

// 組裝返回?cái)?shù)據(jù)buffer

QByteArray arrayRecvData;

arrayRecvData.resize(count);

memcpy(arrayRecvData.data(), buf, count);

emit signal_recvNetworkData(arrayRecvData);

}

}

#endif

qDebug()

int shutdown(int sockfd,int how);

TCP連接是雙向的(是可讀寫(xiě)的),當(dāng)我們使用close時(shí),會(huì)把讀寫(xiě)通道都關(guān)閉,有時(shí)侯我們希望只關(guān)閉一個(gè)方向,這個(gè)時(shí)候我們能夠使用shutdown.

how的方式有三種分別是

SHUT_RD(0):關(guān)閉sockfd上的讀功能,此選項(xiàng)將不允許sockfd進(jìn)行讀操作。

SHUT_WR(1):關(guān)閉sockfd的寫(xiě)功能,此選項(xiàng)將不允許sockfd進(jìn)行寫(xiě)操作。

SHUT_RDWR(2):關(guān)閉sockfd的讀寫(xiě)功能。

成功則返回0,錯(cuò)誤返回-1,錯(cuò)誤碼errno:EBADF表示sockfd不是一個(gè)有效描述符;ENOTCONN表示sockfd未連接;ENOTSOCK表示sockfd是一個(gè)文件描述符而不是socket描述符。

請(qǐng)問(wèn)linux怎么增大socket連接上限?

增大Linux的socket更大連接數(shù) 最近接的項(xiàng)目是模擬多個(gè)socket 客戶端與服務(wù)器進(jìn)行通信。由于Linux 系統(tǒng)的限制,在linux/include/linux/posix_types.h文件中有如下的宏定義:#undef __FD_SETSIZE#define __FD_SETSIZE 1024這個(gè)宏啟灶是對(duì)更大文件描述符的定義為1024。當(dāng)需要1024個(gè)以上的fd時(shí),例如select()函數(shù)就會(huì)偵聽(tīng)出錯(cuò)。因此需要將1024改成需要的數(shù)目,但最多不能超過(guò)65535。但僅僅修改這個(gè)是不夠的。第二步就需要修改一個(gè)進(jìn)程更大打開(kāi)的文件數(shù)。其具體步驟是:1、cd /usr/src/linux-2.4/include/linux2、vi limits.h 編輯文件:#define NR_OPEN原值為1024#define OPEN_MAX原值為10243、vi fs.h#define INR_OPEN原值為1024#define NR_FILE原值為8192,這個(gè)值為內(nèi)存64/1M的比率計(jì)算,1G內(nèi)存計(jì)算為:64*1024#define NR_RESERVED_FILES 128 原值為10.4、cd /usr/肢茄src/linux-2.4/include/net5、vi tcp.h#define TCP_LHTABLE_SIZE 128 原值為32.便于listen偵聽(tīng)隊(duì)列,設(shè)大。設(shè)置更大打開(kāi)文件數(shù)與內(nèi)存相關(guān),太大系統(tǒng)會(huì)變慢。第三步就是編譯內(nèi)核,其具體步驟是: 1. make clean2. make3. make dep4. make bzImage將bzImage 導(dǎo)入/boot 重啟系統(tǒng)即可!用1024個(gè)歷旁察以上客戶端與服務(wù)器進(jìn)行連接,在服務(wù)器的終端用netstat |wc 命令可以統(tǒng)計(jì)出當(dāng)前建立的socket的連接數(shù)。

1、修改用戶進(jìn)程可打開(kāi)文件數(shù)限制

在Linux平臺(tái)上,無(wú)論編寫(xiě)客戶端程序還是服務(wù)端程序,在進(jìn)行高并發(fā)TCP連慎游接處理時(shí),

更高的并發(fā)數(shù)量都要受到系統(tǒng)對(duì)用戶單一進(jìn)程同時(shí)可打開(kāi)文件數(shù)量的限制(這是因?yàn)橄到y(tǒng)

為每個(gè)TCP連接都要?jiǎng)?chuàng)建一個(gè)socket句柄,每個(gè)socket句柄同時(shí)也是一個(gè)文件句柄)。

可使用ulimit命令查看系統(tǒng)允許當(dāng)前用戶進(jìn)程打開(kāi)的文件數(shù)限制:

$ ulimit -n

1024

這表示當(dāng)前用戶的每個(gè)進(jìn)程最多允許同時(shí)打開(kāi)1024個(gè)文件,這1024個(gè)文件中還得除去

每個(gè)進(jìn)程必然打開(kāi)的標(biāo)準(zhǔn)輸入,標(biāo)準(zhǔn)輸出,標(biāo)準(zhǔn)錯(cuò)誤,服務(wù)器監(jiān)聽(tīng) socket,

進(jìn)程間通訊的unix域socket等文件,那么剩下的可用于客戶端socket連接的文件數(shù)就

只有大概=1014個(gè)左右。也就是說(shuō)缺省情況下,基于Linux的通訊程序最多允許

同時(shí)1014個(gè)TCP并發(fā)連接。

對(duì)于想支持更高數(shù)量的TCP并發(fā)連接的通訊處理程序,就必須修改Linux對(duì)當(dāng)前用戶的

進(jìn)程同時(shí)打開(kāi)的文件數(shù)量的軟限制(soft limit)和硬限制(hardlimit)。其中軟限制

是指Linux在當(dāng)前系統(tǒng)能夠承受的范圍內(nèi)進(jìn)一步限制用戶同時(shí)打開(kāi)的文件數(shù);硬限制

則是根據(jù)系統(tǒng)硬件資源狀況(主要是系統(tǒng)內(nèi)存)計(jì)算出來(lái)的系統(tǒng)最多可同時(shí)打開(kāi)的文件數(shù)量。

通常軟限制小于或等于硬限制。

修改上述限制的最簡(jiǎn)單的辦法就是使用ulimit命令:

$ ulimit -n

上述命令中,在中指定要設(shè)置的單一進(jìn)程允許打開(kāi)的更大文件數(shù)。如果系統(tǒng)回顯

類似于“Operation notpermitted”之類的話,說(shuō)明上述限制修改失敗,實(shí)際上是

因?yàn)樵谥兄付ǖ臄?shù)值超過(guò)了Linux系統(tǒng)對(duì)該用戶打開(kāi)文件數(shù)的軟限制或硬限制。

因此,就需要修改Linux系統(tǒng)對(duì)用戶的關(guān)于打開(kāi)文件數(shù)的軟限制和硬限制。

之一步,修改/etc/security/limits.conf文件,在文件中添加如下行:

speng soft nofile 10240

speng hard nofile 10240

其中speng指定了要修改哪個(gè)用戶的打開(kāi)文件數(shù)限制,可用’*’號(hào)表示修改所有用戶的限制;

soft或hard指定要修改軟限制還是硬限制;10240則指定了想要修改的新的限制值,

即更大打開(kāi)文件數(shù)(請(qǐng)注意軟限制值要小于或等于硬限制)。修改完后保存文件。

第二步,修改/etc/pam.d/login文件,在文件中添加如下行:

session required /lib/security/pam_limits.so

這是告訴Linux在用戶完成系統(tǒng)登錄后,應(yīng)該調(diào)用pam_limits.so模塊來(lái)設(shè)置系統(tǒng)對(duì)

該用戶可使用的各種資源數(shù)量的更大限制(包括用戶可打開(kāi)的更大文件數(shù)限制),

而pam_limits.so模塊就會(huì)從/etc/security/limits.conf文件中讀取配置來(lái)設(shè)置這些限制值。

修改完后保存此文件。

第三步,查看Linux系統(tǒng)級(jí)的更大打開(kāi)文件數(shù)限制,使用如下命令:

$ cat /proc/sys/fs/file-max

12158

這表明這臺(tái)Linux系統(tǒng)最多允許同時(shí)打開(kāi)(即包含所有用戶打開(kāi)文件數(shù)總和)12158個(gè)文件,

是Linux系統(tǒng)級(jí)硬限制,所有用戶級(jí)的打開(kāi)文件數(shù)限制都不應(yīng)超過(guò)這個(gè)數(shù)值。通常這個(gè)系統(tǒng)級(jí)

硬限制是Linux系統(tǒng)在啟動(dòng)時(shí)根據(jù)系統(tǒng)硬件資源狀況計(jì)算出來(lái)的更佳的更大同時(shí)打開(kāi)文件數(shù)限制,

如果沒(méi)有特殊需要,不應(yīng)該修改此限制,除非想為用戶級(jí)打開(kāi)文件數(shù)限制設(shè)置超過(guò)此限制的值。

修改此硬限制的方法是修改/etc/rc.local腳本,在腳本中添加如下行:

echo> /proc/sys/fs/file-max

這是讓Linux在啟動(dòng)完成后強(qiáng)行將系統(tǒng)級(jí)打開(kāi)文件數(shù)硬限制設(shè)置為22158。修改完后保存此文件。

完成上述步驟后重啟系統(tǒng),一般情況下就可以明孝巧將Linux系統(tǒng)對(duì)指定用戶的單一進(jìn)程允許同時(shí)

打開(kāi)的更大文件數(shù)限制設(shè)為指定的數(shù)值。如果重啟后用 ulimit-n命令查看用戶可打開(kāi)文件數(shù)限制

仍然低于上述步驟中設(shè)置的更大值,這可激鍵能是因?yàn)樵谟脩舻卿浤_本/etc/profile中使用ulimit -n命令

已經(jīng)將用戶可同時(shí)打開(kāi)的文件數(shù)做了限制。由于通過(guò)ulimit-n修改系統(tǒng)對(duì)用戶可同時(shí)打開(kāi)文件的

更大數(shù)限制時(shí),新修改的值只能小于或等于上次 ulimit-n設(shè)置的值,因此想用此命令增大這個(gè)

限制值是不可能的。

所以,如果有上述問(wèn)題存在,就只能去打開(kāi)/etc/profile腳本文件,

在文件中查找是否使用了ulimit-n限制了用戶可同時(shí)打開(kāi)的更大文件數(shù)量,如果找到,

則刪除這行命令,或者將其設(shè)置的值改為合適的值,然后保存文件,用戶退出并重新登錄系統(tǒng)即可。

通過(guò)上述步驟,就為支持高并發(fā)TCP連接處理的通訊處理程序解除關(guān)于打開(kāi)文件數(shù)量方面的系統(tǒng)限制。

2、修改網(wǎng)絡(luò)內(nèi)核對(duì)TCP連接的有關(guān)限制

在Linux上編寫(xiě)支持高并發(fā)TCP連接的客戶端通訊處理程序時(shí),有時(shí)會(huì)發(fā)現(xiàn)盡管已經(jīng)解除了系統(tǒng)

對(duì)用戶同時(shí)打開(kāi)文件數(shù)的限制,但仍會(huì)出現(xiàn)并發(fā)TCP連接數(shù)增加到一定數(shù)量時(shí),再也無(wú)法成功

建立新的TCP連接的現(xiàn)象。出現(xiàn)這種現(xiàn)在的原因有多種。

之一種原因可能是因?yàn)長(zhǎng)inux網(wǎng)絡(luò)內(nèi)核對(duì)本地

端口號(hào)

范圍有限制。此時(shí),進(jìn)一步分析為什么無(wú)法

建立TCP連接,會(huì)發(fā)現(xiàn)問(wèn)題出在connect()調(diào)用返回失敗,查看系統(tǒng)錯(cuò)誤提示消息是“Can’t assign requestedaddress”。同時(shí),如果在此時(shí)用tcpdump工具監(jiān)視網(wǎng)絡(luò),會(huì)發(fā)現(xiàn)根本沒(méi)有TCP連接時(shí)客戶端

發(fā)SYN包的網(wǎng)絡(luò)流量。這些情況說(shuō)明問(wèn)題在于本地Linux系統(tǒng)內(nèi)核中有限制。

其實(shí),問(wèn)題的根本原因

在于

Linux內(nèi)核

的TCP/IP協(xié)議實(shí)現(xiàn)模塊對(duì)系統(tǒng)中所有的客戶端TCP連接對(duì)應(yīng)的本地端口號(hào)的范圍

進(jìn)行了限制(例如,內(nèi)核限制本地端口號(hào)的范圍為1024~32768之間)。當(dāng)系統(tǒng)中某一時(shí)刻同時(shí)

存在太多的TCP客戶端連接時(shí),由于每個(gè)TCP客戶端連接都要占用一個(gè)唯一的本地端口號(hào)

(此端口號(hào)在系統(tǒng)的本地端口號(hào)范圍限制中),如果現(xiàn)有的TCP客戶端連接已將所有的本地端口號(hào)占滿,

則此時(shí)就無(wú)法為新的TCP客戶端連接分配一個(gè)本地端口號(hào)了,因此系統(tǒng)會(huì)在這種情況下在connect()

調(diào)用中返回失敗,并將錯(cuò)誤提示消息設(shè)為“Can’t assignrequested address”。

有關(guān)這些控制

邏輯可以查看Linux內(nèi)核源代碼,以linux2.6內(nèi)核為例,可以查看tcp_ipv4.c文件中如下函數(shù):

static int tcp_v4_hash_connect(struct sock *sk)

請(qǐng)注意上述函數(shù)中對(duì)變量sysctl_local_port_range的訪問(wèn)控制。變量sysctl_local_port_range

的初始化則是在tcp.c文件中的如下函數(shù)中設(shè)置:

void __init tcp_init(void)

內(nèi)核編譯時(shí)默認(rèn)設(shè)置的本地端口號(hào)范圍可能太小,因此需要修改此本地端口范圍限制。

之一步,修改/etc/sysctl.conf文件,在文件中添加如下行:

net.ipv4.ip_local_port_range =

這表明將系統(tǒng)對(duì)本地端口范圍限制設(shè)置為1024~65000之間。請(qǐng)注意,本地端口范圍的最小值

必須大于或等于1024;而端口范圍的更大值則應(yīng)小于或等于65535。修改完后保存此文件。

第二步,執(zhí)行sysctl命令:

$ sysctl -p

如果系統(tǒng)沒(méi)有錯(cuò)誤提示,就表明新的本地端口范圍設(shè)置成功。如果按上述端口范圍進(jìn)行設(shè)置,

則理論上單獨(dú)一個(gè)進(jìn)程最多可以同時(shí)建立60000多個(gè)TCP客戶端連接。

第二種無(wú)法建立TCP連接的原因可能是因?yàn)長(zhǎng)inux網(wǎng)絡(luò)內(nèi)核的IP_TABLE防火墻對(duì)更大跟蹤的TCP

連接數(shù)有限制。此時(shí)程序會(huì)表現(xiàn)為在 connect()調(diào)用中阻塞,如同死機(jī),如果用tcpdump工具監(jiān)視網(wǎng)絡(luò),

也會(huì)發(fā)現(xiàn)根本沒(méi)有TCP連接時(shí)客戶端發(fā)SYN包的網(wǎng)絡(luò)流量。由于 IP_TABLE防火墻在內(nèi)核中會(huì)對(duì)

每個(gè)TCP連接的狀態(tài)進(jìn)行跟蹤,跟蹤信息將會(huì)放在位于內(nèi)核內(nèi)存中的conntrackdatabase中,

這個(gè)數(shù)據(jù)庫(kù)的大小有限,當(dāng)系統(tǒng)中存在過(guò)多的TCP連接時(shí),數(shù)據(jù)庫(kù)容量不足,IP_TABLE無(wú)法為

新的TCP連接建立跟蹤信息,于是表現(xiàn)為在connect()調(diào)用中阻塞。此時(shí)就必須修改內(nèi)核對(duì)更大跟蹤

的TCP連接數(shù)的限制,方法同修改內(nèi)核對(duì)本地端口號(hào)范圍的限制是類似的:

之一步,修改/etc/sysctl.conf文件,在文件中添加如下行:

net.ipv4.ip_conntrack_max = 10240

這表明將系統(tǒng)對(duì)更大跟蹤的TCP連接數(shù)限制設(shè)置為10240。請(qǐng)注意,此限制值要盡量小,

以節(jié)省對(duì)內(nèi)核內(nèi)存的占用。

第二步,執(zhí)行sysctl命令:

$ sysctl -p

如果系統(tǒng)沒(méi)有錯(cuò)誤提示,就表明系統(tǒng)對(duì)新的更大跟蹤的TCP連接數(shù)限制修改成功。

如果按上述參數(shù)進(jìn)行設(shè)置,則理論上單獨(dú)一個(gè)進(jìn)程最多可以同時(shí)建立10000多個(gè)TCP客戶端連接。

3、使用支持高并發(fā)網(wǎng)絡(luò)I/O的編程技術(shù)

在Linux上編寫(xiě)高并發(fā)TCP連接

應(yīng)用程序

時(shí),必須使用合適的網(wǎng)絡(luò)I/O技術(shù)和I/O事件分派機(jī)制。

可用的I/O技術(shù)有同步I/O,非阻塞式同步I/O(也稱反應(yīng)式I/O),以及異步I/O。在高TCP并發(fā)的情形下,

如果使用同步I/O,這會(huì)嚴(yán)重阻塞程序的運(yùn)轉(zhuǎn),除非為每個(gè)TCP連接的I/O創(chuàng)建一個(gè)線程。

但是,過(guò)多的線程又會(huì)因系統(tǒng)對(duì)線程的調(diào)度造成巨大開(kāi)銷。因此,在高TCP并發(fā)的情形下使用

同步 I/O是不可取的,這時(shí)可以考慮使用非阻塞式同步I/O或異步I/O。非阻塞式同步I/O的技術(shù)包括使用select(),poll(),epoll等機(jī)制。異步I/O的技術(shù)就是使用AIO。

從I/O事件分派機(jī)制來(lái)看,使用select()是不合適的,因?yàn)樗С值牟l(fā)連接數(shù)有限(通常在1024個(gè)以內(nèi))。

如果考慮性能,poll()也是不合適的,盡管它可以支持的較高的TCP并發(fā)數(shù),但是由于其采用

“輪詢”機(jī)制,當(dāng)并發(fā)數(shù)較高時(shí),其運(yùn)行效率相當(dāng)?shù)?,并可能存在I/O事件分派不均,導(dǎo)致部分TCP

連接上的I/O出現(xiàn)“饑餓”現(xiàn)象。而如果使用epoll或AIO,則沒(méi)有上述問(wèn)題(早期Linux內(nèi)核的AIO技術(shù)

實(shí)現(xiàn)是通過(guò)在內(nèi)核中為每個(gè) I/O請(qǐng)求創(chuàng)建一個(gè)線程來(lái)實(shí)現(xiàn)的,這種實(shí)現(xiàn)機(jī)制在高并發(fā)TCP連接的情形下

使用其實(shí)也有嚴(yán)重的性能問(wèn)題。但在最新的Linux內(nèi)核中,AIO的實(shí)現(xiàn)已經(jīng)得到改進(jìn))。

綜上所述,在開(kāi)發(fā)支持高并發(fā)TCP連接的Linux應(yīng)用程序時(shí),應(yīng)盡量使用epoll或AIO技術(shù)來(lái)實(shí)現(xiàn)并發(fā)的

TCP連接上的I/O控制,這將為提升程序?qū)Ω卟l(fā)TCP連接的支持提供有效的I/O保證。

內(nèi)核參數(shù)sysctl.conf的優(yōu)化

/etc/sysctl.conf 是用來(lái)控制linux網(wǎng)絡(luò)的配置文件,對(duì)于依賴網(wǎng)絡(luò)的程序(如web服務(wù)器和cache服務(wù)器)

非常重要,RHEL默認(rèn)提供的更好調(diào)整。

推薦配置(把原/etc/sysctl.conf內(nèi)容清掉,把下面內(nèi)容復(fù)制進(jìn)去):

net.ipv4.ip_local_port_range =

net.core.rmem_max=

net.core.wmem_max=

net.ipv4.tcp_rmem=77216

net.ipv4.tcp_wmem=77216

net.ipv4.tcp_fin_timeout = 10

net.ipv4.tcp_tw_recycle = 1

net.ipv4.tcp_timestamps = 0

net.ipv4.tcp_window_scaling = 0

net.ipv4.tcp_sack = 0

net.core.netdev_max_backlog = 30000

net.ipv4.tcp_no_metrics_save=1

net.core.somaxconn =

net.ipv4.tcp_syncookies = 0

net.ipv4.tcp_max_orphans =

net.ipv4.tcp_max_syn_backlog =

net.ipv4.tcp_synack_retries = 2

net.ipv4.tcp_syn_retries = 2

這個(gè)配置參考于cache服務(wù)器varnish的推薦配置和SunOne 服務(wù)器系統(tǒng)優(yōu)化的推薦配置。

varnish調(diào)優(yōu)推薦配置的地址為:

不過(guò)varnish推薦的配置是有問(wèn)題的,實(shí)際運(yùn)行表明“net.ipv4.tcp_fin_timeout = 3”的配置

會(huì)導(dǎo)致頁(yè)面經(jīng)常打不開(kāi);并且當(dāng)網(wǎng)友使用的是IE6瀏覽器時(shí),訪問(wèn)網(wǎng)站一段時(shí)間后,所有網(wǎng)頁(yè)都會(huì)

打不開(kāi),重啟瀏覽器后正常??赡苁菄?guó)外的網(wǎng)速快吧,我們國(guó)情決定需要

調(diào)整“net.ipv4.tcp_fin_timeout = 10”,在10s的情況下,一切正常(實(shí)際運(yùn)行結(jié)論)。

修改完畢后,執(zhí)行:

/in/sysctl -p /etc/sysctl.conf

/in/sysctl -w net.ipv4.route.flush=1

命令生效。為了保險(xiǎn)起見(jiàn),也可以reboot系統(tǒng)。

調(diào)整文件數(shù):

linux系統(tǒng)優(yōu)化完網(wǎng)絡(luò)必須調(diào)高系統(tǒng)允許打開(kāi)的文件數(shù)才能支持大的并發(fā),默認(rèn)1024是遠(yuǎn)遠(yuǎn)不夠的。

執(zhí)行命令:

Shell代碼

echo ulimit -HSn>> /etc/rc.local

echo ulimit -HSn>>/root/.bash_profile

Linux中C語(yǔ)言的一個(gè)函數(shù)的源代碼:socket 編程中的 recv() 函數(shù)。

在內(nèi)核中它是sys_recv()

你好

recv函數(shù)只是在用戶空間定義的。內(nèi)核空間舉漏有與之對(duì)應(yīng)的函數(shù),也就是說(shuō),執(zhí)行recv函數(shù)就會(huì)調(diào)用到內(nèi)核中與它對(duì)應(yīng)的函數(shù),實(shí)際起作用的就是內(nèi)核里的這個(gè)函數(shù)。

至于內(nèi)核里調(diào)用的是那個(gè)函數(shù),你不需要是找,那樣會(huì)把你看暈的,內(nèi)核里的調(diào)用關(guān)系復(fù)雜的很,除非對(duì)內(nèi)核非常了解的,才會(huì)找到到底是怎么調(diào)用的,他也是只是找到怎么調(diào)用的,至于為什么這樣調(diào)用是極少人知道的。得問(wèn)linux的開(kāi)發(fā)者。因?yàn)閮?nèi)核的代碼量是太多了。有人花了三年時(shí)間才看完內(nèi)核代碼。

souce insight只能查找內(nèi)核里有的東西,屬于內(nèi)核的。recv()函數(shù)是不屬于內(nèi)核的,所以正物爛用這個(gè)是查找不到的

希望可以幫到你,望選為螞寬滿意答案

1、recv是socket編程中最常用的函數(shù)之一,在阻塞狀態(tài)的recv有時(shí)候會(huì)返回不同鏈頌的值,而對(duì)于錯(cuò)誤值也有相應(yīng)的錯(cuò)誤碼,分別對(duì)應(yīng)不同的狀態(tài)。

2、recv函數(shù)只是在用戶空間定義的。內(nèi)核空間有與之對(duì)應(yīng)的函數(shù),也就是說(shuō),執(zhí)行recv函數(shù)就會(huì)調(diào)用到內(nèi)核中與它對(duì)應(yīng)的函數(shù),實(shí)際起作用的就是內(nèi)核里的這個(gè)函數(shù)。至于內(nèi)核里調(diào)用的是那個(gè)函數(shù),歷山內(nèi)核里的調(diào)用關(guān)系復(fù)雜的很,除非對(duì)內(nèi)核非常了解的,才會(huì)找到到底是怎么調(diào)用的,他也是只是找棚爛鄭到怎么調(diào)用的。

這是通過(guò)系統(tǒng)調(diào)用下去的,找調(diào)用號(hào),找宏,然后就找到了函數(shù)

建議使用souce:insight查找

關(guān)于linux socket阻塞的介紹到此就結(jié)束了,不知道你從中找到你需要的信息了嗎 ?如果你還想了解更多這方面的信息,記得收藏關(guān)注本站。

香港服務(wù)器選創(chuàng)新互聯(lián),香港虛擬主機(jī)被稱為香港虛擬空間/香港網(wǎng)站空間,或者簡(jiǎn)稱香港主機(jī)/香港空間。香港虛擬主機(jī)特點(diǎn)是免備案空間開(kāi)通就用, 創(chuàng)新互聯(lián)香港主機(jī)精選cn2+bgp線路訪問(wèn)快、穩(wěn)定!


網(wǎng)站題目:解決LinuxSocket阻塞問(wèn)題的方法(linuxsocket阻塞)
當(dāng)前路徑:http://www.dlmjj.cn/article/cdpchoo.html