iocp가 udp, tcp, tls, quic 전부 지원하도록 수정 중...
This commit is contained in:
@@ -17,37 +17,138 @@ void IOCP::registerSocket(IOCPPASSINDATA* data) {
|
|||||||
HANDLE returnData = ::CreateIoCompletionPort(
|
HANDLE returnData = ::CreateIoCompletionPort(
|
||||||
(HANDLE)data->socket->sock, completionPort_, data->socket->sock, 0);
|
(HANDLE)data->socket->sock, completionPort_, data->socket->sock, 0);
|
||||||
if (returnData == 0) completionPort_ = returnData;
|
if (returnData == 0) completionPort_ = returnData;
|
||||||
|
|
||||||
|
data->event = IOCPEVENT::READ;
|
||||||
|
DWORD recvbytes = 0, flags = 0;
|
||||||
|
::WSARecv(data->socket->sock, &data->wsabuf, 1, &recvbytes, &flags,
|
||||||
|
&data->overlapped, NULL);
|
||||||
#endif
|
#endif
|
||||||
}
|
}
|
||||||
|
|
||||||
//int IOCP::recv(IOCPPASSINDATA* data, int bufferCount) {
|
|
||||||
// data->event = IOCPEVENT::READ;
|
|
||||||
//#ifdef _WIN32
|
|
||||||
// DWORD recvbytes = 0, flags = 0;
|
|
||||||
// return ::WSARecv(data->socket->sock, &data->wsabuf, bufferCount, &recvbytes,
|
|
||||||
// &flags, &data->overlapped, NULL);
|
|
||||||
//#endif
|
|
||||||
//}
|
|
||||||
//
|
|
||||||
//int IOCP::send(IOCPPASSINDATA* data, int bufferCount, int __flags) {
|
|
||||||
// data->event = IOCPEVENT::WRITE;
|
|
||||||
//#ifdef _WIN32
|
|
||||||
// DWORD sendbytes = 0;
|
|
||||||
// return ::WSASend(data->socket->sock, &data->wsabuf, bufferCount, &sendbytes,
|
|
||||||
// __flags, &data->overlapped, NULL);
|
|
||||||
//#endif
|
|
||||||
//}
|
|
||||||
|
|
||||||
int IOCP::recv(IOCPPASSINDATA& data) {
|
int IOCP::recv(IOCPPASSINDATA& data) {
|
||||||
data.event = IOCPEVENT::READ;
|
SOCKET sock = data.socket->sock;
|
||||||
#ifdef _WIN32
|
std::lock_guard lock(*GetRecvQueueMutex_(sock));
|
||||||
#endif
|
auto queue = GetRecvQueue_(sock);
|
||||||
|
|
||||||
|
std::uint32_t left_data = data.wsabuf.len;
|
||||||
|
std::uint32_t copied = 0;
|
||||||
|
|
||||||
|
while (!queue->empty() && left_data != 0) {
|
||||||
|
auto front = queue->front();
|
||||||
|
queue->pop_front();
|
||||||
|
|
||||||
|
std::uint32_t offset = front.second;
|
||||||
|
std::uint32_t available = front.first.size() - offset;
|
||||||
|
std::uint32_t to_copy = (left_data < available) ? left_data : available;
|
||||||
|
|
||||||
|
::memcpy(data.wsabuf.buf + copied, front.first.data() + offset, to_copy);
|
||||||
|
copied += to_copy;
|
||||||
|
left_data -= to_copy;
|
||||||
|
offset += to_copy;
|
||||||
|
|
||||||
|
if (offset < front.first.size()) {
|
||||||
|
front.second = offset;
|
||||||
|
queue->push_front(front);
|
||||||
|
break;
|
||||||
|
}
|
||||||
|
}
|
||||||
|
|
||||||
|
return copied;
|
||||||
}
|
}
|
||||||
|
|
||||||
int IOCP::send(std::vector<IOCPPASSINDATA> data) {
|
int IOCP::send(SOCKET sock, std::vector<IOCPPASSINDATA>& data) {
|
||||||
data.event = IOCPEVENT::WRITE;
|
std::lock_guard lock(*send_queue_mutex_[sock]);
|
||||||
#ifdef _WIN32
|
for (auto it : data) {
|
||||||
#endif
|
it.event = IOCPEVENT::WRITE;
|
||||||
|
send_queue_[sock]->push_back(it);
|
||||||
|
}
|
||||||
|
|
||||||
|
IOCPThread_->enqueueJob(
|
||||||
|
[this, sock](utils::ThreadPool* th, std::uint8_t __) {
|
||||||
|
packet_sender_(sock);
|
||||||
|
},
|
||||||
|
0);
|
||||||
|
return 0;
|
||||||
|
}
|
||||||
|
|
||||||
|
std::shared_ptr<std::list<IOCPPASSINDATA>> IOCP::GetSendQueue_(SOCKET sock) {
|
||||||
|
std::lock_guard lock(socket_mod_mutex_);
|
||||||
|
if (send_queue_.find(sock) == send_queue_.end()) {
|
||||||
|
send_queue_[sock] = std::make_shared<std::list<IOCPPASSINDATA>>(
|
||||||
|
std::list<IOCPPASSINDATA>());
|
||||||
|
}
|
||||||
|
return send_queue_[sock];
|
||||||
|
}
|
||||||
|
|
||||||
|
std::shared_ptr<std::list<std::pair<std::vector<char>, std::uint32_t>>>
|
||||||
|
IOCP::GetRecvQueue_(SOCKET sock) {
|
||||||
|
std::lock_guard lock(socket_mod_mutex_);
|
||||||
|
if (recv_queue_.find(sock) == recv_queue_.end()) {
|
||||||
|
recv_queue_[sock] = std::make_shared<
|
||||||
|
std::list<std::pair<std::vector<char>, std::uint32_t>>>(
|
||||||
|
std::list<std::pair<std::vector<char>, std::uint32_t>>());
|
||||||
|
}
|
||||||
|
return recv_queue_[sock];
|
||||||
|
}
|
||||||
|
|
||||||
|
std::shared_ptr<std::mutex> IOCP::GetSendQueueMutex_(SOCKET sock) {
|
||||||
|
std::lock_guard lock(socket_mod_mutex_);
|
||||||
|
if (send_queue_mutex_.find(sock) == send_queue_mutex_.end()) {
|
||||||
|
send_queue_mutex_[sock] = std::make_shared<std::mutex>();
|
||||||
|
}
|
||||||
|
return send_queue_mutex_[sock];
|
||||||
|
}
|
||||||
|
|
||||||
|
std::shared_ptr<std::mutex> IOCP::GetRecvQueueMutex_(SOCKET sock) {
|
||||||
|
std::lock_guard lock(socket_mod_mutex_);
|
||||||
|
if (recv_queue_mutex_.find(sock) == recv_queue_mutex_.end()) {
|
||||||
|
recv_queue_mutex_[sock] = std::make_shared<std::mutex>();
|
||||||
|
}
|
||||||
|
return recv_queue_mutex_[sock];
|
||||||
|
}
|
||||||
|
|
||||||
|
void IOCP::packet_sender_(SOCKET sock) {
|
||||||
|
auto queue = GetSendQueue_(sock);
|
||||||
|
std::unique_lock lock(*GetSendQueueMutex_(sock));
|
||||||
|
|
||||||
|
std::vector<char> buf(16384);
|
||||||
|
WSABUF wsabuf;
|
||||||
|
DWORD sendbytes = 0;
|
||||||
|
|
||||||
|
while (!queue->empty()) {
|
||||||
|
auto front = queue->front();
|
||||||
|
queue->pop_front();
|
||||||
|
front.event = IOCPEVENT::WRITE;
|
||||||
|
|
||||||
|
int data_len = 0;
|
||||||
|
|
||||||
|
if (proto_ == SessionProtocol::TLS || proto_ == SessionProtocol::QUIC) {
|
||||||
|
int ret = ::SSL_write(front.ssl, front.wsabuf.buf, front.wsabuf.len);
|
||||||
|
if (ret <= 0) {
|
||||||
|
int err = ::SSL_get_error(front.ssl, ret);
|
||||||
|
if (err == SSL_ERROR_WANT_READ || err == SSL_ERROR_WANT_WRITE) {
|
||||||
|
queue->push_front(front);
|
||||||
|
break;
|
||||||
|
}
|
||||||
|
std::unique_lock lk(socket_mod_mutex_);
|
||||||
|
send_queue_.erase(sock);
|
||||||
|
break;
|
||||||
|
}
|
||||||
|
|
||||||
|
while ((data_len = ::BIO_read(wbio_, buf.data(), buf.size())) > 0) {
|
||||||
|
wsabuf.buf = buf.data();
|
||||||
|
wsabuf.len = data_len;
|
||||||
|
|
||||||
|
::WSASend(sock, &wsabuf, 1, &sendbytes, 0, nullptr, nullptr);
|
||||||
|
}
|
||||||
|
|
||||||
|
} else {
|
||||||
|
data_len = front.wsabuf.len;
|
||||||
|
wsabuf.buf = front.wsabuf.buf;
|
||||||
|
wsabuf.len = data_len;
|
||||||
|
::WSASend(sock, &wsabuf, 1, &sendbytes, 0, nullptr, nullptr);
|
||||||
|
}
|
||||||
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
} // namespace Network
|
} // namespace Network
|
||||||
|
|||||||
@@ -35,6 +35,8 @@ struct IOCPPASSINDATA {
|
|||||||
IOCPEVENT event;
|
IOCPEVENT event;
|
||||||
std::shared_ptr<Socket> socket;
|
std::shared_ptr<Socket> socket;
|
||||||
SSL* ssl;
|
SSL* ssl;
|
||||||
|
BIO* rbio; // bio는 ssl별로 달라야 하므로 분리해야 함..
|
||||||
|
BIO* wbio;
|
||||||
std::uint32_t transferredbytes;
|
std::uint32_t transferredbytes;
|
||||||
WSABUF wsabuf;
|
WSABUF wsabuf;
|
||||||
std::uint32_t bufsize;
|
std::uint32_t bufsize;
|
||||||
@@ -52,6 +54,7 @@ struct IOCPPASSINDATA {
|
|||||||
IOCPInstance = nullptr;
|
IOCPInstance = nullptr;
|
||||||
|
|
||||||
wsabuf.buf = new char[bufsize];
|
wsabuf.buf = new char[bufsize];
|
||||||
|
wsabuf.len = bufsize;
|
||||||
}
|
}
|
||||||
IOCPPASSINDATA(const IOCPPASSINDATA& other)
|
IOCPPASSINDATA(const IOCPPASSINDATA& other)
|
||||||
: event(other.event),
|
: event(other.event),
|
||||||
@@ -65,12 +68,13 @@ struct IOCPPASSINDATA {
|
|||||||
#endif
|
#endif
|
||||||
{
|
{
|
||||||
std::memset(&overlapped, 0, sizeof(overlapped));
|
std::memset(&overlapped, 0, sizeof(overlapped));
|
||||||
wsabuf.buf = new char[bufsize];
|
wsabuf.buf = new char[other.bufsize];
|
||||||
|
wsabuf.len = other.bufsize;
|
||||||
std::memcpy(wsabuf.buf, other.wsabuf.buf, other.wsabuf.len);
|
std::memcpy(wsabuf.buf, other.wsabuf.buf, other.wsabuf.len);
|
||||||
}
|
}
|
||||||
|
|
||||||
~IOCPPASSINDATA() {
|
~IOCPPASSINDATA() {
|
||||||
if (wsabuf.buf != nullptr) delete wsabuf.buf;
|
if (wsabuf.buf != nullptr) delete[] wsabuf.buf;
|
||||||
}
|
}
|
||||||
|
|
||||||
IOCPPASSINDATA& operator=(const IOCPPASSINDATA& other) {
|
IOCPPASSINDATA& operator=(const IOCPPASSINDATA& other) {
|
||||||
@@ -84,7 +88,9 @@ struct IOCPPASSINDATA {
|
|||||||
#ifdef __linux__
|
#ifdef __linux__
|
||||||
sendQueue = other.sendQueue;
|
sendQueue = other.sendQueue;
|
||||||
#endif
|
#endif
|
||||||
wsabuf.buf = new char[bufsize];
|
if (wsabuf.buf != nullptr) delete[] wsabuf.buf;
|
||||||
|
wsabuf.buf = new char[other.bufsize];
|
||||||
|
wsabuf.len = other.bufsize;
|
||||||
std::memcpy(wsabuf.buf, other.wsabuf.buf, other.wsabuf.len);
|
std::memcpy(wsabuf.buf, other.wsabuf.buf, other.wsabuf.len);
|
||||||
}
|
}
|
||||||
return *this;
|
return *this;
|
||||||
@@ -95,11 +101,7 @@ class IOCP {
|
|||||||
public:
|
public:
|
||||||
~IOCP();
|
~IOCP();
|
||||||
|
|
||||||
template <typename... _args>
|
void init(utils::ThreadPool* __IOCPThread, SessionProtocol proto) {
|
||||||
void init(utils::ThreadPool* __IOCPThread, SessionProtocol proto,
|
|
||||||
std::function<void(utils::ThreadPool*, IOCPPASSINDATA*, _args&&...)>
|
|
||||||
callback,
|
|
||||||
_args&&... args) {
|
|
||||||
IOCPThread_ = __IOCPThread;
|
IOCPThread_ = __IOCPThread;
|
||||||
proto_ = proto;
|
proto_ = proto;
|
||||||
|
|
||||||
@@ -121,7 +123,9 @@ class IOCP {
|
|||||||
__IOCPThread->respawnWorker(tCount * 2);
|
__IOCPThread->respawnWorker(tCount * 2);
|
||||||
|
|
||||||
for (int i = 0; i < tCount; i++)
|
for (int i = 0; i < tCount; i++)
|
||||||
__IOCPThread->enqueueJob(iocpWatcher_, IOCPThread_, callback, args...);
|
IOCPThread_->enqueueJob(
|
||||||
|
[this](utils::ThreadPool* th, std::uint8_t __) { iocpWatcher_(th); },
|
||||||
|
0);
|
||||||
#endif
|
#endif
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -129,50 +133,68 @@ class IOCP {
|
|||||||
|
|
||||||
void registerSocket(IOCPPASSINDATA* data);
|
void registerSocket(IOCPPASSINDATA* data);
|
||||||
|
|
||||||
int send(std::vector<IOCPPASSINDATA> data);
|
// data는 한 가지 소켓에 보내는 패킷만 담아야 합니다
|
||||||
|
int send(SOCKET sock, std::vector<IOCPPASSINDATA>& data);
|
||||||
int recv(IOCPPASSINDATA& data);
|
int recv(IOCPPASSINDATA& data);
|
||||||
|
|
||||||
private:
|
private:
|
||||||
#ifdef _WIN32
|
#ifdef _WIN32
|
||||||
template <typename... _args>
|
void iocpWatcher_(utils::ThreadPool* IOCPThread) {
|
||||||
void iocpWatcher_(
|
|
||||||
utils::ThreadPool* IOCPThread,
|
|
||||||
std::function<void(utils::ThreadPool*, IOCPPASSINDATA*, _args&&...)>
|
|
||||||
callback,
|
|
||||||
_args&&... args) {
|
|
||||||
IOCPPASSINDATA* data;
|
IOCPPASSINDATA* data;
|
||||||
SOCKET sock;
|
SOCKET sock;
|
||||||
DWORD cbTransfrred;
|
DWORD cbTransfrred;
|
||||||
int retVal = GetQueuedCompletionStatus(completionPort_, &cbTransfrred,
|
int retVal = GetQueuedCompletionStatus(completionPort_, &cbTransfrred,
|
||||||
(PULONG_PTR)&sock,
|
(PULONG_PTR)&sock,
|
||||||
(LPOVERLAPPED*)&data, INFINITE);
|
(LPOVERLAPPED*)&data, INFINITE);
|
||||||
|
|
||||||
if (retVal == 0 || cbTransfrred == 0) {
|
if (retVal == 0 || cbTransfrred == 0) {
|
||||||
data->event = IOCPEVENT::QUIT;
|
data->event = IOCPEVENT::QUIT;
|
||||||
spdlog::debug("Disconnected. [{}]",
|
spdlog::debug("Disconnected. [{}]",
|
||||||
(std::string)(data->socket->remoteAddr));
|
(std::string)(data->socket->remoteAddr));
|
||||||
|
delete data;
|
||||||
} else {
|
} else {
|
||||||
if (data->event == IOCPEVENT::READ &&
|
|
||||||
(proto_ == SessionProtocol::TLS || proto_ == SessionProtocol::QUIC)) {
|
|
||||||
::BIO_write(rbio_, data->wsabuf.buf, cbTransfrred);
|
|
||||||
::SSL_read_ex(data->ssl, data->wsabuf.buf, data->bufsize);
|
|
||||||
}
|
|
||||||
data->transferredbytes = cbTransfrred;
|
data->transferredbytes = cbTransfrred;
|
||||||
}
|
}
|
||||||
|
|
||||||
IOCPThread->enqueueJob(callback, IOCPThread, data, args...);
|
std::vector<char> buf(16384); // SSL_read최대 반환 크기
|
||||||
IOCPThread->enqueueJob(iocpWatcher_, callback, args...);
|
int red_data = 0;
|
||||||
};
|
auto queue_list = GetRecvQueue_(data->socket->sock);
|
||||||
#elif __linux__
|
if (data->event == IOCPEVENT::READ) {
|
||||||
|
if (proto_ == SessionProtocol::TLS || proto_ == SessionProtocol::QUIC) {
|
||||||
|
::BIO_write(rbio_, data->wsabuf.buf, cbTransfrred);
|
||||||
|
|
||||||
#endif
|
while ((red_data = ::SSL_read(data->ssl, buf.data(), buf.size())) > 0) {
|
||||||
|
queue_list->emplace_back(std::make_pair(
|
||||||
void packet_sender_(utils::ThreadPool* IOCPThread) {
|
std::vector<char>(buf.begin(), buf.begin() + red_data), 0));
|
||||||
#ifdef _WIN32
|
}
|
||||||
std::lock_guard<std::mutex> lock(send_queue_mutex_);
|
} else {
|
||||||
#elif __linux__
|
::memcpy(buf.data(), data->wsabuf.buf, data->transferredbytes);
|
||||||
|
queue_list->emplace_back(std::make_pair(
|
||||||
#endif
|
std::vector<char>(buf.begin(),
|
||||||
|
buf.begin() + data->transferredbytes),
|
||||||
|
0));
|
||||||
|
}
|
||||||
|
DWORD recvbytes = 0, flags = 0;
|
||||||
|
::WSARecv(data->socket->sock, &data->wsabuf, 1, &recvbytes, &flags,
|
||||||
|
&data->overlapped, NULL);
|
||||||
|
} else { // WRITE 시, 무시한다.
|
||||||
|
delete data;
|
||||||
|
}
|
||||||
|
IOCPThread->enqueueJob(
|
||||||
|
[this](utils::ThreadPool* th, std::uint8_t __) { iocpWatcher_(th); },
|
||||||
|
0);
|
||||||
}
|
}
|
||||||
|
#elif __linux__
|
||||||
|
|
||||||
|
#endif
|
||||||
|
|
||||||
|
std::shared_ptr<std::list<IOCPPASSINDATA>> GetSendQueue_(SOCKET sock);
|
||||||
|
std::shared_ptr<std::list<std::pair<std::vector<char>, std::uint32_t>>>
|
||||||
|
GetRecvQueue_(SOCKET sock);
|
||||||
|
std::shared_ptr<std::mutex> GetSendQueueMutex_(SOCKET sock);
|
||||||
|
std::shared_ptr<std::mutex> GetRecvQueueMutex_(SOCKET sock);
|
||||||
|
|
||||||
|
void packet_sender_(SOCKET sock);
|
||||||
|
|
||||||
struct WSAManager* wsaManager = WSAManager::GetInstance();
|
struct WSAManager* wsaManager = WSAManager::GetInstance();
|
||||||
utils::ThreadPool* IOCPThread_;
|
utils::ThreadPool* IOCPThread_;
|
||||||
@@ -182,7 +204,8 @@ class IOCP {
|
|||||||
|
|
||||||
SessionProtocol proto_;
|
SessionProtocol proto_;
|
||||||
|
|
||||||
// 밑의 unordered_map들에 키를 추가/제거 하려는 스레드는 이 뮤텍스를 잡아야 함.
|
// 밑의 unordered_map들에 키를 추가/제거 하려는 스레드는 이 뮤텍스를 잡아야
|
||||||
|
// 함.
|
||||||
std::mutex socket_mod_mutex_;
|
std::mutex socket_mod_mutex_;
|
||||||
|
|
||||||
// 각 소켓별 뮤텍스. 다른 스레드가 읽는 중이라면 수신 순서 보장을 위해 다른
|
// 각 소켓별 뮤텍스. 다른 스레드가 읽는 중이라면 수신 순서 보장을 위해 다른
|
||||||
@@ -192,11 +215,12 @@ class IOCP {
|
|||||||
// 채워야 함. (항시 socket에 대한 큐에 대해 읽기 시도가 행해질 수 있어야
|
// 채워야 함. (항시 socket에 대한 큐에 대해 읽기 시도가 행해질 수 있어야
|
||||||
// 한다는 뜻임) EPOLLIN에 대해서는 ONESHOT으로 등록해 놓고 읽는 도중에 버퍼에
|
// 한다는 뜻임) EPOLLIN에 대해서는 ONESHOT으로 등록해 놓고 읽는 도중에 버퍼에
|
||||||
// 새 값이 채워질 수 있으므로 읽기가 끝나고 나서 재등록한다
|
// 새 값이 채워질 수 있으므로 읽기가 끝나고 나서 재등록한다
|
||||||
std::unordered_map<SOCKET, std::mutex> recv_queue_mutex_;
|
std::unordered_map<SOCKET, std::shared_ptr<std::mutex>> recv_queue_mutex_;
|
||||||
// 각 소켓별 패킷, int는 그 vector의 시작 인덱스(vector의 끝까지 다 읽었으면
|
// 각 소켓별 패킷, int는 그 vector의 시작 인덱스(vector의 끝까지 다 읽었으면
|
||||||
// 그 vector는 list에서 삭제되어야 하며, 데이터는 평문으로 변환하여 저장한다)
|
// 그 vector는 list에서 삭제되어야 하며, 데이터는 평문으로 변환하여 저장한다)
|
||||||
std::unordered_map<SOCKET,
|
std::unordered_map<
|
||||||
std::list<std::pair<std::vector<char>, std::uint32_t>>>
|
SOCKET,
|
||||||
|
std::shared_ptr<std::list<std::pair<std::vector<char>, std::uint32_t>>>>
|
||||||
recv_queue_;
|
recv_queue_;
|
||||||
|
|
||||||
// 각 소켓별 뮤텍스. 다른 스레드가 쓰는 중이라면 송신 순서 보장을 위해 다른
|
// 각 소켓별 뮤텍스. 다른 스레드가 쓰는 중이라면 송신 순서 보장을 위해 다른
|
||||||
@@ -206,13 +230,15 @@ class IOCP {
|
|||||||
// 윈도우에서는 송신을 iocp가 대행하기 때문에 이 큐가 필요 없는 것처럼 느껴질
|
// 윈도우에서는 송신을 iocp가 대행하기 때문에 이 큐가 필요 없는 것처럼 느껴질
|
||||||
// 수 있으나, 송신 순서를 보장하기 위해 WSASend를 한 스레드가 연속해서
|
// 수 있으나, 송신 순서를 보장하기 위해 WSASend를 한 스레드가 연속해서
|
||||||
// 호출해야만 하는데 이는 한번 쓰기 호출 시에 송신 중 데이터를 추가하려는
|
// 호출해야만 하는데 이는 한번 쓰기 호출 시에 송신 중 데이터를 추가하려는
|
||||||
// 스레드가 데이터를 추가하고 미전송된 경우를 대비하여 최대 1개까지의 스레드가
|
// 스레드가 데이터를 추가하고 미전송된 경우를 대비하여 스레드가 대기하도록
|
||||||
// 대기하도록 한다. 리눅스에서도 send_queue에 데이터를 쌓고 최대 1개까지의
|
// 한다. 리눅스에서도 send_queue에 데이터를 쌓고 스레드가 대기하도록 한다.
|
||||||
// 스레드가 대기하도록 한다.
|
std::unordered_map<SOCKET, std::shared_ptr<std::mutex>> send_queue_mutex_;
|
||||||
std::unordered_map<SOCKET, std::atomic_flag> pending_try_empty_;
|
std::unordered_map<SOCKET, std::shared_ptr<std::list<IOCPPASSINDATA>>>
|
||||||
std::unordered_map<SOCKET, std::atomic_flag> sending_;
|
send_queue_;
|
||||||
std::unordered_map<SOCKET, std::mutex> send_queue_mutex_;
|
// 쓰기 싫었지만 쓰기 큐를 직렬화 하는 것 밖에 좋은 수가 생각이 안 남..
|
||||||
std::unordered_map<SOCKET, std::list<IOCPPASSINDATA>> send_queue_;
|
/*std::mutex send_queue_mutex_;
|
||||||
|
std::condition_variable cv_send_queue_;
|
||||||
|
std::list<IOCPPASSINDATA> send_queue_;*/
|
||||||
|
|
||||||
#ifdef _WIN32
|
#ifdef _WIN32
|
||||||
HANDLE completionPort_ = INVALID_HANDLE_VALUE;
|
HANDLE completionPort_ = INVALID_HANDLE_VALUE;
|
||||||
|
|||||||
@@ -28,7 +28,7 @@ class ThreadPool {
|
|||||||
std::invoke_result_t<_Callable, _Args...>& retVal,
|
std::invoke_result_t<_Callable, _Args...>& retVal,
|
||||||
_Args&&... __args) {
|
_Args&&... __args) {
|
||||||
if (terminate_) {
|
if (terminate_) {
|
||||||
spdlog::error("Cannot run jobs on threads that terminating...");
|
spdlog::warn("Cannot run jobs on threads that terminating...");
|
||||||
return -1;
|
return -1;
|
||||||
}
|
}
|
||||||
|
|
||||||
@@ -48,7 +48,7 @@ class ThreadPool {
|
|||||||
std::invoke_result_t<_Callable, ThreadPool*, _Args...>>
|
std::invoke_result_t<_Callable, ThreadPool*, _Args...>>
|
||||||
int enqueueJob(_Callable&& __job, _Args&&... __args) {
|
int enqueueJob(_Callable&& __job, _Args&&... __args) {
|
||||||
if (terminate_) {
|
if (terminate_) {
|
||||||
spdlog::error("Cannot run jobs on threads that terminating...");
|
spdlog::warn("Cannot run jobs on threads that terminating...");
|
||||||
return -1;
|
return -1;
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|||||||
Reference in New Issue
Block a user