通過實例解析Python RPC實現(xiàn)原理及方法
單線程同步
使用socket傳輸數(shù)據(jù) 使用json序列化消息體 struct將消息編碼為二進制字節(jié)串,進行網(wǎng)絡(luò)傳輸消息協(xié)議
// 輸入{ in: 'ping', params: 'ireader 0'}// 輸出{ out: 'pong', result: 'ireader 0'}
客戶端 client.py
# coding: utf-8# client.pyimport jsonimport timeimport structimport socketdef rpc(sock, in_, params): response = json.dumps({'in': in_, 'params': params}) # 請求消息體 length_prefix = struct.pack('I', len(response)) # 請求長度前綴 sock.sendall(length_prefix) sock.sendall(response) length_prefix = sock.recv(4) # 響應(yīng)長度前綴 length, = struct.unpack('I', length_prefix) body = sock.recv(length) # 響應(yīng)消息體 response = json.loads(body) return response['out'], response['result'] # 返回響應(yīng)類型和結(jié)果if __name__ == ’__main__’: s = socket.socket(socket.AF_INET, socket.SOCK_STREAM) s.connect(('localhost', 8080)) for i in range(10): # 連續(xù)發(fā)送10個rpc請求 out, result = rpc(s, 'ping', 'ireader %d' % i) print out, result time.sleep(1) # 休眠1s,便于觀察 s.close() # 關(guān)閉連接
服務(wù)端 blocking_single.py
# coding: utf8# blocking_single.pyimport jsonimport structimport socketdef handle_conn(conn, addr, handlers): print addr, 'comes' while True: # 循環(huán)讀寫 length_prefix = conn.recv(4) # 請求長度前綴 if not length_prefix: # 連接關(guān)閉了 print addr, 'bye' conn.close() break # 退出循環(huán),處理下一個連接 length, = struct.unpack('I', length_prefix) body = conn.recv(length) # 請求消息體 request = json.loads(body) in_ = request[’in’] params = request[’params’] print in_, params handler = handlers[in_] # 查找請求處理器 handler(conn, params) # 處理請求def loop(sock, handlers): while True: conn, addr = sock.accept() # 接收連接 handle_conn(conn, addr, handlers) # 處理連接def ping(conn, params): send_result(conn, 'pong', params)def send_result(conn, out, result): response = json.dumps({'out': out, 'result': result}) # 響應(yīng)消息體 length_prefix = struct.pack('I', len(response)) # 響應(yīng)長度前綴 conn.sendall(length_prefix) conn.sendall(response)if __name__ == ’__main__’: sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM) # 創(chuàng)建一個TCP套接字 sock.setsockopt(socket.SOL_SOCKET, socket.SO_REUSEADDR, 1) # 打開reuse addr選項 sock.bind(('localhost', 8080)) # 綁定端口 sock.listen(1) # 監(jiān)聽客戶端連接 handlers = { # 注冊請求處理器 'ping': ping } loop(sock, handlers) # 進入服務(wù)循環(huán)
多線程同步
使用線程庫thread創(chuàng)建原生線程 服務(wù)器可并行處理多個客戶端服務(wù)端 multithread.py
多進程同步
Python的GIL導(dǎo)致單個進程只能占滿一個CPU核心,多線程無法利用多核優(yōu)勢 os.fork()會生成子進程 子進程退出后,父進程需使用waitpid系統(tǒng)調(diào)用收割子進程,防止其稱為僵尸資源 在子進程中關(guān)閉服務(wù)器套接字后,在父進程中也要關(guān)閉服務(wù)器套接字 因為進程fork后,父子進程都有自己的套接字引用指向內(nèi)核的同一份套接字對象,套接字引用計數(shù)為2,對套接字進程close,即將套接字對象的引用計數(shù)減1PreForking同步
進程比線程耗費資源,通過PreForking進程池模型對服務(wù)器開辟的進程數(shù)量進行限制,避免服務(wù)器負載過重 如果并行的連接數(shù)量超過了prefork進程數(shù)量,后來的客戶端請求將會阻塞單進程異步
通過事件輪詢API,查詢相關(guān)套接字是否有響應(yīng)的讀寫事件,有則攜帶事件列表返回,沒有則阻塞 拿到讀寫事件后,可對事件相關(guān)的套接字進行讀寫操作 設(shè)置讀寫緩沖區(qū) Nginx/Nodejs/Redis都是基于異步模型 異步模型編碼成本高,易出錯,通常在公司業(yè)務(wù)代碼中采用同步模型,僅在講究高并發(fā)高性能的場合才使用異步模型PreForking異步
Tornado/Nginx采用了多進程PreForking異步模型,具有良好的高并發(fā)處理能力
以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助,也希望大家多多支持好吧啦網(wǎng)。
相關(guān)文章:
1. java實現(xiàn)圖形化界面計算器2. Spring-Richclient 0.1.0 發(fā)布3. 解決idea中yml文件不識別的問題4. IDEA的Mybatis Generator駝峰配置問題5. IntelliJ IDEA設(shè)置條件斷點的方法步驟6. IntelliJ Idea2017如何修改緩存文件的路徑7. javascript設(shè)計模式 ? 建造者模式原理與應(yīng)用實例分析8. IIS Express 取代 ASP.NET Development Server的配置方法9. Python使用oslo.vmware管理ESXI虛擬機的示例參考10. 一篇文章帶你了解JavaScript-對象
