|
|
|
|
移动端

快来学学Python异步IO,轻松管理10k+并发连接

异步操作在计算机软硬件体系中是一个普遍概念,根源在于参与协作的各实体处理速度上有明显差异。软件开发中遇到的多数情况是CPU与IO的速度不匹配,所以异步IO存在于各种编程框架中,客户端比如浏览器,服务端比如node.js。本文主要分析Python异步IO。

作者:佚名来源:马哥Linux运维|2018-02-27 14:20

快学学Python异步IO轻松管理10k+并发连接

异步操作在计算机软硬件体系中是一个普遍概念,根源在于参与协作的各实体处理速度上有明显差异。软件开发中遇到的多数情况是CPU与IO的速度不匹配,所以异步IO存在于各种编程框架中,客户端比如浏览器,服务端比如node.js。本文主要分析Python异步IO。

Python 3.4标准库有一个新模块asyncio,用来支持异步IO,不过目前API状态是provisional,意味着不保证向后兼容性,甚至可能从标准库中移除(可能性极低)。如果关注PEP和Python-Dev会发现该模块酝酿了很长时间,可能后续有API和实现上的调整,但毋庸置疑asyncio非常实用且功能强大,值得学习和深究。

示例

asyncio主要应对TCP/UDP socket通信,从容管理大量连接,而无需创建大量线程,提高系统运行效率。此处将官方文档的一个示例做简单改造,实现一个HTTP长连接benchmark工具,用于诊断WEB服务器长连接处理能力。

功能概述:

每隔10毫秒创建10个连接,直到目标连接数(比如10k),同时每个连接都会规律性的向服务器发送HEAD请求,以维持HTTP keepavlie。

代码如下: 

  1. import argparse  
  2. import asyncio  
  3. import functools  
  4. import logging  
  5. import random  
  6. import urllib.parse  
  7. loop = asyncio.get_event_loop()  
  8. @asyncio.coroutine  
  9. def print_http_headers(no, url, keepalive):  
  10.     url = urllib.parse.urlsplit(url)  
  11.     wait_for = functools.partial(asyncio.wait_for, timeout=3, loop=loop)  
  12.     query = ('HEAD {url.path} HTTP/1.1\r\n'  
  13.              'Host: {url.hostname}\r\n'  
  14.              '\r\n').format(url=url).encode('utf-8' 
  15.     rd, wr = yield from wait_for(asyncio.open_connection(url.hostname, 80))  
  16.     while True 
  17.         wr.write(query)  
  18.         while True 
  19.             line = yield from wait_for(rd.readline())  
  20.             if not line: # end of connection  
  21.                 wr.close()  
  22.                 return no  
  23.             line = line.decode('utf-8').rstrip()  
  24.             if not line: # end of header  
  25.                 break  
  26.             logging.debug('(%d) HTTP header> %s' % (no, line))  
  27.         yield from asyncio.sleep(random.randint(1, keepalive//2))  
  28. @asyncio.coroutine  
  29. def do_requests(args):  
  30.     conn_pool = set()  
  31.     waiter = asyncio.Future()  
  32.     def _on_complete(fut):  
  33.         conn_pool.remove(fut)  
  34.         exc, res = fut.exception(), fut.result()  
  35.         if exc is not None:  
  36.             logging.info('conn#{} exception'.format(exc))  
  37.         else 
  38.             logging.info('conn#{} result'.format(res))  
  39.         if not conn_pool:  
  40.             waiter.set_result('event loop is done' 
  41.     for i in range(args.connections):  
  42.         fut = asyncio.async(print_http_headers(i, args.url, args.keepalive))  
  43.         fut.add_done_callback(_on_complete)  
  44.         conn_pool.add(fut)  
  45.         if i % 10 == 0:  
  46.             yield from asyncio.sleep(0.01)  
  47.     logging.info((yield from waiter))  
  48. def main():  
  49.     parser = argparse.ArgumentParser(description='asyncli' 
  50.     parser.add_argument('url', help='page address' 
  51.     parser.add_argument('-c''--connections', type=intdefault=1,  
  52.                         help='number of connections simultaneously' 
  53.     parser.add_argument('-k''--keepalive', type=intdefault=60,  
  54.                         help='HTTP keepalive timeout' 
  55.     args = parser.parse_args()  
  56.     logging.basicConfig(level=logging.INFO, format='%(asctime)s %(message)s' 
  57.     loop.run_until_complete(do_requests(args))  
  58.     loop.close()  
  59. if __name__ == '__main__' 
  60.     main() 

测试与分析

硬件:CPU 2.3GHz / 2 cores,RAM 2GB

软件:CentOS 6.5(kernel 2.6.32), Python 3.3 (pip install asyncio), nginx 1.4.7

参数设置:ulimit -n 10240;nginx worker的连接数改为10240

启动WEB服务器,只需一个worker进程:

  1. # ../sbin/nginx  
  2. # ps ax | grep nginx  
  3. 2007 ? Ss 0:00 nginx: master process ../sbin/nginx  
  4. 2008 ? S 0:00 nginx: worker process 

启动benchmark工具, 发起10k个连接,目标URL是nginx的默认测试页面:

  1. $ python asyncli.py http://10.211.55.8/ -c 10000 

nginx日志统计平均每秒请求数:

  1. # tail -1000000 access.log | awk '{ print $4 }' | sort | uniq -c | awk '{ cnt+=1; sum+=$1 } END { printf "avg = %d\n", sum/cnt }'  
  2. avg = 548 

top部分输出:

  1. VIRT   RES   SHR  S %CPU  %MEM   TIME+  COMMAND  
  2. 657m   115m  3860 R 60.2  6.2   4:30.02  python  
  3. 54208  10m   848  R 7.0   0.6   0:30.79  nginx 

总结:

1. Python实现简洁明了。不到80行代码,只用到标准库,逻辑直观,想象下C/C++标准库实现这些功能,顿觉“人生苦短,我用Python”。

2. Python运行效率不理想。当连接建立后,客户端和服务端的数据收发逻辑差不多,看上面top输出,Python的CPU和RAM占用基本都是nginx的10倍,意味着效率相差100倍(CPU x RAM),侧面说明了Python与C的效率差距。这个对比虽然有些极端,毕竟nginx不仅用C且为CPU/RAM占用做了深度优化,但相似任务效率相差两个数量级,除非是BUG,说明架构设计的出发点就是不同的,Python优先可读易用而性能次之,nginx就是一个高度优化的WEB服务器,开发一个module都比较麻烦,要复用它的异步框架,简直难上加难。开发效率与运行效率的权衡,永远都存在。

3. 单线程异步IO v.s. 多线程同步IO。上面的例子是单线程异步IO,其实不写demo就知道多线程同步IO效率低得多,每个线程一个连接?10k个线程,仅线程栈就占用600+MB(64KB * 10000)内存,加上线程上下文切换和GIL,基本就是噩梦。

ayncio核心概念

以下是学习asyncio时需要理解的四个核心概念,更多细节请看<参考资料>

1. event loop。单线程实现异步的关键就在于这个高层事件循环,它是同步执行的。

2. future。异步IO有很多异步任务构成,而每个异步任务都由一个future控制。

3. coroutine。每个异步任务具体的执行逻辑由一个coroutine来体现。

4. generator(yield & yield from) 。在asyncio中大量使用,是不可忽视的语法细节。

参考资料

1. asyncio – Asynchronous I/O, event loop, coroutines and tasks, https://docs.python.org/3/library/asyncio.html

2. PEP 3156, Asynchronous IO Support Rebooted: the "asyncio” Module, http://legacy.python.org/dev/peps/pep-3156/

3. PEP 380, Syntax for Delegating to a Subgenerator, http://legacy.python.org/dev/peps/pep-0380/

4. PEP 342, Coroutines via Enhanced Generators, http://legacy.python.org/dev/peps/pep-0342/

5. PEP 255, Simple Generators, http://legacy.python.org/dev/peps/pep-0255/

6. asyncio source code, http://hg.python.org/cpython/file/3.4/Lib/asyncio/

【编辑推荐】

  1. 5个提升生产效率的Python开发和配置的小技巧
  2. 用Python实现每秒处理120万次HTTP请求
  3. 什么是Cython?让Python有C语言的速度
  4. 基于Python实现的微信好友数据分析
  5. 实用又好用,6款Python特殊文本格式处理库推荐
【责任编辑:庞桂玉 TEL:(010)68476606】

点赞 0
分享:
大家都在看
猜你喜欢

读 书 +更多

C++编程你也行

本书是一本优秀的C++教材,内容包括:基础类型、操作符和简单变量,循环和决策,命名空间和C++标准库,用C++编写函数,行为、序列点和求值...

订阅51CTO邮刊

点击这里查看样刊

订阅51CTO邮刊