Python 进阶(二):多进程
发布日期:2021-06-30 11:42:22 浏览次数:2 分类:技术文章

本文共 6149 字,大约阅读时间需要 20 分钟。

目录

1. 简介

进程:通常一个运行着的应用程序就是一个进程,比如:我启动了一个音乐播放器,现在它就是一个进程。

线程:线程是进程的最小执行单元,比如:我在刚启动的音乐播放器上选了一首歌曲进行播放,这就是一个线程。

在一文中,我们说了因为 GIL 的原因,CPython 解释器下的多线程牺牲了并行性,为此 Python 提供了多进程模块 multiprocessing,该模块同时提供了本地和远程并发,使用子进程代替线程,可以有效的避免 GIL 带来的影响,能够充分发挥机器上的多核优势,可以实现真正的并行效果,并且它与 threading 模块的 API 基本类似,使用起来也比较方便。

2. 使用

2.1 Process 类

multiprocessing 模块通过创建一个 Process 对象然后调用它的 start() 方法来生成进程,Processthreading.Thread API 相同。

multiprocessing.Process(group=None, target=None, name=None, args=(), kwargs={}, *, daemon=None)

进程对象,表示在单独进程中运行的活动。参数说明如下:

  • group:仅用于兼容 threading.Thread,应该始终是 None。

  • target:由 run() 方法调用的可调用对象。

  • name:进程名。

  • args:目标调用的参数元组。

  • kwargs:目标调用的关键字参数字典。

  • daemon:设置进程是否为守护进程,如果是默认值 None,则该标志将从创建的进程继承。

multiprocessing.Process 对象具有如下方法和属性。

  • run():进程具体执行的方法。

  • start():启动进程。

  • join([timeout]):如果可选参数 timeout 是默认值 None,则将阻塞至调用 join() 方法的进程终止;如果 timeout 是一个正数,则最多会阻塞 timeout 秒。

  • name:进程的名称。

  • is_alive():返回进程是否还活着。

  • daemon:进程的守护标志,是一个布尔值。

  • pid:返回进程 ID。

  • exitcode:子进程的退出代码。

  • authkey:进程的身份验证密钥。

  • sentinel:系统对象的数字句柄,当进程结束时将变为 ready。

  • terminate():终止进程。

  • kill():与 terminate() 相同,但在 Unix 上使用 SIGKILL 信号。

  • close():关闭 Process 对象,释放与之关联的所有资源。

看一个使用多进程的示例。

from multiprocessing import Processimport time, osdef target():    time.sleep(2)    print ('子进程ID:', os.getpid())if __name__=='__main__':    print ('主进程ID:', os.getpid())    ps = []    for i in range(10):        p = Process(target=target)        p.start()        ps.append(p)    for p in ps:        p.join()

当进程数量比较多时,我们可以利用进程池方便、高效的对进程进行使用和管理。

multiprocessing.pool.Pool([processes[, initializer[, initargs[, maxtasksperchild[, context]]]]])

进程池对象。参数说明如下:

  • processes:工作进程数目,如果 processes 为 None,则使用 os.cpu_count() 返回的值。

  • initializer:如果 initializer 不为 None,则每个工作进程将会在启动时调用 initializer(*initargs)。

  • maxtasksperchild:一个工作进程在它退出或被一个新的工作进程代替之前能完成的任务数量,为了释放未使用的资源。

  • context:用于指定启动的工作进程的上下文。

有如下两种方式向进程池提交任务:

  • apply(func[, args[, kwds]]):阻塞方式。

  • apply_async(func[, args[, kwds[, callback[, error_callback]]]]):非阻塞方式。

import multiprocessing, timedef target(p):    print('t')    time.sleep(2)    print(p)if __name__ == "__main__":    pool = multiprocessing.Pool(processes = 5)    for i in range(3):        p = 'p%d'%(i)        # 阻塞式        pool.apply(target, (p, ))        # 非阻塞式        # pool.apply_async(target, (p, ))    pool.close()    pool.join()

2.2 进程间交换数据

2.2.1 管道

multiprocessing.Pipe([duplex])

返回一对 Connection 对象 (conn1, conn2) , 分别表示管道的两端;如果 duplex 被置为 True (默认值),那么该管道是双向的,否则管道是单向的。

from multiprocessing import Pipe, Processdef setData(conn, data):    conn.send(data)def printData(conn):    print(conn.recv())if __name__ == "__main__":    data = '程序之间'    # 创建管道返回管道的两端    conn1, conn2 = Pipe()    p1 = Process(target=setData, args=(conn1, data,))    p2 = Process(target=printData, args=(conn2,))    p1.start()    p2.start()    p1.join()    p2.join()

2.2.2 队列

multiprocessing.Queue([maxsize])

返回一个共享队列实例。具有如下方法:

  • qsize():返回队列的大致长度。

  • empty():如果队列是空的,返回 True,反之返回 False。

  • full():如果队列是满的,返回 True,反之返回 False。

  • put(obj[, block[, timeout]]):将 obj 放入队列。

  • put_nowait(obj):相当于 put(obj, False)。

  • get([block[, timeout]]):从队列中取出并返回对象。

  • get_nowait():相当于 get(False)。

  • close():指示当前进程将不会再往队列中放入对象。

  • join_thread():等待后台线程。

  • cancel_join_thread():防止进程退出时自动等待后台线程退出。

from multiprocessing import Queue, Processdef setData(q, data):    q.put(data)def printData(q):    print(q.get())if __name__ == "__main__":    data = '程序之间'    q = Queue()    p1 = Process(target=setData, args=(q, data,))    p2 = Process(target=printData, args=(q,))    p1.start()    p2.start()    p1.join()    p2.join()

2.3 进程间同步

多进程之间不共享数据,但共享同一套文件系统,像访问同一个文件、同一终端打印,如果不进行同步操作,就会出现错乱的现象。

所有在 threading 存在的同步方式,multiprocessing 中都有类似的等价物,如:锁、信号量等。以锁的方式为例,我们来看一个终端打印例子。

不加锁

from multiprocessing import Processimport os,timedef target():    print('p%s is start' %os.getpid())    time.sleep(2)    print('p%s is end' %os.getpid())if __name__ == '__main__':    for i in range(3):        p=Process(target=target)        p.start()

执行结果:

p7996 is startp10404 is startp10744 is startp7996 is endp10404 is endp10744 is end

加锁

from multiprocessing import Process, Lockimport os,timedef target(lock):    lock.acquire()    print('p%s is start' %os.getpid())    time.sleep(2)    print('p%s is end' %os.getpid())    lock.release()if __name__ == '__main__':    lock = Lock()    for i in range(3):        p=Process(target=target, args=(lock,))        p.start()

执行结果:

p11064 is startp11064 is endp1532 is startp1532 is endp11620 is startp11620 is end

2.4 进程间共享状态

并发编程时,通常尽量避免使用共享状态,但如果有一些数据确实需要在进程之间共享怎么办呢?对于这种情况,multiprocessing 模块提供了两种方式。

2.4.1 共享内存

multiprocessing.Value(typecode_or_type, *args, lock=True)

返回一个从共享内存上创建的对象。参数说明如下:

  • typecode_or_type:返回的对象类型。

  • *args:传给类的构造函数。

  • lock:如果 lock 值是 True(默认值),将会新建一个递归锁用于同步此值的访问操作;如果 lock 值是 Lock、RLock 对象,那么这个传入的锁将会用于同步这个值的访问操作;如果 lock 是 False,那么对这个对象的访问将没有锁保护,也就是说这个变量不是进程安全的。

multiprocessing.Array(typecode_or_type, size_or_initializer, *, lock=True)

从共享内存中申请并返回一个数组对象。

  • typecode_or_type:返回的数组中的元素类型。

  • size_or_initializer:如果参数值是一个整数,则会当做数组的长度;否则参数会被当成一个序列用于初始化数组中的每一个元素,并且会根据元素个数自动判断数组的长度。

  • lock:说明同上。

使用 Value 或 Array 将数据存储在共享内存映射中。

from multiprocessing import Process, Value, Arraydef setData(n, a):    n.value = 1024    for i in range(len(a)):        a[i] = -a[i]def printData(n, a):    print(num.value)    print(arr[:])if __name__ == '__main__':    num = Value('d', 0.0)    arr = Array('i', range(5))    print(num.value)    print(arr[:])    print('-----------------------')    p = Process(target=setData, args=(num, arr))    p.start()    p.join()    print(num.value)    print(arr[:])

2.4.2 服务进程

由 Manager() 返回的管理器对象控制一个服务进程,该进程保存 Python 对象并允许其他进程使用代理操作它们。

Manager() 返回的管理器支持类型包括:list、dict、Namespace、Lock、RLock、Semaphore、BoundedSemaphore、Condition、Event、Barrier、Queue、Value 和 Array。

from multiprocessing import Process, Managerdef setData(d, l):    d[1] = '1'    d[0.5] = None    l.reverse()if __name__ == '__main__':    with Manager() as manager:        d = manager.dict()        l = manager.list(range(5))        print(d)        print(l)        print('-----------------------')        p = Process(target=setData, args=(d, l))        p.start()        p.join()        print(d)        print(l)

参考:

https://docs.python.org/3/library/multiprocessing.html#using-a-pool-of-workers


转载地址:https://ityard.blog.csdn.net/article/details/104219452 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:Python 进阶(三):邮件的发送与收取
下一篇:Python 进阶(一):多线程

发表评论

最新留言

路过,博主的博客真漂亮。。
[***.116.15.85]2024年04月24日 19时56分37秒