python-daemon日志记录的一个

发布时间:2019-09-08 09:14:59编辑:auto阅读(3204)

    最近用到了python-daemon这个库来使一个进程成为daemon进程,代码大致如下:

    #!env python
    #coding=utf-8
    import logging
    import multiprocessing
    import logging.config
    
    import daemon
    
    from test import wrapper2
    
    logger = None
    pool   = None
    
    def main():
        global pool
        logger.info('@@@@@@@@@@@@@@@@@@@@@@')
        pool.map(wrapper2, [1, 2, 3, 4, 5])
        logger.info('######################')
    
    if __name__ == '__main__':
        global logger, pool
        logging.config.fileConfig("logging.cfg")
        logger = logging.getLogger('analysis.main')
        preserve_fds = [handler.stream for handler in logger.handlers]
        with daemon.DaemonContext(files_preserve = preserve_fds):
            logger.info('start main function')
            pool = multiprocessing.Pool(processes = 10)
            main()

    test.py的代码如下:

    #!env python
    #coding=utf-8
    import logging
    
    logger = logging.getLogger('analysis.test')
    def wrapper2(i):
        logger.info('wrapper2 %s' % (i))

    然后就出现了一个问题:test.py中的logger.info('wrapper2 %s' % (i))的这一条日志记录死活也不会生成日志记录,一开始我以为是multiprocessing导致的,但是当我改成单进程形式也还是同样的问题,折腾了一阵没有找到原因,这个时候就只能静下心来看代码了(哈哈,这个好像一直是我的法宝)。
    当我看到with daemon.DaemonContext(files_preserve = preserve_fds)这一行的时候我好像找到了原因,那就是除了files_preserve以外的文件IO都会在daemon中被关闭,我代码中只把analysis.main这个对应的日志文件IO给保留了,其它的日志文件IO都会被关闭。
    为了验证我的想法,我把analysis.test对应的日志IO也保留,然后再运行就一切OK了,但是此时还没有完全结束,因为我的logging.cfg中配置了上十个的日志文件,我可不想在main中都一个个都过一遍然后再保留,有没有办法能够把logging.cfg中所有的日志文件都列出来呢?当然是有的,就是用loggers = logging.Logger.manager.loggerDict.values(),修改后的代码如下:

    #!env python
    #coding=utf-8
    import logging
    import multiprocessing
    import logging.config
    
    import daemon
    
    from test import wrapper2
    
    logger = None
    pool   = None
    
    def main():
        global pool
        logger.info('@@@@@@@@@@@@@@@@@@@@@@')
        pool.map(wrapper2, [1, 2, 3, 4, 5])
        logger.info('######################')
    
    if __name__ == '__main__':
        global logger, pool
        logging.config.fileConfig("logging.cfg")
        logger = logging.getLogger('analysis.main')
        preserve_fds  = []
        loggers = logging.Logger.manager.loggerDict.values()
        for log in loggers:
            try:
                p_fds = [handler.stream for handler in log.handlers]
                preserve_fds.extend(p_fds)
            except Exception,e:
                pass
        with daemon.DaemonContext(files_preserve = preserve_fds):
            logger.info('start main function')
            pool = multiprocessing.Pool(processes = 10)
            main()

关键字