子类 QueueHandler

  1. # sender.py
  2. import json
  3. import logging
  4. import logging.handlers
  5. import time
  6. import random
  7.  
  8. import pynng
  9.  
  10. DEFAULT_ADDR = "tcp://localhost:13232"
  11.  
  12. class NNGSocketHandler(logging.handlers.QueueHandler):
  13.  
  14. def __init__(self, uri):
  15. socket = pynng.Pub0(dial=uri, send_timeout=500)
  16. super().__init__(socket)
  17.  
  18. def enqueue(self, record):
  19. # Send the record as UTF-8 encoded JSON
  20. d = dict(record.__dict__)
  21. data = json.dumps(d)
  22. self.queue.send(data.encode('utf-8'))
  23.  
  24. def close(self):
  25. self.queue.close()
  26.  
  27. logging.getLogger('pynng').propagate = False
  28. handler = NNGSocketHandler(DEFAULT_ADDR)
  29. # 确保进程 ID 在输出内容中
  30. logging.basicConfig(level=logging.DEBUG,
  31. handlers=[logging.StreamHandler(), handler],
  32. format='%(levelname)-8s %(name)10s %(process)6s %(message)s')
  33. levels = (logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
  34. logging.CRITICAL)
  35. logger_names = ('myapp', 'myapp.lib1', 'myapp.lib2')
  36. msgno = 1
  37. while True:
  38. # 随机地选择日志记录器和层级并记录日志
  39. level = random.choice(levels)
  40. logger = logging.getLogger(random.choice(logger_names))
  41. logger.log(level, 'Message no. %5d' % msgno)
  42. msgno += 1
  43. delay = random.random() * 2 + 0.5
  44. time.sleep(delay)

你可以在不同的命令行 shell 中运行上面两个代码片段。 如果我们在一个 shell 中运行监听器并在两个不同的 shell 中运行发送器,我们将看到如下的结果。 在第一个发送器 shell 中:

  1. $ python sender.py
  2. DEBUG myapp 613 Message no. 1
  3. WARNING myapp.lib2 613 Message no. 2
  4. CRITICAL myapp.lib2 613 Message no. 3
  5. WARNING myapp.lib2 613 Message no. 4
  6. CRITICAL myapp.lib1 613 Message no. 5
  7. DEBUG myapp 613 Message no. 6
  8. CRITICAL myapp.lib1 613 Message no. 7
  9. INFO myapp.lib1 613 Message no. 8
  10. (下略)

在第二个发送器 shell 中:

  1. $ python sender.py
  2. INFO myapp.lib2 657 Message no. 1
  3. CRITICAL myapp.lib2 657 Message no. 2
  4. CRITICAL myapp 657 Message no. 3
  5. CRITICAL myapp.lib1 657 Message no. 4
  6. INFO myapp.lib1 657 Message no. 5
  7. WARNING myapp.lib2 657 Message no. 6
  8. CRITICAL myapp 657 Message no. 7
  9. DEBUG myapp.lib1 657 Message no. 8
  10. (下略)

在监听器 shell 中:

  1. $ python listener.py
  2. Press Ctrl-C to stop.
  3. DEBUG myapp 613 Message no. 1
  4. WARNING myapp.lib2 613 Message no. 2
  5. INFO myapp.lib2 657 Message no. 1
  6. CRITICAL myapp.lib2 613 Message no. 3
  7. CRITICAL myapp.lib2 657 Message no. 2
  8. CRITICAL myapp 657 Message no. 3
  9. WARNING myapp.lib2 613 Message no. 4
  10. CRITICAL myapp.lib1 613 Message no. 5
  11. CRITICAL myapp.lib1 657 Message no. 4
  12. INFO myapp.lib1 657 Message no. 5
  13. DEBUG myapp 613 Message no. 6
  14. WARNING myapp.lib2 657 Message no. 6
  15. CRITICAL myapp 657 Message no. 7
  16. CRITICAL myapp.lib1 613 Message no. 7
  17. INFO myapp.lib1 613 Message no. 8
  18. DEBUG myapp.lib1 657 Message no. 8
  19. (下略)

如你所见,来自两个发送器进程的日志记录会在监听器的输出中交错出现。

基于字典进行日志配置的示例

以下是日志配置字典的一个示例——它取自 Django 项目的文档<[https://docs.djangoproject.com/en/stable/topics/logging/#configuring-logging](https://docs.djangoproject.com/en/stable/topics/logging/#configuring-logging)>_。此字典将被传给 dictConfig() 以使配置生效:

  1. LOGGING = {
  2. 'version': 1,
  3. 'disable_existing_loggers': False,
  4. 'formatters': {
  5. 'verbose': {
  6. 'format': '{levelname} {asctime} {module} {process:d} {thread:d} {message}',
  7. 'style': '{',
  8. },
  9. 'simple': {
  10. 'format': '{levelname} {message}',
  11. 'style': '{',
  12. },
  13. },
  14. 'filters': {
  15. 'special': {
  16. '()': 'project.logging.SpecialFilter',
  17. 'foo': 'bar',
  18. },
  19. },
  20. 'handlers': {
  21. 'console': {
  22. 'level': 'INFO',
  23. 'class': 'logging.StreamHandler',
  24. 'formatter': 'simple',
  25. },
  26. 'mail_admins': {
  27. 'level': 'ERROR',
  28. 'class': 'django.utils.log.AdminEmailHandler',
  29. 'filters': ['special']
  30. }
  31. },
  32. 'loggers': {
  33. 'django': {
  34. 'handlers': ['console'],
  35. 'propagate': True,
  36. },
  37. 'django.request': {
  38. 'handlers': ['mail_admins'],
  39. 'level': 'ERROR',
  40. 'propagate': False,
  41. },
  42. 'myproject.custom': {
  43. 'handlers': ['console', 'mail_admins'],
  44. 'level': 'INFO',
  45. 'filters': ['special']
  46. }
  47. }
  48. }

有关本配置的更多信息,请参阅 Django 文档的 有关章节 [https://docs.djangoproject.com/en/stable/topics/logging/#configuring-logging] 。

利用 rotator 和 namer 自定义日志轮换操作

下面的可运行代码给出了你可以怎样定义命名器和轮换器的例子,其中演示了日志文件的 gzip 压缩过程:

  1. import gzip
  2. import logging
  3. import logging.handlers
  4. import os
  5. import shutil
  6.  
  7. def namer(name):
  8. return name + ".gz"
  9.  
  10. def rotator(source, dest):
  11. with open(source, 'rb') as f_in:
  12. with gzip.open(dest, 'wb') as f_out:
  13. shutil.copyfileobj(f_in, f_out)
  14. os.remove(source)
  15.  
  16.  
  17. rh = logging.handlers.RotatingFileHandler('rotated.log', maxBytes=128, backupCount=5)
  18. rh.rotator = rotator
  19. rh.namer = namer
  20.  
  21. root = logging.getLogger()
  22. root.setLevel(logging.INFO)
  23. root.addHandler(rh)
  24. f = logging.Formatter('%(asctime)s %(message)s')
  25. rh.setFormatter(f)
  26. for i in range(1000):
  27. root.info(f'Message no. {i + 1}')

运行此脚本后,你将看到六个新文件,其中五个是已压缩的:

  1. $ ls rotated.log*
  2. rotated.log rotated.log.2.gz rotated.log.4.gz
  3. rotated.log.1.gz rotated.log.3.gz rotated.log.5.gz
  4. $ zcat rotated.log.1.gz
  5. 2023-01-20 02:28:17,767 Message no. 996
  6. 2023-01-20 02:28:17,767 Message no. 997
  7. 2023-01-20 02:28:17,767 Message no. 998

更加详细的多道处理示例

以下可运行的示例显示了如何利用配置文件在多进程中应用日志。这些配置相当简单,但足以说明如何在真实的多进程场景中实现较为复杂的配置。

上述示例中,主进程产生一个侦听器进程和一些工作进程。每个主进程、侦听器进程和工作进程都有三种独立的日志配置(工作进程共享同一套配置)。大家可以看到主进程的日志记录过程、工作线程向 QueueHandler 写入日志的过程,以及侦听器实现 QueueListener 和较为复杂的日志配置,如何将由队列接收到的事件分发给配置指定的 handler。请注意,这些配置纯粹用于演示,但应该能调整代码以适用于自己的场景。

以下是代码——但愿文档字符串和注释能有助于理解其工作原理:

  1. import logging
  2. import logging.config
  3. import logging.handlers
  4. from multiprocessing import Process, Queue, Event, current_process
  5. import os
  6. import random
  7. import time
  8.  
  9. class MyHandler: """
  10. A simple handler for logging events. It runs in the listener process and
  11. dispatches events to loggers based on the name in the received record,
  12. which then get dispatched, by the logging system, to the handlers
  13. configured for those loggers.
  14. """
  15.  
  16. def handle(self, record):
  17. if record.name == "root":
  18. logger = logging.getLogger()
  19. else:
  20. logger = logging.getLogger(record.name)
  21.  
  22. if logger.isEnabledFor(record.levelno):
  23. # 进程名称经过变换以演示是由监听器来执行
  24. # 记录日志到文件和控制台
  25. record.processName = '%s (for %s)' % (current_process().name, record.processName)
  26. logger.handle(record)
  27.  
  28. def listener_process(q, stop_event, config): """
  29. This could be done in the main process, but is just done in a separate
  30. process for illustrative purposes.
  31.  
  32. This initialises logging according to the specified configuration,
  33. starts the listener and waits for the main process to signal completion
  34. via the event. The listener is then stopped, and the process exits.
  35. """
  36. logging.config.dictConfig(config)
  37. listener = logging.handlers.QueueListener(q, MyHandler())
  38. listener.start()
  39. if os.name == 'posix':
  40. # 在 POSIX 系统上,setup 日志记录器将会在
  41. # 父进程中完成配置,但应当在 dictConfig 调用
  42. # 之后即已被禁用。
  43. # 在 Windows 上,由于不会使用 fork,setup 日志记录器
  44. # 将不会在子进程中退出,因此它将被创建并且显示消息
  45. # —— 对应 "if posix" 子句。
  46. logger = logging.getLogger('setup')
  47. logger.critical('Should not appear, because of disabled logger ...')
  48. stop_event.wait()
  49. listener.stop()
  50.  
  51. def worker_process(config): """
  52. A number of these are spawned for the purpose of illustration. In
  53. practice, they could be a heterogeneous bunch of processes rather than
  54. ones which are identical to each other.
  55.  
  56. This initialises logging according to the specified configuration,
  57. and logs a hundred messages with random levels to randomly selected
  58. loggers.
  59.  
  60. A small sleep is added to allow other processes a chance to run. This
  61. is not strictly needed, but it mixes the output from the different
  62. processes a bit more than if it's left out.
  63. """
  64. logging.config.dictConfig(config)
  65. levels = [logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
  66. logging.CRITICAL]
  67. loggers = ['foo', 'foo.bar', 'foo.bar.baz',
  68. 'spam', 'spam.ham', 'spam.ham.eggs']
  69. if os.name == 'posix':
  70. # 在 POSIX 系统上,setup 日志记录器将会在
  71. # 父进程中完成配置,但应当在 dictConfig 调用
  72. # 之后已被禁用。
  73. # 在 Windows 上,由于不会使用 fork,setup 日志记录器
  74. # 将不会在子进程中退出,因此它将被创建并且显示消息
  75. # —— 对应 "if posix" 子句。
  76. logger = logging.getLogger('setup')
  77. logger.critical('Should not appear, because of disabled logger ...')
  78. for i in range(100):
  79. lvl = random.choice(levels)
  80. logger = logging.getLogger(random.choice(loggers))
  81. logger.log(lvl, 'Message no. %d', i)
  82. time.sleep(0.01)
  83.  
  84. def main():
  85. q = Queue()
  86. # 主进程将获得一个打印到控制台的简单配置。
  87. config_initial = {
  88. 'version': 1,
  89. 'handlers': {
  90. 'console': {
  91. 'class': 'logging.StreamHandler',
  92. 'level': 'INFO'
  93. }
  94. },
  95. 'root': {
  96. 'handlers': ['console'],
  97. 'level': 'DEBUG'
  98. }
  99. }
  100. # 工作进程配置就是一个附加到根日志记录器的 QueueHandler,
  101. # 它允许所有消息被发送至队列 。
  102. # 我们禁用现有的日志记录器以禁用在父进程中使用的 "setup"
  103. # 日志记录器。 这在 POSIX 中是必需的因为日志记录器将会在
  104. # fork() 之后出现在子进程中。
  105. config_worker = {
  106. 'version': 1,
  107. 'disable_existing_loggers': True,
  108. 'handlers': {
  109. 'queue': {
  110. 'class': 'logging.handlers.QueueHandler',
  111. 'queue': q
  112. }
  113. },
  114. 'root': {
  115. 'handlers': ['queue'],
  116. 'level': 'DEBUG'
  117. }
  118. }
  119. # 监听器进程配置显示可以使用日志记录配置的
  120. # 完整适应性以便以你希望的方式将事件分发给
  121. # 处理器。
  122. # 我们禁用现有的日志记录器以禁用在父进程中使用的
  123. # "setup" 日志记录器。 这在 POSIX 中是必需的因为
  124. # 日志记录器将会在 fork() 之后出现在子进程中。
  125. config_listener = {
  126. 'version': 1,
  127. 'disable_existing_loggers': True,
  128. 'formatters': {
  129. 'detailed': {
  130. 'class': 'logging.Formatter',
  131. 'format': '%(asctime)s %(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
  132. },
  133. 'simple': {
  134. 'class': 'logging.Formatter',
  135. 'format': '%(name)-15s %(levelname)-8s %(processName)-10s %(message)s'
  136. }
  137. },
  138. 'handlers': {
  139. 'console': {
  140. 'class': 'logging.StreamHandler',
  141. 'formatter': 'simple',
  142. 'level': 'INFO'
  143. },
  144. 'file': {
  145. 'class': 'logging.FileHandler',
  146. 'filename': 'mplog.log',
  147. 'mode': 'w',
  148. 'formatter': 'detailed'
  149. },
  150. 'foofile': {
  151. 'class': 'logging.FileHandler',
  152. 'filename': 'mplog-foo.log',
  153. 'mode': 'w',
  154. 'formatter': 'detailed'
  155. },
  156. 'errors': {
  157. 'class': 'logging.FileHandler',
  158. 'filename': 'mplog-errors.log',
  159. 'mode': 'w',
  160. 'formatter': 'detailed',
  161. 'level': 'ERROR'
  162. }
  163. },
  164. 'loggers': {
  165. 'foo': {
  166. 'handlers': ['foofile']
  167. }
  168. },
  169. 'root': {
  170. 'handlers': ['console', 'file', 'errors'],
  171. 'level': 'DEBUG'
  172. }
  173. }
  174. # 记录一些初始事件,以便显示父进程中的日志记录
  175. # 工作正常。
  176. logging.config.dictConfig(config_initial)
  177. logger = logging.getLogger('setup')
  178. logger.info('About to create workers ...')
  179. workers = []
  180. for i in range(5):
  181. wp = Process(target=worker_process, name='worker %d' % (i + 1),
  182. args=(config_worker,))
  183. workers.append(wp)
  184. wp.start()
  185. logger.info('Started worker: %s', wp.name)
  186. logger.info('About to create listener ...')
  187. stop_event = Event()
  188. lp = Process(target=listener_process, name='listener',
  189. args=(q, stop_event, config_listener))
  190. lp.start()
  191. logger.info('Started listener')
  192. # 我们现在要等待工作进程完成其工作。
  193. for wp in workers:
  194. wp.join()
  195. # 工作进程全部结束,现在可以停止监听。
  196. # 父进程中的日志记录仍然正常进行。
  197. logger.info('Telling listener to stop ...')
  198. stop_event.set()
  199. lp.join()
  200. logger.info('All done.')
  201.  
  202. if __name__ == '__main__':
  203. main()

在发送给 SysLogHandler 的信息中插入一个 BOM。

RFC 5424 [https://datatracker.ietf.org/doc/html/rfc5424.html] 要求,Unicode 信息应采用字节流形式发送到系统 syslog 守护程序,字节流结构如下所示:可选的纯 ASCII部分,后跟 UTF-8 字节序标记(BOM),然后是采用 UTF-8 编码的 Unicode。(参见 相关规范 [https://datatracker.ietf.org/doc/html/rfc5424.html#section-6] 。)

在 Python 3.1 的 SysLogHandler 中,已加入了在日志信息中插入 BOM 的代码,但不幸的是,代码并不正确,BOM 出现在了日志信息的开头,因此在它之前就不允许出现纯 ASCII 内容了。

由于无法正常工作, Python 3.2.4 以上版本已删除了出错的插入 BOM 代码。但已有版本的代码不会被替换,若要生成与 RFC 5424 [https://datatracker.ietf.org/doc/html/rfc5424.html] 兼容的日志信息,包括一个 BOM 符,前面有可选的纯 ASCII 字节流,后面为 UTF-8 编码的任意 Unicode,那么 需要执行以下操作:

  1. 'ASCII section\ufeffUnicode section'

用 UTF-8 编码时,Unicode 码位 U+FEFF 将会编码为 UTF-8 BOM——字节串 b'\xef\xbb\xbf'

  • 用任意占位符替换 ASCII 部分,但要保证替换之后的数据一定是 ASCII 码(这样在 UTF-8 编码后就会维持不变)。

  • 用任意占位符替换 Unicode 部分;如果替换后的数据包含超出 ASCII 范围的字符,没问题——他们将用 UTF-8 进行编码。

SysLogHandler 对格式化后的日志信息进行 UTF-8 编码。如果遵循上述规则,应能生成符合 RFC 5424 [https://datatracker.ietf.org/doc/html/rfc5424.html] 的日志信息。否则,日志记录过程可能不会有什么反馈,但日志信息将不与 RFC 5424 兼容,syslog 守护程序可能会有出错反应。

结构化日志的实现代码

大多数日志信息是供人阅读的,所以机器解析起来并不容易,但某些时候可能希望以结构化的格式输出,以 能够 被程序解析(无需用到复杂的正则表达式)。这可以直接用 logging 包实现。实现方式有很多,以下是一种比较简单的方案,利用 JSON 以机器可解析的方式对事件信息进行序列化:

  1. import json
  2. import logging
  3.  
  4. class StructuredMessage:
  5. def __init__(self, message, /, **kwargs):
  6. self.message = message
  7. self.kwargs = kwargs
  8.  
  9. def __str__(self):
  10. return '%s >>> %s' % (self.message, json.dumps(self.kwargs))
  11.  
  12. _ = StructuredMessage # 可选项,用于提升可读性
  13.  
  14. logging.basicConfig(level=logging.INFO, format='%(message)s')
  15. logging.info(_('message 1', foo='bar', bar='baz', num=123, fnum=123.456))

上述代码运行后的结果是:

  1. message 1 >>> {"fnum": 123.456, "num": 123, "bar": "baz", "foo": "bar"}

请注意,根据 Python 版本的不同,各项数据的输出顺序可能会不一样。

若需进行更为定制化的处理,可以使用自定义 JSON 编码对象,下面给出完整示例:

  1. import json
  2. import logging
  3.  
  4.  
  5. class Encoder(json.JSONEncoder):
  6. def default(self, o):
  7. if isinstance(o, set):
  8. return tuple(o)
  9. elif isinstance(o, str):
  10. return o.encode('unicode_escape').decode('ascii')
  11. return super().default(o)
  12.  
  13. class StructuredMessage:
  14. def __init__(self, message, /, **kwargs):
  15. self.message = message
  16. self.kwargs = kwargs
  17.  
  18. def __str__(self):
  19. s = Encoder().encode(self.kwargs)
  20. return '%s >>> %s' % (self.message, s)
  21.  
  22. _ = StructuredMessage # 可选项,用于提升可读性
  23.  
  24. def main():
  25. logging.basicConfig(level=logging.INFO, format='%(message)s')
  26. logging.info(_('message 1', set_value={1, 2, 3}, snowman='\u2603'))
  27.  
  28. if __name__ == '__main__':
  29. main()

上述代码运行后的结果是:

  1. message 1 >>> {"snowman": "\u2603", "set_value": [1, 2, 3]}

请注意,根据 Python 版本的不同,各项数据的输出顺序可能会不一样。

利用 dictConfig() 自定义 handler

有时需要以特定方式自定义日志 handler,如果采用 dictConfig(),可能无需生成子类就可以做到。比如要设置日志文件的所有权。在 POSIX 上,可以利用 shutil.chown() 轻松完成,但 stdlib 中的文件 handler 并不提供内置支持。于是可以用普通函数自定义 handler 的创建,例如:

  1. def owned_file_handler(filename, mode='a', encoding=None, owner=None):
  2. if owner:
  3. if not os.path.exists(filename):
  4. open(filename, 'a').close()
  5. shutil.chown(filename, *owner)
  6. return logging.FileHandler(filename, mode, encoding)

然后,你可以在传给 dictConfig() 的日志配置中指定通过调用此函数来创建日志处理程序:

  1. LOGGING = {
  2. 'version': 1,
  3. 'disable_existing_loggers': False,
  4. 'formatters': {
  5. 'default': {
  6. 'format': '%(asctime)s %(levelname)s %(name)s %(message)s'
  7. },
  8. },
  9. 'handlers': {
  10. 'file':{
  11. # 下面的值将从该字典中弹出并被用来
  12. # 创建处理器,设置处理器的层级及其
  13. # 格式化器:
  14. '()': owned_file_handler,
  15. 'level':'DEBUG',
  16. 'formatter': 'default',
  17. # 下面的值将以关键字参数形式传给
  18. # 处理器调用方的可调用对象。
  19. 'owner': ['pulse', 'pulse'],
  20. 'filename': 'chowntest.log',
  21. 'mode': 'w',
  22. 'encoding': 'utf-8',
  23. },
  24. },
  25. 'root': {
  26. 'handlers': ['file'],
  27. 'level': 'DEBUG',
  28. },
  29. }

出于演示目的,以下示例设置用户和用户组为 pulse。代码置于一个可运行的脚本文件 chowntest.py 中:

  1. import logging, logging.config, os, shutil
  2.  
  3. def owned_file_handler(filename, mode='a', encoding=None, owner=None):
  4. if owner:
  5. if not os.path.exists(filename):
  6. open(filename, 'a').close()
  7. shutil.chown(filename, *owner)
  8. return logging.FileHandler(filename, mode, encoding)
  9.  
  10. LOGGING = {
  11. 'version': 1,
  12. 'disable_existing_loggers': False,
  13. 'formatters': {
  14. 'default': {
  15. 'format': '%(asctime)s %(levelname)s %(name)s %(message)s'
  16. },
  17. },
  18. 'handlers': {
  19. 'file':{
  20. # 下面的值将从此字典中被弹出并被用来
  21. # 创建处理器、设置处理器的层级
  22. # 及其格式化器。
  23. '()': owned_file_handler,
  24. 'level':'DEBUG',
  25. 'formatter': 'default',
  26. # 下面的值将以关键字参数形式传给处理器的
  27. # 创建方可调用对象。
  28. 'owner': ['pulse', 'pulse'],
  29. 'filename': 'chowntest.log',
  30. 'mode': 'w',
  31. 'encoding': 'utf-8',
  32. },
  33. },
  34. 'root': {
  35. 'handlers': ['file'],
  36. 'level': 'DEBUG',
  37. },
  38. }
  39.  
  40. logging.config.dictConfig(LOGGING)
  41. logger = logging.getLogger('mylogger')
  42. logger.debug('A debug message')

可能需要 root 权限才能运行:

  1. $ sudo python3.3 chowntest.py
  2. $ cat chowntest.log
  3. 2013-11-05 09:34:51,128 DEBUG mylogger A debug message
  4. $ ls -l chowntest.log
  5. -rw-r--r-- 1 pulse pulse 55 2013-11-05 09:34 chowntest.log

请注意此示例用的是 Python 3.3,因为 shutil.chown() 是从此版本开始出现的。 此方式应当适用于任何支持 dictConfig() 的 Python 版本 —— 例如 Python 2.7, 3.2 或更新的版本。 对于 3.3 之前的版本,你应当使用 os.chown() 之类的函数来实现实际的所有权修改。

实际应用中,handler 的创建函数可能位于项目的工具模块中。以下配置:

  1. '()': owned_file_handler,

应使用:

  1. '()': 'ext://project.util.owned_file_handler',

这里的 project.util 可以换成函数所在包的实际名称。 在上述的可用脚本中,应该可以使用 'ext://__main__.owned_file_handler'。 在这里,实际的可调用对象是由 dictConfig()ext:// 说明中解析出来的。

上述示例还指明了其他的文件修改类型的实现方案 —— 比如同样利用 os.chmod() 设置 POSIX 访问权限位。

当然,以上做法也可以扩展到 FileHandler 之外的其他类型的 handler ——比如某个轮换文件 handler,或类型完全不同的其他 handler。

生效于整个应用程序的格式化样式

在 Python 3.2 中,Formatter 增加了一个 style 关键字形参,它默认为 % 以便向下兼容,但是允许采用 {$ 来支持 str.format()string.Template 所支持的格式化方式。 请注意此形参控制着用用于最终输出到日志的日志消息格式,并且与单独日志消息的构造方式完全无关。

日志调用 (debug(), info() 等) 只接受包含实际日志消息自身的位置参数,而关键字参数仅用于确定如何处理日志调用的选项 (例如 exc_info 关键字参数表示应将回溯信息记入日志,而 extra 关键字参数则指定要添加到日志的额外上下文信息)。 所以你不能直接使用 str.format()string.Template 语法来直接执行日志调用,因为 logging 包在内部是使用 % 格式符来合并格式字符串和可变参数的。 这一点不应被改变以保持向下兼容性,因为现有代码中所有的日志调用都将使用 % 格式化字符串。

有人建议将格式化样式与特定的日志对象进行关联,但其实也会遇到向下兼容的问题,因为已有代码可能用到了某日志对象并采用了 %-f 格式串。

为了让第三方库和自编代码都能够交互使用日志功能,需要决定在单次日志记录调用级别采用什么格式。于是就出现了其他几种格式化样式方案。

LogRecord 工厂的用法

在 Python 3.2 中,伴随着 Formatter 的上述变化,logging 包增加了允许用户使用 setLogRecordFactory() 函数来。设置自己的 LogRecord 子类的功能。 你可以使用此功能来设置自己的 LogRecord 子类,它会通过重写 getMessage() 方法来完成适当的操作。 msg % args 格式化是在此方法的基类实现中进行的,你可以在那里用你自己的格式化操作来替换;但是,你应当注意要支持全部的格式化样式并允许将 %-formatting 作为默认样式,以确保与其他代码进行配合。 还应当注意调用 str(self.msg),正如基类实现所做的一样。

更多信息请参阅 setLogRecordFactory()LogRecord 的参考文档。

自定义信息对象的使用

另一种方案可能更为简单,可以利用 {}- 和 $- 格式构建自己的日志消息。大家或许还记得(来自 使用任意对象作为消息),可以用任意对象作为日志信息的格式串,日志包将调用该对象上 str() 获取实际的格式串。看下以下两个类:

  1. class BraceMessage:
  2. def __init__(self, fmt, /, *args, **kwargs):
  3. self.fmt = fmt
  4. self.args = args
  5. self.kwargs = kwargs
  6.  
  7. def __str__(self):
  8. return self.fmt.format(*self.args, **self.kwargs)
  9.  
  10. class DollarMessage:
  11. def __init__(self, fmt, /, **kwargs):
  12. self.fmt = fmt
  13. self.kwargs = kwargs
  14.  
  15. def __str__(self):
  16. from string import Template
  17. return Template(self.fmt).substitute(**self.kwargs)

以上两个类均都可用于替代格式串,以便用 {}- 或 $-formatting 构建实际的“日志信息”部分,此部分将出现在格式化后的日志输出中,替换 %(message)s 、“{message}”或“$message”。每次要写入日志时都使用类名,如果觉得使用不便,可以采用 M_ 之类的别名(如果将 _ 用于本地化操作,则可用 __)。

下面给出示例。 首先用 str.format() 进行格式化:

  1. >>> __ = BraceMessage
  2. >>> print(__('Message with {0} {1}', 2, 'placeholders'))
  3. Message with 2 placeholders
  4. >>> class Point: pass
  5. ...
  6. >>> p = Point()
  7. >>> p.x = 0.5
  8. >>> p.y = 0.5
  9. >>> print(__('Message with coordinates: ({point.x:.2f}, {point.y:.2f})', point=p))
  10. Message with coordinates: (0.50, 0.50)

然后,用 string.Template 格式化:

  1. >>> __ = DollarMessage
  2. >>> print(__('Message with $num $what', num=2, what='placeholders'))
  3. Message with 2 placeholders
  4. >>>

需要注意的是使用这种方式不会对性能造成明显影响:实际的格式化工作不是在日志记录调用时发生的,而是在(如果)处理器即将把日志消息输出到日志时发生的。 因此,唯一可能令人困惑的不寻常之处在于包裹在格式字符串和参数外面的圆括号,而不仅仅是格式字符串。 这是因为 __ 符号只是对上面显示的 XXXMessage 类的构造器的调用的语法糖。

利用 dictConfig() 定义过滤器

dictConfig() 可以 对日志过滤器进行设置,尽管乍一看做法并不明显(所以才需要本秘籍)。 由于 Filter 是标准库中唯一的日志过滤器类,不太可能满足众多的要求(它只是作为基类存在),通常需要定义自己的 Filter 子类,并重写 filter() 方法。为此,请在过滤器的配置字典中设置 () 键,指定要用于创建过滤器的可调用对象(最明显可用的就是给出一个类,但也可以提供任何一个可调用对象,只要能返回 Filter 实例即可)。下面是一个完整的例子:

  1. import logging
  2. import logging.config
  3. import sys
  4.  
  5. class MyFilter(logging.Filter):
  6. def __init__(self, param=None):
  7. self.param = param
  8.  
  9. def filter(self, record):
  10. if self.param is None:
  11. allow = True
  12. else:
  13. allow = self.param not in record.msg
  14. if allow:
  15. record.msg = 'changed: ' + record.msg
  16. return allow
  17.  
  18. LOGGING = {
  19. 'version': 1,
  20. 'filters': {
  21. 'myfilter': {
  22. '()': MyFilter,
  23. 'param': 'noshow',
  24. }
  25. },
  26. 'handlers': {
  27. 'console': {
  28. 'class': 'logging.StreamHandler',
  29. 'filters': ['myfilter']
  30. }
  31. },
  32. 'root': {
  33. 'level': 'DEBUG',
  34. 'handlers': ['console']
  35. },
  36. }
  37.  
  38. if __name__ == '__main__':
  39. logging.config.dictConfig(LOGGING)
  40. logging.debug('hello')
  41. logging.debug('hello - noshow')

以上示例展示了将配置数据传给构造实例的可调用对象,形式是关键字参数。运行后将会输出:

  1. changed: hello

这说明过滤器按照配置的参数生效了。

需要额外注意的地方:

  • 如果在配置中无法直接引用可调用对象(比如位于不同的模块中,并且不能在配置字典所在的位置直接导入),则可以采用 ext://… 的形式,正如 访问外部对象 所述。例如,在上述示例中可以使用文本 'ext://__main__.MyFilter' 而不是 MyFilter 对象。

  • 与过滤器一样,上述技术还可用于配置自定义 handler 和格式化对象。有关如何在日志配置中使用用户自定义对象的更多信息,请参阅 用户定义对象,以及上述 利用 dictConfig() 自定义 handler 的其他指南。

异常信息的自定义格式化

有时可能需要设置自定义的异常信息格式——考虑到会用到参数,假定要让每条日志事件只占一行,即便存在异常信息也一样。这可以用自定义格式化类来实现,如下所示:

  1. import logging
  2.  
  3. class OneLineExceptionFormatter(logging.Formatter):
  4. def formatException(self, exc_info): """
  5. Format an exception so that it prints on a single line.
  6. """
  7. result = super().formatException(exc_info)
  8. return repr(result) # 或格式化为任何你想要的单行内容
  9.  
  10. def format(self, record):
  11. s = super().format(record)
  12. if record.exc_text:
  13. s = s.replace('\n', '') + '|'
  14. return s
  15.  
  16. def configure_logging():
  17. fh = logging.FileHandler('output.txt', 'w')
  18. f = OneLineExceptionFormatter('%(asctime)s|%(levelname)s|%(message)s|',
  19. '%d/%m/%Y %H:%M:%S')
  20. fh.setFormatter(f)
  21. root = logging.getLogger()
  22. root.setLevel(logging.DEBUG)
  23. root.addHandler(fh)
  24.  
  25. def main():
  26. configure_logging()
  27. logging.info('Sample message')
  28. try:
  29. x = 1 / 0
  30. except ZeroDivisionError as e:
  31. logging.exception('ZeroDivisionError: %s', e)
  32.  
  33. if __name__ == '__main__':
  34. main()

运行后将会生成只有两行信息的文件:

  1. 28/01/2015 07:21:23|INFO|Sample message|
  2. 28/01/2015 07:21:23|ERROR|ZeroDivisionError: integer division or modulo by zero|'Traceback (most recent call last):\n File "logtest7.py", line 30, in main\n x = 1 / 0\nZeroDivisionError: integer division or modulo by zero'|

虽然上述处理方式很简单,但也给出了根据喜好对异常信息进行格式化输出的方案。或许 traceback 模块能满足更专门的需求。

语音播报日志信息

有时可能需要以声音的形式呈现日志消息。如果系统自带了文本转语音 (TTS)功能,即便没与 Python 关联也很容易做到。大多数 TTS 系统都有一个可运行的命令行程序,在 handler 中可以用 subprocess 进行调用。这里假定 TTS 命令行程序不会与用户交互,或需要很长时间才会执行完毕,写入日志的信息也不会多到影响用户查看,并且可以接受每次播报一条信息,以下示例实现了等一条信息播完再处理下一条,可能会导致其他 handler 的等待。这个简短示例仅供演示,假定 espeak TTS 包已就绪:

  1. import logging
  2. import subprocess
  3. import sys
  4.  
  5. class TTSHandler(logging.Handler):
  6. def emit(self, record):
  7. msg = self.format(record)
  8. # 以女性的英语语音慢速地说话
  9. cmd = ['espeak', '-s150', '-ven+f3', msg]
  10. p = subprocess.Popen(cmd, stdout=subprocess.PIPE,
  11. stderr=subprocess.STDOUT)
  12. # 等待程序结束
  13. p.communicate()
  14.  
  15. def configure_logging():
  16. h = TTSHandler()
  17. root = logging.getLogger()
  18. root.addHandler(h)
  19. # 默认格式化器简单地返回消息
  20. root.setLevel(logging.DEBUG)
  21.  
  22. def main():
  23. logging.info('Hello')
  24. logging.debug('Goodbye')
  25.  
  26. if __name__ == '__main__':
  27. configure_logging()
  28. sys.exit(main())

运行后将会以女声播报“Hello”和“Goodbye”。

当然,上述方案也适用于其他 TTS 系统,甚至可以通过利用命令行运行的外部程序来处理消息。

缓冲日志消息并有条件地输出它们

在某些情况下,你可能希望在临时区域中记录日志消息,并且只在发生某种特定的情况下才输出它们。 例如,你可能希望起始在函数中记录调试事件,如果函数执行完成且没有错误,你不希望输出收集的调试信息以避免造成日志混乱,但如果出现错误,那么你希望所有调试以及错误消息被输出。

下面是一个示例,展示如何在你的日志记录函数上使用装饰器以实现这一功能。该示例使用 logging.handlers.MemoryHandler ,它允许缓冲已记录的事件直到某些条件发生,缓冲的事件才会被刷新(flushed) - 传递给另一个处理程序( target handler)进行处理。 默认情况下, MemoryHandler 在其缓冲区被填满时被刷新,或者看到一个级别大于或等于指定阈值的事件。 如果想要自定义刷新行为,你可以通过更专业的 MemoryHandler 子类来使用这个秘诀。

这个示例脚本有一个简单的函数 foo ,它只是在所有的日志级别中循环运行,写到 sys.stderr ,说明它要记录在哪个级别上,然后在这个级别上实际记录一个消息。你可以给 foo 传递一个参数,如果为 true ,它将在ERROR和CRITICAL级别记录,否则,它只在DEBUG、INFO和WARNING级别记录。

脚本只是使用了一个装饰器来装饰 foo,这个装饰器将记录执行所需的条件。装饰器使用一个记录器作为参数,并在调用被装饰的函数期间附加一个内存处理程序。装饰器可以使用目标处理程序、记录级别和缓冲区的容量(缓冲记录的数量)来附加参数。这些参数分别默认为写入 sys.stderrStreamHandlerlogging.ERROR100

以下是脚本:

  1. import logging
  2. from logging.handlers import MemoryHandler
  3. import sys
  4.  
  5. logger = logging.getLogger(__name__)
  6. logger.addHandler(logging.NullHandler())
  7.  
  8. def log_if_errors(logger, target_handler=None, flush_level=None, capacity=None):
  9. if target_handler is None:
  10. target_handler = logging.StreamHandler()
  11. if flush_level is None:
  12. flush_level = logging.ERROR
  13. if capacity is None:
  14. capacity = 100
  15. handler = MemoryHandler(capacity, flushLevel=flush_level, target=target_handler)
  16.  
  17. def decorator(fn):
  18. def wrapper(*args, **kwargs):
  19. logger.addHandler(handler)
  20. try:
  21. return fn(*args, **kwargs)
  22. except Exception:
  23. logger.exception('call failed')
  24. raise
  25. finally:
  26. super(MemoryHandler, handler).flush()
  27. logger.removeHandler(handler)
  28. return wrapper
  29.  
  30. return decorator
  31.  
  32. def write_line(s):
  33. sys.stderr.write('%s\n' % s)
  34.  
  35. def foo(fail=False):
  36. write_line('about to log at DEBUG ...')
  37. logger.debug('Actually logged at DEBUG')
  38. write_line('about to log at INFO ...')
  39. logger.info('Actually logged at INFO')
  40. write_line('about to log at WARNING ...')
  41. logger.warning('Actually logged at WARNING')
  42. if fail:
  43. write_line('about to log at ERROR ...')
  44. logger.error('Actually logged at ERROR')
  45. write_line('about to log at CRITICAL ...')
  46. logger.critical('Actually logged at CRITICAL')
  47. return fail
  48.  
  49. decorated_foo = log_if_errors(logger)(foo)
  50.  
  51. if __name__ == '__main__':
  52. logger.setLevel(logging.DEBUG)
  53. write_line('Calling undecorated foo with False')
  54. assert not foo(False)
  55. write_line('Calling undecorated foo with True')
  56. assert foo(True)
  57. write_line('Calling decorated foo with False')
  58. assert not decorated_foo(False)
  59. write_line('Calling decorated foo with True')
  60. assert decorated_foo(True)

运行此脚本时,应看到以下输出:

  1. Calling undecorated foo with False
  2. about to log at DEBUG ...
  3. about to log at INFO ...
  4. about to log at WARNING ...
  5. Calling undecorated foo with True
  6. about to log at DEBUG ...
  7. about to log at INFO ...
  8. about to log at WARNING ...
  9. about to log at ERROR ...
  10. about to log at CRITICAL ...
  11. Calling decorated foo with False
  12. about to log at DEBUG ...
  13. about to log at INFO ...
  14. about to log at WARNING ...
  15. Calling decorated foo with True
  16. about to log at DEBUG ...
  17. about to log at INFO ...
  18. about to log at WARNING ...
  19. about to log at ERROR ...
  20. Actually logged at DEBUG
  21. Actually logged at INFO
  22. Actually logged at WARNING
  23. Actually logged at ERROR
  24. about to log at CRITICAL ...
  25. Actually logged at CRITICAL

如你所见,实际日志记录输出仅在消息等级为ERROR或更高的事件时发生,但在这种情况下,任何之前较低消息等级的事件还会被记录。

你当然可以使用传统的装饰方法:

  1. @log_if_errors(logger)
  2. def foo(fail=False):

将日志消息发送至电子邮件,附带缓存支持

为演示如何通过电子邮件发送日志消息,让每封电子邮件发送指定数量的日志消息,你可以子类化 BufferingHandler。 对于下面的例子,你可以继续调整以适合你自己的特定需求,它提供了简单的测试代码来允许你附带命令行参数运行该脚本来指定你需要通过 SMTP 发送的内容。 (请附带 -h 参数运行已下载的脚本来查看必须的和可选的参数。)

  1. import logging
  2. import logging.handlers
  3. import smtplib
  4.  
  5. class BufferingSMTPHandler(logging.handlers.BufferingHandler):
  6. def __init__(self, mailhost, port, username, password, fromaddr, toaddrs,
  7. subject, capacity):
  8. logging.handlers.BufferingHandler.__init__(self, capacity)
  9. self.mailhost = mailhost
  10. self.mailport = port
  11. self.username = username
  12. self.password = password
  13. self.fromaddr = fromaddr
  14. if isinstance(toaddrs, str):
  15. toaddrs = [toaddrs]
  16. self.toaddrs = toaddrs
  17. self.subject = subject
  18. self.setFormatter(logging.Formatter("%(asctime)s %(levelname)-5s %(message)s"))
  19.  
  20. def flush(self):
  21. if len(self.buffer) > 0:
  22. try:
  23. smtp = smtplib.SMTP(self.mailhost, self.mailport)
  24. smtp.starttls()
  25. smtp.login(self.username, self.password)
  26. msg = "From: %s\r\nTo: %s\r\nSubject: %s\r\n\r\n" % (self.fromaddr, ','.join(self.toaddrs), self.subject)
  27. for record in self.buffer:
  28. s = self.format(record)
  29. msg = msg + s + "\r\n"
  30. smtp.sendmail(self.fromaddr, self.toaddrs, msg)
  31. smtp.quit()
  32. except Exception:
  33. if logging.raiseExceptions:
  34. raise
  35. self.buffer = []
  36.  
  37. if __name__ == '__main__':
  38. import argparse
  39.  
  40. ap = argparse.ArgumentParser()
  41. aa = ap.add_argument
  42. aa('host', metavar='HOST', help='SMTP server')
  43. aa('--port', '-p', type=int, default=587, help='SMTP port')
  44. aa('user', metavar='USER', help='SMTP username')
  45. aa('password', metavar='PASSWORD', help='SMTP password')
  46. aa('to', metavar='TO', help='Addressee for emails')
  47. aa('sender', metavar='SENDER', help='Sender email address')
  48. aa('--subject', '-s',
  49. default='Test Logging email from Python logging module (buffering)',
  50. help='Subject of email')
  51. options = ap.parse_args()
  52. logger = logging.getLogger()
  53. logger.setLevel(logging.DEBUG)
  54. h = BufferingSMTPHandler(options.host, options.port, options.user,
  55. options.password, options.sender,
  56. options.to, options.subject, 10)
  57. logger.addHandler(h)
  58. for i in range(102):
  59. logger.info("Info index = %d", i)
  60. h.flush()
  61. h.close()

如果你运行此脚本并且你的 SMTP 服务器已正确设置,你将发现它会向你指定的地址发出十一封电子邮件。 前十封邮件每封各有十条日志消息,第十一封将有两条消息。 如脚本所指定的总计为 102 条消息。

通过配置使用UTC (GMT) 格式化时间

有时你会想要使用 UTC 时间格式,这可以用 UTCFormatter 这样的类来实现,如下所示:

  1. import logging
  2. import time
  3.  
  4. class UTCFormatter(logging.Formatter):
  5. converter = time.gmtime

然后你可以在你的代码中使用 UTCFormatter,而不是 Formatter。 如果你想通过配置来实现这一功能,你可以使用 dictConfig() API 来完成,该方法在以下完整示例中展示:

  1. import logging
  2. import logging.config
  3. import time
  4.  
  5. class UTCFormatter(logging.Formatter):
  6. converter = time.gmtime
  7.  
  8. LOGGING = {
  9. 'version': 1,
  10. 'disable_existing_loggers': False,
  11. 'formatters': {
  12. 'utc': {
  13. '()': UTCFormatter,
  14. 'format': '%(asctime)s %(message)s',
  15. },
  16. 'local': {
  17. 'format': '%(asctime)s %(message)s',
  18. }
  19. },
  20. 'handlers': {
  21. 'console1': {
  22. 'class': 'logging.StreamHandler',
  23. 'formatter': 'utc',
  24. },
  25. 'console2': {
  26. 'class': 'logging.StreamHandler',
  27. 'formatter': 'local',
  28. },
  29. },
  30. 'root': {
  31. 'handlers': ['console1', 'console2'],
  32. }
  33. }
  34.  
  35. if __name__ == '__main__':
  36. logging.config.dictConfig(LOGGING)
  37. logging.warning('The local time is %s', time.asctime())

脚本会运行输出类似下面的内容:

  1. 2015-10-17 12:53:29,501 The local time is Sat Oct 17 13:53:29 2015
  2. 2015-10-17 13:53:29,501 The local time is Sat Oct 17 13:53:29 2015

展示了如何将时间格式化为本地时间和UTC两种形式,其中每种形式对应一个日志处理器 。

使用上下文管理器的可选的日志记录

有时候,我们需要暂时更改日志配置,并在执行某些操作后将其还原。为此,上下文管理器是实现保存和恢复日志上下文的最明显的方式。这是一个关于上下文管理器的简单例子,它允许你在上下文管理器的作用域内更改日志记录等级以及增加日志处理器:

  1. import logging
  2. import sys
  3.  
  4. class LoggingContext:
  5. def __init__(self, logger, level=None, handler=None, close=True):
  6. self.logger = logger
  7. self.level = level
  8. self.handler = handler
  9. self.close = close
  10.  
  11. def __enter__(self):
  12. if self.level is not None:
  13. self.old_level = self.logger.level
  14. self.logger.setLevel(self.level)
  15. if self.handler:
  16. self.logger.addHandler(self.handler)
  17.  
  18. def __exit__(self, et, ev, tb):
  19. if self.level is not None:
  20. self.logger.setLevel(self.old_level)
  21. if self.handler:
  22. self.logger.removeHandler(self.handler)
  23. if self.handler and self.close:
  24. self.handler.close()
  25. # 隐式地返回 None => 不捕获异常

如果指定上下文管理器的日志记录等级属性,则在上下文管理器的with语句所涵盖的代码中,日志记录器的记录等级将临时设置为上下文管理器所配置的日志记录等级。 如果指定上下文管理的日志处理器属性,则该句柄在进入上下文管理器的上下文时添加到记录器中,并在退出时被删除。 如果你再也不需要该日志处理器时,你可以让上下文管理器在退出上下文管理器的上下文时关闭它。

为了说明它是如何工作的,我们可以在上面添加以下代码块:

  1. if __name__ == '__main__':
  2. logger = logging.getLogger('foo')
  3. logger.addHandler(logging.StreamHandler())
  4. logger.setLevel(logging.INFO)
  5. logger.info('1. This should appear just once on stderr.')
  6. logger.debug('2. This should not appear.')
  7. with LoggingContext(logger, level=logging.DEBUG):
  8. logger.debug('3. This should appear once on stderr.')
  9. logger.debug('4. This should not appear.')
  10. h = logging.StreamHandler(sys.stdout)
  11. with LoggingContext(logger, level=logging.DEBUG, handler=h, close=True):
  12. logger.debug('5. This should appear twice - once on stderr and once on stdout.')
  13. logger.info('6. This should appear just once on stderr.')
  14. logger.debug('7. This should not appear.')

我们最初设置日志记录器的消息等级为 INFO ,因此消息#1出现,消息#2没有出现。在接下来的 with 代码块中我们暂时将消息等级变更为 DEBUG ,从而消息 #3 出现。在这一代码块退出后,日志记录器的消息等级恢复为 INFO ,从而消息 #4 没有出现。在下一个 with 代码块中,我们再一次将设置消息等级设置为 DEBUG ,同时添加一个将消息写入 sys.stdout 的日志处理器。因此,消息#5在控制台出现两次 (分别通过 stderrstdout )。在 with 语句完成后,状态与之前一样,因此消息 #6 出现(类似消息 #1),而消息 #7 没有出现(类似消息 #2)。

如果我们运行生成的脚本,结果如下:

  1. $ python logctx.py
  2. 1. This should appear just once on stderr.
  3. 3. This should appear once on stderr.
  4. 5. This should appear twice - once on stderr and once on stdout.
  5. 5. This should appear twice - once on stderr and once on stdout.
  6. 6. This should appear just once on stderr.

我们将 stderr 标准错误重定向到 devnull ,我再次运行生成的脚步,唯一被写入 stdout 标准输出的消息,即我们所能看见的消息,如下:

  1. $ python logctx.py 2>devnull
  2. 5. This should appear twice - once on stderr and once on stdout.

再一次,将 stdout 标准输出重定向到 devnull,我获得如下结果:

  1. $ python logctx.py >devnull
  2. 1. This should appear just once on stderr.
  3. 3. This should appear once on stderr.
  4. 5. This should appear twice - once on stderr and once on stdout.
  5. 6. This should appear just once on stderr.

在这种情况下,与预期一致,打印到 stdout 标准输出的消息#5不会出现。

当然,这里描述的方法可以被推广,例如临时附加日志记录过滤器。 请注意,上面的代码适用于Python 2以及Python 3。

命令行日志应用起步

下面的示例提供了如下功能:

  • 根据命令行参数确定日志级别

  • 在单独的文件中分发多条子命令,同一级别的子命令均以一致的方式记录。

  • 最简单的配置用法

假定有一个命令行应用程序,用于停止、启动或重新启动某些服务。为了便于演示,不妨将 app.py 作为应用程序的主代码文件,并在 start.pystop.pyrestart.py 中实现单独的命令。再假定要通过命令行参数控制应用程序的日志粒度,默认为 logging.INFO 。以下是 app.py 的一个示例:

  1. import argparse
  2. import importlib
  3. import logging
  4. import os
  5. import sys
  6.  
  7. def main(args=None):
  8. scriptname = os.path.basename(__file__)
  9. parser = argparse.ArgumentParser(scriptname)
  10. levels = ('DEBUG', 'INFO', 'WARNING', 'ERROR', 'CRITICAL')
  11. parser.add_argument('--log-level', default='INFO', choices=levels)
  12. subparsers = parser.add_subparsers(dest='command',
  13. help='Available commands:')
  14. start_cmd = subparsers.add_parser('start', help='Start a service')
  15. start_cmd.add_argument('name', metavar='NAME',
  16. help='Name of service to start')
  17. stop_cmd = subparsers.add_parser('stop',
  18. help='Stop one or more services')
  19. stop_cmd.add_argument('names', metavar='NAME', nargs='+',
  20. help='Name of service to stop')
  21. restart_cmd = subparsers.add_parser('restart',
  22. help='Restart one or more services')
  23. restart_cmd.add_argument('names', metavar='NAME', nargs='+',
  24. help='Name of service to restart')
  25. options = parser.parse_args()
  26. # 分发命令的代码可以全都放在此文件中。 只是出于演示目的,
  27. # 我们将在单独的模块中实现每个命令。
  28. try:
  29. mod = importlib.import_module(options.command)
  30. cmd = getattr(mod, 'command')
  31. except (ImportError, AttributeError):
  32. print('Unable to find the code for command \'%s\'' % options.command)
  33. return 1
  34. # 这里可以做得更为灵活并从文件或目录加载配置
  35. logging.basicConfig(level=options.log_level,
  36. format='%(levelname)s %(name)s %(message)s')
  37. cmd(options)
  38.  
  39. if __name__ == '__main__':
  40. sys.exit(main())

startstoprestart 命令可以在单独的模块中实现,启动命令的代码可如下:

  1. # start.py
  2. import logging
  3.  
  4. logger = logging.getLogger(__name__)
  5.  
  6. def command(options):
  7. logger.debug('About to start %s', options.name)
  8. # 在此进行实际的命令处理 ...
  9. logger.info('Started the \'%s\' service.', options.name)

然后是停止命令的代码:

  1. # stop.py
  2. import logging
  3.  
  4. logger = logging.getLogger(__name__)
  5.  
  6. def command(options):
  7. n = len(options.names)
  8. if n == 1:
  9. plural = ''
  10. services = '\'%s\'' % options.names[0]
  11. else:
  12. plural = 's'
  13. services = ', '.join('\'%s\'' % name for name in options.names)
  14. i = services.rfind(', ')
  15. services = services[:i] + ' and ' + services[i + 2:]
  16. logger.debug('About to stop %s', services)
  17. # 在此进行实际的命令处理 ...
  18. logger.info('Stopped the %s service%s.', services, plural)

重启命令类似:

  1. # restart.py
  2. import logging
  3.  
  4. logger = logging.getLogger(__name__)
  5.  
  6. def command(options):
  7. n = len(options.names)
  8. if n == 1:
  9. plural = ''
  10. services = '\'%s\'' % options.names[0]
  11. else:
  12. plural = 's'
  13. services = ', '.join('\'%s\'' % name for name in options.names)
  14. i = services.rfind(', ')
  15. services = services[:i] + ' and ' + services[i + 2:]
  16. logger.debug('About to restart %s', services)
  17. # 在此进行实际的命令处理 ...
  18. logger.info('Restarted the %s service%s.', services, plural)

如果以默认日志级别运行该程序,会得到以下结果:

  1. $ python app.py start foo
  2. INFO start Started the 'foo' service.
  3.  
  4. $ python app.py stop foo bar
  5. INFO stop Stopped the 'foo' and 'bar' services.
  6.  
  7. $ python app.py restart foo bar baz
  8. INFO restart Restarted the 'foo', 'bar' and 'baz' services.

第一个单词是日志级别,第二个单词是日志事件所在的模块或包的名称。

如果修改了日志级别,发送给日志的信息就能得以改变。如要显示更多信息,则可:

  1. $ python app.py --log-level DEBUG start foo
  2. DEBUG start About to start foo
  3. INFO start Started the 'foo' service.
  4.  
  5. $ python app.py --log-level DEBUG stop foo bar
  6. DEBUG stop About to stop 'foo' and 'bar'
  7. INFO stop Stopped the 'foo' and 'bar' services.
  8.  
  9. $ python app.py --log-level DEBUG restart foo bar baz
  10. DEBUG restart About to restart 'foo', 'bar' and 'baz'
  11. INFO restart Restarted the 'foo', 'bar' and 'baz' services.

若要显示的信息少一些,则:

  1. $ python app.py --log-level WARNING start foo
  2. $ python app.py --log-level WARNING stop foo bar
  3. $ python app.py --log-level WARNING restart foo bar baz

这里的命令不会向控制台输出任何信息,因为没有记录 WARNING 以上级别的日志。

Qt GUI 日志示例

一个时常被提出的问题是 GUI 应用程序要如何记录日志。 Qt [https://www.qt.io/] 框架是一个流行的跨平台 UI 框架,它具有使用 PySide2 [https://pypi.org/project/PySide2/] 或 PyQt5 [https://pypi.org/project/PyQt5/] 库的 Python 绑定。

下面的例子演示了将日志写入 Qt GUI 程序的过程。这里引入了一个简单的 QtHandler 类,参数是一个可调用对象,其应为嵌入主线程某个“槽位”中运行的,因为GUI 的更新由主线程完成。这里还创建了一个工作线程,以便演示由 UI(通过人工点击日志按钮)和后台工作线程(此处只是记录级别和时间间隔均随机生成的日志信息)将日志写入 GUI 的过程。

该工作线程是用 Qt 的 QThread 类实现的,而不是 threading 模块,因为某些情况下只能采用 `QThread,它与其他 Qt 组件的集成性更好一些。

此代码应当适用于最新的 PySide6, PyQt6, PySide2PyQt5 发布版。 你也可以将此做法适配到更早的 Qt 版本。 请参阅代码片段中的注释来获取更详细的信息。

  1. import datetime
  2. import logging
  3. import random
  4. import sys
  5. import time
  6.  
  7. # 处理不同 Qt 包之间的微小差异
  8. try:
  9. from PySide6 import QtCore, QtGui, QtWidgets
  10. Signal = QtCore.Signal
  11. Slot = QtCore.Slot
  12. except ImportError:
  13. try:
  14. from PyQt6 import QtCore, QtGui, QtWidgets
  15. Signal = QtCore.pyqtSignal
  16. Slot = QtCore.pyqtSlot
  17. except ImportError:
  18. try:
  19. from PySide2 import QtCore, QtGui, QtWidgets
  20. Signal = QtCore.Signal
  21. Slot = QtCore.Slot
  22. except ImportError:
  23. from PyQt5 import QtCore, QtGui, QtWidgets
  24. Signal = QtCore.pyqtSignal
  25. Slot = QtCore.pyqtSlot
  26.  
  27. logger = logging.getLogger(__name__)
  28.  
  29.  
  30. #
  31. # 信号需要被包含在 QObject 或其子类中以便能够正确地
  32. # 初始化
  33. #
  34. class Signaller(QtCore.QObject):
  35. signal = Signal(str, logging.LogRecord)
  36.  
  37. #
  38. # 输出到 Qt GUI 应当仅发生在主线程中。 因此,本处理器
  39. # 被设计为接受一个已经设置好运行主线程的槽位函数。
  40. # 在本示例中,该函数接受一个已格式化的日志消息字符串
  41. # 参数,以及生成它的日志记录。 已格式化的字符串只是
  42. # 出于方便考虑 —— 你也可以在槽位函数本身以任意方式
  43. # 格式化字符串供输出。
  44. #
  45. # 你可以指定槽位函数执行任何你想要的 GUI 更新。 处理器
  46. # 并不知道或关心特定的 UI 元素。
  47. #
  48. class QtHandler(logging.Handler):
  49. def __init__(self, slotfunc, *args, **kwargs):
  50. super().__init__(*args, **kwargs)
  51. self.signaller = Signaller()
  52. self.signaller.signal.connect(slotfunc)
  53.  
  54. def emit(self, record):
  55. s = self.format(record)
  56. self.signaller.signal.emit(s, record)
  57.  
  58. #
  59. # 本示例使用 QThreads,这意味着在 Python 层级中的线程
  60. # 将为像 "Dummy-1" 的名称。 下面的函数将获得当前线程的
  61. # Qt 名称。
  62. #
  63. def ctname():
  64. return QtCore.QThread.currentThread().objectName()
  65.  
  66.  
  67. #
  68. # 用于生成随机的日志记录层级。
  69. #
  70. LEVELS = (logging.DEBUG, logging.INFO, logging.WARNING, logging.ERROR,
  71. logging.CRITICAL)
  72.  
  73. #
  74. # 这个工作类代表在一个独立于主线程的线程中完成的工作。
  75. # 该线程开始执行工作的方式是通过按下一个连接到工作类中
  76. # 槽位的按钮。
  77. #
  78. # 因为 LogRecord 中默认的 threadName 值没有什么用处。
  79. # 我们增加了一个包含通过上述方式计算的 QThread 的
  80. # qThreadName,并在一个“额外”字典中传递该值并使用它
  81. # 将 LogRecord 更新为 QThread 名称。
  82. #
  83. # 这个示例工作类将顺序地输出消息,并以数秒的随机延时
  84. # 进行间隔。
  85. #
  86. class Worker(QtCore.QObject):
  87. @Slot()
  88. def start(self):
  89. extra = {'qThreadName': ctname() }
  90. logger.debug('Started work', extra=extra)
  91. i = 1
  92. # 让线程运行直到被中断。 这允许合理并且清晰的
  93. # 线程终结。
  94. while not QtCore.QThread.currentThread().isInterruptionRequested():
  95. delay = 0.5 + random.random() * 2
  96. time.sleep(delay)
  97. try:
  98. if random.random() < 0.1:
  99. raise ValueError('Exception raised: %d' % i)
  100. else:
  101. level = random.choice(LEVELS)
  102. logger.log(level, 'Message after delay of %3.1f: %d', delay, i, extra=extra)
  103. except ValueError as e:
  104. logger.exception('Failed: %s', e, extra=extra)
  105. i += 1
  106.  
  107. #
  108. # 为本专题指南示例实现一个简单的 UI。 其中包含:
  109. #
  110. # * 一个只读的文本编辑窗口用以显示已格式化的日志消息
  111. # * 一个按钮用以开始工作并在单独线程中记录日志内容
  112. # * 一个按钮用以以记录来自主线程的日志内容
  113. # * 一个按钮用以清空日志窗口
  114. #
  115. class Window(QtWidgets.QWidget):
  116.  
  117. COLORS = {
  118. logging.DEBUG: 'black',
  119. logging.INFO: 'blue',
  120. logging.WARNING: 'orange',
  121. logging.ERROR: 'red',
  122. logging.CRITICAL: 'purple',
  123. }
  124.  
  125. def __init__(self, app):
  126. super().__init__()
  127. self.app = app
  128. self.textedit = te = QtWidgets.QPlainTextEdit(self)
  129. # 设置系统平台所使用的默认等宽字体
  130. f = QtGui.QFont('nosuchfont')
  131. if hasattr(f, 'Monospace'):
  132. f.setStyleHint(f.Monospace)
  133. else:
  134. f.setStyleHint(f.StyleHint.Monospace) # 针对 Qt6
  135. te.setFont(f)
  136. te.setReadOnly(True)
  137. PB = QtWidgets.QPushButton
  138. self.work_button = PB('Start background work', self)
  139. self.log_button = PB('Log a message at a random level', self)
  140. self.clear_button = PB('Clear log window', self)
  141. self.handler = h = QtHandler(self.update_status)
  142. # 记得在格式字符串中使用 qThreadName 而非 threadName。
  143. fs = '%(asctime)s %(qThreadName)-12s %(levelname)-8s %(message)s'
  144. formatter = logging.Formatter(fs)
  145. h.setFormatter(formatter)
  146. logger.addHandler(h)
  147. # 设置当退出时终结 QThread
  148. app.aboutToQuit.connect(self.force_quit)
  149.  
  150. # 对所有控件进行布局
  151. layout = QtWidgets.QVBoxLayout(self)
  152. layout.addWidget(te)
  153. layout.addWidget(self.work_button)
  154. layout.addWidget(self.log_button)
  155. layout.addWidget(self.clear_button)
  156. self.setFixedSize(900, 400)
  157.  
  158. # 连接非工作槽位和信号
  159. self.log_button.clicked.connect(self.manual_update)
  160. self.clear_button.clicked.connect(self.clear_display)
  161.  
  162. # 启动一个新工作线程并为其连接槽位
  163. self.start_thread()
  164. self.work_button.clicked.connect(self.worker.start)
  165. # 一旦启动,该按钮应当被禁用
  166. self.work_button.clicked.connect(lambda : self.work_button.setEnabled(False))
  167.  
  168. def start_thread(self):
  169. self.worker = Worker()
  170. self.worker_thread = QtCore.QThread()
  171. self.worker.setObjectName('Worker')
  172. self.worker_thread.setObjectName('WorkerThread') # 针对 qThreadName
  173. self.worker.moveToThread(self.worker_thread)
  174. # 这将在工作线程中启动一个事件循环
  175. self.worker_thread.start()
  176.  
  177. def kill_thread(self):
  178. # 告知工作线程停止运行,然后告知它退出并等待
  179. # 后续发生的事件
  180. self.worker_thread.requestInterruption()
  181. if self.worker_thread.isRunning():
  182. self.worker_thread.quit()
  183. self.worker_thread.wait()
  184. else:
  185. print('worker has already exited.')
  186.  
  187. def force_quit(self):
  188. # 当窗口被关闭时使用
  189. if self.worker_thread.isRunning():
  190. self.kill_thread()
  191.  
  192. # 下面的函数更新 UI 并在主线程中运行因为槽位是在
  193. # 那里设置的
  194.  
  195. @Slot(str, logging.LogRecord)
  196. def update_status(self, status, record):
  197. color = self.COLORS.get(record.levelno, 'black')
  198. s = '<pre><font color="%s">%s</font></pre>' % (color, status)
  199. self.textedit.appendHtml(s)
  200.  
  201. @Slot()
  202. def manual_update(self):
  203. # 此函数使用传入的已格式化消息,但也会使用来自
  204. # 记录的信息根据其严重程度(层级)以适当的颜色
  205. # 格式化消息。
  206. level = random.choice(LEVELS)
  207. extra = {'qThreadName': ctname() }
  208. logger.log(level, 'Manually logged!', extra=extra)
  209.  
  210. @Slot()
  211. def clear_display(self):
  212. self.textedit.clear()
  213.  
  214.  
  215. def main():
  216. QtCore.QThread.currentThread().setObjectName('MainThread')
  217. logging.getLogger().setLevel(logging.DEBUG)
  218. app = QtWidgets.QApplication(sys.argv)
  219. example = Window(app)
  220. example.show()
  221. if hasattr(app, 'exec'):
  222. rc = app.exec()
  223. else:
  224. rc = app.exec_()
  225. sys.exit(rc)
  226.  
  227. if __name__=='__main__':
  228. main()

将日志记录到带有 RFC5424 支持的 syslog

虽然 RFC 5424 [https://datatracker.ietf.org/doc/html/rfc5424.html] 在 2009 年就已发布,但大多数 syslog 服务器都默认被配置为使用更旧的 RFC 3164 [https://datatracker.ietf.org/doc/html/rfc3164.html],它发布于 2001 年。 当 logging 在 2003 年被加入 Python 时,它支持了当时(唯一存在的)较早版本的协议。 自从 RFC5424 发布后,因为它还未被广泛部署到 syslog 服务器上,因此 SysLogHandler 的功能也没有被更新。

RFC 5424 包括一些有用的特性例如对结构化数据的支持等,如果你想要能够将日志记录到带有该协议支持的 syslog 服务器上,你可以使用一个看起来像是这样的子类化处理器来实现:

  1. import datetime
  2. import logging.handlers
  3. import re
  4. import socket
  5. import time
  6.  
  7. class SysLogHandler5424(logging.handlers.SysLogHandler):
  8.  
  9. tz_offset = re.compile(r'([+-]\d{2})(\d{2})$')
  10. escaped = re.compile(r'([\]"\\])')
  11.  
  12. def __init__(self, *args, **kwargs):
  13. self.msgid = kwargs.pop('msgid', None)
  14. self.appname = kwargs.pop('appname', None)
  15. super().__init__(*args, **kwargs)
  16.  
  17. def format(self, record):
  18. version = 1
  19. asctime = datetime.datetime.fromtimestamp(record.created).isoformat()
  20. m = self.tz_offset.match(time.strftime('%z'))
  21. has_offset = False
  22. if m and time.timezone:
  23. hrs, mins = m.groups()
  24. if int(hrs) or int(mins):
  25. has_offset = True
  26. if not has_offset:
  27. asctime += 'Z'
  28. else:
  29. asctime += f'{hrs}:{mins}'
  30. try:
  31. hostname = socket.gethostname()
  32. except Exception:
  33. hostname = '-'
  34. appname = self.appname or '-'
  35. procid = record.process
  36. msgid = '-'
  37. msg = super().format(record)
  38. sdata = '-'
  39. if hasattr(record, 'structured_data'):
  40. sd = record.structured_data
  41. # 这应当是一个字典,其中的键为 SD-ID 而值则为
  42. # 将 PARAM-NAME 映射到 PARAM-VALUE 的字典
  43. # (请参阅 RFC了解其含义)
  44. # 这里没有错误检查 —— 它只是作为演示,你可以
  45. # 调整此代码以在生产环境中使用
  46. parts = []
  47.  
  48. def replacer(m):
  49. g = m.groups()
  50. return '\\' + g[0]
  51.  
  52. for sdid, dv in sd.items():
  53. part = f'[{sdid}'
  54. for k, v in dv.items():
  55. s = str(v)
  56. s = self.escaped.sub(replacer, s)
  57. part += f' {k}="{s}"'
  58. part += ']'
  59. parts.append(text-part)
  60. sdata = ''.join(text-parts)
  61. return f'{version} {asctime} {hostname} {appname} {procid} {msgid} {sdata} {msg}'

你需要熟悉 RFC 5424 才能完全理解上面的代码,你还可能会有稍加变化的的需求(例如你要如何将结构化数据记入日志)。 不管怎样,上面的代码应当根据你的特定需求来灵活调整。 通过上面的处理器,你可以使用类似这样的代码来传入结构化数据:

  1. sd = {
  2. 'foo@12345': {'bar': 'baz', 'baz': 'bozz', 'fizz': r'buzz'},
  3. 'foo@54321': {'rab': 'baz', 'zab': 'bozz', 'zzif': r'buzz'}
  4. }
  5. extra = {'structured_data': sd}
  6. i = 1
  7. logger.debug('Message %d', i, extra=extra)

如何将日志记录器作为输出流

有时,你需要通过接口访问某个预期要写入到文件型对象第三方 API,但你希望将 API 的输出重定向到一个日志记录器。 你可以使用一个以文件类 API 来包装日志记录器的类。 下面是一个演示这样的类的简短脚本:

  1. import logging
  2.  
  3. class LoggerWriter:
  4. def __init__(self, logger, level):
  5. self.logger = logger
  6. self.level = level
  7.  
  8. def write(self, message):
  9. if message != '\n': # 避免打印空白行,如果你希望如此
  10. self.logger.log(self.level, message)
  11.  
  12. def flush(self):
  13. # 实际上不做任何事,但对文件型对象来说应当提供
  14. # —— 因此根据你的情况作为可选项
  15. pass
  16.  
  17. def close(self):
  18. # 实际上不做任何事,但对文件型对象来说应当提供
  19. # —— 因此根据你的情况作为可选项。 你可能会希望
  20. # 设置一个旗标以便后续的写入调用引发异常
  21. pass
  22.  
  23. def main():
  24. logging.basicConfig(level=logging.DEBUG)
  25. logger = logging.getLogger('demo')
  26. info_fp = LoggerWriter(logger, logging.INFO)
  27. debug_fp = LoggerWriter(logger, logging.DEBUG)
  28. print('An INFO message', file=info_fp)
  29. print('A DEBUG message', file=debug_fp)
  30.  
  31. if __name__ == "__main__":
  32. main()

当此脚本运行时,它将打印

  1. INFO:demo:An INFO message
  2. DEBUG:demo:A DEBUG message

你还可以使用 LoggerWriter 通过下面这样的做法来重定向 sys.stdoutsys.stderr:

  1. import sys
  2.  
  3. sys.stdout = LoggerWriter(logger, logging.INFO)
  4. sys.stderr = LoggerWriter(logger, logging.WARNING)

你应当在根据需要配置日志记录 之后 再这样做。 在上面的例子中,basicConfig() 调用执行了此操作(在 sys.stderr 被一个 LoggerWriter 实例覆盖 之前 使用它的值)。 然后,你将得到这样的结果:

  1. >>> print('Foo')
  2. INFO:demo:Foo
  3. >>> print('Bar', file=sys.stderr)
  4. WARNING:demo:Bar
  5. >>>

当然,上面的例子是按照 basicConfig() 所使用的格式来显示输出的,但你也可以在配置日志记录时使用其他的格式。

请注意当使用上面的预置方案时,你将在一定程度上受到你所拦截的写入调用的缓冲和顺序的控制。 例如,在使用上述 LoggerWriter 的定义的情况下,如果你使用代码段

  1. sys.stderr = LoggerWriter(logger, logging.WARNING)
  2. 1 / 0

则运行该脚本的结果为

  1. WARNING:demo:Traceback (most recent call last):
  2.  
  3. WARNING:demo: File "homerunner/cookbook-loggerwriter/test.py", line 53, in <module>
  4.  
  5. WARNING:demo:
  6. WARNING:demo:main()
  7. WARNING:demo: File "homerunner/cookbook-loggerwriter/test.py", line 49, in main
  8.  
  9. WARNING:demo:
  10. WARNING:demo:1 / 0
  11. WARNING:demo:ZeroDivisionError
  12. WARNING:demo::
  13. WARNING:demo:division by zero

如你所见,这个输出并不很理想。 那是因为下层的写入 sys.stderr 的代码会执行多次写入,每次都将产生一条单独的日志记录行(例如,上面的最后三行)。 要避免这个问题,你需要使用缓冲并且只在看到换行符时才输出日志记录行。 让我们使用一个更好些的 LoggerWriter 实现:

  1. class BufferingLoggerWriter(LoggerWriter):
  2. def __init__(self, logger, level):
  3. super().__init__(logger, level)
  4. self.buffer = ''
  5.  
  6. def write(self, message):
  7. if '\n' not in message:
  8. self.buffer += message
  9. else:
  10. parts = message.split('\n')
  11. if self.buffer:
  12. s = self.buffer + parts.pop(0)
  13. self.logger.log(self.level, s)
  14. self.buffer = parts.pop()
  15. for part in parts:
  16. self.logger.log(self.level, part)

这段代码对内容进行了缓冲直至遇到换行符,然后将完整的行写入日志记录。 通过这种方式,你将得到更好的输出:

  1. WARNING:demo:Traceback (most recent call last):
  2. WARNING:demo: File "homerunner/cookbook-loggerwriter/main.py", line 55, in <module>
  3. WARNING:demo: main()
  4. WARNING:demo: File "homerunner/cookbook-loggerwriter/main.py", line 52, in main
  5. WARNING:demo: 1/0
  6. WARNING:demo:ZeroDivisionError: division by zero

理应避免的用法

前几节虽介绍了几种方案,描述了可能需要处理的操作,但值得一提的是,有些用法是 没有好处 的,大多数情况下应该避免使用。下面几节的顺序不分先后。

多次打开同一个日志文件

因会导致 "文件被其他进程占用 "错误,所以在 Windows 中一般无法多次打开同一个文件。但在 POSIX 平台中,多次打开同一个文件不会报任何错误。这种操作可能是意外发生的,比如:

  • 多次添加指向同一文件的 handler(比如通过复制/粘贴,或忘记修改)。

  • 打开两个貌似不同(文件名不一样)的文件,但一个是另一个的符号链接,所以其实是同一个文件。

  • 进程 fork,然后父进程和子进程都有对同一文件的引用。 例如,这可能是通过使用 multiprocessing 模块实现的。

在大多数情况下,多次打开同一个文件 貌似 一切正常,但实际会导致很多问题。

  • 由于多个线程或进程会尝试写入同一个文件,日志输出可能会出现乱码。尽管日志对象可以防止多个线程同时使用同一个 handler 实例,但如果两个不同的线程使用不同的 handler 实例同时写入文件,而这两个 handler 又恰好指向同一个文件,那么就失去了这种防护。

  • 尝试删除文件(例如在轮换日志文件时)会静默地失败,因为存在另一个指向它的引用。 这可能导致混乱并浪费调试时间 —— 日志条目会出现在意想不到的地方,或者完全丢失。 或者会有应当移除的文件仍然保持存在,文件还会在已经设置了基于文件大小的轮换的情况下仍然增长到预料之外的大小。

请用 从多个进程记录至单个文件 中介绍的技术来避免上述问题。

将日志对象用作属性或传递参数

虽然特殊情况下可能有必要如此,但一般来说没有意义,因为日志是单实例对象。代码总是可以通过 logging.getLogger(name) 用名称访问一个已有的日志对象实例,因此将实例作为参数来传递,或作为属性留存,都是毫无意义的。请注意,在其他语言中,如 Java 和 C#,日志对象通常是静态类属性。但在 Python 中是没有意义的,因为软件拆分的单位是模块(而不是类)。

为库中的日志记录器添加 NullHandler 以外的处理器

通过添加 handler、formatter 和 filter 来配置日志,这是应用程序开发人员的责任,而不是库开发人员该做的。如果正在维护一个库,请确保不要向任何日志对象添加 NullHandler 实例以外的 handler。

创建大量的日志对象

日志是单实例对象,在代码执行过程中不会被释放,因此创建大量的日志对象会占用很多内存,而这些内存又不能被释放。与其为每个文件或网络连接创建一个日志,还不如利用 已有机制 将上下文信息传给自定义日志对象,并将创建的日志对象限制在应用程序内的指定区域(通常是模块,但偶尔会再精细些)使用。

其他资源

参见

基础教程

进阶教程