Advanced Python Constructs(译)
高级Python结构
原谅渣翻译,可能仅仅是给我自己看的。本来多年(也就几个月吧)之前将此文投递到OSChina翻译频道结果被以代码太多为由被拒,于是译者只好用自己的渣英语渣水平翻译给自己看了……,期待各路=大婶=们指正……
翻译自http://scipy-lectures.github.com/advanced/advanced_python/index.html
作者: Zbigniew Jędrzejewski-Szmek
这章有关Python中被认为高级的特性-–—就是说并不是每个语言都有的,也是说它们可能在更复杂的程序或库中更有用,但不是说特别特殊或特别复杂。
强调这点很重要:这一章仅仅关于语言自身-–—关于辅之以Python的标准库功能的特殊语法所支持的特性,不包括那些智能的外部模块实现。
在开发Python程序语言的过程中,它的语法,独一无二。因为它非常透明。建议的更改通过不同的角度评估并在公开邮件列表讨论,最终决定考虑到假设用例的重要性、添加更多特性的负担,其余语法的一致性、是否建议的变种易于读写和理解之间的平衡。这个过程由Python Enhancement Proposals(PEPs)的形式规范。最终这一章节中描述的特性在证明它们确实解决实际问题并且使用起来尽可能简单后被添加。
迭代器(Iterators), 生成表达式(generator
expressions)和生成器(generators)
:CUSTOMID: 迭代器iterators-生成表达式generator-expressions和生成器generators
迭代器
简单
重复工作是浪费,将不同“土生土长”的方法替换为标准特性换来的是更加易于阅读和操作。
Guido van Rossum — Adding Optional Static Typing to Python
迭代器是依附于迭代协议的对象-–—基本意味它有一个=next=方法(method),当调用时,返回序列中的下一个项目。当无项目可返回时,引发(raise)=StopIteration=异常。
迭代对象允许一次循环。它保留单次迭代的状态(位置),或从另一个角度讲,每次循环序列都需要一个迭代对象。这意味我们可以同时迭代同一个序列不只一次。将迭代逻辑和序列分离使我们有更多的迭代方式。
调用一个容器(container)的=_iter__=方法创建迭代对象是掌握迭代器最直接的方式。=iter=函数为我们节约一些按键。
>>> nums = [1,2,3] # note that ... varies: these are different objects >>> iter(nums) <listiterator object at ...> >>> nums.__iter__() <listiterator object at ...> >>> nums.__reversed__() <listreverseiterator object at ...> >>> it = iter(nums) >>> next(it) # next(obj) simply calls obj.next() 1 >>> it.next() 2 >>> next(it) 3 >>> next(it) Traceback (most recent call last): File "<stdin>", line 1, in <module> StopIteration
当在循环中使用时,=StopIteration=被接受并停止循环。但通过显式引发(invocation),我们看到一旦迭代器元素被耗尽,存取它将引发异常。
使用=for…in=循环也使用=_iter__=方法。这允许我们透明地开始对一个序列迭代。但是如果我们已经有一个迭代器,我们想在for循环中能同样地使用它们。为了实现这点,迭代器除了=next=还有一个方法=_iter__=来返回迭代器自身(self)。
Python中对迭代器的支持无处不在:标准库中的所有序列和无序容器都支持。这个概念也被拓展到其它东西:例如=file=对象支持行的迭代。
>>> f = open('/etc/fstab') >>> f is f.__iter__() True
=file=自身就是迭代器,它的=_iter__=方法并不创建一个单独的对象:仅仅单线程的顺序读取被允许。
生成表达式
第二种创建迭代对象的方式是通过 生成表达式(generator expression) ,列表推导(list comprehension)的基础。为了增加清晰度,生成表达式总是封装在括号或表达式中。如果使用圆括号,则创建了一个生成迭代器(generator iterator)。如果是方括号,这一过程被‘短路'我们获得一个列表=list=。
>>> (i for i in nums) <generator object <genexpr> at 0x...> >>> [i for i in nums] [1, 2, 3] >>> list(i for i in nums) [1, 2, 3]
在Python 2.7和 3.x中列表表达式语法被扩展到 /字典和集合表达式/。一个集合=set=当生成表达式是被大括号封装时被创建。一个字典=dict=在表达式包含=key:value=形式的键值对时被创建:
>>> {i for i in range(3)} set([0, 1, 2]) >>> {i:i**2 for i in range(3)} {0: 0, 1: 1, 2: 4}
如果您不幸身陷古老的Python版本中,这个语法有点糟:
>>> set(i for i in 'abc') set(['a', 'c', 'b']) >>> dict((i, ord(i)) for i in 'abc') {'a': 97, 'c': 99, 'b': 98}
生成表达式相当简单,不用多说。只有一个陷阱值得提及:在版本小于3的Python中索引变量(i
)会泄漏。
生成器
生成器
生成器是产生一列结果而不是单一值的函数。
David Beazley — A Curious Course on Coroutines and Concurrency
第三种创建迭代对象的方式是调用生成器函数。一个 生成器(generator) 是包含关键字=yield=的函数。值得注意,仅仅是这个关键字的出现完全改变了函数的本质:=yield=语句不必引发(invoke),甚至不必可接触。但让函数变成了生成器。当一个函数被调用时,其中的指令被执行。而当一个生成器被调用时,执行在其中第一条指令之前停止。生成器的调用创建依附于迭代协议的生成器对象。就像常规函数一样,允许并发和递归调用。
当=next=被调用时,函数执行到第一个=yield=。每次遇到=yield=语句获得一个作为=next=返回的值,在=yield=语句执行后,函数的执行又被停止。
>>> def f(): ... yield 1 ... yield 2 >>> f() <generator object f at 0x...> >>> gen = f() >>> gen.next() 1 >>> gen.next() 2 >>> gen.next() Traceback (most recent call last): File "<stdin>", line 1, in <module> StopIteration
让我们遍历单个生成器函数调用的整个历程。
>>> def f(): ... print("-- start --") ... yield 3 ... print("-- middle --") ... yield 4 ... print("-- finished --") >>> gen = f() >>> next(gen) -- start -- 3 >>> next(gen) -- middle -- 4 >>> next(gen) -- finished -- Traceback (most recent call last): ... StopIteration
相比常规函数中执行=f()=立即让=print=执行,=gen=不执行任何函数体中语句就被赋值。只有当=gen.next()=被=next=调用,直到第一个=yield=部分的语句才被执行。第二个语句打印=– middle --并在遇到第二个yield时停止执行。第三个=next=打印
– finished –=并且到函数末尾,因为没有=yield=,引发了异常。
当函数yield之后控制返回给调用者后发生了什么?每个生成器的状态被存储在生成器对象中。从这点看生成器函数,好像它是运行在单独的线程,但这仅仅是假象:执行是严格单线程的,但解释器保留和存储在下一个值请求之间的状态。1
为何生成器有用?正如关于迭代器这部分强调的,生成器函数只是创建迭代对象的又一种方式。一切能被=yield=语句完成的东西也能被=next=方法完成。然而,使用函数让解释器魔力般地创建迭代器有优势。一个函数可以比需要=next=和=_iter__=方法的类定义短很多。更重要的是,相比不得不对迭代对象在连续=next=调用之间传递的实例(instance)属性来说,生成器的作者能更简单的理解局限在局部变量中的语句。
还有问题是为何迭代器有用?当一个迭代器用来驱动循环,循环变得简单。迭代器代码初始化状态,决定是否循环结束,并且找到下一个被提取到不同地方的值。这凸显了循环体-–—最值得关注的部分。除此之外,可以在其它地方重用迭代器代码。
双向通信
每个=yield=语句将一个值传递给调用者。这就是为何PEP 255引入生成器(在Python2.2中实现)。但是相反方向的通信也很有用。一个明显的方式是一些外部(extern)语句,或者全局变量或共享可变对象。通过将先前无聊的=yield=语句变成表达式,直接通信因PEP 342成为现实(在2.5中实现)。当生成器在yield语句之后恢复执行时,调用者可以对生成器对象调用一个方法,或者传递一个值 给 生成器,然后通过=yield=语句返回,或者通过一个不同的方法向生成器注入异常。
第一个新方法是=send(value)=,类似于=next()=,但是将=value=传递进作为yield表达式值的生成器中。事实上,=g.next()=和=g.send(None)=是等效的。
第二个新方法是=throw(type, value=None, traceback=None)=,等效于在yield语句处
raise type, value, traceback
不像=raise=(从执行点立即引发异常),=throw()=首先恢复生成器,然后仅仅引发异常。选用单次throw就是因为它意味着把异常放到其它位置,并且在其它语言中与异常有关。
当生成器中的异常被引发时发生什么?它可以或者显式引发,当执行某些语句时可以通过=throw()=方法注入到yield语句中。任一情况中,异常都以标准方式传播:它可以被=except=和=finally=捕获,或者造成生成器的中止并传递给调用者。
因完整性缘故,值得提及生成器迭代器也有=close()=方法,该方法被用来让本可以提供更多值的生成器立即中止。它用生成器的=_del__=方法销毁保留生成器状态的对象。
让我们定义一个只打印出通过send和throw方法所传递东西的生成器。
>>> import itertools >>> def g(): ... print '--start--' ... for i in itertools.count(): ... print '--yielding %i--' % i ... try: ... ans = yield i ... except GeneratorExit: ... print '--closing--' ... raise ... except Exception as e: ... print '--yield raised %r--' % e ... else: ... print '--yield returned %s--' % ans >>> it = g() >>> next(it) --start-- --yielding 0-- 0 >>> it.send(11) --yield returned 11-- --yielding 1-- 1 >>> it.throw(IndexError) --yield raised IndexError()-- --yielding 2-- 2 >>> it.close() --closing--
注意: next=还是=__next__
?
*在Python 2.x中,接受下一个值的迭代器方法是=next=,它通过全局函数=next=显式调用,意即它应该调用=_next__=。就像全局函数=iter=调用=_iter__=。这种不一致在Python 3.x中被修复,=it.next=变成了=it._next__=。对于其它生成器方法-–—=send=和=throw=情况更加复杂,因为它们不被解释器隐式调用。然而,有建议语法扩展让=continue=带一个将被传递给循环迭代器中=send=的参数。如果这个扩展被接受,可能=gen.send=会变成=gen._send__=。最后一个生成器方法=close=显然被不正确的命名了,因为它已经被隐式调用。*
链式生成器
注意: 这是PEP 380的预览(还未被实现,但已经被Python3.3接受)2
比如说我们正写一个生成器,我们想要yield一个第二个生成器-–—一个子生成器(subgenerator)-–—生成的数。如果仅考虑产生(yield)的值,通过循环可以不费力的完成:
subgen = some_other_generator() for v in subgen: yield v
然而,如果子生成器需要调用=send()=、=throw()=和=close()=和调用者适当交互的情况下,事情就复杂了。=yield=语句不得不通过类似于前一章节部分定义的=try…except…finally=结构来保证“调试”生成器函数。这种代码在PEP 380中提供,现在足够拿出将在Python 3.3中引入的新语法了:
yield from some_other_generator()
像上面的显式循环调用一样,重复从=someothergenerator=中产生值直到没有值可以产生,但是仍然向子生成器转发=send=、=throw=和=close=。
装饰器
总结
这个语言中令人激动的特性几乎充满歉意的,考虑到它可能没这么有用。
Bruce Eckel — An Introduction to Python Decorators
因为函数或类都是对象,它们也能被四处传递。它们又是可变对象,可以被更改。在函数或类对象创建后但绑定到名字前更改之的行为为装饰(decorator)。3
“装饰器”后隐藏了两种意思-–—一是函数起了装饰作用,例如,执行真正的工作,另一个是依附于装饰器语法的表达式,例如,at符号和装饰函数的名称。
函数可以通过函数装饰器语法装饰:
@decorator # ② def function(): # ① pass
- 函数以标准方式定义。①
- 以=@=做为定义为装饰器函数前缀的表达式②。在 @ 后的部分必须是简单的表达式,通常只是函数或类的名字。这一部分先求值,在下面的定义的函数准备好后,装饰器被新定义的函数对象作为单个参数调用。装饰器返回的值附着到被装饰的函数名。
装饰器可以应用到函数和类上。对类语义很明晰-–—类定义被当作参数来调用装饰器,无论返回什么都赋给被装饰的名字。
在装饰器语法实现前(PEP 318),通过将函数和类对象赋给临时变量然后显式调用装饰器然后将返回值赋给函数名,可以完成同样的事。这似乎要打更多的字,也确实装饰器函数名用了两次同时临时变量要用至少三次,很容易出错。以上实例相当于:
def function(): # ① pass function = decorator(function) # ②
装饰器可以堆栈(stacked)-–—应用的顺序是从底到上或从里到外。就是说最初的函数被当作第一次参数器的参数,无论返回什么都被作为第二个装饰器的参数……无论最后一个装饰器返回什么都被依附到最初函数的名下。
装饰器语法因其可读性被选择。因为装饰器在函数头部前被指定,显然不是函数体的一部分,它只能对整个函数起作用。以@为前缀的表达式又让它明显到不容忽视(根据PEP叫在您脸上……:))。当多个装饰器被应用时,每个放在不同的行非常易于阅读。
代替和调整原始对象
装饰器可以或者返回相同的函数或类对象或者返回完全不同的对象。第一种情况中,装饰器利用函数或类对象是可变的添加属性,例如向类添加文档字符串(docstring).装饰器甚至可以在不改变对象的情况下做有用的事,例如在全局注册表中注册装饰的类。在第二种情况中,简直无所不能:当什么不同的东西取代了被装饰的类或函数,新对象可以完全不同。然而这不是装饰器的目的:它们意在改变装饰对象而非做不可预料的事。因此当一个函数在装饰时被完全替代成不同的函数时,新函数通常在一些准备工作后调用原始函数。同样,当一个类被装饰成一个新类时,新类通常源于被装饰类。当装饰器的目的是“每次都”做什么,像记录每次对被装饰函数的调用,只有第二类装饰器可用。另一方面,如果第一类足够了,最好使用它因为更简单。4
实现类和函数装饰器
对装饰器惟一的要求是它能够单参数调用。这意味着装饰器可以作为常规函数或带有=_call__=方法的类的实现,理论上,甚至lambda函数也行。
让我们比较函数和类方法。装饰器表达式(@后部分)可以只是名字。只有名字的方法很好(打字少,看起来整洁等),但是只有当无需用参数定制装饰器时才可能。被写作函数的装饰器可以用以下两种方式:
>>> def simple_decorator(function): ... print "doing decoration" ... return function >>> @simple_decorator ... def function(): ... print "inside function" doing decoration >>> function() inside function >>> def decorator_with_arguments(arg): ... print "defining the decorator" ... def _decorator(function): ... # in this inner function, arg is available too ... print "doing decoration,", arg ... return function ... return _decorator >>> @decorator_with_arguments("abc") ... def function(): ... print "inside function" defining the decorator doing decoration, abc >>> function() inside function
这两个装饰器属于返回被装饰函数的类别。如果它们想返回新的函数,需要额外的嵌套,最糟的情况下,需要三层嵌套。
>>> def replacing_decorator_with_args(arg): ... print "defining the decorator" ... def _decorator(function): ... # in this inner function, arg is available too ... print "doing decoration,", arg ... def _wrapper(*args, **kwargs): ... print "inside wrapper,", args, kwargs ... return function(*args, **kwargs) ... return _wrapper ... return _decorator >>> @replacing_decorator_with_args("abc") ... def function(*args, **kwargs): ... print "inside function,", args, kwargs ... return 14 defining the decorator doing decoration, abc >>> function(11, 12) inside wrapper, (11, 12) {} inside function, (11, 12) {} 14
=wrapper=函数被定义为接受所有位置和关键字参数。通常我们不知道哪些参数被装饰函数会接受,所以wrapper将所有东西都创递给被装饰函数。一个不幸的结果就是显式参数很迷惑人。
相比定义为函数的装饰器,定义为类的复杂装饰器更简单。当对象被创建,=_init__=方法仅仅允许返回=None=,创建的对象类型不能更改。这意味着当装饰器被定义为类时,使用无参数的形式没什么意义:最终被装饰的对象只是装饰类的一个实例而已,被构建器(constructor)调用返回,并不非常有用。讨论在装饰表达式中给出参数的基于类的装饰器,=_init__=方法被用来构建装饰器。
>>> class decorator_class(object): ... def __init__(self, arg): ... # this method is called in the decorator expression ... print "in decorator init,", arg ... self.arg = arg ... def __call__(self, function): ... # this method is called to do the job ... print "in decorator call,", self.arg ... return function >>> deco_instance = decorator_class('foo') in decorator init, foo >>> @deco_instance ... def function(*args, **kwargs): ... print "in function,", args, kwargs in decorator call, foo >>> function() in function, () {}
相对于正常规则(PEP 8)由类写成的装饰器表现得更像函数,因此它们的名字以小写字母开始。
事实上,创建一个仅返回被装饰函数的新类没什么意义。对象应该有状态,这种装饰器在装饰器返回新对象时更有用。
>>> class replacing_decorator_class(object): ... def __init__(self, arg): ... # this method is called in the decorator expression ... print "in decorator init,", arg ... self.arg = arg ... def __call__(self, function): ... # this method is called to do the job ... print "in decorator call,", self.arg ... self.function = function ... return self._wrapper ... def _wrapper(self, *args, **kwargs): ... print "in the wrapper,", args, kwargs ... return self.function(*args, **kwargs) >>> deco_instance = replacing_decorator_class('foo') in decorator init, foo >>> @deco_instance ... def function(*args, **kwargs): ... print "in function,", args, kwargs in decorator call, foo >>> function(11, 12) in the wrapper, (11, 12) {} in function, (11, 12) {}
像这样的装饰器可以做任何事,因为它能改变被装饰函数对象和参数,调用被装饰函数或不调用,最后改变返回值。
复制原始函数的文档字符串和其它属性
当新函数被返回代替装饰前的函数时,不幸的是原函数的函数名,文档字符串和参数列表都丢失了。这些属性可以部分通过设置=_doc__=(文档字符串),=_module__=和=_name__=(函数的全称)、=_annotations__=(Python 3中关于参数和返回值的额外信息)移植到新函数上,这些工作可通过=functools.updatewrapper=自动完成。
>>> import functools >>> def better_replacing_decorator_with_args(arg): ... print "defining the decorator" ... def _decorator(function): ... print "doing decoration,", arg ... def _wrapper(*args, **kwargs): ... print "inside wrapper,", args, kwargs ... return function(*args, **kwargs) ... return functools.update_wrapper(_wrapper, function) ... return _decorator >>> @better_replacing_decorator_with_args("abc") ... def function(): ... "extensive documentation" ... print "inside function" ... return 14 defining the decorator doing decoration, abc >>> function <function function at 0x...> >>> print function.__doc__ extensive documentation
一件重要的东西是从可迁移属性列表中所缺少的:参数列表。参数的默认值可以通过=_defaults__=、=_kwdefaults__=属性更改,但是不幸的是参数列表本身不能被设置为属性。这意味着=help(function)=将显式无用的参数列表,使使用者迷惑不已。一个解决此问题有效但是丑陋的方式是使用=eval=动态创建wrapper。可以使用外部=external=模块自动实现。它提供了对=decorator=装饰器的支持,该装饰器接受wrapper并将之转换成保留函数签名的装饰器。
综上,装饰器应该总是使用=functools.updatewrapper=或者其它方式赋值函数属性。
标准库中的示例
首先要提及的是标准库中有一些实用的装饰器,有三种装饰器:
-
=classmethod=让一个方法变成“类方法”,即它能够无需创建实例调用。当一个常规方法被调用时,解释器插入实例对象作为第一个参数=self=。当类方法被调用时,类本身被给做第一个参数,一般叫=cls=。
类方法也能通过类命名空间读取,所以它们不必污染模块命名空间。类方法可用来提供替代的构建器(constructor):
class Array(object): def __init__(self, data): self.data = data @classmethod def fromfile(cls, file): data = numpy.load(file) return cls(data)
这比用一大堆标记的=_init__=简单多了。
- =staticmethod=应用到方法上让它们“静态”,例如,本来一个常规函数,但通过类命名空间存取。这在函数仅在类中需要时有用(它的名字应该以=_=为前缀),或者当我们想要用户以为方法连接到类时也有用-–—虽然对实现本身不必要。
-
=property=是对getter和setter问题Python风格的答案。通过=property=装饰的方法变成在属性存取时自动调用的getter。
>>> class A(object): ... @property ... def a(self): ... "an important attribute" ... return "a value" >>> A.a <property object at 0x...> >>> A().a 'a value'
例如=A.a=是只读属性,它已经有文档了:=help(A)=包含从getter方法获取的属性=a=的文档字符串。将=a=定义为property使它能够直接被计算,并且产生只读的副作用,因为没有定义任何setter。
为了得到setter和getter,显然需要两个方法。从Python 2.6开始首选以下语法:
class Rectangle(object): def __init__(self, edge): self.edge = edge @property def area(self): """Computed area. Setting this updates the edge length to the proper value. """ return self.edge**2 @area.setter def area(self, area): self.edge = area ** 0.5
通过=property=装饰器取代带一个属性(property)对象的getter方法,以上代码起作用。这个对象反过来有三个可用于装饰器的方法=getter=、=setter=和=deleter=。它们的作用就是设定属性对象的getter、setter和deleter(被存储为=fget=、=fset=和=fdel=属性(attributes))。当创建对象时,getter可以像上例一样设定。当定义setter时,我们已经在=area=中有property对象,可以通过=setter=方法向它添加setter,一切都在创建类时完成。
之后,当类实例创建后,property对象和特殊。当解释器执行属性存取、赋值或删除时,其执行被下放给property对象的方法。
为了让一切一清二楚5,让我们定义一个“调试”例子:
>>> class D(object): ... @property ... def a(self): ... print "getting", 1 ... return 1 ... @a.setter ... def a(self, value): ... print "setting", value ... @a.deleter ... def a(self): ... print "deleting" >>> D.a <property object at 0x...> >>> D.a.fget <function a at 0x...> >>> D.a.fset <function a at 0x...> >>> D.a.fdel <function a at 0x...> >>> d = D() # ... varies, this is not the same `a` function >>> d.a getting 1 1 >>> d.a = 2 setting 2 >>> del d.a deleting >>> d.a getting 1 1
属性(property)是对装饰器语法的一点扩展。使用装饰器的一大前提-–—命名不重复-–—被违反了,但是目前没什么更好的发明。为getter,setter和deleter方法使用相同的名字还是个好的风格。
一些其它更新的例子包括:
- =functools.lrucache=记忆任意维持有限 参数:结果 对的缓存函数(Python 3.2)
functools.total_ordering=是一个基于单个比较方法而填充丢失的比较(ordering)方法(=__lt__
,=_gt__=,=_le__=等等)的类装饰器。
函数的废弃
比如说我们想在第一次调用我们不希望被调用的函数时在标准错误打印一个废弃函数警告。如果我们不像更改函数,我们可用装饰器
class deprecated(object): """Print a deprecation warning once on first use of the function. >>> @deprecated() # doctest: +SKIP ... def f(): ... pass >>> f() # doctest: +SKIP f is deprecated """ def __call__(self, func): self.func = func self.count = 0 return self._wrapper def _wrapper(self, *args, **kwargs): self.count += 1 if self.count == 1: print self.func.__name__, 'is deprecated' return self.func(*args, **kwargs)
也可以实现成函数:
def deprecated(func): """Print a deprecation warning once on first use of the function. >>> @deprecated # doctest: +SKIP ... def f(): ... pass >>> f() # doctest: +SKIP f is deprecated """ count = [0] def wrapper(*args, **kwargs): count[0] += 1 if count[0] == 1: print func.__name__, 'is deprecated' return func(*args, **kwargs) return wrapper
while-loop移除装饰器
例如我们有个返回列表的函数,这个列表由循环创建。如果我们不知道需要多少对象,实现这个的标准方法如下:
def find_answers(): answers = [] while True: ans = look_for_next_answer() if ans is None: break answers.append(ans) return answers
只要循环体很紧凑,这很好。一旦事情变得更复杂,正如真实的代码中发生的那样,这就很难读懂了。我们可以通过=yield=语句简化它,但之后用户不得不显式调用嗯=list(findanswers())=。
我们可以创建一个为我们构建列表的装饰器:
def vectorized(generator_func): def wrapper(*args, **kwargs): return list(generator_func(*args, **kwargs)) return functools.update_wrapper(wrapper, generator_func)
然后函数变成这样:
@vectorized def find_answers(): while True: ans = look_for_next_answer() if ans is None: break yield ans
插件注册系统
这是一个仅仅把它放进全局注册表中而不更改类的类装饰器,它属于返回被装饰对象的装饰器。
class WordProcessor(object): PLUGINS = [] def process(self, text): for plugin in self.PLUGINS: text = plugin().cleanup(text) return text @classmethod def plugin(cls, plugin): cls.PLUGINS.append(plugin) @WordProcessor.plugin class CleanMdashesExtension(object): def cleanup(self, text): return text.replace('—', u'\N{em dash}')
这里我们使用装饰器完成插件注册。我们通过一个名词调用装饰器而不是一个动词,因为我们用它来声明我们的类是=WordProcessor=的一个插件。=plugin=方法仅仅将类添加进插件列表。
关于插件自身说下:它用真正的Unicode中的破折号符号替代HTML中的破折号。它利用unicode literal notation通过它在unicode数据库中的名称("EM DASH")插入一个符号。如果直接插入Unicode符号,将不可能区分所插入的和源程序中的破折号。
更多例子和参考
- PEP 310(函数和方法装饰语法)
- PEP 3129(类装饰语法)
- http://wiki.python.org/moin/PythonDecoratorLibrary
- http://docs.python.org/dev/library/functools.html
- http://pypi.python.org/pypi/decorator
- Bruce Eckel
- 装饰器I:介绍Python装饰器
- Python装饰器II:装饰器参数
- Python装饰器III:一个基于装饰器构建的系统
上下文管理器
上下文管理器是可以在=with=语句中使用,拥有=_enter__=和=_exit__=方法的对象。
with manager as var: do_something(var)
相当于以下情况的简化:
var = manager.__enter__() try: do_something(var) finally: manager.__exit__()
换言之,PEP 343中定义的上下文管理器协议允许将无聊的=try…except…finally=结构抽象到一个单独的类中,仅仅留下关注的=dosomething=部分。
1.=_enter__=方法首先被调用。它可以返回赋给=var=的值。=as=部分是可选的:如果它不出现,=enter=的返回值简单地被忽略。 2.=with=语句下的代码被执行。就像=try=子句,它们或者成功执行到底,或者=break=,=continue=或=return=,或者可以抛出异常。无论哪种情况,该块结束后,=_exit__=方法被调用。如果抛出异常,异常信息被传递给=_exit__=,这将在下一章节讨论。通常情况下,异常可被忽略,就像在=finally=子句中一样,并且将在=_exit__=结束后重新抛出。
比如说我们想确认一个文件在完成写操作之后被立即关闭:
>>> class closing(object): ... def __init__(self, obj): ... self.obj = obj ... def __enter__(self): ... return self.obj ... def __exit__(self, *args): ... self.obj.close() >>> with closing(open('/tmp/file', 'w')) as f: ... f.write('the contents\n')
这里我们确保了当=with=块退出时调用了=f.close()=。因为关闭文件是非常常见的操作,该支持已经出现在=file=类之中。它有一个=_exit__=方法调用=close=,并且本身可作为上下文管理器。
>>> with open('/tmp/file', 'a') as f: ... f.write('more contents\n')
=try…finally=常见的用法是释放资源。各种不同的情况实现相似:在=_enter__=阶段资源被获得,在=_exit__=阶段释放,如果抛出异常也被传递。正如文件操作,往往这是对象使用后的自然操作,内置支持使之很方便。每一个版本,Python都在更多的地方提供支持。
- 所有类似文件的对象:
file
➔ 自动关闭fileinput
,=tempfile=(py >= 3.2)bz2.BZ2File=,=gzip.GzipFile
,tarfile.TarFile
,=zipfile.ZipFile=ftplib
,nntplib
➔ 关闭连接(py >= 3.2)- 锁
multiprocessing.RLock
➔ 锁定和解锁multiprocessing.Semaphore
memoryview
➔ 自动释放(py >= 3.2 或 3.3)- =decimal.localcontext=➔ 暂时更改计算精度
_winreg.PyHKEY
➔ 打开和关闭Hive Keywarnings.catch_warnings
➔ 暂时杀死(kill)警告contextlib.closing
➔ 如上例,调用=close=- 并行编程
concurrent.futures.ThreadPoolExecutor
➔ 并行调用然后杀掉线程池(py >= 3.2)concurrent.futures.ProcessPoolExecutor
➔ 并行调用并杀死进程池(py >= 3.2)nogil
➔ 暂时解决GIL问题(仅仅cyphon :()
捕获异常
当一个异常在=with=块中抛出时,它作为参数传递给=_exit__=。三个参数被使用,和=sys.excinfo()=返回的相同:类型、值和回溯(traceback)。当没有异常抛出时,三个参数都是=None=。上下文管理器可以通过从=_exit__=返回一个真(True)值来“吞下”异常。例外可以轻易忽略,因为如果=_exit__=不使用=return=直接结束,返回=None=-–—一个假(False)值,之后在=_exit__=结束后重新抛出。
捕获异常的能力创造了有意思的可能性。一个来自单元测试的经典例子-–—我们想确保一些代码抛出正确种类的异常:
class assert_raises(object): # based on pytest and unittest.TestCase def __init__(self, type): self.type = type def __enter__(self): pass def __exit__(self, type, value, traceback): if type is None: raise AssertionError('exception expected') if issubclass(type, self.type): return True # swallow the expected exception raise AssertionError('wrong exception type') with assert_raises(KeyError): {}['foo']
使用生成器定义上下文管理器
当讨论生成器时,据说我们相比实现为类的迭代器更倾向于生成器,因为它们更短小方便,状态被局部保存而非实例和变量中。另一方面,正如双向通信章节描述的那样,生成器和它的调用者之间的数据流可以是双向的。包括异常,可以直接传递给生成器。我们想将上下文管理器实现为特殊的生成器函数。事实上,生成器协议被设计成支持这个用例。
@contextlib.contextmanager def some_generator(<arguments>): <setup> try: yield <value> finally: <cleanup>
=contextlib.contextmanager=装饰一个生成器并转换为上下文管理器。生成器必须遵循一些被包装(wrapper)函数强制执行的法则-–—最重要的是它至少=yield=一次。=yield=之前的部分从=_enter__=执行,上下文管理器中的代码块当生成器停在=yield=时执行,剩下的在=_exit__=中执行。如果异常被抛出,解释器通过=_exit__=的参数将之传递给包装函数,包装函数于是在yield语句处抛出异常。通过使用生成器,上下文管理器变得更短小精炼。
让我们用生成器重写=closing=的例子:
@contextlib.contextmanager def closing(obj): try: yield obj finally: obj.close()
再把=assertraises=改写成生成器:
@contextlib.contextmanager def assert_raises(type): try: yield except type: return except Exception as value: raise AssertionError('wrong exception type') else: raise AssertionError('exception expected')
这里我们用装饰器将生成函数转化为上下文管理器!