Stream in NodeJS
流是Node中最好也最被误解的概念。
--dominictarr
当我第一次接触NodeJS时,NodeJS有很不一样的感觉。异步、流、神奇的Javascript等等等等,花了将近几个月时间才渐渐理解其中很多概念。流就是其中一个开始很难以理解也很让人好奇的东西,而流在NodeJS中又是无处不在的。
后来,抱着好奇心翻看流的文档、翻看实现的代码,搜索网络上的文章,调了调流的代码看看它怎么运作的,看看别人做的实验。
感觉:
- 流是个在发展的模式。
- 状态管理和反压控制流速细节非常麻烦。
本文是一堆笔记堆砌而成,也算个资料汇编吧。
模型
添油加醋意译自Streams Living Standard
程序皆模型。这些模型脱胎于现实或精神过程,于头脑中孕育。这些过程,源于人类经验和思考,数量庞大,结构复杂,从来都只被部分理解。
--Structure and Interpretation of Computer Programs(second edition), Foreword
程序是我们心智的模型,是我们对世界的认识。
异步非阻塞IO是、观察者模式、单例是,所有计算机科学中天花乱坠的东西概莫能外。
NodeJS中看到的流也是。大道筑于流:其生灭变换于无穷之时间,不困于有限之空间。
数据块(Chunk)
数据块: 每次读入或写入的一段数据,可以是任何类型。
读取流(Readable Streams)
读取流: 代表数据源的模型,数据的来源。
潜在资源(underlying source):读取流所封装的底层I/O源
推送源(push sources): 无论如何都在将数据推出的源。也许提供了暂停和恢复的功能。
拉取源(pull sources): 需要有消费数据的对象从他们中请求数据的源。
队列(queue): 潜在资源将数据块推入流内部队列,这些数据块可以通过流的公共接口一次一个读出。
消费者(Consumer): 使用读取流的公共接口从其读取数据的程序。
取消(cancel): 消费者能够取消读取流。当其不再对流中数据有兴趣,立即关闭流,放弃任何队列中的数据块,执行任何潜在资源的取消机制。
分流(tee): 消费者能够复制读取流。锁定流使其不再直接可用,创建两个新的能独立消费的分支(branches)。
写入流(Writable Streams)
写入流: 代表数据的目的地,数据的流向处。
潜在汇入(underlying sink): 写入流所封装的底层I/O汇入点。写入流通过将之后的写入缓存到队列中,一次传递一个给潜在汇入,来抽象底层汇入的复杂实现。数据块被一次一个地通过写入流的公共接口传递给潜在汇入。
供给者(producer): 通过使用写入流的公共接口将数据写入的代码为供给者。
终止(abort): 供给者有能力终止写入流。如果供给者认为有错误,任何之后的写入都应该被禁止,可以将写入流转换到错误状态而无需潜在汇入的信号。
转换流(Transform Streams)
转换流包含一对流:一个写入流,一个读取流。数据写入写入流,处理转换后,将可以从读取流读取新数据。
管道(Pipe)链(Chains)和反压(Backpressure)
管道: 流一个接一个好像管道一样连接起来,比如一个读取流连接上写入流。这些流可以一个接一个连接起来。
管道链: 一系列像管道一样连接的流成为管道链。
初始源(original source): 是链中第一个读取流所代表的潜在资源。
终点汇入(ultimate sink): 是链中最后一个写入流代表的潜在资源。
反压: 一旦管道链建立起来,就可以传播流速信号。如果任何链中环节还不能接受数据块,就将该信号反向传回初始源,告知其不要这么快生成数据。这种根据链中数据处理速度将信号反馈给初始源的过程叫做反压。
如果分裂一个读取流,两个分支的反压信号将聚合,任何一个分支有反压信号将被传送给读取流的潜在资源。
内部队列和队列策略
读取流和写入流都维护一个内部队列(internal queues)。他们有相似的目的。在读取流中,内部队列缓存了潜在来源推入队列的数据。在写入流中,内部队列缓存了将要传递给潜在汇入还未来得及被其处理的数据。
队列策略(queuing strategy)是一种决定流如何根据它的内部状态给出反压信号的策略。队列策略赋给每个数据块一个尺寸,比较队列中所有数据块总体尺寸和一个特殊的叫做水平标记(high water mark)的值做比较。结果之差,即水平标记减去数据块总尺寸,用来决定填入流队列中意向尺寸(desired size to fill the stream's queue。
流意向读取的尺寸 = 水平标记 - 队列中已有数据块总大小
对读取流来说,一个潜在来源可以使用该意向作为反压信号,减慢数据块生成速度来保持意向读取尺寸大于等于零。
对写入流来说,供给源可以类似避免写入速度过快。
简单例子,如果每个数据块尺寸为1,水平标志为3,在流考虑应用反压之前流中队列最多有三个数据块。
锁定(Locking)
读取流读者(readable stream reader)是允许直接从读取流中读取数据块的对象。没有这个对象,消费者只能对读取流进行高级操作:等待流关闭或者出错,取消流,用管道将读取流连接上写入流。许多这些高级操作实际自身使用流读者。
给定的流一次只能有一个读者。叫做流被锁定到读者(locked to the reader),读者被成为激活的(active)。
读者也有能力释放它的锁(release its read lock),让其不再激活。其他读者可以自由获取这个锁。如果流因为潜在来源或这取消而关闭或出错,读者将自动释放锁。
Stream in NodeJS
本章翻译整理自Streams2 Node.js Streams2 Demystified. by Bryce Baril
Stream可以看作是一种数据处理惰性求值(lazy evaluation)。
好处
- 延迟处理缓冲的数据
- 时间驱动非阻塞
- 内存消耗低
- 自动 back-pressure 处理
- 突破 V8 堆内存限制
- NodeJS 核心结构
Classes
五个类
- Readable: 读出
- Writable: 写入
- Duplex: 双向流
- Transform: 流变形
- Passthrough: 流间谍
Readable实现
- 集成=stream.Readable=
- 实现=read(size)=方法
or
简化Constructor
-
\read(size)
=size=是字节,可以忽略(尤其对 objectMode 的流)。
=read(size)=中必须调用=this.push(chunk)=把数据推入读取队列。只有数据消耗者出现的时候才被调用(read或者pipe)。
-
readable options
=highWaterMark=number:内部缓冲区读取的最大字节大小限制,默认为16kb
=encoding=String: 字符编码,默认为 null
=objectMode=Boolean: 使用 Javascript 对象代替 Buffer 或字符串 -
使用 Readable 流
readable.pipe(target)
readable.read(size)
readable.on("data", /*...*/)
Writable
-
实现 Writable
- 继承=stream.Writable=
- 实现=write(chunk, encoding, callback)=方法
or
简化Constructor
-
\write(chunk, encoding, callback)
-
Writable Options
- =highWaterMark=number:
- =decodeStrings=Boolean:是否在传递给=write()=之前将string decode到buffer
-
使用Writable
source.pipe(writable)
writable.write(chunk[, encoding, callback])
如果write 返回false则需要监听=drain=事件
Duplex
双工
Transform
操作流中数据,特殊双工流
-
实现
- 继承=stream.Transform=
- 实现=transform(chunk, encoding, callback)=方法
- 可选实现=flush(callback)=方法
or
简化Constructor
-
\transform(chunk, encoding, callback)方法
- 调用=this.push(something)=传递给下一个消费者
- 如果不push任何东西,将略过一个chunk
- 必须在每次=transform=被调用时调用一次=callback=
-
\flush(callback)
当流结束时,有一次清理和最后=this.push()=调用来清理任何缓冲或工作的机会。结束时调用=callback()=。
-
transform options
依然是读写流的超集
-
使用transform流
所有读写流方法
- source.pipe(transform).pipe(drain)
- transform.on(‘data', …)
Passthrough
大多passthrough流用来测试,是没有变幻的transform流
Buffering
Streams 自动处理缓冲和 backpressure
readable buffering
当你调用=this.push(chunk)=时缓冲,知道流被读取
写缓冲
写入时缓冲,流被读取或处理时排空
stream.read(0)
在可读流上调用=.read(0)=更新系统而不读取任何数据。一般不会用
有时候你想要触发潜在读取流机制,而不处理任何数据
如果内部缓冲区在最高吃水线(highWaterMark)之下,流当前并不被读。这时候调用=read(0)=将触发底层=read=调用。
stream.push(‘')或者stream.push(null)
推入一个0字节字符或者对象模式中推入null会结束流。会触发状态,将触发Readable Stream的readable事件。
错误处理
Stream是EventEmitter。要么监听=error=事件,要么就让它们冒泡
传递错误
当error发生时,将错误放在=write=或=transform=里callback的第一个参数来结束流和给出错误信号。
历史
然而Stream既不是凭空来的,也不是提前设计好的,是一步一步进化出来的并仍在不断进化。Isaac曾经这样说:
贯穿整个Node的开发,我们都在逐渐迭代一个理想的基于事件的数据处理API。这就是你们所看到的渗透到Node核心模块和无数npm中模块的 Stream 接口。
--A New Streaming API for Node v0.10, Isaac Z. Schlueter, 2012-12-21
那么,NodeJS中的流是怎样进化的呢?
Stream 1
最早的Stream是从http.js和net.js模块抽象出来,说明其源头正是因处理网络而生。参见Add Stream Base class with stream.pipe, ry committed on 11 Oct 2010
这时候的Stream是朴素的基础类,仅仅从EventEmitter继承而来,有一个=pipe=方法,实现从src读取数据写入dest的功能。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
function Stream () { events.EventEmitter.call(this); } inherits(Stream, events.EventEmitter); exports.Stream = Stream; Stream.prototype.pipe = function (dest, options) { var source = this; source.on("data", function (chunk) { if (false === dest.write(chunk)) source.pause(); }); dest.on("drain", function () { if (source.readable) source.resume(); }); |
pipe实现了一种简单的流量管理。有数据时,就往dest写入。而dest.write如果返回false就表示dest无法及时处理数据,将source暂停(pause)。一旦dest的缓冲区为空,drain事件触发,如果src是可读的,就恢复(resume)src。看上去似乎很好。
接下来,几经修修改改,增增减减,没有太大变化。
这时的Stream有四个特点:
- =pause=是建议性质的,并不一定真能暂停
- =data=事件不管你准备没准备好都会发生
- 没法处理特定数目的数据然后将剩下的数据交给其他部分处理
- 实现流难到极点,需要顾及缓冲、暂停、恢复、数据事件、状态等等。缺少共享的类致使反复解决同样的问题,产生同样的错误和相似的bug。
Stream 2
两年后,Node 0.10 发布,Stream 2 应运而生。参见streams2: The new stream base classes , isaacs committed on 3 Oct 2012
1 2 3 4 5 6 7 8 9 10 11 12 |
util.inherits(Stream, events.EventEmitter); module.exports = Stream; Stream.Readable = require('_stream_readable'); Stream.Writable = require('_stream_writable'); Stream.Duplex = require('_stream_duplex'); Stream.Transform = require('_stream_transform'); Stream.PassThrough = require('_stream_passthrough'); // Backwards-compat with node 0.4.x // Backwards-compat with node 0.4.x Stream.Stream = Stream; Stream.Stream = Stream; |
提供了五种基本流类,还提供原始的Stream以兼容旧版。这几种基本类提供了强大的抽象,但也给nodejs的核心模块带来了巨大的复杂度。Stream一跃成为NodeJS核心模块中最复杂的部分之一。以至于社区内有很多人认为,应该将这些模块分离维护以维持NodeJS较小的稳定核心。
但不管怎么说,托Stream 2的福,用户实现流简单很多。Stream 2的流API也着重解决Stream 1 的一些问题。将Push stream改成Pull stream。
之后,Stream2全面更新NodeJS其他核心模块。在实践中增增减减。稳定成如下形式:
当流的缓冲队列内有数据时会触发=readable=事件,流通过=read=读取潜在资源推入缓冲队列中的数据块。这样,就可以指定想要读取的数据大小。
为了兼容,可以通过=data=事件继续使用Stream 1的api,当监听=data=事件时会取消流的暂停状态。
stream2还有很多细节。NodeJS团队为了更优雅的流量控制和更高的效率,不断锤炼Stream 2的设计和实现。接口和设计频繁变化,lowWaterMark特性被移除,push和unshift被加入,\read()不再接受回调,read(0)频繁变化,实现自动扩展的highWaterMark、添加ObjectMode等等,同时其他使用stream的核心模块也渐渐使用新的stream类。
比较重要的API倒不多,比如readable stream除了=stream.read()=。有当流想要拉取更多数据时调用的=stream.read=(实际上就是read调用的)。有操作缓冲队列的=stream.push=和=stream.unshift=。
这时的stream,push和pull stream两种模式不能同时使用,=read()=时并不会触发相应的=data=事件。
修修改改修修改改。
2014年12月,贡献者因对NodeJS开发公司Joyent在NodeJS管理上的长期不满,社区分裂。15年1月,iojs发布。
Stream 3
Summary of changes from Node.js v0.10.35 to io.js v1.0.0里写道:这次流的变化没有从streams1倒streams2这么大:他们都是从现存的想法中提炼出来的,这些设计应该让人类更少意外,让计算机能更快处理。最终所有这些改变, 成为了stream3,但大部分改变将不会被流消费者和实现者察觉。
也就是说,Streams 3是两者的结合,两者将更加一致与和谐。比如读取流不再只能从非flowing状态转移到flowing状态而不可逆,=read()=也将触发=data=事件。
Changelog里一副图完整描绘了Stream 3
修修补补修修补补。
stream的API仍然非常复杂,社区创造了through等来简化流的创建。终于,官方实现了简化版的流构建(construction)
1 2 |
if (options && typeof options.read === 'function') this._read = options.read; |
就是上面这种黑魔法。。。
顺便说到黑魔法,isaac实现的扩展highWaterMarkstream: Raise readable high water mark in powers of 2 。
1 2 3 4 5 6 7 8 9 10 11 |
function roundUpToNextPowerOf2(n) { if (n >= MAX_HWM) { n = MAX_HWM; } else { // Get the next highest power of 2 n--; for (var p = 1; p < 32; p <<= 1) n |= n >> p; n++; } return n; } |
2015年8月21日,更新了这么一个微优化。。。第一眼看去我擦咧这是啥?!直觉似乎hackers delight里会有这种东西,果然。。。这也是神奇的算法。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 |
function computeNewHighWaterMark(n) { if (n >= MAX_HWM) { n = MAX_HWM; } else { // Get the next highest power of 2 n--; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; n++; } return n; } |
eventEmitter实现里关于函数参数也有些优化黑魔法,如果哪天写那个再说吧。
之后stream的接口和实现趋于稳定,修修改改提升效率,更新文档,专注应用。
代码
参考\stream\readable源码,我们看到为了处理各种历史遗留问题不一致的API、混乱的状态管理、同步异步代码一片混杂、古老冗余的javascript语法和各种黑魔法。。。
不管怎样,来段代码follow一下程序流程好了,这篇文章告结。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 |
┌─[reverland@reverland-R478-R429] - [~/tmp/stream/stream-explore] - [2015-12-20 10:18:25] └─[0] <> cat read.js var Readable = require('stream').Readable; var inherits = require('util').inherits; var EMIT; function Source(opts) { Readable.call(this, opts); } inherits(Source, Readable); Source.prototype._read = function(size) { if (EMIT) this.push('Mary has a little lamb'); else this.push(null); } var s = new Source() s.read(); |
debug的使用参见NodeJS文档,得到如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
STREAM 5102: read undefined ...................................................................(1) STREAM 5102: need readable false ..............................................................(2) STREAM 5102: length less than watermark true ..................................................(3) STREAM 5102: do read ..........................................................................(4) STREAM 5102: emitReadable null ................................................................(5) 1 .............................................................................................(6) STREAM 5102: emit readable ....................................................................(7) STREAM 5102: flow null ........................................................................(8) STREAM 5102: maybeReadMore read 0 .............................................................(9) STREAM 5102: read 0 ...........................................................................(10) STREAM 5102: need readable true ...............................................................(11) STREAM 5102: length less than watermark true ..................................................(12) STREAM 5102: do read ..........................................................................(13) |
我们看到=read()=
- (1)read()函数被调用,undefined是参数
- (2)needReadable状态还为false
- (3)state.length为0, 因此缓冲区长度还小于highWaterMark, doRead标志变为 true
- (4)由于doRead为true, 于是state.reading为true, state.sync为true,再state.length为0时, state.needReadable变成true。调用\read。将state.sync变回false
- (5)进入我们的\read实现中,我们的\read调用push。而push调用readableAddChunk。在这个函数中,由于state.needReadable为true, 调用emitReadable。此时state.sync为true,把emitReadable\安排到下一次eventLoop中。于是出现(6).这里state.reading变为false,就是说push会中止读取状态。
- (7)emitReadable\内
- (8)state.flowing为null,显然,我们不是flowing模式。
- (9)
从(5)继续执行。调用maybeReadMore,由于state.readingMore还是false,变为true,将maybeReadMore\放到nextTick.于是这里就开始read(0) - (10) read(0)中
- (11)所以state.needReadable变成了true
- (12)state.length
- n比watermark少继续读
- (13)继续读。。。
have fun!
参考文献
关于NodeJS其中那个的流及其发展的资料
- whats-new-io-js-beta-streams3
- A New Streaming API for Node v0.10
- Stream Node.js v5.3.0 Manual & Documentation
- What are Node.js streams?
- Node.js ChangeLog
- the-strange-world-of-node-js-design-patterns
- Node.js Stream Playground
- Daddy, what's a stream?
- Why I don't use Node's core ‘stream' module
- Streams Living Standard — Last Updated 28 December 2015
- Stream-Viz
- stream-handbook
- Functional Reactive Programming with the Power of Node.js Streams
- event-stream
FIXME: - Streams2 - Node.js Streams2 Demystified, by Bryce Baril
非NodeJS关于流和backpressure,说明这是随着计算机实践发展应运而生的编程方式和需求。
- Reactive Streams
- Basics and working with Flows - Akka Documentation
- visualizing-back-pressure-and-reactive-streams-akka-streams-statsd-grafana-and-influxdb
- [[https://github.com/ReactiveX/RxJava/wiki/Backpressure][Backpressure
- ReactiveX/RxJava Wiki]]