Stream in NodeJS

流是Node中最好也最被误解的概念。

–dominictarr

当我第一次接触NodeJS时,NodeJS有很不一样的感觉。异步、流、神奇的Javascript等等等等,花了将近几个月时间才渐渐理解其中很多概念。流就是其中一个开始很难以理解也很让人好奇的东西,而流在NodeJS中又是无处不在的。

后来,抱着好奇心翻看流的文档、翻看实现的代码,搜索网络上的文章,调了调流的代码看看它怎么运作的,看看别人做的实验。

感觉:

  1. 流是个在发展的模式。
  2. 状态管理和反压控制流速细节非常麻烦。

本文是一堆笔记堆砌而成,也算个资料汇编吧。

模型

添油加醋意译自Streams Living Standard

程序皆模型。这些模型脱胎于现实或精神过程,于头脑中孕育。这些过程,源于人类经验和思考,数量庞大,结构复杂,从来都只被部分理解。

–Structure and Interpretation of Computer Programs(second edition), Foreword

程序是我们心智的模型,是我们对世界的认识。

异步非阻塞IO是、观察者模式、单例是,所有计算机科学中天花乱坠的东西概莫能外。

NodeJS中看到的流也是。大道筑于流:其生灭变换于无穷之时间,不困于有限之空间。

数据块(Chunk)

数据块: 每次读入或写入的一段数据,可以是任何类型。

读取流(Readable Streams)

读取流: 代表数据源的模型,数据的来源。
潜在资源(underlying source):读取流所封装的底层I/O源
推送源(push sources): 无论如何都在将数据推出的源。也许提供了暂停和恢复的功能。
拉取源(pull sources): 需要有消费数据的对象从他们中请求数据的源。
队列(queue): 潜在资源将数据块推入流内部队列,这些数据块可以通过流的公共接口一次一个读出。
消费者(Consumer): 使用读取流的公共接口从其读取数据的程序。
取消(cancel): 消费者能够取消读取流。当其不再对流中数据有兴趣,立即关闭流,放弃任何队列中的数据块,执行任何潜在资源的取消机制。
分流(tee): 消费者能够复制读取流。锁定流使其不再直接可用,创建两个新的能独立消费的分支(branches)。

写入流(Writable Streams)

写入流: 代表数据的目的地,数据的流向处。

潜在汇入(underlying sink): 写入流所封装的底层I/O汇入点。写入流通过将之后的写入缓存到队列中,一次传递一个给潜在汇入,来抽象底层汇入的复杂实现。数据块被一次一个地通过写入流的公共接口传递给潜在汇入。

供给者(producer): 通过使用写入流的公共接口将数据写入的代码为供给者。

终止(abort): 供给者有能力终止写入流。如果供给者认为有错误,任何之后的写入都应该被禁止,可以将写入流转换到错误状态而无需潜在汇入的信号。

转换流(Transform Streams)

转换流包含一对流:一个写入流,一个读取流。数据写入写入流,处理转换后,将可以从读取流读取新数据。

管道(Pipe)链(Chains)和反压(Backpressure)

管道: 流一个接一个好像管道一样连接起来,比如一个读取流连接上写入流。这些流可以一个接一个连接起来。

管道链: 一系列像管道一样连接的流成为管道链。

初始源(original source): 是链中第一个读取流所代表的潜在资源。

终点汇入(ultimate sink): 是链中最后一个写入流代表的潜在资源。

反压: 一旦管道链建立起来,就可以传播流速信号。如果任何链中环节还不能接受数据块,就将该信号反向传回初始源,告知其不要这么快生成数据。这种根据链中数据处理速度将信号反馈给初始源的过程叫做反压。

如果分裂一个读取流,两个分支的反压信号将聚合,任何一个分支有反压信号将被传送给读取流的潜在资源。

内部队列和队列策略

读取流和写入流都维护一个内部队列(internal queues)。他们有相似的目的。在读取流中,内部队列缓存了潜在来源推入队列的数据。在写入流中,内部队列缓存了将要传递给潜在汇入还未来得及被其处理的数据。

队列策略(queuing strategy)是一种决定流如何根据它的内部状态给出反压信号的策略。队列策略赋给每个数据块一个尺寸,比较队列中所有数据块总体尺寸和一个特殊的叫做水平标记(high water mark)的值做比较。结果之差,即水平标记减去数据块总尺寸,用来决定填入流队列中意向尺寸(desired size to fill the stream’s queue。

流意向读取的尺寸 = 水平标记 - 队列中已有数据块总大小

对读取流来说,一个潜在来源可以使用该意向作为反压信号,减慢数据块生成速度来保持意向读取尺寸大于等于零。

对写入流来说,供给源可以类似避免写入速度过快。

简单例子,如果每个数据块尺寸为1,水平标志为3,在流考虑应用反压之前流中队列最多有三个数据块。

锁定(Locking)

读取流读者(readable stream reader)是允许直接从读取流中读取数据块的对象。没有这个对象,消费者只能对读取流进行高级操作:等待流关闭或者出错,取消流,用管道将读取流连接上写入流。许多这些高级操作实际自身使用流读者。

给定的流一次只能有一个读者。叫做流被锁定到读者(locked to the reader),读者被成为激活的(active)。

读者也有能力释放它的锁(release its read lock),让其不再激活。其他读者可以自由获取这个锁。如果流因为潜在来源或这取消而关闭或出错,读者将自动释放锁。

Stream in NodeJS

本章翻译整理自Streams2 Node.js Streams2 Demystified. by Bryce Baril

Stream可以看作是一种数据处理惰性求值(lazy evaluation)。

好处

  • 延迟处理缓冲的数据
  • 时间驱动非阻塞
  • 内存消耗低
  • 自动 back-pressure 处理
  • 突破 V8 堆内存限制
  • NodeJS 核心结构

Classes

五个类

  • Readable: 读出
  • Writable: 写入
  • Duplex: 双向流
  • Transform: 流变形
  • Passthrough: 流间谍

Readable实现

  1. 集成stream.Readable
  2. 实现_read(size)方法

or

简化Constructor

_read(size)

size是字节,可以忽略(尤其对 objectMode 的流)。

_read(size)中必须调用this.push(chunk)把数据推入读取队列。只有数据消耗者出现的时候才被调用(read或者pipe)。

readable options

highWaterMarknumber:内部缓冲区读取的最大字节大小限制,默认为16kb
encodingString: 字符编码,默认为 null
objectModeBoolean: 使用 Javascript 对象代替 Buffer 或字符串

使用 Readable 流
  • readable.pipe(target)
  • readable.read(size)
  • readable.on("data", /*...*/)

Writable

实现 Writable
  1. 继承stream.Writable
  2. 实现_write(chunk, encoding, callback)方法

or

简化Constructor

_write(chunk, encoding, callback)
Writable Options
  • highWaterMarknumber:
  • decodeStringsBoolean:是否在传递给_write()之前将string decode到buffer
使用Writable
  • source.pipe(writable)
  • writable.write(chunk[, encoding, callback])

如果write 返回false则需要监听drain事件

Duplex

双工

实现
  1. 继承stream.Duplex
  2. 实现_read(size)方法
  3. 实现_write(chunk, encoding, callback)方法

or

简化Constructor

options

Readable和Writable的超集

使用
  • input.pipe(duplex)
  • duplex.pipe(output)
  • duplex.on(‘data’, //)
  • duplex.write()
  • duplex.read()

Transform

操作流中数据,特殊双工流

实现
  1. 继承stream.Transform
  2. 实现_transform(chunk, encoding, callback)方法
  3. 可选实现_flush(callback)方法

or

简化Constructor

_transform(chunk, encoding, callback)方法
  • 调用this.push(something)传递给下一个消费者
  • 如果不push任何东西,将略过一个chunk
  • 必须在每次_transform被调用时调用一次callback
_flush(callback)

当流结束时,有一次清理和最后this.push()调用来清理任何缓冲或工作的机会。结束时调用callback()

transform options

依然是读写流的超集

使用transform流

所有读写流方法

  • source.pipe(transform).pipe(drain)
  • transform.on(‘data’, //)

Passthrough

大多passthrough流用来测试,是没有变幻的transform流

Buffering

Streams 自动处理缓冲和 backpressure

readable buffering

当你调用this.push(chunk)时缓冲,知道流被读取

写缓冲

写入时缓冲,流被读取或处理时排空

stream.read(0)

在可读流上调用.read(0)更新系统而不读取任何数据。一般不会用

有时候你想要触发潜在读取流机制,而不处理任何数据

如果内部缓冲区在最高吃水线(highWaterMark)之下,流当前并不被读。这时候调用read(0)将触发底层_read调用。

stream.push(‘’)或者stream.push(null)

推入一个0字节字符或者对象模式中推入null会结束流。会触发状态,将触发Readable Stream的readable事件。

错误处理

Stream是EventEmitter。要么监听error事件,要么就让它们冒泡

传递错误

当error发生时,将错误放在_write_transform里callback的第一个参数来结束流和给出错误信号。

历史

然而Stream既不是凭空来的,也不是提前设计好的,是一步一步进化出来的并仍在不断进化。Isaac曾经这样说:

贯穿整个Node的开发,我们都在逐渐迭代一个理想的基于事件的数据处理API。这就是你们所看到的渗透到Node核心模块和无数npm中模块的 Stream 接口。

–A New Streaming API for Node v0.10, Isaac Z. Schlueter, 2012-12-21

那么,NodeJS中的流是怎样进化的呢?

Stream 1

最早的Stream是从http.js和net.js模块抽象出来,说明其源头正是因处理网络而生。参见Add Stream Base class with stream.pipe, ry committed on 11 Oct 2010

这时候的Stream是朴素的基础类,仅仅从EventEmitter继承而来,有一个pipe方法,实现从src读取数据写入dest的功能。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
function Stream () {
events.EventEmitter.call(this);
}
inherits(Stream, events.EventEmitter);
exports.Stream = Stream;

Stream.prototype.pipe = function (dest, options) {
var source = this;

source.on("data", function (chunk) {
if (false === dest.write(chunk)) source.pause();
});

dest.on("drain", function () {
if (source.readable) source.resume();
});

pipe实现了一种简单的流量管理。有数据时,就往dest写入。而dest.write如果返回false就表示dest无法及时处理数据,将source暂停(pause)。一旦dest的缓冲区为空,drain事件触发,如果src是可读的,就恢复(resume)src。看上去似乎很好。

接下来,几经修修改改,增增减减,没有太大变化。

这时的Stream有四个特点:

  • pause是建议性质的,并不一定真能暂停
  • data事件不管你准备没准备好都会发生
  • 没法处理特定数目的数据然后将剩下的数据交给其他部分处理
  • 实现流难到极点,需要顾及缓冲、暂停、恢复、数据事件、状态等等。缺少共享的类致使反复解决同样的问题,产生同样的错误和相似的bug。

Stream 2

两年后,Node 0.10 发布,Stream 2 应运而生。参见streams2: The new stream base classes , isaacs committed on 3 Oct 2012

1
2
3
4
5
6
7
8
9
10
11
12
util.inherits(Stream, events.EventEmitter);
module.exports = Stream;
Stream.Readable = require('_stream_readable');
Stream.Writable = require('_stream_writable');
Stream.Duplex = require('_stream_duplex');
Stream.Transform = require('_stream_transform');
Stream.PassThrough = require('_stream_passthrough');

// Backwards-compat with node 0.4.x
// Backwards-compat with node 0.4.x
Stream.Stream = Stream;
Stream.Stream = Stream;

提供了五种基本流类,还提供原始的Stream以兼容旧版。这几种基本类提供了强大的抽象,但也给nodejs的核心模块带来了巨大的复杂度。Stream一跃成为NodeJS核心模块中最复杂的部分之一。以至于社区内有很多人认为,应该将这些模块分离维护以维持NodeJS较小的稳定核心。

但不管怎么说,托Stream 2的福,用户实现流简单很多。Stream 2的流API也着重解决Stream 1 的一些问题。将Push stream改成Pull stream。

之后,Stream2全面更新NodeJS其他核心模块。在实践中增增减减。稳定成如下形式:

当流的缓冲队列内有数据时会触发readable事件,流通过read读取潜在资源推入缓冲队列中的数据块。这样,就可以指定想要读取的数据大小。

为了兼容,可以通过data事件继续使用Stream 1的api,当监听data事件时会取消流的暂停状态。

stream2还有很多细节。NodeJS团队为了更优雅的流量控制和更高的效率,不断锤炼Stream 2的设计和实现。接口和设计频繁变化,lowWaterMark特性被移除,push和unshift被加入,_read()不再接受回调,read(0)频繁变化,实现自动扩展的highWaterMark、添加ObjectMode等等,同时其他使用stream的核心模块也渐渐使用新的stream类。

比较重要的API倒不多,比如readable stream除了stream.read()。有当流想要拉取更多数据时调用的stream._read(实际上就是read调用的)。有操作缓冲队列的stream.pushstream.unshift

这时的stream,push和pull stream两种模式不能同时使用,read()时并不会触发相应的data事件。

修修改改修修改改。

2014年12月,贡献者因对NodeJS开发公司Joyent在NodeJS管理上的长期不满,社区分裂。15年1月,iojs发布。

Stream 3

Summary of changes from Node.js v0.10.35 to io.js v1.0.0里写道:这次流的变化没有从streams1倒streams2这么大:他们都是从现存的想法中提炼出来的,这些设计应该让人类更少意外,让计算机能更快处理。最终所有这些改变, 成为了stream3,但大部分改变将不会被流消费者和实现者察觉。

也就是说,Streams 3是两者的结合,两者将更加一致与和谐。比如读取流不再只能从非flowing状态转移到flowing状态而不可逆,read()也将触发data事件。

Changelog里一副图完整描绘了Stream 3

修修补补修修补补。

stream的API仍然非常复杂,社区创造了through等来简化流的创建。终于,官方实现了简化版的流构建(construction)

1
2
if (options && typeof options.read === 'function')
this._read = options.read;

就是上面这种黑魔法。。。

顺便说到黑魔法,isaac实现的扩展highWaterMarkstream: Raise readable high water mark in powers of 2 。

1
2
3
4
5
6
7
8
9
10
11
function roundUpToNextPowerOf2(n) {
if (n >= MAX_HWM) {
n = MAX_HWM;
} else {
// Get the next highest power of 2
n--;
for (var p = 1; p < 32; p <<= 1) n |= n >> p;
n++;
}
return n;
}

2015年8月21日,更新了这么一个微优化。。。第一眼看去我擦咧这是啥?!直觉似乎hackers delight里会有这种东西,果然。。。这也是神奇的算法。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
function computeNewHighWaterMark(n) {
if (n >= MAX_HWM) {
n = MAX_HWM;
} else {
// Get the next highest power of 2
n--;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
n++;
}
return n;
}

eventEmitter实现里关于函数参数也有些优化黑魔法,如果哪天写那个再说吧。

之后stream的接口和实现趋于稳定,修修改改提升效率,更新文档,专注应用。

代码

参考_stream_readable源码,我们看到为了处理各种历史遗留问题不一致的API、混乱的状态管理、同步异步代码一片混杂、古老冗余的javascript语法和各种黑魔法。。。

不管怎样,来段代码follow一下程序流程好了,这篇文章告结。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
┌─[reverland@reverland-R478-R429] - [~/tmp/stream/stream-explore] - [2015-12-20 10:18:25]
└─[0] <> cat read.js
var Readable = require('stream').Readable;
var inherits = require('util').inherits;

var EMIT;

function Source(opts) {
Readable.call(this, opts);
}

inherits(Source, Readable);

Source.prototype._read = function(size) {
if (EMIT)
this.push('Mary has a little lamb');
else
this.push(null);
}


var s = new Source()
s.read();

debug的使用参见NodeJS文档,得到如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14

STREAM 5102: read undefined ...................................................................(1)
STREAM 5102: need readable false ..............................................................(2)
STREAM 5102: length less than watermark true ..................................................(3)
STREAM 5102: do read ..........................................................................(4)
STREAM 5102: emitReadable null ................................................................(5)
1 .............................................................................................(6)
STREAM 5102: emit readable ....................................................................(7)
STREAM 5102: flow null ........................................................................(8)
STREAM 5102: maybeReadMore read 0 .............................................................(9)
STREAM 5102: read 0 ...........................................................................(10)
STREAM 5102: need readable true ...............................................................(11)
STREAM 5102: length less than watermark true ..................................................(12)
STREAM 5102: do read ..........................................................................(13)

我们看到read()

  • (1)read()函数被调用,undefined是参数
  • (2)needReadable状态还为false
  • (3)state.length为0, 因此缓冲区长度还小于highWaterMark, doRead标志变为 true
  • (4)由于doRead为true, 于是state.reading为true, state.sync为true,再state.length为0时, state.needReadable变成true。调用_read。将state.sync变回false

  • (5)进入我们的_read实现中,我们的_read调用push。而push调用readableAddChunk。在这个函数中,由于state.needReadable为true, 调用emitReadable。此时state.sync为true,把emitReadable_安排到下一次eventLoop中。于是出现(6).这里state.reading变为false,就是说push会中止读取状态。

  • (7)emitReadable_内
  • (8)state.flowing为null,显然,我们不是flowing模式。

  • (9)
    从(5)继续执行。调用maybeReadMore,由于state.readingMore还是false,变为true,将maybeReadMore_放到nextTick.于是这里就开始read(0)

  • (10) read(0)中

  • (11)所以state.needReadable变成了true

  • (12)state.length - n比watermark少继续读
  • (13)继续读。。。

have fun!

参考文献

关于NodeJS其中那个的流及其发展的资料

  • whats-new-io-js-beta-streams3
  • A New Streaming API for Node v0.10
  • Stream Node.js v5.3.0 Manual & Documentation
  • What are Node.js streams?
  • Node.js ChangeLog
  • the-strange-world-of-node-js-design-patterns
  • Node.js Stream Playground
  • Daddy, what’s a stream?
  • Why I don’t use Node’s core ‘stream’ module
  • Streams Living Standard — Last Updated 28 December 2015
  • Stream-Viz
  • stream-handbook
  • Functional Reactive Programming with the Power of Node.js Streams
  • event-stream
    FIXME:
  • Streams2 - Node.js Streams2 Demystified, by Bryce Baril

非NodeJS关于流和backpressure,说明这是随着计算机实践发展应运而生的编程方式和需求。

  • Reactive Streams
  • Basics and working with Flows - Akka Documentation
  • visualizing-back-pressure-and-reactive-streams-akka-streams-statsd-grafana-and-influxdb
  • Backpressure - ReactiveX/RxJava Wiki