pm2里跑的cluster模式里用log4js不工作

这不是我第一次踩这个坑了,因为node不是太常用,有时只是遇到问题了查一下就完了。md,又遇到了,决定记下来

这篇文章是转的

转自

http://blog.yangfch3.com/2018/04/22/log4js-with-pm2/

然后,自己可能会改一些东西

开始

我相信你是在使用 pm2log4js 中踩到了坑才会搜素到这篇文章,我便假定你已经对二者都有了基本的了解,遂不再赘述二者的介绍。

pm2 在使用 cluster 模式部署应用时,服务都通过 worker 进程提供,pm2 做为 master 进行监控管理。

由于存在多个 worker 进程,那么我们在使用 log4js 进行日志记录时会有下列疑问:

  1. 多个 worker 进程能否正常写入同一个日志文件
  2. 要实现 1,pm2 需要作何处理,log4js 需要作何处理

退而求其次:多进程分日志?

首先来尝试“逃避”上面的两个问题。

要“逃避”上面疑问最简易的方案就是:每个进程写入自己的日志文件(例如:robotService-worker<id>.log)。只需要对 log4js 做一下简易的设置即可实现:

1
2
3
4
{
disableClustering: true
// ...
}

这个方案带来了日志分散、查阅与处理不方便的问题,一般情况下不采用。此方案较为经典的使用场景是 pomelo 的多进程游戏日志采集
(但 pomelo 不是使用 cluster 来搭建集群)。

log4js 与 pm2 相关源码

lib/log4js 下的 getLogger

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
/**
* Get a logger instance.
* @static
* @param loggerCategoryName
* @return {Logger} instance of logger for the category
*/
function getLogger(category) {
if (!enabled) {
configure(process.env.LOG4JS_CONFIG || defaultConfig);
}

const cat = category || 'default';
debug(`creating logger as ${isMaster() ? 'master' : 'worker'}`);
return new Logger((isMaster() ? sendLogEventToAppender : workerDispatch), cat);
}

说明 log4jscluster 集群模式下与单进程模式(isMaster 方法来区分)下获取 logger 的存在差异。
我们关注到 log4jsworker 进程下执行的是 workerDispatch

下面是 isMaster 的源码:

1
2
3
4
5
6
7
function isPM2Master() {
return config.pm2 && process.env[config.pm2InstanceVar] === '0';
}

function isMaster() {
return config.disableClustering || cluster.isMaster || isPM2Master();
}

说明 log4js 对普通的 cluster 模式和 pm2cluster 模式又做了区分。我们留意到有两个可配置项:pm2 pm2InstanceVar
可以查看 log4js文档了解这两个配置项。

继续看 workerDispatch 的源码:

1
2
3
4
function workerDispatch(logEvent) {
debug(`sending message to master from worker ${process.pid}`);
process.send({ topic: 'log4js:message', data: serialise(logEvent) });
}

我们可以得知:在 pm2 cluster 模式下,log4js 不在 worker 进程直接记录日志,而是将需要记录日志的消息发送给 master 进程。

log4js 既然有发送消息的代码,那肯定有接收消息的代码,下面是接收消息的代码:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
function configure(configurationFileOrObject) {
let configObject = configurationFileOrObject;

if (typeof configObject === 'string') {
configObject = loadConfigurationFile(configurationFileOrObject);
}
debug(`Configuration is ${configObject}`);
config = new Configuration(configObject);
module.exports.levels = config.levels;
const loggerModule = logger(config.levels, levelForCategory, setLevelForCategory);
Logger = loggerModule.Logger;
LoggingEvent = loggerModule.LoggingEvent;
module.exports.connectLogger = connectModule(config.levels).connectLogger;

// just in case configure is called after shutdown
process.removeListener('message', receiver);
if (cluster) {
cluster.removeListener('message', receiver);
}
if (config.disableClustering) {
debug('Not listening for cluster messages, because clustering disabled.');
} else if (isPM2Master()) {
// PM2 cluster support
// PM2 runs everything as workers - install pm2-intercom for this to work.
// we only want one of the app instances to write logs
debug('listening for PM2 broadcast messages');
process.on('message', receiver);
} else if (cluster.isMaster) {
debug('listening for cluster messages');
cluster.on('message', receiver);
} else {
debug('not listening for messages, because we are not a master process');
}

enabled = true;

return log4js;
}



// in a multi-process node environment, worker loggers will use
// process.send
const receiver = (worker, message) => {
// prior to node v6, the worker parameter was not passed (args were message, handle)
debug('cluster message received from worker ', worker, ': ', message);
if (worker.topic && worker.data) {
message = worker;
worker = undefined;
}
if (message && message.topic && message.topic === 'log4js:message') {
debug('received message: ', message.data);
sendLogEventToAppender(deserialise(message.data));
}
};


function sendLogEventToAppender(logEvent) {
if (!enabled) return;
debug('Received log event ', logEvent);
const appenders = appendersForCategory(logEvent.categoryName);
appenders.forEach((appender) => {
appender(logEvent);
});
}

也就是日志是由 worker –①–> pm2 master –②–> worker 进行的传递,其思路就是日志只由一个 worker 去记录。

而 ② 处的转发以及选择哪一个 worker 去接收就需要 pm2-intercom 这个 pm2 的 module 来处理了。

结论

要解决前言中的两个疑问,可以这样做:

  1. pm2 安装 pm2 install pm2-intercom
  2. log4js 启用以下配置:
1
2
3
4
{
pm2: true
// ...
}

结束了?

没有。

在上面的代码中我们发现 isPM2Master 的判断中有这样一句代码:process.env[config.pm2InstanceVar] === '0'

我们查阅 pm2文档发现,
pm2 的进程都是有编号的,默认使用 NODE_APP_INSTANCE 环境变量(可以自己配置指定)上标识是 master(=== ‘0’) 还是 worker
log4js 也是根据这个特征来实现 isPM2Master 检测。

但是 pm2 不一定使用默认的 NODE_APP_INSTANCE 环境变量来编号,
可能会变化——可能是用户自己定义了其他名称(例如node-config 将这个环境变量字段占用了,pm2 只能改用其他的),
所以当 pm2 改变了字段名时,log4js 要做相应的配置:

1
2
3
4
{
pm2InstanceVar: 'INSTANCE_ID'; // 默认 NODE_APP_INSTANCE,与 pm2 的配置保持一致即可
// ...
}

附赠:单机多 pm2 实例

一台机器上可以部署多个 pm2 实例,这在我们需要再一台机器上部署多个不同的服务时可以用到,
例如我们可能同时在一台机器上部署 web-serverapi-server(因为机器紧张等原因)。

当我们第一次调用 pm2 时,我们会发现 $HOME/.pm2 目录被创建,里面存储着 (该)pm2 实例 的运行信息和日志输出。

1
2

pm2 start app.js -i 3 --name=web-server
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
[admin@sypt_web-test_10.0.3.188 .pm2]# pwd
/home/admin/.pm2

[admin@sypt_web-test_10.0.3.188 .pm2]# ls -a -l
total 72
drwxrwxr-x 5 admin admin 4096 Mar 29 17:19 .
drwx------. 12 admin admin 4096 Apr 11 09:53 ..
drwxrwxr-x 2 admin admin 4096 Mar 29 17:20 logs
-rw-rw-r-- 1 admin admin 127 Mar 28 20:58 module_conf.json
drwxrwxr-x 3 admin admin 4096 Mar 28 20:55 modules
drwxrwxr-x 2 admin admin 4096 Apr 16 15:24 pids
-rw-rw-r-- 1 admin admin 34054 Apr 16 15:24 pm2.log
-rw-rw-r-- 1 admin admin 4 Mar 29 17:19 pm2.pid
srwxrwxr-x 1 admin admin 0 Mar 29 17:19 pub.sock
srwxrwxr-x 1 admin admin 0 Mar 29 17:19 rpc.sock
-rw-rw-r-- 1 admin admin 13 Mar 24 15:12 touch

所以要创建多个 pm2 实例就需要每个实例使用不同的目录来存储运行信息。pm2 使用 PM2_HOME 环境变量来识别存储运行信息的目录:

1
2
3
4
PM2_HOME='/path/to/pm2/web-server/' pm2 start app.js -i --name=web-server

# 所有和 web-server 集群相关的 pm2 命令都加上 PM2_HOME
PM2_HOME='/path/to/pm2/web-server/' pm2 list
1
2
3
4
PM2_HOME='/path/to/pm2/api-server/' pm2 start app.js -i --name=api-server

# 所有和 api-server 集群相关的 pm2 命令都加上 PM2_HOME
PM2_HOME='/path/to/pm2/api-server/' pm2 list

为特定的 pm2 实例安装模块:

1
2
PM2_HOME='/path/to/pm2/web-server/' pm2 install pm2-intercom
PM2_HOME='/path/to/pm2/api-server/' pm2 install pm2-intercom

Tip:pm2 模块的安装可以不使用线上下载安装的方式(例如不方便执行 pm2 install 操作时),
你只需要将模块放到 modules 目录下,然后修改 module_conf.json 注册模块即可。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
.
├── dump.pm2
├── dump.pm2.bak
├── logs
├── module_conf.json
├── modules
│ └── pm2-intercom
│ ├── etc
│ ├── node_modules
│ └── package-lock.json
├── pids
├── pm2.log
├── pm2.pid
├── pub.sock
├── rpc.sock
└── touch
1
2
3
4
5
6
7
8
9
// module_conf.json
{
"pm2-intercom": {
"default-strategy": "broadcast"
},
"module-db-v2": {
"pm2-intercom": {}
}
}
0%