为什么spark yarn运行模式不用启动spark master和spark worker进程

发布网友 发布时间:2022-04-23 19:27

我来回答

1个回答

热心网友 时间:2023-10-14 21:36

spark集群中是按照slaves文件中的主机名,去启动worker节点。 你写了几个不同的主机名,启动spark环境时就是几个worker节点。

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com