是的,如果你已经将 `spark.local.
dirs` 参数
配置在 Spark 中,那么你可以将它添加到 `
yarn.
nodemanager.local-
dirs` 参数中,以便在
YARN模式下使用 Spark。这样做可以确保 Spark 所使用的本地目录和
YARN的本地目录一致。你可以在启动 Spark 时使用以下命令来设置参数:
```
spark-submit --conf "spark.local.
dirs=$SPARK_LOCAL_
DIRS" --conf "spark.
yarn.
appMasterEnv.SPARK_LOCAL_
DIRS=$SPARK_LOCAL_
DIRS" --conf "spark.executorEnv.SPARK_LOCAL_
DIRS=$SPARK_LOCAL_
DIRS" your_
app.jar
```
其中,`$SPARK_LOCAL_
DIRS` 是你的本地目录路径。这样做可以确保 Spark 在
YARN模式下使用正确的本地目录。
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/bian-cheng-ri-ji/54130.html