oracle – 在不增加Cores的情况下增加Spark Executor中的并行度
发布时间:2021-05-16 02:08 所属栏目:[站长百科] 来源:网络整理
导读:我正在运行一个Spark-Kafka Streaming作业,有4个执行器(每个1个核心).而kafka源主题有50个分区. 在流式java程序的foreachpartition中,我正在连接到oracle并做一些工作. Apache DBCP2用于连接池. Spark-streaming程序与数据库建立4个连接 – 每个执行程序可
我正在运行一个Spark-Kafka Streaming作业,有4个执行器(每个1个核心).而kafka源主题有50个分区. 在流式java程序的foreachpartition中,我正在连接到oracle并做一些工作. Apache DBCP2用于连接池. Spark-streaming程序与数据库建立4个连接 – 每个执行程序可能为1.但是,我的期望是 – 由于有50个分区,应该有50个线程在运行并且存在50个数据库连接. 如何在不增加内核数量的情况下增加并行度. 解决方法你的期望是错误的.一个核心是Spark命名法中的一个可用线程和一个可以在当时处理的分区.4“核心” – > 4个主题 – > 4个分区经过精心处理. 【免责声明】本站内容转载自互联网,其相关言论仅代表作者个人观点绝非权威,不代表本站立场。如您发现内容存在版权问题,请提交相关链接至邮箱:bqsm@foxmail.com,我们将及时予以处理。 |
推荐文章
热点阅读