请问有伙伴使用过MongoDB Connector for Spark v2.2.0这个工具吗?刚接触,小白一个,我用的是spark2.2.0的版本,在官网下载了mongo-spark-master.zip后不知道怎样配置或使用。我看了mongodb官网”https://docs.mongodb.com/spark-connector/current/python-api/上面的使用说明,可以通过以下方式自动下载相关包及依赖:
./bin/pyspark –conf “spark.mongodb.input.uri=mongodb://127.0.0.1/test.myCollection?readPreference=primaryPreferred” \
–conf “spark.mongodb.output.uri=mongodb://127.0.0.1/test.myCollection” \
–packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0
那么 –packages org.mongodb.spark:mongo-spark-connector_2.11:2.2.0中的2.11是连接器的版本吗?2.2.0是spark的版本吗?请问怎样理解呢?如果直接下载了mongo-spark-master.zip那解压后怎样使用呢?需要编译吗?
MongoDB Connector for Spark v2.2.0