Hive on Spark配置
1. 解压spark-3.3.1-bin-without-hadoop.tgz。进入安装包所在目录
2. 修改spark-env.sh配置文件。进入配置目录
3. 配置SPARK_HOME环境变量。vim /etc/profile.d/my_env.sh
4. 在hive中创建spark配置文件。vim /opt/moudle/hive/conf/spark-defaults.conf
Hive on Spark配置
1. 解压spark-3.3.1-bin-without-hadoop.tgz。进入安装包所在目录
2. 修改spark-env.sh配置文件。进入配置目录
3. 配置SPARK_HOME环境变量。vim /etc/profile.d/my_env.sh
4. 在hive中创建spark配置文件。vim /opt/moudle/hive/conf/spark-defaults.conf
版权说明:文章均为账号作者发布,不代表本网站观点与立场,如有侵权请联系我们删除