有哪些網(wǎng)站有收錄做紅酒的商行杭州網(wǎng)絡(luò)整合營銷公司
文章目錄
- 一、解壓壓縮包
- 二、修改配置文件conf/spark-env.sh
- 三、測試提交Spark任務(wù)
- 四、Spark on Hive配置
- 4.1 創(chuàng)建hive-site.xml(spark/conf目錄)
- 4.2 查看hive的hive-site.xml配置與3.1配置的是否一致
- 4.3 測試SparkSQL
- 4.3.1 啟動(dòng)SparkSQL客戶端(Yarn方式)
- 4.3.2 啟動(dòng)Hive客戶端
- 五、通過Spark Web-UI分析SQL執(zhí)行過程(TODO)
- 六、集群化(TODO)
一、解壓壓縮包
[hadoop@hadoop102 software]$ tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz -C /opt/module
二、修改配置文件conf/spark-env.sh
cd /opt/module/spark-3.0.0-bin-hadoop3.2/conf
[hadoop@hadoop102 conf]$ cp spark-env.sh.template spark-env.sh
[hadoop@hadoop102 conf]$ vim spark-env.sh
內(nèi)容:
export JAVA_HOME=/opt/module/jdk1.8.0_291
YARN_CONF_DIR=/opt/module/hadoop-3.1.3/etc/hadoop
三、測試提交Spark任務(wù)
[hadoop@hadoop102 ~]$ cd /opt/module/spark-3.0.0-bin-hadoop3.2/
[hadoop@hadoop102 spark-3.0.0-bin-hadoop3.2]$ bin/spark-submit \
> --class org.apache.spark.examples.SparkPi \
> --master yarn \
> --deploy-mode cluster \
> ./examples/jars/spark-examples_2.12-3.0.0.jar \
> 10
到Y(jié)ARN WEB頁面查看任務(wù)提交情況
四、Spark on Hive配置
4.1 創(chuàng)建hive-site.xml(spark/conf目錄)
[hadoop@hadoop102 conf]$ cd /opt/module/spark-3.0.0-bin-hadoop3.2/conf/
[hadoop@hadoop102 conf]$ vim hive-site.xml
內(nèi)容:
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration><!--告知Spark創(chuàng)建表存到哪里--><property><name>hive.metastore.warehouse.dir</name><value>/warehouse</value></property><!-- 不使用spark內(nèi)置hive存儲(chǔ)元數(shù)據(jù) --><property><name>hive.metastore.local</name><value>false</value></property><!--告知Spark Hive的MetaStore在哪--><property><name>hive.metastore.uris</name><value>thrift://hadoop102:9083</value></property></configuration>
4.2 查看hive的hive-site.xml配置與3.1配置的是否一致
cd /opt/module/apache-hive-3.1.2-bin/conf
vim hive-site.xml
4.3 測試SparkSQL
4.3.1 啟動(dòng)SparkSQL客戶端(Yarn方式)
[hadoop@hadoop102 spark-3.0.0-bin-hadoop3.2]$ bin/spark-sql --master yarn
spark-sql> show databases;
spark-sql> select count(1)> from dw_ods.ods_activity_info_full > where dt='2023-12-07';
4.3.2 啟動(dòng)Hive客戶端
[hadoop@hadoop102 apache-hive-3.1.2-bin]$ bin/hive
hive> show databases;
hive> select count(1)> from dw_ods.ods_activity_info_full > where dt='2023-12-07';
五、通過Spark Web-UI分析SQL執(zhí)行過程(TODO)
六、集群化(TODO)
優(yōu)勢在哪里??