在Spring Boot中使用Hive,需要引入以下依赖:
<dependency> <groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter-data-hadoop</artifactId> </dependency>

然后,在application.properties中配置Hive相关信息:
spring.hadoop.config.fs.defaultFS=hdfs://namenode:8020
spring.hadoop.config.hive.metastore.uri=thrift://metastore:9083

其中,fs.defaultFS指定HDFS的地址,hive.metastore.uri指定Hive的元数据服务地址。

使用Hive可以通过以下方式:
import org.apache.hadoop.hive.conf.HiveConf; import
org.apache.hadoop.hive.ql.Driver; import
org.apache.hadoop.hive.ql.parse.ParseException; import
org.apache.hadoop.hive.ql.parse.SemanticException; import
org.springframework.beans.factory.annotation.Autowired; import
org.springframework.stereotype.Service; import java.io.IOException; import
java.sql.SQLException; @Service public class HiveService { @Autowired private
HiveConf hiveConf; public void useHive() throws IOException, SQLException,
ParseException, SemanticException { Driver driver = new Driver(hiveConf);
driver.run("SHOW DATABASES"); } }

其中,HiveConf可以从Spring容器中自动注入。在这个例子中,使用Hive的Driver执行了一条SHOW DATABASES的SQL查询语句。

技术
下载桌面版
GitHub
百度网盘(提取码:draw)
Gitee
云服务器优惠
阿里云优惠券
腾讯云优惠券
华为云优惠券
站点信息
问题反馈
邮箱:ixiaoyang8@qq.com
QQ群:766591547
关注微信