www.dbpj.net > hivE2 jDBC DrivEr

hivE2 jDBC DrivEr

1、JDBC连接的方式,当然还有其他的连接方式,比如ODBC等, 这种方式很常用,可以在网上随便找到,就不再累赘了.不稳定,经常会被大数据量冲挂,不建议使用. 2、这种方式是直接利用Hive的 Driver class 来直接连接,感觉这种方式不通过JDBC,应该速度会比较快一点(未经验证).我只是在local模式下测试过.

连接hive的方法:进入hive所在的服务器,输入:hive --service hiveserver(目的:启动thrift)打开kettle配置连接界面,输入hive所在服务器的ip、所需要的hive库、端口号(thrift默认端口为:10000)测试连接,即可连接hive2的方法:[plain] view

1.退Hive控制台确保没Hive脚本运行2.停止运行HiveServer进程HiveServer作守护进程运行用洗面命令停止服务$ sudo service hive-server stopHiveServer命令行运行用-c 停止3.停止metastore服务metastore作守护进程运行用面命令停止服务$ sudo service hive-metastore stopmetastore命令行运行用-c 停止!

需要先启动Hive的thriftserver:hiveserver2,然后在beelin命令行中通过!connect jdbc:hive2://localhost:10000 scott tiger org.apache.hive.jdbc.HiveDriver命令来连接Hive.

Could not establish connection to localhost:10000/default: java.net.ConnectException: Connection refused2,简单的Java代码实现;----通过Class.forName("org.apache.hadoop.hive.jdbc.HiveDriver");加载hive驱动----通过Connection conn =

hive的jdbc包,jar包名字大概是hive-jdbc.jar,你找找hive包下带Jdbc的看看.

hadoop-2.2.0/share/hadoop/common/hadoop-common-2.2.0.jar$HIVE_HOME/lib/hive-exec-0.11.0.jar$HIVE_HOME/lib/hive-jdbc-0.11.0.jar$HIVE_HOME/lib/hive-metastore-0.11.0.jar $HIVE_HOME/lib/hive-service-0.11.0.jar $HIVE_HOME/lib/libfb303-0.9.0.jar $HIVE_HOME/lib/commons-logging-1.0.4.jar $HIVE_HOME/lib/slf4j-api-1.6.1.jar

连接hive的方法:进入hive所在的服务器,输入:hive --service hiveserver(目的:启动thrift)打开kettle配置连接界面,输入hive所在服务器的ip、所需要的hive库、端口号(thrift默认端口为:10000)测试连接,即可连接hive2的方法:[plain] view

需要先启动Hive的thrift server: hiveserver2,然后在beelin命令行中通过!connect jdbc:hive2://localhost:10000 scott tiger org.apache.hive.jdbc.HiveDriver命令来连接Hive.

如何使用spark sql 的jdbc server首先确保sqlserver服务正在运行,并可以允许远程访问连接然后按如下步骤进行连接1.安装jdbc驱动1)下载jdbc驱动2)执行sqljdbc_4.0.2206.100_chs.exe解压驱动文件3)拷贝以下目录中的sqljdbc_auth.dll到

相关搜索:

网站地图

All rights reserved Powered by www.dbpj.net

copyright ©right 2010-2021。
www.dbpj.net内容来自网络,如有侵犯请联系客服。zhit325@qq.com