hg25+hive+app
@明虎2560:如何配置hive访问其他服务器的hadoop -
田葛17833034311…… 1、下载hive(http://archive.cloudera.com/cdh/testing/hive-0.3.99.1+0.tar.gz),解包把它放到目录 /usr/local/hadoop/contrib并改名为hive,改属主(chown -R hadoop:hadoop). 2、下载ant (http://labs.xiaonei.com/apache-mirror/ant/binaries/apache-...
@明虎2560:如何使用kettle连接hive和hive2 -
田葛17833034311…… 连接hive的方法:进入hive所在的服务器,输入:hive --service hiveserver(目的:启动thrift) 打开kettle配置连接界面,输入hive所在服务器的ip、所需要的hive库、端口号(thrift默认端口为:10000) 测试连接,即可 连接hive2的方法:[plain] ...
@明虎2560:hive2.5和哪个版本hive -
田葛17833034311…… 本帖最后由 nettman 于 2014-7-9 09:00 编辑 hadoop与HBase版本对应关系:Hbase Hadoop0.92.0 1.0.00.92.1 1.0.00.92.2 1.0.30.94.0 1.0.20.94.1 1.0.30.94.2 1.0.30.94.3 1.0.40.94.4 1.0.40.94.5 1.0.40.94.9 1.2.00.95.0 1.2.0 hadoop1.2+hbase0....
@明虎2560:如何用hive查询hbase中的数据 -
田葛17833034311…… 第一步,启动hadoop,命令:./start-all.sh 第二步,启动hive,命令: ./hive --auxpath /home/dream-victor/hive-0.6.0/lib/hive_hbase-handler.jar,/home/dream-victor/hive-0.6.0/lib/hbase-0.20.3.jar,/home/dream-victor/hive-0.6.0/lib/zookeeper-3.2.2.jar ...
@明虎2560:近期新出了一个游学类的App叫Hive,有了解的吗?
田葛17833034311…… 从官方看到的,Hive是一款帮你发现160多个国家的义工实习和兴趣实践机会的平台.有四种不同体验的信息分类,算是市场上最全面的游学类信息平台了.
@明虎2560:如何用Hive访问Hadoop上数据 -
田葛17833034311…… 步骤 Hive提供了jdbc驱动,使得我们可以连接Hive并进行一些类关系型数据库的sql语句查询等操作,首先我们需要将这些驱动拷贝到报表工程下面,然后再建立连接,最后通过连接进行数据查询.拷贝jar包到FR工程 将hadoop里的hadoop-...
@明虎2560:hive的Hive 体系结构 -
田葛17833034311…… 主要分为以下几个部分:用户接口 用户接口主要有三个:CLI,Client 和 WUI.其中最常用的是 CLI,Cli 启动的时候,会同时启动一个 Hive 副本.Client 是 Hive 的客户端,用户连接至 Hive Server.在启动 Client 模式的时候,需要指出 Hive Server ...
@明虎2560:如何查询hive的远程服务连接参数 -
田葛17833034311…… 1、hive 命令行模式,直接输入/hive/bin/hive的执行程序,或者输入 hive --service cli 用于linux平台命令行查询,查询语句基本跟mysql查询语句类似2、 hive web界面的 (端口号9999) 启动方式 hive –service hwi & 用于通过浏览器来访问hive,感...
@明虎2560:如何查看当前hive运行的应用 -
田葛17833034311…… 通过hive 自带的 server2 的 thrift 模式提交的sql 可以获得 状态进度,jdbc方式没有试过. 其实,我们完全可以不使用hive,sql-on-Hadoop的框架有ibm的bigsql,Apache的dirll,impala等都是非常不错的,都可以替代hive.速度都比hive要快很多. 偶理解HIVE只是提供查询和数据处理功能的(解析HIVE QL语句为MAPReduce任务), 不负责数据存储的. 数据存储应该是HBase和HDFS的功能, HBase是Key Value的存储方式, 适用于固定列查询的数据, 如果查询方式多样复杂, 感觉应该是使用HDFS存储, 然后使用HIVE进行查询和处理.
@明虎2560:如何配置hive,使hive能使用spark引擎 -
田葛17833034311…… 1、为了让Spark能够连接到Hive的原有数据仓库,我们需要将Hive中的hive-site.xml文件拷贝到Spark的conf目录下,这样就可以通过这个配置文件找到Hive的元数据以及数据存放. 在这里由于我的Spark是自动安装和部署的,因此需要知道CDH...
田葛17833034311…… 1、下载hive(http://archive.cloudera.com/cdh/testing/hive-0.3.99.1+0.tar.gz),解包把它放到目录 /usr/local/hadoop/contrib并改名为hive,改属主(chown -R hadoop:hadoop). 2、下载ant (http://labs.xiaonei.com/apache-mirror/ant/binaries/apache-...
@明虎2560:如何使用kettle连接hive和hive2 -
田葛17833034311…… 连接hive的方法:进入hive所在的服务器,输入:hive --service hiveserver(目的:启动thrift) 打开kettle配置连接界面,输入hive所在服务器的ip、所需要的hive库、端口号(thrift默认端口为:10000) 测试连接,即可 连接hive2的方法:[plain] ...
@明虎2560:hive2.5和哪个版本hive -
田葛17833034311…… 本帖最后由 nettman 于 2014-7-9 09:00 编辑 hadoop与HBase版本对应关系:Hbase Hadoop0.92.0 1.0.00.92.1 1.0.00.92.2 1.0.30.94.0 1.0.20.94.1 1.0.30.94.2 1.0.30.94.3 1.0.40.94.4 1.0.40.94.5 1.0.40.94.9 1.2.00.95.0 1.2.0 hadoop1.2+hbase0....
@明虎2560:如何用hive查询hbase中的数据 -
田葛17833034311…… 第一步,启动hadoop,命令:./start-all.sh 第二步,启动hive,命令: ./hive --auxpath /home/dream-victor/hive-0.6.0/lib/hive_hbase-handler.jar,/home/dream-victor/hive-0.6.0/lib/hbase-0.20.3.jar,/home/dream-victor/hive-0.6.0/lib/zookeeper-3.2.2.jar ...
@明虎2560:近期新出了一个游学类的App叫Hive,有了解的吗?
田葛17833034311…… 从官方看到的,Hive是一款帮你发现160多个国家的义工实习和兴趣实践机会的平台.有四种不同体验的信息分类,算是市场上最全面的游学类信息平台了.
@明虎2560:如何用Hive访问Hadoop上数据 -
田葛17833034311…… 步骤 Hive提供了jdbc驱动,使得我们可以连接Hive并进行一些类关系型数据库的sql语句查询等操作,首先我们需要将这些驱动拷贝到报表工程下面,然后再建立连接,最后通过连接进行数据查询.拷贝jar包到FR工程 将hadoop里的hadoop-...
@明虎2560:hive的Hive 体系结构 -
田葛17833034311…… 主要分为以下几个部分:用户接口 用户接口主要有三个:CLI,Client 和 WUI.其中最常用的是 CLI,Cli 启动的时候,会同时启动一个 Hive 副本.Client 是 Hive 的客户端,用户连接至 Hive Server.在启动 Client 模式的时候,需要指出 Hive Server ...
@明虎2560:如何查询hive的远程服务连接参数 -
田葛17833034311…… 1、hive 命令行模式,直接输入/hive/bin/hive的执行程序,或者输入 hive --service cli 用于linux平台命令行查询,查询语句基本跟mysql查询语句类似2、 hive web界面的 (端口号9999) 启动方式 hive –service hwi & 用于通过浏览器来访问hive,感...
@明虎2560:如何查看当前hive运行的应用 -
田葛17833034311…… 通过hive 自带的 server2 的 thrift 模式提交的sql 可以获得 状态进度,jdbc方式没有试过. 其实,我们完全可以不使用hive,sql-on-Hadoop的框架有ibm的bigsql,Apache的dirll,impala等都是非常不错的,都可以替代hive.速度都比hive要快很多. 偶理解HIVE只是提供查询和数据处理功能的(解析HIVE QL语句为MAPReduce任务), 不负责数据存储的. 数据存储应该是HBase和HDFS的功能, HBase是Key Value的存储方式, 适用于固定列查询的数据, 如果查询方式多样复杂, 感觉应该是使用HDFS存储, 然后使用HIVE进行查询和处理.
@明虎2560:如何配置hive,使hive能使用spark引擎 -
田葛17833034311…… 1、为了让Spark能够连接到Hive的原有数据仓库,我们需要将Hive中的hive-site.xml文件拷贝到Spark的conf目录下,这样就可以通过这个配置文件找到Hive的元数据以及数据存放. 在这里由于我的Spark是自动安装和部署的,因此需要知道CDH...