作者:2551529836
蜂巢
* * Facebook开源
* *主页:
** Hive是基于Hadoop的数据仓库工具
Hive和数据库:
数据库: MySQL、Oracle、DB2、SQLServer
数据仓库!==数据库,即Hive不是数据库
为什么要选择hive
** MapReduce编程成本高
* *对于现有DBA,不熟悉Java。请使用Hive进行数据分析
Hive简介:
* *过程
* * hql-hive(Java)-MapReduce-yarn-HDFS
* *将必需的: HQL转换为MapReduce程序
* *使用MapReduce计算模型在yarn平台上运行
** Hive适合离线批量处理,延迟更大
* *不适合在线业务实时分析结果,不适合业务要求延迟低的情况
Hive体系结构
* *用户界面3360客户端
* *终端命令行CLI主要使用方法
** JDBC方法-很少使用
* *元数据:metastore
* *基本Apache使用derby数据库(只能使用一个客户端),CDH使用postgreDB
* *企业通常选择其他要存储的MySQL
* *元数据包括表名、表所属的数据库(默认为default)、
表所有者、列/分区字段、表类型(是否为外部表)、
表中包含数据的目录等。
* *此处不存储Hive表的实际数据
* *海道op
* *使用HDFS的存储
* *使用MapReduce计算
* *驱动器:驱动程序
* *分析器:解析Hql语句
* *编译器:将SQL语句翻译为MapReduce程序
* *优化程序:优化SQL语句
* *运行者:在yarn平台上运行MapReduce程序
=====Hive安装===============================================
* *版本0.13.1(与以后使用的框架的兼容性很好)
Hive安装所需的环境:
1、安装JDK,然后测试
$ Java -version
2、Hadoop安装
* *验证Hadoop是否正常工作(测试:上传文件或运行jar)
在$ HDFS DFS -mkdir /input2 # HDFS中创建文件夹。-没有与cd进入目录类似的参数
$ HDFS DFS -mkdir -p /aaa/bbb/ccc #级联目录
查看$ HDFS DFS -ls/#
$ HDFS DFS -put b.txt /input #将本地文件复制到HDFS
查看$ HDFS DFS -cat /input2 #文件
删除$ HDFS DFS -rm /input2 #文件
$ HDFS DFS -rmr /input?递归删除#文件夹和其中的文件。建议使用“-rm -r”格式。单字符通配符“?”
$ HDFS DFS-帮助
3、安装MySQL
$ su-
# yum -y install MySQL - MySQL客户端安装,常用命令
# yum-y install MySQL-server-MySQL服务
# yum-y install MySQL-devel-MySQL develop扩展包
* * *以上可以用一句话组合。-y表示所有问题的答案都是“是”
# yum-y install MySQL MySQL-server MySQL-devel
# rpm -qa|grep MySQL -查看已安装的MySQL
# rpm -ql my -查看安装位置
# rpm-e-nodeps my -卸载,nodeps:不检查相关性
# service mysqld start启动MySQL服务
# chkconfig mysqldon-设置引导启动
#/usr/bin/MySQL admin-uroot password ' root '-初始化密码,只能执行一次
授予用户权限:
# MySQL -uroot -proot
*** grant权限on数据库对象(数据库。表)至用户
Mysql grant all on *。* to root @ ' blue 01 . my domain ' identified by ' root ';
Mysql flush privileges#刷新授权表,可能不运行
MySQL set password for root @ localhost=password(' root ');-修改密码
Mysql show databases
**默认情况下,MySQL数据库仅允许根用户通过localho登录
* *在Windows上使用Navicat登录需要许可证
* * MySQL grant all on *。* to root @ ' 192 . 168 . 122 . 1 ' identified by ' root ';
附加:yum命令和rpm命令都会安装rpm程序包
Yum安装包的源:来自互联网(由仓库配置文件指定)
Rpm安装软件包的源:首先提取现在需要安装的软件包
-
4、开始Hive安装
# su-Tom
$ tar zxf /opt/software
* *在conf/目录中:
$ CP -a -重命名,-a与原始属性一起复制
$ CP -a
5、修改
JAVA_HOME=/opt/module
HADOOP_HOME=/opt/module
exporthive _ conf _ dir=/opt/module
6、配置,注意:用户名和密码不能包含空格
Property
namejavax . jdo . o;/name
value JDBC : MySQL ://blue 01 . my domain :3306/metastore?createdatabaseifnotexist=true/value
/property
Property
namejavax . jdo . o;/name
Valuecom.my/value
/property
Property
namejavax . jdo . o;/name
值根/值
/property
Property
namejavax . jdo . o;/name
值根/值
/property
7,将MySQL驱动程序复制到lib/
* *如果jar已解压缩,则无需执行此步骤。$ tar zxf my
$ CP my /opt/module
8、进入Hadoop目录并修改目录权限
** /tmp暂存档
向$ bin/hadoop fs -chmod g w /tmp #用户组添加写权限
** /user/Hive/warehouse hive的数据存储目录
$ bin/hdfsdfs-mkdir-p/user/hive/warehouse
$ bin/hadoopfs-chmod g w/user/hive/warehouse
9、使用Hive启动客户端
$ bin/hive -使用方式与MySQL大致相同
Hive show databases
1.《如何用hive实现无限递归》援引自互联网,旨在传递更多网络信息知识,仅代表作者本人观点,与本网站无关,侵删请联系页脚下方联系方式。
2.《如何用hive实现无限递归》仅供读者参考,本网站未对该内容进行证实,对其原创性、真实性、完整性、及时性不作任何保证。
3.文章转载时请保留本站内容来源地址,https://www.lu-xu.com/keji/3210143.html