hive分区分桶操作及加载数据_hive 分桶表正确加载数据的方法-程序员宅基地

技术标签: 大数据运维之hive日常  hive  分区分桶  

转载来自:http://www.codeweblog.com/hive-%E5%9F%BA%E7%A1%80-1-%E5%88%86%E5%8C%BA-%E6%A1%B6-sort-merge-bucket-join/


Hive 已是目前业界最为通用、廉价的构建大数据时代数据仓库的解决方案了,虽然也有 Impala 等后起之秀,但目前从功能、稳定性等方面来说,Hive 的地位尚不可撼动。

其实这篇博文主要是想聊聊 SMB join 的,Join 是整个 MR/Hive 最为核心的部分之一,是每个 Hadoop/Hive/DW RD 必须掌握的部分,之前也有几篇文章聊到过 MR/Hive 中的 join,其实底层都是相同的,只是上层做了些封装而已,如果你还不了解究竟 Join 有哪些方式,以及底层怎么实现的,请参考如下链接:

http://my.codeweblog.com/leejun2005/blog/95186 MapReduce 中的两表 join 几种方案简介

http://my.codeweblog.com/leejun2005/blog/111963 Hadoop 多表 join:map side join 范例

http://my.codeweblog.com/leejun2005/blog/158491 Hive & Performance 学习笔记

在最后一篇链接中,有这么两副图:

Hive 基础(1):分区.桶.Sort Merge Bucket Join

Hive 基础(1):分区.桶.Sort Merge Bucket Join

前面两个很好理解,基本上每个人都会接触到,但最后一种,可能有同学还是比较陌生,SMB 存在的目的主要是为了解决大表与大表间的 Join 问题,分桶其实就是把大表化成了“小表”,然后 Map-Side Join 解决之,这是典型的分而治之的思想。在聊 SMB Join 之前,我们还是先复习下相关的基础概念。

1、Hive 分区表

在Hive Select查询中一般会扫描整个表内容,会消耗很多时间做没必要的工作。有时候只需要扫描表中关心的一部分数据,因此建表时引入了partition概念。分区表指的是在创建表时指定的partition的分区空间。

Hive可以对数据按照某列或者某些列进行分区管理,所谓分区我们可以拿下面的例子进行解释。
当前互联网应用每天都要存储大量的日志文件,几G、几十G甚至更大都是有可能。存储日志,其中必然有个属性是日志产生的日期。在产生分区时,就可以按照日志产生的日期列进行划分。把每一天的日志当作一个分区。
将数据组织成分区,主要可以提高数据的查询速度。至于用户存储的每一条记录到底放到哪个分区,由用户决定。即用户在加载数据的时候必须显示的指定该部分数据放到哪个分区。

1.1 实现细节

1、一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。
2、表和列名不区分大小写。
3、分区是以字段的形式在表结构中存在,通过describe table命令可以查看到字段存在, 但是该字段不存放实际的数据内容,仅仅是分区的表示(伪列) 。

1.2 语法

1. 创建一个分区表,以 ds 为分区列:
create table invites (id int, name string) partitioned by (ds string) row format delimited fields terminated by 't' stored as textfile;
2. 将数据添加到时间为 2013-08-16 这个分区中:
load data local inpath '/home/hadoop/Desktop/data.txt' overwrite into table invites partition (ds='2013-08-16');
3. 将数据添加到时间为 2013-08-20 这个分区中:
load data local inpath '/home/hadoop/Desktop/data.txt' overwrite into table invites partition (ds='2013-08-20');
4. 从一个分区中查询数据:
select * from invites where ds ='2013-08-12';
5. 往一个分区表的某一个分区中添加数据:
insert overwrite table invites partition (ds='2013-08-12') select id,max(name) from test group by id;
可以查看分区的具体情况,使用命令:
hadoop fs -ls /home/hadoop.hive/warehouse/invites
或者:
show partitions tablename;

2、Hive 桶

对于每一个表(table)或者分区, Hive可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分。Hive也是 针对某一列进行桶的组织。Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中。

把表(或者分区)组织成桶(Bucket)有两个理由:

(1)获得更高的查询处理效率。桶为表加上了额外的结构,Hive 在处理有些查询时能利用这个结构。具体而言,连接两个在(包含连接列的)相同列上划分了桶的表,可以使用 Map 端连接 (Map-side join)高效的实现。比如JOIN操作。对于JOIN操作两个表有一个相同的列,如果对这两个表都进行了桶操作。那么将保存相同列值的桶进行JOIN操作就可以,可以大大较少JOIN的数据量。

(2)使取样(sampling)更高效。在处理大规模数据集时,在开发和修改查询的阶段,如果能在数据集的一小部分数据上试运行查询,会带来很多方便。

1. 创建带桶的 table :

create table bucketed_user(id int,name string) clustered by (id) sorted by(name) into 4 buckets row format delimited fields terminated by '\t' stored as textfile;
首先,我们来看如何告诉Hive—个表应该被划分成桶。我们使用CLUSTERED BY 子句来指定划分桶所用的列和要划分的桶的个数:

CREATE TABLE bucketed_user (id INT) name STRING)
CLUSTERED BY (id) INTO 4 BUCKETS;

在这里,我们使用用户ID来确定如何划分桶(Hive使用对值进行哈希并将结果除 以桶的个数取余数。这样,任何一桶里都会有一个随机的用户集合(PS:其实也能说是随机,不是吗?)。

对于map端连接的情况,两个表以相同方式划分桶。处理左边表内某个桶的 mapper知道右边表内相匹配的行在对应的桶内。因此,mapper只需要获取那个桶 (这只是右边表内存储数据的一小部分)即可进行连接。这一优化方法并不一定要求 两个表必须桶的个数相同,两个表的桶个数是倍数关系也可以。用HiveQL对两个划分了桶的表进行连接,可参见“map连接”部分(P400)。

桶中的数据可以根据一个或多个列另外进行排序。由于这样对每个桶的连接变成了高效的归并排序(merge-sort), 因此可以进一步提升map端连接的效率。以下语法声明一个表使其使用排序桶:

CREATE TABLE bucketed_users (id INT, name STRING)
CLUSTERED BY (id) SORTED BY (id ASC) INTO 4 BUCKETS;

我们如何保证表中的数据都划分成桶了呢?把在Hive外生成的数据加载到划分成 桶的表中,当然是可以的。其实让Hive来划分桶更容易。这一操作通常针对已有的表。

Hive并不检查数据文件中的桶是否和表定义中的桶一致(无论是对于桶 的数量或用于划分桶的列)。如果两者不匹配,在査询时可能会碰到错 误或未定义的结果。因此,建议让Hive来进行划分桶的操作。

有一个没有划分桶的用户表:
hive> SELECT * FROM users;
0 Nat
2 Doe
B Kay
4 Ann

2. 强制多个 reduce 进行输出:

要向分桶表中填充成员,需要将 hive.enforce.bucketing 属性设置为 true。①这 样,Hive 就知道用表定义中声明的数量来创建桶。然后使用 INSERT 命令即可。需要注意的是: clustered by和sorted by不会影响数据的导入,这意味着,用户必须自己负责数据如何如何导入,包括数据的分桶和排序。
'set hive.enforce.bucketing = true' 可以自动控制上一轮reduce的数量从而适配bucket的个数,当然,用户也可以自主设置mapred.reduce.tasks去适配bucket个数,推荐使用'set hive.enforce.bucketing = true'

3. 往表中插入数据:

INSERT OVERWRITE TABLE bucketed_users SELECT * FROM users;

物理上,每个桶就是表(或分区)目录里的一个文件。它的文件名并不重要,但是桶 n 是按照字典序排列的第 n 个文件。事实上,桶对应于 MapReduce 的输出文件分区:一个作业产生的桶(输出文件)和reduce任务个数相同。我们可以通过查看刚才 创建的bucketd_users表的布局来了解这一情况。运行如下命令:

4. 查看表的结构:

hive> dfs -ls /user/hive/warehouse/bucketed_users;
将显示有4个新建的文件。文件名如下(文件名包含时间戳,由Hive产生,因此 每次运行都会改变):
attempt_201005221636_0016_r_000000_0
attempt_201005221636_0016_r-000001_0
attempt_201005221636_0016_r_000002_0
attempt_201005221636_0016_r_000003_0
第一个桶里包括用户IDO和4,因为一个INT的哈希值就是这个整数本身,在这里 除以桶数(4)以后的余数:②

5. 读取数据,看每一个文件的数据:

hive> dfs -cat /user/hive/warehouse/bucketed_users/*0_0;
0 Nat
4 Ann

用TABLESAMPLE子句对表进行取样,我们可以获得相同的结果。这个子句会将 查询限定在表的一部分桶内,而不是使用整个表:

6. 对桶中的数据进行采样:

hive> SELECT * FROM bucketed_users
> TABLESAMPLE(BUCKET 1 OUT OF 4 ON id);
0 Nat
4 Ann

桶的个数从1开始计数。因此,前面的查询从4个桶的第一个中获取所有的用户。 对于一个大规模的、均匀分布的数据集,这会返回表中约四分之一的数据行。我们 也可以用其他比例对若干个桶进行取样(因为取样并不是一个精确的操作,因此这个 比例不一定要是桶数的整数倍)。例如,下面的查询返回一半的桶:

7. 查询一半返回的桶数:

hive> SELECT * FROM bucketed_users
> TABLESAMPLE(BUCKET 1 OUT OF 2 ON id);
0 Nat
4 Ann
2 Joe

因为查询只需要读取和TABLESAMPLE子句匹配的桶,所以取样分桶表是非常高效 的操作。如果使用rand()函数对没有划分成桶的表进行取样,即使只需要读取很 小一部分样本,也要扫描整个输入数据集:

hive〉 SELECT * FROM users
> TABLESAMPLE(BUCKET 1 OUT OF 4 ON rand());
2 Doe

①从Hive 0.6.0开始,对以前的版本,必须把mapred.reduce .tasks设为表中要填 充的桶的个数。如果桶是排序的,还需要把hive.enforce.sorting设为true。
②显式原始文件时,因为分隔字符是一个不能打印的控制字符,因此字段都挤在一起。

3、举个完整的小栗子:

(1)建student & student1 表:
create table student(id INT, age INT, name STRING)
partitioned by(stat_date STRING)
clustered by(id) sorted by(age) into 2 buckets
row format delimited fields terminated by ',';

create table student1(id INT, age INT, name STRING)
partitioned by(stat_date STRING)
clustered by(id) sorted by(age) into 2 buckets
row format delimited fields terminated by ',';
(2)设置环境变量:

set hive.enforce.bucketing = true;

(3)插入数据:
cat bucket.txt

1,20,zxm
2,21,ljz
3,19,cds
4,18,mac
5,22,android
6,23,symbian
7,25,wp

LOAD DATA local INPATH '/home/lijun/bucket.txt' OVERWRITE INTO TABLE student partition(stat_date="20120802");

from student
insert overwrite table student1 partition(stat_date="20120802")
select id,age,name where stat_date="20120802" sort by age;
(4)查看文件目录:

hadoop fs -ls /hive/warehouse/test.db/student1/stat_date=20120802
Found 2 items
-rw-r--r-- 2 lijun supergroup 31 2013-11-24 19:16 /hive/warehouse/test.db/student1/stat_date=20120802/000000_0
-rw-r--r-- 2 lijun supergroup 39 2013-11-24 19:16 /hive/warehouse/test.db/student1/stat_date=20120802/000001_0

(5)查看sampling数据:

hive> select * from student1 tablesample(bucket 1 out of 2 on id);

Total MapReduce jobs = 1
Launching Job 1 out of 1
.......
OK
4 18 mac 20120802
2 21 ljz 20120802
6 23 symbian 20120802
Time taken: 20.608 seconds

注:tablesample是抽样语句,语法:TABLESAMPLE(BUCKET x OUT OF y)
y必须是table总bucket数的倍数或者因子。hive根据y的大小,决定抽样的比例。例如,table总共分了64份,当y=32时,抽取(64/32=)2个bucket的数据,当y=128时,抽取(64/128=)1/2个bucket的数据。x表示从哪个bucket开始抽取。例如,table总bucket数为32,tablesample(bucket 3 out of 16),表示总共抽取(32/16=)2个bucket的数据,分别为第3个bucket和第(3+16=)19个bucket的数据。

4、Refer:

http://rdc.taobao.org/?p=1457 从MR到Hive – 一次迁移的过程

http://blog.573114.com/Blog/Html/A031/516857.html Hadoop权威指南 第12章 Hive简介 P384

hive--Sort Merge Bucket Map Join

http://blog.csdn.net/yfkiss/article/details/7816916


版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_35440040/article/details/78274520

智能推荐

sql 血缘解析 calcite_calcite 血缘分析-程序员宅基地

文章浏览阅读2.9k次,点赞3次,收藏12次。package pers.machi;import com.google.common.base.Joiner;import org.apache.calcite.avatica.util.Casing;import org.apache.calcite.config.Lex;import org.apache.calcite.sql.*;import org.apache.calcite.sql.parser.SqlParseException;import org.apache.calci_calcite 血缘分析

摄像头基础知识介绍_avdd dvdd 对图像信号的影响-程序员宅基地

文章浏览阅读6.4k次,点赞12次,收藏90次。一、摄像头结构和工作原理. 拍摄景物通过镜头,将生成的光学图像投射到传感器上,然后光学图像被转换成电信号,电信号再经过模数转换变为数字信号,数字信号经过DSP加工处理,再被送到电脑中进行处理,最终转换成手机屏幕上能够看到的图像。数字信号处理芯片DSP(DIGITAL SIGNAL PROCESSING)功能:主要是通过一系列复杂的数学算法运算,对数字图像信号参数进行优化处理,并把处理后的信号通过USB等接口传到PC等设备。DSP结构框架:  1. ISP(image signal pro.._avdd dvdd 对图像信号的影响

centos rpm安装mysql5.5_Linux以rpm方式安装Mysql,Centos7通过rpm安装Mysql5.5,Linux Mysql rpm安装...-程序员宅基地

文章浏览阅读137次。Linux以rpm方式安装Mysql,Centos7通过rpm安装Mysql5.5,Linux Mysql rpm安装================================Copyright 蕃薯耀 2020-11-10https://www.cnblogs.com/fanshuyao/一、上传rpm包到Linux服务器,然后进入目录,接着安装rpm -ivh MySQL-server..._package perl-4:5.16.3-293.el7.x86_64 was already added, replacing with perl-

csharp基础练习题:密码系统【难度:1级】--景越C#经典编程题库,不同难度C#练习题,适合自学C#的新手进阶训练_csharp基础题目编程题-程序员宅基地

文章浏览阅读184次。csharp基础练习题:密码系统【难度:1级】:在星实验室,我们使用的密码系统解锁实验室的门,只有团队的Flash,给出了这些实验室的密码.密码系统包括的 N×N的的键区(N> 0)的有一天变焦看到思科使用的密码.他想通了,密码是对称的中心点(中心点N * N的键盘会与点坐标(N / 2,N / 2)).现在他必须尝试所有可能的对称组合,打开门.因为他没有足够的时间,他请你告诉我们,如果..._csharp基础题目编程题

oracle 清空回收站

--清除回收站中当前用户下的对象。---清除回收站中指定用户的表。---清除回收站中所有的对象。

GAMS104 现代游戏引擎 2

5,渲染中光和材质的数学魔法,6,7,游戏中地形大气和云的渲染,游戏中的渲染管线,后处理等

随便推点

倒计时7天!博客之星虚位以待,Macbook等你来拿-程序员宅基地

文章浏览阅读369次。也许你陪伴了CSDN一年的时间刚刚写下自己的第二十篇的原创技术博文也许你是陪伴了CSDN近20年风雨的老码农更新了近千百篇的技术文章也许你还在坚持着“技术输出”也许你已经开始封笔也许你刚..._倒计时7天!博客之星虚位以待,macbook等你来拿

js获取元素的方法(getElementById、getElementByTagName、getElementByClassName)_jquery getelementbyid getelementbutagname-程序员宅基地

文章浏览阅读2.8k次。getElementById:1、获取具体的某一个元素2、直接去使用和操作3、只能通过document获取4、静态:在获取的时候存在就是存在,不存在就是不存在;先获取后添加拿不到getElementByTagName、getElementByClassName:1、集合2、需要通过下标获取到具体的元素之后在使用和操作3、既可以是document也可以是父元素4、动态性:获取的时候没有,后面添加的,后续也能拿得到;先获取后添加也能拿到5、className只支持IE8以上..._jquery getelementbyid getelementbutagname

ChatGPT助手:写作无忧

ChatGPT助手:写作无忧在当今信息爆炸的时代,写作已经成为了各行各业不可或缺的技能。无论是学术论文、技术博客还是市场推广文案,文字的质量往往决定了一篇作品的成败。然而,对于许多人来说,写作并非易事,常常会遇到灵感枯竭、内容结构不清晰等问题。幸运的是,随着人工智能技术的不断发展,各种智能助手也应运而生。其中,ChatGPT就是其中一款备受青睐的工具,它基于大型语言模型GPT-3,能够为写作者提供强大的支持和创作灵感。

【CMD操作】如何使用CMD运行Python文件-程序员宅基地

文章浏览阅读1.1w次。使用CMD运行py文件/CMD命令行中文件路径有空格_cmd运行python文件

十一个关于Netty的经典问答:为何选择Netty?-程序员宅基地

文章浏览阅读108次。点击关注,快速进阶高级架构师1.Netty 是什么?Netty 是一个基于 JAVA NIO 类库的异步通信框架,它的架构特点是:异步非阻塞、基于事件驱动、高性能、高可靠性和高可定制性。2.使用 Netty 能够做什么?开发异步、非阻塞的 TCP 网络应用程序;开发异步、非阻塞的 UDP 网络应用程序;开发异步文件传输应用程序;开发异步 HTTP 服务端和客户端应用程序;提供对多种编解码框架的集成..._netty 问答

C++中循环调用python脚本,第二次PyImport_ImportModule时发生写入错误_循环调用pyfinalize-程序员宅基地

文章浏览阅读3.5k次,点赞9次,收藏6次。C++中循环调用import第三方库的python脚本,第一次成功调用并获得python的返回值,第二次PyImport_ImportModule时发生写入错误。如果不import第三方库则没有问题解决办法:将初始化:Py_Initialize(); 释放:Py_Finalize();放到调用的大循环外边参考:https://blog.cs..._循环调用pyfinalize