Fork me on GitHub

HBase优化

1.高可用

    在HBase中Hmaster负责监控RegionServer的生命周期,均衡RegionServer的负载,如果Hmaster挂掉了,那么整个HBase集群将陷入不健康的状态,并且此时的工作状态并不会维持太久。所以HBase支持对Hmaster的高可用配置。

(1).关闭HBase集群(如果没有开启则跳过此步)
1
$ bin/stop-hbase.sh
(2).在conf目录下创建backup-masters文件
1
$ touch conf/backup-masters
(3).在backup-masters文件中配置高可用HMaster节点
1
$ echo hadoop2 >  conf/backup-masters
(4).将整个conf目录scp到其他节点
1
2
3
$ scp -r conf/ hadoop2:/opt/module/hbase-1.3.1

$ scp -r conf/ hadoop3:/opt/module/hbase-1.3.1
(5).重新启动HBase后打开页面测试查看

    0.98版本之后:http://bigdata111:16010

2.Hadoop的通用性优化

(1).NameNode元数据备份使用SSD
(2).定时备份NameNode上的元数据

    每小时或者每天备份,如果数据极其重要,可以5~10分钟备份一次。备份可以通过定时任务复制元数据目录即可。

(3).为NameNode指定多个元数据目录

    使用dfs.name.dir或者dfs.namenode.name.dir指定。这样可以提供元数据的冗余和健壮性,以免发生故障。

(4).NameNode的dir自恢复

    设置dfs.namenode.name.dir.restore为true,允许尝试恢复之前失败的dfs.namenode.name.dir目录,在创建checkpoint时做此尝试,如果设置了多个磁盘,建议允许。

(5).HDFS保证RPC调用会有较多的线程数

hdfs-site.xml

1
2
3
4
5
6
7
属性:dfs.namenode.handler.count

解释:该属性是NameNode服务默认线程数,的默认值是10,根据机器的可用内存可以调整为50~100

属性:dfs.datanode.handler.count

解释:该属性默认值为10,是DataNode的处理线程数,如果HDFS客户端程序读写请求比较多,可以调高到15~20,设置的值越大,内存消耗越多,不要调整的过高,一般业务中,5~10即可。
(6).HDFS副本数的调整

hdfs-site.xml

1
2
3
属性:dfs.replication

解释:如果数据量巨大,且不是非常之重要,可以调整为2~3,如果数据非常之重要,可以调整为3~5。
(7).HDFS文件块大小的调整

hdfs-site.xml

1
2
3
属性:dfs.blocksize

解释:块大小定义,该属性应该根据存储的大量的单个文件大小来设置,如果大量的单个文件都小于100M,建议设置成64M块大小,对于大于100M或者达到GB的这种情况,建议设置成256M,一般设置范围波动在64M~256M之间。
(8).MapReduce Job任务服务线程数调整

mapred-site.xml

1
2
3
属性:mapreduce.jobtracker.handler.count

解释:该属性是Job任务线程数,默认值是10,根据机器的可用内存可以调整为50~100
(9).Http服务器工作线程数

mapred-site.xml

1
2
3
属性:mapreduce.tasktracker.http.threads

解释:定义HTTP服务器工作线程数,默认值为40,对于大集群可以调整到80~100
(10).文件排序合并优化

mapred-site.xml

1
2
3
属性:mapreduce.task.io.sort.factor

解释:文件排序时同时合并的数据流的数量,这也定义了同时打开文件的个数,默认值为10,如果调高该参数,可以明显减少磁盘IO,即减少文件读取的次数。
(11).设置任务并发

mapred-site.xml

1
2
3
属性:mapreduce.map.speculative

解释:该属性可以设置任务是否可以并发执行,如果任务多而小,该属性设置为true可以明显加快任务执行效率,但是对于延迟非常高的任务,建议改为false,这就类似于迅雷下载。
(12).MR输出数据的压缩

mapred-site.xml

1
2
3
属性:mapreduce.map.output.compress、mapreduce.output.fileoutputformat.compress

解释:对于大集群而言,建议设置Map-Reduce的输出为压缩的数据,而对于小集群,则不需要。
(13).优化Mapper和Reducer的个数

mapred-site.xml

1
2
3
4
5
6
7
8
9
10
11
属性:

mapreduce.tasktracker.map.tasks.maximum

mapreduce.tasktracker.reduce.tasks.maximum

解释:以上两个属性分别为一个单独的Job任务可以同时运行的Map和Reduce的数量。

设置上面两个参数时,需要考虑CPU核数、磁盘和内存容量。假设一个8核的CPU,业务内容非常消耗CPU,那么可以设置map数量为4,如果该业务不是特别消耗CPU类型的,那么可以设置map数量为40,reduce数量为20。这些参数的值修改完成之后,一定要观察是否有较长等待的任务,如果有的话,可以减少数量以加快任务执行,如果设置一个很大的值,会引起大量的上下文切换,以及内存与磁盘之间的数据交换,这里没有标准的配置数值,需要根据业务和硬件配置以及经验来做出选择。

在同一时刻,不要同时运行太多的MapReduce,这样会消耗过多的内存,任务会执行的非常缓慢,我们需要根据CPU核数,内存容量设置一个MR任务并发的最大值,使固定数据量的任务完全加载到内存中,避免频繁的内存和磁盘数据交换,从而降低磁盘IO,提高性能。

大概估算公式:

map = 2 + ⅔cpu_core
reduce = 2 + ⅓cpu_core

3.Linux优化

(1).开启文件系统的预读缓存可以提高读取速度
1
$ sudo blockdev --setra 32768 /dev/sda

提示:ra是readahead的缩写

(2).关闭进程睡眠池

即不允许后台进程进入睡眠状态,如果进程空闲,则直接kill掉释放资源

1
$ sudo sysctl -w vm.swappiness=0
(3).调整ulimit上限,默认值为比较小的数字
1
2
3
$ ulimit -n 查看允许最大进程数

$ ulimit -u 查看允许打开最大文件数

优化修改:

1
$ sudo vi /etc/security/limits.conf 修改打开文件数限制

末尾添加:

1
2
3
4
5
6
7
*                soft    nofile          1024000

* hard nofile 1024000

Hive - nofile 1024000

hive - nproc 1024000

修改用户打开进程数限制

1
$ sudo vi /etc/security/limits.d/20-nproc.conf 

修改为:

1
2
3
4
5
6
7
#*          soft    nproc     4096

#root soft nproc unlimited

* soft nproc 40960

root soft nproc unlimited
(4).开启集群的时间同步NTP

    集群中某台机器同步网络时间服务器的时间,集群中其他机器则同步这台机器的时间。

(5).更新系统补丁

    更新补丁前,请先测试新版本补丁对集群节点的兼容性。

4.Zookeeper优化

(1).优化Zookeeper会话超时时间

hbase-site.xml

1
2
3
参数:zookeeper.session.timeout

解释:In hbase-site.xml, set zookeeper.session.timeout to 30 seconds or less to bound failure detection (20-30 seconds is a good start).该值会直接关系到master发现服务器宕机的最大周期,默认值为30秒(不同的HBase版本,该默认值不一样),如果该值过小,会在HBase在写入大量数据发生而GC时,导致RegionServer短暂的不可用,从而没有向ZK发送心跳包,最终导致认为从节点shutdown。一般20台左右的集群需要配置5台zookeeper。

5.HBase优化

(1).预分区

    每一个region维护着startRow与endRowKey,如果加入的数据符合某个region维护的rowKey范围,则该数据交给这个region维护。那么依照这个原则,我们可以将数据索要投放的分区提前大致的规划好,以提高HBase性能。

(a).手动设定预分区
1
hbase> create 'staff','info','partition1',SPLITS => ['1000','2000','3000','4000']
(b).生成16进制序列预分区
1
create 'staff2','info','partition2',{NUMREGIONS => 15, SPLITALGO => 'HexStringSplit'}
(c ).按照文件中设置的规则预分区

创建splits.txt文件内容如下:
spilts.txt

1
2
3
4
5
6
7
aaaa

bbbb

cccc

dddd

然后执行:

1
create 'staff3','partition3',SPLITS_FILE => '/opt/module/hbase-1.3.1/splits.txt'
(d).使用JavaAPI创建预分区
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
//自定义算法,产生一系列Hash散列值存储在二维数组中

byte[][] splitKeys = 某个散列值函数

//创建HBaseAdmin实例

HBaseAdmin hAdmin = new HBaseAdmin(HBaseConfiguration.create());

//创建HTableDescriptor实例

HTableDescriptor tableDesc = new HTableDescriptor(tableName);

//通过HTableDescriptor实例和散列值二维数组创建带有预分区的HBase表

hAdmin.createTable(tableDesc, splitKeys);
(2).RowKey设计

    一条数据的唯一标识就是rowkey,那么这条数据存储于哪个分区,取决于rowkey处于哪个一个预分区的区间内,设计rowkey的主要目的 ,就是让数据均匀的分布于所有的region中,在一定程度上防止数据倾斜。接下来我们就谈一谈rowkey常用的设计方案。

(a).生成随机数,hash、散列值
1
2
3
4
5
6
7
8
9
比如:

原本rowKey为1001的,SHA1后变成:dd01903921ea24941c26a48f2cec24e0bb0e8cc7

原本rowKey为3001的,SHA1后变成:49042c54de64a1e9bf0b33e00245660ef92dc7bd

原本rowKey为5001的,SHA1后变成:7b61dec07e02c188790670af43e717f0f46e8913

在做此操作之前,一般我们会选择从数据集中抽取样本,来决定什么样的rowKey来Hash后作为每个分区的临界值。
(b).字符串反转
1
2
3
20170524000001转成10000042507102

20170524000002转成20000042507102

这样也可以在一定程度上散列逐步put进来的数据。

(c ).字符串拼接
1
2
3
20170524000001_a12e

20170524000001_93i7
(3).内存优化

    HBase操作过程中需要大量的内存开销,毕竟Table是可以缓存在内存中的,一般会分配整个可用内存的70%给HBase的Java堆。但是不建议分配非常大的堆内存,因为GC过程持续太久会导致RegionServer处于长期不可用状态,一般16~48G内存就可以了,如果因为框架占用内存过高导致系统内存不足,框架一样会被系统服务拖死。

(4).基础优化
(a).允许在HDFS的文件中追加内容

不是不允许追加内容么?没错,请看背景故事:

http://blog.cloudera.com/blog/2009/07/file-appends-in-hdfs/

hdfs-site.xml、hbase-site.xml

1
2
3
属性:dfs.support.append

解释:开启HDFS追加同步,可以优秀的配合HBase的数据同步和持久化。默认值为true。
(b).优化DataNode允许的最大文件打开数

hdfs-site.xml

1
2
3
属性:dfs.datanode.max.transfer.threads

解释:HBase一般都会同一时间操作大量的文件,根据集群的数量和规模以及数据动作,设置为4096或者更高。默认值:4096
(c ).优化延迟高的数据操作的等待时间

hdfs-site.xml

1
2
3
属性:dfs.image.transfer.timeout

解释:如果对于某一次数据操作来讲,延迟非常高,socket需要等待更长的时间,建议把该值设置为更大的值(默认60000毫秒),以确保socket不会被timeout掉。
(d).优化数据的写入效率

mapred-site.xml

1
2
3
4
5
6
7
属性:

mapreduce.map.output.compress

mapreduce.map.output.compress.codec

解释:开启这两个数据可以大大提高文件的写入效率,减少写入时间。第一个属性值修改为true,第二个属性值修改为:org.apache.hadoop.io.compress.GzipCodec或者其他压缩方式。
(e).优化DataNode存储
1
2
3
属性:dfs.datanode.failed.volumes.tolerated

解释: 默认为0,意思是当DataNode中有一个磁盘出现故障,则会认为该DataNode shutdown了。如果修改为1,则一个磁盘出现故障时,数据会被复制到其他正常的DataNode上,当前的DataNode继续工作。
(f).设置RPC监听数量

hbase-site.xml

1
2
3
属性:hbase.regionserver.handler.count

解释:默认值为30,用于指定RPC监听的数量,可以根据客户端的请求数进行调整,读写请求较多时,增加此值。
(g).优化HStore文件大小

hbase-site.xml

1
2
3
属性:hbase.hregion.max.filesize

解释:默认值10737418240(10GB),如果需要运行HBase的MR任务,可以减小此值,因为一个region对应一个map任务,如果单个region过大,会导致map任务执行时间过长。该值的意思就是,如果HFile的大小达到这个数值,则这个region会被切分为两个Hfile。
(h).优化hbase客户端缓存

hbase-site.xml

1
2
3
属性:hbase.client.write.buffer

解释:用于指定HBase客户端缓存,增大该值可以减少RPC调用次数,但是会消耗更多内存,反之则反之。一般我们需要设定一定的缓存大小,以达到减少RPC次数的目的。
(i).指定scan.next扫描HBase所获取的行数

hbase-site.xml

1
2
3
属性:hbase.client.scanner.caching

解释:用于指定scan.next方法获取的默认行数,值越大,消耗内存越大。
(j).flush、compact、split机制

   当MemStore达到阈值,将Memstore中的数据Flush进Storefile;compact机制则是把flush出来的小文件合并成大的Storefile文件。split则是当Region达到阈值,会把过大的Region一分为二。

涉及属性:

即:128M就是Memstore的默认阈值

1
hbase.hregion.memstore.flush.size:134217728

即:这个参数的作用是当单个HRegion内所有的Memstore大小总和超过指定值时,flush该HRegion的所有memstore。RegionServer的flush是通过将请求添加一个队列,模拟生产消费模型来异步处理的。那这里就有一个问题,当队列来不及消费,产生大量积压请求时,可能会导致内存陡增,最坏的情况是触发OOM。

1
2
3
hbase.regionserver.global.memstore.upperLimit:0.4

hbase.regionserver.global.memstore.lowerLimit:0.38

即:当MemStore使用内存总量达到hbase.regionserver.global.memstore.upperLimit指定值时,将会有多个MemStores flush到文件中,MemStore flush 顺序是按照大小降序执行的,直到刷新到MemStore使用内存略小于lowerLimit

HBase读写数据流程

一、读写流程

1.HBase读数据流程

读流程

(1).HRegionServer保存着.META.的这样一张表以及表数据,要访问表数据,首先Client先去访问zookeeper,从zookeeper里面找到.META.表所在的位置信息,即找到这个.META.表在哪个HRegionServer上保存着。

(2) 接着Client通过刚才获取到的HRegionServer的IP来访问.META.表所在的HRegionServer,从而读取到.META.,进而获取到.META.表中存放的元数据。

(3)Client通过元数据中存储的信息,访问对应的HRegionServer,然后扫描(scan)所在HRegionServer的Memstore和Storefile来查询数据。

(4) 最后HRegionServer把查询到的数据响应给Client。

2.HBase写数据流程

写流程

(1) Client也是先访问zookeeper,找到-ROOT-表,进而找到.META.表,并获取.META.表信息。

(2) 确定当前将要写入的数据所对应的RegionServer服务器和Region。

(3) Client向该RegionServer服务器发起写入数据请求,然后RegionServer收到请求并响应。

(4) Client先把数据写入到HLog,以防止数据丢失。

(5) 然后将数据写入到Memstore。

(6) 如果Hlog和Memstore均写入成功,则这条数据写入成功。在此过程中,如果Memstore达到阈值,会把Memstore中的数据flush到StoreFile中。

(7) 当Storefile越来越多,会触发Compact合并操作,把过多的Storefile合并成一个大的Storefile。当Storefile越来越大,Region也会越来越大,达到阈值后,会触发Split操作,将Region一分为二。

提示:因为内存空间是有限的,所以说溢写过程必定伴随着大量的小文件产生。

二. 退役(decommissioning)

    顾名思义,就是从当前HBase集群中删除某个RegionServer,这个过程分为如下几个过程:
    在0.90.2之前,我们只能通过在要卸载的节点上执行

1.第一种方案

(1)停止负载平衡器
1
hbase> balance_switch false
(2) 在退役节点上停止RegionServer
1
hbase-daemon.sh stop regionserver
(3) RegionServer一旦停止,会关闭维护的所有region
(4) Zookeeper上的该RegionServer节点消失
(5) Master节点检测到该RegionServer下线,开启平衡器
1
hbase> balance_switch true
(6) 下线的RegionServer的region服务得到重新分配

    这种方法很大的一个缺点是该节点上的Region会离线很长时间。因为假如该RegionServer上有大量Region的话,因为Region的关闭是顺序执行的,第一个关闭的Region得等到和最后一个Region关闭并Assigned后一起上线。这是一个相当漫长的时间。每个Region Assigned需要4s,也就是说光Assigned就至少需要2个小时。该关闭方法比较传统,需要花费一定的时间,而且会造成部分region短暂的不可用。

2.另一种方案:

(1)新方法

    自0.90.2之后,HBase添加了一个新的方法,即“graceful_stop”,只需要在HBase Master节点执行

1
$ bin/graceful_stop.sh <RegionServer-hostname>

    该命令会自动关闭Load Balancer,然后Assigned Region,之后会将该节点关闭。除此之外,你还可以查看remove的过程,已经assigned了多少个Region,还剩多少个Region,每个Region 的Assigned耗时

(2)开启负载平衡器
1
hbase> balance_switch false

三.Hbase集群出问题如何重置(学习的时候)

1.将zookeeper中的hbase结点删除

2.删除hdfs上的hbase目录

3.重新启动hbase

HBase基本操作

1. 基本操作

(1).进入HBase客户端命令行
1
bin/hbase shell
(2).查看帮助命令
1
hbase(main)> help

(3). 查看当前数据库中有哪些表
1
hbase(main)> list
(4)查看当前数据库中有哪些命名空间
1
hbase(main)> list_namespace

(5)列出指定命名空间下的所有表

1
hbase> list_namespace_tables 'ns1'

2.命名空间的操作

(1)列出所有命名空间
1
hbase> list_namespace
(2)新建命名空间
1
hbase> create_namespace 'ns1'
(3)删除命名空间
1
hbase> drop_namespace 'ns1'

该命名空间必须为空,否则会报错。

(4)修改命名空间
1
hbase> alter_namespace 'ns', {METHOD => 'set', 'PROPERTY_NAME' => 'PROPERTY_VALUE'}

3. 表的操作

(1).创建表
(a)格式:
1
2
3
create '表名','列簇名'

create '命名空间:表名','列簇名'
(b)举例:
1
2
3
4
hbase(main)> create 'student','info'
hbase(main)> create 'iparkmerchant_order','smzf'
hbase(main)> create 'staff','info'
hbase(main)> create 'ns_ct:calllog'

(2).插入数据到表
(a)格式:
1
put '表名','rowkey','列簇:列','属性'
(b)举例:
1
2
3
4
5
6
hbase(main) > put 'student','1001','info:name','Thomas'
hbase(main) > put 'student','1001','info:sex','male'
hbase(main) > put 'student','1001','info:age','18'
hbase(main) > put 'student','1002','info:name','Janna'
hbase(main) > put 'student','1002','info:sex','female'
hbase(main) > put 'student','1002','info:age','20'

数据插入后的数据模型

(3).扫描查看表数据
1
2
3
hbase(main) > scan 'student'
hbase(main) > scan 'student',{STARTROW => '1001', STOPROW => '1001'}
hbase(main) > scan 'student',{STARTROW => '1001'}

注:这个是从哪一个rowkey开始扫描

(4).查看表结构
1
hbase(main)> desc 'student'

(5).更新指定字段的数据
1
2
3
hbase(main) > put 'student','1001','info:name','Nick'
hbase(main) > put 'student','1001','info:age','100'
hbase(main) > put 'student','1001','info:isNull','' //仅测试空值问题

(6).查看“指定行”或“指定列族:列”的数据
1
2
hbase(main) > get 'student','1001'
hbase(main) > get 'student','1001','info:name'

(7).删除数据

删除某rowkey的全部数据:

1
hbase(main) > deleteall 'student','1001'

(8).清空表数据
1
hbase(main) > truncate 'student'

提示:清空表的操作顺序为先disable,然后再truncate。

(9). 删除表

首先需要先让该表为disable状态:

1
hbase(main) > disable 'student'

检查这个表是否被禁用

1
2
hbase(main) > is_enabled 'student'
hbase(main) > is_disabled 'student'

恢复被禁用得表

1
hbase(main) > enable 'student'

disable后才能drop这个表:

1
hbase(main) > drop 'student'

提示:如果直接drop表,会报错:Drop the named table. Table must first be disabled
ERROR: Table student is enabled. Disable it first.

(10).统计表数据行数
1
hbase(main) > count 'staff'

(11). 变更表信息

将info列族中的数据存放3个版本:

1
hbase(main) > alter 'student',{NAME=>'info',VERSIONS=>3}

查看student的最新的版本的数据

1
hbase(main) > get 'student','1001'

查看HBase中的多版本

1
hbase(main) > get 'student','1001',{COLUMN=>'info:name',VERSIONS=>10}

3. 常用Shell操作

(1).status 例如:显示服务器状态
1
hbase> status 'bigdata111'
(2).exists 检查表是否存在,适用于表量特别多的情况
1
hbase> exists 'hbase_book'
(3).is_enabled/is_disabled 检查表是否启用或禁用
1
2
hbase> is_enabled 'hbase_book'
hbase> is_disabled 'hbase_book'
(4).alter 该命令可以改变表和列族的模式,例如:

为当前表增加列族:

1
hbase> alter 'hbase_book', NAME => 'CF2', VERSIONS => 2

为当前表删除列族:

1
hbase> alter 'hbase_book', 'delete' => 'CF2'
(5).disable禁用一张表
1
2
hbase> disable 'hbase_book'
hbase> drop 'hbase_book'
(6).delete

删除一行中一个单元格的值,例如:

1
hbase> delete 'hbase_book', 'rowKey', 'CF:C'
(7).truncate清空表数据,即禁用表-删除表-创建表
1
hbase> truncate 'hbase_book'
(8).create创建多个列族:
1
hbase> create 't1', {NAME => 'f1'}, {NAME => 'f2'}, {NAME => 'f3'}

HBase安装部署

HBase部署

1、Zookeeper正常部署

首先保证Zookeeper集群的正常部署,并启动之:

1
/opt/module/zookeeper-3.4.5/bin/zkServer.sh start

2、Hadoop正常部署

Hadoop集群的正常部署并启动:

1
2
/opt/module/hadoop-2.8.4/sbin/start-dfs.sh
/opt/module/hadoop-2.8.4/sbin/start-yarn.sh

3、HBase的解压

解压HBase到指定目录:

1
tar -zxvf /opt/soft/hbase-1.3.1-bin.tar.gz -C /opt/module/

4、HBase的配置文件

需要修改HBase对应的配置文件。

(1)hbase-env.sh:
1
2
3
cd /opt/module/hbase-1.3.1/conf

vi hbase-env.sh

修改内容:

1
2
export JAVA_HOME=/opt/module/jdk1.8.0_144
export HBASE_MANAGES_ZK=false

hbase-env.sh

提示:如果使用的是JDK8以上版本,注释掉hbase-env.sh的45-47行,不然会报警告

注释

(2)hbase-site.xml
1
vi hbase-site.xml

修改内容:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
<property>  
<name>hbase.rootdir</name>
<value>hdfs://hadoop1:9000/hbase</value>
</property>

<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>

<property>
<name>hbase.master.port</name>
<value>16000</value>
</property>

<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop1:2181,hadoop2:2181,hadoop3:2181</value>
</property>

<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/opt/module/zookeeper-3.4.10/zkData</value>
</property>
<property>
<name>hbase.master.maxclockskew</name>
<value>180000</value>
</property>

hbase-site.xml

(3)regionservers:
1
vi regionservers

修改内容:

1
2
3
hadoop1
hadoop2
hadoop3

regionservers
修改配置文件

5.HBase需要依赖的Jar包(额外,不用配置,当hbase与hadoop版本不一致时,可能会出现hbase输出存储不到hdfs的情况,那时需要配置这些)

由于HBase需要依赖Hadoop,所以替换HBase的lib目录下的jar包,以解决兼容问题:

(1). 删除原有的jar:
1
2
rm -rf /opt/module/hbase-1.3.1/lib/hadoop-*
rm -rf /opt/module/hbase-1.3.1/lib/zookeeper-3.4.10.jar
(2). 拷贝新jar,涉及的jar有:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
hadoop-annotations-2.8.4.jar
hadoop-auth-2.8.4.jar
hadoop-client-2.8.4.jar
hadoop-common-2.8.4.jar
hadoop-hdfs-2.8.4.jar
hadoop-mapreduce-client-app-2.8.4.jar
hadoop-mapreduce-client-common-2.8.4.jar
hadoop-mapreduce-client-core-2.8.4.jar
hadoop-mapreduce-client-hs-2.8.4.jar
hadoop-mapreduce-client-hs-plugins-2.8.4.jar
hadoop-mapreduce-client-jobclient-2.8.4.jar
hadoop-mapreduce-client-jobclient-2.8.4-tests.jar
hadoop-mapreduce-client-shuffle-2.8.4.jar
hadoop-yarn-api-2.8.4.jar
hadoop-yarn-applications-distributedshell-2.8.4.jar
hadoop-yarn-applications-unmanaged-am-launcher-2.8.4.jar
hadoop-yarn-client-2.8.4.jar
hadoop-yarn-common-2.8.4.jar
hadoop-yarn-server-applicationhistoryservice-2.8.4.jar
hadoop-yarn-server-common-2.8.4.jar
hadoop-yarn-server-nodemanager-2.8.4.jar
hadoop-yarn-server-resourcemanager-2.8.4.jar
hadoop-yarn-server-tests-2.8.4.jar
hadoop-yarn-server-web-proxy-2.8.4.jar
zookeeper-3.4.10.jar

提示:这些jar包的对应版本应替换成你目前使用的hadoop版本,具体情况具体分析。

查找jar包举例:

1
find /opt/module/hadoop-2.8.4/ -name hadoop-annotations*

然后将找到的jar包复制到HBase的lib目录下即可。

6.HBase软连接Hadoop配置(额外,不用配置)

1
2
3
ln -s /opt/module/hadoop-2.8.4/etc/hadoop/core-site.xml /opt/module/hbase-1.3.1/conf/core-site.xml

ln -s /opt/module/hadoop-2.8.4/etc/hadoop/hdfs-site.xml /opt/module/hbase-1.3.1/conf/hdfs-site.xml

7.配置环境变量

1
vi /etc/profile

修改内容:

1
2
export HBASE_HOME=/opt/module/hbase-1.3.1
export PATH=$PATH:$HBASE_HOME/bin

配置环境变量

使环境变量生效

1
source /etc/profile

8、HBase远程scp到其他集群

1
2
3
scp -r /opt/module/hbase-1.3.1/ root@hadoop2:/opt/module/

scp -r /opt/module/hbase-1.3.1/ root@hadoop3:/opt/module/

9、HBase服务的启动

(1)启动方式1:
1
2
bin/hbase-daemon.sh start master
bin/hbase-daemon.sh start regionserver

提示:如果集群之间的节点时间不同步,会导致regionserver无法启动,抛出ClockOutOfSyncException异常。

(2)启动方式2:
1
bin/start-hbase.sh

对应的停止服务:

1
bin/stop-hbase.sh

10、查看Hbse页面

启动成功后,可以通过“host:port”的方式来访问HBase管理页面,例如:
http://hadoop1:16010

HBase基础知识

一.HBase简介

    HBase是一个分布式的、面向列的开源数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。

大:上亿行、百万列

面向列:面向列(簇)的存储和权限控制,列(簇)独立检索

稀疏:对于为空(null)的列,并不占用存储空间,因此,表的设计的非常的稀疏

二. HBase的角色

1. HMaster

(1).功能:

(a) 监控RegionServer
(b) 处理RegionServer故障转移
(c ) 处理元数据的变更
(d) 处理region的分配或移除
(e) 在空闲时间进行数据的负载均衡
(f) 通过Zookeeper发布自己的位置给客户端

2.HRegionServer

(1).功能:

(a) 负责存储HBase的实际数据
(b) 处理分配给它的Region
(c ) 刷新缓存到HDFS
(d) 维护HLog
(e) 执行压缩
(f) 负责处理Region分片

(2).组件:
(a). Write-Ahead logs

    HBase的修改记录,当对HBase读写数据的时候,数据不是直接写进磁盘,它会在内存中保留一段时间(时间以及数据量阈值,可以设定)。但把数据保存在内存中可能有更高的概率引起数据丢失,为了解决这个问题,数据会先写在一个叫做Write-Ahead logfile的文件中,然后再写入内存中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。

(b). HFile

    这是在磁盘上保存原始数据的实际的物理文件,是实际的存储文件。

(c ). Store

    HFile存储在Store中,一个Store对应HBase表中的一个列簇。

(d). MemStore

    顾名思义,就是内存存储,位于内存中,用来保存当前的数据操作,所以当数据保存在WAL中之后,RegsionServer会在内存中存储键值对。

(e). Region

    Hbase表的分片,HBase表会根据RowKey值被切分成不同的region存储在RegionServer中,在一个RegionServer中可以有多个不同的region。

三.HBase的架构

    一个RegionServer可以包含多个HRegion,每个RegionServer维护一个HLog,和多个HFiles以及其对应的MemStore。RegionServer运行于DataNode上,数量可以与DatNode数量一致,请参考如下架构图:

HBase架构
Hbase架构2

四. HBase数据模型

确定一个单元格的位置(cell),需要如下四个
rowkey + Colume Family + Colume + timestamp(版本version),数据有版本的概念,即一个单元格可能有多个值,但是只有最新得一个对外显示。

  • HBase中有两张特殊的Table,-ROOT-和.META.
  • .META.:记录了用户表的Region信息,**.META.可以有多个region**
  • -ROOT-:记录了.META.表的Region信息,**-ROOT-只有一个region**
  • Zookeeper中记录了-ROOT-表的location
  • Client访问用户数据之前需要首先访问zookeeper,然后访问-ROOT-表,接着访问.META.表,最后才能找到用户数据的位置去访问,中间需要多次网络操作,不过client端会做cache缓存,注意:在0.96版本后,Hbase移除了-ROOT-表

Row Key: 行键,Table的主键,Table中的记录默认按照Row Key升序排序

Timestamp:时间戳,每次数据操作对应的时间戳,可以看作是数据的version number

Column Family:列簇,Table在水平方向有一个或者多个Column Family组成,一个Column Family中可以由任意多个Column组成,即Column Family支持动态扩展,无需预先定义Column的数量以及类型,所有Column均以二进制格式存储,用户需要自行进行类型转换。

Table & Region: 当Table随着记录数不断增加而变大后,会逐渐分裂成多份splits,成为regions,一个region由[startkey,endkey)表示,不同的region会被Master分配给相应的RegionServer进行管理:.

五.HMaster

    HMaster没有单点问题,HBase中可以启动多个HMaster,通过Zookeeper的Master Election机制保证总有一个Master运行,HMaster在功能上主要负责Table和Region的管理工作:

(1). 管理用户对Table的增、删、改、查操作

(2). 管理HRegionServer的负载均衡,调整Region分布

(3). 在Region Split后,负责新Region的分配

(4). 在HRegionServer停机后,负责失效HRegionServer 上的Regions迁移

六. HRegionServer

    HRegionServer内部管理了一系列HRegion对象,每个HRegion对应了Table中的一个Region,HRegion中由多个HStore组成。每个HStore对应了Table中的一个Column Family的存储,可以看出每个Column Family其实就是一个集中的存储单元,因此最好将具备共同IO特性的column放在一个Column Family中,这样最高效。

1. MemStore & StoreFiles

    HStore存储是HBase存储的核心了,其中由两部分组成,一部分是MemStore,一部分是StoreFiles。MemStore是Sorted Memory Buffer,用户写入的数据首先会放入MemStore,当MemStore满了以后会Flush成一个StoreFile(底层实现是HFile),当StoreFile文件数量增长到一定阈值,会触发Compact合并操作,将多个StoreFiles合并成一个StoreFile,合并过程中会进行版本合并和数据删除,因此可以看出HBase其实只有增加数据,所有的更新和删除操作都是在后续的compact过程中进行的,这使得用户的写操作只要进入内存中就可以立即返回,保证了HBase I/O的高性能。当StoreFiles Compact后,会逐步形成越来越大的StoreFile,当单个StoreFile大小超过一定阈值后,会触发Split操作,同时把当前Region Split成2个Region,父Region会下线,新Split出的2个孩子Region会被HMaster分配到相应的HRegionServer上,使得原先1个Region的压力得以分流到2个Region上。

2. HLog

    每个HRegionServer中都有一个HLog对象,HLog是一个实现Write Ahead Log的类,在每次用户操作写入MemStore的同时,也会写一份数据到HLog文件中,HLog文件定期会滚动出新的,并删除旧的文件(已持久化到StoreFile中的数据)。当HRegionServer意外终止后,HMaster会通过Zookeeper感知到,HMaster首先会处理遗留的 HLog文件,将其中不同Region的Log数据进行拆分,分别放到相应region的目录下,然后再将失效的region重新分配,领取 到这些region的HRegionServer在Load Region的过程中,会发现有历史HLog需要处理,因此会Replay HLog中的数据到MemStore中,然后flush到StoreFiles,完成数据恢复。

3.文件类型

    HBase中的所有数据文件都存储在Hadoop HDFS文件系统上,主要包括上述提出的两种文件类型:

(1).HFile

    HBase中KeyValue数据的存储格式,HFile是Hadoop的二进制格式文件,实际上StoreFile就是对HFile做了轻量级包装,即StoreFile底层就是HFile

(2).HLog File

    HBase中WAL(Write Ahead Log) 的存储格式,物理上是Hadoop的Sequence File

4. Zookeeper中hbase的节点的存储信息:

  • rs:regionserver节点信息

  • table-lock:hbase的除meta以外的所有表

  • Table:hbase的所有的表

[LeetCode-面试02.03]删除中间结点

一.题目:

实现一种算法,删除单向链表中间的某个节点(除了第一个和最后一个节点,不一定是中间节点),假定你只能访问该节点。

示例:
输入:单向链表a->b->c->d->e->f中的节点c
结果:不返回任何数据,但该链表变为a->b->d->e->f

二.题解:

1.第一种解法:

(1)解题思路:
  • 把节点c的val变为节点d(node.next)的val,
  • 此时可以看成节点c已经变成了节点d,
  • 改变c(node)的下一个节点为e(node.next.next)
(2)代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
/**
* Definition for singly-linked list.
* public class ListNode {
* int val;
* ListNode next;
* ListNode(int x) { val = x; }
* }
*/
class Solution {
public void deleteNode(ListNode node) {
node.val = node.next.val;
node.next=node.next.next;
}
}

[LeetCode-面试02.02]返回倒数第 k 个节点

一.题目:

实现一种算法,找出单向链表中倒数第 k 个节点。返回该节点的值。
注意:本题相对原题稍作改动

示例:
输入: 1->2->3->4->5 和 k = 2
输出: 4

二.题解:

1.第一种解法

(1)解题思路:

双指针法

  • 新建指针p,指向头结点
  • 再利用for循环,让p后移k位
  • 再利用while循环,同时使p向后移,head指针也向后移
  • 直到p指向null,即尾结点,此时head指向的就是倒数第k个结点
  • 返回此时head的val值即可
(2)代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
/**
* Definition for singly-linked list.
* public class ListNode {
* int val;
* ListNode next;
* ListNode(int x) { val = x; }
* }
*/
class Solution {
public int kthToLast(ListNode head, int k) {
ListNode p = head;

for(int i=0;i<k;i++){
p=p.next;
}

while(p!=null){
p=p.next;
head=head.next;
}
return head.val;
}
}

[LeetCode-面试02.01]删除单链表中的重复元素

一.题目

编写代码,移除未排序链表中的重复节点。保留最开始出现的节点。

示例1:
输入:[1, 2, 3, 3, 2, 1]
输出:[1, 2, 3]
示例2:
输入:[1, 1, 1, 1, 2]
输出:[1, 2]
提示:
链表长度在[0, 20000]范围内。
链表元素在[0, 20000]范围内

二.题解

1.第一种方法:双指针法

(1)解题思路:
  • HashSet中存入未曾出现的元素,pre和current依次向后推进
  • HashSet出现出现过的元素,使用pre和current删除重复结点
  • 只用单层循环即可完成目标
(2)代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
/**
* Definition for singly-linked list.
* public class ListNode {
* int val;
* ListNode next;
* ListNode(int x) { val = x; }
* }
*/
class Solution {
public ListNode removeDuplicateNodes(ListNode head) {
if(head==null){
return null;
}
ListNode pre = new ListNode(0);
ListNode current = head;
pre.next=head;
Set<Integer> set = new HashSet<Integer>();
while(current!=null){
if(!set.contains(current.val)){
pre=current;
set.add(current.val);
}else{
pre.next=current.next;
}
current=current.next;
}
return head;
}
}

[LeetCode-面试01.09]字符串轮转

一.题目

字符串轮转。给定两个字符串s1和s2,请编写代码检查s2是否为s1旋转而成(比如,waterbottle是erbottlewat旋转后的字符串)。

示例1:
输入:s1 = “waterbottle”, s2 = “erbottlewat”
输出:True

示例2:
输入:s1 = “aa”, “aba”
输出:False

二.题解

1.第一种方法:

(1)解题思路:
  • 首先判定两个字符串s1,s2长度是否相等,不想等返回false
  • 在判定两个字符串是否equals.若相同返回true
  • 再使s1叠加到s1后面
  • 判定新形成的s1是否包含s2,若包含返回true
  • 否则返回false
(2)代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
public static boolean isFlipedString(String s1,String s2){
if(s1.length()!=s2.length()){
return false;
}
if(s1.equals(s2)){
return true;
}
s1+=s1;
if(s1.contains(s2)){
return true;
}else {
return false;
}
}

2.第二种方法:

(1)解题思路:
  • 还是先判定字符串s1,s2长度是否相等,以及s1是否与s2相同
  • 利用for循环,找到s1中的字符与s2第一个字符相同的下标i,
  • 新建一个StringBuilder sb,截取s2从第i位到最后的字符串,赋值给sb,sb=s2.substring(i)
  • 再截取s2从0位到i位字符串,添加到sb,sb.append(s2.substring(0,i))
  • 再比较sb.toString与s1是否相同
  • 若相同返回true,否则返回false
(2)代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
public static boolean isFlipedString2(String s1,String s2){
if(s1.length()!=s2.length()){
return false;
}
if(s1.equals(s2)){
return true;
}
//"[erbottle]wat","wat[erbottle]"
for(int i=0;i<s1.length();i++){
if(s1.charAt(i)==s2.charAt(0)){
//i=3
StringBuilder sb = new StringBuilder(s1.substring(i));
sb.append(s1.substring(0,i));

if(s2.equals(sb.toString())){
return true;
}
}
}
return false;
}

[LeetCode-面试01.08]零矩阵

一.题目:

编写一种算法,若M × N矩阵中某个元素为0,则将其所在的行与列清零。

示例 1:
输入:
[[1,1,1],
[1,0,1],
[1,1,1]]
输出:
[[1,0,1],
[0,0,0],
[1,0,1]]

示例 2:
输入:
[[0,1,2,0],
[3,4,5,2],
[1,3,1,5]]
输出:
[[0,0,0,0],
[0,4,5,0],
[0,3,1,0]]

二题解:

1.第一种解法:

(1)解题思路:
  • 利用两个HashSet表row_set,col_set存储矩阵元素为0的横纵坐标
  • 再根据横坐标row_set,将元素0所在行重置为0
  • 再根据纵坐标col_set,将元素0所在列重置为0
(2)具体实现:
  • 利用HashSet表记录矩阵中元素为0的下标,其中row_set记录元素0所在的行数,col_set记录元素0所在的列数
  • 再利用for循环,循环元素为int row_index,row_set将行数为row_set中成员所在行重置为0,Arrays.fill(matrix[row_index],0);
  • 再利用嵌套for循环,将0元素所在的列重置为0
  • 外循环循环元素为 int col_index,col_set,内循环为下标为i,从0开始遍历,直到matrix.length-1
  • 内层循环下标为i,从0开始,遍历到matrix[0].length-1,matrix[i][col_index]=0;
  • 循环结束即转换完毕
(3)代码:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
public static int[][] setZeros(int[][] matrix){
HashSet<Integer> row_set = new HashSet<Integer>();
HashSet<Integer> col_set = new HashSet<Integer>();

for(int i=0;i<matrix.length;i++){
for(int j=0;j<matrix[0].length;j++){
if(matrix[i][j]==0){
row_set.add(i);
col_set.add(j);
}
}
}

for(int row_index:row_set){
Arrays.fill(matrix[row_index],0);
}
for(int col_index:col_set){
for(int i=0;i<matrix[0].length;i++){
matrix[i][col_index]=0;
}
}
return matrix;
}
  • Copyrights © 2015-2021 Movle
  • 访问人数: | 浏览次数:

请我喝杯咖啡吧~

支付宝
微信