Hadoop 重新定义分隔符

发布网友 发布时间:2022-04-22 15:31

我来回答

1个回答

热心网友 时间:2022-04-14 09:12

PIG中输入输出分隔符默认是制表符\t,而到了hive中,默认变成了八进制的\001,
也就是ASCII: ctrl - A
Oct Dec Hex ASCII_Char
001 1 01 SOH (start of heading)
官方的解释说是尽量不和文中的字符重复,因此选用了 crtrl - A,单个的字符可以通过
row format delimited fields terminated by '#'; 指定,PIG的单个分隔符的也可以通过 PigStorage指定,
但是多个字符做分隔符呢?PIG是直接报错,而HIVE只认第一个字符,而无视后面的多个字符。
解决办法:
PIG可以自定义加载函数(load function):继承LoadFunc,重写几个方法就ok了,

而在hive中,自定义多分隔符(Multi-character delimiter strings),有2种方法可以实现:
1、利用RegexSe:
RegexSerDe是hive自带的一种序列化/反序列化的方式,主要用来处理正则表达式。

RegexSerDe主要下面三个参数:
input.regex
output.format.string
input.regex.case.insensitive
下面给出一个完整的范例:

01 add jar /home/june/hadoop/hive-0.8.1-bin/lib/hive_contrib.jar;
02 CREATE TABLE b(
03 c0 string,
04 c1 string,
05 c2 string)
06 ROW FORMAT
07 SERDE 'org.apache.hadoop.hive.contrib.serde2.RegexSerDe'
08 WITH SERDEPROPERTIES
09 ( 'input.regex' = '([^,]*),,,,([^,]*),,,,([^,]*)',
10 'output.format.string' = '%1$s %2$s %3$s')
11 STORED AS TEXTFILE;
12
13 cat b.txt
14 1,,,,2,,,,3
15 a,,,,b,,,,c
16 9,,,,5,,,,7
17 load data local inpath 'b.txt' overwrite into table b;
18 select * from b

2、重写相应的 InputFormat和OutputFormat方法:

原理很简单:hive 的内部分隔符是“ \001 ”,只要把分隔符替换成“\001 ”即可。
3、顺便提下如何定制hive中NULL的输出,默认在存储时被转义输出为\N,
如果我们需要修改成自定义的,例如为空,同样我们也要利用正则序列化:

view source

print?
01 hive> CREATE TABLE sunwg02 (id int,name STRING)
02 ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'
03 WITH SERDEPROPERTIES (
04 'field.delim'='\t',
05 'escape.delim'='\\',
06 'serialization.null.format'='
07 ) STORED AS TEXTFILE;
08 OK
09 Time taken: 0.046 seconds
10
11 hive> insert overwrite table sunwg02 select * from sunwg00;
12 Loading data to table sunwg02
13 2 Rows loaded to sunwg02
14 OK
15 Time taken: 18.756 seconds
16
17 查看sunwg02在hdfs的文件
18 [hjl@sunwg src]$ hadoop fs -cat /hjl/sunwg02/attempt_201105020924_0013_m_000000_0
19 mary
20 101 tom
21
22 NULL值没有被转写成’\N’

声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com