cd $HCAT_HOME/bin ./hcat
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory] usage: hcat {-e "<query>" |-f "<filepath>" } [-g "<group>" ] [-p "<perms>" ] [-D"<name> = <value>" ] -D <property = value> use hadoop value for given property -e <exec> hcat command given from command line -f <file> hcat commands in file -g <group> group for the db/table specified in CREATE statement -h,--help Print help information -p <perms> permissions for the db/table specified in CREATE statement
选项 | 示例和说明 |
-g |
hcat-g mygroup ...
要创建的表必须有组"mygroup"。
|
-p |
hcat-p rwxr-xr-x ...
要创建的表必须有读、写和执行权限。
|
-f |
hcat-f myscript.HCatalog ...
myscript.HCatalog 是包含要执行的 DDL 命令的脚本文件。
|
-e |
hcat-e '创建表 mytable(a int);' ...
将下面的字符串当作DDL命令并执行。
|
-D |
hcat-Dkey = value ...
将键值对作为 Java 系统属性传递给 HCatalog。
|
- |
hcat
打印使用信息。
|
DDL 命令和描述 |
CREATE TABLE
使用 HCatalog 创建表。如果您使用 CLUSTERED BY 子句创建一个表,您将无法使用 Pig 或 MapReduce 对其进行写入。
|
ALTER TABLE
支持除了 REBUILD 和 CONCATENATE 选项。它的行为与 Hive 中的相同。
|
DROP TABLE
支持。行为与 Hive 相同(删除完整的表和结构)。
|
CREATE/ALTER/DROP VIEW
支持。行为与 Hive 相同。
注意-Pig 和 MapReduce 无法读取或写入视图。
|
SHOW TABLES
显示表格列表。
|
SHOW PARTITIONS
显示分区列表。
|
Create/Drop Index
支持CREATE和DROP FUNCTION操作,但创建的函数仍必须在Pig中注册并放置在用于MapReduce的CLASSPATH中。
|
DESCRIBE
支持。行为与 Hive 相同。描述结构。
|