Apache的配置单元首先被开发为一个的Apache Hadoop的子项目提供的Hadoop管理员提供了易于使用的,熟练的查询语言,他们的数据。
正因为如此,蜂巢从一开始开发的每个查询大量的信息工作,是完全适合于大规模的数据库和商业环境。
工具包括可方便地装载,提取和转换数据,而自定义的数据结构可以在一系列广泛的数据格式被强迫。
因为它是一个Hadoop的相关项目的HDFS和 HBase的项目也自动支持。
HiveQL可能是该项目的最好的部分,提供了一个简单,创新,高效的查询语言,同时还能够处理的情况下,映射器和减速器,其中SQL语法不能得到所需的数据。
什么是此版本的新:
- 在WHERE子句
- 添加空定义为行格式规范
- Ccreate /删除数据库应该填充输入/输出和检查并发性和用户权限
- 支持指定的规模和精度,蜂巢小数类型
- 要有TEZ
- 在一个爆炸的功能,其中包括在阵列 该项目的位置
- 添加字符数据类型
- 创建收集UDF,并评估可重复使用的</ li>
- 扩展记录的作家和ORC读/写器接口,提供统计信息。
- 实施统计提供ORC作家和读卡器接口
- 注释蜂巢符树与metastore统计
- 提供ORC带级别列统计信息
- 子查询的支持:不允许子查询的嵌套
- 子查询支持:允许子查询表达式having子句
- 子查询的支持:更多的测试
- 在本地木地板支持的蜂巢
- 在蜂巢应该能够跳过页眉和页脚行读取数据文件的表时
- 添加日期,时间戳十进制,CHAR,VARCHAR类型HCat支持
- 使用地图联接提示来缓存中间结果
- 添加UDF计算地理坐标之间的距离
什么是1.2.0版本,新的:
- 在WHERE子句中支持不相关子查询李>
- 添加空定义为行格式规范
- Ccreate /删除数据库应该填充输入/输出和检查并发性和用户权限
- 支持指定的规模和精度,蜂巢小数类型
- 要有TEZ
- 在一个爆炸的功能,其中包括在阵列 该项目的位置
- 添加字符数据类型
- 创建收集UDF,并评估可重复使用的</ li>
- 扩展记录的作家和ORC读/写器接口,提供统计信息。
- 实施统计提供ORC作家和读卡器接口
- 注释蜂巢符树与metastore统计
- 提供ORC带级别列统计信息
- 子查询的支持:不允许子查询的嵌套
- 子查询支持:允许子查询表达式having子句
- 子查询的支持:更多的测试
- 在本地木地板支持的蜂巢
- 在蜂巢应该能够跳过页眉和页脚行读取数据文件的表时
- 添加日期,时间戳十进制,CHAR,VARCHAR类型HCat支持
- 使用地图联接提示来缓存中间结果
- 添加UDF计算地理坐标之间的距离
什么是1.1.0版新:
- 在WHERE子句中支持不相关子查询李>
- 添加空定义为行格式规范
- Ccreate /删除数据库应该填充输入/输出和检查并发性和用户权限
- 支持指定的规模和精度,蜂巢小数类型
- 要有TEZ
- 在一个爆炸的功能,其中包括在阵列 该项目的位置
- 添加字符数据类型
- 创建收集UDF,并评估可重复使用的</ li>
- 扩展记录的作家和ORC读/写器接口,提供统计信息。
- 实施统计提供ORC作家和读卡器接口
- 注释蜂巢符树与metastore统计
- 提供ORC带级别列统计信息
- 子查询的支持:不允许子查询的嵌套
- 子查询支持:允许子查询表达式having子句
- 子查询的支持:更多的测试
- 在本地木地板支持的蜂巢
- 在蜂巢应该能够跳过页眉和页脚行读取数据文件的表时
- 添加日期,时间戳十进制,CHAR,VARCHAR类型HCat支持
- 使用地图联接提示来缓存中间结果
- 添加UDF计算地理坐标之间的距离
什么是1.0.0版新:
- 在WHERE子句中支持不相关子查询李>
- 添加空定义为行格式规范
- Ccreate /删除数据库应该填充输入/输出和检查并发性和用户权限
- 支持指定的规模和精度,蜂巢小数类型
- 要有TEZ
- 在一个爆炸的功能,其中包括在阵列 该项目的位置
- 添加字符数据类型
- 创建收集UDF,并评估可重复使用的</ li>
- 扩展记录的作家和ORC读/写器接口,提供统计信息。
- 实施统计提供ORC作家和读卡器接口
- 注释蜂巢符树与metastore统计
- 提供ORC带级别列统计信息
- 子查询的支持:不允许子查询的嵌套
- 子查询支持:允许子查询表达式having子句
- 子查询的支持:更多的测试
- 在本地木地板支持的蜂巢
- 在蜂巢应该能够跳过页眉和页脚行读取数据文件的表时
- 添加日期,时间戳十进制,CHAR,VARCHAR类型HCat支持
- 使用地图联接提示来缓存中间结果
- 添加UDF计算地理坐标之间的距离
什么在0.8.1版本新:
- 工具,以便能够方便的数据提取/转换/加载(ETL)。
- 一个机制,实行结构上的各种数据格式。
- 访问存储直接在Apache的HDFS(TM)或其他数据存储系统,例如Apache HBase的(TM)文件。
- 通过MapReduce的查询执行。
什么在0.8.0版本新:
- 工具,以便能够方便的数据提取/转换/加载(ETL)
- 要征收的各种数据格式结构的机制
- 访问存储直接在Apache的HDFS(TM)或其他数据存储系统,例如Apache HBase的(TM) 文件
- 通过MapReduce的查询执行
什么在0.7.1版本新:
- 错误:
- 异常使用JDBC驱动程序时的窗口。 &QUOT; IOException异常:系统找不到指定的路径&QUOT;
- 在架构创建脚本是不完整的,因为他们离开了表所特有的的DataNucleus。
- 改进:
- 在提高杂项的错误消息。
- 在返回正确的主/次版本号的JDBC驱动程序蜂房。
- 基于当前的HIVE支持的数据类型添加HivePreparedStatement实施。
- 任务:
- 在蜂巢中的Maven。
- 提供Metastore升级脚本和默认模式为PostgreSQL的。
什么是0.7.0版本,新的:
- 新功能:
- 为配置单元授权基建
- 实施索引在蜂巢
- 添加反映()UDF的Java方法反射调用
- 在蜂巢所属类别/ ObjectInspector支持工会(除了结构,数组和地图)
- 实施GenericUDF str_to_map
- 修补程序,以支持具有蜂巢条款
- 在追踪这些被转换成地图,加入自动加入
- 呼叫频率和持续时间指标HiveMetaStore
- 在metastore维护的LastAccessTime
- 改进:
- 提供的选项导出一个头
- 支持不同的选择对两个或多个列
- 在描述扩展表/分区输出神秘
- 在缺少类似的getTables的基础上,列名了getColumns和HiveResultSet.get *方法一些JDBC功能。
- 从子进程攻丝日志
- 在针对非本地表支持过滤器下推
- 替换依赖于HBase的弃用API
- 添加queryid同时锁定
- 更新transident_lastDdlTime仅在未指定
- 添加更多的调试信息蜂巢锁定
- HiveInputFormat或CombineHiveInputFormat始终同步RCFile块两次
- 显示本地任务花费的时间
- 创建一个新的ZooKeeper实例时重试锁,并进行调试的详细信息
- 添加选项来运行任务以检查在非本地模式的地图加入的可能性
- 更多调试锁定
- 添加动态分区插入一个选项,抛出一个错误,如果创建0分区
- 错误:
- &QUOT; LOAD DATA LOCAL INPATH&QUOT;当表已经包含了同名的文件失败
- NULL不正确处理在加入
- HiveInputFormat.getInputFormatFromCache&QUOT;燕子&QUOT;原因异常抛出IOExcpetion时
- 添加进度的加入和GROUPBY
- 在1个多参数崩溃简单UDAFs的空行查询
- 在UDF场()无法正常工作
- 在左侧动态分区插入空未清洗Hadoop中的文件0.17本地模式
- 跳过计数器更新时RunningJob.getCounters()返回null
通过JMX
什么在0.5.0版本新:
- 在让用户指定为SERDE自定义脚本
- 添加UDF UNHEX。
- 从FileSinkOperator删除lzocodec进口。
- 在调用getResults时无需先编译驱动NullPointerException异常。
- 性能改善RCFile和ColumnarSerDe在蜂巢。
评论没有发现