|
- HBase 和 Hive 的差别是什么,各自适用在什么场景中? - 知乎
1 Hive中的表是纯逻辑表,就只是表的定义等,即表的元数据。 Hive本身不存储数据,它完全依赖HDFS和MapReduce。 这样就可以将结构化的数据文件映射为为一张数据库表,并提供完整的SQL查询功能,并将SQL语句最终转换为MapReduce任务进行运行。
- hive到底是什么?做什么用的?在hadoop生态圈中到底是个什么角色? - 知乎
Hive用于海量数据的离线数据分析。Hive具有sql数据库的外表,但应用场景完全不同,Hive只适合用来做批量数据统计分析。 (2)Hive的优势 Hive利用HDFS存储数据,利用MapReduce查询分析数据。因为直接使用Hadoop MapReduce处理数据,会面临人员学习成本太高的问题,而且MapReduce实现复杂查询逻辑开发难度太
- Hive 的安装与部署怎么做? - 知乎
3)Hive的执行延迟比较高,因此Hive常用于数据分析,对实时性要求不高的场合。 4)Hive优势在于处理大数据,对于处理小数据没有优势,因为Hive的执行延迟比较高。
- HIVE 常用函数总结 - 知乎
1、Hive函数介绍以及内置函数查看 内容较多,见《Hive官方文档》
- 如何使用 Hive 进行大数据分析? - 知乎
我们将使用 Hive 完成以下几项任务: 创建 Hive 表,并将原始数据导入到 Hive 表中。 使用 HiveQL 执行数据清洗、聚合操作,获取销售统计信息。 使用 HiveQL 对电商平台的销售数据进行分析,输出结果。 二、环境搭建 2 1 安装 Hive 和 Hadoop
- jdbc连接hive并认证kerberos,url中principal后跟的是什么? - 知乎
Principal:大致可以认为是 Kerberos 世界的用户名,用于标识身份。 principal 主要由三部分构成:primary,instance(可选) 和 realm。 包含 instance 的principal,一般会作为server端的principal,如:NameNode,HiverServer2,Presto Coordinator等;不含有 instance 的principal,一般会作为 客户端的principal,用于身份认证。
- 请问spark和hive是什么关系? - 知乎
再来看看hive。 hive 官网有描述,“Apache Hive data warehouse software facilitates reading, writing, and managing large datasets residing in distributed storage using SQL ”,hive的定位是数据仓库,其提供了通过 sql 读写和管理分布式存储中的大规模的数据,即 hive即负责数据的存储和管理(其实依赖的是底层的hdfs文件系统或s3等
- 现在还用hive作为大数据的计算引擎吗? - 知乎
从计算效率上来说,当然建议用Spark取代Hive进行计算,hive的本质还是MapReduce运算,这在今天来看已经很老旧了,效率还很低,Spark的RDD运算毫无疑问是更好的选择。但是,技术升级都是有成本的,有很多公司跑了好几年的hive了,运行稳定,就不愿意冒风险去做底层上面的大变更。如果你这边Hive SQL
|
|
|