Presto
Facebook拥有世界上最大的数据仓库之一,这些数据被一系列不同种类的程序所使用,包括传统的数据批处理程序、基于图论的数据分析、机器学习、和实时性的数据分析。在以前,Facebook的科学家和分析师一直依靠Hive来做数据分析。但Hive使用MapReduce作为底层计算框架,是专为批处理设计的。但随着数据越来越多,使用Hive进行一个简单的数据查询可能要花费几分到几小时,显然不能满足交互式查询的需求。Facebook也调研了其他比Hive更快的工具,但它们要么在功能有所限制要么就太简单,以至于无法操作Facebook庞大的数据仓库。2012年开始试用的一些外部项目都不合适,他们决定自己开发,这就是Presto,2013年Facebook正式宣布开源Presto。
Presto主要以Java开发,被设计为用来专门进行高速、实时的数据分析。它支持标准的ANSI SQL,包括复杂查询、聚合(aggregation)、连接(join)和窗口函数(window functions)。在支持基础的对于HDFS的查询之外,Presto还支持对于异构数据库的查询,建立统一的抽象屏蔽层,保证了用户以通用的SQL语法能够忽略底层数据库差异进行统一查询。
架构
Presto查询引擎是一个
Master-Slave的架构,由一个
Coordinator节点,一个
Discovery Server节点,多个
Worker节点组成,
Discovery Server通常内嵌于
Coordinator节点中。
Coordinator负责解析
SQL语句,生成执行计划,分发执行任务给
Worker节点执行。
Worker节点负责实际执行查询任务。
Worker节点启动后向
Discovery Server服务注册,
Coordinator从
Discovery Server获得可以正常工作的
Worker节点。如果配置了
Hive Connector,需要配置一个
Hive MetaStore服务为
Presto提供
Hive元信息,
Worker节点与
HDFS交互读取数据。
Presto的运行模型和Hive或MapReduce有着本质的区别。Hive将查询翻译成多阶段的MapReduce任务,一个接着一个地运行。每一个任务从磁盘上读取输入数据并且将中间结果输出到磁盘上。然而Presto引擎没有使用MapReduce。为支持SQL语法,它实现了一个定制的查询、执行引擎和操作符。除了改进的调度算法之外,所有的数据处理都是在内存中进行的。不同的处理端通过网络组成处理的流水线。这样会避免不必要的磁盘读写和额外的延迟。这种流水线式的执行模型会在同一时间运行多个数据处理段,一旦数据可用的时候就会将数据从一个处理段传入到下一个处理段。这样的方式会大大的减少各种查询的端到端延迟。Presto动态编译部分查询计划为字节码,使得JVM能够优化并生成本地机器码。在扩展性方面,Presto只设计了一种简单的存储抽象,使得能够在多种数据源上进行SQL查询。连接器只需要提供获取元数据的接口,获得数据地址后自动访问数据。
部署
安装
环境配置
节点属性
JVM
日志
连接配置
运行
交互
命令行
JDBC Driver
WebUI