Trino源码学习-内存管理
Trino中的内存管理分为两块:
- LocalMemoryManager: 在ServerMainModule中声明,用于管理当前节点的内存使用
- ClusterMemoryManager: 在CoordinatorModule中声明,用于管理集群的内存使用
Trino中的内存管理分为两块:
最近在日志中常常看到HikariCP的warnning.
1 | Failed to validate connection com.mysql.jdbc.JDBC4Connection@xxxxx (...)Possibly consider using a shorter maxLifetime value. |
HikariCP相关配置
mysql相关配置
show variables like 'wait_timeout%'
可以查询该配置值。通过对上面配置的了解,结合日志告警,应该是maxLifeTime设置的过长了。导致池中存在已经被close的连接。所以maxLifeTime要小于空闲连接的回收时长(例如 mysql的wait_timeout )。
注意, 应用和数据库中间可能存在HA和DB proxy,maxLifeTime也需要考虑中间链接的空闲超时。
我们生活在分布式计算的黄金时代。公有云平台几乎能够按需提供无限的计算和存储资源。同时,SaaS模型(Software-as-a-Service)将企业级系统带给了无法负担成本和相关系统复杂性的用户。传统的数仓系统正在努力的适应新的环境,但是首先,它是为固定资源而设计,从而没办法利用云的弹性能力。另外,传统的数仓依赖复杂的ETL流水线和物理调优,这个是和云的半结构数据和快速解决工作问题的新形式所需要的弹性和快速不一致的。
我们决定进行根本性的重新设计。我们的任务是去建立云上的企业级数据仓库的解决方案。就是Snowflake弹性数据仓库,简称Snowflake。Snowflake是一种多租户、事务性、安全、高度可扩展的弹性系统,具备完整的SQL支持和半结构化和schema-less数据模式支持。Snowflake在亚马逊云上提供现付即用的服务。用户只需将数据导入云上,就可以立即利用他们熟悉的工具和界面进行管理和查询。从2012年底,Snowflake开始计划实施,到2015年6月,Snowflake已经可以大体可用。现在,Snowflake被越来越多的大大小小的组织用于生产。这个系统每天运行几百万次查询在几PB的数据上。
本文主要介绍Snowflake的设计、多集群共享数据的结构和Snowflake的关键特性:极致的弹性和可用性、半结构化和schema-less的数据支持、时间旅行、端到端的安全性,最后是一些经验总结和对未来工作的展望。
Trino在查询提交时,会将SQL文本解析成语法树。Trino将这一动作分为2个部分:
flowchart LR s1(SQL)-->|Parser base Antlr|s2(ANTLR AST) s2-->|AST builder base Antlr Visitor|s3(Presto AST)
Antlr的使用在Trino中就不多做介绍了,简单来说,Antlr基于类似巴斯卡范式(BNF)的语法规则和词法规则文件,动态生成Parser和Lexer。
在Trino项目中,该文件位于
core/trino-parser/src/main/antlr4/io/trino/sql/parser/SqlBase.g4
通过使用Antlr的mave插件,在generate source阶段,会动态生成SqlBaseLexer和SqlBaseParser
core/trino-parser/target/generated-sources/antlr4/io/trino/sql/parser/
目录下trino在实际使用过程中并没有直接使用Antlr的Parser,而是统一使用门面类SqlParser用于执行语法解析。SqlParser的解析方法内部都是通过调用invokeParser来实现的。
1 | private Node invokeParser(String name, String sql, Function<SqlBaseParser, ParserRuleContext> parseFunction, ParsingOptions parsingOptions) |
Presto 自定义的语法节点类存放在core/trino-parser/src/main/java/io/trino/sql/tree
包下。
antlr内存泄漏问题,详细内容可见 AntlrV4 的内存泄漏问题
本篇来看下在查询执行的过程中,底层的数据结构是什么样的。
Guice是一个轻量级依赖注入框架。关于什么是依赖注入可以查看以前的blog,这里就不赘述了。