译者注:本篇内容由MongoDB官方从’2020.12.23’开始更新,处于未完成的状态。
官方免责声明:这是一项正在进行的工作。它还没有完成,我们将尽力及时完成它。
总览
查询系统通常负责解释用户的请求,找到满足该请求的最佳方法,并实际计算出结果。它主要以‘find’和‘aggregate’命令的形式对外开放,但也用于例如‘count’,‘distinct’和‘mapReduce’的读取命令。
在这里,我们将其分为以下几个阶段和主题:
- 命令解析和验证:可以识别命令有哪些参数以及它们是否具有正确的类型?
- 查询语言解析和验证:更复杂的元素解析,如查询谓词和聚合管道,由于解析规则的复杂性,在第一部分中被跳过。
- 查询优化
- 规范化和重写:在尝试查看数据访问路径之前,需要对查询进行了一些简化、规范化和“标准化”(canonicalization)。
- 索引标记:找出哪些索引可能对哪些查询谓词有所帮助。
- 计划枚举:给定一组关联的索引和谓词,枚举整个查询树上所有可能的分配组合,并为每个查询树输出一个查询计划草稿。
- 计划编制:对于每个查询计划草稿,确定一些细节。选择索引范围,添加任何必要的排序,获取或投影阶段。
- 计划选择:在候选计划中进行比较并选择获胜者(最优计划)。
- 计划缓存:通过缓存以前的最优计划,尝试跳过上述昂贵的步骤。
- 查询执行:执行最优计划,并将得到的结果返回给客户端。
本文档会聚焦于单个节点或副本集中的流程,在这两类场景下,所有数据都可以在本地找到。我们计划稍后在src/mongo/s/query/目录中添加分片场景的文档。
解析命令和验证
以下命令通常由查询团队维护,我们主要关注前两个命令:
- find
- aggregate
- count
- distinct
- mapReduce
- update
- delete
- findAndModify
这些代码的每一个的代码路径均以命令开头,该命令的名称类似于MapReduceCommand或FindCmd。通常可以在src/mongo/db/commands/中找到它们。
第一轮解析是将命令分解成各个部分。值得注意的是,我们还没有尝试理解一些更复杂的参数的含义,这些参数通常被称为“MongoDB查询语言”或MQL。例如:find的“filter”,“projection”和“sort”参数,或者是“pipeline”参数中要聚合的各个阶段。相反,命令级别的解析只是将传入的BSON对象分割成一个C++结构体,并且每个参数单独存储为结构体的一个字段,从而使MQL元素暂时保持为未经检查的BSON对象。例如,从一个具有{filter: {$or: [{size: 5}, {size: 6}]}, skp:4, limit:5}的BSON对象转变成一个C++对象,该对象存储了filter,skip和limit作为成员变量。请注意,filter存储为一个BSONObj时我们尚不知道其内部有$or。对于命令解析过程,我们更喜欢使用接口定义语言(IDL)工具来生成解析器,并实际生成C++类本身。
接口定义语言
可以找到一些以’.idl’结尾的文件作为示例,其中的片段可能会像这样:
commands: count: description: "Parser for the 'count' command." command_name: count cpp_name: CountCommandRequest strict: true namespace: concatenate_with_db_or_uuid fields: query: description: "A query that selects which documents to count in the collection or view." type: object default: BSONObj() limit: description: "The maximum number of matching documents to count." type: countLimit optional: true
生成的文件将具有所有成员的get和set方法,并将为可选字段返回boost :: optional。在上面的示例中,它将生成一个CountCommandRequest::getQuery()以及其他方法。
在此阶段进行的其他操作
如前所述,MQL元素还未解析——其中的查询仍然是“object”,存储在BSON中,此时没有进行任何检查。
这就是下一阶段的工作——如何将MQL进行展开。在此之前,需要在这些结构上做一些重要的设置。
各种初始化和设置
在早期,我们会在OperationContext上设置上下文,例如请求的读关注(read concern)、读偏好(read preference)、maxTimeMs等。OperationContext在整个代码库中都是可以访问的,它作为全局变量提供这些特定于不同操作的设置信息。
同样,在命令实现的早期,我们还可以为操作获取相关的锁。我们通常使用一些辅助函数,例如,它所做的不仅仅是获取锁。例如 “AutoGetCollectionForReadCommand”,它还将确保针对我们的读关注语义进行了正确的设置,并将设置一些调试和诊断信息,这些信息可能会显示在“$currentOp”、日志和system.profile集合,“top”命令、“$collStats”以及其他一些命令的输出中。
一旦获得锁,我们就可以安全地访问集合的默认排序规则(collation),这有助于构建ExpressionContext。
可以将“ExpressionContext”视为查询系统版本的OperationContext。尽量不要在意这个名称,这个名字是历史遗留下来的,没有什么特别的帮助和描述性。以前它仅用于解析表达式,但是此后扩大了范围。也许“QueryContext”或类似的名字会更好。该对象存储了在查询的整个生命周期中可能有用的状态,但可能与其他任何操作都不相关。这包括排序规则,时区数据库以及各种随机布尔值和状态之类的内容。我们期望在解析请求的查询语言之前创建一个对应的ExpressionContext。需要这样做的最明显的原因是ExpressionContext维护了解析状态,如变量解析跟踪以及到目前为止达到的最大子管道深度。
权限检查
在许多但不是所有的情况下,我们现在已经解析了足够的内容来检查用户是否被允许执行这个请求。通常,只需要命令的类型(insert/query/update/delete/…)和命名空间(指“db.collection”)即可。对于mapReduce,我们还要考虑该命令是否会根据输出格式执行写操作。
一个更值得注意的例外是聚合(aggregate)命令,其中不同的阶段可以读取需要特殊权限的不同类型的数据。例如,具有$lookup或$currentOp的管道可能需要除了该命令执行所在的命名空间之外的其他权限。我们将此授权检查推迟进行,直到进一步解析到涉及哪些阶段的时候。这实际上是一种特殊情况,我们使用一个名为LiteParsedPipeline的类来处理这类需求以及其它类似的问题。
LiteParsedPipeline
类是仅进行了部分解析就构造出来的,它只弄清楚了聚合命令涉及哪些阶段。它是一个非常简单的聚合管道模型,构造起来比完整的解析更轻量。作为一般的经验法则,我们尝试避免执行昂贵的操作,直到确认用户具有执行这些事情所需的所有权限。
这个简单的模型可以在执行和构建用户查询或请求的完整模型之前,用来检查请求。其中有些部分进行了延迟处理,例如该模型尚未验证输入的格式是否正确,并且尚未解析该阶段的表达式或详细参数。可以参考LiteParsedPipeline的API来确认仅凭阶段名称和管道结构可以回答哪些类型的问题。
附加验证
在大多数情况下,IDL会负责此时所需的所有验证。但是,有些约束很难或无法通过IDL表达。例如,在findAndModify命令中同时指定remove:true和new:true是无效的。这会要求返回删除后的结果,然而删除后什么都没有。
非物化视图解析
我们有一个称为“非物化只读视图”的功能,这个功能允许用户在数据库中存储一个“视图”,该视图主要以只读集合的形式呈现,但实际上只是另一个集合中数据的不同视图。如果想要了解一些示例,请查阅我们的文档。在执行命令的过程中,首先要检查目标命名空间是否实际上是一个视图。如果是,则需要将查询重新定位到生成该视图的集合,并将任何生成视图的管道添加到查询谓词中。在某些情况下,这意味着查找命令将转变为聚合命令来运行,因为视图是根据聚合管道定义的。
查询语言解析和验证
在解析完命令并检查授权后,就可以继续解析查询的各个部分了。再一次,我们将重点放在find和aggregate命令上。
查找(Find)命令解析
find命令完全由IDL解析。IDL解析器首先创建一个FindCommandRequest。如上所述,IDL解析器执行所有必需的类型检查并存储查询的所有选项。然后,将FindCommandRequest转换为CanonicalQuery。 CanonicalQuery在解析排序规则和过滤器(filter)的同时,仅保留其余的IDL解析字段。排序规则的解析非常简单:对于允许包含在对象中的每个字段,我们都会检查该字段,然后从解析的字段构建排序规则。
建立CanonicalQuery时,我们还会解析filter参数。过滤器由一个或多个MatchExpression组成,这些MatchExpression使用手写代码进行递归解析。解析器从过滤器BSON对象构建一个MatchExpressions
树。解析器同时执行一些验证——例如,类型验证和检查表达式参数的个数都在这里完成。
聚合(Aggredate)命令解析
LiteParsedPipeline阶梯
在解析聚合的过程中,我们创建了管道的两个版本:LiteParsedPipeline(包含LiteParsedDocumentSource对象)和最终用于执行的Pipeline(包含DocumentSource对象)。有关更多详细信息,请参见以上有关【权限检查】的部分。
DocumentSource文档源
在讨论整个聚合命令之前,我们将首先简要讨论DocumentSource的概念。 DocumentSource代表聚合管道中的一个阶段。对于管道中的每个阶段,我们都会创建一个DocumentSource。 DocumentSource要么代表用户管道中的一个阶段,要么代表一个面向用户的别名生成阶段,但其与用户管道的关系并不总是一一对应的。例如,用户管道中的$bucket会被改写为$group+$group两个阶段,而用户指定的$group将保留为DocumentSourceGroup。每个DocumentSource都有自己的解析器,该解析器执行其内部字段和参数的验证,然后生成被添加到最终管道的DocumentSource对象。
(译者注:熟悉Linux的人可以将这里的聚合命令Pipeline与管道操作符类比,核心思想是一样的,每个stage只需要关注自己那小部分功能)
Pipeline管道
pipeline解析器使用每一个DocumentSource对象的解析器来解析aggregate命令的整个管道参数。解析过程非常简单:对于用户指定的管道中的每个对象,请在DocumentSource解析器中查找阶段名称,然后使用对应的解析器来解析对象。最终管道由各个解析器生成的DocumentSources组成。
Aggregation Command聚合命令
当聚合运行时,发生的第一件事是将请求解析为LiteParsedPipeline。如上所述,LiteParsedPipeline用于检查命名空间上的选项以及权限。除了由LiteParsedPipeline执行的检查之外,还会执行更多检查,但下一个解析步骤是在所有这些都完成后进行的。接下来,使用上面提到的DocumentSource解析器将BSON对象再次解析到管道中。注意,我们使用原始的BSON来解析管道和DocumentSources,而不是从LiteParsedPipeline的结果继续(译者注:也就是并不像Linux的管道操作符那样前一阶段的输出是后一阶段的输入)。这一点可以在将来加以改进。
其他命令解析
如上所述,还有其他几个由查询团队维护的命令。我们将快速地对每个命令的解析方式进行总结,但不会深入到同样的细节。
- count:先由IDL解析,然后转换为CountStage,可以按照与find命令类似的方式执行该操作。
- distinct:由IDL解析特定参数,以及自定义代码解析通用命令参数。然后,将它们组合成一个规范化的FindCommandRequest(前文提到过),打包为ParsedDistinct,然后将其转换为可执行的阶段。
- mapReduce:先由IDL解析,然后转换为等效的聚合命令。
- update:由IDL解析。更新命令可以同时包含查询(查找)和管道语法(用于更新),它们分别被委派给各自的解析器。
- delete:由IDL解析。delete命令的过滤器部分委托给find解析器。
- findAndModify:由IDL解析。findAndModify 命令可以包含查找和更新语法。查询部分被委派给查询解析器,如果这是更新(而不是删除),它将使用与update命令相同的解析器。
注:更多内容待更新
原文链接:
https://github.com/mongodb/mongo/blob/master/src/mongo/db/query/README.md
译者:phoenix MongoDB中文社区翻译小组成员
坐标深圳的程序猿一枚,后台开发。工作中经常接触MongoDB,请多指教~
评论前必须登录!
注册