diff --git a/tiflash/create-tiflash-replicas.md b/tiflash/create-tiflash-replicas.md index 115e5d9e314d..6485f2b9bab2 100644 --- a/tiflash/create-tiflash-replicas.md +++ b/tiflash/create-tiflash-replicas.md @@ -154,12 +154,19 @@ SELECT TABLE_NAME FROM information_schema.tables where TABLE_SCHEMA = " > tiup ctl:v8.5.0 pd -u http://192.168.1.4:2379 store limit all engine tiflash 60 add-peer > ``` + 如果集群中已经有比较大量的 Region 存在旧的 TiFlash 节点,需要将 Region 从旧的 TiFlash 节点均衡到新的 TiFlash 节点,则需要同时修改 remove-peer 的限制。 + + ```shell + tiup ctl:v pd -u http://:2379 store limit all engine tiflash 60 remove-peer + ``` + 执行完毕后,几分钟内,你将观察到 TiFlash 节点的 CPU 及磁盘 IO 资源占用显著提升,TiFlash 将更快地创建副本。同时,TiKV 节点的 CPU 及磁盘 IO 资源占用也将有所上升。 - 如果此时 TiKV 及 TiFlash 节点的资源仍有富余,且线上业务的延迟没有显著上升,则可以考虑进一步放开调度速度,例如将新增副本的速度增加为原来的 3 倍: + 如果此时 TiKV 及 TiFlash 节点的资源仍有富余,且线上业务的延迟没有显著上升,则可以考虑进一步放开调度速度,例如将副本调度的速度增加为原来的 3 倍: ```shell tiup ctl:v pd -u http://:2379 store limit all engine tiflash 90 add-peer + tiup ctl:v pd -u http://:2379 store limit all engine tiflash 90 remove-peer ``` 3. 在副本同步完毕后,恢复到默认配置,减少在线业务受到的影响。 @@ -168,6 +175,7 @@ SELECT TABLE_NAME FROM information_schema.tables where TABLE_SCHEMA = " ```shell tiup ctl:v pd -u http://:2379 store limit all engine tiflash 30 add-peer + tiup ctl:v pd -u http://:2379 store limit all engine tiflash 30 remove-peer ``` 执行以下 SQL 语句可恢复默认的数据快照写入速度: diff --git a/tiflash/tiflash-configuration.md b/tiflash/tiflash-configuration.md index 42ad422479ed..c69402c5d318 100644 --- a/tiflash/tiflash-configuration.md +++ b/tiflash/tiflash-configuration.md @@ -1,33 +1,13 @@ --- title: TiFlash 配置参数 aliases: ['/docs-cn/dev/tiflash/tiflash-configuration/','/docs-cn/dev/reference/tiflash/configuration/'] -summary: TiFlash 配置参数包括 PD 调度参数和 TiFlash 配置参数。PD 调度参数可通过 pd-ctl 调整,包括 replica-schedule-limit 和 store-balance-rate。TiFlash 配置参数包括 tiflash.toml 和 tiflash-learner.toml,用于配置 TiFlash TCP/HTTP 服务的监听和存储路径。另外,通过拓扑 label 进行副本调度和多盘部署也是可行的。 +summary: TiFlash 配置参数。TiFlash 配置参数包括 tiflash.toml 和 tiflash-learner.toml,用于配置 TiFlash TCP/HTTP 服务的监听和存储路径。另外,通过拓扑 label 进行副本调度和多盘部署也是可行的。 --- # TiFlash 配置参数 本文介绍了与部署使用 TiFlash 相关的配置参数。 -## PD 调度参数 - -可通过 [pd-ctl](/pd-control.md) 调整参数。如果你使用 TiUP 部署,可以用 `tiup ctl:v pd` 代替 `pd-ctl -u ` 命令。 - -- [`replica-schedule-limit`](/pd-configuration-file.md#replica-schedule-limit):用来控制 replica 相关 operator 的产生速度(涉及到下线、补副本的操作都与该参数有关) - - > **注意:** - > - > 不要超过 `region-schedule-limit`,否则会影响正常 TiKV 之间的 Region 调度。 - -- `store-balance-rate`:用于限制每个 TiKV store 或 TiFlash store 的 Region 调度速度。注意这个参数只对新加入集群的 store 有效,如果想立刻生效请用下面的方式。 - - > **注意:** - > - > 4.0.2 版本之后(包括 4.0.2 版本)废弃了 `store-balance-rate` 参数且 `store limit` 命令有部分变化。该命令变化的细节请参考 [store-limit 文档](/configure-store-limit.md)。 - - - 使用 `pd-ctl -u store limit ` 命令单独设置某个 store 的 Region 调度速度。(`store_id` 可通过 `pd-ctl -u store` 命令获得)如果没有单独设置,则继承 `store-balance-rate` 的设置。你也可以使用 `pd-ctl -u store limit` 命令查看当前设置值。 - -- [`replication.location-labels`](/pd-configuration-file.md#location-labels):用来表示 TiKV 实例的拓扑关系,其中 key 的顺序代表了不同标签的层次关系。在 TiFlash 开启的情况下需要使用 [`pd-ctl config placement-rules`](/pd-control.md#config-show--set-option-value--placement-rules) 来设置默认值,详细可参考 [geo-distributed-deployment-topology](/geo-distributed-deployment-topology.md)。 - ## TiFlash 配置参数 > **Tip:** @@ -379,8 +359,8 @@ I/O 限流功能相关配置。 - 所有查询过程中,节点对中间数据的内存限制。 - 设置为整数时,单位为 byte,比如 `34359738368` 表示 32 GiB 的内存限制,`0` 表示无限制。 -- 设置为 `[0.0, 1.0)` 之间的浮点数时,指节点总内存的比值,比如 `0.8` 表示总内存的 80%,`0.0` 表示无限制。 -- 当查询试图申请超过限制的内存时,查询终止执行并且报错 +- 从 v6.6.0 开始支持设置为 `[0.0, 1.0)` 之间的浮点数。当设置为浮点数时,该值指节点总内存的比值,比如 `0.8` 表示总内存的 80%,`0.0` 表示无限制。 +- 当查询试图申请超过限制的内存时,查询终止执行并且报错。 - 默认值:`0.8`,表示总内存的 80% ##### `cop_pool_size` 从 v5.0 版本开始引入 @@ -589,27 +569,18 @@ I/O 限流功能相关配置。 - 指定轮换新主密钥时的旧主密钥。旧主密钥的配置格式与主密钥相同。若要了解如何配置主密钥,可以参考[静态加密 - 配置加密](/encryption-at-rest.md#配置加密)。 -### 通过拓扑 label 进行副本调度 +#### server + +##### `labels` -[TiFlash 设置可用区](/tiflash/create-tiflash-replicas.md#设置可用区) +- 指定服务器属性,例如 `{ zone = "us-west-1", disk = "ssd" }`。可以参考 [TiFlash 设置可用区](/tiflash/create-tiflash-replicas.md#设置可用区) 了解如何通过 label 进行副本调度。 +- 默认值:`{}` ### 多盘部署 TiFlash 支持单节点多盘部署。如果你的部署节点上有多块硬盘,可以通过以下的方式配置参数,提高节点的硬盘 I/O 利用率。TiUP 中参数配置格式参照[详细 TiFlash 配置模版](/tiflash-deployment-topology.md#拓扑模版)。 -#### TiDB 集群版本低于 v4.0.9 - -TiDB v4.0.9 之前的版本中,TiFlash 只支持将存储引擎中的主要数据分布在多盘上。通过 `path`(TiUP 中为 `data_dir`)和 `path_realtime_mode` 这两个参数配置多盘部署。 - -多个数据存储目录在 `path` 中以英文逗号分隔,比如 `/nvme_ssd_a/data/tiflash,/sata_ssd_b/data/tiflash,/sata_ssd_c/data/tiflash`。如果你的节点上有多块硬盘,推荐把性能最好的硬盘目录放在最前面,以更好地利用节点性能。 - -如果节点上有多块相同规格的硬盘,可以把 `path_realtime_mode` 参数留空(或者把该值明确地设为 `false`)。这表示数据会在所有的存储目录之间进行均衡。但由于最新的数据仍然只会被写入到第一个目录,因此该目录所在的硬盘会较其他硬盘繁忙。 - -如果节点上有多块规格不一致的硬盘,推荐把 `path_relatime_mode` 参数设置为 `true`,并且把性能最好的硬盘目录放在 `path` 参数内的最前面。这表示第一个目录只会存放最新数据,较旧的数据会在其他目录之间进行均衡。注意此情况下,第一个目录规划的容量大小需要占总容量的约 10%。 - -#### TiDB 集群版本为 v4.0.9 及以上 - -TiDB v4.0.9 及之后的版本中,TiFlash 支持将存储引擎的主要数据和新数据都分布在多盘上。多盘部署时,推荐使用 `[storage]` 中的参数,以更好地利用节点的 I/O 性能。但 TiFlash 仍然支持 [TiDB 集群版本低于 v4.0.9](#tidb-集群版本低于-v409) 中的参数。 +TiDB v4.0.9 及之后的版本中,TiFlash 支持将存储引擎的主要数据和新数据都分布在多盘上。多盘部署时,推荐使用 `[storage]` 中的参数,以更好地利用节点的 I/O 性能。 如果节点上有多块相同规格的硬盘,推荐把硬盘目录填到 `storage.main.dir` 列表中,`storage.latest.dir` 列表留空。TiFlash 会在所有存储目录之间分摊 I/O 压力以及进行数据均衡。 diff --git a/tiflash/troubleshoot-tiflash.md b/tiflash/troubleshoot-tiflash.md index 16b0c54478e0..1b860c11c5ef 100644 --- a/tiflash/troubleshoot-tiflash.md +++ b/tiflash/troubleshoot-tiflash.md @@ -32,47 +32,13 @@ aliases: ['/docs-cn/dev/tiflash/troubleshoot-tiflash/','/docs-cn/dev/tiflash/tif 3. 使用 PD Control 工具检查在该节点(相同 IP 和 Port)是否有之前未成功下线的 TiFlash 实例,并将它们强制下线。(下线步骤参考[手动缩容 TiFlash 节点](/scale-tidb-using-tiup.md#方案二手动缩容-tiflash-节点)) -如果遇到上述方法无法解决的问题,可以打包 TiFlash 的 log 文件夹,并在 [AskTUG](http://asktug.com) 社区中提问。 +4. 检查系统 CPU 是否支持 SIMD 指令集 -## TiFlash 副本始终处于不可用状态 - -该问题一般由于配置错误或者环境问题导致 TiFlash 处于异常状态,可以先通过以下步骤定位问题组件: - -1. 使用 pd-ctl 检查 PD 的 [Placement Rules](/configure-placement-rules.md) 功能是否开启: - - {{< copyable "shell-regular" >}} - - ```shell - echo 'config show replication' | /path/to/pd-ctl -u http://${pd-ip}:${pd-port} - ``` - - - 如果返回 `true`,进入下一步。 - - 如果返回 `false`,你需要先[开启 Placement Rules 特性](/configure-placement-rules.md#开启-placement-rules-特性) 后再进入下一步。 - -2. 通过 TiFlash-Summary 监控面板下的 UpTime 检查操作系统中 TiFlash 进程是否正常。 - -3. 通过 pd-ctl 查看 TiFlash proxy 状态是否正常: + 自 v6.3 版本开始,在 Linux AMD64 架构的硬件平台部署 TiFlash 时,CPU 必须支持 AVX2 指令集。确保命令 `grep avx2 /proc/cpuinfo` 有输出。而在 Linux ARM64 架构的硬件平台部署 TiFlash 时,CPU 必须支持 ARMv8 架构。确保命令 `grep 'crc32' /proc/cpuinfo | grep 'asimd'` 有输出。 - ```shell - tiup ctl:nightly pd -u http://${pd-ip}:${pd-port} store - ``` + 如果在虚拟机上部署时遇到此问题,尝试将虚拟机的 CPU 架构改成 "Haswell" 后重新部署 TiFlash。 - store.labels 中含有 `{"key": "engine", "value": "tiflash"}` 信息的为 TiFlash proxy。 - -4. 检查 TiFlash 配置的副本数是否小于等于集群 TiKV 节点数。若配置的副本数超过 TiKV 节点数,则 PD 不会向 TiFlash 同步数据: - - ```shell - tiup ctl:nightly pd -u http://${pd-ip}:${pd-port} config placement-rules show | grep -C 10 default - ``` - - 再确认 "default: count" 参数值。 - - > **注意:** - > - > - 开启 [Placement Rules](/configure-placement-rules.md) 且存在多条 rule 的情况下,原先的 [`max-replicas`](/pd-configuration-file.md#max-replicas)、[`location-labels`](/pd-configuration-file.md#location-labels) 及 [`isolation-level`](/pd-configuration-file.md#isolation-level) 配置项将不再生效。如果需要调整副本策略,应当使用 Placement Rules 相关接口。 - > - 开启 [Placement Rules](/configure-placement-rules.md) 且只存在一条默认的 rule 的情况下,当改变 `max-replicas`、`location-labels` 或 `isolation-level` 配置项时,系统会自动更新这条默认的 rule。 - -5. 检查 TiFlash 节点对应 store 所在机器剩余的磁盘空间是否充足。默认情况下当磁盘剩余空间小于该 store 的 capacity 的 20%(通过 [`low-space-ratio`](/pd-configuration-file.md#low-space-ratio) 参数控制)时,PD 不会向 TiFlash 调度数据。 +如果遇到上述方法无法解决的问题,请从 PingCAP 官方或 TiDB 社区[获取支持](/support.md)。 ## 部分查询返回 Region Unavailable 的错误 @@ -166,49 +132,49 @@ show warnings; ``` +---------+------+-----------------------------------------------------------------------------+ -> | Level | Code | Message | +| Level | Code | Message | +---------+------+-----------------------------------------------------------------------------+ | Warning | 1105 | Scalar function 'subtime'(signature: SubDatetimeAndString, return type: datetime) is not supported to push down to tiflash now. | +---------+------+-----------------------------------------------------------------------------+ ``` -## TiFlash 数据不同步 - -在部署完 TiFlash 节点且进行了数据的同步操作(ALTER 操作)之后,如果实际没有数据同步到 TiFlash 节点,你可以通过以下步骤确认或解决问题: +## TiFlash 副本始终处于不可用状态 -1. 检查同步操作是否执行。 +如果 TiFlash 副本始终无法创建成功,或者一开始可以正常同步,过一段时间后全部或者部分数据无法继续同步。你可以通过以下步骤排查或解决问题: - 执行 `ALTER table set tiflash replica ` 操作,查看是否有正常返回: +1. 检查 PD 的 [Placement Rules](/configure-placement-rules.md) 功能是否开启,该功能在 TiDB v5.0 及以上的版本中默认开启: - - 如果有正常返回,进入下一步。 - - 如果无正常返回,请执行 `SELECT * FROM information_schema.tiflash_replica` 检查是否已经创建 TiFlash replica。如果没有,请重新执行 `ALTER table ${tbl_name} set tiflash replica ${num}`,查看是否有其他执行语句(如 `add index` ),或者检查 DDL 操作是否正常。 - -2. 检查 TiFlash Region 同步是否正常。 + {{< copyable "shell-regular" >}} - 查看 `progress` 是否有变化: + ```shell + echo 'config show replication' | /path/to/pd-ctl -u http://${pd-ip}:${pd-port} + ``` - - 如果有变化,说明 TiFlash 同步正常,进入下一步。 - - 如果没有变化,说明 TiFlash 同步异常,在 `tidb.log` 中,搜索 `Tiflash replica is not available` 相关日志。检查对应表的 `progress` 是否更新。如果无更新,请检查 `tiflash log` 来获取更多信息。例如,在 `tiflash log` 中搜索 `lag_region_info` 来判断同步落后的 Region。 + - 如果返回 `true`,进入下一步。 + - 如果返回 `false`,你需要先[开启 Placement Rules 特性](/configure-placement-rules.md#开启-placement-rules-特性) 后再进入下一步。 -3. 使用 pd-ctl 检查 PD 的 [Placement Rules](/configure-placement-rules.md) 功能是否开启: +2. 通过 TiFlash-Summary 监控面板下的 UpTime 检查操作系统中 TiFlash 进程是否正常。 - {{< copyable "shell-regular" >}} +3. 查看 PD 与 TiFlash 之间连接状态是否正常: ```shell - echo 'config show replication' | /path/to/pd-ctl -u http://: + tiup ctl:nightly pd -u http://${pd-ip}:${pd-port} store ``` - - 如果返回 `true`,进入下一步。 - - 如果返回 `false`,你需要先[开启 Placement Rules 特性](/configure-placement-rules.md#开启-placement-rules-特性),然后进入下一步。 + store.labels 中含有 `{"key": "engine", "value": "tiflash"}` 信息的为 TiFlash。 + +4. 检查集群 Placement Rule 中 id 为 `default` Rule 的 `count` 配置是否合理: -4. 检查集群副本数 `max-replicas` 配置是否合理。 + ```shell + tiup ctl:nightly pd -u http://${pd-ip}:${pd-port} config placement-rules show | grep -C 10 default + ``` - - 如果 `max-replicas` 取值未超过 TiKV 节点数,进入下一步。 - - 如果 `max-replicas` 超过 TiKV 节点数,PD 不会向 TiFlash 同步数据。此时,请将 `max-replicas` 修改为小于等于 TiKV 节点数的整数。 + - 如果 `count` 取值未超过 TiKV 节点数,进入下一步。 + - 如果 `count` 超过 TiKV 节点数(例如某些测试集群中只有 1 个 TiKV 节点,但是 count 值为 3),PD 不会向 TiFlash 调度 Region。此时,请参考 [使用 pd-ctl 设置规则](/configure-placement-rules.md#使用-pd-ctl-设置规则) 将 `count` 修改为小于等于 TiKV 节点数的整数。 > **注意:** > - > `max-replicas` 的默认值是 3。在生产环境中,TiKV 节点数一般大于该值;在测试环境中,可以修改为 1。 + > `count` 的默认值是 3。在生产环境中,TiKV 节点数一般大于该值;在测试环境中,可以修改为 1。 {{< copyable "shell-regular" >}} @@ -227,45 +193,78 @@ show warnings; }' ``` -5. 检查 TiDB 是否为表创建 Placement rule。 +5. 检查 TiFlash 节点所在机器剩余的磁盘空间比例是否高于 [`low-space-ratio`](/pd-configuration-file.md#low-space-ratio) 的值。默认值 0.8,即当节点的使用空间占比超过 capacity 的 80%时,为避免磁盘空间被耗尽,PD 会尽可能避免往该节点迁移数据。如果所有 TiFlash 节点的剩余空间都不足,则会导致 PD 不往 TiFlash 调度新的 Region peer,导致副本始终处于不可用状态,即 progress < 1。 - 搜索 TiDB DDL Owner 的日志,检查 TiDB 是否通知 PD 添加 Placement rule。对于非分区表搜索 `ConfigureTiFlashPDForTable`;对于分区表,搜索 `ConfigureTiFlashPDForPartitions`。 + - 如果磁盘使用率大于等于 `low-space-ratio`,说明磁盘空间不足。此时可以采取以下一个或多个措施: - - 有关键字,进入下一步。 - - 没有关键字,收集相关组件的日志进行排查。 + - 修改 `low-space-ratio` 的值,让 PD 恢复向 TiFlash 节点调度 Region。 -6. 检查 PD 是否为表设置 Placement rule。 + ``` + tiup ctl:nightly pd -u http://${pd-ip}:${pd-port} config set low-space-ratio 0.9 + ``` - 可以通过 `curl http://:/pd/api/v1/config/rules/group/tiflash` 查询比较当前 PD 上的所有 TiFlash 的 Placement rule。如果观察到有 id 为 `table--r` 的 Rule,则表示 PD rule 设置成功。 + - 扩容 TiFlash 节点,PD 会平衡各个 TiFlash 节点间的数据,并恢复调度 Region 到空闲的 TiFlash 节点。 -7. 检查 PD 是否正常发起调度。 + - 删除 TiFlash 节点磁盘中不必要的文件,如 `${data}/flash/` 目录下的 `space_placeholder_file` 文件。必要时可同时将 tiflash-learner.toml 的 `storage.reserve-space` 设置为 `0MB`,临时让 TiFlash 恢复服务。 - 查看 `pd.log` 日志是否出现 `table--r` 关键字,且之后是否出现 `add operator` 之类的调度行为。 + - 如果磁盘使用率小于 `low-space-ratio`,说明磁盘空间正常,进入下一步。 - - 是,PD 调度正常。 - - 否,PD 调度异常。 +6. 检查是否有 `down peer`。 `down peer` 没有清理干净可能会导致同步卡住。 -## TiFlash 数据同步卡住 + - 执行 `pd-ctl region check-down-peer` 命令检查是否有 `down peer`。 + - 如果存在 `down peer`,执行 `pd-ctl operator add remove-peer ` 命令将其清除。 -如果 TiFlash 数据一开始可以正常同步,过一段时间后全部或者部分数据无法继续同步,你可以通过以下步骤确认或解决问题: +7. 如果上述配置、TiFlash 状态都不存在异常,请按照下面 "TiFlash 数据不同步" 排查哪个组件或数据同步环节出现异常。 -1. 检查磁盘空间。 +## TiFlash 数据不同步 - 检查磁盘使用空间比例是否高于 `low-space-ratio` 的值(默认值 0.8,即当节点的空间占用比例超过 80% 时,为避免磁盘空间被耗尽,PD 会尽可能避免往该节点迁移数据)。 +在部署完 TiFlash 节点且进行了数据的同步操作(`ALTER TABLE ... SET TIFLASH REPLICA ...`)之后,如果实际没有数据同步到 TiFlash 节点,你可以通过以下步骤排查或解决问题: - - 如果磁盘使用率大于等于 `low-space-ratio`,说明磁盘空间不足。此时,请删除不必要的文件,如 `${data}/flash/` 目录下的 `space_placeholder_file` 文件(必要时可在删除文件后将 `reserve-space` 设置为 0MB)。 - - 如果磁盘使用率小于 `low-space-ratio`,说明磁盘空间正常,进入下一步。 +1. 检查同步操作是否能正常执行。 -2. 检查是否有 `down peer` (`down peer` 没有清理干净可能会导致同步卡住)。 + 执行 `ALTER table set tiflash replica ` 操作,查看是否有正常返回: - - 执行 `pd-ctl region check-down-peer` 命令检查是否有 `down peer`。 - - 如果存在 `down peer`,执行 `pd-ctl operator add remove-peer ` 命令将其清除。 + - 如果有正常返回,进入下一步。 + - 如果无正常返回,请执行 `SELECT * FROM information_schema.tiflash_replica` 检查是否已经创建 TiFlash replica。如果没有,请重新执行 `ALTER table ${tbl_name} set tiflash replica ${num}`。 + - 通过 [ADMIN SHOW DDL](/sql-statements/sql-statement-show-processlist.md) 检查 DDL 操作是否正常。查看是否有其他 DDL 语句(如 `add index`)阻塞修改 TiFlash 副本的操作。 + - 通过 [SHOW PROCESSLIST](/sql-statements/sql-statement-show-processlist.md) 检查是否有 DML 语句在执行,阻塞修改 TiFlash 副本的操作。 + - 如果上述情况都没有,进入下一步。 + +2. 检查 TiFlash Region 同步是否正常。 + + 查看 `progress` 是否有变化: + + - 如果有变化,说明 TiFlash 同步正常,可能只是同步速度较慢,参考[数据同步慢](/tiflash/troubleshoot-tiflash.md#数据同步慢)进行调整。 + - 如果没有变化,说明 TiFlash 同步异常,在 `tidb.log` 中,搜索 `Tiflash replica is not available` 相关日志。检查对应表的 `progress` 是否更新。如果无更新,请进入下一步。 + +3. 检查 TiDB 是否成功为表创建 Placement rule。 + + 搜索 TiDB DDL Owner 的日志,检查 TiDB 是否通知 PD 添加 Placement rule。对于非分区表搜索 `ConfigureTiFlashPDForTable`;对于分区表,搜索 `ConfigureTiFlashPDForPartitions`。 + + - 有关键字,进入下一步。 + - 没有关键字,收集相关组件的日志获取支持。 + +4. 检查 PD 是否成功为表设置 Placement rule。 + + 可以通过 `curl http://:/pd/api/v1/config/rules/group/tiflash` 查询比较当前 PD 上的所有 TiFlash 的 Placement rule。 + + - 如果观察到有 id 为 `table--r` 的 Rule,则表示 PD rule 设置成功。进入下一步。 + - 没有 Rule,收集相关组件的日志获取支持。 + +5. 检查 PD 是否正常发起调度。 + + 查看 `pd.log` 日志是否出现 `table--r` 关键字,且之后是否出现 `add operator` 之类的调度行为。或者 Grafana 的 PD 面板中的 "Operator/Schedule operator create" 中是否产生 `add-rule-peer` 的调度。 + + - 是,PD 调度正常。 + - 否,PD 调度异常,收集相关组件的日志获取支持。 + +如果遇到上述方法无法解决的问题,请收集必要的信息如 TiDB、PD、TiFlash 日志等,从 PingCAP 官方或 TiDB 社区[获取支持](/support.md)。 ## 数据同步慢 同步慢可能由多种原因引起,你可以按以下步骤进行排查。 -1. 调大调度参数 [`store limit`](/configure-store-limit.md#使用方法),加快同步速度。 +1. 参考 [加快 TiFlash 副本同步速度](/tiflash/create-tiflash-replicas.md#加快-tiflash-副本同步速度) 调整调度参数,加快同步速度。 2. 调整 TiFlash 侧负载。