V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX  ›  wxf666  ›  全部回复第 11 页 / 共 26 页
回复总数  516
1 ... 7  8  9  10  11  12  13  14  15  16 ... 26  
2022-10-31 16:01:20 +08:00
回复了 mmm159357456 创建的主题 Python Python 的多层嵌套循环如何优化?
@mmm159357456 我觉得根据 year(dateday), geometry 来 groupby ,要不了多少内存吧?

大概只需要:200 年 * len(geometry_list) 行,len(elements_in_data) 列
2022-10-31 15:49:53 +08:00
回复了 mmm159357456 创建的主题 Python Python 的多层嵌套循环如何优化?
@mmm159357456 我没看出 level 作用是啥。。


考虑使用数据库吗?感觉可以转成 SQL:

SELECT year(dateday), geometry, SUM(IF(el1 >= theshold, el1, NULL)), SUM(IF(el2 >= theshold, el2, NULL)), ...
  FROM ...
GROUP BY year(dateday), geometry


基本上,扫一遍文件就算出来了
2022-10-31 14:54:08 +08:00
回复了 mmm159357456 创建的主题 Python Python 的多层嵌套循环如何优化?
@mmm159357456 为啥每一天( list_a )都要计算每一年( list_b )的指标。。

当 x1 = 2022-10-31 时,也要计算 x2 = 1970/1971/1972/.../2099 的指标吗???

还是说,你遍历 list_b 是为了找到 x2 = 2022 ?

list_a 为啥要按日排列?[2099-12-31, 2000-01-01, 1970-12-31, 2099-01-01] 这样的排列有啥问题吗?反正每个日子都要计算 range(1970, 2100) 年的指标的。。



可能你放出函数 f 的伪代码,大家能更好讨论
2022-10-31 14:20:54 +08:00
回复了 mmm159357456 创建的主题 Python Python 的多层嵌套循环如何优化?
@mmm159357456 我觉得在多线程多进程面前,协程是非常友好容易调试的了。。

另外,你的附加留言里说的好抽象。。要不,举点例子?
2022-10-31 13:43:26 +08:00
回复了 mmm159357456 创建的主题 Python Python 的多层嵌套循环如何优化?
@mmm159357456 IO 部分用多线程,CPU 部分用多进程,整体用协程管理?

参考: https://docs.python.org/zh-cn/3/library/asyncio-eventloop.html#executing-code-in-thread-or-process-pools
2022-10-29 08:58:23 +08:00
回复了 wuwukai007 创建的主题 Python mysql 8.0.21-8.0.26 优化了子查询一些操作?,提升蛮大的
希望能优化下 `WITH RECURSIVE` 递归 CTE 查询

相同数据量和结果的情况下,几层递归就比非递归版本耗时翻一倍。。损耗有点大。。

可见这个 [帖子回复]( https://v2ex.com/t/889443#r_12274236 )
@Mithril 我做了下『闭包表』和『改良后的邻接表』的测试 *(结尾附上一键建表和查询的 `SQL` 供测试)*

- 数据源:[2022 年中国全国 5 级行政区划]( https://github.com/adyliu/china_area/blob/master/area_code_2022.csv.gz)
- 数据库:`MySQL 8.0.29` 和 `SQLite 3.39.0`
- 表结构:『闭包表』和『 `(<pid, id>, is_leaf)` 型邻接表』
- 测试项:『查询根节点所有后代』和『查询根节点第 5 层后代』

结果如下 *(多次测试稳定后)*:



## 『查询根节点所有后代』速度对比

     表结构      MySQL SQLite

——————————————————————————

     闭包表       1.3秒  0.13秒

    递归邻接表      1.2秒  0.60秒

理想中递归损耗很小的邻接表  0.6秒  0.12秒



Markdown 表格:

| 表结构 | `MySQL` | `SQLite` |
| :------------------------: | :-----: | :------: |
| 闭包表 | 1.3 秒 | 0.13 秒 |
| 递归邻接表 | 1.2 秒 | 0.60 秒 |
| 理想中递归损耗很小的邻接表 | 0.6 秒 | 0.12 秒 |



## 『查询根节点第 5 层后代』速度对比

     表结构      MySQL SQLite

——————————————————————————

     闭包表       1.2秒  0.12秒

    递归邻接表      0.5秒  0.13秒

理想中递归损耗很小的邻接表  0.4秒  0.10秒



Markdown 表格:

| 表结构 | `MySQL` | `SQLite` |
| :------------------------: | :-----: | :------: |
| 闭包表 | 1.2 秒 | 0.12 秒 |
| 递归邻接表 | 0.5 秒 | 0.13 秒 |
| 理想中递归损耗很小的邻接表 | 0.4 秒 | 0.10 秒 |



## 目前观点

1. 4W 多次的 `ref` 级 `WHERE pid = ?`,还是能和 66W 次 `eq_ref` 级的 `WHERE id = ?` 过过招,甚至更快的。而且,磁盘 IO 越慢,这个差异应该越大。

2. 数据库们的 `WITH RECURSIVE` 查询,损耗有点大。

- `MySQL` 好歹每次递归都将上一次所有结果当作一张表来计算。但大概 5 次递归的耗时,就比非递归的多一倍了

- `SQLite` 最摆烂,每次递归只取以前结果的一行来计算,直到取完为止。所以有 66W 次的递归,耗时大概 5 倍。。😡

> Extract a single row from the queue.
>
> Pretend that the single row just extracted is the only row in the recursive table and run the recursive-select, adding all results to the queue.



## 『查询根节点所有后代』通用 `SQL`

*( V 站排版原因,行首有全角空格)*

```sql
PRAGMA cache_size = -204800; -- 允许 SQLite 缓存 200 MB

-- 闭包表查询
SELECT COUNT(*), SUM(code), SUM(CHAR_LENGTH(name)) -- SQLite 写法:SUM(LENGTH(name))
  FROM closure_tree
FORCE INDEX (idx_closure_tree) -- 我这测试,MySQL 不加这行,耗时翻好几倍。SQLite 需去掉此行
  JOIN closure ON id = descendant
WHERE ancestor = 0;

-- 递归邻接表查询
WITH RECURSIVE
  find(id, code, name, is_leaf) AS (
   SELECT id, code, name, is_leaf
    FROM adjacent
   WHERE pid = 0
   UNION ALL
   SELECT b.id, b.code, b.name, b.is_leaf
    FROM find a
    JOIN adjacent b ON NOT a.is_leaf AND b.pid = a.id
 )
SELECT COUNT(*), SUM(code), SUM(CHAR_LENGTH(name)) -- SQLite 写法:SUM(LENGTH(name))
  FROM find;

-- 理想中,没有递归损耗的邻接表查询
SELECT COUNT(*), SUM(b.code), SUM(CHAR_LENGTH(b.name)) -- SQLite 写法:SUM(LENGTH(name))
  FROM adjacent a
CROSS JOIN adjacent b ON b.pid = a.id -- SQLite 需要 CROSS JOIN ,否则耗时翻几倍
WHERE NOT a.is_leaf;
```



## 『查询根节点第 5 层后代』通用 `SQL`

*( V 站排版原因,行首有全角空格)*

```sql
PRAGMA cache_size = -204800; -- 允许 SQLite 缓存 200 MB

-- 闭包表查询
SELECT COUNT(*), SUM(code), SUM(CHAR_LENGTH(name)) -- SQLite 写法:SUM(LENGTH(name))
  FROM closure_tree
FORCE INDEX (idx_closure_tree) -- 我这测试,MySQL 不加这行,耗时翻好几倍。SQLite 需去掉此行
  JOIN closure ON id = descendant
WHERE ancestor = 0
  AND distance = 5;

-- 递归邻接表查询
WITH RECURSIVE
  var(depth) AS (
   SELECT 5
 ),

 -- 递归部分查前 N - 1 层
  find(id, is_leaf, depth) AS (
   SELECT 0, FALSE, var.depth - 1
    FROM var
   UNION ALL
   SELECT b.id, b.is_leaf, a.depth - 1
    FROM find a
    JOIN adjacent b ON b.pid = a.id
   WHERE a.depth > 0
    AND NOT a.is_leaf
 )

-- 最后一次性 JOIN 第 N 层
SELECT COUNT(*), SUM(b.code), SUM(CHAR_LENGTH(b.name)) -- SQLite 写法:SUM(LENGTH(b.name))
  FROM find a
CROSS JOIN adjacent b ON a.id = b.pid -- SQLite 要加 CROSS ,否则耗时翻几倍
WHERE a.depth = 0;

-- 理想中,没有递归损耗的邻接表查询(需要根据层数 N ,动态生成 SQL )
SELECT COUNT(*), SUM(t5.code), SUM(CHAR_LENGTH(t5.name)) -- SQLite 写法:SUM(LENGTH(t5.name))
  FROM adjacent t1
  JOIN adjacent t2 ON t2.pid = t1.id
  JOIN adjacent t3 ON t3.pid = t2.id
  JOIN adjacent t4 ON t4.pid = t3.id
  JOIN adjacent t5 ON t5.pid = t4.id
WHERE t1.pid = 0;
```



## `MySQL` 一键建表 `SQL`

*(在我低配笔记本和固态上,大约执行了 1 分钟)*

*( V 站排版原因,行首有全角空格)*

```sql
-- 允许 200 MB 的内存表
SET max_heap_table_size = 200 << 20;

-- 建临时数据表,装载 csv 数据,以及计算序号和父子关系
CREATE TABLE data (
   code    BIGINT     NOT NULL,
   p_code   BIGINT     NOT NULL,
   type    TINYINT    NOT NULL,
   name    VARCHAR(25) NOT NULL,
   id     INT      NOT NULL,
   pid    INT      NOT NULL,
   PRIMARY KEY (code) USING BTREE,
   INDEX USING BTREE (id),
   INDEX USING BTREE (pid, id)
) ENGINE = MEMORY;

-- 加载 csv
LOAD DATA INFILE 'area_code_2022.csv'
INTO TABLE data
CHARACTER SET UTF8MB4
FIELDS TERMINATED BY ','
ENCLOSED BY '"'
(code, name, type, p_code);

-- 按照 code 顺序计算 id
UPDATE data
  JOIN (SELECT code, ROW_NUMBER() OVER win row_num
      FROM data
     WINDOW win AS (ORDER BY code)) t USING(code)
  SET id = row_num;

-- 计算 parent_id (不存在的标 0 )
UPDATE data a
  LEFT JOIN data b ON b.code = a.p_code
  SET a.pid = IFNULL(b.id, 0);

-- 建邻接表,并从临时数据表填充数据
CREATE TABLE adjacent (
   id     INT      NOT NULL,
   pid    INT      NOT NULL,
   is_leaf BOOL      NOT NULL,
   type    TINYINT    NOT NULL,
   code    BIGINT     NOT NULL,
   name    VARCHAR(25) NOT NULL,
   PRIMARY KEY (pid, id)
)
SELECT -1 pid, 0 id, FALSE is_leaf, 0 type, 0 code, '' name
UNION ALL
SELECT pid, id, type = 5 is_leaf, type, code, name
  FROM data;

-- 建闭包表主表,并从临时数据表填充数据
CREATE TABLE closure (
   id     INT      NOT NULL,
   type    TINYINT    NOT NULL,
   code    BIGINT     NOT NULL,
   name    VARCHAR(25) NOT NULL,
   PRIMARY KEY (id)
)
SELECT 0 id, 0 type, 0 code, '' name
UNION ALL
SELECT id, type, code, name
  FROM data;

-- 建闭包表树形关系表
CREATE TABLE closure_tree (
   ancestor    INT    NOT NULL,
   descendant   INT    NOT NULL,
   distance    TINYINT NOT NULL,
   PRIMARY KEY (descendant, distance)
);

-- 递归构建树形关系
INSERT INTO closure_tree(ancestor, descendant, distance)
WITH RECURSIVE
  parent_of(orig_id, id, dist) AS (
   SELECT id, id, 0
    FROM data
   UNION ALL
   SELECT orig_id, pid, dist + 1
    FROM parent_of
    JOIN data USING(id)
   WHERE id
 )
SELECT id, orig_id, dist
  FROM parent_of;

-- 为闭包表树形关系表建二级索引
CREATE INDEX idx_closure_tree ON closure_tree (ancestor, distance);

-- 丢弃临时数据表
DROP TABLE data;
```



## `SQLite` 一键建表 `SQL`

下列 `SQL` 需要依赖 `SQLite Shell` 的 `.import --csv`,但核心 `SQLite` 库不提供此功能。

因此,需要使用命令行的 `SQLite` 来运行*(`Windows` 可去官网下载个 1~2 MB 的 `sqlite3.exe`)*。

下面使用 `Bash Shell` 来包装执行命令与 `SQL`,大约需要运行 30 秒,然后在同目录下生成 150 MB 左右的 `test.db`。

*( V 站排版原因,行首有全角空格)*

```sql
#!/bin/bash

sqlite3 :memory: <<'EOF'

-- 在内存中计算,最后整理紧凑才写入文件
PRAGMA TEMP_STORE = MEMORY;

-- 导入 csv 文件至临时表
CREATE TEMP TABLE csv (code INTEGER PRIMARY KEY, name TEXT, type INT, p_code INT);
.import --csv area_code_2022.csv csv

-- 建邻接表
CREATE TABLE adjacent (
   id     INT    NOT NULL,
   pid    INT    NOT NULL,
   is_leaf INT    NOT NULL,
   type    INT    NOT NULL,
   code    INT    NOT NULL,
   name    TEXT    NOT NULL,
   PRIMARY KEY (pid, id)
) WITHOUT ROWID;

-- 填充邻接表
INSERT INTO adjacent (pid, id, is_leaf, type, code, name)
SELECT -1, 0, FALSE, 0, 0, ""
UNION ALL
SELECT p_code, ROW_NUMBER() OVER (), type = 5, type, code, name
  FROM csv
ORDER BY code;

-- 建临时索引,提速 code 搜索
CREATE INDEX i ON adjacent (code);

-- 更新 pid
UPDATE adjacent
  SET pid = t2.id
  FROM adjacent t2
WHERE adjacent.pid = t2.code;

-- 丢弃临时索引
DROP INDEX i;

-- 建 id -> pid 索引
CREATE INDEX idx_adjacent_id ON adjacent (id);

-- 建闭包表主表
CREATE TABLE closure (
   id     INTEGER PRIMARY KEY,
   type    INT    NOT NULL,
   code    INT    NOT NULL,
   name    TEXT    NOT NULL
);

-- 建闭包表树形关系表
CREATE TABLE closure_tree (
   ancestor    INT NOT NULL,
   descendant   INT NOT NULL,
   distance    INT NOT NULL,
   PRIMARY KEY (descendant, distance)
) WITHOUT ROWID;

-- 填充闭包表主表
INSERT INTO closure (id, type, code, name)
SELECT id, type, code, name
  FROM adjacent;

-- 递归构建树形关系
WITH RECURSIVE
  parent_of(orig_id, id, dist) AS (
   SELECT id, id, 0
    FROM adjacent
   UNION ALL
   SELECT orig_id, pid, dist + 1
    FROM parent_of
    JOIN adjacent USING(id)
   WHERE id
 )
INSERT INTO closure_tree (ancestor, descendant, distance)
SELECT id, orig_id, dist
  FROM parent_of;

-- 为闭包表树形关系表建二级索引
CREATE INDEX idx_closure_tree ON closure_tree (ancestor, distance);

-- 整理紧实数据库后,写入磁盘
ANALYZE;
VACUUM INTO 'test.db';

EOF
```
@zyxk `SQLite` 咋可能不行。。

`MySQL` 语法:*(就是觉得 `json_table` 繁杂,懒得查文档才用的 `SQLite`。。V 站排版原因,行首有全角空格)*

```mysql
WITH
  t_name(id, name, zone_id) AS (
   VALUES
    ROW(3, 't1', '23,24'),
    ROW(4, 't2', '24,23')
 ),

  t_zone(zone_id, zone) AS (
   VALUES
    ROW(23, '5 元区'),
    ROW(24, '10 元区')
 )
 
SELECT a?id, a?name, a?zone_id, group_concat(c?zone) AS zone
FROM t_name AS a
JOIN json_table(concat('[', a?zone_id, ']'), '$[*]' COLUMNS(zone_id INT PATH '$')) AS b
JOIN t_zone AS c ON b?zone_id = c?zone_id
GROUP BY a?id
```

我是数据库新手,不知这是不是奇技淫巧。或许你等大佬来指出真正问题所在才是正道。。


V 站告诉我:

创建新回复过程中遇到一些问题:

- 请不要在每一个回复中都包括外链,这看起来像是在 spamming

我把所有的 . 换成 ? 了,记得替换回来
用 json 函数试试?

`SQLite` 测试通过:*(`MySQL` 可用 `json_table`。V 站排版原因,行首有全角空格)*

```sqlite
WITH
  t_name(id, name, zone_id) AS (
   VALUES
   (3, 't1', '23,24'),
   (4, 't2', '24,23')
 ),

  t_zone(zone_id, zone) AS (
   VALUES
   (23, '5 元区'),
   (24, '10 元区')
 )

SELECT a.id, a.name, a.zone_id, b.value, GROUP_CONCAT(c.zone)
  FROM t_name a
  JOIN json_each(format('[%s]', a.zone_id)) b
  LEFT JOIN t_zone c ON b.value = c.zone_id -- 只能 LEFT JOIN 。怀疑是 JOIN 时,b 表会提前排好序,加速 b.id = c.id 匹配
GROUP BY a.id;
```
@Mithril 打多了,应该是:

即,『闭包表』要 (后代**总**数) 次 `WHERE id = ?`,但特殊结构邻接表只要 (后代**层**数) 次 `WHERE pid = ?`
@Mithril

> 数据量大,但是每个分支深度差的比较多,每次检索的时候只找某条记录的子树这类的操作,闭包表就比较合适。

如果邻接表结构改成 `(父 ID, ID, 其他数据……, PRIMARY KEY (父 ID, ID), KEY (ID))`,能和『闭包表』一样快(甚至更快)且体积小吗?

理由:

- 虽然『闭包表』能一次性获取所有后代节点,但还要一一去主表找到这些散落各处的节点

- 对于邻接表,`(父 ID, ID)` 结构意味着,同层次的子节点都聚在一起,基本上要找多少层的后代,就查多少次表即可

即,『闭包表』要 (后代**总**数) 次 `WHERE id = ?`,但特殊结构邻接表只要 (后代**层**数) 次 `WHERE pid = ? AND id = ?`
@Mithril

> 一般来说建立索引和优化是数据库基础操作,都不会写在这种文章里。

不光文章,我看他们实际开源的仓库,也没有这些措施。。就直接按照《 SQL 反模式》上介绍的表结构来实现的(所以我很疑惑性能问题)

比如: https://github.com/Kaciras/ClosureTable ,开源四年多,今早才改的表结构和加索引(我也去和那个博主聊了,在昨晚给出了和你类似的解决办法)


> 所以我早就说了,你这种情况并不适合用闭包表。它是一种通用的设计,但不代表在任何情况下都是最优选择。

我咋觉得,数据量小,其他模型也能很快;数据量大,『闭包表』就不划算,陷入一种尴尬情境。。

另外,有没有可能,也存在着某种通用模型设计,大部分时候性能和『闭包表』相当,但空间占用远低于『闭包表』?


> 你这种情况下,一个表就可以解决问题。你可以打开这个库带的那个 sqlite 文件,里面那个 village 表就足够满足你所有需求了。

好像一直纠结我如何存储那 5 级表的。。

我是用邻接表模型实现的,拿区划代码作为主键。(没用自增主键,算是针对地区库的优化?)

之前在( i5-8250U 笔记本)浏览器上用 `wasm` 实现的 `SQLite` 进行测试,5 级 66W 行数据的地区表,能存成 16.8 MB 的数据库(`gzip` 后 5.72 MB ,`zstd` 后 4.32 MB ),并且纯 `SQL` 就可以:

1. 每秒计算出 25W 个区划代码的省 /市 /区 /街 /村全名(通过 4 次 `LEFT JOIN` 实现,也就是每秒能有 100W 次 `LEFT JOIN`)

2. 5~6 毫秒识别『疆维阿克苏温宿县博孜墩柯尔克孜族乡吾斯塘博村一组 306 号 tom800-8585222 』的各级地区名称为『新<疆维>吾尔自治区』、『<阿克苏>地区』、『<温宿县>』、『<博孜墩柯尔克孜族乡>』、『<吾斯塘博>依村』(模仿 [地址智能识别库]( https://github.com/wzc570738205/smartParsePro ) 的功能写的)

当然,用了很多递归 CTE ,但感觉速度还可以。( v 站怎么发截图呢?我还从来没在这儿发过图片呢。。)

结果我看到文章说,邻接表用了很多递归,导致性能很差,所以我就仔细去看看『闭包表』的文章,看看能有多大提升了。然后没看懂,就有这篇文章了
@Mithril

## 解决问题了

确实,更改表结构,并建立索引,使得有如下两种索引:

- 聚集索引:`(<后代, 距离>, 祖先)`
- 二级索引:`(<祖先, 距离>, 后代)`

就能高效应对下列查询了:

- (孙)子 /后代节点:走二级索引 `(✔️查询节点, ✔️1 或 2 或 任意, ❓<要获取的后代节点>)`
- (祖)父 /祖先节点:走聚集索引 `(✔️查询节点, ✔️1 或 2 或 任意, ❓<要获取的祖先节点>)`

下列查询会小范围扫表,但问题不大:

- 某后代节点与某祖先节点的距离:走聚集索引 `(✔️查询后代节点, ❓<要获取的距离>, ❌查询祖先节点)`

只要 `查询后代节点` 层级没有深到离谱,扫表范围也就连续的几行几十行而已。

*(为嘛网上关于『闭包表』的文章,都不谈这些必要的索引呢?他们用了后,都没性能问题嘛?)*


## 值得付出这么大的空间代价吗?

算下来,一个 66W 的 5 级地区表,就要配套一个相当于 780W 的闭包表,快接近 12 倍于主表的辅助表了。。

不知如此恐怖的空间换时间方案,相比于其他(如邻接表的)模型,到底能快多少呢?真的值得投入这么多空间来提速吗?
@Mithril 我再概括下文章意思


> 你实际上是在一个不适合用“闭包表”来处理的需求中,讨论如何使用“闭包表”。在这种场景下没什么使用闭包表的合理性,它当然不能很好适应了,完全是没必要的额外设计。


1. 我实际是在说,『闭包表』对于任何一棵树都成立:如果要查询某个节点的祖先节点 /父节点 /子节点,都会导致大范围不合理的扫表

哪怕只是如文中所说的,查询根节点的子节点、第二层节点的父节点 /祖先节点,这些你口中说的『完全可以硬编码的数据』,都会大范围不合理扫表


2. 文中举了 5 级地区表的例子,是为了定量展示『闭包表』的『大范围不合理的扫表』可能为 66W 行、390W 行级别的,突出『闭包表』的『不合理』


3. 不知你说的『不适合用“闭包表”来处理的需求』,是否包含『查询某节点的祖先节点 /父节点 /子节点』呢?
2022-10-25 12:56:49 +08:00
回复了 owtotwo 创建的主题 Python Python 3.11 稳定版发布啦,速度提升不小
好奇会不会有其他语言的人,跑来说:恭喜,从慢 200 倍提升到慢 150 倍了

回他一句,继续说:对不起,刺痛你的心,戳到你肺管子了
@Mithril

> 单纯从 66W 行的表里检索一条记录而已,处理好索引就行了,并不会扫全表。

是用了『闭包表』记录树形关系后,从 66W 行的表里检索一条记录的『子节点 /父节点』,会导致大范围扫表


> 而且你只存村级的 62W 数据就够了,用不着 66W 。

跳出我这个例子,这样的多列结构,没法处理任意深度的树了


> 你实际上是在一个不适合用“闭包表”来处理的需求中,讨论如何使用“闭包表”

你觉得『闭包表』的适用场景是啥呢?


> 就算你用闭包表去存这个信息,也根本不必扫这么多数据。取决于你是怎么建立索引的,你给深度列单独建个索引不就行了

你是说,表结构变成这样吗:

```sql
CREATE TABLE 闭包表 (
 祖先节点 ID INT,
 后代节点 ID INT,
 这俩节点距离 INT,
  PRIMARY KEY (祖先节点 ID, 后代节点 ID),
  KEY (这俩节点距离)
);
```

如果你的意思是这样:

1. 第一个问题解决

2. 第二个问题会变成扫 66W 行表(因为有 66W 个节点与其父节点的距离为 1 ,而 (距离, 祖先, 后代) 的索引结构表明,`WHERE 距离 = 1 AND /* 缺失:祖先节点 = ? AND */ 后代节点 = '杭州'` 的 `后代节点 = '杭州'`,由于最左匹配原则,是无法被利用的,所以需要扫 66W 行 `距离 = 1` 的索引)

3. 第三个问题还是要扫 390W 行表,因为你的 (距离, 祖先, 后代) 的索引结构不起作用。。
@Mithril 有句话说错了:

但实际上,这 66W 行,获取任何一行的子节点 /父节点,都会大规模扫 (该节点后代节点总数) 行或 390W 行的表。。
@Mithril 我在这个帖子说吧,因为是有关这个帖子主题的


> 比如你这帖子前两个需求,压根用不着数据库。直接硬编码数组进去就行了。

只是举个『获取某节点的子节点 /父节点』的例子,前一两级硬编码没问题。但实际上,这 66W 行,获取任何一行的子节点 /父节点,都会大规模扫 66W 行或 390W 行的表。。


> 对于第三个需求,你可以直接按村级记录存,每条记录带着完整 path 就可以。这也就是一个非常简单的表

我也知道有嵌套集、路径枚举模型。只是,这个帖子是讨论『闭包表』的合理性,才举了文中的例子的,不是讨论该用哪种模型存储最好


> 它举例的几种树形结构优化方案,都是针对于不限制深度的树来说的。在你这个需求里,树的结构实际上是固定的,深度也是固定的

即使是我这个固定 5 层的简单树形结构,『闭包表』都不能很好适应啊?何谈任意深度呢?
@xinxingi

> 数据库新手,你考不考虑加个层级字段 Level 。1 2 3 4 5 级

`这俩节点距离` 还不足够使用吗?而且文中的三个问题,都是求某节点的父节点、子节点、祖先节点 这类不关心绝对层级的。加了真的有用吗?


@wangxin3

> 用了“闭包表”,就不能自己加索引吗?

你打算怎么加索引呢?是在主表加 `parent_id`,和 邻接表模型 结合在一起用吗?
@joooooker21 我改下措辞(肯定能用聚集索引,否则查不了数据)

闭包表是联合主键,这个 SQL 没给出第一个主键,为啥能不扫表,也可以高效找到所有 第二个主键为 '杭州' 的第一个主键呢?

换句话说,你觉得要扫多少行的表,就能定位到 (?, 杭州) ?
1 ... 7  8  9  10  11  12  13  14  15  16 ... 26  
关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   我们的愿景   ·   实用小工具   ·   2386 人在线   最高记录 6543   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 22ms · UTC 16:06 · PVG 00:06 · LAX 09:06 · JFK 12:06
Developed with CodeLauncher
♥ Do have faith in what you're doing.