Statistiques étendues
(sujet préalablement traité avec les versions 10 devel et 10 beta et mis à jour avec la version 10 et 12 beta)
Permettre à PostgreSQL de ne pas boucler jusquà la folie
En complément du "clustering factor", la sélectivité est un critère important pour savoir si le passage par un index peut être bénéfique et, plus généralement, déterminer un plan dexécution optimal. Des statistiques sont ainsi collectées afin de savoir si tel critère présent dans la clause de filtrage permet décarter un grand pourcentage de lignes du jeu de résultats. Ces statistiques sont calculées colonne par colonne.
Le contexte est toujours celui du clan de géants lançant des rochers. Nous allons supposer en renseignant la colonne GABARIT de la table "geants" que chaque géant a environ 30% de chances davoir un PETIT gabarit, 30% de chance davoir un gabarit MOYEN tandis que les autres géants ont un GRAND gabarit. Nous allons faire quasi de même pour les colonnes COULEUR, ERE, BERSERK et CYCLOPE. Mais, au lieu dutiliser une valeur aléatoire différente pour chaque colonne, nous allons réutiliser la même valeur aléatoire. Elle sera donc aléatoire pour une ligne donnée mais pas pour une colonne. Autrement dit, dans quasi tous les cas, si un géant a un PETIT gabarit alors il aime le GRIS, il est de lère du TAUREAU, est BERSERK et CYCLOPE. La table "lancers" est générée entièrement aléatoirement, chaque géant comptera environ 1000 lancers. Nous allons déterminer la performances moyenne des "PETITS TAUREAUX GRIS BERSERKS CYCLOPES".
Démonstration avec PostgreSQL 11 devel :
select version();
version
-----------------------------------------------------------------------------------------------------
PostgreSQL 11devel on x86_64-pc-linux-gnu, compiled by gcc (Debian 7.2.0-17) 7.2.1 20171205, 64-bit
(1 ligne)
create table geants(
idg integer generated always as identity primary key,
genre char(1),
taille smallint,
masse smallint,
actif boolean,
devise varchar(128),
pw smallint,
heureux boolean,
couleur varchar(8),
veteran boolean,
clan smallint,
gabarit varchar(8),
revenu integer,
pm smallint,
berserk boolean,
tutelaire smallint,
ere varchar(10),
cyclope boolean);
CREATE TABLE
WITH serie(i, r1) AS (SELECT generate_series(1,100000,1), random())
insert into geants(genre, taille, masse, actif, devise, pw, heureux, couleur, veteran, clan, gabarit, revenu, pm, berserk, tutelaire, ere, cyclope)
select
case when random() < 0.45 then 'M' else 'F' end,
200 + (trunc(random() * 200 + 1)),
300 + (trunc(random() * 200 + 1)),
case when random() < 0.01 then false when random() > 0.5 and random() < 0.99 then false else true end,
upper(md5(random()::text)),
(trunc(random()*100 + 1)),
case when random() < 0.1 then false else true end,
case when r1 <= 0.29998 then 'GRIS' when r1 <= 0.59998 then 'NOIR' else 'BLEU' end,
case when random() < 0.9 then false else true end,
(trunc(random()*1000 + 1)),
case when r1 <= 0.29999 then 'PETIT' when r1 <= 0.59999 then 'MOYEN' else 'GRAND' end,
(trunc(random()*1000000 + 1)),
(trunc(random()*10 + 1)),
case when r1 <= 0.3 then true when r1 <= 0.6 then false else null end,
(trunc(random()*10 + 1)),
case when r1 <= 0.30001 then 'TAUREAU' when r1 <= 0.60001 then 'LICORNE' else 'DRAGON' end,
case when r1 <= 0.30002 then true when r1 <= 0.60002 then false else null end
from serie;
INSERT 0 100000
select couleur, gabarit, berserk, ere, cyclope , count(*) from geants group by couleur, gabarit, berserk, ere, cyclope order by 6 desc;
couleur | gabarit | berserk | ere | cyclope | count
---------+---------+---------+---------+---------+-------
BLEU | GRAND | | DRAGON | | 39865
NOIR | MOYEN | f | LICORNE | f | 30250
GRIS | PETIT | t | TAUREAU | t | 29879
NOIR | MOYEN | f | LICORNE | t | 2
NOIR | MOYEN | f | TAUREAU | t | 2
BLEU | GRAND | | LICORNE | f | 1
NOIR | MOYEN | t | TAUREAU | t | 1
(7 lignes)
create table lancers(dtl timestamp, idg integer, perf integer);
CREATE TABLE
WITH serie(i) AS (SELECT generate_series(100000000,1,-1))
insert into lancers(dtl, idg, perf)
select
current_timestamp - (i || ' minutes')::interval,
trunc(random() * 100000 + 1),
case when random() <= 0.0001 then 50000 + trunc(random() * 50000 + 1) else trunc(random() * 50000 + 1) end
from serie;
INSERT 0 100000000
analyze geants;
ANALYZE
analyze lancers;
ANALYZE
explain
select g.idg, g.devise, avg(l.perf)
from geants g join lancers l on (g.idg = l.idg)
where g.couleur = 'GRIS' and g.gabarit = 'PETIT' and g.ere = 'TAUREAU' and berserk = true and cyclope = true
group by g.idg, g.devise;
QUERY PLAN
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Finalize GroupAggregate (cost=1498356.22..1499138.93 rows=231 width=69)
Group Key: g.idg
-> Gather Merge (cost=1498356.22..1499133.73 rows=462 width=69)
Workers Planned: 2
-> Partial GroupAggregate (cost=1497356.20..1498080.38 rows=231 width=69)
Group Key: g.idg
-> Sort (cost=1497356.20..1497596.82 rows=96250 width=41)
Sort Key: g.idg
-> Hash Join (cost=3181.89..1486428.35 rows=96250 width=41)
Hash Cond: (l.idg = g.idg)
-> Parallel Seq Scan on lancers l (cost=0.00..957208.03 rows=41666703 width=8)
-> Hash (cost=3179.00..3179.00 rows=231 width=37)
-> Seq Scan on geants g (cost=0.00..3179.00 rows=231 width=37)
Filter: (berserk AND cyclope AND ((couleur)::text = 'GRIS'::text) AND ((gabarit)::text = 'PETIT'::text) AND ((ere)::text = 'TAUREAU'::text))
select g.idg, g.devise, avg(l.perf)
from geants g join lancers l on (g.idg = l.idg)
where g.couleur = 'GRIS' and g.gabarit = 'PETIT' and g.ere = 'TAUREAU' and berserk = true and cyclope = true
group by g.idg, g.devise;
Durée : 130610,302 ms (02:10,610)
...
Durée : 128177,089 ms (02:08,177)
...
Durée : 137036,255 ms (02:17,036)
Lexécution de la requête prend ici environ 2 minutes 15 secondes. Un balayage complet des tables GEANTS et LANCERS est effectué et la jointure réalisée est de type HASH JOIN. Nous pouvons remarquer que lestimation du planner en ce qui concerne le nombre de ligne renvoyées était complètement erronée. Si les données avaient été générées aléatoirement nous aurions bien autour de 0,3 X 0,3 X 0,3 X 0,3 X 0,3 X 100 000 = 243 géants de PETIT gabarit, aimant le GRIS, de lère du TAUREAU, BERSERK et CYCLOPE. Lestimation de 231 apparaissant dans le plan serait donc excellente.
Mais, malheureusement, ce nest pas le cas. Nous avons une quasi dépendance entre les valeurs de ces 5 colonnes et le nombre de "PETITS TAUREAUX GRIS BERSERKS CYCLOPES" est bien plus élevé. 29879 géants sont en effet concernés.
Cette estimation erronée na pas prêté à conséquence car, en labsence dindex sur la table lancers, le planner navait pas trop le choix. Mais nous allons corser laffaire. Un index composite est créé sur la table "lancers" pour les colonnes idg, dtl.
Quel impact sur la requête ?
create index lancers_i1 on lancers(idg, dtl);
CREATE INDEX
explain
select g.idg, g.devise, avg(l.perf)
from geants g join lancers l on (g.idg = l.idg)
where g.couleur = 'GRIS' and g.gabarit = 'PETIT' and g.ere = 'TAUREAU' and berserk = true and cyclope = true
group by g.idg, g.devise;
QUERY PLAN
------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Finalize GroupAggregate (cost=1024.73..321032.29 rows=231 width=69)
Group Key: g.idg
-> Gather Merge (cost=1024.73..321027.09 rows=462 width=69)
Workers Planned: 2
-> Partial GroupAggregate (cost=24.71..319973.74 rows=231 width=69)
Group Key: g.idg
-> Nested Loop (cost=24.71..319490.18 rows=96250 width=41)
-> Parallel Index Scan using geants_pkey on geants g (cost=0.29..3765.46 rows=96 width=37)
Filter: (berserk AND cyclope AND ((couleur)::text = 'GRIS'::text) AND ((gabarit)::text = 'PETIT'::text) AND ((ere)::text = 'TAUREAU'::text))
-> Bitmap Heap Scan on lancers l (cost=24.42..3278.65 rows=1015 width=8)
Recheck Cond: (idg = g.idg)
-> Bitmap Index Scan on lancers_i1 (cost=0.00..24.16 rows=1015 width=0)
Index Cond: (idg = g.idg)
select g.idg, g.devise, avg(l.perf)
from geants g join lancers l on (g.idg = l.idg)
where g.couleur = 'GRIS' and g.gabarit = 'PETIT' and g.ere = 'TAUREAU' and berserk = true and cyclope = true
group by g.idg, g.devise;
Durée : 2817714,900 ms (46:57,715)
Lexemple met à mal une idée communément répandue : "au pire, ajouter un index pénalise un peu les écritures mais jamais les lectures". Ce nest PAS toujours vrai.
Ici, la durée explose et atteint presque 47 minutes sur mon environnement aux I/O peu performantes !
Croyant à tort que le nombre de "PETITS TAUREAUX GRIS BERSERKS CYCLOPES" était faible, le planner a choisi les boucles imbriquées pour effectuer la jointure.
Rassurez-vous. Nous avons déjà tous les moyens de revenir au plan initial, par exemple en montant random_page_cost. Démonstration :
set random_page_cost=20;
SET
explain
select g.idg, g.devise, avg(l.perf)
from geants g join lancers l on (g.idg = l.idg)
where g.couleur = 'GRIS' and g.gabarit = 'PETIT' and g.ere = 'TAUREAU' and berserk = true and cyclope = true
group by g.idg, g.devise;
QUERY PLAN
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Finalize GroupAggregate (cost=1487977.73..1487984.08 rows=231 width=69)
Group Key: g.idg
-> Sort (cost=1487977.73..1487978.89 rows=462 width=69)
Sort Key: g.idg
-> Gather (cost=1487908.77..1487957.28 rows=462 width=69)
Workers Planned: 2
-> Partial HashAggregate (cost=1486908.77..1486911.08 rows=231 width=69)
Group Key: g.idg
-> Hash Join (cost=3181.89..1486427.52 rows=96250 width=41)
Hash Cond: (l.idg = g.idg)
-> Parallel Seq Scan on lancers l (cost=0.00..957207.67 rows=41666667 width=8)
-> Hash (cost=3179.00..3179.00 rows=231 width=37)
-> Seq Scan on geants g (cost=0.00..3179.00 rows=231 width=37)
Filter: (berserk AND cyclope AND ((couleur)::text = 'GRIS'::text) AND ((gabarit)::text = 'PETIT'::text) AND ((ere)::text = 'TAUREAU'::text))
select g.idg, g.devise, avg(l.perf)
from geants g join lancers l on (g.idg = l.idg)
where g.couleur = 'GRIS' and g.gabarit = 'PETIT' and g.ere = 'TAUREAU' and berserk = true and cyclope = true
group by g.idg, g.devise;
Durée : 41081,959 ms (00:41,082)
...
Durée : 37880,462 ms (00:37,880)
...
Durée : 39363,448 ms (00:39,363)
Cela fonctionne, nous retournons sur de la jointure par HASH JOIN et le temps dexécution passe à 40 secondes environ. Il serait cependant intéressant de pouvoir fournir au planner linformation dont nous disposons, cest à dire la quasi dépendance entre les 5 colonnes.
Cest là quinterviennent les statistiques étendues introduites avec PostgreSQL 10. Elles sont créées avec CREATE STATISTICS mais, attention, sont effectivement calculées avec ANALYZE :
create statistics geants_couleur_gabarit_ere_berserk_cyclope(dependencies, ndistinct) on couleur, gabarit, ere, berserk, cyclope from geants;
CREATE STATISTICS
analyze geants;
ANALYZE
Durée : 3165,441 ms (00:03,165)
\x
Affichage étendu activé.
select * from pg_statistic_ext;
-[ RECORD 1 ]---+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
stxrelid | 24618
stxname | geants_couleur_gabarit_ere_berserk_cyclope
stxnamespace | 2200
stxowner | 10
stxkeys | 9 12 15 17 18
stxkind | {d,f}
stxndistinct | {"9, 12": 3, "9, 15": 3, "9, 17": 4, "9, 18": 4, "12, 15": 3, "12, 17": 4, "12, 18": 4, "15, 17": 4, "15, 18": 4, "17, 18": 3, "9, 12, 15": 3, "9, 12, 17": 4, "9, 12, 18": 4, "9, 15, 17": 4, "9, 15, 18": 4, "9, 17, 18": 4, "12, 15, 17": 4, "12, 15, 18": 4, "12, 17, 18": 4, "15, 17, 18": 4, "9, 12, 15, 17": 4, "9, 12, 15, 18": 4, "9, 12, 17, 18": 4, "9, 15, 17, 18": 4, "12, 15, 17, 18": 4, "9, 12, 15, 17, 18": 4}
stxdependencies | {"9 => 12": 1.000000, "9 => 15": 1.000000, "9 => 17": 0.699867, "9 => 18": 0.699867, "12 => 9": 1.000000, "12 => 15": 1.000000, "12 => 17": 0.699867, "12 => 18": 0.699867, "15 => 9": 1.000000, "15 => 12": 1.000000, "15 => 17": 0.699867, "15 => 18": 0.699867, "17 => 9": 0.702733, "17 => 12": 0.702733, "17 => 15": 0.702733, "17 => 18": 1.000000, "18 => 9": 0.702733, "18 => 12": 0.702733, "18 => 15": 0.702733, "18 => 17": 1.000000, "9, 12 => 15": 1.000000, "9, 12 => 17": 0.699867, "9, 12 => 18": 0.699867, "9, 15 => 12": 1.000000, "9, 15 => 17": 0.699867, "9, 15 => 18": 0.699867, "9, 17 => 12": 1.000000, "9, 17 => 15": 1.000000, "9, 17 => 18": 1.000000, "9, 18 => 12": 1.000000, "9, 18 => 15": 1.000000, "9, 18 => 17": 1.000000, "12, 15 => 9": 1.000000, "12, 15 => 17": 0.699867, "12, 15 => 18": 0.699867, "12, 17 => 9": 1.000000, "12, 17 => 15": 1.000000, "12, 17 => 18": 1.000000, "12, 18 => 9": 1.000000, "12, 18 => 15": 1.000000, "12, 18 => 17": 1.000000, "15, 17 => 9": 1.000000, "15, 17 => 12": 1.000000, "15, 17 => 18": 1.000000, "15, 18 => 9": 1.000000, "15, 18 => 12": 1.000000, "15, 18 => 17": 1.000000, "17, 18 => 9": 0.702733, "17, 18 => 12": 0.702733, "17, 18 => 15": 0.702733, "9, 12, 15 => 17": 0.699867, "9, 12, 15 => 18": 0.699867, "9, 12, 17 => 15": 1.000000, "9, 12, 17 => 18": 1.000000, "9, 12, 18 => 15": 1.000000, "9, 12, 18 => 17": 1.000000, "9, 15, 17 => 12": 1.000000, "9, 15, 17 => 18": 1.000000, "9, 15, 18 => 12": 1.000000, "9, 15, 18 => 17": 1.000000, "9, 17, 18 => 12": 1.000000, "9, 17, 18 => 15": 1.000000, "12, 15, 17 => 9": 1.000000, "12, 15, 17 => 18": 1.000000, "12, 15, 18 => 9": 1.000000, "12, 15, 18 => 17": 1.000000, "12, 17, 18 => 9": 1.000000, "12, 17, 18 => 15": 1.000000, "15, 17, 18 => 9": 1.000000, "15, 17, 18 => 12": 1.000000, "9, 12, 15, 17 => 18": 1.000000, "9, 12, 15, 18 => 17": 1.000000, "9, 12, 17, 18 => 15": 1.000000, "9, 15, 17, 18 => 12": 1.000000, "12, 15, 17, 18 => 9": 1.000000}
\x
Affichage étendu désactivé.
La colonne stxkeys nous informe que la statistique geants_couleur_gabarit_ere_berserk_cyclope concerne les colonnes 9 (COULEUR), 12 (GABARIT), 15 (BERSERK), 17 (ERE), 18 (CYCLOPE).
La colonne stxndistinct nous informe par exemple via "9, 12": 3 quil existe 3 combinaisons COULEUR, GABARIT significatives.
Enfin, la colonne stxdependencies nous informe par exemple via "9 => 12": 1.000000 que connaître la valeur de la colonne COULEUR pour une ligne permet de déduire la valeur de la colonne GABARIT.
La théorie cest bien mais est-ce que ça marche ? Et bien OUI. Depuis un correctif du 4 décembre 2017 de Tom Lane, les statistiques étendues ont bien leffet escompté avec lexemple précédent :
set random_page_cost=4;
SET
explain
select g.idg, g.devise, avg(l.perf)
from geants g join lancers l on (g.idg = l.idg)
where g.couleur = 'GRIS' and g.gabarit = 'PETIT' and g.ere = 'TAUREAU' and berserk = true and cyclope = true
group by g.idg, g.devise;
QUERY PLAN
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Finalize GroupAggregate (cost=1547230.61..1547877.30 rows=23516 width=69)
Group Key: g.idg
-> Sort (cost=1547230.61..1547348.19 rows=47032 width=69)
Sort Key: g.idg
-> Gather (cost=1536710.25..1541648.61 rows=47032 width=69)
Workers Planned: 2
-> Partial HashAggregate (cost=1535710.25..1535945.41 rows=23516 width=69)
Group Key: g.idg
-> Hash Join (cost=3472.95..1486718.59 rows=9798333 width=41)
Hash Cond: (l.idg = g.idg)
-> Parallel Seq Scan on lancers l (cost=0.00..957207.67 rows=41666667 width=8)
-> Hash (cost=3179.00..3179.00 rows=23516 width=37)
-> Seq Scan on geants g (cost=0.00..3179.00 rows=23516 width=37)
Filter: (berserk AND cyclope AND ((couleur)::text = 'GRIS'::text) AND ((gabarit)::text = 'PETIT'::text) AND ((ere)::text = 'TAUREAU'::text))
select g.idg, g.devise, avg(l.perf)
from geants g join lancers l on (g.idg = l.idg)
where g.couleur = 'GRIS' and g.gabarit = 'PETIT' and g.ere = 'TAUREAU' and berserk = true and cyclope = true
group by g.idg, g.devise;
Durée : 42090,069 ms (00:42,090)
...
Durée : 41446,604 ms (00:41,447)
...
Durée : 41123,613 ms (00:41,124)
Lestimation du nombre de lignes passe de 231 lignes à 23516 lignes. Cela reste assez éloigné de la valeur réelle de 29879 en raison de mauvaises estimations sur certaines dépendances. Mais cest néanmoins suffisant pour obtenir le plan performant que nous avions obtenu en jouant sur random_page_cost.
Il existe un autre problème potentiel. Comment le planner peut-il savoir que GABARIT=PETIT donne ERE=TAUREAU et pas ERE=LICORNE sur la base des informations de statistiques étendues ? Si les distributions de valeur étaient réparties de manière très différentes, il pourrait à la rigueur le déduire des statistiques par colonne mais ici (et en général) cest impossible. Vérification avec un exemple simple tiré de la documentation PostgreSQL :
CREATE TABLE t (a INT, b INT);
CREATE TABLE
INSERT INTO t SELECT i % 100, i % 100 FROM generate_series(1, 10000) s(i);
INSERT 0 10000
CREATE STATISTICS stts(dependencies) ON a, b FROM t;
CREATE STATISTICS
analyze t;
ANALYZE
select * from pg_statistic_ext;
stxrelid | stxname | stxnamespace | stxowner | stxkeys | stxkind | stxndistinct | stxdependencies
----------+---------+--------------+----------+---------+---------+--------------+------------------------------------------
24631 | stts | 2200 | 10 | 1 2 | {f} | | {"1 => 2": 1.000000, "2 => 1": 1.000000}
explain analyze select * from t where a = 1 and b = 1;
QUERY PLAN
-------------------------------------------------------------------------------------------------
Seq Scan on t (cost=0.00..195.00 rows=100 width=8) (actual time=0.032..2.187 rows=100 loops=1)
Filter: ((a = 1) AND (b = 1))
Rows Removed by Filter: 9900
Planning time: 0.328 ms
Execution time: 2.378 ms
explain analyze select * from t where a = 1 and b = 2;
QUERY PLAN
-----------------------------------------------------------------------------------------------
Seq Scan on t (cost=0.00..195.00 rows=100 width=8) (actual time=1.974..1.974 rows=0 loops=1)
Filter: ((a = 1) AND (b = 2))
Rows Removed by Filter: 10000
Planning time: 0.158 ms
Execution time: 2.020 ms
Pour a=1 et b=1, grâce aux statistiques étendues qui indiquent quil existe une dépendance entre a et b, le planner sait que la requête ne va pas retourner 1 ligne mais 100. Attention cependant aux limites que jai évoquées précédemment. Pour a = 1 et b = 2 il croit également que la requête va ramener 100 lignes alors quelle va évidemment en ramener...0. Cependant, ce nest pas si grave lorsque le but est déviter de surestimer la sélectivité, comme dans mon exemple du clan des géants.
Conclusion...provisoire
Statistiques multi-colonnes, statistiques étendues : la fonctionnalité introduite en version 10 est à présent pleinement utilisable. Elle donne un moyen supplémentaire de donner de linformation au planner afin dobtenir un plan dexécution optimal. Le correctif évoqué dans larticle sera disponible en version 11 mais aussi fourni avec la version 10.2.
Mise à jour : 07/12/2017