前言
关于group by 与distinct 性能对比:网上结论如下,不走索引少量数据distinct性能更好,大数据量group by 性能好,走索引group by性能好。走索引时分组种类少distinct快。关于网上的结论做一次验证。
准备阶段屏蔽查询缓存
查看MySQL中是否设置了查询缓存。为了不影响测试结果,需要关闭查询缓存。
show variables like '%query_cache%';
查看是否开启查询缓存决定于query_cache_type
和query_cache_size
。
- 方法一:关闭查询缓存需要找到my.ini,修改
query_cache_type
需要修改C:\ProgramData\MySQL\MySQL Server 5.7\my.ini配置文件,修改query_cache_type=0或2
。 - 方法二:设置
query_cache_size
为0,执行以下语句。
set global query_cache_size = 0;
方法三:如果你不想关闭查询缓存,也可以在使用RESET QUERY CACHE
。
现在测试环境中query_cache_type=2代表按需进行查询缓存,默认的查询方式是不会进行缓存,如需缓存则需要在查询语句中加上sql_cache
。
数据准备
t0表存放10W少量种类少
的数据
drop table if exists t0; create table t0( id bigint primary key auto_increment, a varchar(255) not null ) engine=InnoDB default charset=utf8mb4 collate=utf8mb4_bin; 1 2 3 4 5 drop procedure insert_t0_simple_category_data_sp; delimiter // create procedure insert_t0_simple_category_data_sp(IN num int) begin set @i = 0; while @i < num do insert into t0(a) value(truncate(@i/1000, 0)); set @i = @i + 1; end while; end // call insert_t0_simple_category_data_sp(100000);
t1表存放1W少量种类多
的数据
drop table if exists t1; create table t1 like t0; 1 2 drop procedure insert_t1_complex_category_data_sp; delimiter // create procedure insert_t1_complex_category_data_sp(IN num int) begin set @i = 0; while @i < num do insert into t1(a) value(truncate(@i/10, 0)); set @i = @i + 1; end while; end // call insert_t1_complex_category_data_sp(10000);
t2表存放500W大量种类多
的数据
drop table if exists t2; create table t2 like t1; 1 2 drop procedure insert_t2_complex_category_data_sp; delimiter // create procedure insert_t2_complex_category_data_sp(IN num int) begin set @i = 0; while @i < num do insert into t1(a) value(truncate(@i/10, 0)); set @i = @i + 1; end while; end // call insert_t2_complex_category_data_sp(5000000);
测试阶段
验证少量种类少数据
未加索引
set profiling = 1; select distinct a from t0; show profiles; select a from t0 group by a; show profiles; alter table t0 add index `a_t0_index`(a);
由此可见:少量种类少数据下,未加索引,distinct和group by性能相差无几。
加索引
alter table t0 add index `a_t0_index`(a);
执行上述类似查询后
由此可见:少量种类少数据下,加索引,distinct和group by性能相差无几。
验证少量种类多数据未加索引
执行上述类似未加索引查询后
由此可见:少量种类多数据下,未加索引,distinct比group by性能略高,差距并不大。
加索引
alter table t1 add index `a_t1_index`(a);
执行类似未加索引查询后
由此可见:少量种类多数据下,加索引,distinct和group by性能相差无几。
验证大量种类多数据
未加索引
SELECT count(1) FROM t2;
执行上述类似未加索引查询后
由此可见:大量种类多数据下,未加索引,distinct比group by性能高。
加索引
alter table t2 add index `a_t2_index`(a);
执行上述类似加索引查询后
由此可见:大量种类多数据下,加索引,distinct和group by性能相差无几。
总结
去重场景下,未加索引时,更偏向于使用distinct,而加索引时,distinct和group by两者都可以使用。
总结
RTX 5090要首发 性能要翻倍!三星展示GDDR7显存
三星在GTC上展示了专为下一代游戏GPU设计的GDDR7内存。
首次推出的GDDR7内存模块密度为16GB,每个模块容量为2GB。其速度预设为32 Gbps(PAM3),但也可以降至28 Gbps,以提高产量和初始阶段的整体性能和成本效益。
据三星表示,GDDR7内存的能效将提高20%,同时工作电压仅为1.1V,低于标准的1.2V。通过采用更新的封装材料和优化的电路设计,使得在高速运行时的发热量降低,GDDR7的热阻比GDDR6降低了70%。
更新日志
- 小骆驼-《草原狼2(蓝光CD)》[原抓WAV+CUE]
- 群星《欢迎来到我身边 电影原声专辑》[320K/MP3][105.02MB]
- 群星《欢迎来到我身边 电影原声专辑》[FLAC/分轨][480.9MB]
- 雷婷《梦里蓝天HQⅡ》 2023头版限量编号低速原抓[WAV+CUE][463M]
- 群星《2024好听新歌42》AI调整音效【WAV分轨】
- 王思雨-《思念陪着鸿雁飞》WAV
- 王思雨《喜马拉雅HQ》头版限量编号[WAV+CUE]
- 李健《无时无刻》[WAV+CUE][590M]
- 陈奕迅《酝酿》[WAV分轨][502M]
- 卓依婷《化蝶》2CD[WAV+CUE][1.1G]
- 群星《吉他王(黑胶CD)》[WAV+CUE]
- 齐秦《穿乐(穿越)》[WAV+CUE]
- 发烧珍品《数位CD音响测试-动向效果(九)》【WAV+CUE】
- 邝美云《邝美云精装歌集》[DSF][1.6G]
- 吕方《爱一回伤一回》[WAV+CUE][454M]