MySQL快速生成大量测试数据1000万
发布日期:2021-07-01 02:22:56
浏览次数:3
分类:技术文章
本文共 1247 字,大约阅读时间需要 4 分钟。
#建测试表CREATE TABLE t ( id int NOT NULL AUTO_INCREMENT PRIMARY KEY comment '自增主键', dept tinyint not null comment '部门id', name varchar(30) comment '用户名称', create_time datetime not null comment '注册时间', last_login_time datetime comment '最后登录时间' ) comment '测试表'; #手工插入第一条测试数据,后面数据会根据这条数据作为基础生成insert into t values(1,1,'user_1', '2018-01-01 00:00:00', '2018-03-01 12:00:00');#初始化序列变量set @i=1; #==================此处拷贝反复执行,直接符合预想的数据量===================#执行20次即2的20次方=1048576 条记录#执行23次即2的23次方=8388608 条记录#执行24次即2的24次方=16777216 条记录#......insert into t(dept, name, create_time, last_login_time) select left(rand()*10,1) as dept, #随机生成1~10的整数 concat('user_',@i:=@i+1), #按序列生成不同的name date_add(create_time,interval +@i*cast(rand()*100 as signed) SECOND), #生成有时间大顺序随机注册时间 date_add(date_add(create_time,interval +@i*cast(rand()*100 as signed) SECOND), interval + cast(rand()*1000000 as signed) SECOND) #生成有时间大顺序的随机的最后登录时间from t;select count(1) from t;#==================此处结束反复执行===================== #创建索引(视情况执行)create index idx_dept on t(dept);create index idx_create_time on t(create_time);create index idx_last_login_time on t(last_login_time);
转载地址:https://mapengsen.blog.csdn.net/article/details/108651569 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!
发表评论
最新留言
感谢大佬
[***.8.128.20]2024年04月25日 01时43分02秒
关于作者
喝酒易醉,品茶养心,人生如梦,品茶悟道,何以解忧?唯有杜康!
-- 愿君每日到此一游!
推荐文章
使用 Minidumps 和 Visual Studio .NET 进行崩溃后调试
2019-05-01
Debug 和 Release 编译方式的本质区别
2019-05-01
struts返回xml数据例子
2019-05-01
内存对齐详解
2019-05-01
秋招总结(一)-C++归纳
2019-05-01
秋招总结(三)-操作系统归纳
2019-05-01
带缓冲I/O 和不带缓冲I/O的区别与联系
2019-05-01
LINUX CP命令详解
2019-05-01
source insight快捷键及使用技巧
2019-05-01
映 射 ALT 键
2019-05-01
vim使用快捷键F4生成文件头注释、F5生成main函数模板、F6生成.h文件框架模板
2019-05-01
用python解析html
2019-05-01
OV5620的视频驱动
2019-05-01
C++中两个类交叉定义或递归定义的解决办法
2019-05-01
ECharts is not Loaded解决方案
2019-05-01
ECharts地图显示不完整,只显示南海诸岛问题
2019-05-01
echarts切换tab时,第一个图表显示,第二个图表不显示的解决办法
2019-05-01
记一次Hive 行转列 引起的GC overhead limit exceeded
2019-05-01
OpenGL ES八 - 交叉存取顶点数据
2019-05-01