博客
关于我
mysql制作千万的测试数据
阅读量:703 次
发布时间:2019-03-17

本文共 2153 字,大约阅读时间需要 7 分钟。

{  "title": "数据库优化与数据处理脚本",  "description": "提供了一系列的数据库操作脚本,包括表结构创建、存储过程定义以及数据处理逻辑",  "mainContent": [    "### 数据库表结构创建"    ```    DROP TABLE IF EXISTS usertb;    CREATE TABLE usertb (        id serial,        uname VARCHAR(20),        ucreate_time DATETIME,        age INT(11),        ENGINE=MYISAM DEFAULT CHARACTER SET=utf8 COLLATE=utf8_general_ci AUTO_INCREMENT=1 ROW_FORMAT=COMPACT;    ```    "## 数据库索引配置"    "### 存储过程实现"    ```    DELIMITER $$ SET AUTOCOMMIT = 0;    DROP PROCEDURE IF EXISTS test1;    CREATE PROCEDURE test1()    BEGIN        DECLARE v_cnt DECIMAL(10) DEFAULT 0;        dd: LOOP            INSERT INTO usertb VALUES                (NULL, '用户1', '2010-01-01 00:00:00', 20),                (NULL, '用户2', '2010-01-01 00:00:00', 20),                -- 其他插入语句...            COMMIT;            SET v_cnt = v_cnt + 10;            IF v_cnt = 100 THEN LEAVE dd;            END IF;        END LOOP dd;    END$$    DELIMITER ;;    CALL test1();    ```    "### 数据库优化配置"    ```    CREATE TABLE `vote_record_memory` (        `id` INT(10) UNSIGNED AUTO_INCREMENT,        `user_id` VARCHAR(20) NOT NULL DEFAULT '',        `vote_num` INT(10) UNSIGNED DEFAULT 0,        `group_id` INT(10) UNSIGNED DEFAULT 0,        `status` TINYINT(2) UNSIGNED DEFAULT 1,        `create_time` DATETIME DEFAULT '0000-00-00 00:00:00',        PRIMARY KEY (`id`),        KEY `index_user_id` (`user_id`) USING HASH    ) ENGINE=InnoDB AUTO_INCREMENT=1 DEFAULT CHARSET=utf8;    ```    "## 数据处理功能开发"    "### 投票记录生成"    ```    DROP FUNCTION IF EXISTS `rand_string`;    CREATE FUNCTION `rand_string`(n INT) RETURNS VARCHAR(255) CHARSET 'utf8'     BEGIN        -- 生成随机字符串逻辑...    END;        DROP PROCEDURE IF EXISTS `add_vote_record_memory`;    CREATE PROCEDURE `add_vote_record_memory`(IN n INT)    BEGIN        WHILE i < n DO            -- 生成随机数据并插入数据库...        END WHILE;    END$$    CALL `add_vote_record_memory`(10);    ```    "### 数据验证与统计"    ```    SELECT count(*) FROM `vote_record_memory`;    INSERT INTO vote_record SELECT * FROM `vote_record_memory`;    SELECT count(*) FROM `vote_record`;    ```  "keywords": ["数据库优化", "存储过程", "MySQL", "数据库设计", "数据处理", "索引优化"]}

转载地址:http://tqbez.baihongyu.com/

你可能感兴趣的文章
Nginx配置文件nginx.conf中文详解(总结)
查看>>
Nginx配置自带的stub状态实现活动监控指标
查看>>
nginx配置详解、端口重定向和504
查看>>
Nginx配置负载均衡到后台网关集群
查看>>
Nginx配置限流,技能拉满!
查看>>
Nginx面试三连问:Nginx如何工作?负载均衡策略有哪些?如何限流?
查看>>
Nginx:NginxConfig可视化配置工具安装
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>