Springboot 手动分页查询分批批量插入数据的实现流程

2022-07-13,,,,

前言

业务场景是什么? 

就是数据库的一批数据,量不少,需要执行同步插入到别的地方。

简单点肯定是一次性查出来,然后循环一个个插入,完事。

考虑点:

① 数据量大,一次性查出来操作,很爆炸。

② 循环里面一次一次地去插入,如果非业务场景必要,基本是不会在循环里面使用sql操作的。

所以该篇作为抛砖引玉(还有很多需要考虑的点),给出一种解决上面场景的代码编写方案, 手动分页,查询后批量插入。

正文

实现的流程简图:

看看最终实现的效果,通过代码日志记录了这个实现后的效果 :

开始实战:

代码大体就这样:

 代码:

        //获取数据总计数
        userquerycondition userquerycondition=new userquerycondition();
        integer totalcount = userservice.getallusercount(userquerycondition);
        //每批同步的数据条数
        integer batchsizelimit = 500;
        //分批切割处理
        list<pagelimitdto> pagelimitgrouplist = getpagelimitgrouplist(totalcount, batchsizelimit);
        int count=1;
        //物理批次查询
        for (pagelimitdto pagebatchlimit:pagelimitgrouplist){
            list<user> pagebatchlist = userservice.getpagelist(
                    userquerycondition, pagebatchlimit.getcurrindex(), pagebatchlimit.getpagesize()
            );
            if (!collectionutils.isempty(pagebatchlist)){
                //批量插入
                boolean syncaddresult = usersyncservice.batchsyncadd(pagebatchlist);
                //做其余业务
                if (syncaddresult){
                    log.info("第{}次,user数据批量插入成功",count);
                }
            }
            log.info("第{}批次,user数据同步批量插入业务结束执行",count);
            count=count+1;
        }

切割函数getpagelimitgrouplist:

    public list<pagelimitdto> getpagelimitgrouplist(integer totalcount, integer batchsizelimit ) {
        log.info("这一次处理的总数据条数为 ={} 条, 每一批次处理条数为 ={} 条,现在开始做分批切割处理。",totalcount,batchsizelimit);
        int pagenum = totalcount / batchsizelimit;
        int surplus = totalcount % batchsizelimit;
        if (surplus > 0) {
            pagenum = pagenum + 1;
        }
        list<pagelimitdto> pagelimitgrouplist =new linkedlist<>();
        for(int i = 0; i < pagenum; i++){
            integer currindex = i * batchsizelimit;
            pagelimitdto pagelimitdto=new pagelimitdto();
            pagelimitdto.setpagesize(batchsizelimit);
            pagelimitdto.setcurrindex(currindex);
            pagelimitdto.setdealdatacount(currindex+batchsizelimit);
            pagelimitgrouplist.add(pagelimitdto);
            log.info("分批切割,第={}次,每次={}条,最终会处理到={}条。",pagelimitgrouplist.size(),batchsizelimit,currindex+batchsizelimit);
 
        }
        log.info("这一次处理的总数据条数为 ={} 条, 每一批次处理条数为 ={} 条,总共切割分成了 ={} 次,一切准备就绪,可以开始批量插入。",totalcount,batchsizelimit,pagelimitgrouplist.size());
        return pagelimitgrouplist;
    }

物理分页查询的mybatis sql写法示例(核心手动切割分页查询红色部分):

 代码:

    <select id="getpagelist" resultmap="baseresultmap">
        select *
        from user
        <where>
            <if test="merchantid != null and merchantid != 0">
                and merchant_id = #{merchantid}
            </if>
            <if test="namelist != null and !namelist.isempty()">
                and name in
                <foreach collection="namelist" separator="," open="(" close=")" item="name">
                    #{name}
                </foreach>
            </if>
        </where>
        limit #{currindex} , #{pagesize}
 
    </select>

批量插入示例:

    <!--批量插入信息-->
    <insert id="batchsyncadd" parametertype="java.util.list">
        insert into user(
        id,
        name,
        age
        )
        values
        <foreach collection="list" item="item" index="index" separator=",">
            (
            #{item.id,jdbctype=bigint},
            #{item.name,jdbctype=varchar},
            #{item.age,jdbctype=integer}
            )
        </foreach>
    </insert>

然后就是我们美如画的,手动批次切割查询插入:

当前方案作为抛砖引玉,还有比较多可优化的点,但是我不做扩展了,简单列举一下:

1. 每次切割分页查询,其实可以优化。 例如取上一次的id作为下一次的起始条件。
2. 同步异步的封装,可以更动态化。
3. 是否完全需要分批? 动态设置数据超过多少才开始分批切割,不超过,不需要走切割这些流程代码。

到此这篇关于springboot 手动分页查询,分批批量插入数据的文章就介绍到这了,更多相关springboot 分页查询内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!

《Springboot 手动分页查询分批批量插入数据的实现流程.doc》

下载本文的Word格式文档,以方便收藏与打印。