问答文章1 问答文章501 问答文章1001 问答文章1501 问答文章2001 问答文章2501 问答文章3001 问答文章3501 问答文章4001 问答文章4501 问答文章5001 问答文章5501 问答文章6001 问答文章6501 问答文章7001 问答文章7501 问答文章8001 问答文章8501 问答文章9001 问答文章9501

实战!聊聊如何解决MySQL深分页问题

发布网友 发布时间:2024-09-15 06:46

我来回答

1个回答

热心网友 时间:2024-09-23 21:22

前言

大家好,我是捡田螺的小男孩。

我们日常做分页需求时,一般会用limit实现,但是当偏移量特别大的时候,查询效率就变得低下。本文将分4个方案,讨论如何优化MySQL百万数据的深分页问题,并附上最近优化生产慢SQL的实战案例。

limit深分页为什么会变慢?

先看下表结构哈:

CREATETABLEaccount(idint(11)NOTNULLAUTO_INCREMENTCOMMENT'主键Id',namevarchar(255)DEFAULTNULLCOMMENT'账户名',balanceint(11)DEFAULTNULLCOMMENT'余额',create_timedatetimeNOTNULLCOMMENT'创建时间',update_timedatetimeNOTNULLONUPDATECURRENT_TIMESTAMPCOMMENT'更新时间',PRIMARYKEY(id),KEYidx_name(name),KEYidx_update_time(update_time)//索引)ENGINE=InnoDBAUTO_INCREMENT=1570068DEFAULTCHARSET=utf8ROW_FORMAT=REDUNDANTCOMMENT='账户表';

假设深分页的执行SQL如下:

selectid,name,balancefromaccountwhereupdate_time>'2020-09-19'limit100000,10;

这个SQL的执行时间如下:

执行完需要0.742秒,深分页为什么会变慢呢?如果换成limit0,10,只需要0.006秒哦

我们先来看下这个SQL的执行流程:

通过普通二级索引树idx_update_time,过滤update_time条件,找到满足条件的记录ID。

通过ID,回到主键索引树,找到满足记录的行,然后取出展示的列(回表)

扫描满足条件的100010行,然后扔掉前100000行,返回。

SQL的执行流程

执行计划如下:

SQL变慢原因有两个:

limit语句会先扫描offset+n行,然后再丢弃掉前offset行,返回后n行数据。也就是说limit100000,10,就会扫描100010行,而limit0,10,只扫描10行。

limit100000,10扫描更多的行数,也意味着回表更多的次数。

通过子查询优化

因为以上的SQL,回表了100010次,实际上,我们只需要10条数据,也就是我们只需要10次回表其实就够了。因此,我们可以通过减少回表次数来优化。

回顾B+树结构

那么,如何减少回表次数呢?我们先来复习下B+树索引结构哈~

InnoDB中,索引分主键索引(聚簇索引)和二级索引

主键索引,叶子节点存放的是整行数据

二级索引,叶子节点存放的是主键的值。

把条件转移到主键索引树

如果我们把查询条件,转移回到主键索引树,那就不就可以减少回表次数啦。转移到主键索引树查询的话,查询条件得改为主键id了,之前SQL的update_time这些条件咋办呢?抽到子查询那里嘛~

子查询那里怎么抽的呢?因为二级索引叶子节点是有主键ID的,所以我们直接根据update_time来查主键ID即可,同时我们把limit100000的条件,也转移到子查询,完整SQL如下:

selectid,name,balanceFROMaccountwhereid>=(selecta.idfromaccountawherea.update_time>='2020-09-19'limit100000,1)LIMIT10;

查询效果一样的,执行时间只需要0.038秒!

我们来看下执行计划

由执行计划得知,子查询tablea查询是用到了idx_update_time索引。首先在索引上拿到了聚集索引的主键ID,省去了回表操作,然后第二查询直接根据第一个查询的ID往后再去查10个就可以了!

因此,这个方案是可以的~

INNERJOIN延迟关联

延迟关联的优化思路,跟子查询的优化思路其实是一样的:都是把条件转移到主键索引树,然后减少回表。不同点是,延迟关联使用了innerjoin代替子查询。

优化后的SQL如下:

SELECTacct1.id,acct1.name,acct1.balanceFROMaccountacct1INNERJOIN(SELECTa.idFROMaccountaWHEREa.update_time>='2020-09-19'ORDERBYa.update_timeLIMIT100000,10)ASacct2onacct1.id=acct2.id;

查询效果也是杠杆的,只需要0.034秒

执行计划如下:

查询思路就是,先通过idx_update_time二级索引树查询到满足条件的主键ID,再与原表通过主键ID内连接,这样后面直接走了主键索引了,同时也减少了回表。

标签记录法

limit深分页问题的本质原因就是:偏移量(offset)越大,MySQL就会扫描越多的行,然后再抛弃掉。这样就导致查询性能的下降。

其实我们可以采用标签记录法,就是标记一下上次查询到哪一条了,下次再来查的时候,从该条开始往下扫描。就好像看书一样,上次看到哪里了,你就折叠一下或者夹个书签,下次来看的时候,直接就翻到啦。

假设上一次记录到100000,则SQL可以修改为:

selectid,name,balanceFROMaccountwhereid>100000orderbyidlimit10;

这样的话,后面无论翻多少页,性能都会不错的,因为命中了id索引。但是你,这种方式有局限性:需要一种类似连续自增的字段。

使用between...and...

很多时候,可以将limit查询转换为已知位置的查询,这样MySQL通过范围扫描between...and,就能获得到对应的结果。

如果知道边界值为100000,100010后,就可以这样优化:

selectid,name,balanceFROMaccountwhereidbetween100000and100010orderbyiddesc;手把手实战案例

我们一起来看一个实战案例哈。假设现在有表结构如下,并且有200万数据.

CREATETABLEaccount(idvarchar(32)COLLATEutf8_binNOTNULLCOMMENT'主键',account_novarchar(64)COLLATEutf8_binNOTNULLDEFAULT''COMMENT'账号'amountdecimal(20,2)DEFAULTNULLCOMMENT'金额'typevarchar(10)COLLATEutf8_binDEFAULTNULLCOMMENT'类型A,B'create_timedatetimeDEFAULTNULLCOMMENT'创建时间',update_timedatetimeDEFAULTNULLCOMMENT'更新时间',PRIMARYKEY(id),KEY`idx_account_no`(account_no),KEY`idx_create_time`(create_time))ENGINE=InnoDBDEFAULTCHARSET=utf8COLLATE=utf8_binCOMMENT='账户表'

业务需求是这样:获取最2021年的A类型账户数据,上报到大数据平台。

一般思路的实现方式

很多伙伴接到这么一个需求,会直接这么实现了:

//查询上报总数量Integertotal=accountDAO.countAccount();//查询上报总数量对应的SQL<selectid='countAccount'resultType="java.lang.Integer">seelctcount(1)fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'</select>//计算页数intpageNo=total%pageSize==0?total/pageSize:(total/pageSize+1);//分页查询,上报for(inti=0;i<pageNo;i++){List<AcctountPO>list=accountDAO.listAccountByPage(startRow,pageSize);startRow=(pageNo-1)*pageSize;//上报大数据postBigData(list);}//分页查询SQL(可能存在limit深分页问题,因为account表数据量几百万)<selectid='listAccountByPage'>seelct*fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'limit#{startRow},#{pageSize}</select>实战优化方案

以上的实现方案,会存在limit深分页问题,因为account表数据量几百万。那怎么优化呢?

其实可以使用标签记录法,有些伙伴可能会有疑惑,id主键不是连续的呀,真的可以使用标签记录?

当然可以,id不是连续,我们可以通过orderby让它连续嘛。优化方案如下:

//查询最小IDStringlastId=accountDAO.queryMinId();//查询最大ID对应的SQL<selectid="queryMinId"returnType=“java.lang.String”>selectMIN(id)fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'</select>//一页的条数IntegerpageSize=100;List<AcctountPO>list;do{list=listAccountByPage(lastId,pageSize);//标签记录法,记录上次查询过的IdlastId=list.get(list,size()-1).getId();//上报大数据postBigData(list);}while(CollectionUtils.isNotEmpty(list));<selectid="listAccountByPage">select*fromaccountwherecreate_time>='2021-01-0100:00:00'andid>#{lastId}andtype='A'orderbyidasclimit#{pageSize}</select>公众号:捡田螺的小男孩

热心网友 时间:2024-10-04 15:27

前言

大家好,我是捡田螺的小男孩。

我们日常做分页需求时,一般会用limit实现,但是当偏移量特别大的时候,查询效率就变得低下。本文将分4个方案,讨论如何优化MySQL百万数据的深分页问题,并附上最近优化生产慢SQL的实战案例。

limit深分页为什么会变慢?

先看下表结构哈:

CREATETABLEaccount(idint(11)NOTNULLAUTO_INCREMENTCOMMENT'主键Id',namevarchar(255)DEFAULTNULLCOMMENT'账户名',balanceint(11)DEFAULTNULLCOMMENT'余额',create_timedatetimeNOTNULLCOMMENT'创建时间',update_timedatetimeNOTNULLONUPDATECURRENT_TIMESTAMPCOMMENT'更新时间',PRIMARYKEY(id),KEYidx_name(name),KEYidx_update_time(update_time)//索引)ENGINE=InnoDBAUTO_INCREMENT=1570068DEFAULTCHARSET=utf8ROW_FORMAT=REDUNDANTCOMMENT='账户表';

假设深分页的执行SQL如下:

selectid,name,balancefromaccountwhereupdate_time>'2020-09-19'limit100000,10;

这个SQL的执行时间如下:

执行完需要0.742秒,深分页为什么会变慢呢?如果换成limit0,10,只需要0.006秒哦

我们先来看下这个SQL的执行流程:

通过普通二级索引树idx_update_time,过滤update_time条件,找到满足条件的记录ID。

通过ID,回到主键索引树,找到满足记录的行,然后取出展示的列(回表)

扫描满足条件的100010行,然后扔掉前100000行,返回。

SQL的执行流程

执行计划如下:

SQL变慢原因有两个:

limit语句会先扫描offset+n行,然后再丢弃掉前offset行,返回后n行数据。也就是说limit100000,10,就会扫描100010行,而limit0,10,只扫描10行。

limit100000,10扫描更多的行数,也意味着回表更多的次数。

通过子查询优化

因为以上的SQL,回表了100010次,实际上,我们只需要10条数据,也就是我们只需要10次回表其实就够了。因此,我们可以通过减少回表次数来优化。

回顾B+树结构

那么,如何减少回表次数呢?我们先来复习下B+树索引结构哈~

InnoDB中,索引分主键索引(聚簇索引)和二级索引

主键索引,叶子节点存放的是整行数据

二级索引,叶子节点存放的是主键的值。

把条件转移到主键索引树

如果我们把查询条件,转移回到主键索引树,那就不就可以减少回表次数啦。转移到主键索引树查询的话,查询条件得改为主键id了,之前SQL的update_time这些条件咋办呢?抽到子查询那里嘛~

子查询那里怎么抽的呢?因为二级索引叶子节点是有主键ID的,所以我们直接根据update_time来查主键ID即可,同时我们把limit100000的条件,也转移到子查询,完整SQL如下:

selectid,name,balanceFROMaccountwhereid>=(selecta.idfromaccountawherea.update_time>='2020-09-19'limit100000,1)LIMIT10;

查询效果一样的,执行时间只需要0.038秒!

我们来看下执行计划

由执行计划得知,子查询tablea查询是用到了idx_update_time索引。首先在索引上拿到了聚集索引的主键ID,省去了回表操作,然后第二查询直接根据第一个查询的ID往后再去查10个就可以了!

因此,这个方案是可以的~

INNERJOIN延迟关联

延迟关联的优化思路,跟子查询的优化思路其实是一样的:都是把条件转移到主键索引树,然后减少回表。不同点是,延迟关联使用了innerjoin代替子查询。

优化后的SQL如下:

SELECTacct1.id,acct1.name,acct1.balanceFROMaccountacct1INNERJOIN(SELECTa.idFROMaccountaWHEREa.update_time>='2020-09-19'ORDERBYa.update_timeLIMIT100000,10)ASacct2onacct1.id=acct2.id;

查询效果也是杠杆的,只需要0.034秒

执行计划如下:

查询思路就是,先通过idx_update_time二级索引树查询到满足条件的主键ID,再与原表通过主键ID内连接,这样后面直接走了主键索引了,同时也减少了回表。

标签记录法

limit深分页问题的本质原因就是:偏移量(offset)越大,MySQL就会扫描越多的行,然后再抛弃掉。这样就导致查询性能的下降。

其实我们可以采用标签记录法,就是标记一下上次查询到哪一条了,下次再来查的时候,从该条开始往下扫描。就好像看书一样,上次看到哪里了,你就折叠一下或者夹个书签,下次来看的时候,直接就翻到啦。

假设上一次记录到100000,则SQL可以修改为:

selectid,name,balanceFROMaccountwhereid>100000orderbyidlimit10;

这样的话,后面无论翻多少页,性能都会不错的,因为命中了id索引。但是你,这种方式有局限性:需要一种类似连续自增的字段。

使用between...and...

很多时候,可以将limit查询转换为已知位置的查询,这样MySQL通过范围扫描between...and,就能获得到对应的结果。

如果知道边界值为100000,100010后,就可以这样优化:

selectid,name,balanceFROMaccountwhereidbetween100000and100010orderbyiddesc;手把手实战案例

我们一起来看一个实战案例哈。假设现在有表结构如下,并且有200万数据.

CREATETABLEaccount(idvarchar(32)COLLATEutf8_binNOTNULLCOMMENT'主键',account_novarchar(64)COLLATEutf8_binNOTNULLDEFAULT''COMMENT'账号'amountdecimal(20,2)DEFAULTNULLCOMMENT'金额'typevarchar(10)COLLATEutf8_binDEFAULTNULLCOMMENT'类型A,B'create_timedatetimeDEFAULTNULLCOMMENT'创建时间',update_timedatetimeDEFAULTNULLCOMMENT'更新时间',PRIMARYKEY(id),KEY`idx_account_no`(account_no),KEY`idx_create_time`(create_time))ENGINE=InnoDBDEFAULTCHARSET=utf8COLLATE=utf8_binCOMMENT='账户表'

业务需求是这样:获取最2021年的A类型账户数据,上报到大数据平台。

一般思路的实现方式

很多伙伴接到这么一个需求,会直接这么实现了:

//查询上报总数量Integertotal=accountDAO.countAccount();//查询上报总数量对应的SQL<selectid='countAccount'resultType="java.lang.Integer">seelctcount(1)fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'</select>//计算页数intpageNo=total%pageSize==0?total/pageSize:(total/pageSize+1);//分页查询,上报for(inti=0;i<pageNo;i++){List<AcctountPO>list=accountDAO.listAccountByPage(startRow,pageSize);startRow=(pageNo-1)*pageSize;//上报大数据postBigData(list);}//分页查询SQL(可能存在limit深分页问题,因为account表数据量几百万)<selectid='listAccountByPage'>seelct*fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'limit#{startRow},#{pageSize}</select>实战优化方案

以上的实现方案,会存在limit深分页问题,因为account表数据量几百万。那怎么优化呢?

其实可以使用标签记录法,有些伙伴可能会有疑惑,id主键不是连续的呀,真的可以使用标签记录?

当然可以,id不是连续,我们可以通过orderby让它连续嘛。优化方案如下:

//查询最小IDStringlastId=accountDAO.queryMinId();//查询最大ID对应的SQL<selectid="queryMinId"returnType=“java.lang.String”>selectMIN(id)fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'</select>//一页的条数IntegerpageSize=100;List<AcctountPO>list;do{list=listAccountByPage(lastId,pageSize);//标签记录法,记录上次查询过的IdlastId=list.get(list,size()-1).getId();//上报大数据postBigData(list);}while(CollectionUtils.isNotEmpty(list));<selectid="listAccountByPage">select*fromaccountwherecreate_time>='2021-01-0100:00:00'andid>#{lastId}andtype='A'orderbyidasclimit#{pageSize}</select>公众号:捡田螺的小男孩

热心网友 时间:2024-10-04 15:26

前言

大家好,我是捡田螺的小男孩。

我们日常做分页需求时,一般会用limit实现,但是当偏移量特别大的时候,查询效率就变得低下。本文将分4个方案,讨论如何优化MySQL百万数据的深分页问题,并附上最近优化生产慢SQL的实战案例。

limit深分页为什么会变慢?

先看下表结构哈:

CREATETABLEaccount(idint(11)NOTNULLAUTO_INCREMENTCOMMENT'主键Id',namevarchar(255)DEFAULTNULLCOMMENT'账户名',balanceint(11)DEFAULTNULLCOMMENT'余额',create_timedatetimeNOTNULLCOMMENT'创建时间',update_timedatetimeNOTNULLONUPDATECURRENT_TIMESTAMPCOMMENT'更新时间',PRIMARYKEY(id),KEYidx_name(name),KEYidx_update_time(update_time)//索引)ENGINE=InnoDBAUTO_INCREMENT=1570068DEFAULTCHARSET=utf8ROW_FORMAT=REDUNDANTCOMMENT='账户表';

假设深分页的执行SQL如下:

selectid,name,balancefromaccountwhereupdate_time>'2020-09-19'limit100000,10;

这个SQL的执行时间如下:

执行完需要0.742秒,深分页为什么会变慢呢?如果换成limit0,10,只需要0.006秒哦

我们先来看下这个SQL的执行流程:

通过普通二级索引树idx_update_time,过滤update_time条件,找到满足条件的记录ID。

通过ID,回到主键索引树,找到满足记录的行,然后取出展示的列(回表)

扫描满足条件的100010行,然后扔掉前100000行,返回。

SQL的执行流程

执行计划如下:

SQL变慢原因有两个:

limit语句会先扫描offset+n行,然后再丢弃掉前offset行,返回后n行数据。也就是说limit100000,10,就会扫描100010行,而limit0,10,只扫描10行。

limit100000,10扫描更多的行数,也意味着回表更多的次数。

通过子查询优化

因为以上的SQL,回表了100010次,实际上,我们只需要10条数据,也就是我们只需要10次回表其实就够了。因此,我们可以通过减少回表次数来优化。

回顾B+树结构

那么,如何减少回表次数呢?我们先来复习下B+树索引结构哈~

InnoDB中,索引分主键索引(聚簇索引)和二级索引

主键索引,叶子节点存放的是整行数据

二级索引,叶子节点存放的是主键的值。

把条件转移到主键索引树

如果我们把查询条件,转移回到主键索引树,那就不就可以减少回表次数啦。转移到主键索引树查询的话,查询条件得改为主键id了,之前SQL的update_time这些条件咋办呢?抽到子查询那里嘛~

子查询那里怎么抽的呢?因为二级索引叶子节点是有主键ID的,所以我们直接根据update_time来查主键ID即可,同时我们把limit100000的条件,也转移到子查询,完整SQL如下:

selectid,name,balanceFROMaccountwhereid>=(selecta.idfromaccountawherea.update_time>='2020-09-19'limit100000,1)LIMIT10;

查询效果一样的,执行时间只需要0.038秒!

我们来看下执行计划

由执行计划得知,子查询tablea查询是用到了idx_update_time索引。首先在索引上拿到了聚集索引的主键ID,省去了回表操作,然后第二查询直接根据第一个查询的ID往后再去查10个就可以了!

因此,这个方案是可以的~

INNERJOIN延迟关联

延迟关联的优化思路,跟子查询的优化思路其实是一样的:都是把条件转移到主键索引树,然后减少回表。不同点是,延迟关联使用了innerjoin代替子查询。

优化后的SQL如下:

SELECTacct1.id,acct1.name,acct1.balanceFROMaccountacct1INNERJOIN(SELECTa.idFROMaccountaWHEREa.update_time>='2020-09-19'ORDERBYa.update_timeLIMIT100000,10)ASacct2onacct1.id=acct2.id;

查询效果也是杠杆的,只需要0.034秒

执行计划如下:

查询思路就是,先通过idx_update_time二级索引树查询到满足条件的主键ID,再与原表通过主键ID内连接,这样后面直接走了主键索引了,同时也减少了回表。

标签记录法

limit深分页问题的本质原因就是:偏移量(offset)越大,MySQL就会扫描越多的行,然后再抛弃掉。这样就导致查询性能的下降。

其实我们可以采用标签记录法,就是标记一下上次查询到哪一条了,下次再来查的时候,从该条开始往下扫描。就好像看书一样,上次看到哪里了,你就折叠一下或者夹个书签,下次来看的时候,直接就翻到啦。

假设上一次记录到100000,则SQL可以修改为:

selectid,name,balanceFROMaccountwhereid>100000orderbyidlimit10;

这样的话,后面无论翻多少页,性能都会不错的,因为命中了id索引。但是你,这种方式有局限性:需要一种类似连续自增的字段。

使用between...and...

很多时候,可以将limit查询转换为已知位置的查询,这样MySQL通过范围扫描between...and,就能获得到对应的结果。

如果知道边界值为100000,100010后,就可以这样优化:

selectid,name,balanceFROMaccountwhereidbetween100000and100010orderbyiddesc;手把手实战案例

我们一起来看一个实战案例哈。假设现在有表结构如下,并且有200万数据.

CREATETABLEaccount(idvarchar(32)COLLATEutf8_binNOTNULLCOMMENT'主键',account_novarchar(64)COLLATEutf8_binNOTNULLDEFAULT''COMMENT'账号'amountdecimal(20,2)DEFAULTNULLCOMMENT'金额'typevarchar(10)COLLATEutf8_binDEFAULTNULLCOMMENT'类型A,B'create_timedatetimeDEFAULTNULLCOMMENT'创建时间',update_timedatetimeDEFAULTNULLCOMMENT'更新时间',PRIMARYKEY(id),KEY`idx_account_no`(account_no),KEY`idx_create_time`(create_time))ENGINE=InnoDBDEFAULTCHARSET=utf8COLLATE=utf8_binCOMMENT='账户表'

业务需求是这样:获取最2021年的A类型账户数据,上报到大数据平台。

一般思路的实现方式

很多伙伴接到这么一个需求,会直接这么实现了:

//查询上报总数量Integertotal=accountDAO.countAccount();//查询上报总数量对应的SQL<selectid='countAccount'resultType="java.lang.Integer">seelctcount(1)fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'</select>//计算页数intpageNo=total%pageSize==0?total/pageSize:(total/pageSize+1);//分页查询,上报for(inti=0;i<pageNo;i++){List<AcctountPO>list=accountDAO.listAccountByPage(startRow,pageSize);startRow=(pageNo-1)*pageSize;//上报大数据postBigData(list);}//分页查询SQL(可能存在limit深分页问题,因为account表数据量几百万)<selectid='listAccountByPage'>seelct*fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'limit#{startRow},#{pageSize}</select>实战优化方案

以上的实现方案,会存在limit深分页问题,因为account表数据量几百万。那怎么优化呢?

其实可以使用标签记录法,有些伙伴可能会有疑惑,id主键不是连续的呀,真的可以使用标签记录?

当然可以,id不是连续,我们可以通过orderby让它连续嘛。优化方案如下:

//查询最小IDStringlastId=accountDAO.queryMinId();//查询最大ID对应的SQL<selectid="queryMinId"returnType=“java.lang.String”>selectMIN(id)fromaccountwherecreate_time>='2021-01-0100:00:00'andtype='A'</select>//一页的条数IntegerpageSize=100;List<AcctountPO>list;do{list=listAccountByPage(lastId,pageSize);//标签记录法,记录上次查询过的IdlastId=list.get(list,size()-1).getId();//上报大数据postBigData(list);}while(CollectionUtils.isNotEmpty(list));<selectid="listAccountByPage">select*fromaccountwherecreate_time>='2021-01-0100:00:00'andid>#{lastId}andtype='A'orderbyidasclimit#{pageSize}</select>公众号:捡田螺的小男孩
声明声明:本网页内容为用户发布,旨在传播知识,不代表本网认同其观点,若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。E-MAIL:11247931@qq.com
提升学历选自考好还是成考好 成考和自考的文凭哪个好 2024年成人自考和成人高考哪个更好 家用净水器滤芯类型有哪些 家用净水器什么滤芯好 请问在VB中如何调用多线程? 交强险理赔后第二年上涨吗? 交强险出一次险第二年保费多出多少? 全家人都爱吃的家常菜目录 丽台Quadro P5000专业图形显卡-购买最佳价格 笔记本电脑买i7好还是i5好 房贷逾期退房违约金多少 房贷逾期要交什么金 糖尿病人并发症有哪些 复印机卡纸咋回事 (复印机卡纸的原因和排除方法)打印机为什么老是卡纸 《溺爱冰山娃娃》txt全集下载 晚若夕云电子书txt全集下载 《晚若夕云》最新txt全集下载 海棠花开满枝桠的txt全集下载地址 有些人聊着聊着就不见了怎么办 华尔顿电热水器不点火,控制器不推动微动开关.怎么修 华士顿热水器凉水处漏水 巨型计划是什么意思? 朋友计划是什么意思? 市政能考什么 我是1974年农历五月初十,寅时出生,男,我想问:我的幸运颜色,最适合穿... 请大师指点:1974年8月初9寅时生人,男性,养什么品种龟好,助事业,助财运... 1974年农历2月28寅时生(男)适合养啥鱼? 笔记本电脑如何和电视连接显示画面 i5和i7哪个更合适笔记本? MySQL数据转换一行变多行mysql一行转为多行 英特尔酷睿i7可以用在笔记本上么? 笔记本电脑i5好,还是i7好? MySQL中如何优化OR条件查询mysql中or怎么优化 笔记本i7和i5哪个更好? Nest.js快速入门:实现对Mysql单表的CRUD 计提所得税在利润表中怎么体现 怎样保存微信聊天记录?怎样保存聊天记录? 怎么才能保存微信聊天记录呢 微信的聊天记录怎么保存啊? 永恒宁非是刹那时光 意思 别抄 谢谢 谢谢啊 电梯出现Error是什么意思? 呼伦贝尔直播的排名巴图舅舅第几名 呼伦贝尔第三届那达慕现场直播在哪个卫视看 汤泉释义 电脑的系统只要一更新,软件就都没了是吗? 电脑系统更新原机软件都没有了怎么办 我的电脑做系统第五代软件没有了怎么办,还能重新下载吗 C语言中&amp;&amp;(与)和|(或)的优先级到底哪个高,还是一样高啊?