主页 > 知识库 > 关于数据库优化问题收集汇总

关于数据库优化问题收集汇总

热门标签:网站排名优化 百度竞价排名 铁路电话系统 AI电销 服务外包 呼叫中心市场需求 地方门户网站 Linux服务器
在使用SQL往往会陷入一个区,即太注于所得的果是否正确,而忽略了不同的实现方法之可能存在的性能差异,这种性能差异在大型的或是复杂的数据库环境中(如机事务处OLTP或决策支持系DSS)中表得尤

笔者在工作践中发现,不良的SQL往往来自于不恰当的索引设计、不充份的接条件和不可化的where子句。
们进行适当的化后,其运行速度有了明地提高!
下面将从这三个方面分别进行总结:
了更直问题,所有例中的SQL运行时间经过测试,不超1秒的均表示 1秒)。----
测试环主机:HP LH II---- 330MHZ---- 内存:128----
操作系Operserver5.0.4----
数据Sybase11.0.3
 
一、不合理的索引设计----
例:表record620000行,看在不同的索引下,下面几个 SQL的运行情况:
---- 1.date上建有一非个群集索引
select count(*) from record where date >'19991201' and date '19991214'and amount >2000 (25秒)
select date ,sum(amount) from record group by date(55秒)
select count(*) from record where date >'19990901' and place in ('BJ','SH') (27秒)
---- 分析:----
date上有大量的重复值,在非群集索引下,数据在物理上随机存放在数据上,在范围查,必须执行一次表描才能找到一范内的全部行。
---- 2.date上的一个群集索引
select count(*) from record where date >'19991201' and date '19991214' and amount >2000 (14秒)
select date,sum(amount) from record group by date(28秒)
select count(*) from record where date >'19990901' and place in ('BJ','SH')(14秒)
---- 分析:---- 在群集索引下,数据在物理上按序在数据上,重复值也排列在一起,因而在范围查,可以先找到个范的起末点,且只在个范描数据,避免了大范围扫描,提高了查询速度。
---- 3.placedateamount上的合索引
select count(*) from record where date >'19991201' and date '19991214' and amount >2000 (26秒)
select date,sum(amount) from record group by date(27秒)
select count(*) from record where date >'19990901' and place in ('BJ, 'SH')( 1秒)
---- 分析:---- 是一个不很合理的合索引,因它的前列是place,第一和第二条SQL没有引用place,因此也没有利用上索引;第三个SQL使用了place,且引用的所有列都包含在合索引中,形成了索引覆盖,所以它的速度是非常快的。
---- 4.dateplaceamount上的合索引
select count(*) from record where date >'19991201' and date '19991214' and amount >2000( 1秒)
select date,sum(amount) from record group by date(11秒)
select count(*) from record where date >'19990901' and place in ('BJ','SH')( 1秒)
---- 分析:---- 是一个合理的合索引。它将date列,使SQL都可以利用索引,并且在第一和第三个SQL中形成了索引覆盖,因而性能达到了最
---- 5.总结:----
缺省情况下建立的索引是非群集索引,但有它并不是最佳的;合理的索引设计要建立在种查询的分析和预测上。
一般来
.有大量重复值、且常有范围查询between, >, >=, =)和order bygroup by生的列,可考建立群集索引;
.常同存取多列,且列都含有重复值可考建立合索引;
.合索引要尽量使关键查询形成索引覆盖,其前列一定是使用最繁的列。
 
二、不充份的接条件:
例:表card7896行,在card_no上有一个非聚集索引,表account191122行,在account_no上有一个非聚集索引,看在不同的表接条件下,两个SQL行情况:
select sum(a.amount) from account a,card b where a.card_no = b.card_no(20秒)
select sum(a.amount) from account a,card b where a.card_no = b.card_no and a.account_no=b.account_no( 1秒)
---- 分析:---- 在第一个接条件下,最佳查询方案是将account作外表,card作内表,利用card上的索引,其I/O次数可由以下公式估算
account上的22541+(外account191122*card对应表第一行所要找的3=595907I/O
在第二个接条件下,最佳查询方案是将card作外表,account作内表,利用account上的索引,其I/O次数可由以下公式估算:外card上的1944+(外card7896*account对应一行所要找的4= 33528I/O
,只有充份的接条件,真正的最佳方案才会被行。
总结:
1.多表操作在被实际执行前,查询优化器会根据接条件,列出几可能的接方案并从中找出系统开销最小的最佳方案。接条件要充份考虑带有索引的表、行数多的表;内外表的选择可由公式:外表中的匹配行数*表中一次找的次数确定,乘最小最佳方案。
2.行方案的方法-- set showplanon,打showplan选项,就可以看到序、使用何索引的信息;想看更详细的信息,需用sa角色dbcc(3604,310,302)
 
三、不可化的where子句
1.例:下列SQL条件句中的列都建有恰当的索引,但行速度却非常慢:
select * from record wheresubstring(card_no,1,4)='5378'(13秒)
select * from record whereamount/30 1000(11秒)
select * from record whereconvert(char(10),date,112)='19991201'(10秒)
分析:
where子句中列的任何操作果都是在SQL运行逐列算得到的,因此它不得不行表搜索,而没有使用列上面的索引;
如果果在查询编译时就能得到,那就可以被SQL化器化,使用索引,避免表搜索,因此将SQL重写成下面这样
select * from record where card_no like'5378%'( 1秒)
select * from record where amount 1000*30( 1秒)
select * from record where date= '1999/12/01'( 1秒)
你会发现SQL快起来!
2.例:表stuff200000行,id_no上有非群集索引,看下面SQL
select count(*) from stuff where id_no in('0','1')(23秒)
分析:---- where条件中的'in'逻辑上相当于'or',所以法分析器会将in ('0','1')id_no ='0' or id_no='1'行。
期望它会根据or子句分别查找,再将果相加,这样可以利用id_no上的索引;
实际上(根据showplan,它却采用了"OR策略",即先取出or子句的行,存入临时数据的工作表中,再建立唯一索引以去掉重行,最后从临时表中果。因此,实际过程没有利用id_no上索引,并且完成时间还要受tempdb数据性能的影响。
明,表的行数越多,工作表的性能就越差,当stuff620000时间竟达到220秒!不如将or子句分
select count(*) from stuff where id_no='0'select count(*) from stuff where id_no='1'
得到两个果,再作一次加法合算。因为每句都使用了索引,时间只有3秒,在620000行下,时间也只有4秒。
或者,用更好的方法,写一个简单的存储过程:
create proc count_stuff asdeclare @a intdeclare @b intdeclare @c intdeclare @d char(10)beginselect @a=count(*) from stuff where id_no='0'select @b=count(*) from stuff where id_no='1'endselect @c=@a+@bselect @d=convert(char(10),@c)print @d
直接算出果,时间同上面一快!
 
---- 总结:---- 
,所谓优化即where子句利用了索引,不可化即生了表描或开销
1.任何列的操作都将致表描,它包括数据函数、算表达式等等,查询时要尽可能将操作移至等号右
2.inor子句常会使用工作表,使索引失效;如果不生大量重复值,可以考把子句拆;拆的子句中应该包含索引。
3.要善于使用存储过程,它使SQL得更加灵活和高效。
从以上些例子可以看出,SQL化的实质就是在果正确的前提下,用化器可以识别句,充份利用索引,减少表描的I/O次数,尽量避免表搜索的生。其SQL的性能化是一个复杂程,上述些只是在次的一,深入研究及数据库层源配置、网络层的流量控制以及操作系统层设计
 
1、开发人员如果用到其他库的Table或View,务必在当前库中建立View来实现跨库操作,最好不要直接使用“databse.dbo.table_name”,因为sp_depends不能显示出该SP所使用的跨库table或view,不方便校验。

2、开发人员在提交SP前,必须已经使用set showplan on分析过查询计划,做过自身的查询优化检查。

3、高程序运行效率,优化应用程序,在SP编写过程中应该注意以下几点:

a) SQL的使用规范:

i. 尽量避免大事务操作,慎用holdlock子句,提高系统并发能力。

ii. 尽量避免反复访问同一张或几张表,尤其是数据量较大的表,可以考虑先根据条件提取数据到临时表中,然后再做连接。

iii. 尽量避免使用游标,因为游标的效率较差,如果游标操作的数据超过1万行,那么就应该改写;如果使用了游标,就要尽量避免在游标循环中再进行表连接的操作。

iv. 注意where字句写法,必须考虑语句顺序,应该根据索引顺序、范围大小来确定条件子句的前后顺序,尽可能的让字段顺序与索引顺序相一致,范围从大到小。

v. 不要在where子句中的“=”左边进行函数、算术运算或其他表达式运算,否则系统将可能无法正确使用索引。

vi. 尽量使用exists代替select count(1)来判断是否存在记录,count函数只有在统计表中所有行数时使用,而且count(1)比count(*)更有效率。

vii. 尽量使用“>=”,不要使用“>”。

viii. 注意一些or子句和union子句之间的替换

ix. 注意表之间连接的数据类型,避免不同类型数据之间的连接。

x. 注意存储过程中参数和数据类型的关系。

xi. 注意insert、update操作的数据量,防止与其他应用冲突。如果数据量超过200个数据页面(400k),那么系统将会进行锁升级,页级锁会升级成表级锁。

b) 索引的使用规范:

i. 索引的创建要与应用结合考虑,建议大的OLTP表不要超过6个索引。

ii. 尽可能的使用索引字段作为查询条件,尤其是聚簇索引,必要时可以通过index index_name来强制指定索引

iii. 避免对大表查询时进行table scan,必要时考虑新建索引。

iv. 在使用索引字段作为条件时,如果该索引是联合索引,那么必须使用到该索引中的第一个字段作为条件时才能保证系统使用该索引,否则该索引将不会被使用。

v. 要注意索引的维护,周期性重建索引,重新编译存储过程。

c) tempdb的使用规范:

i. 尽量避免使用distinct、order by、group by、having、join、***pute,因为这些语句会加重tempdb的负担。

ii. 避免频繁创建和删除临时表,减少系统表资源的消耗。

iii. 在新建临时表时,如果一次性插入数据量很大,那么可以使用select into代替create table,避免log,提高速度;如果数据量不大,为了缓和系统表的资源,建议先create table,然后insert。

iv. 如果临时表的数据量较大,需要建立索引,那么应该将创建临时表和建立索引的过程放在单独一个子存储过程中,这样才能保证系统能够很好的使用到该临时表的索引。

v. 如果使用到了临时表,在存储过程的最后务必将所有的临时表显式删除,先truncate table,然后drop table,这样可以避免系统表的较长时间锁定。

vi. 慎用大的临时表与其他大表的连接查询和修改,减低系统表负担,因为这种操作会在一条语句中多次使用tempdb的系统表。

d) 合理的算法使用:
 
根据上面已提到的SQL优化技术和ASE Tuning手册中的SQL优化内容,结合实际应用,采用多种算法进行比较,以获得消耗资源最少、效率最高的方法。具体可用ASE调优命令:set statistics io on, set statistics time on , set showplan on 等 
您可能感兴趣的文章:
  • 大数据量时提高分页的效率
  • 数据库高并发情况下重复值写入的避免 字段组合约束
  • 大数据量分页存储过程效率测试附测试代码与结果
  • 大数据量,海量数据处理方法总结
  • MySQL数据库优化经验详谈(服务器普通配置)
  • MySQL数据库十大优化技巧
  • SQL Server数据库的高性能优化经验总结
  • sql 存储过程分页代码 支持亿万庞大数据量
  • 数据库性能优化三:程序操作优化提升性能
  • 数据库性能优化二:数据库表优化提升性能
  • 数据库性能优化一:数据库自身优化提升性能
  • Oracle 数据库优化实战心得总结
  • 优化mysql数据库的经验总结
  • mysql数据库优化总结(心得)
  • oracle数据库sql的优化总结
  • sql 百万级数据库优化方案分享
  • 优化Mysql数据库的8个方法
  • mysql数据库sql优化原则(经验总结)
  • 针对Sqlserver大数据量插入速度慢或丢失数据的解决方法
  • MySQL数据库优化详解
  • MySQL中实现高性能高并发计数器方案(例如文章点击数)
  • 超大数据量存储常用数据库分表分库算法总结
  • sqlserver数据库优化解析(图文剖析)
  • 详解MySQL性能优化(一)
  • 详解MySQL性能优化(二)
  • 19个MySQL性能优化要点解析
  • 大数据量高并发的数据库优化详解

标签:湘潭 兰州 铜川 衡水 仙桃 黄山 崇左 湖南

巨人网络通讯声明:本文标题《关于数据库优化问题收集汇总》,本文关键词  ;如发现本文内容存在版权问题,烦请提供相关信息告之我们,我们将及时沟通与处理。本站内容系统采集于网络,涉及言论、版权与本站无关。
  • 相关文章
  • 收缩
    • 微信客服
    • 微信二维码
    • 电话咨询

    • 400-1100-266