色尼玛亚洲综合影院,亚洲3atv精品一区二区三区,麻豆freexxxx性91精品,欧美在线91

千萬數據的連續ID表,快速讀取其中指定的某1000條數據?

  有這樣一個需求:一張上千萬數據的表,結構很簡單:ID是自增的,你怎么快速讀取其中指定的某1000條數據,比如100萬到100萬零1000?這個需求其實很簡單,因為是自增型ID,可能分兩種狀況:有聚集索引或Heap,如果是后者,我想用ID和新增時間組建非聚集索引。效果應該相差不大。于是動手,過程如下:

  一、準備測試數據

  基本測試環境:
邀月工作室

  插入1000萬測試數據:


/***************創建千萬級測試數據庫***********
****************downmoon 3w@live.cn **************
*/

Create database HugeData_10Millons
go
use HugeData_10Millons
go

/***************創建測試表*********************
****************downmoo 3w@live.cn **************
*/

IF NOT OBJECT_ID('[bigTable]') IS NULL
DROP TABLE [bigTable]
GO
Create table bigTable
(PID
int identity(1,1) primary key not null
,PName
nvarchar(100) null
,AddTime
dateTime null
,PGuid
Nvarchar(40)
)
go

truncate table [bigTable]

/***************創建第一個25萬測試數據*********************
****************downmoo 3w@live.cn **************
*/

declare @d datetime
set @d=getdate()

declare @i int
set @i=1
while @i<=250000
begin
insert into [bigTable]
select cast(datepart(ms,getdate()) as nvarchar(3))+Replicate('A',datepart(ss,getdate()))
,
getdate()
,
NewID()
set @i=@i+1
end

select [語句執行花費時間(毫秒)]=datediff(ms,@d,getdate())

/*
語句執行花費時間(毫秒)
94750
*/

/***************創建第二個25萬測試數據*********************
****************downmoo 3w@live.cn **************
*/

declare @d datetime
set @d=getdate()

declare @i int
set @i=1
while @i<=250000
begin
insert into [bigTable]
select cast(datepart(ms,getdate()) as nvarchar(3))+Replicate(Substring(cast(NEWID() as nvarchar(40)),1,6),3)
,
getdate()
,
NewID()
set @i=@i+1
end

select [語句執行花費時間(毫秒)]=datediff(ms,@d,getdate())

/*
語句執行花費時間(毫秒)
115640
*/

/***************創建900萬測試數據*********************
****************downmoo 3w@live.cn **************
*/

declare @d datetime
set @d=getdate()

declare @i int
set @i=1
while @i<=9000000
begin
insert into [bigTable]
select replicate('X',ROUND((RAND()* 60),0) )+cast(datepart(ms,getdate()) as nvarchar(3))
,
getdate()
,
NewID()
set @i=@i+1
end

select [語句執行花費時間(毫秒)]=datediff(ms,@d,getdate())
/*
語句執行花費時間(毫秒)
3813686
*/

/***************創建最后50萬測試數據*********************
****************downmoo 3w@live.cn **************
*/

declare @d datetime
set @d=getdate()

declare @i int
set @i=1
while @i<=500000
begin
insert into [bigTable]
select replicate('X',ROUND((RAND()* 60),0) )+cast(NewID() as nvarchar(40))
,
getdate()
,
NewID()
set @i=@i+1
end

select [語句執行花費時間(毫秒)]=datediff(ms,@d,getdate())
/*
語句執行花費時間(毫秒)
207436
*/

/*
檢查數量
select count(1) from dbo.bigTable
----------10000000
清除日志
DUMP TRANSACTION HugeData_10Millons WITH NO_LOG
BACKUP LOG HugeData_10Millons WITH NO_LOG
DBCC SHRINKDATABASE(HugeData_10Millons)

*/


  三、修改聚集索引,以檢查查詢速度

 

/*刪除系統自動創建的聚集索引
*/
ALTER TABLE [dbo].[bigTable] DROP CONSTRAINT [PK__bigTable__7C8480AE]
go


/*創建一個非聚集索引
在PID和addtime字段
*/
CREATE NONCLUSTERED INDEX bigTable_NoClusIdx
ON [bigTable]([AddTime] ASC,[PID] ASC);
go
DROP Index [bigTable_NoClusIdx] on dbo.[bigTable]


/*創建一個非聚集索引
在PID字段
*/

Create NONCLUSTERED INDEX bigTable_NoclusIdx
ON [bigTable](PID);
go

DROP Index [bigTable_NoClusIdx] on dbo.[bigTable]

/*創建一個非聚集索引
在AddTime字段
*/
CREATE NONCLUSTERED INDEX bigTable_NoclusIdx
ON [bigTable](AddTime);
go

DROP Index [bigTable_NoClusIdx] on dbo.[bigTable]

/*創建一個非聚集索引
在GUID字段
*/

CREATE NONCLUSTERED INDEX bigTable_NoclusIdx
ON [bigTable](PGuid);
go

DROP Index [bigTable_NoClusIdx] on dbo.[bigTable]


/*創建一個聚集索引
在GUID字段
*/

CREATE CLUSTERED INDEX bigTable_ClusIdx
ON [bigTable](PGuid);
go

DROP Index [bigTable_ClusIdx] on dbo.[bigTable]

/*創建一個聚集索引
在addTime字段
*/
CREATE CLUSTERED INDEX bigTable_ClusIdx
ON [bigTable](AddTime);
go

DROP Index [bigTable_ClusIdx] on dbo.[bigTable]


/*創建一個聚集索引
在PID字段
*/
CREATE CLUSTERED INDEX bigTable_ClusIdx
ON [bigTable](PID);
go

it知識庫千萬數據的連續ID表,快速讀取其中指定的某1000條數據?,轉載需保留來源!

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播更多信息之目的,如作者信息標記有誤,請第一時間聯系我們修改或刪除,多謝。

主站蜘蛛池模板: 蕉岭县| 凌海市| 奉新县| 丘北县| 奉新县| 望都县| 大兴区| 九江市| 克拉玛依市| 罗城| 兰西县| 磐安县| 宁德市| 清丰县| 尼玛县| 贵阳市| 田阳县| 旌德县| 亳州市| 琼结县| 古蔺县| 福建省| 印江| 武宁县| 河西区| 明水县| 孟州市| 永平县| 扎鲁特旗| 米泉市| 利辛县| 缙云县| 利川市| 永德县| 桂林市| 黎川县| 哈尔滨市| 顺义区| 安宁市| 扬州市| 上高县|