一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

服務器之家:專注于服務器技術及軟件下載分享
分類導航

PHP教程|ASP.NET教程|Java教程|ASP教程|編程技術|正則表達式|C/C++|IOS|C#|Swift|Android|VB|R語言|JavaScript|易語言|vb.net|

服務器之家 - 編程語言 - ASP.NET教程 - asp.net實現Postgresql快速寫入/讀取大量數據實例

asp.net實現Postgresql快速寫入/讀取大量數據實例

2020-05-11 14:30波多爾斯基 ASP.NET教程

本篇文章主要介紹了asp.net實現Postgresql快速寫入/讀取大量數據實例,具有一定的參考價值,有興趣的可以了解一下

最近因為一些項目需要大量插入數據,研究了下asp.net實現Postgresql快速寫入/讀取大量數據,所以留個筆記

環境及測試

使用.net驅動npgsql連接post數據庫。配置:win10 x64, i5-4590, 16G DDR3, SSD 850EVO.

postgresql 9.6.3,數據庫與數據都安裝在SSD上,默認配置,無擴展。

?
1
2
3
4
5
6
7
CREATE TABLE public.mesh
(
 x integer NOT NULL,
 y integer NOT NULL,
 z integer,
 CONSTRAINT prim PRIMARY KEY (x, y)
)

1. 導入

使用數據備份,csv格式導入,文件位于機械硬盤上,480MB,數據量2500w+。

使用COPY

?
1
copy mesh from 'd:/user.csv' csv

運行時間107s

使用insert

單連接,c# release any cpu 非調試模式。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
class Program
{
  static void Main(string[] args)
  {
    var list = GetData("D:\\user.csv");
    TimeCalc.LogStartTime();
    using (var sm = new SqlManipulation(@"Strings", SqlType.PostgresQL))
    {
      sm.Init();
      foreach (var n in list)
      {
        sm.ExcuteNonQuery($"insert into mesh(x,y,z) values({n.x},{n.y},{n.z})");
      }
    }
    TimeCalc.ShowTotalDuration();
 
    Console.ReadKey();
  }
 
  static List<(int x, int y, int z)> GetData(string filepath)
  {
    List<ValueTuple<int, int, int>> list = new List<(int, int, int)>();
    foreach (var n in File.ReadLines(filepath))
    {
      string[] x = n.Split(',');
      list.Add((Convert.ToInt32(x[0]), Convert.ToInt32(x[1]), Convert.ToInt32(x[2])));
    }
    return list;
  }
}

Postgresql CPU占用率很低,但是跑了一年,程序依然不能結束,沒有耐性了...,這么插入不行。

multiline insert

使用multiline插入,一條語句插入約100條數據。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
var bag = GetData("D:\\user.csv");
//使用時,直接執行stringbuilder的tostring方法。
List<StringBuilder> listbuilder = new List<StringBuilder>();
StringBuilder sb = new StringBuilder();
for (int i = 0; i < bag.Count; i++)
{
  if (i % 100 == 0)
  {
    sb = new StringBuilder();
    listbuilder.Add(sb);
    sb.Append("insert into mesh(x,y,z) values");
    sb.Append($"({bag[i].x}, {bag[i].y}, {bag[i].z})");
  }
  else
    sb.Append($",({bag[i].x}, {bag[i].y}, {bag[i].z})");
}

Postgresql CPU占用率差不多27%,磁盤寫入大約45MB/S,感覺就是在干活,最后時間217.36s。

改為1000一行的話,CPU占用率提高,但是磁盤寫入平均來看有所降低,最后時間160.58s.

prepare語法

prepare語法可以讓postgresql提前規劃sql,優化性能。

使用單行插入 CPU占用率不到25%,磁盤寫入63MB/S左右,但是,使用單行插入的方式,效率沒有改觀,時間太長還是等不來結果。

使用多行插入 CPU占用率30%,磁盤寫入50MB/S,最后結果163.02,最后的時候出了個異常,就是最后一組數據長度不滿足條件,無傷大雅。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
static void Main(string[] args)
{
  var bag = GetData("D:\\user.csv");
  List<StringBuilder> listbuilder = new List<StringBuilder>();
  StringBuilder sb = new StringBuilder();
  for (int i = 0; i < bag.Count; i++)
  {
    if (i % 1000 == 0)
    {
      sb = new StringBuilder();
      listbuilder.Add(sb);
      //sb.Append("insert into mesh(x,y,z) values");
      sb.Append($"{bag[i].x}, {bag[i].y}, {bag[i].z}");
    }
    else
      sb.Append($",{bag[i].x}, {bag[i].y}, {bag[i].z}");
  }
  StringBuilder sbp = new StringBuilder();
  sbp.Append("PREPARE insertplan (");
  for (int i = 0; i < 1000; i++)
  {
    sbp.Append("int,int,int,");
  }
  sbp.Remove(sbp.Length - 1, 1);
  sbp.Append(") AS INSERT INTO mesh(x, y, z) values");
  for (int i = 0; i < 1000; i++)
  {
    sbp.Append($"(${i*3 + 1},${i* 3 + 2},${i*3+ 3}),");
  }
  sbp.Remove(sbp.Length - 1, 1);
  TimeCalc.LogStartTime();
 
  using (var sm = new SqlManipulation(@"string", SqlType.PostgresQL))
  {
    sm.Init();
    sm.ExcuteNonQuery(sbp.ToString());
    foreach (var n in listbuilder)
    {
      sm.ExcuteNonQuery($"EXECUTE insertplan({n.ToString()})");
    }
  }
  TimeCalc.ShowTotalDuration();
 
  Console.ReadKey();
}

使用Transaction

在前面的基礎上,使用事務改造。每條語句插入1000條數據,每1000條作為一個事務,CPU 30%,磁盤34MB/S,耗時170.16s。

改成100條一個事務,耗時167.78s。

使用多線程

還在前面的基礎上,使用多線程,每個線程建立一個連接,一個連接處理100條sql語句,每條sql語句插入1000條數據,以此種方式進行導入。注意,連接字符串可以將maxpoolsize設置大一些,我機器上實測,不設置會報連接超時錯誤。

CPU占用率上到80%, 磁盤這里需要注意,由于生成了非常多個Postgresql server進程,不好統計,累積算上應該有小100MB/S,最終時間,98.18s。

使用TPL,由于Parallel.ForEach返回的結果沒有檢查,可能導致時間不是很準確(偏小)。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
var lists = new List<List<string>>();
var listt = new List<string>();
for (int i = 0; i < listbuilder.Count; i++)
{
  if (i % 1000 == 0)
  {
    listt = new List<string>();
    lists.Add(listt);
  }
  listt.Add(listbuilder[i].ToString());
}
TimeCalc.LogStartTime();
Parallel.ForEach(lists, (x) =>
{
  using (var sm = new SqlManipulation(@";string;MaxPoolSize=1000;", SqlType.PostgresQL))
  {
    sm.Init();
    foreach (var n in x)
    {
      sm.ExcuteNonQuery(n);
    }
  }
});
TimeCalc.ShowTotalDuration();

 

寫入方式 耗時(1000條/行)  
COPY 107s  
insert N/A  
多行insert 160.58s  
prepare多行insert 163.02s  
事務多行insert 170.16s  
多連接多行insert 98.18s

 

2. 寫入更新

數據實時更新,數量可能繼續增長,使用簡單的insert或者update是不行的,操作使用postgresql 9.5以后支持的新語法。

?
1
insert into mesh on conflict (x,y) do update set z = excluded.z

吐槽postgresql這么晚才支持on conflict,mysql早有了...

在表中既有數據2500w+的前提下,重復往數據庫里面寫這些數據。這里只做多行插入更新測試,其他的結果應該差不多。

普通多行插入,耗時272.15s。
 多線程插入的情況,耗時362.26s,CPU占用率一度到了100%。猜測多連接的情況下,更新互鎖導致性能下降。

3. 讀取

Select方法

標準讀取還是用select方法,ADO.NET直接讀取。

使用adapter方式,耗時135.39s;使用dbreader方式,耗時71.62s。

Copy方法

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
postgresql的copy方法提供stdout binary方式,可以指定一條查詢進行輸出,耗時53.20s。
public List<(int x, int y, int z)> BulkIQueryNpg()
{
  List<(int, int, int)> dict = new List<(int, int, int)>();
  using (var reader = ((NpgsqlConnection)_conn).BeginBinaryExport("COPY (select x,y,z from mesh) TO STDOUT (FORMAT BINARY)"))
  {
    while (reader.StartRow() != -1)
    {
      var x = reader.Read<int>(NpgsqlDbType.Integer);
      var y = reader.Read<int>(NpgsqlDbType.Integer);
      var z = reader.Read<int>(NpgsqlDbType.Integer);
      dict.Add((x, y, z));
    }
  }
  return dict;
}

結論

總結測試結果,對于較多數據的情況下,可以得出以下結論:

  1. 向空數據表導入或者沒有重復數據表的導入,優先使用COPY語句(為什么有這個前提詳見P.S.);
  2. 使用一條語句插入多條數據的方式能夠大幅度改善插入性能,可以實驗確定最優條數;
  3. 使用transaction或者prepare插入,在本場景中優化效果不明顯;
  4. 使用多連接/多線程操作,速度上有優勢,但是把握不好容易造成資源占用率過高,連接數太大也容易影響其他應用;
  5. 寫入更新是postgresql新特性,使用會造成一定的性能消耗(相對直接插入);
  6. 讀取數據時,使用COPY語句能夠獲得較好的性能;
  7. ado.net dbreader對象由于不需要fill的過程,讀取速度也較快(雖然趕不上COPY),也可優先考慮。

P.S.

為什么不用mysql

沒有最好的,只有最合適的,講道理我也是挺喜歡用mysql的。使用postgresql的原因主要在于:

postgresql導入導出的sql指令“copy”直接支持Binary模式到stdin和stdout,如果程序想直接集成,那么用這個是比較方便的;相比較,mysql的sql語法(load data infile)并不支持到stdin或者stdout,導出可以通過mysqldump.exe實現,導入暫時沒什么特別好的辦法(mysqlimport或許可以)。
相較于mysql缺點

postgresql使用copy導入的時候,如果目標表已經有數據,那么在有主鍵約束的表遇到錯誤時,COPY自動終止,而且可能導致不完全插入的情況,換言之,是不支持導入的過程進行update操作;mysql的load語法可以顯式指定出錯之后的動作(IGNORE/REPLACE),不會打斷導入過程。

其他

如果需要使用mysql從程序導入數據,可以考慮先通過程序導出到文件,然后借助文件進行導入,據說效率也要比insert高出不少。

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持服務器之家。

原文鏈接:http://www.cnblogs.com/podolski/p/7152144.html

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 成年看片免费高清观看 | 好大好深受不了了快进来 | 亚洲娇小videos | 国产3p在线 | 国产精品夜色视频一级区 | 青青草原免费在线视频 | 欧美一级二级片 | 天天爱综合网 | 天美视频在线 | 国产成人精品曰本亚洲77美色 | 草草视频在线观看最新 | 边摸边吃奶边做爽gif动态图 | 国产农村一级特黄α真人毛片 | 岛国在线播放v片免费 | 亚洲香蕉伊在人在线观看9 亚洲系列国产系列 | 闺蜜调教我做她的脚奴 | 精品无码乱码AV | 国产新疆成人a一片在线观看 | blacked在线播放 | 成人精品区 | jk制服蕾丝超短裙流白浆 | 国产精品青青青高清在线 | 日韩精品免费一区二区三区 | 免费观看欧美性一级 | 99久久6er热免费精品 | 欧美一级片观看 | 国产精品久久久久久 | 激情五月姐姐 | 久久综久久美利坚合众国 | 久久中文字幕亚洲精品最新 | 国产专区一va亚洲v天堂 | 欧美人体高清在线观看ggogo | 99精品久久99久久久久久 | chinese野外gay军人 | 亚洲天堂2015 | 4虎tv| 欧美视频在线一区 | 国产全部视频 | 精品国产免费第一区二区 | 四虎免费在线观看 | 久久偷拍免费2017 |