Go 是一門帶 GC 的語言,因此,大家很容易認為它不會有內存泄露問題。 大部分時候確實不會,但如果有些時候使用不注意,也會導致泄露。
本文案例來自谷歌云的代碼,探討如何找到并修復 Go 中的內存泄露。(確切來說是因為資源泄露導致的內存泄露,除了本文介紹的,還有一些其他泄露的情況)
這篇文章回顧了我如何發現內存泄漏、如何修復它,以及我如何修復 Google 示例 Go 代碼中的類似問題,以及我們如何改進我們的庫以防止將來發生這種情況。
Google Cloud Go 客戶端庫 [1] 通常在后臺使用 gRPC 來連接 Google Cloud API。創建 API 客戶端時,庫會初始化與 API 的連接,然后保持該連接處于打開狀態,直到你調用 Client.Close 。
1
2
3
|
client, err := api.NewClient() // Check err. defer client.Close() |
客戶端可以安全地同時使用,所以你應該保持相同 Client 直到你的任務完成。但是,如果在應該 Close 的時候不 Close client 會發生什么呢?
會出現內存泄漏。底層連接永遠不會被清理。
Google 有一堆 GitHub 自動化機器人來幫助管理數百個 GitHub 存儲庫。我們的一些機器人通過在 Cloud Run [2] 上運行的 Go 服務器 [3] 代理它們的請求。我們的內存使用看起來像一個經典的鋸齒形內存泄漏:
我通過向服務器添加 pprof.Index 處理程序開始調試:
1
|
mux.HandleFunc("/debug/pprof/", pprof.Index) |
`pprof` [4] 提供運行時 profiling 數據,如內存使用情況。有關更多信息,請參閱 Go 官方博客上的 profiling Go 程序 [5] 。
然后,我在本地構建并啟動了服務器:
1
2
|
$ go build $ PROJECT_ID=my-project PORT=8080 ./serverless-scheduler-proxy |
然后向服務器發送一些請求:
1
2
3
4
|
for i in {1..5}; do curl --header "Content-Type: application/json" --request POST --data '{"name": "HelloHTTP", "type": "testing", "location": "us-central1"}' localhost:8080/v0/cron echo " -- $i" done |
確切的有效負載和端點特定于我們的服務器,與本文無關。
為了獲得正在使用的內存的基線,我收集了一些初始 pprof 數據:
curl http://localhost:8080/debug/pprof/heap > heap.0.pprof
檢查輸出,你可以看到一些內存使用情況,但沒有什么會立即成為一個大問題(這很好!我們剛剛啟動了服務器!):
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
$ go tool pprof heap.0.pprof File: serverless-scheduler-proxy Type: inuse_space Time: May 4, 2021 at 9:33am (EDT) Entering interactive mode (type "help" for commands, "o" for options) (pprof) top10 Showing nodes accounting for 2129.67kB, 100% of 2129.67kB total Showing top 10 nodes out of 30 flat flat% sum% cum cum% 1089.33kB 51.15% 51.15% 1089.33kB 51.15% google.golang.org/grpc/internal/transport.newBufWriter (inline) 528.17kB 24.80% 75.95% 528.17kB 24.80% bufio.NewReaderSize (inline) 512.17kB 24.05% 100% 512.17kB 24.05% google.golang.org/grpc/metadata.Join 0 0% 100% 512.17kB 24.05% cloud.google.com/go/secretmanager/apiv1.(*Client).AccessSecretVersion 0 0% 100% 512.17kB 24.05% cloud.google.com/go/secretmanager/apiv1.(*Client).AccessSecretVersion.func1 0 0% 100% 512.17kB 24.05% github.com/googleapis/gax-go/v2.Invoke 0 0% 100% 512.17kB 24.05% github.com/googleapis/gax-go/v2.invoke 0 0% 100% 512.17kB 24.05% google.golang.org/genproto/googleapis/cloud/secretmanager/v1.(*secretManagerServiceClient).AccessSecretVersion 0 0% 100% 512.17kB 24.05% google.golang.org/grpc.(*ClientConn).Invoke 0 0% 100% 1617.50kB 75.95% google.golang.org/grpc.(*addrConn).createTransport |
下一步是向服務器發送一堆請求,看看我們是否可以 (1) 重現可能的內存泄漏和 (2) 確定泄漏是什么。
發送 500 個請求:
1
2
3
4
|
for i in {1..500}; do curl --header "Content-Type: application/json" --request POST --data '{"name": "HelloHTTP", "type": "testing", "location": "us-central1"}' localhost:8080/v0/cron echo " -- $i" done |
收集和分析更多 pprof 數據:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
|
$ curl http://localhost:8080/debug/pprof/heap > heap.6.pprof $ go tool pprof heap.6.pprof File: serverless-scheduler-proxy Type: inuse_space Time: May 4, 2021 at 9:50am (EDT) Entering interactive mode (type "help" for commands, "o" for options) (pprof) top10 Showing nodes accounting for 94.74MB, 94.49% of 100.26MB total Dropped 26 nodes (cum <= 0.50MB) Showing top 10 nodes out of 101 flat flat% sum% cum cum% 51.59MB 51.46% 51.46% 51.59MB 51.46% google.golang.org/grpc/internal/transport.newBufWriter 19.60MB 19.55% 71.01% 19.60MB 19.55% bufio.NewReaderSize 6.02MB 6.01% 77.02% 6.02MB 6.01% bytes.makeSlice 4.51MB 4.50% 81.52% 10.53MB 10.51% crypto/tls.(*Conn).readHandshake 4MB 3.99% 85.51% 4.50MB 4.49% crypto/x509.parseCertificate 3MB 2.99% 88.51% 3MB 2.99% crypto/tls.Client 2.50MB 2.49% 91.00% 2.50MB 2.49% golang.org/x/net/http2/hpack.(*headerFieldTable).addEntry 1.50MB 1.50% 92.50% 1.50MB 1.50% google.golang.org/grpc/internal/grpcsync.NewEvent 1MB 1% 93.50% 1MB 1% runtime.malg 1MB 1% 94.49% 1MB 1% encoding/json.(*decodeState).literalStore |
google.golang.org/grpc/internal/transport.newBufWriter 使用大量內存真的很突出!這是泄漏與什么相關的第一個跡象:gRPC。查看我們的應用程序源代碼,我們唯一使用 gRPC 的地方是 Google Cloud Secret Manager [6] :
1
2
3
4
|
client, err := secretmanager.NewClient(ctx) if err != nil { return nil, fmt.Errorf("failed to create secretmanager client: %v", err) } |
在每個請求創建 client 時,我們沒有調用 client.Close() !所以,我添加了一個 Close 調用,問題就消失了:
defer client.Close()
我提交了修復,然后 自動部署 [7] ,鋸齒立即消失了!
大約在同一時間,用戶在我們的 Cloud 的 Go 示例存儲庫中 [8] 提交了一個問題,其中包含 cloud.google.com 上 [9] 文檔的大部分 Go 示例。用戶注意到我們忘記調用 client.Close 了。
我曾多次看到同樣的事情出現,所以我決定調查整個 repo。
我開始粗略估計有多少受影響的文件。使用 grep ,我們可以獲得包含 NewClient 樣式調用的所有文件的列表,然后將該列表傳遞給另一個調用 grep 以僅列出不包含 Close 的文件,同時忽略測試文件:
$ grep -L Close $(grep -El 'New[^(]*Client' **/*.go) | grep -v test
竟然有 207 個文件……就上下文而言,我們 .go 在 GoogleCloudPlatform/golang-samples [10] 存儲庫中有大約 1300 個文件。
考慮到問題的規模,我認為一些自動化是 值得的 [11] 。我不想寫一個完整的 Go 程序來編輯文件,所以我使用 Bash:
$ grep -L Close $(grep -El 'New[^(]*Client' **/*.go) | grep -v test | xargs sed -i '/New[^(]*Client/,/}/s/}/}\ndefer client.Close()/'
它是完美的嗎?不。它對工作量有很大的影響嗎?是的!
第一部分(直到 test )與上面完全相同——獲取所有可能受影響的文件的列表(那些似乎創建了 Client 但從沒調用 Close 的文件)。
然后,我將該文件列表傳遞給 sed 進行實際編輯。 xargs 調用你給它的命令,每一行都以 stdin 作為參數傳遞給給定的命令。
要理解該 sed 命令,查看 golang-samples repo 示例是什么樣子有助于理解(省略導入和客戶端初始化后的所有內容):
1
2
3
4
5
6
7
8
9
10
11
12
13
14
|
// accessSecretVersion accesses the payload for the given secret version if one // exists. The version can be a version number as a string (e.g. "5") or an // alias (e.g. "latest"). func accessSecretVersion(w io.Writer, name string) error { // name := "projects/my-project/secrets/my-secret/versions/5" // name := "projects/my-project/secrets/my-secret/versions/latest" // Create the client. ctx := context.Background() client, err := secretmanager.NewClient(ctx) if err != nil { return fmt.Errorf("failed to create secretmanager client: %v", err) } // ... } |
在高層次上,我們初始化客戶端并檢查是否有錯誤。每當你檢查錯誤時,都會有一個右花括號 ( } )。我使用這些信息來自動化編輯。
但是,該 sed 命令仍然很笨拙:
sed -i '/New[^(]*Client/,/}/s/}/}\ndefer client.Close()/'
-i 表示直接編輯文件。這不是問題,因為代碼用 git 管理了。
接下來,我使用 s 命令在檢查錯誤 defer client.Close() 后假定的右花括號 ( } )之后插入。
但是,我不想替換每個 } ,我只想要在 調用 NewClient 后 的 第一個 。要做到這一點,你可以給一個 地址范圍 [12] 的 sed 搜索。
地址范圍可以包括在應用接下來的任何命令之前要匹配的開始和結束模式。在這種情況下,開始是 /New[^(]*Client/ ,匹配 NewClient 類型調用,結束(由 a 分隔 , )是 /}/ ,匹配下一個大括號。這意味著我們的搜索和替換僅適用于調用 NewClient 和結束大括號之間!
通過了解上面的錯誤處理模式, if err != nil 條件的右大括號正是我們想要插入 Close 調用的位置。
一旦我自動編輯了所有示例文件,我用 goimports 開始修復格式。然后,我檢查了每個編輯過的文件,以確保它做了正確的事情:
- 在服務器應用程序中,我們應該關閉客戶端,還是應該保留它以備將來的請求使用?
- 是 Client 實際的名字 client 還是別的什么?
- 是否有一個以上的 Client 調用了 Close ?
完成后,只剩下 180 個已編輯的文件 [13] 。
最后一項工作是努力使其不再發生在用戶身上。我們想到了幾種方法:
- 更好的示例代碼;
- 更好的 GoDoc。我們更新了庫生成器,在生成庫時加上注釋,告知 client 需要調用 Close;
- 更好的庫。有沒有辦法可以自動 Close 客戶端?Finalizers?知道何能做得更好嗎?歡迎在 https://github.com/googleapis/google-cloud-go/issues/4498 上交流;
我希望你對 Go、內存泄漏 pprof 、gRPC 和 Bash 有所了解。我很想聽聽你關于發現的內存泄漏以及修復它們的方法的故事!如果你對我們如何改進我們的 庫 [14] 或 示例 [15] 有任何想法,請通過提交 issue 告訴我們。
參考資料
[1]
Google Cloud Go 客戶端庫: https://github.com/googleapis/google-cloud-go
[2]
Cloud Run: https://cloud.google.com/run/docs/quickstarts/build-and-deploy/go
[3]
Go 服務器: https://github.com/googleapis/repo-automation-bots/tree/main/serverless-scheduler-proxy
[4]
pprof: https://pkg.go.dev/net/http/pprof
[5]
profiling Go 程序: https://go.dev/blog/pprof
[6]
Google Cloud Secret Manager: https://cloud.google.com/secret-manager/docs/quickstart
[7]
自動部署: https://cloud.google.com/build/docs/deploying-builds/deploy-cloud-run
[8]
Cloud 的 Go 示例存儲庫中: https://github.com/GoogleCloudPlatform/golang-samples
[9]
cloud.google.com 上: https://cloud.google.com/
[10]
GoogleCloudPlatform/golang-samples: https://github.com/GoogleCloudPlatform/golang-samples
[11]
值得的: https://xkcd.com/1205/
[12]
地址范圍: https://www.gnu.org/software/sed/manual/html_node/Addresses.html
[13]
180 個已編輯的文件: https://github.com/GoogleCloudPlatform/golang-samples/pull/2080
[14]
庫: https://github.com/googleapis/google-cloud-go
[15]
示例: https://github.com/GoogleCloudPlatform/golang-samples
到此這篇關于定位并修復 Go 中的內存泄露的文章就介紹到這了,更多相關定位Go內存泄露內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!
原文鏈接:https://mp.weixin.qq.com/s/NEsoMtHElJwQ-n2CIH-Ogg