0. 前言
0.1 性能优化的基本问题
性能优化是什么?
提升软件系统处理能力,减少不必要消耗,充分发掘计算机算力
为什么要做性能优化?
提高用户体验
资源高效利用:降低成本,提高效率——很小的优化乘上海量机器会显著提升性能提升和节约成本
0.2 性能优化的层面
业务层优化
针对特定场景,具体问题,具体分析
容易获得较大性能收益
语言运行时优化
解决更通用的性能问题
考虑更多场景
Tradeoffs
数据驱动
自动化性能分析工具 —— pprof
依靠数据而非猜测
首先优化最大瓶颈
0.3 性能优化与软件质量
软件质量
保证接口稳定的前提下改进实现
测试用例:覆盖尽可能多的场景,方便回归
文档:告诉用户这一项优化做了什么,没做什么,能达到怎样的效果
隔离:优化代码用选项和原先的路径隔离,保证优化未启用时的行为同以前一致
可观测、可灰度、可回滚:必要的日志输出
总结
性能优化的基本问题
性能优化的两个层面
性能优化的可维护性
1. 自动内存管理
动态内存:
程序在运行时根据需求动态分配的内存: malloc()
自动内存管理( 垃圾回收):由程序语言的运行时系统管理动态内存
避免手动内存管理,专注于实现业务逻辑
保证内存使用的正确性和安全性: double-free problem, use-after-free problem
三个任务
为新对象分配空间
找到存活对象
回收死亡对象的内存空间
Concurrently是什么意思?
Mutator threads指的是什么?接下来我们讲讲相关概念
1.1 自动内存管理-相关概念
Mutator: 业务线程,分配新对象,修改对象指向关系
Collector: GC 线程,找到存活对象,回收死亡对象的内存空间
3️⃣清理:回收所有不可达对象占据的内存空间
Copying GC: 将存活对象从一块内存空间复制到另外一块内存空间,原先的空间可以直接进行对象分配
年轻代(Young generation)
常规的对象分配
由于存活对象很少,可以采用copying collection
GC吞吐率很高
老年代(Old generation)
对象趋向于一直活着,反复复制开销较大
可以采用mark- sweep collection
1.4 引用计数
每个对象都有一个与之关联的引用数目
对象存活的条件:当且仅当引用数大于 0
(灰色的就能被清理掉了)
优点
内存管理的操作被平摊到程序运行中:指针传递的过程中进行引用计数的增减
不需要了解 runtime 的细节:因为不需要标记 GC roots,因此不需要知道哪里是全局变量、线程栈等
缺点
维护引用计数开销大,因为对象可能会被多线程访问,对引用计数的修改需要原子操作保证原子性和可见性
无法回收环形数据结构
内存开销:每个对象都引入额外存储空间存储引用计数
虽然引用计数的操作被平摊到程序运行过程中,但是回收大的数据结构依然可能引发暂停
说明
以上我们所讲述的技术的缺点并非是无法解决的问题。学术界和工业界在一直在致力于解决自动内存管理技术的不足之处。例如,最新的 PLDI'22 的文章 Low-Latency, High-Throughput Garbage Collection 感兴趣的同学可以阅读。
总结:
自动内存管理的背景和意义
概念和评价方法
追踪垃圾回收
引用计数
分代GC
学术界和工业界在一直在致力于解决自动内存管理技术的不足之处
PLDI'22 Low-L _atency, High- Throughput Garbage Collection
2. Go 内存管理及优化
2.1 Go 内存分配-分块
TCMalloc: TC is short for thread caching
目标:为对象在 heap 上分配内存
提前将内存分块
调用系统调用 mmap() 向 OS 申请一大块内存,例如 4 MB
先将内存划分成大块,例如 8 KB,称作 mspan
再将大块继续划分成特定大小的小块,用于对象分配
noscan mspan: 分配不包含指针的对象 —— GC 不需要扫描
scan mspan: 分配包含指针的对象 —— GC 需要扫描
对象分配:根据对象的大小,选择最合适的块返回
2.2 Go内存分配-缓存
Go 内存管理构成了多级缓存机制,从 OS 分配得的内存被内存管理回收后,也不会立刻归还给 OS,而是在 Go runtime 内部先缓存起来,从而避免频繁向 OS 申请内存。内存分配的路线图如下。
TCMalloc: thread caching
每个p包含一个mcache用于快速分配,用于为绑定于p上的g分配对象
mcache管理一组mspan
当mcache中的mspan分配完毕,向mcentral申请带有末分配块的mspan
当mspan中没有分配的对象,mspan会被缓存在mcentral中,而不是立刻释放并归还给OS
2.3 Go 内存管理优化
mspan, mcache 和 mcentral 构成了内存管理的多级缓存机制。
对象分配是非常高频的操作:每秒分配 GB 级别的内存
线上 profiling 发现,Go 的内存分配占用很多 CPU
可以看到,用于分配对象的函数 mallocgc()
占用 CPU 较高
小对象分配占大多数
横轴是对象大小,纵轴是数目,可以看到绝大多数对象都小于 80 B。因此优化小对象分配是关键。
字节跳动的优化方案
Balanced GC
核心:将 noscan 对象在 per-g allocation buffer (GAB) 上分配,并使用移动对象 GC 管理这部分内存,提高对象分配和回收效率
每个 g 会附加一个较大的 allocation buffer (例如 1 KB) 用来分配小于 128 B 的 noscan 小对象
bump pointer 风格的对象分配。示意如下。
if g.ab.end - g.ab.top < size { // Allocate a new allocation buffer } addr := g.ab.top g.ab.top += size return addr
分配对象时,根据对象大小移动 top
指针并返回,快速完成一次对象分配
同原先调用 mallocgc()
进行对象分配的方式相比,balanced GC 缩短了对象分配的路径,减少了对象分配执行的指令数目,降低 CPU 使用
2.4 Balanced GC
GAB对于Go内存管理来说是一个对象
本质:将多个小对象的分配合并成一次达对象的分配
问题: GAB的对象分配方式会导致内存被延迟释放
方案:移动GAB中存活的对象
当GAB总大小超过一定阈值时,将GAB中存活的对象复制到另外分配的GAB中
原先的GAB可以释放,避免内存泄漏
本质:用copying GC的算法管理小对象
从 Go runtime 内存管理模块的角度看,一个 allocation buffer 其实是一个大对象。本质上 balanced GC 是将多次小对象的分配合并成一次大对象的分配。因此,当 GAB 中哪怕只有一个小对象存活时,Go runtime 也会认为整个大对象(即 GAB)存活。为此,balanced GC 会根据 GC 策略,将 GAB 中存活的对象移动到另外的 GAB 中,从而压缩并清理 GAB 的内存空间,原先的 GAB 空间由于不再有存活对象,可以全部释放,如下图所示。
总结:
Go内存管理一分块
Go内存管理一缓存
Go对象分配的性能问题
分配路径过长
小对象居多
Balanced GC
指针碰撞风格的对象分配
实现了copying GC
性能收益
3. 编译器和静态分析
3.1 编译器的结构
重要的系统软件
识别符合语法和非法的程序
生成正确且高效的代码
分析部分(前端front end )
词法分析,生成词素(lexeme)
语法分析,生成语法树
语义分析,收集类型信息,进行语义检查
中间代码生成,生成intermediate representation (IR)
综合部分(后端 back end )
代码优化,机器无关优化,生成优化后的IR
代码生成,生成目标代码
分析A.foo( ) ,还是B.foo( ) ?
总结:
编译器的结构与编译的流程
编译器后端优化
静态分析
数据流分析和控制流分析
过程内分析和过程间分析
4. Go 编译器优化
目的
通用的优化手段
用户无感知,重新编译即可获得性能收益
现状
追求编译时间短,因此没有进行复杂的代码分析和优化
采用的优化较少
编译器优化的思路
Tradeoff:用适当增加编译时间换取更高性能的代码
场景:面向后端长期执行的任务
Beast mode
循环展开
边界检查消除
默认栈大小调整
逃逸分析
函数内联
4.1 函数内联
定义:将被调用函数的函数体的副本替换到调用位置上,同时重写代码以反映参数的绑定
优点
消除调用开销,例如传递参数、保存寄存器
将过程间分析的问题转换为过程内分析,帮助其他分析,例如逃逸分析
小技巧:使用micro-benchmark 快速验证和对比性能优化结果
缺点
函数体变大
编译生成的 Go 镜像文件变大
函数内联在大多数情况下是正向优化,即多内联,会提升性能
采取一定的策略决定是否内联
调用和被调用函数的规模
4.2 Beast Mode
Go函数内联受到的限制较多
语言特性,例如interface, defer等,限制了函数内联
内联策略非常保守
Beast mode:调整函数内联的策略,使更多函数被内联
降低函数调用的开销
增加了其他优化的机会:逃逸分析
开销
Go 镜像大小略有增加
编译时间增加
运行时栈扩展开销增加
逃逸分析
定义:分析代码中指针的动态作用域,即指针在何处可以被访问
大致思路
作为参数传递给其他函数;
传递给全局变量;
传递给其他的 goroutine;
传递给已逃逸的指针指向的对象;
从对象分配处出发,沿着控制流,观察数据流。
若发现指针 p 在当前作用域 s:
则指针 p 逃逸出 s,反之则没有逃逸出 s.
Beast mode:函数内联拓展了函数边界,更多对象不逃逸
优化:未逃逸出当前函数的指针指向的对象可以在栈上分配
对象在栈上分配和回收很快:移动 sp 即可完成内存的分配和回收;
减少在堆上分配对象,降低 GC 负担。
Beast Mode-性能收益
总结:
Go编译器优化的问题
Beast mode
函数内联
逃逸分析
通过micro-benchmark快速验证性能优化
性能收益
课程总结
本节课程:高性能Go语言发行版优化与落地实践
性能优化
自动内存管理
Go内存管理
编译器与静态分析
编译器优化
实践
Balanced GC优化对象分配
Beast mode提升代码性能
分析问题的方法与解决问题的思路,不仅适用于Go语言,其他语言的优化也同样适用
原文:https://juejin.cn/post/7097538236087533604