算法时间复杂度(Big-Oh)
文章目录
关于Big-Oh
首先Big-Oh()是用来描述一个函数的渐进行为的工具。
关于Big-Oh的正式定义(数学定义):wikipedia
例子:
常见的Big-Oh类型
- 常数(Constant)
- 对数(Logarithmic)
- 开方(SquareRoot)
- 线性(Linear)
- 对数线性(Linearithmic loglinear quasiliear)
- 平方(Quadratic)
- 指数(Exponential)
Big-Oh in a (set of) image(s)
原图摘自 这里
logarithmic, squareRoot, linear, quadratic, cube, exponential 对比
linear, loglinear, quadratic 对比
常见操作的Big-Oh
操作 | List | Set/Dictionary |
---|---|---|
length(len()) | ||
L.append(item) | – | |
Add | – | |
Copy | ||
max(L) | – | |
min(L) | – | |
insert | ||
delete | – | |
remove | ||
val in L | ||
L.count(val) | – | |
L.sort() | – | |
L.sort(reverse=True) | – | |
Get/set item | ||
Iteration(for 循环体) |
更多操作查看:这里
Big-Oh运算法则
加法法则
例如:
乘法法则
例如:
看到这你会说,看起来不错,但有什么用呢?
首先有了加法法则可以帮助我们理解顺序执行的程序段是怎样的复杂度。
举个例子:
如果一段程序调用了两段子程序和,他们在程序段内的调用顺序是:
1 | f(...) |
其中, 那么这段程序的时间复杂度会是怎样的?
对,
什么太简单了?
来个带分支判断的:程序结构如下
1 | if test: |
令test的复杂度为, block1的复杂度为 block2的复杂度为, 那么这段程序的复杂度是怎样的?
其次乘法法则可以帮助我们理解由循环控制的程序段的复杂度。
举个例子:
程序结构如下:
1 | for i in range(N): |
其中
那么这段程序段的复杂度为:
好的有了这两个工具,相信多数的Big-Oh案例分析能轻松搞定。
常见排序、查找算法复杂度
其实这些算法复杂度都可以通过上面的运算法则以及操作的复杂度推算出来的,但是作为一个可以作为快速备查的cheatsheet下面就直接罗列出结论:
先来查找(search):
算法 | 时间复杂度 |
---|---|
线性查找(Linear search) | |
二分查找(binary search) |
注意这里的前提条件是:
线性查找针对的是无序列表,二分查找针对的是有序列表。
再来排序(sorting):
算法 | 时间复杂度 |
---|---|
冒泡排序(bubble sort) | |
插入排序(insertion sort) | |
归并排序(merge sort) | |
选择排序(selection sort) | |
快速排序(quick sort) | |
堆排序(heap sort) |