什么是算法的时间复杂度
在进行算法分析时,语句总的执行次数T(n)是关于问题规模n的函数,进而分析T(n)随n的变化情况并确定T(n)的数量级。
算法的时间复杂度,记作:T(n)= O(f(n))。它表示随问题规模n的增大,算法执行时间的增长率和f(n)的增长率相同,简称为时间复杂度。**其中f(n)是问题规模n的某个函数**。(问题规模与代码数量无关)
举例说明时间复杂度
常数阶
1 | int sum = 0, n = 100; |
计算一次就可以解决问题,因此问题规模是1,算法的时间复杂度为O(1)
线性阶
线性阶就是随着问题规模n的扩大,对应计算次数呈直线增长
1 | int i , n = 100, sum = 0; |
计算次数是n,算法时间复杂度为O(n)
平方阶
1 | int i, j, n = 100; |
计算次数是n^2,所以时间复杂度为O(n^2)
对数阶
1 | int i = 1, n = 100; |
由计算次数x与问题n的关系2^x = n得到x = log(2)n,所以这个循环的时间复杂度为O(logn)
常用的时间复杂度所耗费的时间从小到大依次是:
O(1) < O(logn) < (n) < O(nlogn) < O(n^2) < O(n^3) < O(2^n) < O(n!) < O(n^n)
什么是算法的空间负责度
算法的空间复杂度通过计算算法所需的存储空间实现,算法的空间复杂度的计算公式记作:S(n)=O(f(n)),其中,n为问题的规模,**f(n)为语句关于n所占存储空间的函数**。
通常,我们都是用“时间复杂度”来指运行时间的需求,是用“空间复杂度”指空间需求。
当直接要让我们求“复杂度”时,通常指的是时间复杂度。
显然对时间复杂度的追求更是属于算法的潮流!
版权声明:本文为博主原创文章,欢迎转载,转载请注明作者、原文超链接,感谢各位看官!!!
本文出自:monkeyGeek
座右铭:生于忧患,死于安乐
欢迎志同道合的朋友一起交流、探讨!
