[TOC]
Java、C/C++ 实现
int arr[10];
Python 实现
arr = []
arr = List()
JavaScript 实现
let arr = [1,2,3]
- 数组的内存空间是连续的
- 数组可以随机的访问任何一个位置的元素,时间为常数
$O(1)$ - 插入元素(Insert)和删除元素(Delete)的时间是
$O(n)$ - 前增元素(prepend)和后增元素(append)时间为$O(1)$
- 正常情况下的prepend操作时间应为$O(n)$,但是可以通过优化到$O(1)$:申请一个稍大的空间,在数组的最开始预留一部分空间,prepend操作则是把头下标前移一个位置即可
**使用情况:在需要频繁插入/删除元素时,数组并不适用,因此需要链表(Linked List)**这个数据结构。
-
值 Value
-
指针 Next
/* java 源码实现 */
class LinkedList {
Node head; // head of first
/* Linked List Node */
class Node {
int data;
Node next;
// Constructor to create a new node
// Next is by default initialised as null
Node(int d) { data = d; }
}
}
一般头指针为 head
尾指针为tail
即有两个指针,分别指向前一个元素(Prev)和后一个元素(Next)
当tail
的 next 指针指向 head
,即 tail.next == head
,为循环链表
- **插入/删除:**时间为$O(1)$
-
前增/后增:
$O(1)$ -
查询:
$O(n)$
跳表(Skip List)是(只能)对有序链表进行的查询优化,对标的是平衡树(AVL Tree)和二分查找(Binary Search),1989年出现。其查询/插入/删除操作时间复杂度均为$O(\log n)$。优势:原理简单,容易实现,方便扩展,效率更高。因此在一些热门的项目里用来代替平衡树,如 Redis,LevelDB 等。
思想:空间换时间
-
一级索引:$\dfrac{n}{2}$
-
二级索引:$\dfrac{n}{4}$
-
$k$ 级索引:$\dfrac{n}{2^k}$ -
假设索引有
$h$ 级,最高级有2个结点,$\dfrac{n}{2^h} = 2$,从而求得$h = \log 2n - 1$ -
即
$O(\log n)$ -
维护成本高,空间复杂度为
$O(n)$
LRU Cache - Linked List:LRU 缓存机制
Redis - Skip List:跳跃表、为啥 Redis 使用跳表(Skip List)而不是使用 Red-Black?
栈(stack)是先入后出结构(First In Last Out/ Last In First Out),队列(Queue)是先入先出结构(First In First Out)
-
查询:
$O(n)$ -
插入/删除:
$O(1)$
Class Stack<E>
/* java 官方文档给出,工程中要使用栈,不推荐使用stack,而是用deque来实现栈 */
Deque<Integer> stack = new ArrayDeque<Integer>();
stack.empty(); // 返回值为 boolean,判断栈是否为空
stack.peek(); // E,返回栈顶元素的值(不删除栈定元素)
stack.pop(); // E,弹出并返回栈顶元素的值(会删除栈定元素)
stack.push(E item); // E,向栈中压入元素
stack.search(Object o); // int,查询并返回查询到的元素下标(位置)
/* Queue并不是一个Class(类)而是一个Interface(接口) */
Interface Queue<E>
Operation | Throws exception(抛出异常) | Returns special value(返回特殊值) |
---|---|---|
Insert | add(e) |
offer(e) |
Remove | remove() |
poll() |
Examine | element() |
peek() |
双端队列(Deque)是两端可以进出的Queue
-
查询:
$O(n)$ -
插入/删除:
$O(1)$
/* Deque也是一个Interface(接口) */
Interface Deque<E>
功能 语言 版本 e.g. stack java 12
-
插入:
$O(1)$ -
取出:
$O(\log n)$ 按照元素优先级取出
python:
哈希表(Hash Table)也叫散列表,是根据关键码值(Key Value)直接进行访问的结构,它通过把 Key Value 映射到表中的一个位置来访问记录,以加快查找速度,这样的一个函数叫做散列函数(Hash Function),存放记录的数组则为哈希表
- 用户信息表
- 缓存(LRU Cache)
- 键值对存储(Redis)
两个不同的元素映射到同一个位置,则为哈希碰撞
Key-Value对,Key不重复
HashMap<Integer, Integer> map = new HashMap(Integer, Integer); // 或用new TreeMap();
map.set(key, value);
map.get(key);
map.has(key);
map.size();
map.clear();
不重复元素的集合,即Value不重复
Set<Integer> set = new HashSet<Integer>(); // 或用new TreeSet();
set.add(value);
set.delet(value);
set.hash(value);
当链表有多个Next
指针,则为树(Tree),即链表是特殊化的树。树是没有环的图(Graph),即树是特殊化的图
是每个节点最多只有两个分支(即不存在分支度大于2的节点)的树结构。通常分支被称作“左子树”或“右子树”。二叉树的分支具有左右次序,不能随意颠倒。
# Python
class TreeNode:
def __init__(self, val):
self.val = val
self.left = None
self.right = None
// C++
struct TreeNode {
int val;
TreeNode *left;
TreeNode *right;
TreeNode(int x): val(x), left(NULL), right(NULL) {}
}
// Java
public class TreeNode {
public int val;
public TreeNode left, right;
public TreeNode(int val) {
this.val = val;
this.left = null;
this.right = null;
}
}
-
顺序:根-左-右
-
代码:
def preorder(self, root: TreeNode):
if root:
self.traverse_path.append(root.val)
self.preorder(root.left)
self.preorder(root.right)
-
顺序:左-根-右
-
代码:
def inorder(self, root: TreeNode):
if root:
self.preorder(root.left)
self.traverse_path.append(root.val)
self.preorder(root.right)
-
顺序:左-右-根
-
代码:
def postorder(self, root: TreeNode):
if root:
self.preorder(root.left)
self.preorder(root.right)
self.traverse_path.append(root.val)
二叉搜索树,也称二叉排序树、有序二叉树(Ordered Binary Tree)、排序二叉树(Sorted Binary Tree),是指一棵空树或者具有下列性质的二叉 树:
- 左子树上的所有节点的值均小于其根节点的值
- 右子树上的所有节点的值均大于其根节点的值
- 左、右子树也是二叉搜索树
**特点:**中序遍历结果升序排列
操作:Demo
- 查询:$O(\log n)$
- 插入:$O(\log n)$
- 删除:$O(\log n)$
可以迅速找到一堆数中的最大值或最小值的数据结构(不能同时找最大和最小)
-
根节点最大的堆叫做大顶堆或大根堆
-
根节点最小的对焦作小顶堆或小根堆
该数组从逻辑上讲就是一个堆结构,我们用简单的公式来描述一下堆的定义就是:
大顶堆:arr[i] >= arr[2i+1] && arr[i] >= arr[2i+2]
小顶堆:arr[i] <= arr[2i+1] && arr[i] <= arr[2i+2]
大顶堆(小顶堆类似)的常见操作(API):
find-max
delete-maxt
insert(create)
不同实现的比较
通过完全二叉树来实现(实现较容易,但是性能表现一般)
注:二叉堆是堆(优先队列 Priority Queue)的一种常见且简单的实现,单并不是最优的实现
- 是一颗完全树
- 树中任意结点的值总是
$\geq$ 其子结点的值
-
一般通过数组来实现
-
假设第一个元素(根结点)在数组的索引为
0
,则父结点和子结点的位置关系如下:- 索引为
i
的左孩子的索引是(2*i+1)
- 索引为
i
的右孩子的索引是(2*i+1)
- 索引为
i
的父结点的索引是floor((i-1)/2)
- 索引为
时间复杂度:
- 新元素一律先插入到堆尾
- Heapifyup:依次向上调整整个堆堆结构(与父结点比较及交换,直到根)
// Java 部分代码
/**
* Insert new element into heap
* Complexity: O(log N)
* As worst case scenario, we need to traverse till the root
*/
public void insert(int x) {
if (isFull()) {
throw new NoSuchElementException("Heap is full. No space to insert new element");
}
heap[heapSize++] = x;
heapifyUp(heapsize - 1);
}
/**
* Maintains the heap property while inserting an element
*/
private void heapifyUp(int i) {
int insertValue = heap[i];
while (i > 0 && insertValue > head[parent(i)]) {
heap[i] = heap[parent(i)];
i = parent(i);
}
heap[i] = insertValue;
}
时间复杂度:
- 将堆尾元素替换到顶部(即堆顶被替代删除)
- HeapifyDown:依次从根向下调整整个堆堆结构(与左右孩子结点比较,与较大的子结点交换,直到叶子)
/**
* Delete element at index x
* Complexity: O(log N)
*/
public int delete(int x) {
if (isEmpty()) {
throw new NoSuchElementException("Heap is empty. No element to delete");
}
int key = heap[x];
heap[x] = heap[heapSize - 1];
heapSize--;
heapifyDown(x);
return key
}
/**
* Maintains the heap property while deleting an element
*/
private void heapifyDown(int i) {
int child;
int temp = heap[i];
while (kthChild(i, 1) < heapSize) {
child = maxChild(i);
if (temp >= heap[child]){
break;
}
heap[i] = heap[child];
i = child;
}
heap[i] = temp;
}
**堆排序(Heap Sort)是基于二叉堆数据结构的一种比较排序,它与选择排序(Selection Sort)**相似,即找到最大值并将其置于末端。
- 构建大顶堆
- 此时大顶堆堆根结点为最大值,将其与堆的最后一个结点交换,将堆的大小减一(即将除最大值外的其他结点作为新的堆),将新堆重新堆化(Heapify)为大顶堆
- 重复上述操作,最终可以得到一个升序数组
- 构建小顶堆
- 此时小顶堆堆根结点为最小值,将其与堆的最后一个结点交换,将堆的大小减一(即将除最小值外的其他结点作为新的堆),将新堆重新堆化(Heapify)为小顶堆
- 重复上述操作,最终可以得到一个降序数组
- 堆排序是原地算法(in-place algorithm)
- 不稳定
堆化操作heapify
为
# Python program for implementation of heap Sort
# To heapify subtree rooted at index i.
# n is size of heap
def heapify(arr, n, i):
largest = i # Initialize largest as root
l = 2 * i + 1 # left = 2*i + 1
r = 2 * i + 2 # right = 2*i + 2
# See if left child of root exists and is
# greater than root
if l < n and arr[i] < arr[l]:
largest = l
# See if right child of root exists and is
# greater than root
if r < n and arr[largest] < arr[r]:
largest = r
# Change root, if needed
if largest != i:
arr[i],arr[largest] = arr[largest],arr[i] # swap
# Heapify the root.
heapify(arr, n, largest)
# The main function to sort an array of given size
def heapSort(arr):
n = len(arr)
# Build a maxheap.
for i in range(n//2 - 1, -1, -1):
heapify(arr, n, i)
# One by one extract elements
for i in range(n-1, 0, -1):
arr[i], arr[0] = arr[0], arr[i] # swap
heapify(arr, i, 0)
# Driver code to test above
arr = [ 12, 11, 13, 5, 6, 7]
heapSort(arr)
n = len(arr)
print ("Sorted array is")
for i in range(n):
print ("%d" %arr[i]),
# This code is contributed by Mohit Kumra
**图(Graph)由点(Vertices)和边(Edges)**组成。
- Graph
$(V, E)$ -
$V$ - vertex 点- 度(Degree):入度/出度
- 连通/非联通
-
$E$ - Edge 边- 有向/无向
- 权重
- 邻接矩阵(Adjacency Matrix)
- 邻接表(Adjacency List)
- **无向无权图:**邻接矩阵是对称的,且值(权重)为0或1
- **有向无权图:**邻接矩阵不对称,值(权重)为0或1。
- **无向有权图:**邻接矩阵是对称的,值即权重
- **有向有权图:**邻接矩阵不对称,值为权重
代码:递归
visited = set() # 和树中的DFS最大区别,因为树没有环路
def dfs(node, visited):
if node in visited: # Terminator
return # Already visited
visited.add(node)
# Process current node here.
for next_node in node.children():
if not next_node in visited:
dfs(next_node, visited)
代码:
def bfs(graph, start, end):
queue = []
queue.append([start])
visited = set # 和树中的DFS最大区别,因为树没有环路
while queue:
node = queue.pop()
visited.add(node)
process(node)
nodes = generate_related_nodes(node)
queue.push(nodes)
- 连通图个数
- 拓扑排序(Topological Sorting)
- 最短路径(Shortest Path):Dijkstra
- 最小生成树(Minimum Spanning Tree)(推荐B站:花花酱 的视频)
对于树来说,因为树的节点是以递归的方式来定义的,且具有重复性(自相似性),因此树的大部分算法都是可以用递归的
**递归(Recursion)**本质上是一种循环,是通过函数体(调用自身)来实现循环
- 遇到递归调用时,向下进入下一层(一般会传入新参数)
- 当前层结束后,向上返回上一层,并继续运行
- 每一层的局部变量(传入的参数以外)都是一份拷贝,不会对回归过程产生影响
示例:Factorial 阶乘实现
def factorial(n):
if n <= 1:
return 1
return n * factorial(n-1)
def recursion(level, param1, param2, ...):
# Recursion terminator
if level > MAX_LEVEL:
precess_result
return
# Process logic in current level
process(level, data, ...)
# Drill down
self.recursion(level+1, newparam, ...)
# Reverse the current level status if needed
- 不要人肉递归(最大误区)
- 找最近重复子问题
- 数学归纳法思维
本质上是递归
# Python
def divide_conquer(problem, param1, param2, ...):
# recursion terminator
if problem is None:
print_result
return
# prepare data
data = prepare_data(problem)
subproblems = split_problem(problem, data)
# conquer subproblems
subresult1 = self.divide_conquer(subproblems[0], p1, ...)
subresult2 = self.divide_conquer(subproblems[1], p1, ...)
subresult3 = self.divide_conquer(subproblems[2], p1, ...)
…
# process and generate the final result
result = process_result(subresult1, subresult2, subresult3, …)
# revert the current level states
采用试错思想,尝试分步地去解决一个问题。在分步解决问题的过程中,当它通过尝试发现现有的分步答案不能得到有效的正确的解答的时候,将取消上一步甚至上几步的计算,再通过其他的可能的分步解答再次尝试寻找问题的答案。
常采用最简单的递归方法实现,在反复重复上述步骤后可能出现:
- 找到一个可能存在的正确的答案
- 尝试了所有可能的分步方法后宣告该问题没有答案
最坏的情况下,回溯法会导致一次复杂度为指数时间的计算
# 递归
visited = set()
def dfs(node, visited):
if node in visited: # terminator
# already visited
return
visited.add(node)
# process current node here.
# ...
for next_node in node.children():
if next_node not in visited:
dfs(next_node, visited)
# 非递归 维护一个栈
def dfs(self, tree):
if tree.root is None:
return []
visited, stack = [], [tree.root]
while stack:
node = stack.pop()
visited.add(node)
process(node)
nodes = generate_related_nodes(node)
stack.push(nodes)
# other processing work
# ...
def bfs(graph, start, end):
visited = set()
queue = []
queue.append([start])
while queue:
node = queue.pop()
visited.add(node)
process(node)
nodes = generate_related_nodes(node)
queue.push(nodes)
# other processing work
...
贪心算法(Greedy Algorithm)是一种在每一步选择中都采取在当前状态下最好或最优的选择,从而希望导致结果是全局最好或最优的算法。
与动态规划不同的是,它对每个子问题的解决方案都做出(最优)选择,不能回退。
动态规划则会保存以前的运算结果,并根据以前的结果对当前进行选择,能回退
贪心算法可以解决一些最优化问题,如:求图中的最小生成树、求哈夫曼编码等。但工程中一般不能得到全局最优的答案。
一旦一个问题可以用贪心算法来解决,那么贪心算法一般是解决这个问题的最好办法。由于贪心算法的高效性以及其所求得的答案比较接近最优结果,贪心算法也可以用作辅助算法或者直接解决一些要求结果不特别精确的问题。
问题能分解成子问题来解决,子问题的最优解能递推到最终问题的最优解。这种子问题最优解称为最优子结构
- 目标函数具有单调性
- 存在上下界
- 能够通过索引访问
# Python
left, right = 0, len(array) - 1
while left <= right:
mid = (left + right) / 2
if array[mid] == target:
# find the target
break or return result
elif array[mid] < target:
left = mid + 1
else:
right = mid - 1
在迭代过程中,以直线代替曲线,用一阶泰勒展开式(即在当前点的切线)代替原曲线,求直线与
思想:(递归地)将一个复杂的问题分解成较为简单的子问题
分治(Divide & Conquer) + 最优子结构(Optimal substructure)
动态规划和递归或者分治没有根本上的区别(关键看有无最优子结构)
共性:找到重复子问题
差异性:(DP)最优子结构、中途可以淘汰次优解
具有最优子结构性质以及重叠子问题性质的问题可以通过动态规划求解。
- 如果一个问题的最优解包含其子问题的最优解,我们就称此问题具有最优子结构。
- 一个问题具有最优子结构,可能使用动态规划方法,也可能使用贪心方法。所以最优子结构只是一个线索,不是看到有最优子结构就一定是用动态规划求解
- 子问题空间必须足够“小”,即在不断的递归过程中,是在反复求解大量相同的子问题,而不是每次递归时都产生新的子问题。
- 一般的,不同子问题的总数是输入规模的多项式函数为好
- 如果递归算法反复求解相同的子问题,我们就称最优化问题具有重叠子问题性质
对于分治解法,我们的计算过程分为两个阶段:
- 递归的不断的分解问题,直到问题不可继续分解。
- 当问题不可继续分解,也就是分解到最小子问题后,由最小子问题的解逐步向上回归,逐层求出上层问题的解。
阶段1我们称为递归过程,而阶段2我们称为递归调用的回归过程。我们要做的,就是省略递归分解子问题的过程,将阶段2用递推实现出来。
- 化繁为简(拆分子问题)
- 定义状态空间
- DP 方程
- define subprolems
- guess (part of solution)
- relate subproblem solutions
- recurse & memorize OR build DP table bottom-up
- solve original problem
- 打破思维惯性,形成机器思维(找重复性)
- 理解复杂逻辑的关键
推荐B站:MIT 动态规划课程
又称单词查找树或键树,是一种树形结构。典型应用于统计和排序大量的字符串(但不仅限于字符串)
最大限度地减少无谓的字符串比较,查询效率比哈希表高
空间换时间
利用字符串的公共前缀来降低查询时间的开销以提高查询效率
- 结点本身不存完整单词
- 从根结点到某一结点路径上的所有字符连接起来,为该结点对应的字符串
- 每个结点的所有子结点路径代表的字符都不相同
class Trie(object):
def __init__(self):
self.root = {}
self.end_of_word = "#"
def insert(self, word):
node = self.root
for char in word:
node = node.setdefault(char, {})
node[self.end_of_word] = self.end_of_word
def search(self, word):
node = self.root
for char in word:
if char not in node:
return False
node = node[char]
return self.end_of_word in node
def startsWith(self, prefix):
node = self.root
for char in prefix:
if char not in node:
return False
node = node[char]
return True
组团、配对问题
__init__(n)
:建立一个新的并查集,其中包含n
个单元素集合union(p, q)
:把元素p
和元素q
所在的集合合并,要求p
和q
所在的集合不相交,如果相交则不合并find(x)
:找到元素x
所在的集合的代表,该操作也可以用于判断两个元素是否位于同一个集合,只要将它们各自的代表比较一下就可以了。
class UnionFind:
def __init__(self, n):
self.parent = [i for i in range(n)]
def union(self, p, q):
pRoot = self.find(p)
qRoot = self.find(q)
if pRoot != qRoot:
self.parent[pRoot] = qRoot
def find(self, x):
root = x
while self.parent[root] != root:
self.parent[root] = self.parent[self.parent[root]]
root = self.parent[root]
return root
一般的二叉查找树的查询复杂度取决于目标结点到树根的距离(即深度),因此当结点的深度普遍较大时,查询的均摊复杂度会上升。为了实现更高效的查询,产生了平衡树。
AVL 是一种自平衡二叉查找树,得名于其发明者 G. M. Adelson-Velsky和 Evgenii Landis
**平衡因子:**是它的左子树的高度减去它的右子树的高度(有时相反)。
- 左旋
- 右旋
- 左右旋
- 右左旋
不足:结点需要存储额外信息、且调整次数频繁
红黑树是一种近似平衡的二叉搜索树(Binary Search Tree),它能够确保任何一个结点的左右子树的高度差小于两倍。
- 每个结点要么是红色,要么是黑色
- 根结点是黑色
- 每个叶结点(NIL结点,空结点)是黑色的。
- 不能有相邻接的两个红色结点
- 从任一结点到其每个叶子的所有路径都包含相同数目的黑色结点。
从根到叶子的最长的可能路径不多于最短的可能路径的两倍长。
对位模式或二进制数的一元和二元操作。在现代架构中,位运算的运算速度通常与加法运算相同,通常比乘除法运算要快。
含义 | 运算符 | 示例 |
---|---|---|
按位或 OR | ` | ` |
按位与 AND | & |
0011 & 1001 -> 0001 |
按位取反 NOT | ~ |
~0011 -> 1100 |
按位异或 XOR | ^ |
0011 ^ 1001 -> 1010 |
左移 | << |
0011 << 1 -> 0110 |
右移 | >> |
0011 >> 1 -> 0001 |
x ^ 0 == x
x ^ 1s == ~x # 1s即 ~0
x ^ (~x) == 1s
x ^ x == 0
交换:c == a ^ b
<=> b == a ^ c
<=> a == b ^ c
结合:a ^ b ^ c <=> a ^ (b ^ c) <=> (a ^ b) ^ c
- 将
x
最右边的n
位清零:x & (~0 << n)
- 获取
x
的第n
位的值:(x >> n) & 1
- 获取
x
的第n
位的幂值:x & (1 << n)
- 将第
n
位置0
:x & (~(1 << n))
- 将第
n
位置1
:x | ((1 << n))
- 将
x
的最高位至第n
位(含)清零:x & ((1 << n) - 1)
-
判断奇偶
n % 2
等价于n & 1
- 奇数
n & 1 == 1
- 偶数
n & 1 == 0
- 奇数
-
x // 2
等价于x >> 1
(向下取整) -
x = x & (x - 1)
清除最低位的1
-
x & (-x)
得到最低位的1
-
-x == ~x + 1
取反加一为相反数
一个很长的二进制向量和一系列随机映射函数。布隆过滤器可以用于检索一个元素是否在一个集合中。
若布隆过滤器检索元素不在集合中,那这个元素一定不在
若检索在集合中,那这个元素有可能在也有可能不在
空间效率和查询时间都远远超过一般的算法
有一定的误识别率和删除困难
- 比特币网络
- 分布式系统(Map-Reduc)— Hadoop, Search engine
- Redis 缓存
- 垃圾邮件、评论等
使用BloomFilter布隆过滤器解决缓存击穿、垃圾邮件识别、集合判重
LRU 是 Least Recently Used 的缩写,即最近最少使用,是一种常用的页面置换算法(Page-Replacement Algorithms),选择最近最久未使用的页面予以淘汰。该算法赋予每个页面一个访问字段,用来记录一个页面自上次被访问以来所经历的时间 t,当须淘汰一个页面时,选择现有页面中其 t 值最大的,即最近最少使用的页面予以淘汰。
-
缓存大小
-
替换策略
哈希表 + 双向链表
查询时间
删改时间
LFU - Least Frequently Used
LRU - Least Recently Used
在 Python
语言中,有一种结合了哈希表与双向链表的数据结构 OrderedDict
,下面只给出使用封装好的数据结构实现的代码
class LRUCache(object):
def __init__(self, capacity):
self.dic = collections.OrderedDict()
self.remain = capacity
def get(self, key):
if key not in self.dic:
return -1
v = self.dic.pop(key)
self.dic[key] = v # key as the newest one
return v
def put(self, key, value):
if key in self.dic:
self.dic.pop(key)
else:
if self.remain > 0:
self.remain -= 1
else: # self.dic is full
self.dic.popitem(last=False)
self.dic[key] = value
class ListNode:
def __init__(self, key=0, value=0):
self.key, self.val = key, value
self.next, self.prev = None, None
class LRUCache:
def __init__(self, capacity: int):
self.capacity = capacity
self.size = 0
self.head = ListNode()
self.tail = ListNode()
self.head.next = self.tail
self.tail.prev = self.head
self.hashmap = dict()
def get(self, key: int) -> int:
if key not in self.hashmap:
return -1
node = self.hashmap[key]
self.moveToHead(node)
return node.val
def put(self, key: int, value: int) -> None:
if key not in self.hashmap:
node = ListNode(key, value)
self.hashmap[key] = node
self.addToHead(node)
self.size += 1
if self.size > self.capacity:
removed = self.removeTail()
self.hashmap.pop(removed.key)
self.size -= 1
else:
node = self.hashmap[key]
self.moveToHead(node)
node.val = value
def addToHead(self, node: ListNode) -> None:
node.prev = self.head
node.next = self.head.next
self.head.next.prev = node
self.head.next = node
def moveToHead(self, node: ListNode) -> None:
self.removeNode(node)
self.addToHead(node)
def removeNode(self, node: ListNode) -> None:
node.prev.next = node.next
node.next.prev = node.prev
def removeTail(self) -> ListNode:
node = self.tail.prev
self.removeNode(node)
return node
# Your LRUCache object will be instantiated and called as such:
# obj = LRUCache(capacity)
# param_1 = obj.get(key)
# obj.put(key,value)
通过比较来决定元素间的相对次序,由于其时间复杂度不能突破
不通过比较来决定元素间的相对次序,它可以突破基于比较排序的时间下界,以线性时间运行,因此也称为线性时间非比较类排序。
- 稳定:如果
a
原本在b
前面,而a=b
,排序之后a
仍然在b
的前面。 - 不稳定:如果
a
原本在b
的前面,而a=b
,排序之后a
可能会出现在b
的后面。
-
工作原理
- 首先在未排序序列中找到最小(大)元素,存放到排序序列的起始位置
- 再从剩余未排序元素中继续寻找最小(大)元素,放到已排序序列的末尾。
- 以此类推,直到所有元素均排序完毕。
-
算法描述
$n$ 个记录的直接选择排序可经过$n-1$ 趟直接选择排序得到有序结果。具体算法描述如下:- 初始状态:无序区为
$R[1..n]$ ,有序区为空; - 第
$i$ 趟排序$(i=1,2,3, \dots, n-1)$ 开始时,当前有序区和无序区分别为$R[1..i-1]$ 和$R(i..n)$ 。该趟排序从当前无序区中选出关键字最小的记录$R[k]$ ,将它与无序区的第$1$ 个记录$R$ 交换,使$R[1..i]$ 和$R[i+1..n)$ 分别变为记录个数增加$1$ 个的新有序区和记录个数减少$1$ 个的新无序区; -
$n-1$ 趟结束,数组有序化了。
- 初始状态:无序区为
-
代码实现
class Sorting: def selectionSort(self, arr: List[int]) -> None: arrlen = len(arr) for i in range(arrlen - 1): minIdx = i for j in range(i + 1, arrlen): if arr[j] < arr[minIdx]: minIdx = j arr[i], arr[minIdx] = arr[minIdx], arr[i]
-
算法分析
- 表现最稳定的排序算法之一,因为无论什么数据进去都是
$O(n^2)$ 的时间复杂度,所以用到它的时候,数据规模越小越好。唯一的好处可能就是不占用额外的内存空间了吧。理论上讲,选择排序可能也是平时排序一般人想到的最多的排序方法
- 表现最稳定的排序算法之一,因为无论什么数据进去都是
-
工作原理
- 通过构建有序序列,对于未排序数据,在已排序序列中从后向前扫描,找到相应位置并插入。
-
算法描述
一般来说,插入排序都采用 in-place 在数组上实现。具体算法描述如下:
- 从第一个元素开始,该元素可以认为已经被排序;
- 取出下一个元素,在已经排序的元素序列中从后向前扫描;
- 如果该元素(已排序)大于新元素,将该元素移到下一位置;
- 重复步骤 3,直到找到已排序的元素小于或者等于新元素的位置;
- 将新元素插入到该位置后;
- 重复步骤 2~5。
-
代码实现
class Sorting: def selectionSort(self, arr: List[int]) -> None: for i in range(1, len(arr)): preIdx = i - 1 current = arr[i] while preIdx >= 0 and arr[preIdx] > current: arr[preIdx + 1] = arr[preIdx] preIdx -= 1 arr[preIdx + 1] = current # 另一种写法 def selectionSort2(self, arr: List[int]) -> None: for i in range(1, len(arr)): for j in range(i): if arr[i] < arr[j]: arr[i], arr[j] = arr[j], arr[i]
-
算法分析
- 插入排序在实现上,通常采用 in-place 排序(即只需用到
$O(1)$ 的额外空间的排序),因而在从后向前扫描过程中,需要反复把已排序元素逐步向后挪位,为最新元素提供插入空间。
- 插入排序在实现上,通常采用 in-place 排序(即只需用到
-
工作原理与介绍
- 重复地走访过要排序的数列,一次比较两个元素,如果它们的顺序错误就把它们交换过来。
- 走访数列的工作是重复地进行直到没有再需要交换,也就是说该数列已经排序完成。
- 这个算法的名字由来是因为越小的元素会经由交换慢慢“浮”到数列的顶端。
-
算法描述
- 比较相邻的元素。如果第一个比第二个大,就交换它们两个;
- 对每一对相邻元素作同样的工作,从开始第一对到结尾的最后一对,这样在最后的元素应该会是最大的数;
- 针对所有的元素重复以上的步骤,除了最后一个;
- 重复步骤1~3,直到排序完成。
-
代码实现
# Python class Bubble: def bubbleSort(self, arr: List[int]) -> None: arrlen = len(arr) for i in range(arrlen - 1): for j in range(arrlen - 1 - i): if arr[j] > arr[j + 1]: arr[j], arr[j + 1] = arr[j + 1], arr[j]
-
介绍
- 严格来说不属于
$O(n^2)$ 时间复杂度的排序算法,而是介于$O(n^2)$ 和$O(n \log n)$ ,在最好情况和最坏情况下的时间复杂度分别是$O(n)$ 和$O(n^2)$ - 1959年Shell发明,第一个突破
$O(n^2)$ 的排序算法,是简单插入排序的改进版。它与插入排序的不同之处在于,它会优先比较距离较远的元素。希尔排序又叫缩小增量排序(Diminishing Increment Sort)。
- 严格来说不属于
-
算法描述
先将整个待排序的记录序列分割成为若干子序列分别进行直接插入排序,具体算法描述:
- 选择一个增量序列
$t_1,t_2,\dots,t_k$ ,其中$t_i > t_j, t_k=1$ ; - 按增量序列个数
$k$ ,对序列进行$k$ 趟排序; - 每趟排序,根据对应的增量
$t_i$ ,将待排序列分割成若干长度为$m$ 的子序列,分别对各子表进行直接插入排序。仅增量因子为$1$ 时,整个序列作为一个表来处理,表长度即为整个序列的长度。
- 选择一个增量序列
-
代码实现
class Sorting: def shellSort(self, arr: List[int]) -> None: arrlen = len(arr) gap = arrlen // 2 while gap > 0: for i in range(gap, arrlen): j = i cur = arr[i] while j - gap >= 0 and cur < arr[j - gap]: arr[j] = arr[j - gap] j -= gap arr[j] = cur gap >>= 1
-
算法分析
- 希尔排序的核心在于间隔序列的设定,既可以提前设定好间隔序列,也可以动态的定义间隔序列(动态定义间隔序列的算法是《算法(第4版)》的合著者Robert Sedgewick提出的)。
-
基本思想
- 通过一趟排序将待排记录分隔成独立的两部分,其中一部分记录的关键字均比另一部分的关键字小,则可分别对这两部分记录继续进行排序,以达到整个序列有序。
-
算法描述
快速排序使用分治法来把一个串(list)分为两个子串(sub-lists)。具体算法描述如下:
- 从数列中挑出一个元素,称为 “基准”(pivot);
- 重新排序数列,所有元素比基准值小的摆放在基准前面,所有元素比基准值大的摆在基准的后面(相同的数可以到任一边)。在这个分区退出之后,该基准就处于数列的中间位置。这个称为分区(partition)操作;
- 递归地(recursively)把小于基准值元素的子数列和大于基准值元素的子数列排序。
-
代码实现
class Sorting: def quickSort(self, arr: List[int], start: int, end: int) -> None: # init: start = 0, end = len(arr) - 1 if start < end: parIdx = self.partition(arr, start, end) self.quickSort(arr, start, parIdx - 1) self.quickSort(arr, parIdx + 1, end) def partition(self, arr: List[int], left: int, right: int) -> int: pivot = left index = pivot + 1 for i in range(index, right + 1): if arr[i] < arr[pivot]: arr[i], arr[index] = arr[index], arr[i] index += 1 arr[pivot], arr[index-1] = arr[index-1], arr[pivot] return index - 1
-
介绍
- 归并排序是建立在归并操作上的一种有效的排序算法。该算法是采用**分治法(Divide and Conquer)**的一个非常典型的应用。将已有序的子序列合并,得到完全有序的序列;即先使每个子序列有序,再使子序列段间有序。若将两个有序表合并成一个有序表,称为2-路归并。
-
算法描述
- 把长度为
$n$ 的输入序列分成两个长度为$n/2$ 的子序列; - 对这两个子序列分别采用归并排序;
- 将两个排序好的子序列合并成一个最终的排序序列。
- 把长度为
-
代码实现
class Sorting: def mergeSort(self, arr: List[int]) -> List[int]: arrlen = len(arr) if arrlen < 2: return arr mid = arrlen // 2 left, right = arr[:mid], arr[mid:] return self.merge(self.mergeSort(left), self.mergeSort(right)) def merge(self, left: List[int], right: List[int]) -> List[int]: res = [] while left and right: if left[0] <= right[0]: res.append(left.pop(0)) else: res.append(right.pop(0)) while left: res.append(left.pop(0)) while right: res.append(right.pop(0)) return res
-
算法分析
- 归并排序是一种稳定的排序方法。和选择排序一样,归并排序的性能不受输入数据的影响,但表现比选择排序好的多,因为始终都是
$O(n\log n)$ 的时间复杂度。代价是需要额外的内存空间。
- 归并排序是一种稳定的排序方法。和选择排序一样,归并排序的性能不受输入数据的影响,但表现比选择排序好的多,因为始终都是
-
介绍
- 堆排序是指利用堆这种数据结构所设计的一种排序算法。堆积是一个近似完全二叉树的结构,并同时满足堆积的性质:即子结点的键值或索引总是小于(或者大于)它的父节点。
-
算法描述
- 将初始待排序关键字序列
$(R_1,R_2, \dots , R_n)$ 构建成大顶堆,此堆为初始的无序区; - 将堆顶元素
$R[1]$ 与最后一个元素$R[n]$ 交换,此时得到新的无序区$(R_1, R_2, \dots, R_{n-1})$ 和新的有序区$(R_n)$ ,且满足$R[1,2,\dots,n-1] \le R[n]$ - 由于交换后新的堆顶
$R[1]$ 可能违反堆的性质,因此需要对当前无序区$(R_1,R_2,\dots,R_{n-1})$ 调整为新堆,然后再次将$R[1]$ 与无序区最后一个元素交换,得到新的无序区$(R_1,R_2,\dots,R_{n-2})$ 和新的有序区$(R_{n-1}, R_n)$ 。不断重复此过程直到有序区的元素个数为$n-1$ ,则整个排序过程完成。
- 将初始待排序关键字序列
-
代码实现
-
介绍
- 计数排序不是基于比较的排序算法,其核心在于将输入的数据值转化为键存储在额外开辟的数组空间中。 作为一种线性时间复杂度的排序,计数排序要求输入的数据必须是有确定范围的整数。
-
算法描述
- 找出待排序的数组中最大和最小的元素;
- 统计数组中每个值为
i
的元素出现的次数,存入数组C
的第i
项; - 对所有的计数累加(从
C
中的第一个元素开始,每一项和前一项相加); - 反向填充目标数组:将每个元素i放在新数组的第
C(i)
项,每放一个元素就将C(i)
减去1
。
-
代码实现
class Sorting: def countingSort(self, arr: List[int]) -> None: count = collections.Counter(arr) maxVal, index = max(arr), 0 for i in range(maxVal): while count.get(i, 0): arr[index] = count[i] count[i] -= 1 index += 1
-
算法分析
- 计数排序是一个稳定的排序算法。当输入的元素是
$n$ 个$0$ 到$k$ 之间的整数时,时间复杂度是$O(n+k)$ ,空间复杂度也是$O(n+k)$ ,其排序速度快于任何比较排序算法。当$k$ 不是很大并且序列比较集中时,计数排序是一个很有效的排序算法。
- 计数排序是一个稳定的排序算法。当输入的元素是
-
介绍
- 桶排序是计数排序的升级版。它利用了函数的映射关系,高效与否的关键就在于这个映射函数的确定。
- 工作原理:假设输入数据服从均匀分布,将数据分到有限数量的桶里,每个桶再分别排序(有可能再使用别的排序算法或是以递归方式继续使用桶排序进行排)。
-
算法描述
- 设置一个定量的数组当作空桶;
- 遍历输入数据,并且把数据一个一个放到对应的桶里去;
- 对每个不是空的桶进行排序;
- 从不是空的桶里把排好序的数据拼接起来。
-
代码实现
class Sorting: def bucketSort(self, arr: List[int]) -> None: arrlen = len(arr) if not arrlen: return minVal, maxVal = min(arr), max(arr) bucketSize = DEFAULT_BUCKET_SIZE = 5 # 设置桶的默认数量为 5 bucketCount = ((maxVal - minVal) // bucketSize) + 1 buckets = [[] for _ in range(bucketCount)] for i in range(arrlen): buckets[(arr[i] - minVal) // bucketSize].append(arr[i]) arr = [] for i in range(len(buckets)): self.insertionSort(buckets[i]) # 对每个桶进行排序,这里用了插入排序 for j in range(len(buckets[i])): arr.append(buckets[i][j])
-
算法分析
- 桶排序最好情况下使用线性时间
$O(n)$ ,桶排序的时间复杂度,取决与对各个桶之间数据进行排序的时间复杂度,因为其它部分的时间复杂度都为$O(n)$ 。很显然,桶划分的越小,各个桶之间的数据越少,排序所用的时间也会越少。但相应的空间消耗就会增大。
- 桶排序最好情况下使用线性时间
-
介绍
- 基数排序是按照低位先排序,然后收集;再按照高位排序,然后再收集;依次类推,直到最高位。有时候有些属性是有优先级顺序的,先按低优先级排序,再按高优先级排序。最后的次序就是高优先级高的在前,高优先级相同的低优先级高的在前。
-
算法描述
- 取得数组中的最大数,并取得位数;
-
arr
为原始数组,从最低位开始取每个位组成radix
数组; - 对
radix
进行计数排序(利用计数排序适用于小范围数的特点);
-
代码实现
class Sorting: def radixSort(self, arr: List[int]) -> None: counter = collections.defaultdict(list) mod, dev, pos = 10, 1, 0 maxVal, maxDigit = max(arr), 0 while maxVal: maxVal //= 10 maxDigit += 1 for i in range(maxDigit): for j in range(len(arr)): bucket = (arr[j] % mod) // dev counter[bucket].append(arr[j]) dev *= 10 mod *= 10 for i in range(len(counter)): if counter.get(i): while value := counter[i].pop(0): arr[pos] = value pos += 1
-
算法分析
- 基数排序基于分别排序,分别收集,所以是稳定的。但基数排序的性能比桶排序要略差,每一次关键字的桶分配都需要
$O(n)$ 的时间复杂度,而且分配之后得到新的关键字序列又需要$O(n)$ 的时间复杂度。假如待排数据可以分为$d$ 个关键字,则基数排序的时间复杂度将是$O(d*2n)$ ,当然$d$ 要远远小于$n$ ,因此基本上还是线性级别的。 - 基数排序的空间复杂度为
$O(n+k)$ ,其中$k$ 为桶的数量。一般来说$n>>k $ ,因此额外空间需要大概$n$ 个左右。
- 基数排序基于分别排序,分别收集,所以是稳定的。但基数排序的性能比桶排序要略差,每一次关键字的桶分配都需要