Skip to content

Commit a78d524

Browse files
committed
upd
1 parent 34fae8a commit a78d524

20 files changed

+57
-4
lines changed

2-Supervised/2.1-LinearRegression.md

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,7 @@
11
# 2.1 线性回归
22

3+
![AI1](https://img.shields.io/badge/LC-Artificial%20Inteligence%201-blue)
4+
35
## 什么是线性回归
46

57
线性回归(Linear Regression)是一个机器学习模型用于完成回归任务。为解释线性回归,我们将其分为两个部分:线性和回归。

2-Supervised/2.2-GD.md

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,8 @@
11
# 2.2 梯度下降 Gradient Descent
22

3+
![AI1](https://img.shields.io/badge/LC-Artificial%20Inteligence%201-blue)
4+
![NC](https://img.shields.io/badge/LH-Neural%20Compulation-red)
5+
36
在上一节,我们通过线性回归了解了基础的监督学习的模型。我们定义了模型,成本函数,并尝试优化成本函数。优化成本函数使得我们的模型能够更好地完成任务(拟合数据)。在这一节,我们将介绍一个常用的优化算法:梯度下降(Gradient Descent)。其是一种更通用的方法用于最小化函数。
47

58
## 1. 梯度下降

2-Supervised/2.3-LinearRegressionGD.md

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,8 @@
11
# 2.3 线性回归与梯度下降
22

3+
![AI1](https://img.shields.io/badge/LC-Artificial%20Inteligence%201-blue)
4+
![NC](https://img.shields.io/badge/LH-Neural%20Compulation-red)
5+
36
在 2.1 节,我们定义了线性回归的优化目标为:
47

58
$$

2-Supervised/2.4-LogisticRegression.md

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,7 @@
11
# 2.4 逻辑回归
22

3+
![AI1](https://img.shields.io/badge/LC-Artificial%20Inteligence%201-blue)
4+
35
在学习完线性回归后,我们来学习逻辑回归。逻辑回归(Logistic Regression)是一种二元分类(Binary Classification)算法。分类算法故名思议就是将数据分为不同的类别。而二元则是表示分的类别总共由 2 个,我们可以将其命名为正类(Positive)和负类(Negative)。
46

57
## 定义问题

2-Supervised/2.5-NonLinearTransformation.md

Lines changed: 3 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,8 @@
11
# 2.5 非线性变换
22

3+
![NC](https://img.shields.io/badge/LH-Neural%20Compulation-red)
4+
![ML](https://img.shields.io/badge/LH-Machine%20Learning-red)
5+
36
在学完线性回归和逻辑回归后你一定会有一个疑问,我们既然定义模型为线性函数,而线性函数中所有的输入特征都是线性的,那么我们如何处理非线性的特征呢?例如我们应该如何用线性模型来拟合一个二次函数呢?
47

58
非线性变换可以解决这个问题。

2-Supervised/2.6-SVM.md

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,7 @@
11
# 2.6 支持向量机【待完成】
22

3+
![ML](https://img.shields.io/badge/LH-Machine%20Learning-red)
4+
35
支持向量机(Support Vector Machine, SVM)是一种二分类模型,其基本模型是定义在特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化。SVM 通过间隔最大化,可以使得模型对噪声更加鲁棒,从而提高模型的泛化能力。
46

57
## 线性可分支持向量机

2-Supervised/2.7-KernelTrick.md

Lines changed: 11 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,11 @@
1+
# 2.7 核技巧 Kernel Trick
2+
3+
![ML](https://img.shields.io/badge/LH-Machine%20Learning-red)
4+
5+
上一节 SVM,我们定义了 $\kappa(\mathbf{x}, \mathbf{z})=\phi(\mathbf{x})^T\phi(\mathbf{z})$ 作为核函数。这里我们将直接求解 $\kappa$ 介绍核技巧(Kernel Trick)。
6+
7+
## Mercer's Condition
8+
9+
寻找一个 $\phi$ 能够使得 $\kappa(\mathbf{x}, \mathbf{z})=\phi(\mathbf{x})^T\phi(\mathbf{z})$ 是一个困难的问题。但是我们可以通过直接寻找 $\kappa$ 而不去寻找 $\phi$ 来解决这个问题。
10+
11+
Mercer's Condition 是一个充分条件,如果一个函数 $M(\mathbf{x}, \mathbf{z})$ 满足 Mercer's Condition,那么我们可以认为 $M$ 是一个合法的核函数。

3-InformationTheory/1-InfoAndEntropy.md

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,7 @@
11
# 自信息与熵
22

3+
![AI2](https://img.shields.io/badge/LI-Artificial%20Inteligence%202-green)
4+
35
## 自信息(Self-Informaiton)
46

57
自信息是一个事件的信息量,用来衡量一个事件发生的意外程度。其是通过事件 $x$ 的概率来定义的。当 $P(x)$ 越大,事件发生的概率越大,那么自信息越小,其信息量越小。因此我们可以直觉定义如下:

3-InformationTheory/2-CondEntropyAndD.md

Lines changed: 1 addition & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,6 @@
11
# 联合熵、条件熵、散度与互信息
22

3+
![AI2](https://img.shields.io/badge/LI-Artificial%20Inteligence%202-green)
34

45
## 联合熵(Joint Entropy)
56

4-DeepLearning/4.1-Perceptron.md

Lines changed: 2 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -1,5 +1,7 @@
11
# 感知机(Perceptron)
22

3+
![NC](https://img.shields.io/badge/LH-Neural%20Compulation-red)
4+
35
感知机是深度学习中最重要的单元之一,其意图在模拟一个神经元的工作原理。
46

57
![https://askabiologist.asu.edu/chinese-simplified/%E7%A5%9E%E7%BB%8F%E5%85%83%E7%9A%84%E8%A7%A3%E5%89%96%E5%AD%A6](./img/neuron.png)

0 commit comments

Comments
 (0)