Skip to content

Commit 900d35a

Browse files
authored
[WIP][term] Terminology for Chapter 13 (d2l-ai#990)
* 正面 -> 正类 * 过度拟合 -> 过拟合 * 对象检测 -> 目标检测 * term * 滤镜->滤波器 * 前向计算->前向传播 * 权值->权重 * 降噪->去噪 * 链规则->链式法则
1 parent 7f588a9 commit 900d35a

File tree

21 files changed

+72
-64
lines changed

21 files changed

+72
-64
lines changed

chapter_computational-performance/hybridize.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -338,7 +338,7 @@ net(x)
338338
```
339339

340340
:begin_tab:`mxnet`
341-
重复的前向计算将导致相同的输出(细节已被省略)。现在看看调用`hybridize`函数会发生什么。
341+
重复的前向传播将导致相同的输出(细节已被省略)。现在看看调用`hybridize`函数会发生什么。
342342
:end_tab:
343343

344344
```{.python .input}

chapter_computer-vision/anchor.md

Lines changed: 15 additions & 15 deletions
Original file line numberDiff line numberDiff line change
@@ -283,7 +283,7 @@ def box_iou(boxes1, boxes2):
283283
:label:`subsec_labeling-anchor-boxes`
284284

285285
在训练集中,我们将每个锚框视为一个训练样本。
286-
为了训练目标检测模型,我们需要每个锚框的类别(class)和偏移量(offset)标签,其中前者是与锚框相关的对象的类别,后者是真实边界框相对于锚框的偏移量。
286+
为了训练目标检测模型,我们需要每个锚框的*类别*(class)*偏移量*(offset)标签,其中前者是与锚框相关的对象的类别,后者是真实边界框相对于锚框的偏移量。
287287
在预测期间,我们为每个图像生成多个锚框,预测所有锚框的类和偏移量,根据预测的偏移量调整它们的位置以获得预测的边界框,最后只输出符合特定条件的预测边界框。
288288

289289
我们知道,目标检测训练集附带了“真实边界框”的位置及其包围物体类别的标签。
@@ -367,11 +367,11 @@ def assign_anchor_to_bbox(ground_truth, anchors, device, iou_threshold=0.5):
367367
return anchors_bbox_map
368368
```
369369

370-
### 标记类和偏移
370+
### 标记类别和偏移量
371371

372372
现在我们可以为每个锚框标记分类和偏移量了。
373373
假设一个锚框$A$被分配了一个真实边界框$B$。
374-
一方面,锚框$A$的类将被标记为与$B$相同。
374+
一方面,锚框$A$的类别将被标记为与$B$相同。
375375
另一方面,锚框$A$的偏移量将根据$B$和$A$中心坐标的相对位置、以及这两个框的相对大小进行标记。
376376
鉴于数据集内不同的框的位置和大小不同,我们可以对那些相对位置和大小应用变换,使其获得更均匀分布、易于适应的偏移量。
377377
在这里,我们介绍一种常见的变换。
@@ -399,9 +399,9 @@ def offset_boxes(anchors, assigned_bb, eps=1e-6):
399399
return offset
400400
```
401401

402-
如果一个锚框没有被分配真实边界框,我们只需将锚框的类标记为“背景”类。
402+
如果一个锚框没有被分配真实边界框,我们只需将锚框的类别标记为“背景”类(background)
403403
背景类的锚框通常被称为“负类”锚框,其余的被称为“正类”锚框。
404-
我们使用真实边界框(`labels`参数)实现以下`multibox_target`函数,来[**标记锚框的类和偏移量**]`anchors`参数)。
404+
我们使用真实边界框(`labels`参数)实现以下`multibox_target`函数,来[**标记锚框的类别和偏移量**]`anchors`参数)。
405405
此函数将背景类设置为零,然后将新类的整数索引递增一。
406406

407407
```{.python .input}
@@ -477,7 +477,7 @@ def multibox_target(anchors, labels):
477477
### 一个例子
478478

479479
让我们通过一个具体的例子来说明锚箱标签。
480-
我们在加载的图像中为狗和猫定义了地面真实边界框,其中第一个元素是类(0代表狗,1代表猫),其余四个元素是左上角和右下角的$(x, y)$轴坐标(范围介于0和1之间)。
480+
我们在加载的图像中为狗和猫定义了地面真实边界框,其中第一个元素是类别(0代表狗,1代表猫),其余四个元素是左上角和右下角的$(x, y)$轴坐标(范围介于0和1之间)。
481481
我们还构建了五个锚框,用左上角和右下角的坐标进行标记:$A_0, \ldots, A_4$(索引从0开始)。
482482
然后我们[**在图像中绘制这些地面真相边界框和锚框**]
483483

@@ -509,17 +509,17 @@ labels = multibox_target(anchors.unsqueeze(dim=0),
509509
ground_truth.unsqueeze(dim=0))
510510
```
511511

512-
返回的结果中有三个元素,都是张量格式。第三个元素包含标记的输入锚框的类
512+
返回的结果中有三个元素,都是张量格式。第三个元素包含标记的输入锚框的类别
513513

514-
让我们根据图像中的锚框和真实边界框的位置来分析下面返回的类标签
514+
让我们根据图像中的锚框和真实边界框的位置来分析下面返回的类别标签
515515
首先,在所有的锚框和真实边界框配对中,锚框$A_4$与猫的真实边界框的IoU是最大的。
516-
因此,$A_4$的类被标记为猫
516+
因此,$A_4$的类别被标记为猫
517517
去除包含$A_4$或猫的真实边界框的配对,在剩下的配对中,锚框$A_1$和狗的真实边界框有最大的IoU。
518-
因此,$A_1$的类被标记为狗
518+
因此,$A_1$的类别被标记为狗
519519
接下来,我们需要遍历剩下的三个未标记的锚框:$A_0$、$A_2$和$A_3$。
520-
对于$A_0$,与其拥有最大IoU的真实边界框的类是狗,但IoU低于预定义的阈值(0.5),因此该类被标记为背景
521-
对于$A_2$,与其拥有最大IoU的真实边界框的类是猫,IoU超过阈值,所以类被标记为猫
522-
对于$A_3$,与其拥有最大IoU的真实边界框的类是猫,但值低于阈值,因此该类被标记为背景
520+
对于$A_0$,与其拥有最大IoU的真实边界框的类别是狗,但IoU低于预定义的阈值(0.5),因此该类别被标记为背景
521+
对于$A_2$,与其拥有最大IoU的真实边界框的类别是猫,IoU超过阈值,所以类别被标记为猫
522+
对于$A_3$,与其拥有最大IoU的真实边界框的类别是猫,但值低于阈值,因此该类别被标记为背景
523523

524524
```{.python .input}
525525
#@tab all
@@ -568,9 +568,9 @@ def offset_inverse(anchors, offset_preds):
568568
为了简化输出,我们可以使用*非极大值抑制*(non-maximum suppression,NMS)合并属于同一目标的类似的预测边界框。
569569

570570
以下是非极大值抑制的工作原理。
571-
对于一个预测边界框$B$,目标检测模型会计算每个类的预测概率
571+
对于一个预测边界框$B$,目标检测模型会计算每个类别的预测概率
572572
假设最大的预测概率为$p$,则该概率所对应的类别$B$即为预测的类别。
573-
具体来说,我们将$p$称为预测边界框$B$的*置信度*
573+
具体来说,我们将$p$称为预测边界框$B$的*置信度*(confidence)
574574
在同一张图像中,所有预测的非背景边界框都按置信度降序排序,以生成列表$L$。然后我们通过以下步骤操作排序列表$L$:
575575

576576
1. 从$L$中选取置信度最高的预测边界框$B_1$作为基准,然后将所有与$B_1$的IoU超过预定阈值$\epsilon$的非基准预测边界框从$L$中移除。这时,$L$保留了置信度最高的预测边界框,去除了与其太过相似的其他预测边界框。简而言之,那些具有*非极大值*置信度的边界框被*抑制*了。

chapter_computer-vision/bounding-box.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -4,7 +4,7 @@
44
在前面的章节(例如 :numref:`sec_alexnet`— :numref:`sec_googlenet`)中,我们介绍了各种图像分类模型。
55
在图像分类任务中,我们假设图像中只有一个主要物体对象,我们只关注如何识别其类别。
66
然而,很多时候图像里有多个我们感兴趣的目标,我们不仅想知道它们的类别,还想得到它们在图像中的具体位置。
7-
在计算机视觉里,我们将这类任务称为*目标检测*(object detection)或*物体检测*
7+
在计算机视觉里,我们将这类任务称为*目标检测*(object detection)或*对象识别*(object recognition)
88

99
目标检测在多个领域中被广泛使用。
1010
例如,在无人驾驶里,我们需要通过识别拍摄到的视频图像里的车辆、行人、道路和障碍的位置来规划行进线路。

chapter_computer-vision/fcn.md

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -2,8 +2,8 @@
22
:label:`sec_fcn`
33

44
如 :numref:`sec_semantic_segmentation`中所介绍的那样,语义分割能对图像中的每个像素分类。
5-
全卷积网络(fully convolutional network,FCN)采用卷积神经网络实现了从图像像素到像素类别的变换 :cite:`Long.Shelhamer.Darrell.2015`
6-
与我们之前在图像分类或目标检测部分介绍的卷积神经网络不同,全卷积网络将中间层特征图的高和宽变换回输入图像的尺寸:这是通过 :numref:`sec_transposed_conv`中引入的*转置卷积*(transposed convolution)层实现的
5+
*全卷积网络*(fully convolutional network,FCN)采用卷积神经网络实现了从图像像素到像素类别的变换 :cite:`Long.Shelhamer.Darrell.2015`
6+
与我们之前在图像分类或目标检测部分介绍的卷积神经网络不同,全卷积网络将中间层特征图的高和宽变换回输入图像的尺寸:这是通过 :numref:`sec_transposed_conv`中引入的*转置卷积*(transposed convolution)实现的
77
因此,输出的类别预测与输入图像在像素级别上具有一一对应关系:给定空间维上的位置,通道维的输出即该位置对应像素的类别预测。
88

99
```{.python .input}
@@ -62,7 +62,7 @@ for layer in pretrained_net.features[:-2]:
6262
net = nn.Sequential(*list(pretrained_net.children())[:-2])
6363
```
6464

65-
给定高度和宽度分别为320和480的输入,`net`的前向计算将输入的高和宽减小至原来的$1/32$,即10和15。
65+
给定高度和宽度分别为320和480的输入,`net`的前向传播将输入的高和宽减小至原来的$1/32$,即10和15。
6666

6767
```{.python .input}
6868
X = np.random.uniform(size=(1, 3, 320, 480))
@@ -287,9 +287,9 @@ def label2image(pred):
287287

288288
测试数据集中的图像大小和形状各异。
289289
由于模型使用了步幅为32的转置卷积层,因此当输入图像的高或宽无法被32整除时,转置卷积层输出的高或宽会与输入图像的尺寸有偏差。
290-
为了解决这个问题,我们可以在图像中截取多块高和宽为32的整数倍的矩形区域,并分别对这些区域中的像素做前向计算
290+
为了解决这个问题,我们可以在图像中截取多块高和宽为32的整数倍的矩形区域,并分别对这些区域中的像素做前向传播
291291
请注意,这些区域的并集需要完整覆盖输入图像。
292-
当一个像素被多个区域所覆盖时,它在不同区域前向计算中转置卷积层输出的平均值可以作为`softmax`运算的输入,从而预测类别。
292+
当一个像素被多个区域所覆盖时,它在不同区域前向传播中转置卷积层输出的平均值可以作为`softmax`运算的输入,从而预测类别。
293293

294294
为简单起见,我们只读取几张较大的测试图像,并从图像的左上角开始截取形状为$320\times480$的区域用于预测。
295295
对于这些测试图像,我们逐一打印它们截取的区域,再打印预测结果,最后打印标注的类别。

chapter_computer-vision/fine-tuning.md

Lines changed: 9 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -8,7 +8,7 @@
88
假设我们想识别图片中不同类型的椅子,然后向用户推荐购买链接。
99
一种可能的方法是首先识别100把普通椅子,为每把椅子拍摄1000张不同角度的图像,然后在收集的影像数据集上训练一个分类模型。
1010
尽管这个椅子数据集可能大于Fashion-MNIST数据集,但实例数量仍然不到ImageNet中的十分之一。
11-
这可能会导致这个椅子数据集上适合ImageNet的复杂模型过度拟合
11+
这可能会导致这个椅子数据集上适合ImageNet的复杂模型过拟合
1212
此外,由于训练示例数量有限,训练模型的准确性可能无法满足实际要求。
1313

1414
为了解决上述问题,一个显而易见的解决方案是收集更多的数据。
@@ -37,7 +37,7 @@
3737
## 热狗识别
3838

3939
让我们通过具体案例演示微调:热狗识别。
40-
我们将在一个小型数据集上微调ResNet模型,该数据集已在ImageNet数据集上进行了预训练
40+
我们将在一个小型数据集上微调ResNet模型,它已在ImageNet数据集上进行了预训练
4141
这个小型数据集包含数千张包含热狗和不包含热狗的图像,我们将使用微调模型来识别图像中是否包含热狗。
4242

4343
```{.python .input}
@@ -62,9 +62,13 @@ import os
6262

6363
### 获取数据集
6464

65-
我们使用的[**热狗数据集来源于网络**]。该数据集包含1400张包含热狗的正面类图像以及包含其他食物的尽可能多的负面级图像。两个类别的1000张图片用于训练,其余的则用于测试。
65+
我们使用的[**热狗数据集来源于网络**]
66+
该数据集包含1400张热狗的“正类”图像,以及包含尽可能多的其他食物的“负类”图像。
67+
两个类别的1000张图片用于训练,其余的则用于测试。
6668

67-
解压下载的数据集后,我们获得了两个文件夹`hotdog/train``hotdog/test`。这两个文件夹都有`hotdog``not-hotdog`个子文件夹,其中任何一个文件夹都包含相应类的图像。
69+
解压下载的数据集后,我们获得了两个文件夹`hotdog/train``hotdog/test`
70+
这两个文件夹都有`hotdog`(有热狗)和`not-hotdog`(无热狗)个子文件夹,
71+
其中任何一个文件夹都包含相应类的图像。
6872

6973
```{.python .input}
7074
#@tab all
@@ -90,7 +94,7 @@ train_imgs = torchvision.datasets.ImageFolder(os.path.join(data_dir, 'train'))
9094
test_imgs = torchvision.datasets.ImageFolder(os.path.join(data_dir, 'test'))
9195
```
9296

93-
下面显示了前8个正面示例和最后8张负面图片
97+
下面显示了前8个正类示例和最后8张负类图片
9498
正如你所看到的,[**图像的大小和纵横比各有不同**]
9599

96100
```{.python .input}

chapter_computer-vision/image-augmentation.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -384,7 +384,7 @@ train_with_data_aug(train_augs, test_augs, net)
384384

385385
## 练习
386386

387-
1. 在不使用图像增广的情况下训练模型:`train_with_data_aug(no_aug, no_aug)`。比较使用和不使用图像增广的训练结果和测试精度。这个对比实验能支持图像增广可以减轻过度拟合的论点吗?为什么?
387+
1. 在不使用图像增广的情况下训练模型:`train_with_data_aug(no_aug, no_aug)`。比较使用和不使用图像增广的训练结果和测试精度。这个对比实验能支持图像增广可以减轻过拟合的论点吗?为什么?
388388
2. 在基于CIFAR-10数据集的模型训练中结合多种不同的图像增广方法。它能提高测试准确性吗?
389389
3. 参阅深度学习框架的在线文档。它还提供了哪些其他的图像增广方法?
390390

chapter_computer-vision/index.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -2,13 +2,13 @@
22
:label:`chap_cv`
33

44
近年来,深度学习一直是提高计算机视觉系统性能的变革力量。
5-
无论是医疗诊断、自动驾驶车辆,还是智能滤镜、摄像头监控,许多计算机视觉领域的应用都与我们当前和未来的生活密切相关。
5+
无论是医疗诊断、自动驾驶,还是智能滤波器、摄像头监控,许多计算机视觉领域的应用都与我们当前和未来的生活密切相关。
66
可以说,最先进的计算机视觉应用程序与深度学习几乎是不可分割的。
77
有鉴于此,本章将重点介绍计算机视觉领域,并探讨最近在学术界和行业中具有影响力的方法和应用。
88

99
在 :numref:`chap_cnn`和 :numref:`chap_modern_cnn`中,我们研究了计算机视觉中常用的各种卷积神经网络,并将它们应用到简单的图像分类任务中。
1010
本章开头,我们将介绍两种可以改进模型泛化的方法,即*图像增广**微调*,并将它们应用于图像分类。
11-
由于深度神经网络可以有效地表示多个层次的图像,因此这种分层表示已成功用于各种计算机视觉任务,例如*对象检测**图像语义分割**样式迁移*
11+
由于深度神经网络可以有效地表示多个层次的图像,因此这种分层表示已成功用于各种计算机视觉任务,例如*目标检测*(object detection)、*语义分割*(semantic segmentation)*样式迁移*(style transfer)
1212
秉承计算机视觉中利用分层表示的关键思想,我们将从物体检测的主要组件和技术开始,继而展示如何使用*完全卷积网络*对图像进行语义分割,然后我们将解释如何使用样式迁移技术来生成像本书封面一样的图像。
1313
最后在结束本章时,我们将本章和前几章的知识应用于两个流行的计算机视觉基准数据集。
1414

chapter_computer-vision/kaggle-dog.md

Lines changed: 7 additions & 3 deletions
Original file line numberDiff line numberDiff line change
@@ -244,7 +244,8 @@ def get_net(devices):
244244
return finetune_net
245245
```
246246

247-
[**计算损失**]之前,我们首先获取预训练模型的输出层的输入,即提取的特征。然后我们使用此特征作为我们小型自定义输出网络的输入来计算损失。
247+
[**计算损失**]之前,我们首先获取预训练模型的输出层的输入,即提取的特征。
248+
然后我们使用此特征作为我们小型自定义输出网络的输入来计算损失。
248249

249250
```{.python .input}
250251
loss = gluon.loss.SoftmaxCrossEntropyLoss()
@@ -279,7 +280,8 @@ def evaluate_loss(data_iter, net, devices):
279280

280281
## 定义[**训练函数**]
281282

282-
我们将根据模型在验证集上的表显选择模型并调整超参数。模型训练函数`train`只迭代小型自定义输出网络的参数。
283+
我们将根据模型在验证集上的表现选择模型并调整超参数。
284+
模型训练函数`train`只迭代小型自定义输出网络的参数。
283285

284286
```{.python .input}
285287
def train(net, train_iter, valid_iter, num_epochs, lr, wd, devices, lr_period,
@@ -369,7 +371,9 @@ def train(net, train_iter, valid_iter, num_epochs, lr, wd, devices, lr_period,
369371
## [**训练和验证模型**]
370372

371373
现在我们可以训练和验证模型了,以下超参数都是可调的。
372-
例如,可以增加迭代轮数:由于`lr_period``lr_decay`分别设置为2和0.9,因此优化算法的学习速率将在每2个迭代后乘以0.9。
374+
例如,我们可以增加迭代轮数。
375+
另外,由于`lr_period``lr_decay`分别设置为2和0.9,
376+
因此优化算法的学习速率将在每2个迭代后乘以0.9。
373377

374378
```{.python .input}
375379
devices, num_epochs, lr, wd = d2l.try_all_gpus(), 10, 5e-3, 1e-4

0 commit comments

Comments
 (0)