0.099

五煦查题

快速找到你需要的那道考题与答案

中国大学纺织服装专业人工智能技术导论课后答案(慕课2023课后作业答案)

56 min read

中国大学纺织服装专业人工智能技术导论课后答案(慕课2023课后作业答案)

第二单元 二元分类问题

课后自测题

1、中国专业智能作业以绒山羊/非绒山羊的大学导论答案答案分类问题为例,根据本章所讲授的纺织服装内容及符号表达方式,回答以下问题:(单选题) 对于每一个样本,人工其中,技术,课后课后 样本包含了 个特征
A、慕课
B、中国专业智能作业
C、大学导论答案答案
D、纺织服装

2、人工意味着该问题属于 分类问题
A、技术二元分类问题
B、课后课后多元分类问题
C、慕课三元分类问题
D、中国专业智能作业以上都不对

3、按照本课程约定的符号体系,若有个样本构成整个训练集,该集合可以表示为
A、
B、
C、
D、

4、若将训练集记为矩阵X,其中包含了m个样本,每个样本的特征数量为个,则X的维度为
A、
B、
C、
D、

5、若令,且激活函数为Sigmoid,其正确计算方式为
A、
B、
C、
D、

6、若令为真值y的预测值,下面关于交叉熵函数的正确计算方式为
A、
B、
C、
D、

7、下面关于学习率α说法正确的是
A、学习率α越大越好,这样可以加快神经网络的训练速度
B、学习率α越小越好,这样可以保证训练的平稳
C、学习率α必须是不变量
D、学习率α需要根据实际训练过程的表现予以调校

8、向后传播的推导过程,主要是基于链式法则求偏导,这个说法正确吗?

9、“整个训练集的代价函数J(w,b),实际上是全部训练数据的损失函数值加和之后的平均值”,这个说法对吗?

10、在编写代码之前,首先需要确定需要求解的目标是什么。对于梯度下降算法而言,核心是求出dw和db,从而实现对w和b的更新。

Python与numpy基础

1、练习1:尝试编写一个Sigmoid函数。请用一行合适的代码,替换下述函数中的None部分 import numpy as np # this means you can access numpy functions by writing np.function() instead of numpy.function() def sigmoid(x): """ Compute the sigmoid of x Arguments: x -- A scalar or numpy array of any size Return: s -- sigmoid(x) """ ### START CODE HERE ### (只需一行代码) s = None ### END CODE HERE ### return s 下面,让我们调用你写的这个函数,运行如下代码,并给出你的答案 x = np.array([1, 2, 3]) sigmoid(x)

2、练习2:尝试编写一个名为sigmoid_derivative(x)的function,求Sigmoid激活函数的导数。 我们在课堂上已经学习过: 因此,该函数的编写需要两行代码: 用变量s代表,给出s的表达式 根据的导数计算方法,得到其导数,用变量ds表示 def sigmoid_derivative(x): """ Compute the gradient (also called the slope or derivative) of the sigmoid function with respect to its input x. You can store the output of the sigmoid function into variables and then use it to calculate the gradient. Arguments: x -- A scalar or numpy array Return: ds -- Your computed gradient. """ ### START CODE HERE ### (≈ 2 lines of code) s = None ds = None ### END CODE HERE ### return ds 下面,让我们调用你写的这个函数,运行如下代码,并给出你的答案 x = np.array([1, 2, 3]) print ("sigmoid_derivative(x) = " + str(sigmoid_derivative(x)))

3、在深度学习中,通常我们会将输入的特征看作一个多维向量,或者将原始特征转换为一个多维向量。在编程语言中,通常将多维向量看作为数组。因此,在numpy中,常见的两个对数组维度的操作就是np.shape以及np.reshape()。其中, X.shape 用于获取一个矩阵或者向量X的维度 (dimension) ; X.reshape(...) 用于将X重塑(reshape) 为其他维度(dimension); 例如,在计算机科学中,图像由形状为(长度,高度,深度= 3)的3D数组表示。 但是,当我们读取图像作为算法的输入时,会将其转换为形状为(length * height * 3,1)的向量。 换句话说,我们会将3D阵列“展开(unroll)”或重塑(reshape)为1D向量。 下面我们编程实现image2vector(image)这个函数。它的输入参数是image,即shape为(长度,高度,3),而要求它返回shape为(长度*高度* 3,1)的向量。 通常,如果要将shape为(a,b,c)的数组reshape为形状为(a * b,c)的向量,可以执行如下操作: # x.shape[0] = a # x.shape[1] = b # x.shape[2] = c x = x.reshape((x.shape[0]*x.shape[1], x.shape[2])) 根据这一思路,请填写下述代码中的None部分: def image2vector(image): """ Argument: image -- a numpy array of shape (length, height, depth) Returns: v -- a vector of shape (length*height*depth, 1) """ ### START CODE HERE ### (≈ 1 line of code) v = None ### END CODE HERE ### return v此时,若有一个图像变量image, image = np.array([[[ 0.67826139, 0.29380381], [ 0.90714982, 0.52835647], [ 0.4215251 , 0.45017551]], [[ 0.92814219, 0.96677647], [ 0.85304703, 0.52351845], [ 0.19981397, 0.27417313]], [[ 0.60659855, 0.00533165], [ 0.10820313, 0.49978937], [ 0.34144279, 0.94630077]]]) 则调用上述函数将其reshape,可执行如下的代码 print ("image2vector(image) = " + str(image2vector(image))) 请将print出来的结果填入到答案中。

4、我们知道,损失函数(loss function)或者代价函数(cost function)用于评估模型的性能。 loss越大,我们的预测值()与真实值()之间的差异就越大。 在深度学习中,我们会使用诸如梯度下降之类的优化算法来训练模型并最大程度地降低整个样本集上的cost。 下面我们介绍一种简单的损失函数形式,称为L1损失,其表达式为: 通常我们会通过矢量化的方式,将m个样本组成的集合转换为一个大的向量y以及yhat。下面,我们将使用sum和abs这两个python中的函数,完成求和以及计算绝对值的计算。 请你根据以上提示,编程完成如下函数中的None部分: def L1(yhat, y): """ Arguments: yhat -- vector of size m (predicted labels) y -- vector of size m (true labels) Returns: loss -- the value of the L1 loss function defined above """ ### START CODE HERE ### (≈ 1 line of code) loss = None ### END CODE HERE ### return loss 如果你的代码编写正确,那么请运行下述测试代码,并将结果填入答案中: yhat = np.array([.9, 0.2, 0.1, .4, .9]) y = np.array([1, 0, 0, 1, 1]) print("L1 = " + str(L1(yhat,y)))

5、下面我们介绍另外一种损失函数,称为L2损失,其表达式为: 在numpy中,除了“**2”可以代表平方运算之外,对于矢量化的多维数组,我们也常常使用np.dot(),即对于一个多维数组x而言, np.dot(x, x) = 请你根据以上提示,完成如下代码中的None部分: def L2(yhat, y): """ Arguments: yhat -- vector of size m (predicted labels) y -- vector of size m (true labels) Returns: loss -- the value of the L2 loss function defined above """ ### START CODE HERE ### (≈ 1 line of code) loss = None ### END CODE HERE ### return loss 如果你的代码编写正确,请运行如下的测试代码,并将结果填入答案中 yhat = np.array([.9, 0.2, 0.1, .4, .9]) y = np.array([1, 0, 0, 1, 1]) print("L2 = " + str(L2(yhat,y)))

第三单元 全连接型神经网络

课后自测题

1、1. 在下图所示的神经网络中,圆圈和箭头的含义分别是______?
A、圆圈代表神经元,箭头代表权重
B、圆圈代表输入量,箭头代表输出方向
C、圆圈仅仅代表激活值,箭头代表权重
D、圆圈和箭头代表了向前传播过程

2、根据本单元讲授的符号表达方式,的含义是____________
A、第3个样本的第2个特征在第1层神经网络中的权重值
B、第3个样本的第1个特征在第2层神经网络中的权重值
C、第2个样本的第3个特征在第1层神经网络中的权重值
D、以上都不是

3、符号的含义是___________
A、第层第个神经元的激活值a
B、第层第个神经元的激活值a
C、第层第个神经元的加权值a
D、第层第个神经元的加权值a

4、图中所示的激活函数中,哪个是tanh?
A、左边的是tanh,右边的是sigmoid
B、左边是sigmoid,右边是tanh
C、左边的是tanh,右边的是它的特殊形式
D、左边是sigmoid,右边是它的特殊形式

5、图中所示的激活函数,其名称是什么?
A、Softmax
B、ReLU
C、Leaky ReLU
D、Weaky ReLU

6、根据本单元的表达方式,下图的神经网络是___层神经网络?
A、3
B、4
C、5
D、6

7、对于第层神经网络而言,下述说法正确的是________
A、与的维度可以不相等
B、与的维度可以不相等
C、的维度为
D、的维度为

8、当神经网络由若干层组成时,除了第一层的输入是我们设置的原始特征之外,剩下的每一层的输入,其实都是前一层所输出的激活值。这个说法正确与否?

9、在神经网络向后传播的计算过程中,“我们需要对??求导,因为??也是特征,有必要对其进行优化”,这个说法正确吗?

10、“参数的维度并不随着样本数量的多少而改变,因为它们是神经网络架构中用来调节每层神经元对输入特征影响的大小的。”这个说法正确吗?

第四单元 神经网络调优(一)

课后自测题

1、关于训练集、验证集、测试集,下述说法正确的是:________
A、在数据量很小或者数据量很大的时候,都必须有20%的数据用于测试集
B、在数据量很小或者数据量很大的时候,都必须有10%的数据用于测试集
C、在数据量很小或者数据量很大的时候,都必须有5%的数据用于测试集
D、以上都不对

2、若数据集如图所示,由×和○代表两类不同的数据,下图分别表示的是分类过程中的哪种情况?
A、左为高偏差,中为适当,右为高方差
B、左为适当,中为高偏差,右为高方差
C、左为高方差,中为适当,右为高偏差
D、以上都不是

3、当网络初步训练完成,但是预测误差较大时,首先应采取以下哪种措施?
A、增加数据量
B、优化数据分布
C、选择新的网络架构
D、以上都是

4、当网络初步训练完成,且在训练集上表现良好,但是在测试集上表现不佳,首先应采取以下哪种措施?
A、这是高偏差或者欠拟合现象,首先应该增加数据量或者进行数据增广
B、这是高方差或者过拟合现象,首先应该增加数据量或者进行数据增广
C、这是高偏差或者欠拟合现象,首先应该更换网络架构
D、这是高方差或者过拟合现象,首先应该更换网络架构

5、在正则化中,,即前增加了一个系数。请问,这里超参数的取值范围通常是:
A、[0,1]
B、[-1,0]
C、[-1,1]
D、以上都不是

6、关于神经网络的正则化方法,以下表述正确的是_____C_______。
A、只有L2正则化和随机失活正则化属于正则化方法,数据扩增并不属于正则化方法
B、只有L2正则化属于正则化方法,随机失活与数据扩增并不属于正则化方法
C、L2正则化、随机失活正则化以及数据扩增均属于正则化方法的一种
D、以上都不是

7、“如果激活函数的输入特征均经过了零均值和标准方差化,方差是1,那么??也会调整到相似范围,虽然没有从根本上解决梯度消失和爆炸问题。但它确实降低了梯度消失和爆炸产生的可能性”。这个说法正确吗?

第五单元 神经网络调优(二)

课后自测题

1、在将数据集分割为若干个小批量后,往往训练时的代价函数曲线从下图中左侧的单一批量训练形态,改变为右侧所示的小批量训练形态。此时,下述说法正确的是:
A、小批量之间彼此是相互独立的,在第t-1个小批量上表现好的权重矩阵,未必在第t个小批量上也表现良好,反之亦然。两个相邻的小批量之间可能存在着起伏。
B、有的小批量上的数据容易训练,而有的小批量上的数据不容易训练。
C、由于训练数据都是人为标注的,有可能存在某些小批量中,标签本身存在错误,导致前一个小批量中可行的权重,在这个小批量中就是不可行的了。
D、单一批量是由小批量构成的,因此左图实际上是右图的平均值曲线

2、为了提高神经网络的学习速度,以下说法正确的是
A、从随机梯度下降改为动量梯度下降法,通常是一个不错的尝试
B、从随机梯度下降改为RMSprop梯度下降法,通常是一个不错的尝试
C、从随机梯度下降改为Adam梯度下降法,通常是一个不错的尝试
D、采用学习率衰减的方式,通常是一个不错的尝试

3、“在进行数据准备时,通常通过随机混洗(shuffle)和分区 (partition)来达到较为合理的数据分布”,这个说法正确与否?

4、“指数加权平均的所实现的是遵循指数衰减的系数与当前值的按位相加之和”,这个说法正确与否?

5、“在使用指数加权平均时,必须对最初阶段的偏差予以修正”,这个说法正确与否?

6、“在动量梯度下降法中,若参数β=0.9,则必须使用偏差修正技术”,这个说法正确与否?

7、“通俗地讲,Adam 优化算法基本是动量梯度下降法和RMSprop 相结合的产物”,这个说法正确与否?

8、“在大型神经网络中,由于参数众多,此时的优化函数往往存在于高维空间中,其优化的难点其实是克服诸如平稳段问题”,这个说法正确吗?

9、“在许多神经网络的编程框架以及文献报道中,会将梯度下降算法称之为优化器(optimizer)”,这个说法正确吗?

10、“在克服平稳段问题时,动量梯度下降法,RMSprop梯度下降法,以及Adam梯度下降法,往往比随机梯度下降法更为有效”,这个说法正确吗?

第六单元 神经网络调优(三)

课后自测题

1、在神经网络的超参数中,以下说法正确的是
A、神经网络的层数更为重要
B、神经网络中隐含单元的个数更为重要
C、学习率更为重要
D、小批量(mini-batch)的大小更为重要

2、对于测试集上批量归一化的计算方法,下述表述正确的是________:
A、按照与训练集同样的计算方式
B、不能采用批量归一化
C、通过指数加权平均的方式将计算出来,并应用于的计算中
D、以上都不是

3、在多元分类任务中,往往采用独热(one-hot)编码的方式,即对于一个有m个样本的训练集而言,若其为c分类问题,则Y将会是一个______的矩阵,这个矩阵中的每一列代表一个样本,且每一列中只有一个元素为1,其他均为0。
A、
B、
C、
D、

4、在Softmax分类中,一般用到的损失函数为交叉熵的形式(cross entropy),其数学表达式如下:___D_____
A、
B、
C、
D、

5、“在批量归一化的过程中,增加了新的可学习参数和”,这个说法正确吗?

6、“协变量偏移问题在神经网络的训练过程中并不罕见,通过批量归一化能够有效地解决该问题”,这个说法正确吗?

第七单元 卷积神经网络(一)

课后自测题

1、若输入一张1024×1024的彩色图像,将其展平为一个列向量,并将每个像素作为一个特征的,则该图像所代表的样本,共有________个特征
A、1024×1024
B、1024×1024×3
C、1024
D、1024×3

2、若使用一个f × f的卷积核,对一张n × n ×1的图像进行卷积运算。其中,填充为p,步幅为s,则输出的结果为_______。
A、
B、
C、
D、

3、若使用个的卷积核,对一张的图像进行卷积运算。其中,填充为p,步幅为s,则输出的结果为_______。
A、
B、
C、
D、

4、关于池化,以下说法正确的是_________
A、池化就是计算整个输入特征中的最大值,没有其他功能
B、池化就是计算整个输入特征的平均值,没有其他功能
C、池化本身没有需要学习的参数
D、以上都不是

5、卷积层中的参数数量少于全连接型神经网络,是因为卷积层的两个优良的特性。第一个是“参数共享”,第二个是_______。
A、稠密连接
B、稀疏连接
C、自适应梯度下降
D、参数可学习

6、常见的两种增大感受野尺寸的方法,一是通过堆叠网络层数或增大卷积核尺寸,能够线性增加感受野的尺寸;二是通过下采样,即______。
A、增大卷积步长、进行池化操作
B、减少卷积步长、取消池化操作
C、增大卷积步长、取消池化操作
D、减少卷积步长、进行池化操作

7、“通俗地讲,卷积神经网络中的每个卷积核,负责提取一种特征”,这种说法对吗?

8、“同样的卷积神经网络,当输入图像较大时,需要学习的参数自然就多,而当输入图像较小时,需要学习的参数就自动减少”,这种说法对吗?

9、“深度卷积神经网络的特征提取能力非常强,一个主要原因在于深层神经元的感受野较大,基本上可以覆盖原始输入图像的主要区域”,这个说法对吗?

10、“随着卷积层数量的增加,卷积神经网络的有效感受野面积会不断增大”,这个说法正确吗?

第八单元 卷积神经网络(二)

课后自测题

1、如今,当我们复现AlexNet时,通常不将原始图像尺寸选择为原文中的224×224×3,而是改为了227×227×3,这样做是因为______
A、原文中的尺寸与其公开代码中的尺寸不符
B、224是偶数,227是奇数
C、将输入图像尺寸设计为227×227×3,则无需填充和向下取整即可得到55×55的特征图
D、以上都不对

2、VGG网络的一个重要特征是__________
A、网络名称简洁明了
B、拥有VGG16和VGG19两种架构,非常灵活
C、采用统一的卷积核和池化运算
D、易于训练

3、当我们想缩小输入特征图的高和宽的时候,可以采用池化操作。但是,如果想维持图像的高和宽,仅仅调整输入特征图的深度(通道数),应该_________
A、减少卷积核的数量
B、添加分支网络
C、使用1×1卷积
D、使用3×3卷积

4、Inception结构的最突出的特点在于采用了_____的思想。
A、多种不同尺度的卷积核
B、Network in Network
C、带填充的池化操作
D、相同模块在多个位置复用

5、传统架构下的卷积神经网络,随着网络深度增加到一定程度,会出现准确率不升反降的现象,在解决这个问题的过程中,最为成功的是研究人员所提出的_____网络。
A、VGG
B、Inception
C、ResNet
D、AlexNet

6、残差网络中的捷径连接方式,其主要优点在于_______。
A、从理论上防止了梯度消失现象,使得恒等映射可以较为轻易地通过抑制W和b来获得
B、从理论上防止了过拟合现象,使得恒等映射可以较为轻易地通过抑制W和b来获得
C、简化了网络架构
D、便于瓶颈层的学习

7、与常规卷积相比,随着网络层数的增加,空洞卷积的感受野_______
A、呈指数级下降
B、呈指数级增长
C、呈线性增长
D、通过学习得到

8、采用______,可以将较小的特征图映射到更大的空间尺度上,因此经常被用于“上采样(upsampling)”计算。
A、分离卷积
B、空洞卷积
C、转置卷积
D、以上都不是

9、在得到相同输出尺寸的前提下,采用深度分离卷积的参数数量______常规卷积
A、大于
B、小于
C、等于
D、以上都不是

10、关于迁移学习,以下说法正确的是__________。
A、对于常见的深度学习任务而言,特别是图像分类任务而言,采用迁移学习通常弊大于利
B、对于常见的深度学习任务而言,特别是图像分类任务而言,采用迁移学习通常利大于弊
C、迁移学习对于自行设计的网络架构而言,并不适用;
D、可以通过迁移学习解决小样本量下的过拟合现象;

第十二单元 Model Zoo及迁移学习

自测题

1、MobileNets是一类______权重深度卷积神经网络,其大小比许多流行的模型都_______且性能更快。
A、轻,更大
B、重,更小
C、轻,更小
D、重,更大

2、由于它们的尺寸小,MobileNets被认为是可在________上使用的出色的深度学习模型。
A、移动设备
B、远程服务器
C、本地服务器
D、台式电脑

3、函数tf.keras.applications.mobilenet.preprocess_input()有什么作用?
A、从每个像素中减去平均RGB值
B、将图像数据中的像素值缩放到-1和1之间
C、将图像数据中的像素值缩放到0和1之间
D、将每个像素除以平均RGB值

4、关于DenseNet,下述说法正确的是:_______
A、为了保证层与层之间信息流动的最大化,该网络中每一层都与其后的层之间建立跨接关系(当特征图尺寸相同时)
B、若传统的L层卷积神经网络有L个层间连接,则DenseNet就有L(L+1)/2个直接连接。
C、DenseNet与ResNet相比,很重要的一点就是不采用将特征在送入某层之前对其进行加和的方式,而是通过串联将特征合并在一起。
D、DenseNet的密集连接是全连接的一种变形

5、“在神经网络架构的设计中,为了省去手动反复调整宽度、深度、分辨率间的放大比例的烦恼,EfficientNet的作者提出一种新的复合放大方式:以一个复合系数?来统一这三者之间的关系。”这个说法正确吗?

6、与其他流行的重量级模型相比,MobileNets的准确性降低幅度相对较小。

7、传递给MobileNet模型进行推理的图像的预处理方法,应与最初预训练模型所用图像的预处理方法相同。

第十三单元 一次性分类与孪生神经网络

课后自测题

1、需要我们在每个类别仅有一个训练样本时就做出准确预测的分类问题,就是“一次性分类(one-shot classification)”任务,这个说法对吗?

2、“孪生神经网络在训练时的目的是增大不同类别间的相似性差异,减少相同类别间的相似性差异”,这个说法对吗?

3、孪生神经网络的优点之一是其适用于样本种类多而每个类别的样本数目少的样本,这种说法正确吗?

4、在训练孪生神经网络时,训练样本的批次要尽可能的大,这是因为较小的批次可能导致孪生神经网络中对比损失为零,从而引起模型的明显的波动。这种说法正确吗?

5、在设计孪生神经网络的损失函数时,可以将两个分支输出的低维向量送入逻辑回归单元,即看成是一个二元分类的问题,用于预测低维向量间的差异,这种说法是否正确?

6、孪生神经网络中双分支映射得到的特征向量维度越大,孪生神经网络的效果越好,这种说法是否正确?

7、同一个图像输入孪生神经网络的任意一个分支映射得到的特征向量完全相同,这种说法是否正确?

8、孪生神经网络中分支可以根据实际情况做出调整,可以是处理一维数据的神经网络、或处理二维数据的卷积网络、或者是处理图结构的图卷积神经网络。因此孪生神经网络具有非常广泛的应用范围。这种说法是否正确?

第十六单元 目标检测(二)

课后自测题

1、关于精确率(precision),以下哪个公式是正确的?
A、Precision=TP/(TP+FP)
B、Precision=TP/(TP+FN)
C、Precision=TN/(TP+FP)
D、Precision=TP/(TN+FN)

2、关于召回率(recall),以下哪个公式是正确的?
A、Recall=TP/(TN+FN)
B、Recall=TP/(TP+FP)
C、Recall=TP/(TP+FN)
D、Recall=TN/(TP+FN)

3、以下说法正确的是
A、在大多数目标检测的算法中,正样本和数量和负样本的数量都是均衡的。
B、在大多数目标检测的算法中,正样本和数量和负样本的数量都是不均衡的。
C、在大多数目标检测的算法中,只存在正样本,没有负样本。
D、在大多数目标检测的算法中,只存在负样本,没有正样本。

4、以下说法正确的是
A、图像分类任务旨在输入图像之后,通过神经网络在一系列给定的标签中输出一个离散的标签
B、目标检测是在图像分类任务的基础上,又增加了回归任务
C、语义分割是针对图像中的每个像素进行预测,因此该任务通常被称为密集预测
D、实例分割预测图像中个体对象在像素级别下的位置,以及该对象所属的类别

5、“在目标检测任务中,精确率和召回率的计算方式如下:” Precision = TP / 所有检测到的边界框 Recall率 = TP / 所有真值框 这个说法正确吗?

6、“关于目标检测中的正样本和负样本的概念可以通俗地解释为:对于一个分类器而言,它的正样本是所有真值区域经过给定的CNN后输出的特征,而负样本是与真值(Ground-truth)区域的交并比小于给定阈值的区域经过该CNN后输出的特征。”这个说法正确吗?

7、“RoI池化是空间金字塔池化(Spatial Pyramid Pooling:SPP)的一种简化形式”,这个说法对吗?

8、“Faster R-CNN与Fast R-CNN的主要区别在于将得到RoI的方式从Selective Search改为由Region Proposal Network (RPN)所输出的特征图上得到。” 这个说法对吗?

9、“YOLOv3和YOLO的一个重要区别是YOLOv3中的分类概率通过Sigmoid而非SoftMax预测”,这个说法对吗?

10、“YOLOv3在13×13,26×26和52×52的三个不同尺度上进行目标对象的检测。这样做的目的是希望能够同时兼顾大、中、小三种不同尺度的待测对象” ,这个说法对吗?