0.101

五煦查题

快速找到你需要的那道考题与答案

中国大学人工智能之模式识别期末答案(慕课2023课后作业答案)

62 min read

中国大学人工智能之模式识别期末答案(慕课2023课后作业答案)

模块1 课程导论

课程导论 单元测验

1、中国智能之模模式识别中识别的大学基础和本质是____。
A、人工抽象和认知
B、式识认知和分类
C、别期抽象和分类
D、末答识别和分类

2、案慕案下列选项中对模式识别定义正确的课课是?
A、对事物所具有的后作特征进行完全匹配
B、事物所具有的业答共同特征
C、依据事物的中国智能之模特征进行概念归类的过程
D、其余3个答案都对

3、大学深度学习属于哪种类型的人工模式识别算法?
A、结构模式识别
B、式识统计模式识别
C、别期模糊模式识别
D、句法模式识别

4、模式识别的主要算法包括以下哪些?
A、线性分类器算法
B、贝叶斯分类器算法
C、模糊模式识别算法
D、神经网络模式识别算法

5、以下选项中属于模式识别应用领域的是?
A、人脸识别
B、语音识别
C、脑电识别
D、自然语言理解
E、手势识别
F、目标跟踪

6、下列说法中正确的是?
A、模式识别是人工智能领域中的感知技术
B、模式识别是根据事物的特征进行归类的过程
C、模式识别技术包括认知和识别两个过程
D、模式识别技术中,认知是识别的基础,识别是在认知基础上的知识运用

7、1995年前苏联统计学家和数学家Vapnik等人提出了支持向量机。

8、1986年美国认知神经学家Rumelhart等人提出了深度学习。

9、模式识别技术是研究如何使计算机具备识别能力的学科。

10、人工智能技术包括感知,决策,行动三个方面的技术。

11、模式识别技术属于人工智能领域中的决策技术。

12、在模式识别技术中,认知是从一类事物的具体样本中抽象出类别共同特征的过程。

13、在模式识别中,识别是依据事物的特征进行全部特征匹配的过程。

14、模式识别是研究如何使计算机具识别能力的学科,而不是研究生物识别能力的机理。

15、识别的基础是认知,识别的本质是分类。

模块2 模式识别系统

模式识别系统 单元测验

1、给定一个样本集但是没有给每一个样本贴上类别标签的学习方式称为____。
A、无监督学习
B、有监督学习
C、深度学习
D、机器学习

2、得到特征后一定要进行特征降维吗?
A、并不是一定要进行特征降维,可以自行分析生成结果,判断是否需要
B、必须要进行,否则会对分类结果造成巨大影响
C、没必要进行,特征的维度对分类结果没有影响
D、其余三个说法都不对

3、造成维数灾难的原因是____。
A、训练集样本数量不足
B、训练集样本数量过多
C、带标签的样本数量过多
D、带标签的样本数量不足

4、以下选项中哪些属于统计模式识别?
A、线性分类器
B、贝叶斯分类器
C、最近邻分类器
D、神经网络分类器
E、结构聚类算法
F、句法模式识别

5、下列选项中,属于模式识别系统的环节是?
A、预处理与特征生成
B、分类器训练
C、特征降维
D、模式采集
E、分类决策

6、特征的维度可以无限增加。

7、特征降维的方法包括特征选择和特征提取。

8、模板匹配算法对车牌数字和手写数字的识别结果精度一样。

9、当出现维数灾难时,可以通过增加样本数量来缓解分类器性能下降的问题。

10、整个模式识别系统中各个环节的完成完全是计算机自主实现的,不需要人工干预。

11、模式识别的核心是分类器。

12、模式识别分类的依据是样本的共同特征和分类决策规则。

13、在数学上,模式识别中的特征空间可以由向量空间和集合空间来表达。

14、导致维数灾难的根本原因是训练集样本特征过多。

15、模式识别系统由模式采集,预处理与特征生成,特征降维,分类器训练构成。

16、在模式识别系统中,模式采集是针对具体物理样本所包含的各种信息,将其通过采集转换得到计算机能接受和处理的数据。

17、在模式识别系统中,预处理是通过各种滤波降噪措施降低干扰的影响,增强有用信息,生成在分类上具有意义的各种特征。

18、在模式识别系统中,分类器训练是分类决策规则的学习过程,由人根据样本的情况自动进行。

19、在模式识别系统中,分类决策是在分类器训练结束以后对已经分好类的样本按照已建立起来的分类决策规则进行分类的过程。

20、有监督学习是分类器从有类别标签的训练集中学习到具体的分类决策规则的学习模式。

21、无监督学习是使用没有类别标签的训练集进行分类学习的学习模式。

22、有监督学习和无监督学习的区别是一个需要从人类的经验中进行学习一个不需要。

23、泛化能力是指训练好的分类器对已知样本的正确分类能力。

24、过拟合是指为追求样本集中样本的正确分类性导致分类器泛化能力降低。

25、样本中能够用于识别的某个重要特性称为特征,样本转化为特征表达后的整体构成了特征空间。

模块3 线性分类器

线性判别与感知器算法 单元测验

1、用二分类问题的组合来确定三分类的分类决策规则时,在什么情况下是一定可分的?
A、仅有一个判别函数值大于0
B、有两个判别函数值大于0
C、三个判别函数值都小于0
D、三个判别函数值都大于0

2、在绝对可分的情况下,以下哪种表述是正确的?
A、存在不可识别区域较多的问题
B、多分类线性判别函数形式复杂
C、多分类线性判别函数的意义不明确
D、分类器的整体性能比较好

3、梯度法中,步长的取值可以小于或等于0吗?
A、不可以
B、可以
C、步长取值可以任意
D、其余三种说法都不对

4、下列选项中关于随机梯度下降法的说法,正确的是?
A、随机梯度下降法最终收敛的点不一定是全局最优
B、随机梯度下降法最终收敛的点一定是全局最优
C、无论随机梯度下降法存不存在最终收敛的点,一定可以找到最优解
D、无论随机梯度下降法存不存在最终收敛的点,一定不能找到最优解

5、为什么批量梯度下降法(BGD)寻优路径相对比较平滑?
A、批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值减小的方向
B、批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值增加的方向
C、批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值不变的方向
D、批量梯度下降法(BGD)每一次对模型参数的调整,都朝向代价函数值发生变化的方向

6、感知器算法应用什么方法求解准则函数的最优值?
A、梯度下降法
B、最小均方误差
C、最大均方误差
D、平均值法

7、下列选项中,属于感知器的特点的是?
A、感知器具有多路输入、单路输出
B、感知器没有反馈和内部状态
C、感知器将输入信号加权求和与阈值比较,当信号加权和大于阈值时输出1,当信号加权和小于等于阈值时输出0
D、单个感知器可以解决非线性分类问题

8、下列选项中,哪些因素会影响到感知器算法中随机梯度下降法的求解结果?
A、初始权向量设置
B、学习速率
C、样本处理顺序不同
D、学习规则

9、线性分类器训练的一般思路是?
A、寻找准则函数
B、通过求准则函数的极小值求得最优解
C、寻找分类规则
D、根据分类规则进行分类

10、感知器算法的两种权向量更新方式都属于随机梯度下降法。

11、样本到决策边界的距离正比于判别函数的值。

12、感知器算法可以从解区域中优中取优。

13、批量梯度下降法(BGD)寻优路径相对比较平滑。

14、为平衡感知器算法中的求解精度和速度之间的关系,可以通过变速学习速率进行训练。

15、在超定等式约束的条件下,线性分类器的求解仍然是一个最优化问题。

16、单个感知器神经元只能做二分类判别。

17、为平衡感知器算法中的求解精度和速度之间的关系,可以通过最优化学习速率进行训练。

18、感知器算法的最大缺陷是无法解决线性不可分问题。

19、引入松弛变量,可以将约束条件转化为等式方程组来求解。

20、采用最大值可分方法,需要的判别函数数量是k的平方。(假设类别数为k)

21、为平衡感知器算法中的求解精度和速度之间的关系,可以通过绝对修正学习速率进行训练。

22、为平衡感知器算法中的求解精度和速度之间的关系,可以通过固定学习速率进行训练。

23、在模式识别中,广义线性化是指从低维特征空间映射到高维特征空间,从而将一个非线性不可分问题映射为一个线性可分问题。

24、感知器算法权向量递推公式修正的符号是“+”。

LMSE算法与支持向量机 单元测验

1、①更新权向量w(k+1);②令k=k=1,进行下一步递推,计算误差向量,直至e(k)小于等于0;③当k=0时,设定初始松弛变量b(0)的值,计算初始权向量;④更新松弛变量b(k+1);⑤计算误差向量e(k),H-K算法的正确排序是?
A、③⑤①④②
B、②⑤①③④
C、③①⑤④②
D、①②③④⑤

2、支持向量机分类模型对误差的容忍程度与惩罚因子有什么关系?
A、惩罚因子越大,容忍度越低
B、惩罚因子越大,容忍度越高
C、二者之间存在联系,但是不能找到联系间存在的规律
D、二者没有联系

3、下列选项中属于支持向量机面对的线性不可分问题的是?
A、异常点干扰和非线性分类
B、异常点干扰和线性分类
C、非异常点干扰和线性分类
D、非异常点干扰和非线性分类

4、采用____方法能够使线性分类器的学习在解区域中求得最优解。
A、最小均方误差
B、最大均方误差
C、平均值法
D、梯度下降法

5、分类器函数的VC维h越大,将使下列选项中的哪些数据发生变化?
A、置信风险越大
B、结构风险越大
C、分类器泛化能力越差
D、经验风险越大

6、利用SVM将低维空间中的非线性问题映射到高维空间,存在哪些问题?
A、不确定需要映射到多少维的空间上,非线性问题才会转化为线性问题
B、如何找到合适的映射函数φ
C、增加计算量,可能会因为维数灾难无法解决
D、能够确定映射到的高维空间的维度
E、能够找到合适的映射函数φ
F、增加计算量时可以避免出现维数灾难

7、Mercer定理是当存在一个函数对样本集中所有样本间的函数值构成的矩阵是正定的。

8、损失函数是模型得到的输出与该样本对应的真实输出之间的差值。

9、H-K算法的出发点不是以均方误差为准则函数的LMSE算法。

10、H-K算法是LMSE中一种比较优异的算法。

11、分类间隔由所有训练集样本决定。

12、SVM的优点是不需要大量的样本且具有较强的泛化能力。

13、支持向量机只能处理线性可分类的模式识别问题。

14、结构风险指训练好的分类器错分样本占有的比例,经验风险指训练好的分类器面对未知样本时分类错误的概率。

15、线性支持向量机是把具有最大分类间隔的最优线性判别函数的求解转化为求解最小权向量的二次规划问题。

16、代价函数是对于单个样本的模型得到的输出与该样本对应的真实输出之间的误差。

17、损失函数是样本整体的损失函数的期望。

18、代价函数和损失函数之间没有联系。

19、在相同维度的特征空间中,分类器函数形式的阶次越低,其VC维也越小,在样本集数量有限的情况下,训练好的分类器结构风险也越小,泛化能力越强。

20、使用核函数可以在低维空间中直接计算某一些高维空间中的向量内积。

模块4 贝叶斯分类器

贝叶斯分类器 单元测验

1、以下关于贝叶斯分类的特点的说法中错误的是?
A、先验概率是未知的
B、分类决策不存在错误率
C、先验概率是已知的
D、以新获得的信息对先验概率进行修正
E、分类决策存在错误率

2、事件A(结果A )出现后,各不相容的条件Bi存在的概率称为____。
A、后验概率
B、先验概率
C、类条件概率
D、全概率

3、贝叶斯分类器一定需要知道准确的先验概率吗?
A、不需要,因为新的信息会逐步修正先验概率
B、需要,因为后验概率计算需要使用先验概率
C、不需要,因为后验概率的计算与先验概率无关
D、其余3种说法都不对

4、在不知道类条件概率分布的情况下,要进行错误率最小的分类决策,应当依据?
A、先验概率
B、后验概率
C、特征值大小
D、类条件概率

5、对于需要考虑分类决策带来的损失的模式识别问题,应当使用____。
A、最小风险贝叶斯分类
B、最小错误率贝叶斯分类
C、朴素贝叶斯分类
D、半朴素贝叶斯分类

6、极大似然估计中,使用对数似然函数是为了____。
A、便于似然函数求导
B、将求极大值问题转化为求极小值问题
C、提高似然函数灵敏度
D、便于似然函数求和

7、最近邻方法属于____。
A、非参数化方法
B、参数化方法
C、结构聚类算法
D、句法模式识别

8、同一个训练集,最近邻分类的错误率不会低于____的错误率。
A、最小错误率贝叶斯分类
B、最小风险贝叶斯分类
C、支持向量机
D、感知器分类

9、下列选项中属于贝叶斯分类器的特点的是?
A、先验概率已知,以新获得的信息对先验概率进行修正
B、分类决策存在错误率
C、先验概率未知,以新获得的信息对先验概率进行修正
D、分类决策不存在错误率

10、下列说法中正确的是?
A、k近邻分类器存在计算量过大和存储量过大两大缺陷
B、贝叶斯公式表示了如何得到逆概率推理的结果
C、确定性统计分类和随机性统计分类的一个重要区别是不同类样本的分布区域是否相交
D、当分类器分类错误情形多,不易求取时,也可以先求分类器的分类正确率,再用1减去分类正确率求得分类错误率

11、以下哪些是K近邻分类器的优化算法?
A、快速K近邻算法
B、压缩近邻法
C、最近邻算法
D、K近邻算法

12、以下哪些预测问题可以用贝叶斯分类器来处理?
A、天气预报
B、股票预测
C、彩票号码预测
D、分子运动方向预测

13、贝叶斯分类器的训练,就是从样本集数据中估计出____。
A、先验概率
B、类条件概率
C、后验概率
D、全概率

14、当样本的类条件概率是正态分布且各类同分布的情况下,最小错误率贝叶斯分类器是线性分类器。

15、当最小错误率贝叶斯分类的错误率最小时,最大后验概率的正确率为最大。

16、采用贝叶斯分类原理得到的分类结果是完全正确的。

17、K近邻分类器错误率的下界是最小错误率贝叶斯分类器的错误率。

18、贝叶斯分类器是一类典型的参数化模式识别方法。

19、最近邻分类器的错误率比最小错误率贝叶斯分类器的错误率低。

20、极大似然估计是把估计的所有样本作为结果,把概率分布的参数作为条件,最有可能抽取到已知样本集中所有样本的概率分布参数就是极大似然的参数。

21、快速k近邻算法和压缩近邻法改进了k近邻算法存在的计算量过大和存储量过大两个问题。

22、非参数估计是在知道或者假设类条件概率密度的分布形式的基础上,直接用样本集中所包含的信息来估计样本的概率分布情况。

23、贝叶斯分类主要应用于处理确定统计分类。

24、最小错误率贝叶斯分类器是将样本划分到后验概率最大的类别中。

25、最小错误率贝叶斯分类器的分类决策规则确定了分类决策的边界。

26、多元正态概率分布下的最小错误率贝叶斯决策的决策面方程是gi(x)-gj(x) = 0。

27、类条件概率可以通过参数估计和非参数估计进行估计。

28、类条件概率的估计中采用参数估计常用的方法是极大似然估计和贝叶斯估计。

29、极大似然估计是把待估计的参数看作不确定的未知量,根据训练样本集的数据求取该未知参数的最优估计值。

30、贝叶斯估计是把待估计的参数看作具有某种分布形式的随机变量,通过对第i类学习样本xi的观察,使概率密度分布P(xi|θ)转化为后验概率P(θ|xi) ,获得参数分布的概率密度函数,再通过求取其数学期望获得参数估计值。

模块5 特征降维

特征降维 单元测验

1、主成分分析法的具体做法是对原始空间做____变换。
A、平移
B、旋转
C、线性
D、非线性

2、分支定界法利用了特征选取准则函数构造时的哪个特性?
A、与分类正确率有单调递增关系
B、当特征独立时具有可加性
C、具有标量测度特性
D、对特征数量具有单调性

3、分支定界法步骤的正确排序是? ①将过程中所有可能的组合情况组合成一棵搜索树;特征数少的组合作为特征数多的组合的子节点 ②如遇到某个节点的准则函数值比已得到的特征数更少的节点的准则函数值还小,则放弃其下所有节点的计算 ③按特定路线遍历整个搜索树,计算所遇到的每一个节点的准则函数 ④从原特征数D开始依次减少特征维数,直到达到所需的特征数d
A、④①③②
B、④③①②
C、③④①②
D、③①②④

4、下列选项中属于特征降维的优点的是?
A、增加有用的特征
B、降低模式识别任务的复杂度
C、提升分类决策的正确率
D、用更少的代价设计出更加优秀的模式识别系统

5、度量类别可分性的准则函数应该满足哪些条件?
A、与分类正确率有单调递增关系
B、当特征独立时具有可加性
C、具有标量测度特性
D、对特征数量具有单调性

6、下列关于分支定界法中搜索树的构造的说法中正确的是?
A、根节点为0级,包含D个特征
B、每一级舍弃1个特征
C、下一级在上一级的基础上继续舍弃特征
D、整个搜索树共有D-d级
E、为避免组合重复,从左至右每个子树包含的分支依次减少

7、下列关于分支定界法的特点的说法中正确的是?
A、能否得到最优解,取决于准则函数J对特征数量是否单调
B、计算次数可能比穷举法多也可能比穷举法少
C、遍历搜索树可以有很多种方法
D、能否取得最优解与准则函数无关
E、计算次数一定比穷举法少
F、遍历搜索树只能采用回溯法

8、下列选项中属于穷举法的特点的是?
A、可以找到全局最优解
B、计算量大
C、难以找到全局最优的解
D、计算量较小

9、进行特征降维可以降低一个模式识别任务的计算复杂度且有可能提升分类决策的正确率。

10、特征降维的方法可以分为对整个样本集进行特征降维和针对类别之间的可分性对已经有的特征进行特征降维。

11、特征降维针对整个样本集进行特征降维是通过发现最能体现样本间差异性的特征维度实现的。

12、特征提取和特征选择是对整个样本集进行特征降维的方法之一。

13、主成分分析法是对针对类别可分性,对已经有的特征进行特征降维的方法。

14、主成分分析法的核心思想是样本集在各个不同的方向上进行投影其方差是不同的,方差越大的方向,包含的信息量越大,就越是整个样本集分布特性的“主成分”。

15、特征提取是通过映射得到一组新的特征,特征选择是从高维特征中选出一组最有效的特征以达到降低特征空间维数的目的。

16、特征提取或特征选择方案的优化,其准则函数都应该与类别可分性呈单调递减关系。

17、常用的类别可分性度量准则函数有基于类内类间距离和基于概率距离的准则函数。

18、类内类间距离是指各类中各特征向量之间的距离的最大值。

19、顺序前进法(SFS)是从零开始,每次从未入选的特征中选择一个特征,使得它与已入选的特征组合所得到的J值最大,是一种特征选择的次优算法。

20、顺序前进法的缺点是不能剔除已入选的特征,无法保证全局最优。

21、顺序后退法(SBS)是从D个特征开始,每次从已经入选的特征中剔除一个特征,使得仍保留的特征组合所得到的J值最大,是一种特征选择的最优算法。

22、动态顺序前进法(l-r)法是按照单步最优的原则从未入选的特征中选择l个特征,再从已入选的特征中剔除r个特征,使得仍保留的特征组合所得到的J值最大。

23、分支定界法计算量一定比穷举法小。

24、特征选择常用的次优算法有顺序前进法,顺序后退法和动态顺序前进法三种。

25、类间离散度矩阵代表了每一个类的重心到整个样本集的重心之间的距离。

模块6 聚类算法

聚类算法 单元测验

1、基于最近邻规则的试探法聚类的分类结果不受哪些因素的影响?
A、聚类中心的选择
B、待分类模式样本的排列顺序
C、阈值T的大小
D、样本分布的几何性质
E、分类准则函数的选取

2、数据预处理消除量纲标尺带来的不良影响的过程中,最常用的方法是____。
A、归一化处理
B、函数化处理
C、相对化处理
D、其余三个答案都不对

3、下列说法中正确的是?
A、数据聚类没有预先分好类的样本集
B、数据聚类没有已知的分类决策规则
C、数据聚类由待分样本特征的内在规律来驱动分类过程
D、聚类结果受特征选取和聚类准则的影响
E、聚类结果受相似度度量标准的影响
F、聚类结果受各特征量纲标尺的影响

4、聚类算法可以应用在哪些领域?
A、经济
B、信息检索
C、生物基因分析
D、数据处理
E、指纹考勤
F、战场敌我识别

5、数据聚类中特征的选定应该考虑以下哪些因素?
A、聚类任务的需求
B、特征对聚类任务的有效性
C、维度和算法效率
D、判别函数的选取

6、数据聚类具有以下哪些特点?
A、聚类是对整个样本集的划分,而不是对单个样本的识别
B、聚类的依据是“样本间的相似程度”
C、聚类结果是“无遗漏”、“无重复”的
D、数据聚类是典型的的有监督学习

7、下列选项中可以用于类间相似度度量标准的是?
A、最短距离
B、最长距离
C、重心距离
D、类平均距离
E、曼哈顿距离
F、欧几里得距离
G、明考夫斯基距离
H、切比雪夫距离

8、下列选项中可以用于样本间相似度度量标准的是?
A、最短距离
B、最长距离
C、重心距离
D、类平均距离
E、曼哈顿距离
F、欧几里得距离
G、明考夫斯基距离
H、切比雪夫距离

9、下列选项中属于常用聚类准则的是?
A、紧致性准则
B、散布准则
C、误差平方和准则
D、分布形式准则

10、聚类就是将样本集中的样本按照相似的程度划分成不同的类别。

11、聚类是对整个样本集的划分,而不是对单个样本的识别。

12、聚类结果是“无遗漏”和“无重复”的。

13、采用模糊聚类的方法会出现一个样本同时属于两个类别的情况。

14、聚类可以使得各样本都能归入其中一类,且样本能够属于两类及以上。

15、完整的数据聚类过程一般包括选定特征,设定聚类准则,选择聚类算法和聚类结果评估。

16、样本间的相似度度量可以使用距离度量和非距离度量。

17、常用聚类算法有试探法,层次法,迭代法,和密度法。

18、层次聚类有融合算法和分解算法两个基本算法。

19、每一个特征维度量纲标尺对聚类结果的影响实质上是在不同的量纲标尺下特征值取值大小出现了差异。

20、动态聚类算法是一种通过反复修改聚类结果来进行优化以达到满意的聚类结果的迭代算法。

21、ISODATA算法是在k均值算法的基础上,增加对聚类结果的“合并”和“分裂”两个操作,并设定算法运行控制参数的一种聚类算法。

22、归一化处理总是可以提升聚类效果。

23、最大最小距离聚类算法比基于最近邻规则的试探法聚类算法在聚类中心的确定上有更强的适应能力。

24、最大最小距离聚类算法的结果与参数θ及第一个聚类中心的选择没有关系。

25、Kmeans算法属于有监督学习中的一种。

模块7 组合分类器

组合分类器 单元测试

1、组合分类器主要有哪几种类型?
A、Bagging、Boosting、Stacking
B、Bagging、Ababoost、Stacking
C、Bagging、Ababoost、随机森林
D、Ababoost、随机森林、Stacking

2、下列选项中,属于Boosting方法的特点的是?
A、串行训练的算法,基分类器彼此关联
B、串行算法不断增加训练器训练偏差
C、基分类器应该选择偏差较小的算法
D、并行训练的算法,基分类器彼此关联

3、关于决策树,以下说法中错误的是?
A、决策树不要求样本集的各个维度的特征具有同质性
B、一般无法用基于距离的指标来衡量样本集划分结果的紧致性
C、一般不采用熵的概念来度量每个子样本集的纯度
D、决策树是有监督学习方法

4、下列选项中,哪个不是Boosting方法的特点?
A、串行训练的算法
B、基分类器彼此关联
C、串行算法不断减小分类器训练偏差
D、组合算法可以减小分类输出方差

5、设计一个组合分类器需要满足什么要求?
A、基分类器的分类正确率大于50%
B、每个基分类器的训练集和训练结果要有差异
C、基分类器的数量越多越好
D、组合分类器需要重点考虑方差和偏差

6、下列选项中属于分类器训练过程中的特点的是?
A、分类器性能提升是匀速的,与是否接近最优结果无关
B、分类器越接近最优解,分类器性能提升越慢
C、分类器错误率高,稍微训练即可大幅提升训练结果
D、其余三种说法都对

7、下列选项中属于决策树分类器的特点的是?
A、有监督学习方法
B、无监督学习方法
C、速度快,分类决策规则明确
D、需选择分支后两个子节点纯度最高的特征作为一个节点的测试特征
E、未考虑特征间的相关性
F、分类无偏性好,但容易发生过拟合

8、下列选项中属于Adaboost算法的特点的是?
A、算法的组合过程能减小偏差
B、基分类器要选择方差小、泛化能力强的弱分类器
C、只能解决二分类问题
D、异常数据(离群点)影响大
E、精度高,参数少,自适应能力强
F、不易实现并行化训练

9、下列关于集成算法的说法中正确的是?
A、可以对不同分类器算法进行集成
B、可以对相同分类器在不同条件下集成
C、集成算法无法在不同条件下进行集成
D、对数据集不同部分分配给不同分类器后集成

10、如果基分类器的方差较大,但无偏性较好,则应该选择能减小方差的组合方法。

11、三个臭皮匠,能顶一个诸葛亮没有数学依据。

12、使用组合分类器是为了在降低整体分类器训练代价的同时提升分类器的整体性能。

13、组合分类器是将多个弱分类器组合为一个强分类器。

14、Adaboost算法不属于Boosting方法中的一种经典算法。

15、根据训练集获取方式和组合算法的不同,组合分类器的主要类型有Bagging,Boosting,Stacking。

16、Bagging方法具有可以并行训练的算法,组合算法可减小方差,基分类器算法需选择小偏差算法的特点。

17、随机森林算法是一种典型的Stacking算法。

18、Boosting算法是通过不断提升基分类器的性能来得到更好的组合分类结果的方法。

19、决策树分类器采用有监督学习模式。

20、Adaboost算法的自适应体现在,以每一个基分类器的分类错误率为依据来决定该分类器在整个组合分类器中的权重,分类器错误率越低,基分类器权重越大。

21、随机森林算法是以决策树为基分类器,采用各种随机化措施来增强整体泛化能力的一种Bagging组合分类器。

22、随机森林算法是一种集成算法。

23、随机森林算法是仅对决策树算法的集成。

24、Boosting方法是采用并行训练的算法。

模块8 模糊模式识别

模糊模式识别 单元测验

1、下列说法中正确的是?
A、隶属度表达某个命题具有某个概念的程度
B、概率表达某个命题具有某个概念的可能性
C、今天有80%的可能性会下雪是模糊概念
D、他有50%的可能性是年轻人是精确概念
E、在高原地区水不能加热到100摄氏度的概率是80%是模糊概念

2、k均值聚类算法的准则函数是?
A、误差平方和函数
B、误差均值函数
C、误差和函数
D、误差平方差函数

3、下列选项中,对模糊子集的交集表述正确的是?
A、对两个参与运算的模糊子集的每一个支持点上的隶属度函数值取最小
B、对两个隶属度函数值求最大
C、用1减原模糊子集在支持点上隶属度函数值
D、对两个隶属度函数值求平均值

4、下列选项中属于模糊子集的基本运算的是?
A、交集
B、并集
C、补集
D、水平截集

5、模糊关系中的等价关系有以下哪些性质?
A、自反性
B、对称性
C、传递性
D、旋转性

6、下列选项中属于模糊模式识别的算法的是?
A、最大隶属度识别法
B、择近原则识别法
C、模糊层次聚类
D、模糊k-均值聚类

7、下列说法中正确的是?
A、层次聚类算法可以用模糊数学理论来改进
B、K-均值聚类算法不可以用模糊数学理论来改进
C、K-均值聚类算法可以用模糊数学理论来改进
D、层次聚类算法不能通过模糊数学理论来改进

8、模糊子集有3种表达方式。

9、隶属度具有随机性,其结构具有二值性。

10、水平截集具有确定的边界,建立了与模糊集合之间的桥梁,为去模糊化提供了基础。

11、等价关系的成立只需满足对称性和自反性。

12、隶属度函数用精确的数学方法描述了概念的模糊性。

13、模糊子集的交并补运算与经典子集运算兼容。

14、相似关系的成立需要满足对称性、自反性和传递性。

15、最大隶属度函数识别法中的隶属度函数的值相当于模式识别中的判别函数。

16、k-均值聚类算法的聚类目标是使准则函数取得最小值。

17、模糊k-均值聚类算法的聚类中心应满足使得准则函数取得极值的条件。

18、模糊k-均值聚类算法是对硬聚类算法的一种改进。

19、离散模糊子集表达式中的“+”表示的是求和。

20、最大隶属度识别法可以获得样本的分类结果以及样本和各个类间相似程度的排序。

21、模糊等价关系具有传递闭包性。

22、隶属度函数表达了一个元素对一个集合的隶属程度。

23、在模糊k-均值聚类算法中模糊度控制权重m常取为1。

24、模糊控制权重m代表每次聚类结果的模糊程度,m越小,隶属度函数的语义越强。

25、贴近度是两个模糊子集间靠近的程度,可以认为是两个模糊子集间的距离或相似度的度量。

26、贴近度的值具有绝对意义,能够直接进行比较。

模块9 神经网络分类器

神经网络分类器 单元测验

1、BP网络采用的损失函数是____?
A、均方误差函数
B、平均误差函数
C、最大误差函数
D、最小误差函数

2、下列关于感知器网络的表述中错误的是?
A、多层感知器网络在早期的发展中存在如何训练的问题
B、网络的层数多少和逼近能力呈正相关
C、隐层神经元的输出误差可以直接获取
D、BP网络中每个神经元学习的规则都是误差反馈学习

3、下列关于对比散度算法的说法中错误的是?
A、对比散度算法采用无监督学习规则
B、对比散度算法中隐层也被称为特征提取器
C、随机梯度下降法迭代修正权向量和偏置量一次就能取得较好结果
D、多层同时完成在玻尔兹曼机中的预训练

4、卷积中的池化不包括以下哪个优点?
A、保留更多信息
B、降维
C、减少计算量
D、过滤部分噪声

5、下列关于BP网络的说法中错误的是?
A、是典型的分层前馈神经元网络
B、BP神经网络的基本网络结构从多层感知器而来
C、相邻两层神经元之间是全连接的
D、BP网络中每个神经元学习的规则不是误差反馈学习

6、下列选项中属于反馈型神经网络的是?
A、Hopfield网络
B、多层感知器网络
C、RBF网络
D、受限玻尔兹曼机

7、根据神经元连接方式和传递信息方向,人工神经元网络可以分为哪两大类?
A、前馈型网络
B、输出型网络
C、输入型网络
D、反馈型网络

8、调节以下哪些部分可以对神经网络的性能造成影响?
A、激活函数
B、权值
C、阈值
D、隐层单元

9、关于均值池化以下哪些表述是正确的?
A、LeNet中使用的是均值池化
B、均值池化可以较好地保留图像的背景信息
C、均值池化在处理图像时,图像的边缘会被钝化
D、均值池化在物体轮廓等特征提取中更有效

10、下列关于玻尔兹曼机的说法中正确的是?
A、玻尔兹曼机是一种存在全互联的神经网络模型
B、玻尔兹曼机学习结果是使得网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布接近
C、玻尔兹曼机的学习过程是调整权向量和网络结构的过程
D、玻尔兹曼机使用李雅普诺夫能量函数描绘网络状态演化的结果

11、下列选项中关于前馈网络和反馈网络的说法中正确的是?
A、前馈网络表达输入和输出之间的映射关系
B、前馈网络表达输出与输入的共同作用
C、反馈网络表达输入和输出之间的映射关系
D、反馈网络表达输出与输入的共同作用
E、前馈网络为静态网络
F、前馈网络为动态网络
G、反馈网络为静态网络
H、反馈网络为动态网络
I、前馈网络输出不作用在网络的输入中
J、反馈网络下一时刻的输出与上一时刻的输出有关

12、下列选项中属于人工神经元网络的特点的是?
A、由简单单元构成复杂网络
B、能够大规模并行计算
C、能够分布式存储信息
D、具有非线性逼近能力
E、具有自适应学习能力

13、神经网络的输入输出关系由哪些因素决定?
A、输入权向量
B、偏置量θ
C、网络结构
D、激活函数

14、下列选项中属于BP网络的不足的是?
A、全连接网络计算大
B、隐层神经元数量难以确定
C、容易陷入局部极小值
D、无法做到深度很深,会产生梯度消失

15、下列选项中属于深度学习的特点的是?
A、是层数较多的大规模神经网络
B、逐层抽象,发现数据集的特征
C、需要大规模并行计算能力的支持
D、需要大量样本进行训练

16、深度学习是通过一个具有一定深度的人工神经元网络,使得计算机具有比较强的学习能力。

17、ReLU函数已经被验证效果优于ELU函数。

18、感知器算法采用Hebb学习规则。

19、神经网络的学习规则有逐层更新学习、竞争学习和概率型学习。

20、玻尔兹曼机最终学习结果是使网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布最为接近。

21、逐层更新法可以用于反馈型网络的学习。

22、概率型学习网络具有内部反馈。

23、前馈网络表达输入和输出之间的映射关系,为静态网络,输出作用在网络的输入中。

24、激活函数的非线性使得具有多个层次的神经网络输入输出之间可以形成复杂的非线性映射关系。

25、单个感知器算法的局限是只能用于线性分类。

26、采用非线性激活函数可以实现感知器解决非线性分类问题。

27、在BP算法中,前一层的学习信号可以通过后一层的学习信号以及当前权向量及激活函数的导数推导。

28、卷积神经网络中的卷积层实现特征提取,池化层实现特征降维,全连接层为分类器。

29、深度信念网基于玻尔兹曼机原理。

30、卷积神经网络的一般结构包括卷积层、池化层和全连接层。

模块10 结构模式识别

结构模式识别 单元测验

1、模式结构中关于图表达的说法中错误的是?
A、图表达比串表达能力强
B、图表达是把模式结构看作基元之间的相互连接
C、图的数学描述有图论的严密数学理论
D、图表达能很容易表示出两个图之间的相似性度量

2、下列说法中错误的是?
A、在统计模式识别中,特征值微小差别意味着两个样本非常接近
B、在结构模式识别中,串表达中编辑距离很近的两个样本可能在结构上代表着完全不同的两类
C、结构模式识别在很多场景应用都比统计模式识别效果要好
D、统计模式识别的应用范围比结构模式识别更广

3、文法的种类有以下哪些?
A、无约束文法(0型文法)
B、上下文有关文法(1型文法)
C、上下文无关文法(2型文法)
D、正则文法(3型文法)

4、下列选项中,可以用于图的相似性度量的是?
A、基于核和核度理论
B、基于最小支配集
C、基于图的邻接矩阵特征谱
D、距离度量和非距离度量

5、本课程中介绍的与句法模式识别相关的基本概念有?
A、字母表
B、句子(链)
C、句子(链)的长度
D、语言
E、文法

6、上下文无关文法使用____方法可以替换非终止符。
A、最左推导
B、最上推导
C、最右推导
D、最下推导

7、文法是由下列哪些参数构成的?
A、终止符V_T
B、非终止符V_N
C、产生式P
D、起始符S

8、填充树法在填充三角形时,应遵守哪些原则?
A、首位考察
B、用某产生式后,不能出现X中不包含的终止符
C、用某产生式后,不能导致最终符号变长或变短
D、末位考察

9、模式特征的表达方式有串表达和图表达。

10、形式语言理论的核心也称为转换——生成语法,用有限的文法规则生成无限的具有共同生成结构的句法。

11、语言可以是无限的但是句子必须是有限的。

12、可以采用参考匹配法、状态图法、填充树法进行句法分析。

13、结构模式识别应用范围比统计模式识别更广。

14、无约束文法又称为递归可枚举文法。

15、填充树法由顶向底的方法和由底向顶填充相反。

16、基元是构成模式结构信息的基本单元,它本身包含有意义的结构信息。

17、3型正则文法对应的是图灵机。

期末考试

人工智能之模式识别 期末测试

1、模式识别中识别的基础和本质是____。
A、认知和分类
B、抽象和认知
C、抽象和分类
D、识别和分类

2、深度学习属于哪种类型的模式识别算法?
A、统计模式识别
B、结构模式识别
C、模糊模式识别
D、句法模式识别

3、给定一个样本集但是没有给每一个样本贴上类别标签的学习方式称为____。
A、无监督学习
B、有监督学习
C、深度学习
D、机器学习

4、造成维数灾难的原因是____。
A、训练集样本数量不足
B、训练集样本数量过多
C、带标签的样本数量过多
D、带标签的样本数量不足

5、用二分类问题的组合来确定三分类的分类决策规则时,在什么情况下是一定可分的?
A、仅有一个判别函数值大于0
B、有两个判别函数值大于0
C、三个判别函数值都小于0
D、三个判别函数值都大于0

6、在绝对可分的情况下,以下哪种表述是正确的?
A、存在不可识别区域较多的问题
B、多分类线性判别函数形式复杂
C、多分类线性判别函数的意义不明确
D、分类器的整体性能比较好

7、①更新权向量w(k+1);②令k=1,进行下一步递推,计算误差向量,直至e(k)小于等于0;③当k=0时,设定初始松弛变量b(0)的值,计算初始权向量;④更新松弛变量b(k+1);⑤计算误差向量e(k),H-K算法的正确排序是?
A、③⑤①④②
B、②⑤①③④
C、③①⑤④②
D、①②③④⑤

8、下列选项中属于支持向量机面对的线性不可分问题的是?
A、异常点干扰和非线性分类
B、异常点干扰和线性分类
C、非异常点干扰和线性分类
D、非异常点干扰和非线性分类

9、以下关于贝叶斯分类的特点的说法中错误的是?
A、先验概率是未知的
B、分类决策不存在错误率
C、先验概率是已知的
D、以新获得的信息对先验概率进行修正
E、分类决策存在错误率

10、在不知道类条件概率分布的情况下,要进行错误率最小的分类决策,应当依据?
A、先验概率
B、后验概率
C、特征值大小
D、类条件概率

11、对于需要考虑分类决策带来的损失的模式识别问题,应当使用____。
A、最小风险贝叶斯分类
B、最小错误率贝叶斯分类
C、朴素贝叶斯分类
D、半朴素贝叶斯分类

12、极大似然估计中,使用对数似然函数是为了____。
A、便于似然函数求导
B、将求极大值问题转化为求极小值问题
C、提高似然函数灵敏度
D、便于似然函数求和

13、最近邻方法属于____。
A、非参数化方法
B、参数化方法
C、结构聚类算法
D、句法模式识别

14、同一个训练集,最近邻分类的错误率不会低于____的错误率。
A、最小错误率贝叶斯分类
B、最小风险贝叶斯分类
C、支持向量机
D、感知器分类

15、分支定界法利用了特征选取准则函数构造时的哪个特性?
A、对特征数量具有单调性
B、与分类正确率有单调递增关系
C、当特征独立时具有可加性
D、具有标量测度特性

16、基于最近邻规则的试探法聚类的分类结果不受哪些因素的影响?
A、分类准则函数的选取
B、聚类中心的选择
C、待分类模式样本的排列顺序
D、阈值T的大小
E、样本分布的几何性质

17、下列选项中,属于Boosting方法的特点的是?
A、串行训练的算法,基分类器彼此关联
B、串行算法不断增加训练器训练偏差
C、基分类器应该选择偏差较小的算法
D、并行训练的算法,基分类器彼此关联

18、关于决策树,以下说法中错误的是?
A、一般不采用熵的概念来度量每个子样本集的纯度
B、决策树不要求样本集的各个维度的特征具有同质性
C、一般无法用基于距离的指标来衡量样本集划分结果的紧致性
D、决策树是有监督学习方法

19、下列说法中正确的是?
A、隶属度表达某个命题具有某个概念的程度
B、概率表达某个命题具有某个概念的可能性
C、今天有80%的可能性会下雪是模糊概念
D、他有50%的可能性是年轻人是精确概念
E、在高原地区水不能加热到100摄氏度的概率是80%是模糊概念

20、下列选项中,对模糊子集的交集表述正确的是?
A、对两个参与运算的模糊子集的每一个支持点上的隶属度函数值取最小
B、对两个隶属度函数值求最大
C、用1减原模糊子集在支持点上隶属度函数值
D、对两个隶属度函数值求平均值

21、下列关于感知器网络的表述中错误的是?
A、隐层神经元的输出误差可以直接获取
B、多层感知器网络在早期的发展中存在如何训练的问题
C、网络的层数多少和逼近能力呈正相关
D、BP网络中每个神经元学习的规则都是误差反馈学习

22、卷积中的池化不包括以下哪个优点?
A、保留更多信息
B、降维
C、减少计算量
D、过滤部分噪声

23、下列关于BP网络的说法中错误的是?
A、BP网络中每个神经元学习的规则不是误差反馈学习
B、是典型的分层前馈神经元网络
C、BP神经网络的基本网络结构从多层感知器而来
D、相邻两层神经元之间是全连接的

24、模式结构中关于图表达的说法中错误的是?
A、图表达能很容易表示出两个图之间的相似性度量
B、图表达比串表达能力强
C、图表达是把模式结构看作基元之间的相互连接
D、图的数学描述有图论的严密数学理论

25、下列关于最大池化的说法中错误的是?
A、ALexNet采用的是最大池化方法
B、最大池化在物体轮廓等特征提取中更有效
C、最大池化比随机池化的计算量小
D、LeNet采用的是最大池化方法

26、感知器算法应用什么方法求解准则函数的最优值?
A、最小均值法
B、最大均值法
C、梯度下降法
D、最小均方误差法

27、下列关于k均值聚类算法的说法中错误的是?
A、k均值算法采用误差和准则函数,其聚类目标是使准则函数值最小
B、理论上可以证明,k均值聚类算法是收敛的
C、k均值算法的聚类结果虽然收敛但不确定
D、聚类结果受设定的聚类数k、初始聚类中心和样本的分布情况影响

28、下列选项中,关于ISODATA算法的说法错误的是?
A、使用误差平方和作为基本聚类准则
B、设定指标参数决定是否进行“合并”或“分裂”
C、设定算法控制参数来决定算法的运算次数
D、不能自动调节最优类别数k

29、下列关于对比散度算法的说法中错误的是?
A、对比散度算法是一种无监督学习算法
B、对比散度算法能够发现训练集中样本最关键的特征
C、对比散度算法能够使真实的样本特征分布和重构的样本特征分布之间的KL散度取得误差范围内的极小值。
D、深度信念网中多层受限玻尔兹曼机同时通过对比散度算法完成预训练

30、模式识别的主要算法包括以下哪些?
A、线性分类器算法
B、贝叶斯分类器算法
C、模糊模式识别算法
D、神经网络模式识别算法

31、以下选项中属于模式识别应用领域的是?
A、人脸识别
B、语音识别
C、脑电识别
D、自然语言理解
E、手势识别
F、目标跟踪

32、下列说法中正确的是?
A、模式识别技术属于人工智能领域中的感知技术
B、模式识别是根据事物的特征进行归类的过程
C、模式识别技术包括认知和识别两个过程
D、模式识别技术中,认知是识别的基础,识别是在认知基础上的知识运用

33、以下选项中哪些属于统计模式识别?
A、线性分类器
B、贝叶斯分类器
C、最近邻分类器
D、神经网络分类器
E、结构聚类算法
F、句法模式识别

34、下列选项中,属于模式识别系统的环节是?
A、预处理与特征生成
B、分类器训练
C、特征降维
D、模式采集
E、分类决策

35、下列选项中,属于感知器的特点的是?
A、感知器具有多路输入、单路输出
B、感知器没有反馈和内部状态
C、感知器将输入信号加权求和与阈值比较,当信号加权和大于阈值时输出1,当信号加权和小于阈值时输出0
D、单个感知器可以解决非线性分类问题

36、分类器函数的VC维h越大,将使下列选项中的哪些数据发生变化?
A、置信风险越大
B、结构风险越大
C、分类器泛化能力越差
D、经验风险越大

37、下列选项中,哪些因素会影响到感知器算法中随机梯度下降法的求解结果?
A、初始权向量设置
B、学习速率
C、样本处理顺序不同
D、学习规则

38、利用SVM将低维空间中的非线性问题映射到高维空间,存在哪些问题?
A、不确定需要映射到多少维的空间上,非线性问题才会转化为线性问题
B、如何找到合适的映射函数φ
C、增加计算量,可能会因为维数灾难无法解决
D、能够确定映射到的高维空间的维度
E、能够找到合适的映射函数φ
F、增加计算量时可以避免出现维数灾难

39、下列选项中属于贝叶斯分类器的特点的是?
A、先验概率已知,以新获得的信息对先验概率进行修正
B、分类决策存在错误率
C、先验概率未知,以新获得的信息对先验概率进行修正
D、分类决策不存在错误率

40、下列说法中正确的是?
A、k近邻分类器存在计算量过大和存储量过大两大缺陷
B、贝叶斯公式表示了如何得到逆概率推理的结果
C、确定性统计分类和随机性统计分类的一个重要区别是不同类样本的分布区域是否相交
D、当分类器分类错误情形多,不易求取时,也可以先求分类器的分类正确率,再用1减去分类正确率求得分类错误率

41、以下哪些预测问题可以用贝叶斯分类器来处理?
A、天气预报
B、股票预测
C、彩票号码预测
D、分子运动方向预测

42、贝叶斯分类器的训练,是从样本集数据中估计出____。
A、先验概率
B、类条件概率
C、后验概率
D、全概率

43、下列选项中属于特征降维的优点的是?
A、降低模式识别任务的复杂度
B、提升分类决策的正确率
C、用更少的代价设计出更加优秀的模式识别系统
D、增加有用的特征

44、度量类别可分性的准则函数应该满足哪些条件?
A、与分类正确率有单调递增关系
B、当特征独立时具有可加性
C、具有标量测度特性
D、对特征数量具有单调性

45、下列关于分支定界法中搜索树的构造的说法中正确的是?
A、根节点为0级,包含D个特征
B、每一级舍弃1个特征
C、下一级在上一级的基础上继续舍弃特征
D、整个搜索树共有D-d级
E、为避免组合重复,从左至右每个子树包含的分支依次减少

46、下列关于分支定界法的特点的说法中正确的是?
A、能否得到最优解,取决于准则函数J对特征数量是否单调
B、计算次数可能比穷举法多也可能比穷举法少
C、遍历搜索树可以有很多种方法
D、能否取得最优解与准则函数无关
E、计算次数一定比穷举法少
F、遍历搜索树只能采用回溯法

47、下列说法中正确的是?
A、数据聚类没有预先分好类的样本集
B、数据聚类没有已知的分类决策规则
C、数据聚类由待分样本特征的内在规律来驱动分类过程
D、聚类结果受特征选取和聚类准则的影响
E、聚类结果受相似度度量标准的影响
F、聚类结果受各特征量纲标尺的影响

48、数据聚类中特征的选定应该考虑以下哪些因素?
A、聚类任务的需求
B、特征对聚类任务的有效性
C、维度和算法效率
D、判别函数的选取

49、数据聚类具有以下哪些特点?
A、聚类是对整个样本集的划分,而不是对单个样本的识别
B、聚类的依据是“样本间的相似程度”
C、聚类结果是“无遗漏”、“无重复”的
D、数据聚类是典型的有监督学习

50、设计一个组合分类器需要满足什么要求?
A、基分类器的分类正确率大于50%
B、每个基分类器的训练集和训练结果要有差异
C、组合分类器需要重点考虑方差和偏差
D、基分类器的数量越多越好

51、下列选项中属于决策树分类器的特点的是?
A、有监督学习方法
B、速度快,分类决策规则明确
C、需选择分支后两个子节点纯度最高的特征作为一个节点的测试特征
D、未考虑特征间的相关性
E、分类无偏性好,但容易发生过拟合
F、无监督学习方法

52、下列选项中属于Adaboost算法的特点的是?
A、算法的组合过程能减小偏差
B、基分类器要选择方差小、泛化能力强的弱分类器
C、只能解决二分类问题
D、异常数据(离群点)影响大
E、精度高,参数少,自适应能力强
F、不易实现并行化训练

53、下列选项中属于反馈型神经网络的是?
A、Hopfield网络
B、受限玻尔兹曼机
C、多层感知器网络
D、RBF网络

54、调节以下哪些部分可以对神经网络的性能造成影响?
A、激活函数
B、权值
C、阈值
D、隐层单元

55、下列关于玻尔兹曼机的说法中正确的是?
A、玻尔兹曼机是一种存在全互联的神经网络模型
B、玻尔兹曼机学习结果是使得网络的输入输出联合概率分布与训练集样本的输入输出联合概率分布接近
C、玻尔兹曼机使用李雅普诺夫能量函数描绘网络状态演化的结果
D、玻尔兹曼机的学习过程是调整权向量和网络结构的过程

56、下列选项中关于前馈网络和反馈网络的说法中正确的是?
A、前馈网络表达输入和输出之间的映射关系
B、反馈网络表达输出与输入的共同作用
C、前馈网络为静态网络
D、反馈网络为动态网络
E、前馈网络输出不作用在网络的输入中
F、反馈网络下一时刻的输出与上一时刻的输出有关
G、前馈网络表达输出与输入的共同作用
H、反馈网络表达输入和输出之间的映射关系
I、前馈网络为动态网络
J、反馈网络为静态网络

57、下列选项中属于人工神经元网络的特点的是?
A、由简单单元构成复杂网络
B、能够大规模并行计算
C、能够分布式存储信息
D、具有非线性逼近能力
E、具有自适应学习能力

58、下列选项中属于BP网络的不足的是?
A、全连接网络计算大
B、隐层神经元数量难以确定
C、容易陷入局部极小值
D、无法做到深度很深,会产生梯度消失

59、下列选项中属于深度学习的特点的是?
A、是层数较多的大规模神经网络
B、逐层抽象,发现数据集的特征
C、需要大规模并行计算能力的支持
D、需要大量样本进行训练

60、下列选项中,可以用于图的相似性度量的是?
A、基于核和核度理论
B、基于最小支配集
C、基于图的邻接矩阵特征谱
D、距离度量和非距离度量

61、以下不属于模式识别的应用是
A、刷卡开门
B、相机笑脸检测
C、给新物种命名
D、植物在冬季落叶
E、读出书上的文字

62、下列选项中,属于有监督学习的是?
A、支持向量机
B、决策树
C、聚类算法
D、线性回归

63、利用链式求导法则需要哪些信息?
A、权重参数
B、激活函数输出对净激励的导数
C、损失函数与网络输出向量之间的函数关系
D、激活函数

64、深度信念网不能用于图像识别的原因是?
A、深度信念网为一维向量输入,不能直接用于二位图像
B、受限玻尔兹曼机的层间全连接,权值数量太多
C、需要进行认知-重构的双向计算,学习速度不够快
D、其余三个说法都不对

65、深度信念网可以解决传统BP算法的哪些问题?
A、收敛速度慢
B、易陷入局部最优解
C、计算量大
D、能够确定神经元的个数

66、Jp作为类内、类间可分性的概率距离度量时应该满足下列选项中哪些条件?
A、Jp大于等于0
B、Jp小于等于0
C、当两类完全可分时,Jp取得最大值
D、当两类完全可分时,Jp取得最小值
E、当两类完全不可分时,Jp等于0
F、当两类完全不可分时,Jp小于0

67、特征选择的算法包括以下哪些?
A、穷举法
B、分支定界法
C、顺序前进法
D、顺序后退法

68、聚类结果的评估应该考虑以下哪些内容?
A、聚类得到的各个类别分布是否合理
B、聚类结果是否能发现和适应样本集的样本分布特点
C、是否存在大量的孤立样本和边界样本
D、聚类过程是否需要大量的人工干预
E、聚类过后是否可以发现样本集中的分类规则,建立决策边界

69、下列选项中属于试探法聚类的特点的是?
A、简单高效
B、初始条件和样本处理顺序敏感
C、不能保证取得最优聚类结果
D、聚类结果需要评估

70、特征降维的方法包括特征选择和特征提取。

71、当出现维数灾难时,可以通过增加样本数量来缓解分类器性能下降的问题。

72、模式识别的核心是分类器。

73、模式识别分类的依据是样本的共同特征和分类决策规则。

74、导致维数灾难的根本原因是训练集样本特征过多。

75、在模式识别系统中,模式采集是针对具体物理样本所包含的各种信息,将其通过采集转换得到计算机能接受和处理的数据。

76、在模式识别系统中,预处理是通过各种滤波降噪措施降低干扰的影响,增强有用信息,生成在分类上具有意义的各种特征。

77、在模式识别系统中,分类器训练是分类决策规则的学习过程,由人根据样本的情况自动进行。

78、在模式识别系统中,分类决策是在分类器训练结束以后对已经分好类的样本按照已建立起来的分类决策规则进行分类的过程。

79、有监督学习是分类器从有类别标签的训练集中学习到具体的分类决策规则的学习模式。

80、无监督学习是使用没有类别标签的训练集进行分类学习的学习模式。

81、泛化能力是指训练好的分类器对已知样本的正确分类能力。

82、过拟合是指为追求样本集中样本的正确分类性导致分类器泛化能力降低。

83、感知器算法的两种权向量更新方式都属于随机梯度下降法。

84、单个感知器神经元只能做二分类判别。

85、感知器算法的最大缺陷是无法解决线性不可分问题。

86、采用最大值可分方法,需要的判别函数数量是k的平方。(假设类别数为k)

87、在模式识别中,广义线性化是指从低维特征空间映射到高维特征空间,从而将一个非线性不可分问题映射为一个线性可分问题。

88、损失函数是模型得到的输出与该样本对应的真实输出之间的差值。

89、分类间隔由所有训练集样本决定。

90、SVM的优点是不需要大量的样本且具有较强的泛化能力。

91、结构风险指训练好的分类器错分样本占有的比例,经验风险指训练好的分类器面对未知样本时分类错误的概率。

92、线性支持向量机是把具有最大分类间隔的最优线性判别函数的求解转化为求解最小权向量的二次规划问题。

93、在相同维度的特征空间中,分类器函数形式的阶次越低,其VC维也越小,在样本集数量有限的情况下,训练好的分类器结构风险也越小,泛化能力越强。

94、使用核函数可以在低维空间中直接计算某一些高维空间中的向量内积。

95、当样本的类条件概率是正态分布且各类同分布的情况下,最小

中国大学人工智能之模式识别

人工智能是目前科技界的热门话题之一,而其中模式识别更是人工智能重要的一个子领域。模式识别是人工智能的一种基本能力,它是通过对数据的处理和分析,发现规律并将这些规律应用于未知数据的判断和推理。

中国大学的模式识别教育

在中国大学中,模式识别教育已经成为了一个重要的课程。许多著名的大学都设立了模式识别相关课程,例如清华大学、北京大学、浙江大学、上海交通大学等。这些课程主要包括模式识别基础知识、图像处理、机器学习、神经网络等方面,为学生提供了丰富的理论知识和实践技能。

中国大学的模式识别研究

中国大学的模式识别研究已经取得了一定的成果。例如,清华大学的计算机科学与技术系在模式识别领域取得了许多成果,其中包括人脸识别、手写数字识别、视频监控等方面。另外,中国科学院自动化所和上海交通大学等机构也进行了大量的模式识别研究。

模式识别在中国大学中的应用

在中国大学中,模式识别已经开始应用于各个领域。例如,在医学领域,模式识别可以用于医疗影像的诊断和评估;在金融领域,模式识别可以用于风险预警和投资策略的制定;在安全领域,模式识别可以用于人脸识别和行为监控等方面。

模式识别的未来

随着人工智能技术的不断发展,模式识别将在未来得到更广泛的应用。在未来,模式识别将会应用于更多的领域,例如智能家居、自动驾驶、智能制造等领域。同时,模式识别也将继续发展和创新,不断提高其识别准确率和处理速度,为人类提供更优质的服务。

结语

中国大学的模式识别研究和应用在人工智能领域中已经取得了许多成果,并且未来模式识别还将继续发展和创新。期望未来中国大学能够在模式识别领域中取得更多的成果,为人工智能技术的发展做出更大的贡献。