锐单电子商城 , 一站式电子元器件采购平台!
  • 电话:400-990-0325

人工原理复习题

时间:2023-06-15 18:37:00 2x10p线对线连接器

随机练习
1.填空题 。收藏
DenseNets引入注意力有几个优点: 一、 、 和

参考答案缓解梯度消失,加强特征传播 通过较少的通道数的通道数减少参数
谓输入答案
1.1
请输入答案
1.2
请输入答案
1.3
请输入答案
1.4

3.单选题
对于k折交叉验证,以下对k的说法是正确的()
k越大,不一定越好。选择大K会增加评估 时间
选择更大的k,会有更小的bias (因为训练 集更接近总数据集)
C 在选择k时,最小化数据集之间的方差
D 以上所有
A答错了,再接再厉
参考答案:D 我的答案:A
答案解析:
k越大,bias训练时间越小,训练时间越长.训练时也要考虑数据 集间方差别不大的原则.例如,二类分类的使用
2-折叠交叉验证。如果测试集中的数据是A类,则训练集 中等数据为B类。显然,测试效果会很差.
随机练习
7.单选题 收藏
增加卷积核的大小对改善卷积神经网络络 必要的吗?
A 没听说过
B 不知道
o是
D 否
A答错了,再接再厉
参考答案:D 我的答案:C
答案解析:
增加核函数的大小可能不会提高性能。这个问题很重要
在很大程度上取决于数据集。
< 随机练习
9.单选题 ☆收藏
当模型参数采用刷度下降法更新时,求导非常重要■要的计鼻步BU求导方法之
一的■■符号求导的主要缺点是()
A 代码不能通用或重用
B 计算!■巨大
? 引入误差和截断误差
D 出现■哀达式临胀"
A答错了,再接再厉
参考答案:D 我的答案:C

。收藏
"参数共享是使用卷积网络的好处。关于参数共享 哪些陈述是正确的?
A 它减少了参数总数,从而减少了过拟合。
它允许在整个输入值的多个位置使用特征 检测器。
它允许一个任务学习的参数,即使不是 同样的任务也可以共享(迁移学习)。
它允许梯度下降将许多参数设置为零 连接稀疏。
A答错了,再接再厉

由于池化层没有参数,不影响反向传播 的计算。
O对
B 错
参考答案:错
19.单选题
如果你想建立一个可以输入人脸图片输出的N 标记的神经网络(假设图像只包含一张脸),那么你 神经网络有多少输出节点?
A N
B 2N
3N
? N*N
A答错了,再接再厉
参考答案:B 我的答案:D

。收藏
为什么RNN (循环神经网络)可用于机器翻译 语言翻译成法语?
A 因为它可以用来监督学习。
严格来说,它比卷积神经网络更严格(CNN)效果 更好。
当输入/输出是序列时,更适合使用 时间(例如:单词序列)
RNNs代表递归过程:想法->编码->实验->想法 法->…
A答错了,再接再厉

参考答案:A,C
我的答案:D

随机练习

17.问答题
激活函数需要什么必要的属性?什么属性好? 属性但不必要?
我的作答:

参考答案:
1.非线性:即导数不是常数。许多受访者提到了这种情况 是多层神经网络的基础,保证多层网络不退化为单层线 性网络。这也是激活函数的意义。
2.几乎到处都微:可微性保证了梯度优化的可计算性。 传统的激活函数,如sigmoid等待满足感无处不在。分段线性 函数比如ReLU,只满足几乎无处不在(即只在有限的点) 可微)SGD就算法而言,几乎不可能收敛到梯度连接 近零位置,有限的无微点对优化结果影响不大 ⑴。
3.计算简单:正如题主所说,非线性函数很多。
A ,亠,一 , 4 .■ —… Mt
-MVXtMMM* W1BMWWV
M’ M WV 9 MW * ? ?M I…—
??ra4NBawiYMe^?m
VM BW— ?wi
5UWVWM??― —? r ???

随机练习
24.填空题 <
Y0L0算法与RCNN该系列最大的区别在于,YOLO算 法

24.1
参考答案:
24.1:直接预测目标位置
题卡
随机练习
26.单选题 。收藏
稀疏连接是使用卷积层的好处。这是什么意思?
正规化导致梯度下降,许多参数被设置为 零。
每个过滤器都连接到上层的每个通道。
下一层的每一个激活依赖于前一层的少 量激活。
D 卷积网络中的每一层只连接到另外两层。
A答错了,再接再厉

参考答案:C
我的答案:B
随机练习
29.单选题 。收藏
图像识别问题(在照片中找到一只猫)在哪里? 种神经网络能更好地解决这个问题吗?
o循环神经网络
感知机
C 多层感知机
D 卷积神经网络
A答错了,再接再厉
参考答案:D 我的答案:A
答案解析:
因为 考虑到图像附近位置变化的固有性质。

31.判断题
当一个有经验的深度学习工程师处理一个新的时候 当出现问题时,他们通常可以利用以前的经验 一次尝试中训练一个表现很好的模型,而不需要通 多次迭代不同的模型以选择更好的模型。
A答错了,再接再厉
参考答案:错 我的回答:是的
答案解析:
也许以前的一些经验可能会有所帮助,但没有人总是 无需迭代多次,就能找到最佳模型或超参数。
随机练习
32.多选题
以下关于神经网络的正确说法有()
o非线性分类可以实现神经网络
。 线性分类可以实现神经网络
神经网络的每层神经元激活函数必须相同
神经网络的每层神经元激活函数阈值必须是 在【-1刀
■恭喜,答对了
参考答案:A,B 我的答案:A,B
随机练习
34.单选题 收藏
在反向传播过程中,首先计算的变量0梯 度,然后反向传播。
连接权重 B 激活函数 O损失函数 D 特征映射
A答错了,再接再厉

参考答案:B
我的答案:C

随机练习
36.单选题 收藏
当在卷积神经网络中添加池化层时(pooling layer)时,变换的 不变性会被保留,是吗?
A 不知道
B 看情况
C 是
O否
A答错了,再接再厉
参考答案:C 我的答案:D
答案解析:
池化算法,如最大值/平均值等,都是输入数据旋转 结果不变,所以多层叠加后也有这种不变性。
38.判断题
tanh激活函数通常比隐藏层单元的sigmoid激活函 数字效果更好,因为输出的平均值更接近零,所以 将数据集中在下一层是更好的选择,对吗?
A答错了,再接再厉
随机练习
39.多选题 C?收藏
对于许多算法工程师来说,超参数调优是非常重要的 疼痛。除了根据经验设定所谓的合理值外,还有一个 一般很难找到合理的方法来找到超参数的最优值。 同时,超参数对模型效果的影响也非常重要 有没有可行的方法来调整超参数?
A 网格搜索
o梯度下降法
O 随机搜索
O 贝叶斯优化
A答错了,再接再厉
参考答案:A.C.D 我的答案:B.C.D
随机练习
40.多选题 0收藏
人工神经网络loss优化中跳部最小值
()
9 随机梯度下降法
。 模拟退火算法
9 遗传算法
D 梯度下降法
■恭喜,答对了

参考答案:A.B.C
我的答案:A.B.C

上午 11:17 P ^.ill(jD)>
< 随机练习
41.填空题 口收,
CycleGAN生成器网络结构由

.和 构成。
41.1
41.2
41.3
参考答案:
41.1:编码层(Encoding)
41.2:转换层(Transformation)
41.3:解码层(Decoding)

42.填空题
YOLO算法与RCNN该系列最大的区别在于,YOLO算 法 。
直接预测目标位置
直接预测目标位置
42.1
参考答案:
42.1:直接预测目标位置
随机练习

我的作答:
参考答案:
答案解析:
RNN它引入了循环的概念,但在实际过程中出现了 初始信息随时消失的问题,即长期依赖(Long- Term Dependencies)所以引入了问题LSTM。 LSTM:因为LSTM现在有进有出cell informaton 是通过input gate控制之后叠加的,RNN是叠乘,因 此LSTM关键是防止梯度消失或爆炸变化, 下图非常清合记忆:
GRU是LSTM变体将忘记门和输入合成 单门更新。
随机练习
44.多选题
VGG以下几点主要得益于成功?
多层小卷积取代大卷积
卷积神经网络更深
O 批归一化
D 预训练
A答错了,再接再厉
参考答案:A.B.D 我的答案:A,B,C
题卡
随机练习
45.问答题 。收藏
CNN卷积核是单层还是多层?
我的作答:
多层
参考答案:
卷积核(filter)—般是3D除面积参数外,多层,如3x3之 还有厚度参数H (2D厚度1).另一个属性是卷积 核的个数N。

练习>

o现在我们有了更好更快的计算能力。
B 神经网络是一个全新的领域。
。 我们现在可以获得更多的数据。
深度学习已经取得了更大的进展,比如在 在线广告、语音识别和图像识别方面有了 很多的应用。

随机练习
47.填空题
RCNN通过算法 生成候选区域。
[参考答案]selective search
selective search 47.1
参考答案:
47.1: selective search
随机练习
48.填空题 0收藏
目标检测是一类重要的计算机视觉算法,这类算法
可以同时完成 和 O
[参考答案]目标提取目标分类
目标分类
48.1
目标提取
48.2
参考答案:
48.1:目标提取
48.2:目标分类
随机练习
49.判断题 。收藏
如果在一个高度非线性并且复杂的一些变量中,一个树模型 可能比一般的回归模型效果更好.
■恭喜,答对了

随机练习
so.多选题 收藏
下面属于BP的缺点的是()
O BP神经网络算法的收敛速度慢
B BP神经网络结果选择不一
C 适应大部分数据训练模式
O BP网络不会受到训练能力影响 c
• • •
A答错了,再接再厉哦
参考答案:A,B 我的答案:A,D

随机练习
51.多选题
属于重要的人工神经网络包括()
感知器神经网络(Perceptron Neural Netw ork)
Q 反向传递(Back Propagation)
Hopfield 网络
循环神经网络(RNN)
A答错了,再接再厉哦

随机练习
51.多选题
属于重要的人工神经网络包括()
感知器神经网络(Perceptron Neural Netw ork)
Q 反向传递(Back Propagation)
Hopfield 网络
循环神经网络(RNN)
A答错了,再接再厉哦

参考答案:A,C,D
我的答案:B

随机练习
53.判断题 C?收藏
一个完整的人工神经网络包括多层分析层和多层隐 藏层。()
O对
B 错
A答错了,再接再厉哦

参考答案:错
我的答案:对

随机练习
54.填空题 收藏
生成对抗网络中需要分别优化的两部分分别为—
和 o
[参考答案]生成器(G)判别器(D)
请输入答案
54.1
请输入答案
54.2

<
55.单选题
随机练习

批规范化(Batch Normalization)的好处都有啥?
在将所有的输入传递到下一层之前对其进 行归一化(更改)
B 它将权重的归一化平均值和标准差
O 它是一种非常有效的反向传播(BP)方法
D 这些均不是
A答错了,再接再厉哦

参考答案:A

我的答案:C

随机练习
56.填空题 C?收藏
人工神经网络层数増多后通常会遇到 、 等问题。
梯度消失
56.1
难计算
56.2
参考答案:
56.1:梯度爆炸
56.2:梯度消失
E_题
随机练习
57.判断题 收藏
如果增加多层感知机(Multilayer Perceptron)的隐 藏层层数,分类误差便会减小。
O对
B 错
A答错了,再接再厉哦
参考答案:错 我的答案:对 冬
• • •
答案解析:
并不总是正确。层数增加可能导致过拟合,从而可能 引起错误增加。
随机练习
58.多选题
GoogleNet模型中的基础卷积模块(称为Inception 模块)中采用的卷积核大小为()
A 11x11
Q 5x5
Q 3x3
Q 1x1
■恭喜,答对了
参考答案:B.C.D 我的答案:B.C.D
随机练习
59.填空题 ☆收藏
卷积层的输出通常由3个量来控制,它们分别是深 度、步幅和 O
padding
59.1
A答错了,再接再厉哦
参考答案:
59.1:补零
<
60.填空题
RCNN算法的贡献

60.1
60.2
参考答案:
60.1:提高了目标检测的精度
60.2:提岀分两阶段检测图像中的目标
随机练习
61.多选题 C?收藏
"没有测量,就没有科学。”这是科学家门捷列夫的名 言。在计算机科学特别是机器学习领域中,对模型的 评估同样至关重要。只有选择与问题相匹配的评估 方法,才能快速地发现模型选择或训练过程中出现 的问题,迭代地对模型进行优化。以下哪些是对图像 目标检测任务的模型评估()
Q loU
Q RMSE
mAP
PSNR
A答错了,再接再厉哦
参考答案:A,C 我的答案:A,B

随机练习
62.单选题 。收藏
你有一个63x63x16的输入,有32个过滤器进行卷 积,每个过滤器的大小为7x7,步幅为1,你想要使用 “same”的卷积方式,请问pad的值是多少?

■恭喜,答对了

64.多选题
关于残差网络下面哪个(些)说法是正确的?
使用跳越连接能够对反向传播的梯度下降 有益且能够帮你对更深的网络进行训练。
跳跃连接计算输入的复杂的非线性函数以 O 传递到网络中的更深层。
L2
有L层的残差网络一共有种跳跃连接的 顺序。
跳跃连接能够使得网络轻松地学习残差块 类的输入输岀间的身份映射。
A答错了,再接再厉哦
上午 11:34 » P
随机练习
65.填空题
VGG模型的常用架构是VGG16 (数字“16”代表网络 有16个 ) o
卷积层
65.1
参考答案:
65.1:权重层
题卡
随机练习
66.填空题 C?收藏
ResNet残差模块中,若输入为x,卷积层输出为F(x) 残差块的输出为
f (x)+x
66.1
参考答案:
66.1: ReLu(H(x)=F(x)+x)

67.单选题
假设你的输入的维度为64x64x16,单个1x1的卷积 过滤器含有多少个参数(包括偏差)?
A 2
17
❸ 4097
D 1
A答错了,再接再厉哦
参考答案:B 我的答案:C
69.问答题
看一下下面的这两个随机数蛆“a”和“b": a = np.random.randn(2, 3) b = np.random.randn(2, 1) c = a + b
请问数组c的维度是多少?
我的作答:
(2,3)
参考答案:
B (列向景)复制3次,以便它可以和A的每一列相加,所以: c.shape = (2, 3)
随机练习
71.多选题 P收藏
为了消除数据特征之间的量纲影响,我们需要对特 征进行归一化处理,使得不同指标之间具有可比性。 常用的对数值类型的特征做归一化的方法有?()
A 线性函数归一化
O 批归一化
C 零均值归一化
D 组归一化
A答错了,再接再厉哦
参考答案:A,C 我的答案:B
随机练习

解决或缓解深层的神经网络训练中的梯度 消失问题
解决或缓解深层的神经网络训练中的梯度 爆炸问题
6 解决或缓解深层的神经网络训练中的过拟
3合问题
解决或缓解深层的神经网络训练中的欠拟 合问题
A答错了,再接再厉哦

随机练习
74.判断题 。收藏
深度学习与机器学习算法之间的区别在 于,后者过程中无需进行特征提取工 作,也就是说,我们建议在进行深度学 习过程之前要首先完成特征提取的工 作。
O 对
B 错
A答错了,再接再厉哦
参考答案:错 我的答案:对
答案解析:
正好相反,深度学习可以自行完成特征提取过程而机器学 习需要人工来处理特征内容。
随机练习
75.问答题
常见的分类算法有哪些?
我的作答:
参考答案:
SVM、神经网络、随机森林、逻辑回归、KNN、贝叶斯
随机练习
76.填空题 C?收藏
AlexNet有两个较大的创新点,一个是使用了 Relu激 活函数,加快了模型的学习过程,另一个就是加入 了 ,可以防止模型的过拟合。
[参考答案]dropout
dropout
76.1
参考答案:
76.1: dropout
题卡
77.多选题
神经网络中参数极多,常用的初始化方法有哪些?
A 全零初始化
Q 随机初始化
O 加载预训练模型
使用深度信念网络
A答错了,再接再厉哦
参考答案:A,B,D 我的答案:B,C
答案解析:
深度信念网络(DBN)通过采用逐层训练的方式,解 决了深层次神经网络的优化问题,通过逐层训练为整 个网络赋予了较好的初始权值,使得网络只要经过微 调就可以达到最优解。

随机练习

79.多选题
VGG网络结构有哪些配置?()
A VGG9
Q VGG11
Q VGG16
Q VGGG19
■恭喜,答对了

参考答案:B,C,D
我的答案:B.C.D

随机练习

80.问答题
常见的监督学习算法有哪些?
。收藏

我的作答:
参考答案:
感知机、svm、人工神经网络、决策树、逻辑回归
随机练习
81.问答题 。收藏
如何理解神经网络中的权值共享?
我的作答:
参考答案:
权值(权重)共享这个词是由LeNet5模型提岀来的。以CNN为 例,在对一张图偏进行卷积的过程中,使用的是同一个卷积 核的参数。比如一个3x3x1的卷积核,这个卷积核内的9个 参数被整张图共享,而不会因为图像内位置的不同而改变卷 积核内的权系数。拿一个卷积核为例,简单的说就是用一个 卷积核不改变其内权系数的情况下卷积处理整张图片。

随机练习
85.判断题 。收藏
人工神经网络(ANN)可以处理冗余特征。()
♦恭喜,答对了

86.问答题
池化在卷积神经网络里面有何作用,在引进池化后 解决了什么问题?
我的作答:
数据过大
参考答案:
作用:保留主要的特征同时减少参数(降维,效果类似PCA) 和计算里,防止过拟合,提高模型泛化能力;减少模型参 数。
随机练习
87.多选题
在机器学习中,我们通常把样本分为训练集和测试 集,训练集用于训练模型,测试集用于评估模型。在 样本划分和模型验证的过程中,存在着不同的抽样 方法和验证方法。有哪些主要的验证方法?
Q Holdout 检验
Q k-fold交叉验证
C 自助法
o随机法
A答错了,再接再厉哦
参考答案:A,B,C 我的答案:A.B.D

什么是欠拟合现象,网络欠拟合你该怎么办?
我的作答:
参考答案:
欠拟合(偏差很大),感知机及简单线性回归容易产生欠拟 合:特征数目过少,模型无法精确的分类和拟合数据,模型 无法很好捕捉到特征;办法:増加训练轮次,减少正则参数 (减小高偏差),増加网络复杂度。
随机练习
91.1
91.2
91.3
参考答案:
91.1:缓解了梯度消失
91.2:加强了特征传播
91.3:増强了特征复用
91.4:通过较少的通道数减少参数量
下午 2:00 © 1 £. 澎回’Ml □ ".ill CK>
< 随机练习
91.填空题 力皿8
DenseNets有几个弓I入注目的优势: 、 、 和
91.1
91.2
91.3
91.4
参考答案:
91-1:缓解了梯度消失
91.2:加强了特征传H6
91.3:塔强了特征豆用
91.4:通过较少的通道数减少参数屋

下列方法中,可以用于特征降维的方法包括0
主成分分析PCA
线性判别分析LDA
O 深度学习 S parseAutoEncoder
O 最小二乘法 L eastSquares
矩阵奇异值分解SVD
A答错了,再接再厉哦
参考答案:A.B.C.E 我的答案:A,B,C,D
答案解析:
降维的3种常见方法ABE,都是线性的。深度学习是降维 的方法这个就比较新鲜了,事实上,细细想来,也是降维 的一种方法,因为如果隐藏层中的神经元数目要小于输 入层,那就达到了降维,但如果隐藏层中的神经元如果
随机练习
对于一个分类任务,如果开始时神经网络的权重不是随机赋 值的,而是都设成0,下面哪个叙述是正确的?
没啥问题,神经网络会正常开始训练
B 其他选项都不对
神经网络不会开始训练,因为没有梯度改 变
神经网络可以训练,但是所有的神经元最 后都会变成识别同样的东西
A答错了,再接再厉哦
参考答案:D 我的答案:C
答案解析:
令所有权重都初始化为0,这个听起来还蛮合理的想法也 许是一个我们假设中最好的一个假设了,但结果是错误 的,因为如果神经网络计算出来的输出值都一个样,那 么反向传播算法计算岀来的梯度值一样,并且参数更新 值也一样(w=w-a*dw)o更一般地说,如果权重初始化为 同一个值,网络即是对称的,最终所有的神经元最后都会 变成识别同样的东西。
回 。^,iil GD
随机练习
95.填空题 ☆收藏
假设输入层矩阵维度是96x96x3,第一层卷积层使 用尺寸为5x5、深度为16的过滤器(卷积核尺寸为5x
5、卷积核数量为16),那么这层卷积层的参数个数 为 o
95.1
A答错了,再接再厉哦
参考答案:
95.1: 1216
答案解析:
5x5x3x16+16=1216 个
随机练习
97.单选题 。收藏
构建一个神经网络,将前一层的输岀和它自身作为 输入。
下列哪一种架构有反馈连接?
A 卷积神经网络
B 循环神经网络
C 限制玻尔兹曼机
O 都不是
A答错了,再接再厉哦
参考答案:B 我的答案:D
随机练习
98.多选题
机器学习中L1正则化和L2正则化的区别是?
O 使用L1可以得到稀疏的权值
B 使用L1可以得到平滑的权值
O 使用L2可以得到稀疏的权值
使用L2可以得到平滑的权值
A答错了,再接再厉哦
参考答案:A,D 我的答案:A,C
答案解析:
L1正则化偏向于稀疏,它会自动进行特征选择,去掉一 些没用的特征,也就是将这些特征对应的权重置为0.
L2主要功能是为了防止过拟合,当要求参数越小时,说 明模型越简单,而模型越简单则,越趋向于平滑,从而防 止过拟合。
下午2:03 & 3丑 渺回 %ll。3而GD
< 随机练习
卷积神经网络VGG16名称中16指的是()。
A 论文发表于2016年
O 网络总共有16层
C 网络有16层的参数需要训练
D VGG发表的第16代网络
A答错了,再接再厉哦
参考答案:C 我的答案:B
答案解析:
我们针对VGG16逬行具体分析发现,VGG16共包含:
13个卷积层(Convolutional Layer),分别用 conv3-XXX 表示
3个全连接层(Fully connected Layer),分别用FC- XXXX表示
5个池化层(Pool layer),分别用maxpool表示 其中,卷积层和全连接层具有权重系数,因此也被称 为权重层,总数目为13+3=16,这即是VGG16中16的 来源。(池化层不涉及权重,因此不属于权重层,不被 田A曰iSMi旦5E亜徐=甘1佑:的曰

随机练习
100.单选题
。收藏

数据类型
形状
C 存储地址
D 在计算图中的名称
A答错了,再接再厉哦

参考答案:C
我的答案:A

随机练习
105.多选题
降低“欠拟合”风险的方法()
o添加新特征
Q 增加模型复杂度
。 减小正则化系数
D 减少数据
■恭喜,答对了
参考答案:A,B,C 我的答案:A.B.C
题卡
随机练习
108.多选题
文本是一类非常重要的非结构化数据,如何表示文 本数据一直是机器学习领域的一个重要研究方向。 如今常用的文本数据表示方法有?()
Q 词袋模型(Bag of Words)
C TF-IDF (Term Frequency-Inverse Docume
〜nt Frequency)
Q 主题模型(Topic Model)
。 词嵌入模型(Word Embedding)
■恭喜,答对了
参考答案:A.B.C.D 我的答案:A.B.C.D

随机练习
109.单选题 。收藏
下列哪一种操作实现了和神经网络中Dropout类似的 效果?
9 Bagging
B Boosting
堆疊(Stacking)
D 以上都不正确

参考答案:A
■恭喜,答对了
我的答案:A

下午2:11。,丑
随机练习
110.多选题
针对不同的优化问题和应用场景,研究者们提岀了 多种不同的求解算法,并逐渐发展岀了有严格理论 支撑的硏究领域-凸优化。在这众多的算法中,有几 种经典的优化算法是值得被牢记的,了解它们的适 用场景有助于我们在面对新的优化问题时有求解思 路。以下属于优化算法的是()
9 直接法
O 迭代法
O 随机梯度下降法
O 批畐梯度下降法
■恭喜,答对了
参考答案:A,B,C,D 我的答案:A.B.C.D
随机练习
112.单选题 ☆收藏
你有一个15x15x8的输入,并使用“pad = 2“进行填 充,填充后的尺寸是多少?
A 17x17x10
B 19x19x8
19x19x12
❸ 17x17x8
A答错了,再接再厉哦
参考答案:B 我的答案:D
随机练习
112.单选题 ☆收藏
你有一个15x15x8的输入,并使用“pad = 2“进行填 充,填充后的尺寸是多少?
A 17x17x10
B 19x19x8
19x19x12
❸ 17x17x8
A答错了,再接再厉哦
参考答案:B 我的答案:D
随机练习
113.单选题
假设你已经建立了一个神经网络。您决定将权重和 偏差初始化为零。以下聯项陈述是正确的?
第一个隐藏层中的每个神经元节点将执行 相同的计算。所以即使经过多次梯度下降 迭代后,层中的每个神经元节点都会计算 岀与其他神经元节点相同的东西。
第一个隐藏层中的每个神经元将在第一次 迭代中执行相同的计算。但经过一次梯度 下降迭代后,他们将学会计算不同的东西, 因为我们已经•■破坏了对称性”。
第一个隐藏层中的每一个神经元都会计算 出相同的东西,但是不同层的神经元会计 算不同的东西,因此我们已经完成了"对称 破坏"。
即使在第一次迭代中,第一个隐藏层的神 经元也会执行不同的计算,他们的参数将 以自己的方式不断发展。
A答错了,再接再厉哦
参考答案:A
我的答案:B

随机练习

114.判断题
我们使用普通的网络结构来训练一个很深的网络, 要使得网络适应一个很复杂的功能(比如増加层 数),总会有更低的训练误差。
A答错了,再接再厉哦

115.多选题
宇宙,是时间和空间的总和。时间是一维的,而空间 的维度,众说纷纭,至今没有定论。弦理论说是9维, JC金所认同的M理论则认为是10维。机器学习中常 用的降维方法有()
Q PCA
线性判别分析
K均值聚类算法
Q ISOMAP
■恭喜,答对了
参考答案:A,B,C,D
我的答案:A,B,C,D
随机练习

116.单选题
下列哪个函数不可以做激活函数?
。收藏

V = tanh(x)
B y = sin(x)
y = max(x,O)
■恭喜,答对了
参考答案:D 我的答案:D
答案解析:
线性函数不能作为激活函数

< 随机练习
117.多选题 ☆收藏
在Logistic Regression中,如果同时加入L1和L2范数,会产 生什么效果()
— 可以做特征选择,并在一定程度上防止过拟
0合
O 能解决維度灾难问题
O 能加快计算速度
D 可以获得更准确的結果
■恭喜,答对了
参考答案:A.B.C 我的答案:A.B.C 答案解析:
L1范数具有系数解的特性,但是要注意的是,L1没有选 到的特征不代表不重要,原因是两个高相关性的特征可 能只保留一个。如果需要确定哪个特征車要,再通过交 叉塗证。它的优良性质是能产生稀疏性,导致W中许多 项变成零。稀恭的解除了计隽虽上的好处之外,更重要 的是更具有•可解释性”。所以能加快计算速度和缓解维 数灾难.所以8C正确.在代价函数后面加上正则项,L1即 是Losso回归,L2是岭回归。L1范数是指向量中各个元 素绝对值之和,用于特征选择。L2范数是指向星各元素 的平方和然后求平方根,用于防止过拟合,提升模型的 泛化能力。因此选择A。

<上一题
题卡
下一题〉

回 。^,ill QT)
随机练习
118.问答题 ☆收藏
为了进行超参数调优,我们一般会采用网格搜索、随 机搜索、贝叶斯优化等算法。简述以下网格搜索、随 机搜索和贝叶斯优化算法。
我的作答:
参考答案:
网格搜索通过查找搜索范围内的所有的点来确定最优值。随 机搜索的思想与网格搜索比较相似,只是不再测试上界和下 界之间的所有值,而是在搜索范围中随机选取样本点。网格 搜索和随机搜索在测试一个新点时,会忽略前一个点的信 息;而贝叶斯优化算法则充分利用了之前的信息。贝叶斯优 化算法通过对目标函数形状进行学习,找到使目标函数向全 局最优值提升的参数。
下午2:17 © g m 丑 涉回 %。。^.iii gd
< 随机练习
119.单选题 ☆收藏
您正在构建一个识别黄瓜(y = 1)与西瓜(y = 0)的 二元分类器。你会推荐哪一种激活函数用于输出 层?
O ReLU
B Leaky ReLU
sigmoid
D tanh
A答错了,再接再厉哦
参考答案:C 我的答案:A
下午2:18。。3丑 去回 %||。編II GD
< 随机练习
120.判断题 。收藏
梯度下降算法是最常用也是最有效的神经网络的优 化办法,完全可以满足不同类型的需求。()
O对
B 错
A答错了,再接再厉哦

参考答案:错
我的答案:对

< 随机练习
121.单选题
计II图中每个节点代表一个()
B 张*
C 会话
D 变量
■恭喜,答对了
参考答案:A
我的答案:A

< 随机练习
122.多选题
常用的池化层有哪些?
A AveragePooling
B Medianpooling
❸ MinPooling
MaxPooling
A答错了,再接再厉哦
参考答案:A,D 我的答案:C
< 随机练习
123.判断题 。收藏
为了构建一个非常深的网络,我们经常在卷积层使 用“valid”的填充,只使用池化层来缩小激活值的宛/ 高度,否则的话就会使得输入迅速的变小。
O对
B 错
A答错了,再接再厉哦
参考答案:错 我的答案:对
下午2:19。。3丑 去回 %||。3而GD
< 随机练习
125.单选题 ☆收藏
你有一个63x63x16的输入,并使用大小为7x7的32 个过滤器进行卷积,使用步幅为2和无填充,请问输 岀是多少?
。29x29x32
B 16x16x32
29x29x16
16x16x16
■恭喜,答对了
参考答案:A 我的答案:A
下午2:51 & i •& %ll。*||| 03
< 随机练习
阅读以下文字:
假设我们拥有一个已完成训练的、用来解决车辆检测问题的深 度神经网络模型,训练所用的数据集由汽车和卡车的照片构 成,而训练目标是检测岀每种车辆的名称(车辆共有10种类 型)。现在想要使用这个模型来解决另外一个冋题,冋题数据 集中仅包含一种车(福特野马)而目标变为定位车辆在照片中 的位置。
C 除去神经网络中的最后一层,冻结所有层
3 然后重新训练
对神经网络中的最后几层进行微调,同时 将最后一层(分类层)更改为回归层
c 使用新的数据集重新训练模型
D 所有答案均不对
A答错了,再接再厉哦

参考答案:B
我的答案:A

随机练习

131.问答题
简述下什么是生成对抗网络?
我的作答:
参考答案:
GAN之所以是对抗的,是因为GAN的内部是竞争关系,一方 叫generator,它的主要工作是生成图片,并且尽虽使得其看 上去是来自于训练样本的。另一方是discriminator,其目标 是判断输入图片是否属于真实训练样本。
随机练习
132.填空题 P收藏
RCNN算法的贡献 和
[参考答案]提高了目标检测的精度 提出分两阶段检 测图像中的目标
请输入答案
132.1
请输入答案
132.2
随机练习
134.多选题
在DCGAN中,生成器中使用的激活函数为()
Q ReLu
Tanh
LeakyReLu
sigmoid
A答错了,再接再厉哦
参考答案:A,B 我的答案:A,D
题卡
随机练习
136.多选题
R-CNN存下以下哪儿几个缺点?()
A 重复计算
B 采用了神经网络分类器
C 不统一
O 只能处理简单场景
A答错了,再接再厉哦
参考答案:A,C 我的答案:D

随机练习
137.判断题 。收藏
AlexNet网络模型的每个卷积层的后面都会接一个池 化层。()
O对
B 错
A答错了,再接再厉哦

随机练习
138.问答题
简述R-CNN、FastR-CNN和Faster R-CNN的区别。
我的作答:
参考答案:
RCNN
一是在图像中确定约1000-2000个候选框(使用选律性搜索 Selective Search)
二是每个候选框内图像块縮放至相同大小,并制入到CNN内 诳行特征提取
三是对候选框中提取岀的特征,使用分类器判别是否届于一 个特定类
四是对于属于某一类别的候选框,用回归器诳一步调箜其位 €
Fast R-CNN
一是在图像中魂定约1000-2000个候选框(使用选择性搜素 Selective Search)
二是对整张图片谕进CNN,得到feature map
三是找到每个候选框在feature map上的跌射patch,将此 patch作为每个候选框的卷枳特征翰入到SPP layer和之后的 层
四是对候选推中提取出的特征,使用分类器判别是否属于一 个特定类
五是对于属于県一类別的候选框,用回归器诳一步调整其位
Faster R-CNN
一是对整张图片谕诳CNN,得到feature map
二是卷积特征输入到RPN.得到候选框的特征信息 三是对候选框中提取出的特征,使用分类器判别是否風于一 个特定类
四是对于属于某一类别的候选框,用回归器诳一步调箜其位
区别:
RCNN结合候选区域提取和CNN特征提取,SVM分类,边界 框回归,目标检测精度mAP为53.3%; Fast R-CNNS岀
ROI Pooling,使用soflmax分类,目标检测精度mAP为 65.7%; Faster R-CNN使用RPN生成候选区域,目标检测精 度 mAP 为 67.0%.
题卡
随机练习
139.单选题 收藏
假设你需要调整超参数来最小化代价函 数(cost function),会使用下列哪项技 术?
A 穷举搜索
O 随机搜索
Bayesian 优化
D 都可以
A答错了,再接再厉哦

参考答案:D
我的答案:B

随机练习

。 YOLO, R-CNN系列,SSD
VGG, YOLO, SSD
ResNet, R-CNN系列,SSD
VGG, YOLO, R-CNN系列
■恭喜,答对了
参考答案:A
我的答案:A

随机练习

142.填空题
随着网络层级的不断増加,模型精度不断得到提升, 然而当网络层级増加到一定的数目以后, 和 迅速下降,导致卷积神经网络性能 的退化。
142.1
142.2
参考答案:
142.1:训练精度
142.2:测试精度
题卡

随机练习
143.多选题
下列哪个神经网络结构会发生权通共享?
卷积神经网络
。 循环神经网络
O 全连接神经网络
A答错了,再接再厉哦
参考答案:A,B 我的答案:B,C
随机练习
144.单选题 O收戮
已知:
-大脑是有很多个叫做神经元的东西构成,神经 网络是对大脑的简单的数学表达。
-每一个神经元都有输入、处理函数和输出。
•神经元组合起来形成了网络,可以拟合任何函 数。
-为了得到最佳的神经网络,我们用梯度下降方 法不断更新模型
给定上述关于神经网络的描述,什么情况下神经网 络模型被称为深度学习模型?
A 当这是一个图形识别的问题时
有维度更高的数据
加入更多层,使神经网络的深度增加
O 以上都不正确
A答错了,再接再厉哦
参考答案:C 我的答案:D
答案解析:
更多层意味若网络更深。没有严格的定义多少层的模 型才叫深度模型,目前如果有超过2层的隐层,那么 也可以及叫做深度模型。
<上一!2 题卡 下一题>
下午2:58 0 IL

随机练习

o非线性映射能力
Q 自学习和自适应能力
。 具有泛化能力
Q 具有容错能力
■恭喜,答对了

参考答案:A,B,C,D
我的答案:A,B,C,D

随机练习
如果用一个词来形容概率图模型(Probabilistic Gra phical Model)的话,那就是“优雅”。对于一个实际 问题,我们希望能餅挖掘隐含在数据中的知识。概率 图模型构建了这样一幅图,用观测结点表示观测到 的数据,用隐含结点表示潜在的知识,用边来描述知 识与数据的相互关系,最后基于这样的关系图获得 一个概率分布,非常“优雅”地解决了问题。概率图模 型主要分为什么()
A 贝叶斯网络(Bayesian Network)
。 马尔可夫网络(Markov Network)
O 深度神经网络(Deep Learning)
图网络(Graph Network)
A答错了,再接再厉哦
参考答案:A,B 我的答案:B,C
随机练习
148.单选题
计■图优化的哪种典型优化方法是主要针对GPU运鼻的?()
ConstFold
Arithmetic
Layout
Remapper
A答错了,再接再厉哦
参考答案:C 我的答案:A
随机练习
149.判断题 C?收藏
DenseNets缓解了梯度消失,加强了特征传播,增强了 特征复用,通过较少的通道数减少参数・o DenseNet 在减少计算■的同时取得了更好的性能并且不会消 耗大量的内存。()
A答错了,再接再厉哦

150.问答题
YOLO算法的优缺点是什么?
我的作答:
参考答案:
【优点】
第一:它非常的快。它可以每秒45帧的速度在GPU上运行, 其快速版本的速度可以超过150FPS。
第二:它是基于全局的图片进行类比预测。与基于渭动商口 (DPM)和候选区域提取(RNN)的技术不同,YOLO在训练 和测试期间会看到整个图像,因此它隐式地编码有关类及其 外观的上下文信息。更加准确。
第三:YOLO可以学习更加广泛的目标表示信息。在自然图 像(也就是实际的样子)上诳行训练后,在艺术图片(也就 是加了滤镜的样子)上进行测试时,YOLO在很大程度上优 于DPM和R-CNN等顶级检测方法。
【缺点】
第一:YOLO在准诵性方面仍落后于最新的检测系统。尽管 它可以快速识别图像中的对象,但仍难以精确定位某些物 体,尤其是一些小的物体。
第二:YOLO采用的误差函数并不合理。YOLO采用了平方和 函数作为误差函数,它非常易于优化,但无益于増大mAP。 它不合理在对定位误差和分类误差的权重相等。为了解决这 个问题,YOLO1S加了边界框坐标预测的损失权重,并滅少 了不包含对象的框的置信度预测的损失权重。
第三:YOLO限制了边界框预测的数量。每个网格单元仅预 测两个框,并且只能具有一个类。
下午2:59 t3 i •金
< 随机练习
151.41空题
RCNN通过算法 .生成候选区域。
151.1
参考答案:
151.1: selective search

模型的高bias是什么意思,我们如何降低它?
o在特征空间中减少特征
B 在特征空间中增加特征
C 增加数据点
D B和C
A答错了,再接再厉哦
参考答案:B 我的答案:A
答案解析:
bias太高说明模型太简单了,数据维数不够,无法准确预 测数据,所以应该升维。

Hopfield 网络结构上,Hopfield神经网络是一种单层互相全连接的反馈型神经网络。

图日一

16.7 46
Q) 971多5∶59 。。
O
D2 K/s 。
随机练习
1.多选题☆收藏
如下缓减"过拟合"方式,你认为正确的有哪些?()
从数据入手,获得更多的训练数据
降低模型复杂度
集成学习方法
正则化方法
恭喜,答对了
我的答案∶A,B,C,D
参考答案∶A,B,C,D
)手
题卡
<上一题下一题

图日一6.3 学一完。
级) 97i多5∶59 ●
O
D2 K/s o
随机练习
2.单选题取消收藏
假设你的输入是300×300彩色(RGB)图像,并且你使用卷积层和100个过滤器,每个过滤器都是5×5的大小,请问这个隐藏层有多少个参数(包括偏置参数)?

2501
B
2600

7500
D
7600
答错了,再接再厉哦、
我的答案∶C 参考答案∶D
)
题卡
<上一题下一题

图日一19.7 46 2,
①N97i多5∶59 。。

ED2 K/s ●U[
随机练习
取消收藏
3. 单选题
增加卷积核的大小对于改进卷积神经网络的效果是必要的吗?
A
没听说过
B
不知道


D

▲ 答错了,再接再厉哦
我的答案∶C
参考答案∶D
)
答案解析∶
增加核函数的大小不一定会提高性能。这个问题在很大程度上取决于数据集。
题卡
<上一题下一题

图曰一
15
,,。哑
)7i乡5∶59 9
O
图回
·U
长/c
随机练习

4.单选题收藏
已知∶
-大脑是有很多个叫做神经元的东西构成,神经网络是对大脑的简单的数学表达。
-每一个神经元都有输入、处理函数和输出。
-神经元组合起来形成了网络,可以拟合任何函数。
-为了得到最佳的神经网络,我们用梯度下降方法不断更新模型
给定上述关于神经网络的描述,什么情况下神经网络模型被称为深度学习模型?
A
当这是一个图形识别的问题时
B
有维度更高的数据
加入更多层,使神经网络的深度增加

以上都不正确
题卡
<上一题下一题

BDAGALLELING ◎Q八 97 15∶59
M
HD2
随机练习
V
5.多选题取消收藏
L
R-CNN存下以下哪儿几个缺点( )
重复计算
采用了神经网络分类器
不统一
只能处理简单场景
100
A 答错了,再接再厉哦
我的答案A,B
参考答案∶A,C
<上一题题卡
下一题 >

图日一
鲫。46
) 【7i年 5∶59 念化
O
ED2
·UU
随机练习

6.问答题取消收藏
假设img是一个(32,32,3)数组,具有3个颜色通道∶红色、绿色和蓝色的32x32像素的图像。 如何使用torch框架使用python语言将其重新转换为列向量?
我的作答∶v和你分担
参考答案∶
torch.reshape(img,[-1,1)
题卡
<上一题下一题

图日一
4。●46
Q) [971$6:00 念化

ED2
●U
随机练习
7. 判断题收藏
tanh激活函数通常比隐藏层单元的sigmoid激活函数效果更好,因为其输出的平均值更接近于零,因此它将数据集中在下一层是更好的选择,请问正确吗?

错B
恭喜,答对了
我的答案∶对参考答案∶对
题卡
<上一题下一题

图日一3.5 字46
级) 97i多6∶00
O 。。D2 K/s o
随机练习
8. 填空题收藏
人工神经网络层数增多后通常会遇到

等问题。‘
梯度下降
8.1
过拟合8.2
参考答案∶8.1∶ 梯度爆炸8.2∶ 梯度消失
题卡
<上一题下一题

图日一2.4 4G 纭
196::01 ,。98]Q 么
ED 2 K/s ●U
随机练习
第一个隐藏层中的每个神经元节点将执行相同的计算。 所以即使经过多次“
梯度下降迭代后,层中的每个神经元节点都会计算出与其他神经元节点相同的东西。
第一个隐藏层中的每个神经元将在第一次迭代中执行相同的计算。 但经过B
一次梯度下降迭代后,他们将学会计算不同的东西,因为我们已经"破坏了对称性"。
第一个隐藏层中的每一个神经元都会计算出相同的东西,但是不同层的神O
经元会计算不同的东西因此我们已经完成了"对称破坏"。
即使在第一次迭代中,第一个隐藏层图
的神经元也会执行不同的计算, 他们的参数将以自己的方式不断发展。
▲ 答错了,再接再厉哦
我的答案∶D
参考答案∶A
题卡
<上一题下一题

图日一5.1 46 纭
车6∶02 ,门。[98 Q)Q)A
ED2 K/s oU
随机练习

11.多选题下收藏
在人工神经网络的loss优化中跳出局部最小值的有()
A
随机梯度下降法
B
模拟退火算法
C
遗传算法

梯度下降法
答错了,再接再厉哦:
我的答案∶D
参考答案∶A,B,C
题卡
<上一题下一题

图日一
鲫。46
]6:02 念化
98](0)O)A
ED2
oUU
随机练习

不知道
参考答案∶
【优点】
第一∶它非常的快。它可以每秒45帧的速度在GPU上运行,其快速版本的速度可以超过150FPS。第二∶它是基于全局的图片进行类比预测。与基于滑动窗口(DPM)和候选区域提取(RNN)的技术不同,YOLO在训练和测试期间会看到整个图像,因此它隐式地编码有关类及其外观的上下文信息。更加准确。
第三∶YOLO可以学习更加广泛的目标表示信息。在自然图像(也就是实际的样子)上进行训练后,在艺术图片(也就是加了滤镜的样子)上进行测试时,YOLO 在很大程度上优于DPM和R-CNN等顶级检测方法。【缺点】
第一∶YOLO在准确性方面仍落后于最新的检测系统。尽管它可以快速识别图像中的对象,但仍难以精确定位某些物体,尤其是一些小的物体。
第二∶YOLO采用的误差函数并不合理。YOLO采用了平方和函数作为误差函数,它非常易于优化,但无益于增大mAP。它不合理在对定位误差和分类误差的权重相等。为了解决这个问题,YOLO增加了边界框坐标预测的损失权重,并减少了不包含对象的框的置信度预测的损失权重。
第三∶YOLO限制了边界框预测的数量。每个网格单元仅预测两个框,并且只能具有一个类。
题卡
<上一题下一题

图日一3.7 字46
16:03 [99]
A●
Q)
剑习ED2 K/s olU
随机练习
☆收藏
15.单选题
假设你的输入是一个300×300的彩色(RGB)图像,而你没有使用卷积神经网络。 如果第一个隐藏层有100个神经元,每个神经元与输入层进行全连接,那么这个隐藏层有多少个参数(包括偏置参数)?
d
9,000,001
B
9,000,100
27,000,001 C
27,000,100
恭喜,答对了
我的答案∶D
参考答案∶D
):
题卡
<上一题下一题

图日一
鲫。46
Ji多6∶04 99 念化
O)
剑习D2
●1
随机练习
收藏
16.单选题
你有一个63x63x16的输入,并使用大小为7x7 的32个过滤器进行卷积,使用步幅为2和无填充,请问输出是多少?
A
29x29x32

16x16x32
29x29x16 。
D
16x16x16
▲ 答错了,再接再厉哦
我的答案∶B
参考答案∶A
题卡
<上一题下一题

图日一

3.8 46
多6∶04 99
。。
O
剑习ED2 K/s ●Ul
随机练习
☆收藏
17.判断题
梯度下降法能够获得人工神经网络的最优参数。()


B 错
A 答错了,再接再厉哦
我的答案∶对参考答案∶错
题卡
<上一题下一题

ED04 6.3 字46
]46:05 [99]

Q)
剑习ED2 K/s oll
随机练习
☆ 收藏
18.多选题
机器学习中L1正则化和L2正则化的区别是?
d
使用L1可以得到稀疏的权值
B
使用L1可以得到平滑的权值

使用L2可以得到稀疏的权值
D
使用L2可以得到平滑的权值
▲ 答错了,再接再厉哦
参考答案∶A,D 我的答案∶C .
答案解析∶
L1正则化偏向于稀疏,它会自动进行特征选择,去掉一些没用的特征,也就是将这些特征对应的权重置为0.
L2主要功能是为了防止过拟合,当要求参数越小时,说明模型越简单,而模型越简单则,越趋向于平滑,从而防止过拟合。
题卡
<上一题下一题

ED04 840 学46
1乡6∶05 99
。。

剑习B/s
EDa

随机练习
收藏
19.判断题
池化层可以非常有效地缩小参数矩阵的尺寸,从而减少后面的卷积层或者全连接层中的参数数量。

B 错
恭喜,答对了
我的答案∶对参考答案∶对

题卡
<上一题下一题

图日一2.4 4G 纭
196:05 99
学A
剑习K/S
ED 2
●UU
随机练习
收藏
20.判断题
深度学习与机器学习算法之间的区别在于,后者过程中无需进行特征提取工作,也就是说,我们建议在进行深度学习过程之前要首先完成特征提取的工作。


B 错
答错了,再接再厉哦“
我的答案∶对参考答案∶错
i
答案解析∶
正好相反,深度学习可以自行完成特征提取过程而机器学习需要人工来处理特征内容。
题卡
<上一题下一题

ED0 2.4 4G 纭
1乡6∶05 99]
净羽
剑习K/s
ED2
●UJ
随机练习
食收藏
21.填空题
一个5x5卷积核需要个参数,两个3x3 个参数。
的卷积核需要


【参考答案】25 18
请输入答案
21.1
请输入答案
21.2
题卡
<上一题下一题

图日一1.3 学46
C) I001$6:06 学部K/S
ED2
·UU
随机练习
收藏
22.单选题
在感知机中(Perceptron)的任务顺序是什么?1随机初始化感知机的权重2去到数据集的下一批(batch)3如果预测值和输出不一致,则调整权重4对一个输入样本,计算输出值
A
1,2,3,4
B
4,3,2,1
1,4,3,2
D
3,1,2,4
恭喜,答对了
我的答案∶C
参考答案∶C
题卡
<上一题下一题

图日一3. 学46
编N10O1多6∶06 学初人K/s
D2
●1
随机练习
食收藏
23.单选题
对于一个图像识别问题(在一张照片里找出一只猫),,下面哪种神经网络可以更好地解决这个问题?

循环神经网络
B
感知机
C
多层感知机
卷积神经网络
恭喜,答对了
我的答案∶D
参考答案∶D
)手
答案解析∶∶
卷积神经网络将更好地适用于图像相关问题,因为考虑到图像附近位置变化的固有性质。
题卡
<上一题下一题

图日一2.6 4G
Qi OO1$6:06 纭
学人K/s
ED 2
●U
随机练习
收藏
24.多选题
关于梯度下降法叙述正确的有?
梯度方向是使得函数值下降最快的方<

梯度下降方法迭代时将沿着负梯度方B
向进行更新
精度下降方法迭代时将沿着梯度方向密
进行更新
梯度方向是使得函数值上升降最快的D
方向
答错了,再接再厉哦。
我的答案∶C
参考答案∶B,D
,
答案解析∶
梯度是一个向量,目标函数在具体某点沿着梯度的相反方向下降最快,一个形象的比喻是想象你下山的时候,只能走一步下山最快的方向
题卡
<上一题下一题

图日
沿。4G
级N 【001多6∶07 染
学钢图回
o
随机练习

25.多选题食收藏
针对不同的优化问题和应用场景,研究者们提出了多种不同的求解算法,并逐渐发展出了有严格理论支撑的研究领域一凸优化。在这众多的算法中,有几种经典的优化算法是值得被牢记的,了解它们的适用场景有助于我们在面对新的优化问题时有求解思路。以下属于优化算法的是()
直接法
迭代法
随机梯度下降法
批量梯度下降法
恭喜,答对了
我的答案∶ A,B,C,D 参考答案∶A,B,C,D
):
题卡
<上一题下一题

BDD Gall Plicall 816 49 MAN WO QQQQ00156:07
1
HD 2
随机练习
V
☆收藏
26.多选题
属于重要的人工神经网络包括()
感知器神经网络(Perceptron Neura A
I Network)
反向传递(Back Propagation)
X
Hopfield网络
循环神经网络(RNN)D
A 答错了,再接再厉哦
我的答案B
参考答案∶A,C,D
100
题卡
<上一题下一题 >

图日一.9 字46
级) 001多6∶07 学羽K/sS
ED2
●lU
随机练习
27.多选题育收藏
降低"欠拟合"风险的方法( ))

添加新特征
增加模型复杂度
减小正则化系数

减少数据
▲ 答错了,再接再厉哦
我的答案∶B,C,D 参考答案∶A,B,C
题卡
<上一题下一题

图日一,
16.8 46
级) 0O1乡6∶08
学K/s
D2
o1
随机练习
☆收藏
28.单选题
下列哪一项在神经网络中引入了非线性?
A
随机梯度下降
修正线性单元(ReLU)
卷积函数C
D
以上都不正确
恭喜,答对了
我的答案∶B
参考答案∶B
B
题卡
<上一题下一题

ED0 部4G 纭
) 001多6∶08 学初人D2

随机练习
食收藏
29.判断题
Faster RCNN算法由于RPN生成候选区域耗费大量时间,所以该算法仍然不能做到实时检测,RPN会生成大量的候选区域,模型对每个区域会进行分类和回归,存在大量冗余计算。()

B 错
恭喜,答对了
我的答案∶对参考答案∶对
题卡
<上一题下一题

图日1.8 学46
) 001乡6∶08 学唱K/s
D2
o
随机练习
收藏
30.填空题
生成对抗网络中需要分别优化的两部分分别为
挡,,。
不知道30.1
不知道30.2
参考答案∶30.1∶生成器(G)30.2∶判别器(D)
题卡
<上一题下一题

图日一4.5 , 46
Ci 001$6::08 学A K/s
ED 2
●U
随机练习
收藏
31.多选题
文本是一类非常重要的非结构化数据,如何表示文本数据一直是机器学习领域的一个重要研究方向。如今常用的文本数据表示方法有? (、
词袋模型(Bag of Words)
TF-IDF(Term Frequency-Inverse D ocument Frequency)
主题模型(Topic Model)
词嵌入模型(Word Embedding)
恭喜,答对了
我的答案∶A,B,C,D 参考答案∶A,B,C,D
)
题卡
<上一题下一题

图日一3.5 学一完。
级i 001$6∶08 学人K/S
ED 2
●U
随机练习
32.问答题收藏
常见的监督学习算法有哪些?
我的作答∶不知道
参考答案∶
感知机、svm、人工神经网络、决策树、逻辑回归
题卡
<上一题下一题


图日
46 岛
) 001乡6∶09 学羽人D2
o
随机练习
收藏
33.填空题
VGG模型的常用架构是VGG16(数字"16"代表网络有16个—)。
卷积33.1
参考答案∶33.1∶ 权重层
题卡
<上一题下一题

图日一3.4 E. 46
C) 10O1年6∶09 学唱 是K/s
D2
●1
随机练习
☆收藏
34.单选题
在一个神经网络里,知道每一个神经元的权重和偏差是最重要的一步。如果以某种方法知道了神经元准确的权重和偏差,你就可以近似任何函数。实现这个最佳的办法是什么?
随机赋值,祈祷它们是正确的d
搜索所有权重和偏差的组合,B
直到得到最佳值
赋予一个初始值,通过检查跟最佳值的差值,然后迭代更新权重
以上都不正确D
恭喜,答对了
我的答案∶C
参考答案∶C
题卡
<上一题下一题

ED0 5.8 学一完。
级i 001多6∶09 学唱 人K/S
ED 2
●U
随机练习
收藏
35.问答题
常见的分类算法有哪些?
我的作答∶二分类
参考答案∶
SVM、神经网络、随机森林、逻辑回归、KNN、贝叶斯
题卡
<上一题下一题

图日深。4G
学 ■
QN10Oi6:10 溶ED 2
●U
随机练习
参考答案∶
RCNN
一是在图像中确定约1000-2000个候选框(使用选择性搜索Selective Search)
二是每个候选框内图像块缩放至相同大小,并输入到CNN内进行特征提取
三是对候选框中提取出的特征,使用分类器判别是否属于一个特定类
四是对于属于某一类别的候选框,用回归器进一步调整其位置Fast R-CNN
一是在图像中确定约1000-2000个候选框使用选择性搜索Selective Search)
二是对整张图片输进CNN,得到feature map 三是找到每个候选框在feature map上的映射patch,将此patch作为每个候选框的卷积特征输入到SPP layer和之后的层
四是对候选框中提取出的特征,使用分类器判别是否属于一个特定类
五是对于属于某一类别的候选框,用回归器进一步调整其位置Faster R-CNN
一是对整张图片输进CNN,得到feature map 二是卷积特征输入到RPN,得到候选框的特征信息三是对候选框中提取出的特征,使用分类器判别是否属于一个特定类
四是对于属于某一类别的候选框,用回归器进一步调整其位置区别∶
R-CNN结合候选区域提取和CNN特征提取,SVM分类,边界框回归,目标检测精度mAP为53.3%;Fast R-CNN提出ROI Pooling,使用softmax分类,目标检测精度mAP为65.7%;Faster R-CNN使用RPN生成候选区域,目标检测精度mAP为67.0%。
题卡
<上一题下一题

3.6
图日一
吕三46
C) [0O1 6:10 净唱K/s
,夕
D2
。三
随机练习

36.问答题下收藏
简述R-CNN、FastR-CNN和Faster R-CNN的区别。
我的作答∶不知道
参考答案∶
RCNN
一是在图像中确定约1000-2000个候选框(使用选择性搜索Selective Search)
二是每个候选框内图像块缩放至相同大小,并输入到CNN内进行特征提取
三是对候选框中提取出的特征,使用分类器判别是否属于一个特定类
四是对于属于某一类别的候选框,用回归器进一步调整其位置Fast R-CNN
一是在图像中确定约1000-2000个候选框使用选择性搜索Selective Search)
二是对整张图片输进CNN,得到feature map 三是找到每个候选框在feature map上的映射patch,,将此patch作为每个候选框的卷积特征输入到CPPlaver和之后的E
题卡
<上一题下一题


图日
4G 岛
学留 量
QN0Oi 6:10 ED2
●U[
随机练习
收藏
37.问答题
为了进行超参数调优,我们一般会采用网格搜索、随机搜索、贝叶斯优化等算法。简述以下网格搜索、随机搜索和贝叶斯优化算法。
我的作答∶不知道
参考答案∶
网格搜索通过查找搜索范围内的所有的点来确定最优值。随机搜索的思想与网格搜索比较相似,只是不再测试上界和下界之间的所有值,而是在搜索范围中随机选取样本点。网格搜索和随机搜索在测试一个新点时,会忽略前一个点的信息;而贝叶斯优化算法则充分利用了之前的信息。贝叶斯优化算法通过对目标函数形状进行学习,找到使目标函数向全局最优值提升的参数。
题卡
<上一题下一题

图日一1.6 4G 溶
QN10O1 6:10 净羽KJS
ED 2

olU
随机练习
收藏
38. 问答题
一个激活函数需要具有哪些必要的属性?还有哪些属性是好的属性但不必要的?
我的作答∶
o
参考答案∶
1.非线性∶即导数不是常数。这个条件前面很多答主都提到了,是多层神经网络的基础,保证多层网络不退化成单层线性网络。这也是激活函数的意义所在。
2.几乎处处可微∶可微性保证了在优化中梯度的可计算性。传统的激活函数如sigmoid等满足处处可微。对于分段线性函数比如ReLU,只满足几乎处处可微(即仅在有限个点处不可微)。对于SGD算法来说,由于几乎不可能收敛到梯度接近零的位置,有限的不可微点对于优化结果不会有很大影响【1】。
3.计算简单∶正如题主所说,非线性函数有很多。极
题卡
<上一题下一题


图日
学46
净留
QN0Oi 6:10
,夕
ED2
。三
随机练习

点对于优化结果不会有很大影响【1】。
3.计算简单∶正如题主所说,非线性函数有很多。极端的说,一个多层神经网络也可以作为一个非线性函数,类似于NetworkIn Network【2】中把它当做卷积操作的做法。但激活函数在神经网络前向的计算次数与神经元的个数成正比,因此简单的非线性函数自然更适合用作激活函数。这也是ReLU之流比其它使用Exp

锐单商城拥有海量元器件数据手册IC替代型号,打造电子元器件IC百科大全!

相关文章