术语/词组 | 解释 |
|---|---|
Connectionism | 联结主义:一种认为智能行为源于大量简单单元(如神经元)相互连接并协同工作的哲学思想。这是深度学习的基础。 |
Activation values | 激活值:神经元经过激活函数处理后的输出值,表示该神经元的“活跃程度”。 |
Gradient values | 梯度值:在训练过程中,损失函数相对于每个参数的导数(或偏导数),指示了参数应调整的方向和幅度。 |
Parameters | 参数:模型中需要从数据中学习的值,通常指权重(weights) 和偏置(biases)。 |
Supervised convolutional networks | 监督式卷积网络:一种专用于处理网格状数据(如图像)的神经网络,其训练需要带标签的数据(监督学习)。 |
Fully connected neural network | 全连接神经网络:一种相邻层之间每个神经元都相互连接的经典神经网络结构。 |
CPU (Central Processing Unit) | 中央处理器:计算机的核心通用处理单元,擅长处理复杂的串行任务和逻辑分支。 |
GPU (Graphics Processing Unit) | 图形处理器:专为处理图形和图像而设计的处理器,具有高并行度和高内存带宽的特点,非常适合神经网络计算。 |
GP-GPU (General-Purpose GPU) | 通用图形处理器:指可以执行通用计算(而不仅仅是图形渲染)的GPU,是深度学习发展的关键硬件。 |
CUDA | 由NVIDIA推出的并行计算平台和编程模型,允许开发者使用C/C++等语言在GPU上编写通用计算程序。 |
Memory bandwidth | 内存带宽:衡量硬件(如CPU/GPU)与内存之间数据传输速率的指标,是大型神经网络训练的关键瓶颈之一。 |
Fixed-point arithmetic | 定点算法:一种使用整数表示实数的方法,计算速度快但数值范围和精度有限。 |
Floating-point arithmetic | 浮点算法:一种用科学计数法表示实数的方法,数值范围和精度高,是科学计算的标准,但计算通常比定点更慢。 |
Vector instructions | 向量指令:一种单条指令可以处理多个数据元素的指令集(SIMD),能显著提高数值计算效率。 |
Cache misses | 缓存未命中:当CPU需要的数据不在高速缓存中,而必须从更慢的主内存中获取时发生的情况,会降低性能。 |
Branching | 分支:程序中的条件语句(如if-else),GPU不擅长处理复杂的分支逻辑。 |
Input features | 输入特征:输入到模型中的单个可测量属性或变量。在图像中,每个像素就是一个特征。 |
Vocabulary | 词汇表:在自然语言处理任务中,模型所能识别和使用的所有单词的集合。 |