微调多层自编码算法
From Ufldl
Line 45: | Line 45: | ||
注:我们可以认为输出层softmax分类器是附加上的一层,但是其求导过程需要单独处理。具体地说,网络“最后一层”的特征会进入softmax分类器。所以,第二步中的导数由 <math>\delta^{(n_l)} = - (\nabla_{a^{n_l}}J) \bullet f'(z^{(n_l)})</math> 计算,其中 <math>\nabla J = \theta^T(I-P)</math>。 | 注:我们可以认为输出层softmax分类器是附加上的一层,但是其求导过程需要单独处理。具体地说,网络“最后一层”的特征会进入softmax分类器。所以,第二步中的导数由 <math>\delta^{(n_l)} = - (\nabla_{a^{n_l}}J) \bullet f'(z^{(n_l)})</math> 计算,其中 <math>\nabla J = \theta^T(I-P)</math>。 | ||
}} | }} | ||
+ | |||
+ | |||
+ | {{CNN}} | ||
==中英文对照== | ==中英文对照== | ||
- | |||
- | + | :栈式自编码神经网络(可以考虑翻译为“多层自动编码机”或“多层自动编码神经网络”) Stacked autoencoder | |
- | + | :微调 Fine tuning | |
- | + | :反向传播算法 Backpropagation Algorithm | |
- | + | :前馈传递 feedforward pass | |
+ | :激活值 (可以考虑翻译为“激励响应”或“响应”) activation | ||
==中文译者== | ==中文译者== | ||
- | + | ||
+ | 崔巍(watsoncui@gmail.com), 余凯(kai.yu.cool@gmail.com), 许利杰(csxulijie@gmail.com) |