神经网络

From Ufldl

Jump to: navigation, search
(中英文对照)
Line 67: Line 67:
\end{align}</math>  
\end{align}</math>  
-
我们将上面的计算步骤叫作'''正向传播'''。回想一下,之前我们用 <math>\textstyle a^{(1)} = x</math>  表示输入层的激活值,那么给定第 <math>\textstyle l</math> 层的激活值 <math>\textstyle a^{(l)}</math> 后,第 <math>\textstyle l+1</math> 层的激活值 <math>\textstyle a^{(l+1)}</math> 就可以按照下面步骤计算得到:
+
我们将上面的计算步骤叫作'''前向传播'''。回想一下,之前我们用 <math>\textstyle a^{(1)} = x</math>  表示输入层的激活值,那么给定第 <math>\textstyle l</math> 层的激活值 <math>\textstyle a^{(l)}</math> 后,第 <math>\textstyle l+1</math> 层的激活值 <math>\textstyle a^{(l+1)}</math> 就可以按照下面步骤计算得到:
:<math> \begin{align}
:<math> \begin{align}
Line 78: Line 78:
-
目前为止,我们讨论了一种神经网络,我们也可以构建另一种'''结构'''的神经网络(这里结构指的是神经元之间的联接模式),也就是包含多个隐藏层的神经网络。最常见的一个例子是 <math>\textstyle  n_l</math> 层的神经网络,第 <math>\textstyle  1</math> 层是输入层,第 <math>\textstyle  n_l</math> 层是输出层,中间的每个层 <math>\textstyle  l</math> 与层 <math>\textstyle  l+1</math> 紧密相联。这种模式下,要计算神经网络的输出结果,我们可以按照之前描述的等式,按部就班,进行正向传播,逐一计算第 <math>\textstyle  L_2</math> 层的所有激活值,然后是第 <math>\textstyle  L_3</math> 层的激活值,以此类推,直到第 <math>\textstyle  L_{n_l}</math> 层。这是一个'''前馈'''神经网络的例子,因为这种联接图没有闭环或回路。
+
目前为止,我们讨论了一种神经网络,我们也可以构建另一种'''结构'''的神经网络(这里结构指的是神经元之间的联接模式),也就是包含多个隐藏层的神经网络。最常见的一个例子是 <math>\textstyle  n_l</math> 层的神经网络,第 <math>\textstyle  1</math> 层是输入层,第 <math>\textstyle  n_l</math> 层是输出层,中间的每个层 <math>\textstyle  l</math> 与层 <math>\textstyle  l+1</math> 紧密相联。这种模式下,要计算神经网络的输出结果,我们可以按照之前描述的等式,按部就班,进行前向传播,逐一计算第 <math>\textstyle  L_2</math> 层的所有激活值,然后是第 <math>\textstyle  L_3</math> 层的激活值,以此类推,直到第 <math>\textstyle  L_{n_l}</math> 层。这是一个'''前馈'''神经网络的例子,因为这种联接图没有闭环或回路。

Revision as of 14:49, 14 March 2013

Personal tools