人工智能/神经网络/自然神经网络
自然神经网络与神经网络的分布式处理模拟之间的主要区别在于,该模型试图捕捉真实神经元和真实神经元自然排列的功能。从早期感知器中使用的赫布模型到现代神经模型,这些模型试图捕捉在同一细胞内实现不同形式记忆的生化线程,这一直以来都是寻找一个合理的神经元模型,并从该模型的实现中学习自然神经系统如何工作。这是一条漫长而艰难的道路,尽管神经网络在人工智能领域中获得了声望,也失去了声望,但神经科学家不得不一次又一次地回到神经网络模型,因为这是学习关于自然神经元网络的最合乎道德的方法。
与其他形式的神经科学不同,神经模型不会杀死动物以获取它们的神经元,也不会折磨动物以观察它们的反应,它们甚至不涉及真实的动物,而是通过使它们流经计算机电路来折磨可回收的电子。这些电子甚至看不见,而且由于电子被认为不是活的,所以没有伦理上的担忧,除了可能使用电力,但建模不是对电流量的严重使用,因为计算机效率很高。简而言之,折磨电子几乎没有任何伦理上的错误。
然后问题就变成了,什么是以下方面的最佳模型
- 神经元
- 网络
- 学习算法
神经元模型可以以多种方式分类
例如,一些神经元模型具有二元输出,只有少数具有整数输出,大多数具有浮点输出。一些神经元具有所谓的尖峰神经输出。有些神经元在其输入方面具有线性输出,而有些神经元具有非线性或动态输出。
另一个例子是输出计算公式,一些神经元模型具有简单的突触积分,一些神经元模型具有二阶计算,而一些神经元模型根本没有突触。然后是范围函数,它将输入值映射到输出值,根据被建模的神经元类型,可以有多种形状,等等。
还有许多其他额外的复杂因素,例如习惯、不同类型的突触,这些突触可以影响细胞的操作方式,超出基本的抑制突触和兴奋性突触。然后是树突复杂度将被纳入神经元模型还是外部化为网络模型的问题。
然后是学习算法是神经元模型的一部分还是网络模型的一部分的问题。如果学习算法在神经元内部,则没有意义使用反向传播网络。
网络模型包括
前馈模型,其中每一层依次馈送下一层 反馈模型,其中至少一部分后续层的输出被馈送回前一层 循环模型,即使是相同的神经元也可以被馈送回自身
反向传播,其中“误差”信号从后续层馈送回以“训练”前一层。
隐藏层模型,被认为是对马文·明斯基的奉承,是一种扩展神经网络动态性的方法,而无需重新设计模型。本质上,它们在“隐藏层”中捕获树突质量的复杂性,因为树突的分支在数学上与胞体相同,只是输出条件和放电阈值不同。
最初,网络在设计上是静态的,但随着时间的推移,有必要对可以生长新的连接并修剪现有连接以去除多余连接的网络进行建模。
最初的学习规则是基于突触使用越多越强,使用越少越弱的理念。
该学习规则的一个变体是 Delta 规则,它提高了学习速度,并对必须在多层网络中反向传播的“误差”信号做出反应。由于其过学习的趋势,Delta 规则网络只能在监督模式下学习。
最新的细胞学习规则是双规则系统,它涉及一个突触前规则和一个突触后规则,它们在神经元本身内运行。由于它不需要反向传播,它可以保持平衡,无需过学习,因此可以用于无监督学习。
然而,为了补充这条规则,我们必须考虑到神经系统的新模型包含并行运行的学习线程,并实现短期、长期,甚至可能是中期记忆。由于细胞长期记忆的某些模型需要物理连接,因此对这些连接生长的建模成为该模型的一部分。
神经元从不单独存在。事实上,小规模的神经元网络连接到更大的神经元网络,形成贯穿整个身体的网络,其中心在身体的多个中心处理特定类型的信息。这些中心之一是大脑,它将数十亿个神经元连接在一起,形成一个非常复杂的网络,我们现在才开始设想对其进行建模。
如果我们要处理像大脑一样复杂的系统,我们需要新的神经网络模型,这些模型可以捕捉神经元结构的多样性,可以解释不同类型神经元群的功能,并解释为什么一些相似的神经元表现得好像它们是一个单一的实体,其中只有一个或两个神经元为整个群体放电。
对自然神经元网络进行建模的神经网络正在卷土重来,仅仅是因为我们对神经科学的理解正在随着新工具的出现而扩展,这些工具使我们比以往任何时候都更接近于了解神经元在做什么。随着我们努力理解大脑,我们有可能想象在未来 20 年内能够建造一台有意识的机器。