《神经网络与深度学习》读后感2200字
书名:神经网络与深度学习
类型:计算机专业书
作者简介:吴岸城,2004年毕业于浙江大学计算机系。2008年创建易元堂周易预测服务交易平台,2016年06月出版<神经网络与深度学习>,2017年07月出版<深度学习算法实践>,目前就职于亚信科技。
本书是一本人工智能领域入门级的书籍,主要内容包括以下几个部分:
1. 人工智能的发展历史:三次人工智能浪潮的前因后果,以及这三次浪潮中的弄潮儿。
2. 神经网络及深度学习领域常见的算法,以及这些算法的使用。
3. 决策树、感知机、神经网络、深度学习的区别与联系。
如果想要对人工智能领域有一个快速、全面的了解到话,那么本书是极力推荐的。
本书并没有详尽的解释各种人工智能算法的原理及推理论证过程,如果想要学习人工智能领域具体的算法的话,那么本书是不合适的。
下面对人工智能的概念做一个简单的科普。
概念:
1. 决策树:是一个预测模型;它代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表某个可能的属性值,每个叶节点对应从根节点到该叶节点所经历的路径所表示的对象的值。
2. 感知机:它被视为是一种最简单的前馈神经网络,是一种二元线性分类器。
3. 神经网络,是机器学习的一个分支,学名应该叫人工神经网络,与之相对应的是生物神经网络(Biological Neural Networks, BNN),我们将模拟生物神经网络的数学模型统称为人工神经网络模型,简称人工神经网络或者神经网络。
4. 前馈神经网络:最简单的人工神经网络类型。在它的内部,参数从输入层向输出层单向传播。
5. 特征:本书中指将现实生活中的事物的部分特点提取并抽象出一种数学或物理模型。
6. BP算法(反向传播算法):是一种监督学习算法,常被用来训练多层感知机,利用反向传播原理修正权值。
7. RBM(限制波兹曼机):是一种可通过输入数据集学习概率分布的随机生成神经网络。
8. DBN(深度信度网络):通过自底向上组合多个RBM可以构建一个DBN,利用非监督贪心逐层训练算法,解决深层结构相关的优化问题。
9. CNN(卷积神经网络/ConvNets):是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。
10. SVM(支持向量机):监督学习方法,属于一般化线性分类器。这种分类器的特点是它们能够同时最小化经验误差与最大化几何边缘区,因此支持向量机也被称为最大边缘区分类器。
11. K-Means:把n个点(可以是样本的一次观察或一个实例)划分到k个聚类中,使得每个点都属于离它最近的均值(此即聚类中心)对应的聚类。
人工智能派别:
主流观点分成了两派:
1. 一派认为实现人工智能必须用逻辑和符号系统,这一派是自顶向下的。
2. 还有一派认为通过仿造大脑可以达到人工智能,这一派是自底向上的,他们认定如果能造一台机器,模拟大脑中的神经网络,这台机器就有智能。
各路大神及人工智能简史:
1. 1943年,传奇人物麦卡洛可(McCulloch)和皮茨(Pitts)发表了模拟神经网络的原创文章。
2. 控制论的始作俑者诺伯特·维纳。
3. 得到维纳真传的人不多,迈克尔·阿比卜(Michael Arbib)是其中之一,他是MIT计算机系的创始人之一。
4. 乔丹,吴恩达导师。
5. 唐纳德·赫布(Donald Olding Hebb)是加拿大心理学家,在神经心理学领域有重要贡献,他的研究方向是神经元在心理过程中的作用。
6. 弗兰克·罗森布拉特(Frank Rosenblatt),康奈尔大学的实验心理学家,在一台IBM-704计算机上模拟实现了一种他发明的叫作“感知机”(Perceptron)的神经网络模型。
7. 马文·明斯基(Marvin Lee Minsky)是人工智能的奠基人之一,是达特茅斯会议的组织者(其他组织者有麦卡锡、香农等)。1951年,他提出了关于思维如何萌发并形成的一些基本理论,并建造了一台学习机,名为Snare。Snare是世界上第一个神经网络模拟器,是人工智能最早的尝试之一。
8. 1959年,美国工程师维德罗(B.Widrow)和霍夫(M.Hoff)提出了自适应线性元件(Adaptive linear element,简称Adaline)。它是感知机的变化形式,也是机器学习的鼻祖模型之一。它与感知机的主要不同之处在于, Adaline神经元有一个线性激活函数,这允许输出是任意值,而不仅仅只是像感知机中那样只能取0或1。
9. MIT的大卫·考特尼·马尔(David Courtnay Marr)将心理学、人工智能和神经生理学的研究成果结合起来,提出了全新的关于视觉处理的理论。他被认为是计算神经科学的创始人,影响了后来连接主义的运动。
10. 哈佛的保罗·沃波斯(Paul Werbos),1974年写了一篇博士论文在神经网络中多加一层,然后利用“后想传播”学习方法,解决了感知机XOR问题。同时他首次给出了如何训练一般网络的学习算法。
11. 物理学家霍普菲尔德(J. J. Hopfield),1982年提出了一种新的神经网络——霍普菲尔德神经网络。
12. 1986年,鲁姆哈特(David Rumelhart)和麦克莱兰(McCelland)等几名学者提出的BP神经网络是神经网络发展史上的里程碑。
13. 杰弗里·辛顿(Geoffrey Hinton)是反向传播算法和对比散度算法的发明人之一,也是深度学习的积极推动者,2006年他的一篇文章开辟了深度学习领域。
14. 吴恩达,2012年和谷歌合作建造了一个当时最大的神经网络,这是谷歌神秘的X实验室的一个计划。这个世界上,第一个能够让机器识别“猫”的人就是他。(这是他的封神之作)。
机器学习分类:
1. 机器学习可分为三类:监督学习、非监督学习、强化学习。
2. 监督学习(Supervised Learning):监督学习是机器学习中一种典型的学习方法,顾名思义,监督式学习就是有个人在旁边看着你学习,随时纠正你学习中的错误。
3. 非监督学习(Unsupervised Learning):非监督学习,也就是没有“人”在旁边督促你学习,没有人为标定好的训练数据,没有告诉模型哪些数据是正确的,哪些是不正确的。
4. 强化学习(Reinforcement Learning, RL):有时候,我们不知道标注是什么,即一开始不知道什么是“好”的结果,所以RL不是给定标注,而是给一个回报函数,这个回报函数决定当前状态得到什么样的结果(“好”还是“坏”),其数学本质是一个马尔科夫决策过程。
好了,就到这里了!
完~