人工智能(Artificial Intelligence,AI):给计算机以人类的理解能力与逻辑思维。机器学习:让计算机自动地从大量的数据中学习规律,利用该规律对未知的数据做出预测。深度学习:利用深度神经网络的结构完成训练和预测的算法。弱人工智能(Artificial Narrow Intelligence,ANI):擅长某个特定任务 【某个特征方向的强者】。 强人工智能:像人一样听、说、读、写样样精通。但未达到通用人工智能的水平。【和人差不多,但不通用】超人工智能(Artificial Super Intelligence,ASI):在几乎所有领域都比人类大脑聪明的智能,包括创新、社交、思维等。【比人聪明】有监督学习: 无监督学习: 强化学习: 人工神经网络(Artificial Neural Network)来进行知识的学习。1943年:
MCP(McCulloch and Pitts)人工神经元网络:希望使用简单的加权求和与激活函数来模拟人类的神经元过程。1958年:
感知器(Perception)模型:使用了梯度下降法学习多维的训练数据,成功地实现了二分类问题,掀起了深度学习的第一次热潮。1969年:
Minsky证明了感知器仅仅是一种线性模型,对简单的是否【0,1】判断都判断不出来,且生活中的大部分都是非线性的问题,造成了深度学习长达20年的停滞不前。1986年:
深度学习领域“三驾马车”之一的Geoffrey Hinton将非线性的Sigmoid函数应用到了多层感知器中,并利用反向传播(Backpropagation)算法进行模型学习,使得模型能够有效地处理非线性问题。1998年:
 “三驾马车”中的卷积神经网络之父YannLeCun发明了卷积神经网络LeNet模型,可有效解决图像数字识别问题,被认为是卷积神经网络的鼻祖。之后几年深度学习陷入了第二次低谷,因为神经网络存在两个致命问题:
2006年:
这一年也被称为深度学习元年。2011年:
2012年:
深度学习爆发式发展,在ImageNet图像分类任务中以 “碾压”第二名算法的姿态取得了冠军。深度学习从此一发不可收拾,VGGNet、ResNet等优秀的网络接连问世,并且在分类、物体检测、图像分割等领域渐渐地展现出深度学习的实力,大大超过了传统算法的水平
 
大数据: GPU: CPU面对这种并行计算会异常缓慢,GPU以及CUDA计算库专注于数据的并行计算,为模型训练提供了强有力的工具。模型: GPU的强有力支撑下,推出了VGGNet、ResNet和FPN等一系列深度学习模型,并且在学习任务的精度、速度等指标上取得了显著的进步。深度学习模型可以分为 卷积神经网络(Convolutional Neural Network,CNN)循环神经网络(Recurrent Neural Network,RNN)生成式对抗网络(GenerativeAdviserial Network,GAN)图像成像: 2.5D空间: 3D空间: 环境理解: 图像分类:
物体检测:
图像分割:
                    上一篇:第十八天 Vue-前端工程化总结
                
下一篇:java IO流的使用