人工智能(Artificial Intelligence,AI)
:给计算机以人类的理解能力与逻辑思维。机器学习
:让计算机自动地从大量的数据中学习规律,利用该规律对未知的数据做出预测。深度学习
:利用深度神经网络的结构完成训练和预测的算法。弱人工智能(Artificial Narrow Intelligence,ANI)
:擅长某个特定任务 【某个特征方向的强者】。 强人工智能
:像人一样听、说、读、写样样精通。但未达到通用人工智能的水平。【和人差不多,但不通用】超人工智能(Artificial Super Intelligence,ASI)
:在几乎所有领域都比人类大脑聪明的智能,包括创新、社交、思维等。【比人聪明】有监督学习
: 无监督学习
: 强化学习
: 人工神经网络(Artificial Neural Network)
来进行知识的学习。1943年
:
MCP(McCulloch and Pitts)人工神经元网络
:希望使用简单的加权求和与激活函数来模拟人类的神经元过程。1958年
:
感知器(Perception)模型
:使用了梯度下降法学习多维的训练数据,成功地实现了二分类问题,掀起了深度学习的第一次热潮。
1969年
:
Minsky
证明了感知器仅仅是一种线性模型,对简单的是否【0,1】判断都判断不出来,且生活中的大部分都是非线性的问题,造成了深度学习长达20年的停滞不前。
1986年
:
深度学习领域“三驾马车”之一的Geoffrey Hinton
将非线性的Sigmoid函数应用到了多层感知器中,并利用反向传播(Backpropagation)算法进行模型学习,使得模型能够有效地处理非线性问题
。1998年
:
“三驾马车”中的卷积神经网络之父YannLeCun
发明了卷积神经网络LeNet模型,可有效解决图像数字识别问题,被认为是卷积神经网络的鼻祖
。之后几年深度学习陷入了第二次低谷
,因为神经网络
存在两个致命问题:
2006年
:
这一年也被称为深度学习元年
。2011年
:
2012年
:
深度学习爆发式发展
,在ImageNet图像分类任务中以 “碾压”第二名算法的姿态取得了冠军。深度学习从此一发不可收拾,VGGNet、ResNet等优秀的网络接连问世,并且在分类、物体检测、图像分割等领域渐渐地展现出深度学习的实力,大大超过了传统算法的水平
大数据
: GPU
: CPU
面对这种并行计算会异常缓慢,GPU
以及CUDA
计算库专注于数据的并行计算,为模型训练提供了强有力的工具。模型
: GPU
的强有力支撑下,推出了VGGNet、ResNet和FPN
等一系列深度学习模型,并且在学习任务的精度、速度等指标上取得了显著的进步。深度学习模型可以分为
卷积神经网络(Convolutional Neural Network,CNN)
循环神经网络(Recurrent Neural Network,RNN)
生成式对抗网络(GenerativeAdviserial Network,GAN)
图像成像
: 2.5D空间
: 3D空间
: 环境理解
: 图像分类
:
物体检测
:
图像分割
:
上一篇:第十八天 Vue-前端工程化总结
下一篇:java IO流的使用