神经网络基础
创始人
2024-06-03 00:55:05
0

第08天:初始深度学习

    • 第08天:初始深度学习-神经网络基础(1)
      • 5-深度学习要解决的问题 :
      • 6-深度学习应用领域
      • 7-计算机视觉任务
      • 8-视觉任务中遇到的问题
      • 9-得分函数
      • 10-损失函数的作用
      • 11-前向传播整体流程
    • 第08天:初始深度学习-神经网络基础(2)
      • 1-反向传播计算方法
      • 2-神经网络整体架构
      • 3-神经网络架构细节
      • 4-神经元个数对结果的影响
      • 5-正则化与激活函数
      • 6-神经网络过拟合解决方法

第08天:初始深度学习-神经网络基础(1)

5-深度学习要解决的问题 :

深度学习要解决的问题 :提取特征
机器学习流程:

  1. 数据获取
  2. 特征工程
  3. 建立模型
  4. 评估与应用

特征工程的作用:

  1. 数据特征决定了模型的上限
  2. 预处理和特征提取是最核心的
  3. 算法和参数选择决定了如何逼近这个上限

特征提取

  1. 传统提取:找特征难
  2. 深度学习:

6-深度学习应用领域

7-计算机视觉任务

8-视觉任务中遇到的问题

机器学习常规套路:

  1. 收集数据并给定标签
  2. 训练一个分类器
  3. 测试,评估

K近邻算法:

  1. 计算一直类别数据集中的点与当前点的距离
  2. 按距离以此排序
  3. 选取与当前距离最小的k个点
  4. 确定前k个点所在类别的出现概率
  5. 返回前k个点出现频率最高的类别作为当前点预测分类

使用k近邻会使得背景相同的分为同类,并不适合

9-得分函数

  1. 线性函数:
    从输入到输出的映射
    x:img(32*32*3=3072),W:权重参数,b(偏执参数)
    f(x,W)=Wx
    W:1*3072;x:3072*1

假设3类,图片img(2*2*1)
W=3*4;x=4*1;b=3*1
f=WX+b。

  1. 损失函数
    如Li=∑j≠yimax⁡(0,sj−syi+1)L_i=\sum_{j\neq y_i}\max(0,s_j-s_{y_i}+1)Li​=∑j=yi​​max(0,sj​−syi​​+1)

10-损失函数的作用

损失函数=数据损失+正则化惩罚项
L=1N∑i=1N∑j≠yimax⁡(0,f(xi;W)j−f(xi;W)yi+1)+λR(W)L=\frac{1}{N}\sum_{i=1}^N\sum_{j\neq y_{i}}\max(0,f(x_{i};W)_{j}-f(x_i;W)_{y_{i}}+1)+\boxed{\lambda R(W)}L=N1​∑i=1N​∑j=yi​​max(0,f(xi​;W)j​−f(xi​;W)yi​​+1)+λR(W)​
R(W)=∑k∑lWk,l2R(W)=\sum_k\sum_l W_{k,l}^2R(W)=∑k​∑l​Wk,l2​
防止过拟合

Softmax分类器
归一化:P(Y=k∣X=xi)=e∗k∑ie∗jwheres=f(xi;W)P(Y=k|X=x_i)=\frac{e^{*_k}}{\sum_i e^{*_j}}\quad\text{where}\quad s=f(x_i;W)P(Y=k∣X=xi​)=∑i​e∗j​e∗k​​wheres=f(xi​;W)
计算损失值:Li=−log⁡P(Y=yi∣X=xi)L_i=-\log P(Y=y_i|X=x_i)Li​=−logP(Y=yi​∣X=xi​)

11-前向传播整体流程

第08天:初始深度学习-神经网络基础(2)

1-反向传播计算方法




加法门单元:均等分配
MAX门单元:给最大的
乘法门单元:互换的感觉
在这里插入图片描述

2-神经网络整体架构

在这里插入图片描述
整体架构

  1. 层次结构
  2. 神经元
  3. 全连接
  4. 非线性

3-神经网络架构细节

在这里插入图片描述

4-神经元个数对结果的影响

在这里插入图片描述

5-正则化与激活函数

Sigmoid和Relu
Sigmoid:当数值过大或者过小,梯度消失。
Relu:当前使用得较多
在这里插入图片描述

  1. 数据预处理:
    1. 中心化
    2. 正则化
      在这里插入图片描述
  2. 参数初始化
    1. 通常我们都使用随机策略来进行参数初始化
      W=0.01∗np.random.randn(D,H)\mathrm{W = 0.01* np.random. randn(D,H)}W=0.01∗np.random.randn(D,H)

6-神经网络过拟合解决方法

过拟合是神经网络非常头疼的一个大问题:DROP-OUT随机杀死一些神经元
在这里插入图片描述

相关内容

热门资讯

监控摄像头接入GB28181平... 流程简介将监控摄像头的视频在网站和APP中直播,要解决的几个问题是:1&...
Windows10添加群晖磁盘... 在使用群晖NAS时,我们需要通过本地映射的方式把NAS映射成本地的一块磁盘使用。 通过...
protocol buffer... 目录 目录 什么是protocol buffer 1.protobuf 1.1安装  1.2使用...
Fluent中创建监测点 1 概述某些仿真问题,需要创建监测点,用于获取空间定点的数据࿰...
educoder数据结构与算法...                                                   ...
MySQL下载和安装(Wind... 前言:刚换了一台电脑,里面所有东西都需要重新配置,习惯了所...
MFC文件操作  MFC提供了一个文件操作的基类CFile,这个类提供了一个没有缓存的二进制格式的磁盘...
在Word、WPS中插入AxM... 引言 我最近需要写一些文章,在排版时发现AxMath插入的公式竟然会导致行间距异常&#...
有效的括号 一、题目 给定一个只包括 '(',')','{','}'...
【Ctfer训练计划】——(三... 作者名:Demo不是emo  主页面链接:主页传送门 创作初心ÿ...