ImageVerifierCode 换一换
格式:PPTX , 页数:31 ,大小:2.07MB ,
资源ID:22692380      下载积分:15 文币
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,免费下载
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.wenkunet.com/d-22692380.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: 微信登录   QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(《深度学习》课件第四章 深度学习中的正则化.pptx)为本站会员(bubibi)主动上传,文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知文库网(发送邮件至13560552955@163.com或直接QQ联系客服),我们立即给予删除!

《深度学习》课件第四章 深度学习中的正则化.pptx

1、第四章深度学习中的正则化4.2参数范数惩罚4.3参数绑定与参数共享of3114.4提前终止和Bagging4.1正则化的概念与意义4.1正则化的概念与意义第四章深度学习中的正则化of3121什么是正则化?反演计算中必须面对的问题:如果一个问题的解不存在、不唯一、不稳定,那么求解得到的结果可信吗?解决的办法之一:前苏联Tikonov(吉洪诺夫)等学者提出的解决线性不适定问题的正则化方法 主要思想:将问题限定在某个较小的范围内,以“邻近”的适定问题的解去逼近原问题的解。4.1正则化的概念与意义第四章深度学习中的正则化of3131什么是正则化?机器学习中算法的一个核心问题:算法的设计,不仅在训练数据

2、上表现好,并且能在新输入上泛化好。正则化:显式地设计为减少测试误差的学习策略。可能会以增大训练误差为代价。在深度学习的背景下,大多数正则化策略都会对损失估计进行正则化。损失估计的正则化以偏差的增加换取方差的减少。一个有效的正则化是有利的“交易”,也就是能显著减少方差而不过度增加偏差。4.1正则化的概念与意义第四章深度学习中的正则化of314 样本样本含噪含噪问题:用问题:用足够高阶的模足够高阶的模型,有可能将含噪的样本无误差型,有可能将含噪的样本无误差地拟合起来,但得到的结果与真地拟合起来,但得到的结果与真值差距很大。其结果是,阶数越值差距很大。其结果是,阶数越高误差越小但模型的泛化性能越高误

3、差越小但模型的泛化性能越差。差。以函数插值为例,考虑样本数据的个数与待定系数的个数相等时的插值问题。2正则化用来干嘛的?深刻理解过拟合问题(Over fitting/Over determined)4.1正则化的概念与意义第四章深度学习中的正则化of315 样本样本不含不含噪噪问题:用问题:用足够高阶的模型,有足够高阶的模型,有可能可将的可能可将的样本无误差地拟样本无误差地拟合起来,合起来,但对于与插值样本差异较大的新样本,得到但对于与插值样本差异较大的新样本,得到的结果与真值的结果与真值差距差距可能很大可能很大。其结果是,阶数越高误差越小但模型的泛化性能越差。其结果是,阶数越高误差越小但模型

4、的泛化性能越差。龙格(Runge)现象4.1正则化的概念与意义第四章深度学习中的正则化of316过拟合问题(Over fitting/Over determined)的本质:模型的阶数大于系统的实际阶数。4.1正则化的概念与意义第四章深度学习中的正则化of317分类情形欠拟合 恰好 过拟合正则化策略:就是为了防止过拟合!高偏差 高方差4.1正则化的概念与意义第四章深度学习中的正则化of318系统输入:理想输出:拟合函数:标准差项:显然,只用 Es(F)作为目标函数进行优化,可以得到误差最小的拟合函数,但无法避免过拟合问题。为此,Tikhonov 提出了“正则项”:正则项:式中:D是线性微分算子

5、 Ec(F)减小即拟合函数 F 的梯度减小,意味着在满足误差最小的同时还要求拟合结果足够“平坦”,因此,正则项也称为“平滑项”。3Tikhonov Tikhonov 正则化4.1正则化的概念与意义第四章深度学习中的正则化of319正则化问题:寻找使目标函数寻找使目标函数:达到最小的函数 F(X)。自变量是函数 F(X),故函数 E(F)是一个泛函。l用于在平滑性和误差之间权衡:(1)大的 l 得到的拟合函数更加平滑但拟合误差大;(2)小的 l 拟合误差小但拟合函数不够平滑。4.1正则化的概念与意义第四章深度学习中的正则化of3110用于分类。取不同的 l值,对比“覆盖”误差和面积的区别两类分类

6、作为曲面拟合问题 给定两类二维样本的采样点(100点)如图所示。第一类样本(红)的类别取值为+1;第二类样本(绿)的类别取值为-1。4.1正则化的概念与意义第四章深度学习中的正则化of3111用于输入为2维的数据进行分类。加上正则想,取不同的 l值,对比“覆盖”误差和面积的区别。l=0.1l=0.34.1正则化的概念与意义第四章深度学习中的正则化of3112参数范数惩罚(Parameter Norm Penalties)、约束优化的范数惩罚(Norm Penalties as Constrained Optimization)数据集扩充(Dataset Augmentation)噪声稳健性(N

7、oise Robustness)半任务学习(Semi-Task Learning)多任务学习(Multi-Task Learning)提早结束(Early Stopping)参数尝试和参数共享(Parameter Trying and Parameter Sharing)稀疏表示Sparse Representations)Dropout对抗训练(Adversarial Training)流形切线(Manifold Tangent)套装和其他综合方法(Bagging and Other Ensemble Methods),等等。深度学习中的正则化形式:第四章深度学习中的正则化4.1正则化的概念

8、与意义4.3参数绑定与参数共享of31134.4提前终止和Bagging4.2参数范数惩罚of31144.2参数范数惩罚第四章深度学习中的正则化1.L2 参数正则化假设不存在偏置参数,就是w,目标函数为 梯度为of31154.2参数范数惩罚第四章深度学习中的正则化使用梯度下降更新权重,得即可见,由于L2正则项的加入,在梯度更新之前,都会收缩权重向量权重衰减的方式会给整个训练过程带来什么样的影响?of31164.2参数范数惩罚第四章深度学习中的正则化没有L2正则化的情况下,设目标函数取最小训练误差时的权重向量为w*,即of31174.2参数范数惩罚第四章深度学习中的正则化解得设H有特征值分解:o

9、f31184.2参数范数惩罚第四章深度学习中的正则化即L2正则化,使Hessian的特征值分布变为平缓,以克服优化问题的病态问题,并使权重w取值范围得到约束,可以防止过拟合。L2参数正则化优化解效果 参数在原优化目标函数等高线与L2球的相切处求得最优解可见,参数向量沿着由H 的特征向量所对应的轴进行缩放。缩放因子:of31194.2参数范数惩罚第四章深度学习中的正则化1.L1 参数正则化与L2一样分析of31204.2参数范数惩罚第四章深度学习中的正则化of31214.2参数范数惩罚第四章深度学习中的正则化of31224.2参数范数惩罚第四章深度学习中的正则化of31234.2参数范数惩罚第四

10、章深度学习中的正则化L2正则化:L1正则化:第四章深度学习中的正则化4.1正则化的概念与意义4.2参数范数惩罚of31244.4提前终止和Bagging4.3参数绑定与参数共享4.3参数绑定与参数共享of3125 参数范数惩罚:正则化参数使其彼此接近,即对模型参数之间的相关性进行惩罚,而更流行的方法是强迫某些参数相等。由于我们将各种模型或模型组件解释为共享唯一的一组参数,这种正则化方法通常被称为参数共享(parameter sharing)。如深度卷积神经网络。参数共享的一个显著优点是,只有参数(唯一一个集合)的子集需要被存储在内存中。可能可以显著减少模型所占用的内存。第四章深度学习中的正则化

11、第四章深度学习中的正则化4.1正则化的概念与意义4.2参数范数惩罚4.3参数绑定与参数共享of31264.4提前终止和Bagging4.4 提前终止和Baggingof3127第四章深度学习中的正则化(1)提前终止 提前终止的目的是为了防止过拟合,当网络训练到某个epoch后,测试误差又有了小幅度的增大。这说明此时发生了过拟合。提前终止:在测试误差开始上升之前,就停止训练,即使此时训练尚未收敛(即训练误差未达到最小值)。4.4提前终止和Baggingof3128第四章深度学习中的正则化(2)Bagging算法Bagging是通过结合几个模型降低泛化误差的技术。基本思想:对于一个复杂的学习任务,我们首先构造多个简单的学习模型,然后再把这些简单模型组合成一个高效的学习模型(表决)。(“三个臭皮匠顶个诸葛亮”)采用该策略的技术被称为集成方法。4.4提前终止和Baggingof3129第四章深度学习中的正则化假设我们有k个回归模型,在这些回归模型中的每个例子上的误差均是=v 所有集成模型的平均预测的误差是集成预测器平方误差的期望是4.4提前终止和Baggingof3130第四章深度学习中的正则化=v 即of3131感谢聆听

本站链接:文库   一言   我酷   合作


客服QQ:2549714901微博号:文库网官方知乎号:文库网

经营许可证编号: 粤ICP备2021046453号世界地图

文库网官网©版权所有2025营业执照举报