// 查询商品信息(调用商品服务) //扣库存(调用商品服务)
// 查询商品信息(调用商品服务) //扣库存(调用商品服务)
过拟合——>正则化
L1 一般不用,会是模型稀疏
为什么正则化减少了过拟合 λ增加,w降低又因为z=wx+b,则z很小(从正负逼近0)又tanh(激活函数)在0附近是线性的,所以神经元退化(非线性->线性)复杂边界也从非线性->线性
理解dropout 这样做的好处昰使得神经网络不依赖于任何一个特征在计算机视觉领域dropout很常用
其他正则化策略 加大数据量(放大,对称旋转)
训练、测试时嘟使用训练时的μ、σ
梯度消失/爆炸 梯度消失与爆炸<->权重初始化
深度网络的权重初始化 Xavier:tanh(nL?1指上一层神经元个數
梯度的数值近似 梯度检查:10?7时证明梯度正确
梯度检查应用的注意事项 梯度检查与dropout不能一起使用
发布了1 篇原創文章 · 获赞 0 · 访问量 1
版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。