首页
PyTorch官网
PyTorch pip安装
PyTorch whl安装
CUDA安装
cuDNN安装
GPU并行训练
PyTorch官方入门
PyTorch API学习
PyTorch Lightning
PyG官方入门
PyTorch精品教程
Tensor维度详解
PyTorch计算图
梯度下降法
PyTorch Adam
梯度装饰器
电子书与软件
AI数学电子书
希腊字母列表
AI作图工具
LaTex入门教程
LaTex常用命令
LaTex在线编辑器
关于网站
2021年6月
调整学习率的利器:torch.optim.lr_scheduler
撰写于:
2021-06-24
浏览:1556 次 分类:
PyTorch 教程
lr_scheduler 简介torch.optim.lr_scheduler模块提供了一些根据epoch训练次数来调整学习率(learning rate)的方法。一般情况下我们会设置随着epoch的增大而逐渐减小学习率从而达到更好的训练效果。为什么需要调整学习率在深度学习训练过程中,最重要的参数就是学习率,通常来说,在整个训练过层中,学习率不会一[...]
常见学习率衰减方式
撰写于:
2021-06-17
浏览:1838 次 分类:
AI数学电子书
学习率的作用在机器学习中,监督式学习通过定义一个模型,并根据训练集上的数据估计最优参数。梯度下降法是一个广泛被用来最小化模型误差的参数优化算法。梯度下降法通过多次迭代,并在每一步中最小化成本函数在迭代过程中会控制模型的学习进度。在梯度下降法中,都是给定的统一的学习率,整个优化过程中都以确定的步长进行更新,在迭代优化的前期中,学习率较大,则前进的步[...]
如何理解深度学习中的学习率?
撰写于:
2021-06-12
浏览:1879 次 分类:
PyTorch 教程
1、什么是学习率?学习率是指导我们在梯度下降法中,如何使用损失函数的梯度调整网络权重的超参数。其数学表达式如下所:new_weight = old_weight - learning_rate * gradient2、学习率的数学本质如上述公式,我们可以看到,学习率类似于微积分中的dx,所以学习率也被称为步长。3、学习率对损失值甚至深度网络的影响?[...]
AdaGrad算法
撰写于:
2021-06-12
浏览:1465 次 分类:
PyTorch 教程
AdaGrad算法是什么?AdaGrad算法就是将每一个参数的每一次迭代的梯度取平方累加后在开方,用全局学习率除以这个数,作为学习率的动态更新。梯度下降算法、随机梯度下降算法(SGD)、小批量梯度下降算法(mini-batch SGD)、动量法(momentum)、Nesterov动量法有一个共同的特点是:对于每一个参数都用相同的学习率进行更新。但[...]
AdaGrad:自适应梯度算法
撰写于:
2021-06-11
浏览:1491 次 分类:
PyTorch 教程
AdaGrad是解决不同参数应该使用不同的更新速率的问题。Adagrad自适应地为各个参数分配不同学习率的算法。其公式如下:但是我们发现一个现象,本来应该是随着gradient的增大,我们的学习率是希望增大的,也就是图中的gt;但是与此同时随着gradient的增大,我们的分母是在逐渐增大,也就对整体学习率是减少的,这是为什么呢?这是因为随着我们更[...]
Adam优化器
撰写于:
2021-06-11
浏览:1259 次 分类:
PyTorch 教程
Adam优化器是深度学习中最流行的优化器之一。它适用于很多种问题,包括带稀疏或带噪声梯度的模型。其易于精调的特性使得它能够快速获得很好的结果,实际上,默认的参数配置通常就能实现很好的效果。Adam 优化器结合了 AdaGrad 和 RMSProp 的优点。Adam 对每个参数使用相同的学习率,并随着学习的进行而独立地适应。此外,Adam 是基于动量[...]
一文看懂常用的梯度下降算法
撰写于:
2021-06-11
浏览:1594 次 分类:
AI数学电子书
概述梯度下降算法(Gradient Descent Optimization)是神经网络模型训练最常用的优化算法。对于深度学习模型,基本都是采用梯度下降算法来进行优化训练的。梯度下降算法背后的原理:目标函数关于参数的梯度将是目标函数上升最快的方向。对于最小化优化问题,只需要将参数沿着梯度相反的方向前进一个步长,就可以实现目标函数的下降。这个步长又称[...]
随机梯度下降(SGD)优化算法详细介绍
撰写于:
2021-06-11
浏览:2563 次 分类:
AI数学电子书
1、随机梯度下降是什么?随机梯度下降算法每次从训练集中随机选择一个样本来进行学习,即: θ=θ−η⋅∇θJ(θ;xi;yi)2、随机梯度下降(SGD)算法的优势批量梯度下降算法每次都会使用全部训练样本,因此这些计算是冗余的,因为每次都使用完全相同的样本集。而随机梯度下降算法每次只随机选择一个样本来更新模型参数,因此每次的学习是非常快速的,并且可以进[...]
梯度与微分
撰写于:
2021-06-10
浏览:2024 次 分类:
AI数学电子书
如何看待微分的意义,可以有不同的角度,最常用的两种是:(1)函数图像中,某点的切线的斜率(2)函数的变化率通常情况下都是单变量的微分,当一个函数有多个变量的时候,就有了多变量的微分,即分别对每个变量进行求微分。梯度实际上就是多变量微分的一般化。梯度就是分别对每个变量进行微分,然后用逗号分割开,梯度是用<>包括起来,说明梯度其实一个向量。[...]
梯度下降法的基本思想
撰写于:
2021-06-09
浏览:2065 次 分类:
AI数学电子书
梯度下降法的基本思想可以类比为一个下山的过程。假设这样一个场景:一个人被困在山上,需要从山上下来,找到山的最低点,也就是山谷。但此时山上的浓雾很大,导致可视度很低。因此,下山的路径就无法确定,他必须利用自己周围的信息去找到下山的路径。这个时候,他就可以利用梯度下降算法来帮助自己下山。具体来说就是,以他当前的所处的位置为基准,寻找这个位置最陡峭的地方[...]
向量简介
撰写于:
2021-06-07
浏览:1273 次 分类:
默认分类
什么是向量?在数学中,向量(也称为矢量),指具有大小和方向的量。向量可以形象化地表示为带箭头的线段。箭头所指代表向量的方向;线段长度代表向量的大小。与向量对应的量叫做标量,标量只有大小,没有方向。向量的表示法向量的记法1:黑体(粗体)的字母(如a、b、u、v),书写时在字母顶上加一小箭头“→”。 向量的记法2:如果给定向量的起点(A)和终点(B),[...]
关注公众号,了解站长最新动态
分类
默认分类
PyTorch 电子书
Python 电子书
推荐系统电子书
计算机视觉电子书
机器学习电子书
强化学习电子书
PyTorch 教程
AI数学电子书
数据结构与算法电子书
人工智能实习与内推
网站公告
图神经网络电子书
飞燕AI训练营
多智能体与无人机
科研论文
大模型电子书
创业杂谈
PyTorch GPU 并行训练
PyTorch Lightning 使用介绍
睡前数学APP
最新文章
L1范数倾向于产生稀疏解
L1范数倾向于产生稀疏解的举例说明
torch.max的详细介绍
L1范数的作用是什么?
欧几里得范数是什么?它有什么用?
向量的范式是什么?它有什么用?
torch.norm的详细介绍与使用举例
torch.frombuffer的详细介绍
torch.tensor()和torch.as_tensor()的区别是什么?
torch.asarray和torch.as_tensor的区别是什么?
torch.asarray的详细介绍
torch.polar的详细介绍
torch.heaviside的详细介绍
torch.logspace的详细介绍
torch.linspace的详细介绍
热门文章
《 百面深度学习》高清完整PDF版 下载
《深度学习推荐系统》全彩版 高清完整PDF版 下载
《Python深度学习:基于PyTorch》中文版 高清完整PDF版 下载
技术交流群-成员昵称-参考列表
2025年2月网站资源下载公告
《机器学习的数学》高清完整PDF版 下载
《优美的数学思维(原书第2版)》高清完整PDF版 下载
Keras怎么读?解读Keras英文发音
最新评论
瑾年
:
非常好的书
阿瑶
:
求书
xxxx
:
谢谢
安全科学家
:
请赐教,谢谢
matt
:
非常值得推荐
晒衣你
:
好书
半缘君
:
个人学习用,谢谢支持
xiaobai
:
大佬,可以麻烦您发我[...]
bodong
:
感谢分享
Ruozi
:
非常好的书
友情链接