分类 PyTorch 教程 下的文章


撰写于:  浏览:1336 次  分类:PyTorch 教程
1 .cuda()方法简介在PyTorch中,即使是有GPU的机器,它也不会自动使用GPU,而是需要在程序中显示指定。当我们调用model.cuda(),PyTorch可以将模型加载到GPU上去,但是这种方法不被提倡,而建议使用model.to(device)的方式,这样可以显示指定需要使用的计算资源,特别是有多个GPU的情况下。如果两个数据相加,[...]

撰写于:  浏览:1417 次  分类:PyTorch 教程
在深度学习的实践中,由于数据集非常大,模型训练需要很长时间,为了解决这个问题,我们可以利用多个GPU并行计算来加速训练过程。torch.nn.DataParallel() 是PyTorch提供的一个非常方便的工具,它可以让我们在多个GPU上并行训练模型。1、DataParallel的原理首先在指定的每张显卡上拷贝一份模型,然后将输入的数据分散到各张[...]

撰写于:  浏览:978 次  分类:PyTorch 教程
通常numpy.where()有两种用法:np.where(condition, x, y) 以及 np.where(condition),本文详细给大家介绍一下。1、np.where(condition, x, y)当where内有三个参数时,第一个参数表示条件,当条件成立时where方法返回x,当条件不成立时where返回y>>&g[...]

撰写于:  浏览:1684 次  分类:PyTorch 教程
一般来说我们最常见到的用法是这样的:device = torch.device("cuda" if torch.cuda.is_available() else "cpu")等同于:if torch.cuda.is_available(): device = torch.device("cu[...]

撰写于:  浏览:1718 次  分类:PyTorch 教程
在PyTorch中,torch.clamp()函数用于将张量中的元素限制在指定的最小值和最大值之间。这个函数对于防止梯度爆炸、梯度消失或处理异常值非常有用。下面我们将深入探讨这个函数的工作原理、参数、应用场景以及与其它相关函数的比较。1、clamp函数的工作原理torch.clamp()函数通过比较每个元素与最小值和最大值,将所有小于最小值的元素设[...]

撰写于:  浏览:1615 次  分类:PyTorch 教程
1、网络权重初始化存在的问题早期的参数初始化方法普遍随机初始化。最常用的随机初始化方法是从均值为0、方差为1的高斯分布中随机采样得到权重。需要注意的是,随机初始化所使用的值的范围可能会对网络性能产生重大影响。如果权重以过大或过小的值初始化,可能会导致训练过程收敛缓慢甚至导致网络发散。2、Xavier Initialization诞生背景Xavier[...]

撰写于:  浏览:4599 次  分类:PyTorch 教程
提示:本文修订于2024年10月19日。1、《PyTorch面试精华》的特点简介《PyTorch面试精华》不仅仅是面试,更是对PyTorch以及AI深度学习技术的系统化、全面化的汇集和沉淀,适用人群即包括刚迈入校门的大一新生,也包括工作十年的职场老鸟;即可以让非AI专业的业余兴趣者增长见识,也可以为专业的AI面试官提供精品题库。自电子教程上线以来,[...]

撰写于:  浏览:3192 次  分类:PyTorch 教程
1、torch.no_grad()函数的作用torch.no_grad()函数是禁用梯度计算的上下文管理器。当我们确信不会调用Tensor.backward()时,禁用梯度计算很有用,因为它将减少计算的内存消耗。在这种模式下,即使输入的向量的requires_grad=True,每次计算的结果也将为requires_grad=False。但是,有种[...]

撰写于:  浏览:894 次  分类:PyTorch 教程
1、LeakyReLU 激活函数的作用机制 2、LeakyReLU 激活函数的图像展示 3、PyTorch LeakyReLU 激活函数torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)4、PyTorch LeakyReLU 激活函数的应用场景>>> m = n[...]

撰写于:  浏览:1028 次  分类:PyTorch 教程
错误原因:我们使用view()函数的时候,稍有不慎会碰到这样的错误:RuntimeError: invalid argument 2: view size is not compatible with input tensor's....这是因为tensor经过转置后数据的内存地址不连续导致的。解决方案:在view()函数前加contiguous([...]

撰写于:  浏览:1190 次  分类:PyTorch 教程
data_ptr方法是tensor向量的一个很重要的方法,它的作用是返回tensor首元素的内存地址,常用来判断两个tensor是不是共享内存,如下所示:data_t = data.t() # Transpose print(data.data_ptr() == data_t.data_ptr()) # True因为Transpose操作只是改变了[...]

撰写于:  浏览:1170 次  分类:PyTorch 教程
PyTorch中有很多浮点类型,例如,torch.float16、torch.float32、torch.float64等。当初始化tensor的时候,可以指定使用那种浮点数类型,如果我们不指定,那么PyTorch默认使用torch.float32类型。如下所示:>>> torch.tensor([1.2, 3]).dtype t[...]

撰写于:  浏览:1175 次  分类:PyTorch 教程
在PyTorch中,Tensor.contiguous()方法是一个重要的Tensor操作,用于确保Tensor的内存布局是连续的。这种操作通常在进行某些特定操作后可能需要,因为Tensor的物理内存布局有可能因为某些操作而变得非连续。Tensor的内存布局一个Tensor的数据在内存中可以是连续的,也可以是非连续的。连续的内存布局意味着Tenso[...]

撰写于:  浏览:955 次  分类:PyTorch 教程
1、什么是共轭矩阵?共轭矩阵是一个复数矩阵,其中它的所有元素都被它们的共轭取代,即它的所有复数的虚部的符号都被改变了。2、共轭矩阵的示例

撰写于:  浏览:1275 次  分类:PyTorch 教程
1、torch.complex函数介绍在PyTorch中我们可以生成复数tensor,方法是:torch.complex(real, imag, *, out=None) 参数介绍:real:生成的复数中的实部。imag:生成的复数中的虚部。out:输出的tensor。提示:real实部和imag虚部必须类型,而且只能是float32或者doubl[...]

关注公众号,感悟技术与人生

飞燕网
一个踏实、严谨的网站!

专注于PyTorch、强化学习和大模型技术

    友情链接