分类 PyTorch 教程 下的文章


撰写于:  浏览:58 次  分类:PyTorch 教程
在PyTorch中,每个Tensor都有三大属性:torch.dtype、torch.device、torch.layout1、torch.dtype 属性https://pytorch.org/docs/stable/tensor_attributes.html#torch.dtype2、torch.device 属性https://pytorc[...]

撰写于:  浏览:63 次  分类:PyTorch 教程
1、PyTorch自动微分的入门例子首先,我们先看一下PyTorch官网的入门例子,代码如下所示:import torch x = torch.ones(5) # input tensor y = torch.zeros(3) # expected output w = torch.randn(5, 3, requires_grad=True[...]

撰写于:  浏览:73 次  分类:PyTorch 教程
准备工作在PyTorch中,即使是有GPU的机器,它也不会自动使用GPU,而是需要在程序中显示指定。在设置GPU调用之前,我们首先需要确认当前设备的显卡是否支持cuda编程,否则所有基于cuda的操作都会报错。我们可以通过torch.cuda.is_available()来进行确认,并通过torch.cuda.get_device_name()查看[...]

撰写于:  浏览:60 次  分类:PyTorch 教程
1 .cuda()方法简介在PyTorch中,即使是有GPU的机器,它也不会自动使用GPU,而是需要在程序中显示指定。当我们调用model.cuda(),PyTorch可以将模型加载到GPU上去,但是这种方法不被提倡,而建议使用model.to(device)的方式,这样可以显示指定需要使用的计算资源,特别是有多个GPU的情况下。如果两个数据相加,[...]

撰写于:  浏览:58 次  分类:PyTorch 教程
在深度学习的实践中,由于数据集非常大,模型训练需要很长时间,为了解决这个问题,我们可以利用多个GPU并行计算来加速训练过程。torch.nn.DataParallel() 是PyTorch提供的一个非常方便的工具,它可以让我们在多个GPU上并行训练模型。1、DataParallel的原理首先在指定的每张显卡上拷贝一份模型,然后将输入的数据分散到各张[...]

撰写于:  浏览:60 次  分类:PyTorch 教程
通常numpy.where()有两种用法:np.where(condition, x, y) 以及 np.where(condition),本文详细给大家介绍一下。1、np.where(condition, x, y)当where内有三个参数时,第一个参数表示条件,当条件成立时where方法返回x,当条件不成立时where返回y>>&g[...]

撰写于:  浏览:98 次  分类:PyTorch 教程
一般来说我们最常见到的用法是这样的:device = torch.device("cuda" if torch.cuda.is_available() else "cpu")等同于:if torch.cuda.is_available(): device = torch.device("cu[...]

撰写于:  浏览:86 次  分类:PyTorch 教程
在PyTorch中,torch.clamp()函数用于将张量中的元素限制在指定的最小值和最大值之间。这个函数对于防止梯度爆炸、梯度消失或处理异常值非常有用。下面我们将深入探讨这个函数的工作原理、参数、应用场景以及与其它相关函数的比较。1、clamp函数的工作原理torch.clamp()函数通过比较每个元素与最小值和最大值,将所有小于最小值的元素设[...]

撰写于:  浏览:100 次  分类:PyTorch 教程
1、网络权重初始化存在的问题早期的参数初始化方法普遍随机初始化。最常用的随机初始化方法是从均值为0、方差为1的高斯分布中随机采样得到权重。需要注意的是,随机初始化所使用的值的范围可能会对网络性能产生重大影响。如果权重以过大或过小的值初始化,可能会导致训练过程收敛缓慢甚至导致网络发散。2、Xavier Initialization诞生背景Xavier[...]

撰写于:  浏览:215 次  分类:PyTorch 教程
提示:《PyTorch核心与精华》发布于2021年,后于今年进行修订,改为面试版,敬请注意!1、当前大家存在的问题现在很多AI专业的学生学的太浅,基础很差,难以达到企业用人的标准。举个简单的例子来说,梯度下降法这是个非常基础的知识点,虽然很多人都会,但是当面试官稍微延伸一下:请你说一下梯度上升法是怎么回事?面对这个问题,很多人往往抓耳挠腮则不知道怎[...]

撰写于:  浏览:251 次  分类:PyTorch 教程
torch.no_grad()函数的作用torch.no_grad()函数是禁用梯度计算的上下文管理器。当我们确信不会调用Tensor.backward()时,禁用梯度计算很有用,因为它将减少计算的内存消耗。在这种模式下,即使输入的向量的requires_grad=True,每次计算的结果也将为requires_grad=False。但是,要注意:[...]

撰写于:  浏览:116 次  分类:PyTorch 教程
1、LeakyReLU 激活函数的作用机制 2、LeakyReLU 激活函数的图像展示 3、PyTorch LeakyReLU 激活函数torch.nn.LeakyReLU(negative_slope=0.01, inplace=False)4、PyTorch LeakyReLU 激活函数的应用场景>>> m = n[...]

撰写于:  浏览:101 次  分类:PyTorch 教程
错误原因:我们使用view()函数的时候,稍有不慎会碰到这样的错误:RuntimeError: invalid argument 2: view size is not compatible with input tensor's....这是因为tensor经过转置后数据的内存地址不连续导致的。解决方案:在view()函数前加contiguous([...]

撰写于:  浏览:151 次  分类:PyTorch 教程
data_ptr方法是tensor向量的一个很重要的方法,它的作用是返回tensor首元素的内存地址,常用来判断两个tensor是不是共享内存,如下所示:data_t = data.t() # Transpose print(data.data_ptr() == data_t.data_ptr()) # True因为Transpose操作只是改变了[...]

撰写于:  浏览:144 次  分类:PyTorch 教程
PyTorch中有很多浮点类型,例如,torch.float16、torch.float32、torch.float64等。当初始化tensor的时候,可以指定使用那种浮点数类型,如果我们不指定,那么PyTorch默认使用torch.float32类型。如下所示:>>> torch.tensor([1.2, 3]).dtype t[...]

飞燕网专注于AI实习
合作伙伴有100+企业

    友情链接