分类 PyTorch 教程 下的文章


撰写于:  浏览:1990 次  分类:PyTorch 教程
在PyTorch中,F.linear()和nn.Linear()是两个常用的线性变换函数,它们都在神经网络的构建中扮演着重要角色。虽然这两个函数都实现了线性变换的功能,但在使用方法和应用场景上却有着显著的区别。本文将深入浅出地介绍这两个函数的用法和区别,帮助大家更好地理解和应用它们。F.linear() 的用法F.linear()是PyTorch中[...]

撰写于:  浏览:1202 次  分类:PyTorch 教程
torch.randperm 函数介绍在 PyTorch 中,torch.randperm(n) 函数用于生成一个从 0 到 n-1 的随机排列的整数序列。这个函数是非常有用的,尤其是在需要随机打乱数据或索引时,比如在训练机器学习模型时打乱数据顺序,以确保模型训练的泛化能力。参数n (int): 输出张量的长度,即最大的数字为 n-1。返回值返回一[...]

撰写于:  浏览:954 次  分类:PyTorch 教程
在做AI业务开发时候,常常需要pytorch的tensor类型和numpy类型进行转换,下面给大家介绍一下两者的转换过程:首先,导入需要使用的包:import numpy as np import torch然后,创建一个numpy类型的数组:x = np.ones(3) print(type(x))这里创建了一个一维的数组,3个都为1,我们打印一[...]

撰写于:  浏览:2220 次  分类:PyTorch 教程
1、SGD原理介绍随机梯度下降(Stochastic Gradient Descent,简称SGD)是基于梯度的一种优化算法,用于寻找损失函数最小化的参数配置。SGD通过计算每个样本的梯度来更新参数,并在每次更新中随机选择一个或一批样本。SGD的原理相对简单,它通过计算损失函数对每个训练样本的梯度来更新参数。具体步骤如下:1、随机选择一个训练样本;[...]

撰写于:  浏览:952 次  分类:PyTorch 教程
关于范数的定义,有多种情况,如下所示:0 范数:当前向量中的元素之和1 范数:对应向量元素只差的绝对值之和2 范数: 元素的平方和再开方p 范数: 元素的绝对值的P次方之和再开P次方import torch a = torch.rand(2, 1) # a 的一范数 print(torch.norm(a, p=1)) # a 的二范数 prin[...]

撰写于:  浏览:1039 次  分类:PyTorch 教程
1、Sequential 简介Sequential表示一个连续的容器,模块将按照它们在构造函数中传递的顺序添加到容器其中。Sequential的forward()方法接受任何输入并将其转发到它包含的第一个模块。然后,它将输出顺序“链接”到每个后续模块的输入,最终返回最后一个模块的输出。Sequential提供的优于手动调用模块序列的价值在于,它允许[...]

撰写于:  浏览:903 次  分类:PyTorch 教程
ModuleList 可以像常规 Python 列表一样进行索引。1、ModuleList 代码举例class MyModule(nn.Module): def __init__(self): super().__init__() self.linears = nn.ModuleList([nn.Linear[...]

撰写于:  浏览:840 次  分类:PyTorch 教程
Quantization refers to techniques for performing computations and storing tensors at lower bitwidths than floating point precision. PyTorch supports both per tensor and per ch[...]

撰写于:  浏览:1334 次  分类:PyTorch 教程
nn.Embeddingtorch.nn.Embedding 是 PyTorch 中一个重要的模块,用于创建一个简单的查找表,它存储固定字典和大小的嵌入(embeddings)。这个模块通常用于存储单词嵌入并使用索引检索它们。接下来,我将详细解释 Embedding 模块的用途、用法、特点以及如何使用它。用途单词嵌入:在自然语言处理中,Embedd[...]

撰写于:  浏览:1173 次  分类:PyTorch 教程
torch.nn.Conv3D 说明nn.Conv3d 是 PyTorch 中实现三维卷积操作的类。输入数据参数说明:输入张量的维度应为 (N, C_in, D, H, W),其中: N: 批量大小 (batch size),即一批输入数据中包含的样本数量。 C_in: 输入通道数 (number of input channels),即输入数据的[...]

撰写于:  浏览:1333 次  分类:PyTorch 教程
1、PyTorch Lightning是什么?PyTorch Lightning是在NYU和FAIR进行博士研究时创建的。PyTorch Lightning 是面向专业人工智能研究人员和机器学习工程师的深度学习框架,他们需要最大的灵活性,同时又不牺牲大规模性能。虽然官方宣传的很厉害,但是我个人不建议大家学习这个项目,毕竟这个项目属于AI发烧友的杰作[...]

撰写于:  浏览:1062 次  分类:PyTorch 教程
1、UninitializedParameter 简介UninitializedParameter意为:未初始化的参数。UninitializedParameter是torch.nn.Parameter的一种特殊情况,其中数据的形状是未知的。与torch.nn.Parameter不同,UninitializedParameter不包含任何数据,尝试[...]

撰写于:  浏览:1114 次  分类:PyTorch 教程
在PyTorch中,每个Tensor都有三大属性:torch.dtype、torch.device、torch.layout1、torch.dtype 属性https://pytorch.org/docs/stable/tensor_attributes.html#torch.dtype2、torch.device 属性https://pytorc[...]

撰写于:  浏览:967 次  分类:PyTorch 教程
1、PyTorch自动微分的入门例子首先,我们先看一下PyTorch官网的入门例子,代码如下所示:import torch x = torch.ones(5) # input tensor y = torch.zeros(3) # expected output w = torch.randn(5, 3, requires_grad=True[...]

撰写于:  浏览:1329 次  分类:PyTorch 教程
准备工作在PyTorch中,即使是有GPU的机器,它也不会自动使用GPU,而是需要在程序中显示指定。在设置GPU调用之前,我们首先需要确认当前设备的显卡是否支持cuda编程,否则所有基于cuda的操作都会报错。我们可以通过torch.cuda.is_available()来进行确认,并通过torch.cuda.get_device_name()查看[...]

关注公众号,感悟技术与人生

飞燕网
一个踏实、严谨的网站!

专注于PyTorch、强化学习和大模型技术

    友情链接