撰写于:  浏览:611 次  分类:PyTorch 教程
1、torch.stack()函数的作用torch.stack()函数的参数形式为:torch.stack(inputs,dim=0,out=None),其作用是将若干个形状相同的张量在dim维度上连接,生成一个扩维的张量。比如,我们原本有若干个2维张量,连接之后可以得到一个3维的张量。2、torch.stack()函数的参数说明(1)inputs[...]

撰写于:  浏览:3080 次  分类:PyTorch 教程
CUDA是英伟达开发出的GPU计算框架。英伟达是制造GPU的公司,它为了让人们更好地使用自家生产出来的GPU,所以开发出CUDA用于操作GPU。如果没有CUDA,直接操作GPU则是一件非常困难的事情。我们买回的带英伟达GPU的新电脑,会自带GPU显卡驱动,显卡驱动的版本号制约着你将来要安装的CUDA。运行nvidia-smi命令,我们可以查看自己显[...]

撰写于:  浏览:407 次  分类:PyTorch 教程
这篇文章介绍的不错,分享给大家:https://blog.csdn.net/m0_48923489/article/details/136863726

撰写于:  浏览:549 次  分类:PyTorch 教程
1、什么是叶子节点PyTorch的最大特点是动态计算图,计算图是用来描述运算的有向无环图。计算图有两种主要元素:结点(Node)和边(Edge)。结点表示数据,例如张量,而边表示运算,例如加、减、乘、除、卷积等。对于节点而言,又分为叶子节点和非叶子节点。我们通常关注的叶子节点,那什么叶子节点呢?PyTorch中的张量tensor有一个属性是is_l[...]

撰写于:  浏览:526 次  分类:PyTorch 教程
1、PyTorch设置随机数的目的在神经网络中,参数默认是进行随机初始化的。不同的初始化参数往往会导致不同的结果。当得到比较好的结果时我们通常希望这个结果是可以复现的,在PyTorch中,通过设置全局随机数种子可以实现这个目的。2、PyTorch seed 设置方式seed = 0 torch.manual_seed(seed) [...]

撰写于:  浏览:492 次  分类:飞燕AI训练营
大家好,我是站长飞燕。AI训练营在过去的两个月时间里,吸纳了几十名新同学的加入,感谢大家的信任和支持!希望是本无所谓有,无所谓无的。这正如地上的路,其实地上本没有路,走的人多了,也便成了路。正是由于站长飞燕的不断坚持和探索,所以才能踏出一条新路。我记得自己当年在毕业季找工作的时候,屡屡受挫,那个时候十分后悔,后悔自己没有提前花钱报个辅导班,以至很多[...]

撰写于:  浏览:642 次  分类:飞燕AI训练营
本次公开课通过腾讯会议的形式召开,仅仅面向AI训练营的各位同学,具体安排如下所示。公开课时间:2024年4月19日(星期五),晚上20点到21点。公开课内容:YOLO相关技术的分享与讨论提醒:如果大家因故不能参加,没有关系。本月的学习重心是YOLO,意味着你有一个月的时间来钻研它,所以一次缺席不会有太大问题。另外,公开课没有录播,因为讲的比较散,学[...]

撰写于:  浏览:2422 次  分类:PyTorch 教程
提示:本文更新于2024年9月27日PyTorch是一个由Facebook的人工智能研究团队开发的开源深度学习框架,发布于2016年。如今PyTorch已经成为全球最流行的深度学习框架,建议大家以PyTorch为主,谨慎选择TensorFlow或者Paddle(百度飞桨)。1、PyTorch最新版本是多少?当前PyTorch的最新版本是:PyTor[...]

撰写于:  浏览:615 次  分类:飞燕AI训练营
提示:本内容来源于AI训练营的分享,希望各位成员在找工作的时候,多开阔眼界,多了解各个行业的特点。最近字节跳动的飞书大裁员引起了业内关注,对于毕业季的学生,在找工作的时候,应该了解to B软件的行业特点,从而擦亮眼睛,避免走了弯路。飞书属于to B软件,而to B软件想要利润的话注定规模就大不起来。虽然这种情况有点违背软件行业的边际效应理论,但是现[...]

撰写于:  浏览:808 次  分类:PyTorch 教程
1、PyTorch whl文件安装当我们需要安装特定CUDA版本的PytTorch的时候,掌握whl文件的安装则是十分必要。PyTorch whl文件的下载地址是:https://download.pytorch.org/whl/torch_stable.html1.1、PyTorch版本与Python版本的关系安装PyTorch要注意对应Pyth[...]

撰写于:  浏览:910 次  分类:PyTorch 教程
在PyTorch中,torch.nn.Module模块中的state_dict函数获得的一个字典变量,其存放训练过程中需要学习的权重和偏执系数,如下所示:代码1:import torch.nn as nn module = nn.Linear(2, 2) print(module.state_dict().keys())代码2:import t[...]

撰写于:  浏览:808 次  分类:PyTorch 教程
1、torch.is_storage(obj)函数介绍测试obj是不是storage类型,如果是的话就返回True,否则返回False。2、什么是Storage?在PyTorch中,Tensor 分为头信息区(Header)和存储区(Storage)。头信息区(Header)主要存储Tensor的形状(size)、步长(stride)、数据类型(t[...]

撰写于:  浏览:1067 次  分类:PyTorch 教程
1、Tensor的grad属性介绍PyTorch的Tensor有个grad属性,默认情况下,该属性为None,当第一次调用backward()计算梯度时,此属性被赋值,其值为计算的梯度。并且,将来对backward的多次调用之后,还会累积梯度,所以大家要记得清空梯度。2、Tensor的grad应用举例import torch x = torch.[...]

撰写于:  浏览:804 次  分类:PyTorch 教程
torch.is_tensor 简介torch.is_tensor(obj),此方法很直观,如果obj是tensor的话返回true,否则返回false。与此方法对应的另一个方法是:isinstance(obj, Tensor)。需要注意的是,torch.is_tensor(obj)是torch的一个方法,而isinstance(obj, Tens[...]

撰写于:  浏览:1147 次  分类:PyTorch 教程
1、LazyLinear 简介PyTorch提供一个惰性的线性层,这个模块的作用就是可以帮助我们实现惰性初始化参数,另外,还不必在定义线性层的时候同时指定输入维度和输出维度,只需要指定输出维度即可,对于输入维度采用自动推断的方式。总之,LazyLinear 类的功能和作用有下面三点:(1)自动推断输入维度的大小。这个类允许用户在初始化时不指定输入特[...]

关注公众号,了解站长最新动态

    友情链接