pytorch教程之Tensor的值及操作使用学习
参考网址
1、Tensors
Tensors are similar to NumPy's ndaeeays,不同的是可以在GPU上使用和加速计算。
导入包
from __future__ import print_function import torch
建立5*3的矩阵,未初始化
x = torch.empty(5,3) print(x)
out
tensor([[ 1.4395e-36, 4.5848e-41, 1.4395e-36], [ 4.5848e-41, 1.4395e-36, 4.5848e-41], [ 1.4395e-36, 4.5848e-41, 2.8026e-45], [-1.9501e+00, 8.5165e+23, 0.0000e+00], [ 2.5223e-43, 0.0000e+00, 0.0000e+00]])
建立随机初始化矩阵
x = torch.rand(5,3) print(x)
out
tensor([[ 0.8074, 0.9175, 0.8109], [ 0.3313, 0.5902, 0.9179], [ 0.6562, 0.3283, 0.9798], [ 0.8218, 0.0817, 0.4454], [ 0.5934, 0.0040, 0.3411]])
建立零初始化矩阵,数据类型是Long
... x = torch.zeros(5,3,dtype = torch.long) print(x) ...
out
tensor([[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0],
[ 0, 0, 0]])
建立一个tensor数据来源于data
x = torch.tensor([5.5,3]) print(x)
out
tensor([ 5.5000, 3.0000])
在原有tnesor的基础上形成新的tensor,会继承原有tensor的shapee和dtype等属性,当然我么也可以修改这些属性
x = x.new_ones(5,3,dtype = torch.double) print(x) x = torch.randn_like(x,dype = torch.float) print(x)
out
tensor([[ 1., 1., 1.], [ 1., 1., 1.], [ 1., 1., 1.], [ 1., 1., 1.], [ 1., 1., 1.]], dtype=torch.float64) tensor([[-0.0730, -0.0716, -0.8259], [-1.7004, 0.8790, -0.0659], [-0.8969, 0.8736, -0.6035], [-0.1539, -2.9178, -0.7456], [-0.0245, 0.4075, 1.4904]])
获取tensor的size
print(x.size())
out
torch.Size([5, 3])
torch.size是一个元组,支持所有元组(tuple)的操作
2、对Tensor的操作
实现加法的四种方式
方法一L
print(x+y)
方法二
print(torch.add(x,y))
方法三:输出给额外的tensor
result = torch.empty(5,3) torch.add(x,y ,out= result) print (result)
方法四:原地替换-结果存放在y中
print(y)
所有原地替换
所有原地替换tensor的操作都有后缀,比如x.copy(y),会改变x
使用标准的numpy操作
print(x[:1]
out
tensor([-0.0716, 0.8790, 0.8736, -2.9178, 0.4075])
使用torch.view 改变tensor的形状
x = torch.randn(4,4) y = x.view(16) z = x.view(-1,8) # the size -1 is inferred from other dimensions print (x.size(),y.xize(),z.size())
out
torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])
tensor转化为numpy的数字,使用item
x = torch.rnadn(1) print(x) print(x.item())
Torch Tensor 和numpy的相互转换
a = torch.ones(5) print (a)
out
tensor([ 1., 1., 1., 1., 1.])
并且改变tensor的值会同时改变numpy的值
a.add_(1) print(a) print(b)
out
tensor([ 2., 2., 2., 2., 2.]) [ 2. 2. 2. 2. 2.]
将numpy array转化为pytorch Tensor
import numpy as np a = np.ones(5) b = torch.from_numpy(a) np.add(a,1,out = a ) print(a) print(b)
out
[ 2. 2. 2. 2. 2.] tensor([ 2., 2., 2., 2., 2.], dtype=torch.float64)
所有在cpu上的tensor都支持numpy转化,除了char形的tensor
CUDA Tensors
Tensors 可以被移动到其他设备使用.to的方法
... if torch.cuda.is_avaulable(): device = torch.device(“cuda”) y = torch.ones_like(x,device = devcie) x= x.to(device) z = x+y print(z) print(z.to(“cpu”,torch.double)) ...
out
tensor([-1.0620], device='cuda:0') tensor([-1.0620], dtype=torch.float64)
以上就是pytorch教程之Tensor学习笔记的详细内容,更多关于pytorch教程的资料请关注猪先飞其它相关文章!
相关文章
pytorch nn.Conv2d()中的padding以及输出大小方式
今天小编就为大家分享一篇pytorch nn.Conv2d()中的padding以及输出大小方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-04-27- 这篇文章主要介绍了PyTorch一小时掌握之迁移学习篇,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下...2021-09-08
Linux安装Pytorch1.8GPU(CUDA11.1)的实现
这篇文章主要介绍了Linux安装Pytorch1.8GPU(CUDA11.1)的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧...2021-03-25- 这篇文章主要介绍了Pytorch之扩充tensor的操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2021-03-05
- 今天小编就为大家分享一篇pytorch 自定义卷积核进行卷积操作方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-05-06
- 这篇文章主要介绍了解决pytorch 交叉熵损失输出为负数的问题,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-07-08
pytorch绘制并显示loss曲线和acc曲线,LeNet5识别图像准确率
今天小编就为大家分享一篇pytorch绘制并显示loss曲线和acc曲线,LeNet5识别图像准确率,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-05-02- 这篇文章主要介绍了pytorch 实现冻结部分参数训练另一部分,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2021-03-27
从Pytorch模型pth文件中读取参数成numpy矩阵的操作
这篇文章主要介绍了从Pytorch模型pth文件中读取参数成numpy矩阵的操作,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2021-03-04Pytorch 的损失函数Loss function使用详解
今天小编就为大家分享一篇Pytorch 的损失函数Loss function使用详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-05-02- 今天小编就为大家分享一篇python Tensor和Array对比分析,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-04-27
- 今天小编就为大家分享一篇pytorch中的上采样以及各种反操作,求逆操作详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-04-30
- 这篇文章主要介绍了基于Pytorch版yolov5的滑块验证码破解思路详解,本文给大家介绍的非常详细,对大家的学习或工作具有一定的参考借鉴价值,需要的朋友可以参考下...2021-02-25
pytorch中交叉熵损失(nn.CrossEntropyLoss())的计算过程详解
今天小编就为大家分享一篇pytorch中交叉熵损失(nn.CrossEntropyLoss())的计算过程详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-05-02- 这篇文章主要介绍了pytorch深度学习中对softmax实现进行了详细解析,有需要的朋友可以借鉴参考下,希望能够有所帮助,祝大家多多进步...2021-09-30
- 今天小编就为大家分享一篇Pytorch 计算误判率,计算准确率,计算召回率的例子,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-04-27
- 今天小编就为大家分享一篇Pytorch实现LSTM和GRU示例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-04-27
- 这篇文章主要介绍了Pytorch如何切换 cpu和gpu的使用详解,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧...2021-03-01
- 今天小编就为大家分享一篇pytorch动态网络以及权重共享实例,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧...2020-04-29
- 这篇文章主要介绍了解决Pytorch修改预训练模型时遇到key不匹配的情况,具有很好的参考价值,希望对大家有所帮助。如有错误或未考虑完全的地方,望不吝赐教...2021-06-05