Python查看Tensor尺寸及查看数据类型的实现

目录

查看Tensor尺寸及查看数据类型

Tensor尺寸查看

数据类型查看

Pytorch基本数据类型tensor

Python和Pytorch数据类型对应

创建tensor的方法

一些常用的生成tensor方法

tensor的切片与索引

tensor的维度变换(重点)

tensor的叠加和分割

tensor的数学运算

tensor的统计相关操作

查看Tensor尺寸及查看数据类型 Tensor尺寸查看

命令:

x.shape

例子:

input = torch.randn(20,16,50,32) input.shape

输出为:

注意调用的时候不要用x.shape()

否则会报错:AttributeError: 'Tensor' object has no attribute 'get_shape'

数据类型查看

命令:

x.type()

例子:

input = torch.randn(20,16,50,32) input.type()

输出:

Pytorch基本数据类型tensor

在Pytorch中必须使用Pytorch特有的张量(tensor)数据类型,本文介绍tensor的基本操作

Python和Pytorch数据类型对应

以上数据是存储在CPU中。

如果使用.cuda(),会返回一个GPU上的引用

import torch a = torch.tensor([1,2]) c = a.cuda print(c) print(type(c)) -----输出------ D:\Users\Lenovo\anaconda3\python.exe C:/Users/Lenovo/Desktop/pythonProject2/main.py <built-in method cuda of Tensor object at 0x000002A03434CA00> <class 'builtin_function_or_method'> Process finished with exit code 0 创建tensor的方法 import torch import numpy a = numpy.array([1,2,3,4]) b = torch.from_numpy(a) #从numpy中引入 print(b) c = torch.tensor([1,2,3,4]) print(c) #直接创建 d = torch.Tensor([4,5,6,7]) print(d) #直接创建 e = torch.Tensor(2,3) print(e) #用shape创建随机的指定维度的tensor 一些常用的生成tensor方法 import torch a = torch.rand(3, 3) #生成指定大小的,元素范围[0,1]的tensor print(a) b = torch.rand_like(a) #生成与对象tensor大小一致的tensor print(b) c = torch.randint(1,10,(3,3)) #生成(3,3)大小,[1,10)范围的tensor(包括1,但不包括10) print(c) d = torch.randn(2,4) #生成均值为0,方差为1的随机tensor print(d) e = torch.full([2,5],0) #生成全部一样的tensor print(e) f = torch.arange(0,10) #生成顺序tensor print(f) g = torch.linspace(0,9,steps=8) #生成[0,9],等分成8个的tensor print(g) print(torch.ones(3,1), torch.zeros(4,5), torch.eye(6)) #生成全1,全0,单位矩阵tensor tensor的切片与索引 import torch a = torch.rand(3, 7) #生成指定大小的,元素范围[0,1]的tensor print(a) print("*"*100) print(a[0]) #取一行 print("*"*100) print(a[:2,4:]) #指定一块子区域 print("*"*100) print(a[:,2]) #取一列 print("*"*100) print(a[:,0:7:2]) #[0,7]行隔2行取样 print("*"*100) print(a.index_select(1,torch.tensor([2,6]))) #指定切片位置 print("*"*100) mask = a.ge(0.8) print(torch.masked_select(a,mask)) #通过掩码条件切片(注意切片后会被flatten) print(mask) #看看mask矩阵 tensor的维度变换(重点)

基本操作:

view/reshape

squeeze/unsqueeze

import torch a = torch.rand(3,4,2) #生成指定大小的,元素范围[0,1]的tensor print(a) # view方法:变换tensor的形状 print(a.view(3, 8)) #压缩维度 print(a.view(3,2,2,2)) #扩展维度 # unsqueeze方法:在指定地方插入一维(squeeze方法同理会消除一维) print(a.unsqueeze(1)) print(a.squeeze(1)) #squeeze只有在原有维度为1才有用,试试把上面改成rand(3,1,2)看看效果 tensor的叠加和分割 ```python import torch #cat操作 a = torch.rand(4,1,3) b = torch.rand(3,1,3) # print(a) # print(b) c = torch.cat((a,b)) #合并tensor(只能在其他dimension一致的情况下才能合并) # print(c) # print(c.shape) #stack操作 d = torch.rand(4,1) e = torch.rand(4,1) # print(d) # print(e) f = torch.stack((d,e)) #合并tensor,与cat不同的是,stack会增加一个更高的维度 # print(f) # print(f.shape) #split操作 g = torch.rand(5,2,1) h,i = g.split([1,4]) # print(g) # print(h) # print(i) tensor的数学运算 import torch #基本加减乘除 a = torch.zeros(4,3) b = torch.ones(3) # print(a+b) #这样会报错,正确做法如下 # print(torch.add(a, b)) #结果全是1,broadcast运算逻辑 c = torch.tensor([[1,2,3],[4,5,6],[7,8,9]]) d = torch.eye(3) # print(torch.add(c,d)) # print(c+d) #不采用broadcast逻辑时,这样也可以 # print(c*d) # print(c/d) # print(c**2) #平方 # print(c**0.5) #开平方 #矩阵相乘 # print(torch.matmul(torch.ones(3,3),torch.ones(3,3))) # print(torch.ones(3,3)@torch.ones(3,3)) #用@的效果是一样的 #高维度的矩阵相乘 e = torch.rand(4,3,2,3) f = torch.rand(4,3,3,5) g = e@f # print(g) # print(g.shape) #可以看到,本质上也是二维矩阵相乘的规律 #clamp算法 print(c.clamp(4)) #把小于4的值全部都替换成4 tensor的统计相关操作 import torch #norm方法(求范数) a = torch.arange(10,dtype=float) b = a.view(2,5) print(a.norm(1)) print(b.norm(1)) print(a.norm(2,dtype=float)) #同理求二范数 print(b) print(b.norm(1,dim=1,dtype=float)) #求指定维度的范数 #求最大、最小、平均、求和 print(a.sum()) print(a.min()) print(a.max()) print(a.mean()) #top N的值 c = torch.tensor([1,2,3,3,4,4,4,5,5,5,5,6,8,8],dtype=float) print(c.topk(3)) print(c.topk(3, largest=False)) #找到前N最小的值 print(c.kthvalue(4)) #找到第k小的值 #比较 print(a>4) print(a!=8) #where cond = torch.tensor([[1,2],[3,4]],dtype=float) #用where组合2个tensor d = torch.zeros(2,2) e = torch.ones(2,2) print(torch.where(cond>2,d,e))

以上为个人经验,希望能给大家一个参考,也希望大家多多支持易知道(ezd.cc)。

推荐阅读