PyTorch中的torch.cat简单介绍

PyTorch中的torch.cat简单介绍

目录

1.toych简单介绍

2.张量Tensors

3.torch.cat

1.toych简单介绍

torch包含了多维疑是的数据结构及基于其上的多种数学操作。

torch包含了多维张量的数据结构以及基于其上的多种数学运算。此外,它也提供了多种实用工具,其中一些可以更有效地对张量和任意类型进行序列化的工具。

它具有CUDA的对应实现,可以在NVIDIA GPU上进行张量运算(计算能力>=3.0)

2. 张量Tensors

torch.is_tensor(obj):如果obj是一个pytorch张量,则返回True

torch.is_storage(obj):如果obj是一个pytorch storage对象,则返回True

torch.numel(input):返回input张量中的元素个数。

3.torch.cat a = torch.ones([1,2]) b = torch.ones([1,2]) z = torch.cat([a,b],1) a Out[47]: tensor([[1., 1., 1., 1.]]) a Out[48]: tensor([[1., 1.]])

如果第二个参数是1,torch.cat就是将a,b 按列放在一起,大小为torch.Size([1,4])。如果第二个参数是0,则按行

行放在一起,大小为 torch.Size([2, 2]) 。

字面理解:torch.cat是将两个张量(tensor)拼接在一起,cat是concatenate的意思,即拼接,联系在一起。

例子理解:

import torch A = torch.ones(2,3) A #tensor([[1., 1., 1.], #        [1., 1., 1.]]) B=2*torch.ones(4,3) B #tensor([[2., 2., 2.], #        [2., 2., 2.], #        [2., 2., 2.], #        [2., 2., 2.]]) C = torch.cat((A,B),0) #按维数0(添加到行)拼接 C #tensor([[1., 1., 1.], #        [1., 1., 1.], #        [2., 2., 2.], #        [2., 2., 2.], #        [2., 2., 2.], #        [2., 2., 2.]]) D = 2*torch.ones(2,4) M = torch.cat((A,D),1)  # 按维数1(列)拼接 M #tensor([[1., 1., 1., 2., 2., 2., 2.], #        [1., 1., 1., 2., 2., 2., 2.]]) M.size() #torch.Size([2, 7])

使用torch.cat((A,B),dim)时,除拼接维数dim数值可不同外其余维数数值需相同,方能对齐

到此这篇关于PyTorch中的torch.cat的文章就介绍到这了,更多相关torch.cat内容请搜索易知道(ezd.cc)以前的文章或继续浏览下面的相关文章希望大家以后多多支持易知道(ezd.cc)!

推荐阅读