nn.unfold和nn.fold与张量.unfold,还有F.unfold是不一样的操作
1:nn.unfold和nn.fold参考:(1条消息) 「详解」torch.nn.Fold和torch.ynn.Unfold操作_ViatorSun的博客-CSDN博客_unfold操作
(1条消息) pytorch中的nn.Unfold()函数和fold(函数详解_halo_wm的博客-CSDN博客_unfold函数
(1条消息) 图解卷积计算原理与pytorch中fold和unfold函数的使用_子燕若水的博客-CSDN博客_fold unfold2:张量.unfold(dim, size, step)
参考自 (13条消息) F.pad() 函数详解_晓野豬的博客-CSDN博客_f.pad
但发现该参考博客有点问题,下面结合自己的实验进行说明。
实验代码如下:
a = torch.rand(1,3,5,5)
print(a)
b = a.unfold(dimension=2, size=3, step=1)
print(b.shape)
print(b)
结果如下:
结果分析:
dim参数:决定滑动窗口在那个维度取值,比如这个例子中,就是在H维度取值
size参数:决定了窗口的大小,而且只能是一维的
step:决定了窗口在前面指定的dim维度上,每次滑动的步长,这里注意,step决定的是在指定维度上面滑动的步长,但窗口自身还有一个移动方向,是在最后一个维度,也就是W纬上面的滑动,如果dim不是在最后一个维度,则在W维度上面的移动的步长一直都是1。
所以,根据上面的理解,我们可以形象的理解,张量.unfold()是怎么吧一张图片切分成一个个小小的patch了,如图:
实际的例子参考: (13条消息) pytorch实现图像的腐蚀和膨胀_两只蜡笔的小新的博客-CSDN博客_pytorch 腐蚀
3:F.unfold:
例子:
结果:将所有通道的特征图上面指定kernel_size大小的像素排列在一列上面
destiny44123: 加req也不对,这里看上去对是因为你传输的tensor太小;本质上isend和irecv都是异步操作,接收端在访问前应调用wait方法。
jxqbuct: isend得有返回值,然后wait就行了
xx_xjm: 不是吧,函数有几个输入,反传就应该有几个,输入等于自变量,求导等于求偏导吧!!
过◎往: 应该是前向return了几个参数 backward要对这几个参数求导吧
努力学习的双鱼: 你的demo显示也是0,哎