2025年conv1d函数(conv1d函数输入数据举例)

conv1d函数(conv1d函数输入数据举例)官方文档介绍 https pytorch org docs master nn html convolution layers pytorch 中文文档 https pytorch cn readthedocs io zh latest 当然 在 pycharm 中查找某个函数的具体结构时也可以 ctrl click nbsp https pytorch org docs master generated torch nn Conv1d



官方文档介绍

https://pytorch.org/docs/master/nn.html#convolution-layers

pytorch 中文文档:

https://pytorch-cn.readthedocs.io/zh/latest/

当然,在pycharm中查找某个函数的具体结构时也可以ctrl+click
 

https://pytorch.org/docs/master/generated/torch.nn.Conv1d.html#torch.nn.Conv1d

在由多个输入平面组成的输入信号上应用一维卷积。

 

在最简单的情况下,具有输入大小的图层的输出值  和输出  可以精确地描述为: 

    • ⋆ 是有效的运算符, N是一个批处理大小,C表示多个通道, L 是信号序列的长度。该模块支持。

    •  控制互相关的步幅,单个数字或一个元素的元组。

    • 控制点数两侧的隐式填充量。

    • 控制内核点之间的间距;也称为àtrous算法。很难描述,但是此 对操作做了很好的可视化。

    • 控制输入​​和输出之间的连接。 并且必须都可以被整除 。例如,

    • groups= 1时,所有输入都卷积为所有输出。

    • 在groups = 2时,该操作等效于并排设置两个conv层,每个conv层看到一半的输入通道并产生一半的输出通道,并且随后都将它们级联。

    • 在groups =,每个输入通道都与自己的一组过滤器(​ ).

当groups = in_channels和out_channels == K * in_channels时,其中K为正整数,此操作也称为“深度卷积”。

换句话说,对于大小的输入  ,可以使用参数执行 深度乘数K的深度卷积

在某些情况下,当在CUDA设备上使用张量时,此运算符可能会选择不确定的算法来提高性能。如果不希望这样做,可以尝试通过设置确定操作(可能以性能为代价)。

https://pytorch.org/docs/master/notes/randomness.html

重现性

在PyTorch发行版,单独的提交或不同的平台上,不能保证完全可重复的结果。此外,即使使用相同的种子,结果在CPU和GPU执行之间也可能无法重现。

但是,您可以采取一些步骤来限制特定平台,设备和PyTorch版本的不确定行为的来源。首先,您可以控制可能导致应用程序的多个执行行为不同的随机性源。其次,您可以配置PyTorch以避免对某些操作使用不确定的算法,这样,在给定相同输入的情况下,对这些操作的多次调用将产生相同的结果。

警告

确定性操作通常比非确定性操作慢,因此对于您的模型,单次运行性能可能会降低。但是,确定性可以通过促进实验,调试和回归测试来节省开发时间。

  • in_channels()–输入图像中的通道数

  • out_channels()–卷积产生的通道数

  • kernel_size)–卷积内核的大小

  • 步幅可选)–卷积的步幅。默认值:1

  • padding可选)–将零填充添加到输入的两侧。默认值:0

  • padding_mode字符串可选) 默认:

  • 膨胀可选)–内核元素之间的间距。默认值:1

  • 可选)–从输入通道到输出通道的阻塞连接数。默认值:1

  • 偏差可选)–如果为,则向输出添加可学习的偏差。默认:

N是一个批处理大小,C表示多个通道, L 是信号序列的长度

 

 

 

 

 

 

 

编程小号
上一篇 2025-08-12 09:40
下一篇 2025-03-01 17:17

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
如需转载请保留出处:https://bianchenghao.cn/bian-cheng-ri-ji/46826.html