搜索

torch.nn.RNNBase.flatten_parameters() - 朴素贝叶斯 - 博客园


发布时间: 2022-11-24 18:18:03    浏览次数:15 次
  • Resets parameter data pointer so that they can use faster code paths
  • Right now, this works only if the module is on the GPU and cuDNN is enabled. Otherwise, it’s a no-op.

翻译一下,就是重置参数的数据指针。其实就是contiguous(连续性)的问题,在pytorch issue上有这样的warning:

UserWarning: RNN module weights are not part of single contiguous chunk of memory. This means they need to be compacted at every call, possibly greately increasing memory usage. To compact weights again call flatten_parameters().

我的理解是,为了提高内存的利用率和效率,调用flatten_parameters让parameter的数据存放成contiguous chunk(连续的块)。类似我们调用tensor.contiguous.

免责声明 torch.nn.RNNBase.flatten_parameters() - 朴素贝叶斯 - 博客园,资源类别:文本, 浏览次数:15 次, 文件大小:-- , 由本站蜘蛛搜索收录2022-11-24 06:18:03。此页面由程序自动采集,只作交流和学习使用,本站不储存任何资源文件,如有侵权内容请联系我们举报删除, 感谢您对本站的支持。 原文链接:https://www.cnblogs.com/zjuhaohaoxuexi/p/16755352.html