保存提取
切换视频源:

(无法播放? 请 点击这里 跳转至Youtube)



保存提取

作者: 莫烦 编辑: 莫烦 发布于: 2017-05-06

学习资料:

要点

训练好了一个模型, 我们当然想要保存它, 留到下次要用的时候直接提取直接用, 这就是这节的内容啦. 我们用回归的神经网络举例实现保存提取.

保存

我们快速地建造数据, 搭建网络:

接下来我们有两种途径来保存

提取网络

这种方式将会提取整个神经网络, 网络大的时候可能会比较慢.

只提取网络参数

这种方式将会提取所有的参数, 然后再放到你的新建网络中.

显示结果

调用上面建立的几个功能, 然后出图.

3-4-1.png

这样我们就能看出三个网络完全一模一样啦.

所以这也就是在我 github 代码 中的每一步的意义啦.


降低知识传递的门槛

莫烦经常从互联网上学习知识,开源分享的人是我学习的榜样。 他们的行为也改变了我对教育的态度: 降低知识传递的门槛

我组建了微信群,欢迎大家加入,交流经验,提出问题,互相帮持。 扫码后,请一定备注"莫烦",否则我不会同意你的入群申请。

wechat
  • Victory
    2022-10-12
    老师好,请问def save和torch.save中的save是一个save么?
    老师好,请问def save和torch.save中的save是一个save么?
    • 莫烦Python
      回复
      Victory ⤴
      2022-10-13
      不是,def save 是自定义的一种 save 方式。torch.save 是 torch 中自己的保存方式
      不是,def save 是自定义的一种 save 方式。torch.save 是 torch 中自己的保存方式
  • 2021-03-27
    莫烦老师你好,我用了这段代码后,拟合后的红色折线全是直线,我看了里面的值都是0.4412,全部一样,后来我把lr改为上一章节中的0.2,拟合结果就变为和这篇文章里一样的折线了。
    莫烦老师你好,我用了这段代码后,拟合后的红色折线全是直线,我看了里面的值都是0.4412,全部一样,后来我把lr改为上一章节中的0.2,拟合结果就变为和这篇文章里一样的折线了。
    • 莫烦Python
      回复
      蓝 ⤴
      2021-03-28
      学习率太大容易学坏,建议可以取小一点,比如 0.1等
      学习率太大容易学坏,建议可以取小一点,比如 0.1等