加入收藏 | 设为首页 | 会员中心 | 我要投稿 鹤壁站长网 (https://www.0392zz.cn/)- 分布式云、存储数据、视频终端、媒体处理、内容创作!
当前位置: 首页 > 站长资讯 > 外闻 > 正文

让你搞懂 Nginx 的负载均衡

发布时间:2021-02-18 12:15:43 所属栏目:外闻 来源:互联网
导读:我的看法:在ImageNet上训练的大多数模型都没有使用很高强度的增强方法。高强度增强数据后,模型可能无法正确收敛。实际上,模型有时可能会对增强过拟合,当然这还需要进行适当的细节研究。 2、增强和标记数据集大小对自训练的影响 作者使用相同的模型(使用

我的看法:在ImageNet上训练的大多数模型都没有使用很高强度的增强方法。高强度增强数据后,模型可能无法正确收敛。实际上,模型有时可能会对增强过拟合,当然这还需要进行适当的细节研究。

2、增强和标记数据集大小对自训练的影响

作者使用相同的模型(使用带有EfficientNet-B7主干的RetinaNet检测器)和相同的任务(COCO数据集目标检测)来研究自训练的影响。作者使用ImageNet数据集进行自训练(这种情况下将丢弃ImageNet的原始标签)。作者观察到以下几点:

  • 即使预训练对结果产生了负面影响,自训练也有助于大规模数据集和高强度增强的情况:作者发现,当使用大量数据增强时将自训练应用到随机初始化模型中,这样不仅可以提高基线结果,并且超过了同情况下预训练的结果。该实验结果如下:

3、预训练

为了研究预训练的有效性,作者使用了ImageNet预训练的检查点。使用EfficientNet-B7作为架构用于评估,对此模型,设置了两个不同的检查点,如下所示:1)ImageNet:通过AutoAugment在检查点上训练EfficientNet-B7,在ImageNet上达到84.5%了的top-1准确率。2)ImageNet ++:采用论文《Self-training with Noisy Student improves ImageNet classification》中提出的Noisy Student方法在检查点上训练EfficientNet-B7,其中利用了额外3亿张未标记的图像,并达到了86.9%的top-1准确率。采用随机初始化训练的结果标记为Rand Init。

4、自训练

自训练是基于Noisy Student方法实现的,有三个步骤:

  • 在标记的数据(例如COCO数据集)上训练teacher model。
  • 使用teacher model在未标记的数据(例如ImageNet数据集)上生成伪标记。
  • 训练一个student model,以联合优化人工标签和伪标签上的损失。

四、实验

1、增强和标记数据集大小对预训练的影响

作者使用ImageNet进行监督预训练,并改变带标签的COCO数据集大小以研究预训练对结果的影响。实验过程中,不仅会改变标记数据的大小,而且还使用不同增强强度的数据集,使用以EfficientNet-B7为主干网络的RetinaNe模型来进行训练。作者观察到以下几点:

  • 使用高强度的数据增强时,监督预训练会损害性能:作者注意到,当他们使用如上所述的标准增强方法Augment-S1时,预训练会对结果有所帮助。但是随着增加增强的强度,预训练并未对结果有太大帮助。实际上,他们观察到,在使用最强的数据增强(Augment-S3)时,预训练会严重损害性能。
  • 更多带标签的数据会降低监督预训练的价值:这不是一个新发现。我们都知道,当数据量较小时,预训练会对结果有所帮助。但是有足够数量的标记数据时,从头开始训练也不会得到很差的结果。作者发现了相同的结论,这一观点与FAIR的论文《Rethinking ImageNet Pre-training》相一致。


互联网赋能农产品品牌打造

利用地方特色农产品化创新为推动点,建立良好的消费口碑和品牌形象,让更多的用户(买家用户、批发商用户、零售门店用户等)快速认知并体验产品,加强产品在线上及线下的曝光率、产品体验、粘性、市场占有率等,突出“品牌引领、渠道支撑、市场导向”,开拓更多的农特产品消费市场,促进各地区农特产品成功走出乡村。



(编辑:鹤壁站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读