[image]5 请问有没有朋友知道这是那个公司的服装?只能看清楚后两个字,第一个看不清楚,后两个

近年来众多的自我监督学习方法被提出用于学习图像表示,每一种方法都比前一种更好但是,他们的表现仍然低于有监督的方法当Chen等人在他们的研究论文“SimCLR:A Simple Framework for Contrastive Learning of Visual Representations”中提出一个新的框架时,这种情况改变了SimCLR论文不仅改进了现有的自监督学习方法,而且在ImageNet分类上也超越了监督学习方法在这篇文章中,峩将用图解的方式来解释研究论文中提出的框架的关键思想

当我还是个孩子的时候,我记得我们需要在课本上解决这些难题

事实证明,我们可以通过一种叫做对比学习的方法来学习它试图教会机器区分相似和不同的东西。

要为机器而不是孩子来对上述练习进行建模峩们需要做三件事:

1、相似和不同图像的样本

我们需要相似和不同的图像样本对来训练模型。

2、了解图像所表示的内容的能力

我们需要某種机制来得到能让机器理解图像的表示

3、量化两个图像是否相似的能力

我们需要一些机制来计算两个图像的相似性。

本文提出了一个框架“SimCLR”来对上述问题进行自监督建模它将“对比学习”的概念与一些新颖的想法混合在一起,在没有人类监督的情况下学习视觉的表示

SimCLR框架,正如全文所示非常简单。取一幅图像对其进行随机变换,得到一对增广图像x_i和x_j该对中的每个图像都通过编码器以获得图像嘚表示。然后用一个非线性全连通层来获得图像表示z其任务是最大化相同图像的z_i和z_j两种表征之间的相似性。

让我们通过一个示例来研究SimCLR框架的各个组件假设我们有一个包含数百万未标记图像的训练库。

我们还以平方根学习率缩放为基础以更大的批次大小(最大32K)和更長的时间(最大3200个纪元)进行训练。如图B.2所示批处理大小为8192,性能似乎已达到饱和而训练更长的时间仍然可以显着改善

因此,SimCLR为这一方向的进一步研究和改善计算机视觉的自监督学习状态提供了一个强有力的框架

简单得讲,这篇文章最大的特点就是两个字“暴力”

我要回帖

更多关于 没有朋友怎么办 的文章

 

随机推荐