本文为香港中文大学与熵汤联合出品的一篇CVPR。获取链接:
即将入坑的和已经入坑的尛伙伴可以添加QQ群交流:
AI服装检索分类
1. 创建了一个服装数据集deep fashionFashion包含80万张服装图像,有类别属性,特征点以及服饰框的标注詳情可以参考我的另一篇博客。
2. 提出一个深度学习模型FashionNet结合服饰属性和特征点进行服饰的特征提取,可以较好的应对服饰的变形遮挡等問题
文中提出结合特征点能够有助于服装识别,同时大量的属性信息能够更好的划分服饰特征空间,从而能够有助于服饰的识别和检索示意图如下:
FashionNet的网络结构类似VGG-16,只是将VGG16的最后一个卷积层进行了修改改成能够处理服装landmarks,属性和类别的网络最后一层的网络示意圖如下。
从上图可以看出VGG16的最后一个卷积层由作者设计的三个分支代替。
最右侧蓝色分支进行特征点可见性预测以及位置回归
中间绿銫的分支,有两个输入:VGG16的conv4 + 右侧蓝色特征点的分支输出结果根据特征点的位置进行局部feature pooling。这一步有助于应对服饰变形和遮挡问题
左边橘色分支,进行全局的特征处理
绿色和橘色分支运算的结果经过fc7_fusion进行融合,预测服装的类别属性和pairs
反向传播过程定义了4中损失函数:
(1)回归损失,用于特征点位置估计损失计算
(2)softmax损失,用于特征点可见性以及服饰类别估计损失计算
(3)cross-entropy损失,用于属性预测损失計算
(4)triple损失,用于服饰pairs预测损失计算
FashionNet是通过将以上4中loss进行加权处理进行优化的。训练过程分两步:
step1: 将特征点可见性预测与位置估計作为主任务其余作为辅助任务,因此该过程中给L_visibility 和 L_landmark较大的权重其余损失赋予较小的权重。
由于任务间有一定的相关性因此这种多任务联合处理的手段能够加速收敛。
Step2: 使用特征点分支的预测结果进行类别,属性以及pairs的预测
以上两步不断迭代直至收敛。