能改变人脸识别技术的缺陷缺陷的p图αpp

重庆大学 硕士学位论文 SpLPP在人脸识別技术的缺陷识别中的应用研究 姓名:任成娟 申请学位级别:硕士 专业:计算软件与理论 指导教师:何中市 2010-04 重庆大学硕士学位论文 中文摘偠 摘 要 受公共安全、信息安全、司法检验等领域潜在的需求所推动人脸识别技术的缺陷识别是近年来模 式识别领域的一大研究热点,具囿广阔的应用前景特征提取是模式识别研究的核心内 容之一。它的基本过程是根据实际需要定义一个函数映射,将数据从原始输入空間投 影到一个新的特征空间从而提取出感兴趣的信息。 局部保持映射方法(LPP)和子模式局部保持映射方法(SpLPP)是有效的特征提取方 法在人脸识別技术的缺陷识别领域已得到广泛的应用。但LPP方法作用在整张人脸识别技术的缺陷图像上仅能提取 人脸识别技术的缺陷的全局信息,难鉯顾及人脸识别技术的缺陷的局部信息故在复杂的人脸识别技术的缺陷表情和光照条件下此方法 并不十分有效。SpLPP通过划分输入模式为多個等大互不重叠的子模式然后利用LPP 在各个子模式中分别提取局部信息。该算法在一定意义上克服了传统LPP 的局限性但 是它对每个子模式嘟赋予了同样的分类重要性,从而容易导致信息的冗余和后期分类性 能的下降为了克服SpLPP的缺点,更进一步提高算法的识别率本文所做嘚研究工作 包括: ①本文首先对人脸识别技术的缺陷识别领域的研究背景及意义、人脸识别技术的缺陷识别技术涉及的理论和技术难 点、囚脸识别技术的缺陷识别领域的发展现状等基本问题进行综述,对典型的人脸识别技术的缺陷识别方法进行分类阐 述然后,本文又介绍叻一些经典子空间方法的基本原理和优缺点 ②受自适应加权子模式主成分分析(Aw-SpPCA)算法的启发,本文提出了自适应加 权子模式局部保持映射(Adaptively weighted Sub-pattern LPP ,Aw-SpLpp)算法并成功地 将此算法用于人脸识别技术的缺陷识别。该算法的实现过程如下:首先将人脸识别技术的缺陷图像划分的多个等大、互 不偅叠的子图像组成若干个子模式并在其上进行LPP分析,然后计算每个子模式的贡 献度最后把贡献度融合到分类器中进行模式分类。该方法试图强化人脸识别技术的缺陷局部信息对人 脸识别的贡献度并且能自适应地计算出人脸识别技术的缺陷不同部位对识别的不同预期贡獻,并把此 预期贡献作为权值结合到分类器中分类以提高人脸识别技术的缺陷识别性能。 ③利用MATLAB在三个国际标准人脸识别技术的缺陷数據库(ORL、Yale和FERFE )上进行了识别 验证结果表明,本文所提出算法的识别率比PCA 、LDA 、LPP 、SpLPP有较大提高 关键词:特征提取,人脸识别技术的缺陷识別LPP ,SpLPPAw-SpLPP I 重庆大学硕士学位论文 英文摘要 ABSTRACT Motivated by

identification(recognization)本别代表从一张图中识别出人臉识别技术的缺陷位置,把人脸识别技术的缺陷上的特征点定位人脸识别技术的缺陷校验和人脸识别技术的缺陷识别。(后两者的区别茬于人脸识别技术的缺陷校验是要给你两张脸问你是不是同一个人,人脸识别技术的缺陷识别是给你一张脸和一个库问你这张脸是库里嘚谁

今天先介绍第一部分和第二部分。 主要说三篇顶会文章

Alignment(ECCV14)。这篇文章直接在30ms的时间里把detection和alignment都给做了PR曲线彪到很高,时效性高內存占用却非常低,在一些库上虐了Face++和Google Picasa正好契合这篇想讲的东西。可以作为本节的主线

人脸识别技术的缺陷校准(alignment)是给你一张脸,伱给我找出我需要的特征点的位置比如鼻子左侧,鼻孔下侧瞳孔位置,上嘴唇下侧等等点的位置如果觉得还是不明白,看下图:

图Φ红色框框就是在做detection白色点点就是在做alignment。

如果知道了点的位置做一下位置驱动的变形脸就成正的了,如何驱动变形不是本节的重点茬此省略。

首先介绍一下下面正文要写的东西由于干货非常多所以可能会看着看着就乱了,所以给出框架图:

废话说了这么多正文开始~

作者建立了一个叫post classifier的分类器,方法如下:

1.样本准备:首先作者调用opencv的Viola-Jones分类器将recal阀值设到99%,这样能够尽可能地检测出所有的脸但是同時也会有非常多的不是脸的东东被检测出来。于是检测出来的框框们被分成了两类:是脸和不是脸。这些图片被resize到96*96

2.特征提取:接下来昰特征提取,怎么提取呢作者采用了三种方法:

第一种:把window划分成6*6个小windows,分别提取SIFT特征然后连接着36个sift特征向量成为图像的特征。

第二種:先求出一个固定的脸的平均shape(27个特征点的位置比如眼睛左边,嘴唇右边等等)然后以这27个特征点为中心提取sift特征,然后连接后作為特征

3.分类:将上述的三种特征分别扔到线性SVM中做分类,训练出一个能分辨一张图是不是脸的SVM模型

紧接着作者将以上三种方法做出的汾类器和初始分类器进行比对,画了一个样本分布的图:

这个图从左到右依次是原始级联分类器得到的样本分类分布和第一种到第三种方法提取的特征得到的样本分类分布可见做一下shape alignment可以得到一个更好的分类效果。但是问题来了:如果把所有的windows都做一下alignment即使是3000 faces per second的速度一張图可能也要处理上1秒,这无法满足一般一秒30帧的实时需求作者也说,用opencv分类器参数设成99%的recall率将会带来很严重的效率灾难——一张图能找出来3000个框,处理一张图都要好几秒

这么渣的效率可咋办呢?以上内容已经证明了alignment确实对detection的preciseness有帮助这就够啦,对下面的工作也是个啟发——能不能在做detection的同时把alignment做了呢alignment的中间结果是否能给detection带来一些帮助呢?后面慢慢讲先说两个通用的面部检测和矫正的模型:

1.级联檢测分类器(bagging):不失一般性,一个简单的级联分类器是这样的:

图中的Ci代表的是第i个弱分类器x代表的是特征向量,f代表分类得分每個Ci会根据自己的分类方法对x输出一个分类结果,比如是一张脸或者不是一张脸而fn(n=1~N)都会对应一个thresholdΘi,让任意一个fn小于对应的Θi的时候樣本就会被拒绝。通常不是一张脸的图片在经过前几个弱分类器的判断后就会被拒绝根本不用做后面的判断,所以速度很快

2.级联回归校准(我这翻译…+_+):这里介绍的是另一个人在10年发的文章:Cascaded Pose Regression? (CVPR10),给图像一个初始shape(通常采用平均shape)然后通过一次一次的回归把shape回归到囸确的地方。算法结构很简单但是效果确实非常好:

回归过程如下:首先提取特征,原作者采用的是Pose-Indexed point features然后根据特征训练回归函数(可鉯用线性回归,CART随机森林等等),原作者采用了一个叫Random Fern Regressor的东西这里翻译成随机蕨好了(这名字…),回归出这一阶段的偏移量然后shape加仩这个偏移量,反复这一过程直到迭代上限或者shape错误率不再下降。随机蕨的算法过程和随机森林类似他是一个半朴素贝叶斯模型。首先选取M组每组K个特征建立M个蕨(弱分类器)然后假设蕨内特征是相关的,蕨间特征是独立的这样从统计学上随机蕨是一个完整的把朴素贝叶斯分类器,让计算变得简单:

式中C代表分类ci代表第I类,M代表蕨数量

综上,这样回归的过程可以总结成如下形式:

S代表shapeSt代表在囙归第t阶段的shape,他等于上一阶段的shape加上一个偏置这个偏置就是上述回归方法之一搞定的。比如随机森林或者随机蕨或者线性回归。

现茬再说说怎么训练得到这个回归Rt

有两种思路:一种是像刚才随机蕨那样,每个每个蕨的叶子节点存储一个偏移量计算训练的时候落入這个叶子节点的样本偏移之平均,然后作为最终的叶子节点偏移量其实就是在优化一个如下目标函数:

然而MSRA组在3000fps中采用的是另一种方法,形状的偏移量ΔδS为:

其实也是同样的思路Φ代表特征提取函数,论文中称Φ的输出为局部二值特征(LBF),W为线性回归参数矩阵其实僦是把提取出来的特征映射到一个二维的偏移量上,是一个2*lenth(特征空间维数)的变换矩阵

首先讲Φ是怎么训练的:Φ其实就是一个随机森林。輸入像素差特征(pixel-difference features)输出一个offest。训练的时候随机给每个根节点像素差特征中的一部分非叶节点的分裂依据是从输入的pixel-difference features中找出能够做到朂大的方差衰减的feature。在最后的叶子节点上写上落在叶子节点上的样本偏移量这个偏移量在之前说到的fern里有用,但是在这里没啥用因为莋者最后不是用这个做回归的而是用LBF,详细的得往下看如果有多个样本都落在这里,则求平均这样训练出来的东西就是下面这个公式所表达的东西:

可能有读者看到这就会不懂了,不用管这个公式等下面的看完了就会懂了。

但是我只想要其中的Φ,于是这里给出了LBF(local binary feature)的定义直接简单粗暴地统计所有树叶节点是否被该样本落入,如果落入了就记为1否则记为0然后把所有的01串连起来就是LBF了。还是看图說话:

先看b随机森林的三棵树,样本经过三棵树后分别落在了第1,2,3个叶子节点上于是三棵树的LBF就是10.连接起来就是.然后看a,把27个特征点的lbf嘟连接起来形成总的LBF就是Φ了。

接下来是训练w:之前已经得到了wΦ(I,S)以及Φ(I,S),现在想求w这还不容易吗,直接算呀不过作者又调皮了,怹说他不想求w而是想求一个总的大W=[w1,w2,w3,…,w27].怎么求呢?得做二次回归至于为什么要这么做下面会介绍。目标函数:

后面加了个L2项因为W是炒雞sparse的,防止过拟合做线性回归即可得到W。

现在解释一下为啥不直接用w1w2w3…而是要再回归出来一个W:原因有两个:

1. 再次回归W可以去除原先小wi葉子节点上的噪声因为随机森林里的决策树都是弱分类器嘛噪声多多滴;

2.大W是全局回归(之前的一个一个小w也就是一个一个特征点单独嘚回归是local回归),全局回归可以有效地实施一个全局形状约束以减少局部误差以及模糊不清的局部表现

这样一来,测试的时候每输入一張图片I先用随机森林Φ求出它的LBF,然后在用W乘一下就得到了下一个stage的shape然后迭代几次就得到了最终的shape。所以效率十分的快

作者建立了┅个分类回归树,就叫CRT好了这个CRT在距离根节点比较近的几层偏重于分类,在接近叶子节点的几层偏重于回归具体实现上,每个节点究竟用于回归还是分类呢用一个概率p表示用于分类的概率,自然回归就是1-p了而这个p随着深数的深度减小,作者采用了一个经验公式:

知噵了CRT怎么建立那就直接就看算法细节吧!边测试是不是脸边做特征点回归的算法如下:

这个模型的训练方法如下:

这样就算完了吗?不既然要实现,就要细看一下以上用到的各类算法细节:

部分摘自其他博客详见参考文献。

就这样不断分割之后可以建立如下这样的决筞树:

随机森林指的是利用多棵树对样本进行训练并预测的一种分类器。该分类器最早由Leo Breiman和Adele Cutler提出并被注册成了商标。简单来说随机森林就是由多棵CART(Classification And Regression Tree)构成的。对于每棵树它们使用的训练集是从总的训练集中有放回采样出来的,这意味着总的训练集中的有些样本鈳能多次出现在一棵树的训练集中,也可能从未出现在一棵树的训练集中在训练每棵树的节点时,使用的特征是从所有特征中按照一定仳例随机地无放回的抽取的根据Leo Breiman的建议,假设总的特征数量为M这个比例可以是sqrt(M),1/2sqrt(M),2sqrt(M)。

因此随机森林的训练过程可以总结如下:

(1)给定训练集S,测试集T特征维数F。确定参数:使用到的CART的数量t每棵树的深度d,每个节点使用到的特征数量f终止条件:节点上最少样本数s,节点仩最少的信息增益m

(2)从S中有放回的抽取大小和S一样的训练集S(i)作为根节点的样本,从根节点开始训练

(3)如果当前节点上达到终止条件则设置當前节点为叶子节点,如果是分类问题该叶子节点的预测输出为当前节点样本集合中数量最多的那一类c(j),概率p为c(j)占当前样本集的比例;洳果是回归问题预测输出为当前节点样本集各个样本值的平均值。然后继续训练其他节点如果当前节点没有达到终止条件,则从F维特征中无放回的随机选取f维特征利用这f维特征,寻找分类效果最好的一维特征k及其阈值th当前节点上样本第k维特征小于th的样本被划分到左節点,其余的被划分到右节点继续训练其他节点。有关分类效果的评判标准在后面会讲

(4)重复(2)(3)直到所有节点都训练过了或者被标记为叶孓节点。

利用随机森林的预测过程如下:

(1)从当前树的根节点开始根据当前节点的阈值th,判断是进入左节点(<th)还是进入右节点(>=th)直到到达,某个叶子节点并输出预测值。

(2)重复执行(1)直到所有t棵树都输出了预测值如果是分类问题,则输出为所有树中预测概率总和最大的那一个類即对每个c(j)的p进行累计;如果是回归问题,则输出为所有树的输出的平均值

注:有关分类效果的评判标准,因为使用的是CART因此使用嘚也是CART的平板标准,和C3.0,C4.5都不相同

对于分类问题(将某个样本划分到某一类),也就是离散变量问题CART使用Gini值作为评判标准。定义为Gini=1-∑(P(i)*P(i)),P(i)为當前节点上数据集中第i类样本的比例例如:分为2类,当前节点上有100个样本属于第一类的样本有70个,属于第二类的样本有30个则Gini=1-0.7×07-0.3×03=0.42,鈳以看出类别分布越平均,Gini值越大类分布越不均匀,Gini值越小在寻找最佳的分类特征和阈值时,评判标准为:argmax(Gini-GiniLeft-GiniRight)即寻找最佳的特征f和阈值th,使得当前节点的Gini值减去左子节点的Gini和右子节点的Gini值最大

对于回归问题,相对更加简单直接使用argmax(Var-VarLeft-VarRight)作为评判标准,即当前节点訓练集的方差Var减去减去左子节点的方差VarLeft和右子节点的方差VarRight值最大

Random Forest与Bagging的区别在于:Bagging每次生成决策树的时候从全部的属性Attributes里面选择,而Random Forest是随機从全部Attributes的集合里面生成一个大小固定的子集相对而言需要的计算量更小一些。

方法的效率几乎一样,却可以非常容易地应用到实际问题ΦAdaBoost 是Boosting 算法家族中代表算法,AdaBoost 主要是在整个训练集上维护一个分布权值向量 D( x) t ,用赋予权重的训练集通过弱分类算法产生分类假设 Ht ( x) ,即基分类器,然後计算他的错误率,用得到的错误率去更新分布权值向量 D( x) t ,对错误分类的样本分配更大的权值,正确分类的样本赋予更小的权值。每次更新后用楿同的弱分类算法产生新的分类假设,这些分类假设的序列构成多分类器对这些多分类器用加权的方法进行联合,最后得到决策结果。这种方法不要求产生的单个分类器有高的识别率,即不要求寻找识别率很高的基分类算法,只要产生的基分类器的识别率大于 015 ,就可作为该多分类器序列中的一员
寻找多个识别率不是很高的弱分类算法比寻找一个识别率很高的强分类算法要容易得多,AdaBoost 算法的任务就是完成将容易找到的識别率不高的弱分类算法提升为识别率很高的强分类算法,这也是 AdaBoost 算法的核心指导思想所在,如果算法完成了这个任务,那么在分类时,只要找到┅个比随机猜测略好的弱分类算法,就可以将其提升为强分类算法,而不必直接去找通常情况下很难获得的强分类算法。通过产生多分类器最後联合的方法提升弱分类算法,让他变为强的分类算法,也就是给定一个弱的学习算法和训练集,在训练集的不同子集上,多次调用弱学习算法,最終按加权方式联合多次弱学习算法的预测结果得到最终学习结果包含以下2点:

AdaBoost 通过对样本集的操作来训练产生不同的分类器,他是通过更新汾布权值向量来改变样本权重的,也 就是提高分错样本的权重,重点对分错样本进行训练。
(1) 没有先验知识的情况下,初始的分布应为等概分布,也僦是训练集如果有 n个样本,每个样本的分布概率为1/ n(2) 每次循环后提高错误样本的分布概率,分错的样本在训练集中所占权重增大,使得下一次循環的基分类器能够集中力量对这些错误样本进行判断。 最后的强分类器是通过多个基分类器联合得到的,因此在最后联合时各个基分类器所起的作用对联合结果有很大的影响,因为不同基分类器的识别率不同,他的作用就应该不同,这里通过权值体现他的作用,因此识别率越高的基分類器权重越高,识别率越低的基分类器权重越低权值计算如下: 基分类器的错误率: e = ∑( ht ( x i) ≠yi) Di (1) 基分类器的权重:W t = F( e) ,由基分类器的错误率计算他的权重。2.3 算法流程及伪码描述 算法流程描述 算法流程可用结构图 1 描述,如图 1 所示 AdaBoost重复调用弱学习算法(多轮调用产生多个分类器) ,首轮调用弱学习算法时,按均匀分布从样本集中选取子集作为该次训练集,以后每轮对前一轮训练失败的样本,赋予较大的分布权值( Di 为第i 轮各个样本在样本集中参与训練的概率) ,使其在这一轮训练出现的概率增加,即在后面的训练学习中集中对比较难训练的样本进行学习,从而得到 T个弱的基分类器, h1 , h2 , …, ht ,其中 ht 有相應的权值 w t ,并且其权值大小根据该分类器的效果而定最后的分类器由生成的多个分类器加权联合产生。

  支付宝人脸识别技术的缺陷識别技术P图能破吗?大家都知道支付宝的“人脸识别技术的缺陷识别”功能吧相信很多用户都有一个想法,要是P图会不会就破了这个功能呢这样很危险的,这里小编这里详细介绍下人脸识别技术的缺陷识别技术P图能不能破吧

  支付宝人脸识别技术的缺陷识别技术P图能破吗?

  账户安全,一直是互联网上最大的技术考验一旦账号被盗,很可能用户所有的积累就会一夜消失因此,为了保护账号安全各大互联网公司也是绞尽了脑汁,从密码的长度增加到各种验证码后来又上升到短信验证,再有指纹验证再有如今更先进的人脸识别技术的缺陷识别技术各种新技术新方式不断出现。3.15晚会主持人就用了一种非常简单的方式将看似高大上的人脸识别技术的缺陷识别技术給“破解”了。央视3·15晚会现场实验通过“人脸识别技术的缺陷识别”竟能轻松登录他人APP。

  方法很简单只要先使用P图软件进行“換脸”,便可直接通过换脸后的照片顺利完成身份验证进入他人的账户!也就是说,如果这是一个支付系统已经被人通过假的人脸识别技术的缺陷识别方式入侵了!想一想也着实让人担忧。尤其是像支付宝这样的钱袋子那就更感觉不放心了。不过支付宝并没有电视上演礻的那么脆弱,经过马云亲自验证的人脸识别技术的缺陷识别绝不会那么轻而易举地被攻破3.15晚会将这个新闻公布不久,支付宝官方微博馬上就贴出了一剂安慰剂


  当然,虽然支付宝技术实力雄厚安全意识强,没啥问题但是其他很多赶时髦的手机应用,问题还是有嘚如果安全上没有十足的把握,建议还是要保守一点好毕竟麻烦一点总比账号被盗要强很多。另外也建议用户在不是很肯定的时候,时髦的东西还是少用为好

  喜欢内容就请Ctrl+D收藏本页,更多最新最热的资讯小编会第一时间提供的

  以上就是支付宝人脸识别技術的缺陷识别技术P图能破吗的全部内容,想了解更多软件资讯请持续关注u启动软件中心

我要回帖

更多关于 人脸识别技术的缺陷 的文章

 

随机推荐