著录项信息
专利名称 | 一种人脸表情克隆方法 |
申请号 | CN201410269983.9 | 申请日期 | 2014-06-17 |
法律状态 | 授权 | 申报国家 | 中国 |
公开/公告日 | 2014-08-27 | 公开/公告号 | CN104008564A |
优先权 | 暂无 | 优先权号 | 暂无 |
主分类号 | G06T13/40 | IPC分类号 | G;0;6;T;1;3;/;4;0查看分类表>
|
申请人 | 河北工业大学 | 申请人地址 | 天津市北辰区西平道5340号河北工业大学
变更
专利地址、主体等相关变化,请及时变更,防止失效 |
权利人 | 河北工业大学 | 当前权利人 | 河北工业大学 |
发明人 | 张满囤;葛新杰;霍江雷;肖智东;游理华;张建军 |
代理机构 | 天津翰林知识产权代理事务所(普通合伙) | 代理人 | 胡安朋 |
摘要
本发明一种人脸表情克隆方法,涉及三维(3D)图像的加工,是一种基于运动捕捉数据的人脸表情克隆方法,一、预先捕捉一系列人脸面部运动序列;二、人脸面部生气、厌恶、恐惧、高兴、悲伤和吃惊六个基本表情信息的运动捕捉;三、对运动捕捉到的人脸面部六个基本表情信息进行处理;四、构建源面部和目标面部关键模型、五、选取四十一个人脸面部特征点;六、人脸表情的转移;七、生成人脸克隆表情。本发明克服了现有技术中均一权值保真度低和余切权值计算不稳定的问题以及运动捕捉设备有较高的要求和处理速度较慢的缺陷。
1.一种人脸表情克隆方法,其特征在于:是一种基于运动捕捉数据的人脸表情克隆方法,步骤如下:
第一步,预先捕捉一系列人脸面部运动序列:
先利用运动捕捉设备捕捉表演者的面部肌肉活动,收集人脸面部特征点的原始数据,即特征点的位置关系;
第二步,人脸面部六个基本表情信息的运动捕捉:
利用运动捕捉设备记录表演者的人脸面部六个基本表情的信息,即生气、厌恶、恐惧、高兴、悲伤和吃惊的信息;
第三步,对运动捕捉到的人脸面部六个基本表情信息进行处理:
(1)原始数据标记标号:对人脸面部特征点的原始数据进行标记标号,生成统一的人脸面部特征点模板,进而在每个人脸面部特征点附近生成局部坐标的相关信息;
(2)数据清理:上述(1)中的统一的人脸面部特征点模板提供了相邻人脸面部特征点的位置、坐标以及单个人脸面部特征点的活动范围信息,利用上述(1)中的局部坐标关系对丢失的人脸面部特征点进行数据清理;
(3)间隙填充:上述(1)中生成的局部坐标相对人脸的前额、鼻尖或者下巴的位置关系不变,将局部坐标看作静止参考点,根据三点确定一个平面的定理,通过静止参考点以及局部三个人脸面部特征点,四个标记作为一组坐标来估计和确定丢失人脸面部特征点的间隙位置信息;
(4)数据归一化:在捕捉过程中,对于丢失的人脸面部特征点,通过上面的数据清理和间隙填充达到数据归一化;
第四步,构建源面部和目标面部关键模型:
首先确定一组源模型的生气、厌恶、恐惧、高兴、悲伤和吃惊这六种强烈表情为关键表情,然后通过变形源人脸模型和目标模型各自带有的中性表情的基本模型来产生它们的各自带有的关键表情的关键模型;
第五步,选取四十一个人脸面部特征点:
按照MPEG-4标准,在人脸关键表情区域标记四十一个人脸面部特征点,其中四十一个人脸面部特征点需要在人脸表情突出部位周围选取,就是在前额、左眉、左上眼睑、右眉、右上眼睑、左下眼睑、左脸、鼻子、右下眼睑、右脸、上嘴唇、下巴和下嘴唇这些表现人脸表情的关键特征区域进行选点;
第六步,通过采用凸权值的拉普拉斯变形算法将人脸表情转移到目标模型上:
(1)对第四步中确定的每一种关键表情通过计算源模型人脸面部特征点的位移来参数化目标模型人脸面部特征点的位移向量:
在源基本模型上交互地选择四十一个人脸面部特征点,然后提取它们到生气、厌恶、恐惧、高兴、悲伤和吃惊这六个源关键模型的位移,连接这些位移,形成每个源关键模型的位移向量来参数化对应的目标关键模型,标记人脸面部特征点时,只在源基本模型上标记,其它关键模型的这些人脸面部特征点,根据它们与源基本模型的顶点对应关系来自动确定,当参数空间的维数远远高于目标关键模型的维数时,要采用主成分分析方法,即PCA方法,进行降维;
(2)将全局坐标变成拉普拉斯坐标:
全局坐标是位于全局坐标系中的坐标,拉普拉斯坐标为顶点与其邻接顶点坐标加权和的差,对每个i=1,2,...,n,定义N(i)为顶点vi所有邻接点的集合,di为集合N(i)中元素的个数,拉普拉斯坐标表示为:
(3)生成人脸克隆表情:
目标模型的坐标表示为:
其中, 为目标模型表情克隆后的所有顶点坐标,V为初始坐标,δ为V对应的拉普拉斯坐标,wj为顶点vj的权重,cj为目标模型上第j个人脸面部特征点,
采用最小二乘法,求解这个能量方程,当误差函数最小时,求得目标模型的坐标,生成人脸克隆表情,由此完成通过采用凸权值的拉普拉斯变形算法将人脸表情转移到目标模型;
上述拉普拉斯坐标的基于凸权值拉普拉斯变形算法流程是如下:S1:开始;S2:导入人脸面部特征点数据;S3:目标模型参数化;S4:计算拉普拉斯坐标;S5:计算每个顶点的权重;
S6:计算目标模型变形坐标;S7:人脸克隆表情。
一种人脸表情克隆方法\n技术领域\n[0001] 本发明的技术方案涉及三维(3D)图像的加工,具体地说是一种人脸表情克隆方法。\n背景技术\n[0002] 人脸表情克隆技术是将人脸的表情克隆到与源模型具有不同拓扑结构的目标模型上,目标模型可以是不同性别不同种族的人,也可以是与人脸拓扑结构有很大差异的动物。基于数据驱动的人脸表情克隆技术充分利用已有的顶点运动数据可以快速合成真实和自然的克隆表情。近年来,该技术广泛的应用于计算机动画、计算机游戏和计算机视觉领域。\n[0003] 从人的视觉要求出发,总是希望克隆的人脸表情能够尽可能地达到逼真,但由于受模型和计算机能力的限制,合成的图像总是与人们的要求有一定的差距。在克隆表情工作后期经常需要对眼睛和牙齿这些脸部凹陷的区域作后期处理,而且变形过程中往往需要融合多种方法,制作要求较高。现有技术中的一些研究人员曾利用已有顶点的动画数据,提出了一种基于径向基函数(RBF)的表情克隆方法(参见Junyong Noh and Ulrich Neumann.Expression cloning.In Proceedings of ACM SIGGRAPH,pages277–288,New York,USA,2001)。这种方法仅仅转移了运动矢量,而对于稀疏的源数据,将会丢失源模型的部分表情细节。还有一些研究人员通过预先记录的人脸运动捕捉数据库,提出一种基于人脸面部特征点的人脸表情动画方法来合成真实的表情动画,然而动画的质量严重依赖于庞大的数据库(参见Zhigang Deng and Ulrich.Expressive speech animation synthesis with phoneme-level control.Computer Graph Forum,27:2096–2113,2008)。另有一些研究人员通过增加边界约束条件,将重定义问题用泊松方程来表示,利用贝叶斯公式产生与源运动一致的目标动画,这种方法仅集中于大规模的脸部变形,没有考虑现实的皱纹这些小尺度细节(参见Yeongho Seol,J.P.Lewis,Jaewoo Seo,Byungkuk Choi,Ken Aniyo and Junyong Noh.Spacetime expression cloning for blendshapes.ACM Transactions on Graphics,31:1-12,2012)。最近,Bhat和Goldenthal等人又提出了一种基于人脸重要轮廓特征的表演捕捉方法,该方法主要是对眼睛和嘴部这些人脸表情的关键区域进行表情匹配处理来得到高质量的克隆表情,这种方法对运动捕捉设备有较高的要求(参见Kiran S.Bhat,Rony Goldenthal,Yuting Ye,Ronald Mallet and Michael Koperwas.High fidelity facial animation capture and retargeting with contours.In \nProceedings of the ACM SIGGRAPH,pages7-14,New York,USA,2013)。CN101944238A公开了一种基于拉普拉斯变换的数据驱动人脸表情合成方法,首先将采集表演者的脸部运动数据分解为脸部表情运动和头部刚体运动,计算载入的中性目标人脸模型中各顶点的拉普拉斯坐标,然后将脸部表情运动迁移到中性目标人脸模型上,使得中性目标人脸模型具有与表演者一致的表情,最后将头部刚体运动迁移到具有与表演者一致表情的目标人脸模型上,使得最终的目标人脸模型具有与表演者一致的面部表情和姿态。此方法的缺点是:对于顶点数目较多的模型,该方法的处理速度较慢,同时没有考虑复杂的眼睛和牙齿运动。\n发明内容\n[0004] 本发明所要解决的技术问题是:提供一种人脸表情克隆方法,是一种基于运动捕捉数据的人脸表情克隆方法,首先使用摄像机捕捉人脸六种基本表情数据,并对数据进行处理,然后分别构建与源面部和目标面部模型对应的关键模型,并在表现人脸表情的关键区域选取四十一个人脸面部特征点,通过采用凸权值的拉普拉斯变形算法将人脸表情转移到目标模型上,很好保留了人脸表情的细节,克服了现有技术中均一权值保真度低和余切权值计算不稳定的问题以及运动捕捉设备有较高的要求和处理速度较慢的缺陷。\n[0005] 本发明解决该技术问题所采用的技术方案是:一种人脸表情克隆方法,是一种基于运动捕捉数据的人脸表情克隆方法,步骤如下:\n[0006] 第一步,预先捕捉一系列人脸面部运动序列:\n[0007] 先利用运动捕捉设备捕捉表演者的面部肌肉活动,收集人脸面部特征点的原始数据,即特征点的位置关系;\n[0008] 第二步,人脸面部六个基本表情信息的运动捕捉:\n[0009] 利用运动捕捉设备记录表演者的人脸面部六个基本表情的信息,即生气、厌恶、恐惧、高兴、悲伤和吃惊的信息;\n[0010] 第三步,对运动捕捉到的人脸面部六个基本表情信息进行处理:\n[0011] (1)原始数据标记标号:对人脸面部特征点的原始数据进行标记标号,生成统一的人脸面部特征点模板,进而在每个人脸面部特征点附近生成局部坐标的相关信息;\n[0012] (2)数据清理:上述(1)中的统一的人脸面部特征点模板提供了相邻人脸面部特征点的位置、坐标以及单个人脸面部特征点的活动范围信息,利用上述(1)中的局部坐标关系对丢失的人脸面部特征点进行数据清理;\n[0013] (3)间隙填充:上述(1)中生成的局部坐标相对人脸的前额、鼻尖或者下巴的位置关系不变,将局部坐标看作静止参考点,根据三点确定一个平面的定理,通过静止参考点以及局部三个人脸面部特征点,四个标记作为一组坐标来估计和确定丢失人脸面部特征点的间隙位置信息;\n[0014] (4)数据归一化:在捕捉过程中,对于丢失的人脸面部特征点,通过上面的数据清理和间隙填充达到数据归一化;\n[0015] 第四步,构建源面部和目标面部关键模型:\n[0016] 首先确定一组源模型的生气、厌恶、恐惧、高兴、悲伤和吃惊这六种强烈表情为关键表情,然后通过变形源人脸模型和目标模型各自带有的中性表情的基本模型来产生它们的各自带有的关键表情的关键模型;\n[0017] 第五步,选取四十一个人脸面部特征点:\n[0018] 按照MPEG-4标准,在人脸关键表情区域标记四十一个人脸面部特征点,其中四十一个人脸面部特征点需要在人脸表情突出部位周围选取,就是在前额、左眉、左上眼睑、右眉、右上眼睑、左下眼睑、左脸、鼻子、右下眼睑、右脸、上嘴唇、下巴和下嘴唇这些表现人脸表情的关键特征区域进行选点;\n[0019] 第六步,人脸表情的转移\n[0020] (1)对第四步中确定的每一种关键表情通过计算源模型人脸面部特征点的位移来参数化目标模型人脸面部特征点的位移向量:\n[0021] 在源基本模型上交互地选择四十一个人脸面部特征点,然后提取它们到生气、厌恶、恐惧、高兴、悲伤和吃惊这六个源关键模型的位移,连接这些位移,形成每个源关键模型的位移向量来参数化对应的目标关键模型,标记人脸面部特征点时,只在源基本模型上标记,其它关键模型的这些人脸面部特征点可以根据它们与源基本模型的顶点对应关系来自动确定,当参数空间的维数远远高于目标关键模型的维数时,要采用主成分分析方法,即PCA方法,进行降维;\n[0022] (2)将全局坐标变成拉普拉斯坐标:\n[0023] 全局坐标是位于全局坐标系中的坐标,拉普拉斯坐标为顶点与其邻接顶点坐标加权和的差,对每个i=1,2,...,n,定义N(i)为顶点vi所有邻接点的集合,di为集合N(i)中元素的个数,拉普拉斯坐标可以表示为:\n[0024]\n[0025] 第七步,生成人脸克隆表情:\n[0026] 目标模型的坐标表示为:\n[0027]\n[0028] 其中, 为目标模型表情克隆后的所有顶点坐标,V为初始坐标,δ为V对应的拉普拉斯坐标,wj为顶点vj的权重,cj为目标模型上第j个人脸面部特征点,\n[0029] 采用最小二乘法,求解这个能量方程,当误差函数最小时,求得目标模型的坐标,生成人脸克隆表情。\n[0030] 上述一种人脸表情克隆方法,所述运动捕捉设备是Motion Analysis公司的运动捕捉设备。\n[0031] 上述一种人脸表情克隆方法,所述拉普拉斯坐标的基于凸权值拉普拉斯变形算法流程是如下:开始→导入人脸面部特征点数据→目标模型参数化→计算拉普拉斯坐标→计算每个顶点的权重→计算目标模型变形坐标→人脸克隆表情。\n[0032] 上述一种人脸表情克隆方法,所述面部特征点是人脸表情关键区域的能突出表现人脸表情特征的点;所述中性表情是不带有任何表情的一般人脸表情;局部坐标是位于局部坐标系中的坐标,局部坐标系也叫模型坐标系,是模型自身的坐标系,随模型位置的改变而改变;全局坐标是位于全部坐标系的坐标,全局坐标系也叫世界坐标系,是固定不动的,不随模型位置的改变而改变。这些术语均是本技术领域的技术人员所知道是专业术语。\n[0033] 本发明的有益效果是:与现有技术相比,本发明一种人脸表情克隆方法的突出的实质性特点是:建立一套人脸表情运动参数,这些参数可以用于生成需要的人脸表情;利用运动捕捉设备,通过参数化方法将一组顶点的运动和一个特殊的参数联系在一起,自动匹配源模型到目标模型的控制点;克隆的结果很好保留了人脸表情的细节,有效提高人脸克隆表情的真实性、有效性和生成效率。\n[0034] 与现有技术相比,本发明一种人脸表情克隆方法的显著进步是:通过采用凸权值的拉普拉斯变形算法将人脸表情转移到目标模型上,克服了均一权值保真度低和余切权值计算不稳定的问题,能够解决径向基函数插值算法出现奇异情况的问题,避免了表情重建后对眼睛、牙齿的细节处理。\n附图说明\n[0035] 下面结合附图和实施例对本发明进一步说明。\n[0036] 图1为本发明一种人脸表情克隆方法的步骤示意框图。\n[0037] 图2(a)为本发明一种人脸表情克隆方法的表演者的网格模型示意图。\n[0038] 图2(b)为本发明一种人脸表情克隆方法的表演者的面部四十一个人脸面部特征点标记示意图。\n[0039] 图3(a)为本发明一种人脸表情克隆方法的运动捕捉设备中重建的人脸表情原始数据点云模型示意图。\n[0040] 图3(b)为本发明一种人脸表情克隆方法的运动捕捉设备中重建的人脸表情人脸面部特征点识别模型示意图。\n[0041] 图3(c)为本发明一种人脸表情克隆方法的运动捕捉设备中重建的人脸表情标记结构模型示意图。\n[0042] 图4为本发明一种人脸表情克隆方法的拉普拉斯坐标的基于凸权值拉普拉斯变形算法流程示意图。\n[0043] 图5(a)为本发明一种人脸表情克隆方法的源模型的六种基本表情示意图。\n[0044] 图5(b)为本发明一种人脸表情克隆方法的男性gene对应的六种克隆表情示意图。\n[0045] 图5(c)为本发明一种人脸表情克隆方法的猴子对应的六种克隆表情示意图。\n[0046] 图5(d)为本发明一种人脸表情克隆方法的中国男性对应的六种克隆表情示意图。\n[0047] 图6(a)为本发明一种人脸表情克隆方法的源模型吃惊表情关键帧示意图。\n[0048] 图6(b)为本发明一种人脸表情克隆方法的男性gene对应的克隆表情关键帧示意图。\n[0049] 图6(c)为本发明一种人脸表情克隆方法的猴子对应的克隆表情关键帧示意图。\n[0050] 图中,1.前额的标记的人脸面部特征点a,2.前额的标记的人脸面部特征点b,3.前额的标记的人脸面部特征点c,4.左眉的标记的人脸面部特征点a,5.左眉的标记的人脸面部特征点b,6.左眉的标记的人脸面部特征点c,15.左上眼睑的标记的人脸面部特征点,8.右眉的标记的人脸面部特征点a,9.右眉的标记的人脸面部特征点b,10.右眉的标记的人脸面部特征点c,19.右上眼睑的标记的人脸面部特征点,16.左下眼睑标记的人脸面部特征点a、17.左下眼睑标记的人脸面部特征点b,18.左下眼睑标记的人脸面部特征点c,24.左脸标记的人脸面部特征点a,25.左脸标记的人脸面部特征点b,26.左脸标记的人脸面部特征点c,34.左脸标记的人脸面部特征点d,40.左脸标记的人脸面部特征点e,7.鼻子标记的人脸面部特征点a,11.鼻子标记的人脸面部特征点b,12.鼻子标记的人脸面部特征点c,13.鼻子标记的人脸面部特征点d,14.鼻子标记的人脸面部特征点e,20.右下眼睑标记的人脸面部特征点a,22.右下眼睑标记的人脸面部特征点b,23.右下眼睑标记的人脸面部特征点c,21.右脸标记的人脸面部特征点a,27.右脸标记的人脸面部特征点b,28.右脸标记的人脸面部特征点c,29.右脸标记的人脸面部特征点d,30.右脸标记的人脸面部特征点e,31.上嘴唇标记的人脸面部特征点a,32.上嘴唇标记的人脸面部特征点b,33.上嘴唇标记的人脸面部特征点c,36.下嘴唇标记的人脸面部特征点a,37.下嘴唇标记的人脸面部特征点b,38.下嘴唇标记的人脸面部特征点c,35.下巴标记的人脸面部特征点a,39.下巴标记的人脸面部特征点b,41.下巴标记的人脸面部特征点c。\n具体实施方式\n[0051] 图1所示实施例表明,本发明一种人脸表情克隆方法的步骤顺序是:预先捕捉一系列人脸面部运动序列→人脸面部六个基本表情信息的运动捕捉→对运动捕捉到的人脸面部六个基本表情信息进行处理→构建源面部和目标面部关键模型→选取四十一个人脸面部特征点→人脸表情的转移→生成人脸克隆表情。\n[0052] 图2(a)所示实施例显示本发明一种人脸表情克隆方法的表演者的网格模型,该图表明,经过运动捕捉,得到了表演者的网格模型。网格模型的生成目的是为了四十一个人脸面部特征点的标记。\n[0053] 图2(b)所示实施例显示本发明一种人脸表情克隆方法的表演者的面部标记,该图表明了在运动捕捉的人脸图像上进行标记四十一个人脸面部特征点的3D坐标的位置是在前额、左眉、左上眼睑、右眉、右上眼睑、左下眼睑、左脸、鼻子、右下眼睑、右脸、上嘴唇、下巴和下嘴唇这些能够表现人脸表情的关键特征区域内。从该图可见,四十一个人脸面部特征点分别是:前额的标记的人脸面部特征点a1、前额的标记的人脸面部特征点b2、前额的标记的人脸面部特征点c3、左眉的标记的人脸面部特征点a4、左眉的标记的人脸面部特征点b5、左眉的标记的人脸面部特征点c6、左上眼睑的标记的人脸面部特征点15、右眉的标记的人脸面部特征点a8、右眉的标记的人脸面部特征点b9、右眉的标记的人脸面部特征点c10、右上眼睑的标记的人脸面部特征点19、左下眼睑标记的人脸面部特征点a16、左下眼睑标记的人脸面部特征点b17、左下眼睑标记的人脸面部特征点c18、左脸标记的人脸面部特征点a24、左脸标记的人脸面部特征点b25、左脸标记的人脸面部特征点c26、左脸标记的人脸面部特征点d34、左脸标记的人脸面部特征点e40、鼻子标记的人脸面部特征点a7、鼻子标记的人脸面部特征点b11、鼻子标记的人脸面部特征点c12、鼻子标记的人脸面部特征点d13、鼻子标记的人脸面部特征点e14、右下眼睑标记的人脸面部特征点a20、右下眼睑标记的人脸面部特征点b22、右下眼睑标记的人脸面部特征点c23、右脸标记的人脸面部特征点a21、右脸标记的人脸面部特征点b27、右脸标记的人脸面部特征点c28、右脸标记的人脸面部特征点d29、右脸标记的人脸面部特征点e30、上嘴唇标记的人脸面部特征点a31、上嘴唇标记的人脸面部特征点b32、上嘴唇标记的人脸面部特征点c33、下嘴唇标记的人脸面部特征点a36、下嘴唇标记的人脸面部特征点b37、下嘴唇标记的人脸面部特征点c38、下巴标记的人脸面部特征点a35、下巴标记的人脸面部特征点b39和下巴标记的人脸面部特征点c41。\n[0054] 图3(a)所示实施例显示本发明一种人脸表情克隆方法的运动捕捉设备中重建的人脸表情原始数据点云模型,该图表明,经过运动捕捉,得到了表演者面部标记的人脸面部特征点的表情模型。\n[0055] 图3(b)所示实施例显示本发明一种人脸表情克隆方法的运动捕捉设备中重建的人脸表情人脸面部特征点识别模型,该图表明,运动捕捉后,能够被捕捉设备识别的表演者面部标记的人脸面部特征点模型。\n[0056] 图3(c)所示实施例显示本发明一种人脸表情克隆方法的运动捕捉设备中重建的人脸表情标记结构模型,该图表明,经过后期有效的数据处理,得到的带有数据清理的表演者面部表情标记结构。\n[0057] 图4所示实施例表明,本发明一种人脸表情克隆方法的基于凸权值拉普拉斯变形算法流程是:开始→导入人脸面部特征点数据→目标模型参数化→计算拉普拉斯坐标→计算每个顶点的权重→计算目标模型变形坐标→人脸克隆表情。对该流程中每一步的具体说明如下:\n[0058] (1)首先对源模型和目标模型导入人脸面部特征点数据,包括源模型的中性表情数据、六种基本表情数据以及目标模型的中性表情数据;\n[0059] (2)目标模型参数化是说在源基本模型上交互的选择一些人脸面部特征点,然后提取它们到每个源关键模型的位移,连接这些位移,形成每个源关键模型的位移向量来参数化对应的目标关键模型,标记人脸面部特征点时,只在源模型上标记,其它关键模型的这些人脸面部特征点可以根据它们与源模型的顶点对应关系自动的确定。同时注意到参数空间的维数远远高于关键模型的维数,采用主成分分析(PCA)方法可以达到降维的目的;\n[0060] (3)计算拉普拉斯坐标,详细说计算目标模型人脸面部特征点的拉普拉斯坐标。对每个i=1,2,...,n,定义N(i)为顶点vi所有邻接点的集合,di为集合N(i)中元素的个数,网格顶点的拉普拉斯坐标可以表示为该顶点与其邻接顶点坐标加权和的差:\n[0061]\n[0062] 记I为单位矩阵,A为网格的邻接矩阵,D为对角矩阵,且Dii=di,用矩阵表示上式为:\n[0063] L=I-D-1A\n[0064] (4)计算目标模型每个人脸面部特征点的权重值。Meyer等人提出采用余切权值代替上面(3)中的均一权值:\n[0065]\n[0066] 其中,αij,βij为边(i,j)所对应的两个角,|Ωi|为顶点vi处Voronoi晶格的大小。\n[0067] δi只与网格的拓扑相关,而 依赖于网格的几何结构。余切权值可能为负,并且当角度接近于180度时计算会不稳定,为此,我们采用模仿余切权值的凸权值来计算每个顶点的贡献:\n[0068]\n[0069] (5)计算目标模型变形后的所有顶点坐标,进而得到人脸克隆表情。通过隐式求解的方法将拉普拉斯坐标进行变换,使得网格的变形与重建同时得到实现。采用最小二乘法,可以求解所有顶点的坐标:\n[0070]\n[0071] 其中, 为目标模型表情克隆后的所有顶点坐标,V为初始坐标,δ为V对应的拉普拉斯坐标,wj为顶点vj的权重,cj为目标模型上第j个人脸面部特征点。\n[0072] 图5(a)所示实施例表明,在本发明方法中的源模型的六种基本表情。该图表明,经过运动捕捉,得到的表演者面部的六种基本表情分别为生气、厌恶、恐惧、高兴、悲伤和吃惊。\n[0073] 图5(b)所示实施例表明,在本发明方法中得到的男性gene对应的六种克隆表情。\n该图表明,经过上述所有实施步骤,将源模型的六种基本表情克隆了男性gene模型上,得到了男性gene的真实自然的克隆表情。\n[0074] 图5(c)所示实施例表明,在本发明方法中得到的猴子对应的六种克隆表情。该图表明,经过上述所有实施步骤,将源模型的六种基本表情克隆到了猴子模型上,得到了猴子的真实自然的克隆表情。\n[0075] 图5(d)所示实施例表明,在本发明方法中得到的中国男性对应的六种克隆表情。\n该图表明,经过上述所有实施步骤,将源模型的六种基本表情克隆到了中国男性模型上,得到了中国男性的真实自然的克隆表情。\n[0076] 图6(a)所示实施例表明,在本发明方法中的源模型吃惊表情关键帧。该图表明,经过运动捕捉,得到的表演者吃惊表情关键帧。\n[0077] 图6(b)所示实施例表明,在本发明方法中得到的男性gene对应的克隆表情关键帧。该图表明,经过上述所有实施步骤,将源模型六个关键帧的吃惊表情克隆到了男性gene模型上,得到了真实有效的男性gene吃惊表情关键帧。\n[0078] 图6(c)所示实施例表明,在本发明方法中得到的猴子对应的克隆表情关键帧。该图表明,经过上述所有实施步骤,将源模型的六个关键帧的吃惊表情克隆到了猴子模型上,得到了真实有效的猴子吃惊表情关键帧。\n[0079] 实施例\n[0080] 一种人脸表情克隆方法,是一种基于运动捕捉数据的人脸表情克隆方法,步骤如下:\n[0081] 第一步,预先捕捉一系列人脸面部运动序列:\n[0082] 先利用Motion Analysis公司的运动捕捉设备捕捉表演者的面部肌肉活动,收集人脸面部特征点的原始数据,即特征点的位置关系;\n[0083] 第二步,人脸面部六个基本表情信息的运动捕捉:\n[0084] 利用运动捕捉设备记录表演者的人脸面部六个基本表情的信息,即生气、厌恶、恐惧、高兴、悲伤和吃惊的信息;\n[0085] 第三步,对运动捕捉到的人脸面部六个基本表情信息进行处理:\n[0086] (1)原始数据标记标号:对人脸面部特征点的原始数据进行标记标号,生成统一的人脸面部特征点模板,进而在每个人脸面部特征点附近生成局部坐标的相关信息;\n[0087] (2)数据清理:上述(1)中的统一的人脸面部特征点模板提供了相邻人脸面部特征点的位置、坐标以及单个人脸面部特征点的活动范围信息,利用上述(1)中的局部坐标关系对丢失的人脸面部特征点进行数据清理;\n[0088] (3)间隙填充:上述(1)中生成的局部坐标相对人脸的前额、鼻尖或者下巴的位置关系不变,将局部坐标看作静止参考点,根据三点确定一个平面的定理,通过静止参考点以及局部三个人脸面部特征点,四个标记作为一组坐标来估计和确定丢失人脸面部特征点的间隙位置信息;\n[0089] (4)数据归一化:在捕捉过程中,对于丢失的人脸面部特征点,通过上面的数据清理和间隙填充达到数据归一化;\n[0090] 第四步,构建源面部和目标面部关键模型:\n[0091] 首先确定一组源模型的生气、厌恶、恐惧、高兴、悲伤和吃惊这六种强烈表情为关键表情,然后通过变形源人脸模型和目标模型各自带有的中性表情的基本模型来产生它们的各自带有的关键表情的关键模型;\n[0092] 第五步,选取四十一个人脸面部特征点:\n[0093] 按照MPEG-4标准,在人脸关键表情区域标记四十一个人脸面部特征点,其中四十一个人脸面部特征点需要在人脸表情突出部位周围选取,就是在前额、左眉、左上眼睑、右眉、右上眼睑、左下眼睑、左脸、鼻子、右下眼睑、右脸、上嘴唇、下巴和下嘴唇这些表现人脸表情的关键特征区域进行选点;具体地说,标记的四十一个人脸面部特征点分别是:前额的标记的人脸面部特征点a1、前额的标记的人脸面部特征点b2、前额的标记的人脸面部特征点c3、左眉的标记的人脸面部特征点a4、左眉的标记的人脸面部特征点b5、左眉的标记的人脸面部特征点c6、左上眼睑的标记的人脸面部特征点15、右眉的标记的人脸面部特征点a8、右眉的标记的人脸面部特征点b9、右眉的标记的人脸面部特征点c10、右上眼睑的标记的人脸面部特征点19、左下眼睑标记的人脸面部特征点a16、左下眼睑标记的人脸面部特征点b17、左下眼睑标记的人脸面部特征点c18、左脸标记的人脸面部特征点a24、左脸标记的人脸面部特征点b25、左脸标记的人脸面部特征点c26、左脸标记的人脸面部特征点d34、左脸标记的人脸面部特征点e40、鼻子标记的人脸面部特征点a7、鼻子标记的人脸面部特征点b11、鼻子标记的人脸面部特征点c12、鼻子标记的人脸面部特征点d13、鼻子标记的人脸面部特征点e14、右下眼睑标记的人脸面部特征点a20、右下眼睑标记的人脸面部特征点b22、右下眼睑标记的人脸面部特征点c23、右脸标记的人脸面部特征点a21、右脸标记的人脸面部特征点b27、右脸标记的人脸面部特征点c28、右脸标记的人脸面部特征点d29、右脸标记的人脸面部特征点e30、上嘴唇标记的人脸面部特征点a31、上嘴唇标记的人脸面部特征点b32、上嘴唇标记的人脸面部特征点c33、下嘴唇标记的人脸面部特征点a36、下嘴唇标记的人脸面部特征点b37、下嘴唇标记的人脸面部特征点c38、下巴标记的人脸面部特征点a35、下巴标记的人脸面部特征点b39和下巴标记的人脸面部特征点c41。\n[0094] 第六步,人脸表情的转移\n[0095] (1)对第四步中确定的每一种关键表情通过计算源模型人脸面部特征点的位移来参数化目标模型人脸面部特征点的位移向量:\n[0096] 在源基本模型上交互地选择四十一个人脸面部特征点,然后提取它们到生气、厌恶、恐惧、高兴、悲伤和吃惊这六个源关键模型的位移,连接这些位移,形成每个源关键模型的位移向量来参数化对应的目标关键模型,标记人脸面部特征点时,只在源基本模型上标记,其它关键模型的这些人脸面部特征点可以根据它们与源基本模型的顶点对应关系来自动确定,当参数空间的维数远远高于目标关键模型的维数时,要采用主成分分析方法,即PCA方法,进行降维;\n[0097] (2)将全局坐标变成拉普拉斯坐标:\n[0098] 全局坐标是位于全局坐标系中的坐标,拉普拉斯坐标为顶点与其邻接顶点坐标加权和的差,对每个i=1,2,...,n,定义N(i)为顶点vi所有邻接点的集合,di为集合N(i)中元素的个数,拉普拉斯坐标可以表示为:\n[0099]\n[0100] 这里,拉普拉斯坐标的基于凸权值拉普拉斯变形算法流程是如下:开始→导入人脸面部特征点数据→目标模型参数化→计算拉普拉斯坐标→计算每个顶点的权重→计算目标模型变形坐标→人脸克隆表情;\n[0101] 第七步,生成人脸克隆表情:\n[0102] 目标模型的坐标表示为:\n[0103]\n[0104] 其中, 为目标模型表情克隆后的所有顶点坐标,V为初始坐标,δ为V对应的拉普拉斯坐标,wj为顶点vj的权重,cj为目标模型上第j个人脸面部特征点,\n[0105] 采用最小二乘法,求解这个能量方程,当误差函数最小时,求得目标模型的坐标,生成人脸克隆表情。
法律信息
- 2018-01-12
- 2014-09-24
实质审查的生效
IPC(主分类): G06T 13/40
专利申请号: 201410269983.9
申请日: 2014.06.17
- 2014-08-27
引用专利(该专利引用了哪些专利)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 |
1
| |
2013-07-10
|
2013-04-07
| | |
2
| |
2011-01-12
|
2010-09-27
| | |
被引用专利(该专利被哪些专利引用)
序号 | 公开(公告)号 | 公开(公告)日 | 申请日 | 专利名称 | 申请人 | 该专利没有被任何外部专利所引用! |