CN103150743B - 图像生成方法以及图像生成装置 - Google Patents
图像生成方法以及图像生成装置 Download PDFInfo
- Publication number
- CN103150743B CN103150743B CN201210300972.3A CN201210300972A CN103150743B CN 103150743 B CN103150743 B CN 103150743B CN 201210300972 A CN201210300972 A CN 201210300972A CN 103150743 B CN103150743 B CN 103150743B
- Authority
- CN
- China
- Prior art keywords
- mentioned
- subject
- image
- region
- line segment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
一种图像生成方法,其特征为,包括:第一获取步骤,获取包括被摄体区域的被摄体图像;第二获取步骤,获取由该第一获取步骤获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;确定步骤,基于由该第二获取步骤获取的上述骨骼信息来确定上述被摄体区域的轮廓部分的颜色信息;以及生成步骤,基于由该确定步骤所确定的上述被摄体区域的轮廓部分的颜色信息,描绘拟似地表示被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像。
Description
技术领域
本发明涉及一种图像生成方法以及图像生成装置。
背景技术
一直以来,一种在二维静止图像内的所希望的位置上设定控制点,通过对想要使其移动的控制点指定所希望的移动而使该静止图像移动的技术为人所知(US8063917)。
但是,在上述专利文献的技术中,在使静止图像向规定方向旋转的情况下,存在为了表现该静止图像的背侧(背面侧)而必须另外准备该背侧的图像的这一问题。
发明内容
本发明的目的为提供一种能够简便地进行背面图像生成的图像生成方法、图像生成装置以及记录介质。
根据本发明的一个实施方式,本发明涉及一种图像生成方法,其特征为,包括:第一获取步骤,获取包括被摄体区域的被摄体图像;第二获取步骤,获取由该第一获取步骤获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;确定步骤,基于由该第二获取步骤获取的上述骨骼信息来确定上述被摄体区域的轮廓部分的颜色信息;以及生成步骤,基于由该确定步骤所确定的上述被摄体区域的轮廓部分的颜色信息来描绘拟似地表示被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像。
根据本发明的一个实施方式,本发明涉及一种图像生成装置,具有:第一获取单元,获取包括被摄体区域的被摄体图像;第二获取单元,获取由该第一获取单元所获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;确定单元,基于由该第二获取单元所获取的上述骨骼信息来确定上述被摄体区域的轮廓部分的颜色信息;以及生成单元,基于由该确定单元所确定的上述被摄体区域的轮廓部分的颜色信息,按照上述被摄体的每个部位,分别描绘拟似地表示被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像。
根据本发明的一个实施方式,本发明涉及一种记录介质,记录有使图像生成装置的计算机发挥以下功能的程序:第一获取功能,获取包括被摄体区域的被摄体图像;第二获取功能,获取由该第一获取功能所获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;确定功能,基于由该第二获取功能所获取的上述骨骼信息来确定上述被摄体区域的轮廓部分的颜色信息;以及生成功能,基于由该确定功能所确定的上述被摄体区域的轮廓部分的颜色信息,按照上述被摄体的每个部位,分别描绘拟似地表示上述被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像。
附图说明
图1是表示使用本发明的一个实施方式的动态图像生成系统的概略构成的框图。
图2是表示构成图1的动态图像生成系统的用户终端的概略构成的框图。
图3是表示构成图1的动态图像生成系统的服务器的概略构成的框图。
图4是表示图1的动态图像生成系统进行的动态图像生成处理的动作的一个例子的流程图。
图5是表示图4的动态图像生成处理的继续的流程图。
图6是表示图5的动态图像生成处理中的背面图像生成处理中的动作的一个例子的流程图。
图7是表示图6的背面图像生成处理中的手臂描绘处理的动作的一个例子的流程图。
图8是表示图7的手臂描绘处理中的手臂区域描绘处理的动作的一个例子的流程图。
图9是表示图7的手臂描绘处理中的手指区域描绘处理的动作的一个例子的流程图。
图10是表示图9的手指区域描绘处理中的直角四边形设定处理的动作的一个例子的流程图。
图11是表示图6的背面图像生成处理中的脚描绘处理的动作的一个例子的流程图。
图12是表示图6的背面图像生成处理中的躯体描绘处理的动作的一个例子的流程图。
图13是表示图6的背面图像生成处理中的头描绘处理的动作的一个例子的流程图。
图14是表示图13的头描绘处理中的第一描绘处理的动作的一个例子的流程图。
图15是表示图13的头描绘处理中的第二描绘处理的动作的一个例子的流程图。
图16是示意性地表示图6的背面图像生成处理的图像的一个例子的图。
图17是示意性地表示图7的手臂描绘处理的图像的一个例子的图。
图18是示意性地表示图9的手指区域描绘处理的图像的一个例子的图。
图19是示意性地表示图12的躯体描绘处理的图像的一个例子的图。
图20是示意性地表示图13的头描绘处理的图像的一个例子的图。
图21是示意性地表示图6的背面图像生成处理的图像的一个例子的图。
具体实施方式
以下,使用附图对本发明的具体实施方式进行说明。但是,本发明的技术范围不局限于图中所示的例子。
图1是表示使用本发明的一个实施方式的动态图像生成系统100的概略构成的框图。
如图1所示,本实施方式的动态图像生成系统100具有拍摄装置1、用户终端2和服务器3,用户终端2和服务器3经由规定的通信网络N以能够发送接收各种信息的方式连接。
首先,对拍摄装置1进行说明。
拍摄装置1具有拍摄被摄体的拍摄功能或将拍摄图像的图像数据记录到记录介质C的记录功能等。即,拍摄装置1能够使用众所周知的装置,例如,不仅是将主要功能设为拍摄功能的数字式摄像机,也包括具有并不作为主要功能的拍摄功能的便携式电话机等便携式终端。
接下来,参照图2对用户终端2进行说明。
用户终端2由例如个人计算机等构成,访问由服务器3开设的网页(例如动态图像生成用网页),在该网页上输入各种指示。
图2是表示用户终端2的概略构成的框图。
如图2所示,具体来讲,用户终端2具有中央控制部201、操作输入部202、显示部203、声音输出部204、记录介质控制部205和通信控制部206等。
中央控制部201控制用户终端2的各部。具体来讲,中央控制部201具有CPU、RAM和ROM(都省略图示),按照存储在ROM中的用于用户终端2的各种处理程序(省略图示)进行各种控制动作。此时,CPU将各种处理结果保存在RAM内的保存区域内,根据需要在显示部203上显示该处理结果。
RAM具有例如用于展开CPU所执行的处理程序等的程序保存区域或保存输入数据或在执行上述处理程序时产生的处理结果等的数据保存区域等。
ROM存储以计算机能够读取的程序代码的形式保存的程序,具体而言,存储用户终端2能够执行的系统程序和用该系统程序能够执行的各种处理程序或在执行这些各种处理程序时所使用的数据等。
操作输入部202具有用于输入例如数值、文字等的数据输入键或用于进行数据的选择、发送操作等的上下左右移动键或由各种功能键等构成的键盘或者鼠标等,将被用户按下的键的按下信号或鼠标的操作信号输出到中央控制部201的CPU。
另外,也可以采用如下构成:在显示部203的显示画面设置触摸屏(省略图示)作为操作输入部202,并根据触摸屏的接触位置输入各种指示。
显示部203由例如LCD、CRT(CathodeRayTube:阴极射线管)等的显示器构成,在中央控制部201的CPU的控制下,在显示画面上显示各种信息。
即,显示部203根据由例如服务器3发送的并由通信控制部206接收的网页(例如动态图像生成用网页)的网页数据,将对应的网页显示在显示画面上。具体而言,显示部203基于涉及动态图像生成处理(后面会提到)的各种处理画面的图像数据,将各种处理画面显示在显示画面上。
声音输出部204由例如D/A转换器、LPF(LowPassFilter:低通滤波器)、放大器和扬声器等构成,在中央控制部201的CPU的控制下发出声音。
即,声音输出部204基于由例如服务器3发送并由通信控制部206接收的演奏信息,将该演奏信息的数字数据用D/A转换器转换成模拟数据,并通过放大器由扬声器以规定音色、音高和音长播放乐曲。另外,声音输出部204既可以播放出一个音源(例如乐器)的声音,也可以同时播放出多个音源的声音。
记录介质控制部205是以记录介质C自由安装拆卸的方式构成的,控制从所安装的记录介质C中读出数据或对记录介质C进行数据写入。即,记录介质控制部205从由拍摄装置1取下并安装的记录介质C读出涉及动态图像生成处理(后面会提到)的被摄体存在图像(省略图示)的图像数据(YUV数据),并向通信控制部206输出。
在此,被摄体存在图像是指主要被摄体存在于规定背景内的图像。另外,在记录介质C中记录利用拍摄装置1的图像处理部(省略图示)并按照规定的编码形式(例如JPEG形式等)所编码的被摄体存在图像的图像数据。
然后,通信控制部206经由规定的通信网络N将被输入的被摄体存在图像的图像数据发送给服务器3。
通信控制部206由例如调制解调器(MODEM:Modulater/DEModulator)和终端适配器(TerminalAdapter)等构成,用于经由规定的通信网络N进行与服务器3等的外部设备之间的信息的通信控制。
另外,通信网络N是使用例如专用线路或一般的公共线路所建立起来的通信网络,能够使用LAN(LocalAreaNetwork:局域网络)或WAN(WideAreaNetwork:广域网络)等各种各样的线路形式。另外,通信网络N包括:例如、电话线路网、ISDN线路网、专用线路、移动体通信网、通信卫星线路和CATV(有线电视)线路网等各种通信线路网以及将它们连接的互联网服务提供商等。
接下来,参照附图3对服务器3进行说明。
服务器3具备作为网络(WorldWideWeb)服务器而在互联网上开设网页(例如动态图像生成用网页)的功能,根据来自用户终端2的访问向该用户终端2发送网页的网页数据。另外,作为图像生成装置,服务器3基于包含了被摄体区域Ps的被摄体图像的涉及被摄体的骨骼的骨骼信息,确定被摄体区域Ps的轮廓部分的颜色信息,并基于该被摄体区域Ps的轮廓部分的颜色信息,按照被摄体的每个部位,分别描绘背面图像P3的被摄体对应区域Pa,生成拟似地表示被摄体的背侧的背面图像P3。
图3是表示服务器3的概略构成的框图。
如图3所示,具体而言,服务器3具有中央控制部301、显示部302、通信控制部303、被摄体截取部304、存储部305和动态图像处理部306等。
中央控制部301控制服务器3的各部。具体而言,中央控制部301具有CPU、RAM和ROM(都省略了图示),CPU按照存储在ROM中的用于服务器3的各种处理程序(省略图示)进行各种控制动作。此时,CPU将各种处理结果保存在RAM内的保存区域内,根据需要在显示部302上显示该处理结果。
RAM具有例如用于展开CPU所执行的处理程序等的程序保存区域或保存输入数据或在执行上述处理程序时产生的处理结果等的数据保存区域等。
ROM存储以计算机能够读取的程序代码的形式保存的程序,具体而言,存储服务器3能够执行的系统程序和用该系统程序能够执行的各种处理程序或在执行这些各种处理程序时所使用的数据等。
显示部302由例如LCD、CRT等的显示器构成,在中央控制部301的CPU的控制下,在显示画面上显示各种信息。
通信控制部303由例如调制解调器和终端适配器等构成,用于经由规定的通信网络N进行与用户终端2等的外部设备之间的信息的通信控制。
具体而言,通信控制部303接收在例如动态图像生成处理(后面会提到)中由用户终端2经由规定的通信网络N所发送的被摄体存在图像的图像数据,并将该图像数据输出到中央控制部301的CPU。
中央控制部301的CPU将被输入的被摄体存在图像的图像数据输出到被摄体截取部304。
被摄体截取部304由被摄体存在图像生成被摄体截取图像P1(参照图16A)。
即,被摄体截取部304使用众所周知的被摄体截取方法,生成从被摄体存在图像中将包括被摄体的被摄体区域Ps截取之后的被摄体截取图像P1。具体而言,被摄体截取部304获取从中央控制部301的CPU输出的被摄体存在图像的图像数据,基于例如用户对用户终端2的操作输入部202(例如,鼠标等)进行的规定操作,用在显示部203上显示的该被摄体存在图像上所描绘的边界线(省略图示)来划分该被摄体存在图像。接下来,被摄体截取部304在利用被摄体存在图像的截取线所划分的多个划分区域中推定被摄体的背景并基于该背景的各像素的像素值进行规定的运算,将被摄体的背景色推定为规定的单一色。然后,被摄体截取部304生成在规定的单一色的背景用图像与被摄体存在图像之间所对应的各像素的差分信息(例如,相异度图等)。另外,被摄体截取部304将所生成的差分信息的各像素的像素值与规定的阈值进行比较并二值化,然后,进行对构成相同的连结成分的像素集合标注相同编号的标号(labeling)处理,将面积最大的像素集合作为被摄体部分。
然后,被摄体截取部304对例如上述面积最大的像素集合为“1”、其他部分为“0”的被二值化的差分信息实施低通滤波处理,在边界部分生成中间值,从而生成阿尔法值,在被摄体截取图像P1内生成作为表示被摄体区域Ps的位置的位置信息的阿尔法图(省略图示)。
阿尔法值(0≤α≤1)是指:例如关于被摄体存在图像的各像素,表示针对规定背景将被摄体区域Ps的图像进行阿尔法混合(AlphaBlending)时的权重的数值。在这种情况下,被摄体区域Ps的阿尔法值成为“1”,相对于被摄体存在图像的规定背景的透过率成为0%。另一方面,被摄体的背景部分的阿尔法值成为“0”,相对于该被摄体存在图像的规定背景的透过率成为100%。
然后,被摄体截取部304基于阿尔法图,使被摄体图像与规定的单一色图像合成并生成被摄体截取图像P1的图像数据,以使被摄体存在图像的各像素中的阿尔法值为“1”的像素不透过单一色图像,并且使阿尔法值为“0”的像素透过。
另外,被摄体截取部304基于阿尔法图生成作为二值图像的掩模图像P2(参照图16B),其将被摄体区域(图16B中用白色表示的区域)的各像素作为第一像素值(例如“1”等),将背景区域(图16B中用黑色表示的区域)的各像素作为与第一像素值不同的第二像素值(例如“0”等)。即,被摄体截取部304在被摄体截取图像P1内生成作为表示被摄体区域Ps的位置的位置信息的掩模图像P2。
被摄体截取图像P1的图像数据是与例如所生成的阿尔法图或掩模图像P2等的位置信息建立对应的数据。
另外,利用上述被摄体截取部304的被摄体截取方法只是一个例子,而不局限于此,只要是从被摄体存在图像截取包含被摄体的被摄体区域Ps的众所周知的方法,就都可以使用。
另外,作为被摄体截取图像P1的图像数据,例如可以使用RGBA形式的图像数据,具体而言,在用RGB颜色空间规定的各种颜色中加入了透过率A的信息。在这种情况下,被摄体截取部304可以利用透过率A的信息,在被摄体截取图像P1内生成表示被摄体区域Ps的位置的位置信息(省略图示)。
存储部305由例如半导体的非易失性存储器或HDD(HardDiscDrive:硬盘驱动器)等构成,用于存储被发送给用户终端2的网页的网页数据或由被摄体截取部304生成的被摄体截取图像P1的图像数据等。
另外,存储部305存储多个用于动态图像生成处理的移动信息305a。
各移动信息305a是表示规定空间、即例如由彼此正交的二轴(例如,x轴和y轴等)规定的二维平面空间或由除了二轴之外与该二轴正交的轴(例如,z轴等)规定的三维立体空间内的多个可动点的移动的信息。另外,移动信息305a也可以是通过使二维的平面空间在规定的旋转轴周围旋转而使多个可动点的移动具有深度的信息。
在此,各可动点的位置是考虑了成为移动模型的移动体模型(例如,人或动物)的骨骼形状或关节位置等而分别规定的。另外,可动点的个数能够根据移动体模型的形状或大小等适当地进行任意的设定。
另外,各移动信息305a通过在规定空间内将使所有多个可动点或至少其中一个移动的坐标信息以规定的时间间隔连续地排列,从而连续地表示多个可动点的移动。另外,多个可动点的坐标信息可以分别是规定了例如成为基准的可动点的坐标信息的各可动点的移动量的信息,也可以是规定了各可动点的绝对位置坐标的信息。
另外,存储部305存储多个用于动态图像生成处理的演奏信息305b。
演奏信息305b是用于利用动态图像处理部306的动态图像播放部306i(后面会提到)与动态图像一起自动地演奏乐曲的信息。即,演奏信息305b是以例如将节拍速度、节奏、音程、音阶、曲调和演奏风格等区分开多个规定的并与各自的曲名建立对应的方式存储的。
另外,各演奏信息305b是按照例如MIDI(MusicalInstrumentsDigitalInterface:乐器数字接口)规格等规定的数字数据,具体而言,具有规定了磁道数或四分音符的分辨率(Tick计数值)等的段头信息以及由向分配给各节的声源(例如,乐器等)提供的事件以及定时所构成的磁道信息等。作为该磁道信息的事件,存在指示例如节拍速度或节奏的变更或NoteOn·Off的信息等。
动态图像处理部306具有:图像获取部306a、骨骼信息获取部306b、轮廓信息获取部306c、骨骼点设定部306d、颜色确定部306e、背面图像生成部306f、控制点设定部306g、帧生成部306h和动态图像播放部306i。
图像获取部306a获取用于动态图像生成处理的静止图像。
即,作为第一获取手段,图像获取部306a从存在背景和被摄体的被摄体存在图像中获取将包含被摄体的被摄体区域Ps进行了截取的被摄体截取图像(被摄体图像)P1。具体而言,图像获取部306a获取由被摄体截取部304生成的被摄体截取图像P1的图像数据作为处理对象的静止图像。
另外,图像获取部306a获取与被摄体截取图像P1的图像数据建立对应的掩模图像P2的图像数据。
骨骼信息获取部306b获取被摄体截取图像P1的涉及被摄体的骨骼的骨骼信息。
即,作为第二获取手段,骨骼信息获取部306b获取由图像获取部306a获取的被摄体截取图像P1的涉及被摄体的骨骼的骨骼信息。具体而言,骨骼信息获取部306b针对由图像获取部306a获取的掩模图像P2的图像数据、即与被摄体截取图像P1的图像数据建立了对应并且在该被摄体截取图像P1内表示被摄体区域Ps的位置的掩模图像P2的图像数据,实施生成由规定数量(例如一个)的像素构成的线图像的细线化处理,生成骨骼线图像(省略图示)作为骨骼信息。
例如,骨骼信息获取部306b对掩模图像P2的图像数据使用Hilditch细化算法,保存在该图像内不消除作为边界点的端点的孤立点。通过反复进行保存连结性等的满足各种条件的图像的搜索和删除,从而生成骨骼线图像。
另外,利用上述骨骼信息获取部306b进行的骨骼信息的获取处理只是一个例子,并不局限于此,能够适当地进行任意的变更。另外,虽然作为细线化处理使用了Hilditch细化算法,但这只是一个例子,而不局限于此,能够适当地进行任意的变更。
另外,在掩模图像P2以及被摄体截取图像P1中,以例如左上角部为原点坐标(即,左右方向设为x轴,上下方向设为y轴),进行上述细线化处理或后面要提到的各种图像处理。
轮廓信息获取部306c获取掩模图像P2的涉及被摄体区域的轮廓线的轮廓信息。
具体而言,轮廓信息获取部306c确定构成由图像获取部306a获取的掩模图像P2的被摄体区域的轮廓线的各像素,获取涉及该各像素的坐标的轮廓信息。
骨骼点设定部306d在被摄体截取图像P1的被摄体区域Ps内设定与骨骼建立关联的骨骼点B。
即,骨骼点设定部306d基于由骨骼信息获取部306b获取的骨骼信息,在被摄体截取图像P1的被摄体区域Ps内设定多个与骨骼建立关联的骨骼点B。具体而言,骨骼点设定部306考虑被摄体的骨骼线图像的形状或人的关节位置等,在骨骼线图像内的相当于人的代表性各部位的各位置上确定多个骨骼点B。然后,骨骼点设定部306d在被摄体截取图像P1以及掩模图像P2的对应的各位置上设定被确定的多个骨骼点B、…。
例如,在骨骼线图像内,骨骼点设定部306d分别进行以下确定,即:在相当于人的左右肩的各肩的位置上确定左右的肩骨骼点B1和B2、在相当于左右肘的各肘的位置上确定左右的肘骨骼点B3和B4、在相当于左右腕的各腕的位置上确定左右的腕骨骼点B5和B6、在相当于左右手指的各手指的位置上确定左右的手指骨骼点B7和B8、在相当于左右的股关节的各关节的位置上确定左右的股关节骨骼点B9和B10、在相当于左右膝盖的各膝盖的位置上确定左右的膝盖骨骼点B11和B12、在相当于左右足踝的各足踝的位置上确定左右的足踝骨骼点B13和B14、在相当于左右脚趾的各脚趾的位置上确定左右的脚趾骨骼点B15和B16、在相当于下颚的位置上确定下颚骨骼点B17,以及在相当于头顶部的位置上确定头顶部骨骼点B18等(参照图16A以及图16B)。并且,骨骼点设定部306d基于所设定的各骨骼点B的坐标,将该骨骼点B设定在被摄体截取图像P1以及掩模图像P2所对应的各位置(坐标)上。
另外,上述各骨骼点B只是一个例子,而不局限于此,能够适当地进行任意的变更。
颜色确定部306e确定被摄体截取图像P1的被摄体区域Ps的轮廓部分的颜色信息。
即,作为确定手段,颜色确定部306e基于由骨骼信息获取部306b获取的骨骼信息来确定被摄体截取图像P1的被摄体区域Ps的轮廓部分的颜色信息。具体来讲,颜色确定部306e具有第一确定部e1、第二确定部e2以及第三确定部e3,这些第一~第三确定部e1~e3按照人的每个代表性部位来确定被摄体区域Ps的轮廓部分的颜色信息。
第一确定部e1确定被摄体区域Ps中的相当于人的两臂和两脚的各部分的轮廓部分的颜色信息。
即,第一确定部e1以通过骨骼点设定部306d在相当于人的两臂或两脚的部分设定的多个(例如两个)骨骼点B、B的基准线段L为基准,确定相当于该两臂以及两脚的部分的轮廓部分的颜色信息。具体而言,第一确定部e1在被摄体截取图像P1以及掩模图像P2设定通过被摄体区域Ps中的相当于人的两臂或两脚的部分所涉及的多个骨骼点B、…的基准线段L(例如,第一基准线段L1),并确定与相当于该两臂或两脚的部分的基准准线段正交的方向的轮廓部分的颜色信息。
具体而言,第一确定部e1在例如手臂描绘处理的手臂区域描绘处理(后面会提到)中,确定被摄体截取图像P1以及掩模图像P2中的、在被摄体区域Ps中的相当于人的右肩的位置上设定的右肩骨骼点B2和在相当于右手腕的位置上设定的右手腕骨骼点B6。然后,第一确定部e1基于由轮廓信息获取部306c获取的轮廓信息,确定与从右肩骨骼点B2经过右手腕骨骼点B6向手指侧延伸的直线相交的轮廓线上的第一轮廓点C1。然后,第一确定部e1在掩模图像P2将连接右肩骨骼点B2和第一轮廓点C1的线段设定为第一基准线段L1。
另外,在图17B中,虽然右手指骨骼点B8和第一轮廓点C1成为相等的位置,但这只是一个例子,而不局限于此,也可以是彼此不同的位置。
第一确定部e1一边在掩模图像P2的手臂部图像P2a(参照图17B)中的第一基准线段上每次移动规定的像素数(例如,一个像素),一边在与该第一标准线段L1呈正交方向(例如,图17B中的上下方向)上扫描,将该第一基准线段L1夹在正交方向上,按照每次扫描来确定与被摄体区域Ps中的相当于右臂的部分的轮廓的各轮廓相交的两点。然后,第一确定部e1以按照每次扫描所确定的相当于右臂的部分的轮廓的两点为基准,按照每次扫描确定被摄体截取图像P1中的相当于该右臂部分的两个轮廓部分的颜色信息。具体而言,对于构成第一基准线段L1的各像素,第一确定部e1首先在与该第一基准线段L1正交的两个方向中的规定的一个方向(例如,图17B中的上方向)上扫描。然后,第一确定部e1如果到达被摄体区域Ps中的相当于右臂的部分的一个方向的轮廓线上,则获取掩模图像P2的手臂部图像P2a中的该轮廓线上的点的坐标,之后,基于被摄体截取图像P1的手臂部图像P1a(参照图17A),计算出代表轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)。同样,对于与第一基准线段L1正交的两个方向中的另一个方向(例如,图17B中的下方向),第一确定部e1也进行与上述大致相同的处理,计算出代表轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)。
然后,第一确定部e1在第一基准线段L1的各扫描位置,基于针对与该第一基准线段L1正交的两个方向中的各方向所计算出的像素值的代表值进行规定的运算,计算出该扫描位置的代表像素值(例如,平均值)。
另外,第一确定部e1也可以在第一基准线段L1的各扫描位置,基于在与该第一基准线段L1相交的方向上排列的所有像素的像素值,进行规定的运算,计算出各扫描位置的代表像素值(例如,平均值)。
另外,第一确定部e1针对被摄体区域Ps中的相当于左臂的部分,在手臂区域描绘处理中进行与上述各处理大致相同的处理。
另外,第一确定部e1针对被摄体区域Ps中的相当于两脚的部分,也在脚区域描绘处理(后面提到)中进行与上述各处理大致相同的处理。在这种情况下,与基准线段L正交的方向成为例如图16A以及图16B中的左右方向。
另外,第一确定部e1在手臂描绘处理的手指区域描绘处理(后面会提到)中,在被摄体区域Ps中的相当于人的手指以及脚趾的部分设定直角四边形R1(参照图18B),并确定相当于存在于该直角四边形R1内的手指以及脚趾的部分的轮廓部分的颜色信息。
具体而言,第一确定部e1在被摄体截取图像P1以及掩模图像P2中设定通过用骨骼点设定部306d在相当于人的手指以及脚趾的部分的各自的前端侧所设定的一个骨骼点B和与该一个骨骼点B相邻的另一骨骼点B的基准线段L(例如,第二基准线段L2),并且设定具有平行于该基准线段L的两个边以及与基准线段L正交的两个边且包围相当于人的手指以及脚趾的各部分的直角四边形R1。例如,第一确定部e1在手指区域描绘处理的直角四边形设定处理(后面会提到)中确定被摄体截取图像P1以及掩模图像P2中的、在被摄体区域Ps中的相当于人的右手腕的位置设定的右手腕骨骼点B6和在相当于右手指的位置所设定的右手指骨骼点B8。然后,第一确定部e1基于由轮廓信息获取部306c获取的轮廓信息,确定与从右手腕骨骼点B6经过右手指骨骼点B8向手指侧延伸的直线相交的轮廓线上的第二轮廓点C2。然后,第一确定部e1在掩模图像P2中将连接右手腕骨骼点B6和第二轮廓点C2的线段设定为第二基准线段L2。另外,第一确定部e1基于轮廓信息,在掩模图像P2的被摄体区域的相当于右手指的部分的图像P2a1(参照图18B)的轮廓线上扫描,确定第一交点D1,该第一交点D1是和与第二基准线段L2正交的直线相交的轮廓线上的点,并且存在于离被摄体区域Ps的中央部(例如,离重心位置更近的骨骼点)最远的位置上。而且,第一确定部e1基于轮廓信息,在掩模图像P2的被摄体区域的相当于右手指的部分的图像P2a1的轮廓线上扫描,确定第二及第三交点D2及D3,该第二及第三交点D2及D3是与将第二基准线段L2夹在中间的平行的两条直线分别相交的轮廓线上的两点,并且存在于该第二基准线段L2的正交方向上的最远的位置上。然后,第一确定部e1在掩模图像P2中设定第一~第三交点D1~D3以及与右手腕骨骼点B6相接的直角四边形R1,获取该直角四边形R1的第一~第四顶点F1~F4的各坐标。
另外,第一确定部e1在被摄体截取图像P1的被摄体区域Ps中的相当于人的手指以及脚趾的部分上,以直角四边形R1的与第二基准线段L2平行的一边(例如,连接第一顶点F1和第四顶点F4的一个边)为基准,在与该第二基准线段L2呈正交方向(例如,图18B中的上下方向)上扫描,按照每次扫描来获取该直角四边形R1内存在的被摄体区域Ps的颜色信息。然后,第一确定部e1基于按照每次扫描所获得的存在于直角四边形R1内的被摄体区域Ps(相当于人的手指以及脚趾的部分)的颜色信息,分别确定与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息。
具体而言,第一确定部e1一边在连接掩模图像P2的手指图像P2a1(参照图18B)中的直角四边形R1的第一顶点F1和第四顶点F4的一个边上每次移动规定的像素数(例如,一个像素),一边在与该一个边呈正交方向(例如,图18B中的上下方向)上扫描。然后,第一确定部e1按照每次扫描来获取被摄体截取图像P1的手指图像P1a1中的存在于该直角四边形R1内的被摄体区域Ps(相当于人的手指以及脚趾的部分)的各像素的像素值。然后,第一确定部e1按照每次扫描,计算出代表作为存在于直角四边形R1内的被摄体区域Ps的相当于人的手指的部分的各像素的像素值的代表值(例如,平均值),分别作为与该被摄体区域Ps的各扫描对应的轮廓部分的颜色信息进行确定。
另外,在图18B中,虽然右手指骨骼点B8、第二轮廓点C2和第一交点D1成为相等的位置,但这只是一个例子,而不局限于此,可以是彼此不同的位置,也可以是任意两个相等的位置。
另外,第一确定部e1针对被摄体区域Ps中的相当于左臂的部分,在手指区域描绘处理中进行与上述各处理大致相同的处理。
另外,第一确定部e1针对被摄体区域Ps中的相当于两脚的部分,在脚趾区域描绘处理(后面会提到)中也进行与上述各处理大致相同的处理。在这种情况下,与基准线段L正交的方向成为例如图16A以及图16B中的左右方向。
第二确定部e2确定被摄体区域Ps中的相当于人的躯体的部分的轮廓部分的颜色信息。
即,第二确定部e2以通过由骨骼点设定部306d在相当于人的躯体的部分所设定的一个骨骼点B的基准线段L为基准,确定相当于该躯体的部分的轮廓部分的颜色信息。具体而言,第二确定部e2在被摄体截取图像P1以及掩模图像P2中设定延长线段L3a,该延长线段L3a是将通过设定在相当于人的躯体的部分的一个骨骼点B且大致沿着脊椎延伸的基准线段L(例如,第三基准线段L3)的至少一个端部侧在该基准线段L的延伸方向上延长规定比例(例如,10%)之后的延长线段。
例如,在躯体描绘处理(后面会提到)中,第二确定部e2确定被摄体截取图像P1以及掩模图像P2中的、在被摄体区域Ps的相当于人的下颚的位置设定的下颚骨骼点B17和在相当于左右的股关节的位置所设定的左右的股关节骨骼点B9和B10。然后,第二确定部e2在确定了左右的股关节骨骼点B9和B10的中点Bm之后,在掩模图像P2中设定延长线段L3a,该延长线段L3a是将连接该中点Bm和下颚骨骼点B17的第三基准线段L3的两端部侧在该基准线段L的延伸方向上各延长10%的线段。
然后,第二确定部e2以延长线段L3a为基准,在与该延长线段L3a呈正交方向上扫描,按照每次扫描获取被摄体区域Ps的相当于人的躯体的部分的颜色信息,基于按照每次扫描所获取的相当于人的躯体的部分的颜色信息,分别确定与被摄体区域Ps的相当于人的躯体的部分的各扫描对应的轮廓部分的颜色信息。此时,第二确定部e2以延长线段L3a为基准,在与该延长线段L3a呈正交方向上扫描,按照每次扫描来确定在正交方向上将延长线段夹在中间并与被摄体区域Ps的相当于人的躯体的部分的轮廓各自相交的两点、或者与和被摄体区域Ps的躯体相邻的两臂以及两脚各自相交的两点。并且,第二确定部e2以按照每次扫描所确定的两点为基准,按照每次扫描来获取被摄体区域Ps的相当于人的躯体的部分中的两个轮廓部分的颜色信息。
在此,用第二确定部e2对被摄体区域Ps的相当于人的躯体的部分进行的处理,是在背面图像生成部306f对背面图像P3的被摄体对应区域Pa中的相当于两臂以及两脚的部分进行描绘之后进行的。
即,在由第一确定部e1进行被摄体区域Ps的相当于人的两臂以及两脚的部分的轮廓部分的颜色信息的确定,并且由背面图像生成部306f进行相当于该两臂以及两脚的部分的描绘之后,由第二确定部e2进行被摄体区域Ps的相当于人的躯体的部分的轮廓部分的颜色信息的确定,并且由背面图像生成部306f进行相当于该躯体的部分的描绘,然后,由第三确定部e3进行被摄体区域Ps的相当于人的头的部分的轮廓部分的颜色信息的确定,并且由背面图像生成部306f进行相当于该头的部分的描绘。
第二确定部e2一边在掩模图像P2的躯体图像P2b的延长线段L3a上每次移动规定的像素数(例如,一个像素),一边在与该延长线段L3a呈正交方向(例如,图19B中的左右方向)上扫描,在每次扫描中确定两个点,这两点是将该延长线段L3a在正交方向上夹在中间且与被摄体区域Ps的相当于人的躯体的部分的轮廓分别相交的两点、或者与被摄体区域Ps的与躯体相邻的两臂以及两脚分别相交的两点。然后,第二确定部e2以每次扫描所确定的相当于躯体的部分的轮廓的两点或与两臂以及两脚分别相交的两点为基准,按照每次扫描来确定被摄体截取图像P1中的相当于该躯体的部分的两个轮廓部分的颜色信息。具体而言,对于构成延长线段L3a的各像素,首先,第二确定部e2在与该延长线段L3a正交的两个方向中规定的一个方向(例如,图19B中的左方向)上进行扫描。然后,第二确定部e2如果到达被摄体区域Ps中的相当于躯体的部分的一个方向的轮廓线上,或者到达两臂或两脚的描绘完毕区域A,则获取掩模图像P2的躯体图像P2b中的该轮廓线上或描绘完毕区域A的规定像素跟前的像素的坐标。然后,第二确定部e2基于被摄体截取图像P1的躯体图像P1b(参照图19A),计算出代表轮廓线上或描绘完毕区域A的规定像素跟前的像素的像素值和与该像素相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)。同样,针对与延长线段L3a正交的两个方向中的另一方向(例如,图19B中的右方向),第二确定部e2也进行与上述大致相同的处理,计算出代表轮廓线上或描绘完毕区域A的规定像素跟前的像素的像素值和与该像素相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)。
然后,第二确定部e2在延长线段L3a的各扫描位置上,基于对与该延长线段L3a正交的两个方向中的各方向所计算出的像素值的代表值,进行规定的运算,并计算出该扫描位置的代表像素值(例如,平均值)。
另外,第二确定部e2也可以基于在延长线段L3a的各扫描位置与该延长线段L3a正交的方向上排列的所有像素的像素值,进行规定的运算,并计算出各扫描位置的代表像素值(例如,平均值)。
第三确定部e3确定被摄体区域Ps中的相当于人的头的部分的轮廓部分的颜色信息。
即,第三确定部e3以通过由骨骼点设定部306d在相当于人的头的部分所设定的多个(例如,两个)骨骼点B的基准线段L为基准,确定相当于该头的部分的轮廓部分的颜色信息。具体而言,第三确定部e3在被摄体截取图像P1以及掩模图像P2中设定通过被摄体区域Ps的相当于人的头的部分所涉及的多个骨骼点B、…的基准线段L(例如,第四基准线段L4),确定相当于该头的部分中的与基准线段L正交的方向以及平行的方向的各轮廓部分的颜色信息。即,第三确定部e3在头描绘处理的第一描绘处理(后面会提到)中,确定与通过设定在被摄体区域Ps的相当于人的头的部分的前端侧的一个骨骼点B和与该一个骨骼点B相邻的另一骨骼点B的基准线段L呈正交方向的轮廓部分的颜色信息,之后,在第二描绘处理中确定与基准线段L呈平行方向的轮廓部分的颜色信息。
具体而言,在第一描绘处理中,第三确定部e3以基准线段L为基准,在与该基准线段L正交的方向上进行扫描,每次扫描中获取被摄体区域Ps的相当于人的头的部分的颜色信息,基于每次扫描所获取的被摄体区域Ps的相当于人的头的部分的颜色信息,分别确定与被摄体区域Ps的相当于人的头的部分的各扫描对应的轮廓部分的颜色信息。
例如,第三确定部e3确定被摄体截取图像P1以及掩模图像P2中的、在被摄体区域Ps的相当于人的下颚的位置上设定的下颚骨骼点B17和在相当于头顶部的位置上设定的头顶部骨骼点B18。然后,第三确定部e3在掩模图像P2中将连接下颚骨骼点B17和头顶部骨骼点B18的线段设定为第四基准线段。
第三确定部e3一边在掩模图像P2中的第四基准线段L4上每移动规定像素数(例如,一个像素),一边在与该第四基准线段L4呈正交方向(例如,图20B中的左右方向)上扫描,在每次扫描中确定两个点,这两点是将该第四基准线段L4在其正交方向上夹在中间且与被摄体区域Ps的相当于头的部分的轮廓分别相交的两点。然后,第三确定部e3以每次扫描所确定的相当于头的部分的轮廓的两点为基准,按照每次扫描来确定被摄体截取图像P1中的相当于该头的部分的两个轮廓部分的颜色信息。具体而言,对于构成第四基准线段L4的各像素,首先,第三确定部e3在与该第四基准线段L4正交的两个方向中规定的一个方向(例如,图20B中的左方向)上进行扫描。然后,第三确定部e3如果到达被摄体区域Ps中的相当于头的部分的一个方向的轮廓线上,则获取掩模图像P2的头部图像P2c中的该轮廓线上的点的坐标,然后,基于被摄体截取图像P1的头部图像P1c(参照图20A),计算出代表轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)。同样,针对与第四线段L4正交的两个方向中的另一方向(例如,图20B中的右方向),第三确定部e3也进行与上述大致相同的处理,计算出代表轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)。
然后,第三确定部e3在第四基准线段L4的各扫描位置上,基于对与该第四基准线段L4正交的两个方向中的各方向所计算出的像素值的代表值,进行规定的运算,并计算出该扫描位置的代表像素值(例如,平均值)。
另外,第三确定部e3可以基于在第四基准线段L4的各扫描位置与该第四基准线段L4正交的方向上排列的所有像素的像素值,进行规定的运算,并计算出各扫描位置的代表像素值(例如,平均值)。
另外,在第二描绘处理中,第三确定部e3在被摄体区域Ps中的相当于人的头的部分设定直角四边形R2(参照图20B),并确定存在于该直角四边形R2内的相当于头的部分的轮廓部分的颜色信息。具体而言,第三确定部e3在被摄体截取图像P1以及掩模图像P2中设定直角四边形R2,该直角四边形R2具有平行于基准线段L(例如,第四基准线段L4)的两个边以及与基准线段L正交的两个边,并且包围相当于人的头的部分。
例如,第三确定部e3在第二描绘处理的直角四边形设定处理(后面会提到)中,基于由轮廓信息获取部306c获取的轮廓信息,在掩模图像P2的被摄体区域的相当于头的部分的图像P2c的轮廓线上扫描,确定第二及第三交点D2及D3,该两个交点D2及D3是和将第四基准线段L4夹在中间的平行的两条直线分别相交的轮廓线上的两点,并且存在于该第四基准线段L4的正交方向上的最远的位置上。然后,第三确定部e3在掩模图像P2中设定下颚骨骼点B17及头顶部骨骼点B18以及与第二及第三交点D2及D3相接的直角四边形R2,获取该直角四边形R2的第一~第四顶点F1~F4的各坐标。
另外,在被摄体截取图像P1的被摄体区域Ps中的相当于人的头的部分,第三确定部e3以与直角四边形R1的第四基准线段L4正交的一个边(例如,连接第一顶点F1和第二顶点F2的一个边)为基准,在与该第四基准线段L4平行的方向(例如,图20B中的下方向)上进行扫描,在每次扫描中获取存在于该直角四边形R2内的被摄体区域Ps的颜色信息。然后,第三确定部e3基于在每次扫描所获取的直角四边形R2内存在的被摄体区域Ps(相当于人的头的部分)的颜色信息,分别确定与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息。
具体而言,第三确定部e3一边在例如连接掩模图像P2的头部图像P2c(参照图20B)中的直角四边形R2的头顶部侧的第一顶点F1和第二顶点F2的一个边上每次移动规定像素数(例如,一个像素),一边在与该一个边呈正交方向(例如,图20B中的下方向)上扫描。然后,第三确定部e3如果到达被摄体截取图像P1的头部图像P1c(参照图20A)中的该直角四边形R2内的被摄体区域(相当于头的部分)Ps的轮廓线上,则获取掩模图像P2中的该轮廓线上的点的坐标。之后,第三确定部e3基于被摄体截取图像P1的头部图像P1c(参照图20A),计算出代表轮廓线上的点的像素值和与该轮廓线上的点相邻的扫描方向(例如,图20B中的下方向)上规定像素数份的各像素的像素值的代表值(例如,平均值),作为与该扫描对应的轮廓部分的颜色信息进行确定。
背面图像生成部306f生成拟似地表示被摄体的背侧的背面图像P3。
即,作为生成手段,背面图像生成部306f基于由颜色确定部306e所确定的被摄体区域Ps的轮廓部分的颜色信息,按照被摄体的每个部位,分别描绘背面图像P3的被摄体对应区域Pa,生成该背面图像P3。具体而言,背面图像生成部306f按照包括该被摄体的基准线段L的每个部位、即人的每个代表性部位(例如,两臂部、两脚部、躯体和头等)分别描绘背面图像P3的被摄体对应区域Pa,生成背面图像P3。
另外,背面图像生成部306f在手臂描绘处理的手臂区域描绘处理中,在掩模图像P2(背面图像P3)中的被摄体截取图像P1的与被摄体区域Ps(在图16B中用白色表示的区域)对应的被摄体对应区域Pa中,按照与基准线段L(例如,第一基准线段L1)正交的每次扫描,用与该每次扫描对应的像素值的代表值分别描绘相当于各手臂的部分P3a(参照图17C)。然后,背面图像生成部306f基于由颜色确定部306e的第一确定部e1确定的存在于直角四边形R1内的与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息,按照每次扫描分别描绘背面图像P3的被摄体对应区域Pa中的相当于人的手指以及脚趾的部分P3a1(参照图18C)。具体而言,在手臂描绘处理的手指区域描绘处理中,在掩模图像P2(背面图像P3)中的被摄体对应区域Pa中,背面图像生成部306f按照与第二基准线段L2呈正交方向的每次扫描,用与该每次扫描对应的像素值的代表值分别描绘存在于直角四边形R1内的相当于人的手指的部分P3a1。
另外,背面图像生成部306f在掩模图像P2(背面图像P3)中的被摄体对应区域Pa中,对于相当于两脚的部分也在脚描绘处理(后面会提到)中进行与上述各处理大致相同的处理。在这种情况下,与基准线段L呈正交方向是例如图16A以及图16B中的左右方向。
另外,背面图像生成部306f基于由颜色确定部306e的第二确定部e2确定的与被摄体区域Ps中的相当于人的躯体的部分的各扫描对应的轮廓部分的颜色信息,按照每次扫描分别描绘背面图像P3的被摄体对应区域Pa中的相当于人的躯体的部分P3b(参照图19C)。具体而言,在躯体描绘处理中,背面图像生成部306f在掩模图像P2(背面图像P3)中的被摄体截取图像P1的与被摄体区域Ps对应的被摄体对应区域Pa中,按照每次扫描,用与该每次扫描对应的像素值的代表值分别描绘相当于躯体的部分P3b。
另外,背面图像生成部306f基于由颜色确定部306e的第三确定部e3确定的被摄体区域Ps的相当于人的头的部分的与基准线段L(例如,第四基准线段L4)呈正交方向的轮廓部分的颜色信息,在正交方向上描绘背面图像P3的被摄体对应区域Pa中的相当于人的头的部分P3c(参照图20C)。然后,背面图像生成部306f基于由第三确定部e3所确定的存在于直角四边形R2内的被摄体区域Ps的与基准线段L的平行方向的各扫描对应的轮廓部分的颜色信息,在平行方向上描绘背面图像P3的被摄体对应区域Pa中的相当于人的头的部分P3c。
具体而言,背面图像生成部306f在头描绘处理的第一描绘处理中,在掩模图像P2(背面图像P3)中的与被摄体截取图像P1的被摄体区域Ps对应的被摄体对应区域Pa中,按照正交方向的每次扫描,用与该每次扫描对应的像素值的代表值分别描绘相当于头的部分P3c。
然后,在头描绘处理的第二描绘处理中,背面图像生成部306f在掩模图像P2(背面图像P3)中的被摄体截取图像P1的与被摄体区域Ps对应的被摄体对应区域Pa中,按照每次扫描,用与该每次扫描对应的像素值的代表值分别描绘相当于存在于直角四边形R2内的相当于头的部分。
此时,背面图像生成部306f以存在于直角四边形R2内的相当于头的部分的与基准线段L呈平行方向的长度以及与直角四边形R2的基准线段L平行的一个边的长度中的至少一个长度为基准,在平行方向上一直描绘到背面图像P3的被摄体对应区域Pa中的相当于人的头的部分P3c的规定位置。即,背面图像生成部306f,根据与存在于直角四边形R2内的相当于头的部分的各扫描相关的第四基准线段L4的平行方向的长度是否到达基于第四基准线段L4的长度而设定在下颚侧的边界线Q(参照图20B),来变更存在于直角四边形R2内的相当于头的部分的描绘区域。
例如,在存在于直角四边形R2内的相当于头的部分的一次扫描的平行方向的长度没有达到边界线Q的情况(例如,对应于图20B中的左右方向端部侧的一次扫描)下,背面图像生成部306f用代表像素值,从掩模图像P2(背面图像P3)中的被摄体对应区域Pa的沿着该扫描方向的区域中的从头顶部侧的轮廓的位置开始一直描绘到成为该区域的长度的规定比例的位置为止。另外,在存在于直角四边形R2内的相当于头的部分的一次扫描所涉及的平行方向的长度到达边界线Q的情况(例如,对应于图20B中的左右方向中央部侧的一次扫描)下,背面图像生成部306f计算出从连接第一顶点F1和第二顶点F2的一个边开始到头顶部侧的轮廓为止的背景部分的长度T(参照图20B),然后,确定从掩模图像P2(背面图像P3)中的被摄体对应区域Pa的沿着该扫描方向的区域的长度中减去背景部分的长度T之后得到的下颚侧位置,用代表像素值来描绘沿着该扫描方向的区域中的头顶部侧的轮廓的位置到下颚侧的位置。
控制点设定部306g在成为处理对象的被摄体截取图像P1的被摄体图像内设定多个移动控制点。
即,控制点设定部306g在由图像获取部306a获取的被摄体截取图像P1的被摄体图像内的与多个可移动点对应的各位置上设定多个移动控制点。具体而言,控制点设定部306g从存储部305读出移动体模型(例如,动物)的移动信息305a,在被摄体截取图像P1的被摄体图像内,将与在该移动信息305a中规定的基准帧(例如,第一帧等)的多个可移动点分别对应的移动控制点分别设定在基于用户对用户终端2的操作输入部202进行的规定操作所指定的所希望的位置上。另外,控制点设定部306g在被摄体截取图像P1的被摄体图像内分别设定控制点,由此,在与该被摄体截取图像P1对应的背面图像P3内的规定位置上也自动地设定各自对应的移动控制点。
此时,关于移动体模型和被摄体图像,例如,可以进行使脸等主要部分的大小一致的尺寸的调整(例如,移动体模型的放大或缩小和变形等)。另外,例如也可以使移动体模型和被摄体图像重合来确定被摄体图像中的多个可移动点分别对应的位置。
而且,控制点设定部306g可以对在移动信息305a中规定的所有多个可移动点设定对应的移动控制点;也可以只设定与被摄体的中央部或各前端部等的代表性的规定数量的可移动点对应的移动控制点。
另外,在被摄体截取图像P1的被摄体图像内,控制点设定部306g可以自动地确定在从存储部305读出的移动信息305a中规定的基准帧(例如,第一帧等)的多个可移动点分别对应的位置。例如,控制点设定部306g考虑被摄体的骨骼的形状或关节的位置等来确定多个可移动点分别对应的位置。然后,控制点设定部306g在所确定的多个可移动点分别对应的位置上分别设定移动控制点。
另外,即使在利用控制点设定部306g自动进行移动控制点的设定的情况下。也可以基于用户对操作输入部进行的规定操作来接受移动控制点的设定位置的修正(变更)。
帧生成部306h逐次生成构成动态图像的多个帧图像。
即,帧生成部306h以追随由动态图像处理部306指定的移动信息305a的多个可移动点的移动的方式,使在被摄体截取图像P1的被摄体图像内设定的多个移动控制点移动而逐次产生多个帧图像。具体而言,帧生成部306h逐次获取例如根据移动信息305a以规定的时间间隔移动的多个可移动点的坐标信息,计算出与该可移动点分别对应的各移动控制点的坐标。然后,帧生成部306h在计算出的坐标上逐次移动移动控制点,并使以至少一个移动控制点为基准在被摄体图像内设定的规定的图像区域(例如,三角形或矩形的网眼状的区域)移动或变形,由此生成基准帧图像(省略图示)。
另外,使以移动控制点为基准的规定图像区域移动或变形的处理是众所周知的技术,因此,在此省略详细的说明。
另外,帧生成部306h生成插补帧图像(省略图示),其对沿着基于与移动后的可移动点分别对应的多个移动控制点所生成的时间轴而相邻的两个基准帧图像之间进行插补。即,帧生成部306h以利用动态图像播放部306i以规定的播放帧率(例如,30fps等)播放多个帧图像的方式,生成规定数量的对两个基准帧图像之间进行插补的插补帧图像。
具体而言,帧生成部306h逐次获取相邻的两个基准帧图像之间的由动态图像播放部306i演奏的规定乐曲的演奏进行程度,根据该进行程度逐次生成在相邻的两个基准帧图像之间播放的插补帧图像。例如,帧生成部306h基于MIDI规格的演奏信息305b获取节拍速度的设定信息以及四分音符的分辨率(Tick计数值),将动态图像播放部306i所演奏的规定乐曲的演奏经过时间转换为Tick计数值。接下来,帧生成部306h基于与规定乐曲的演奏的经过时间对应的Tick计数值,用例如百分率来计算出与规定的定时(例如,各小节的第一拍)同步的相邻的两个基准帧图像之间的规定乐曲的演奏的相对进行程度。然后,帧生成部306h按照规定乐曲的演奏的相对进行程度来改变对该相邻的两个基准帧图像的加权,生成插补帧图像。
另外,生成插补帧图像的处理是众所周知的技术,因此,在此省略详细的说明。
另外,利用帧生成部306h进行的基准帧图像或插补帧图像的生成是针对被摄体截取图像P1的图像数据以及阿尔法图等的位置信息这两者进行的。
动态图像播放部306i分别播放由帧生成部306h生成的多个帧图像。
即,动态图像播放部306i基于根据用户对用户终端2的操作输入部202进行的规定操作所指定的演奏信息305b而自动地播放规定乐曲,并以该规定乐曲的规定定时分别播放多个帧图像。具体而言,动态图像播放部306i通过D/A转换器,将规定乐曲的演奏信息305b的数字数据转换成模拟数据并自动地演奏该规定乐曲,此时,以与规定的定时(例如,各小节的第一拍或各拍等)同步的方式播放相邻的两个基准帧图像,并根据相邻的两个基准帧图像之间的规定乐曲的演奏的相对进行程度来生成与该进行程度对应的各插补帧图像。
另外,动态图像播放部306i可以以动态图像处理部306指定的速度来播放涉及被摄体图像的多个帧图像。在这种情况下,动态图像播放部306i改变使相邻的两个基准帧图像同步的定时,由此,变更在规定的单位时间内播放的帧图像的数量,使被摄体图像的移动速度可变。
接下来,参照图4~图21对使用用户终端2以及服务器3的动态图像生成处理进行说明。
在此,图4以及图5是表示涉及动态图像生成处理的动作的一个例子的流程图。
另外,在以下说明中,由被摄体存在图像的图像数据生成的被摄体截取图像P1(参照图16A)的图像数据存储在服务器3的存储部305中。
如图4所示,如果用户终端2的中央控制部201的CPU基于用户对操作输入部202进行的规定操作而被输入由服务器3开设的动态图像生成用网页的访问指示,则利用通信控制部206将该访问指示经由规定的通信网络N发送给服务器3(步骤S1)。
当通过服务器3的通信控制部303接收到由用户终端2发送的访问指示时,中央控制部301的CPU将动态图像生成用网页的网页数据利用通信控制部303经由规定的通信网络N发送给用户终端2(步骤S2)。
然后,当通过用户终端2的通信控制部206接收到动态图像生成用网页的网页数据时,显示部203基于该动态图像生成用网页的网页数据来显示动态图像生成用网页的画面(省略图示)。
接下来,用户终端2的中央控制部201基于用户对操作输入部202进行的规定操作,将与在动态图像生成用网页的画面内所操作的各种按钮对应的指示信号利用通信控制部206经由规定的通信网络N发送给服务器3(步骤S3)。
如图5所示,服务器3的中央控制部301的CPU根据用户终端2的指示内容使处理分支(步骤S4)。具体而言,中央控制部301的CPU在用户终端2的指示是:在与被摄体图像的指定相关的内容的情况(步骤S4:被摄体图像的指定)下,使处理进入步骤S51;另外,在与背景图像的指定相关的内容的情况(步骤S4:背景图像的指定)下,使处理进入步骤S61;另外,在与移动以及乐曲的指定相关的内容的情况(步骤S4:移动以及乐曲的指定)下,使处理进入步骤S71。
<被摄体图像的指定>
在步骤S4中,在来自用户终端2的指示是与被摄体图像的指定相关的内容的情况(步骤S4:被摄体图像的指定)下,动态图像处理部306的图像获取部306a从存储于存储部305中的被摄体截取图像P1的图像数据中读出并获取用户指定的被摄体截取图像P1的图像数据(步骤S51)。
接下来,控制点设定部306g判断在所获取的被摄体截取图像P1的被摄体图像内是否已经设定了移动控制点(步骤S52)。
在步骤S52中,如果判断为控制点设定部306g没有设定移动控制点(步骤S52:否),则动态图像处理部306基于被摄体截取图像P1的图像数据,以被摄体图像的规定位置(例如,中心位置等)为基准来对该被摄体截取图像P1进行修整(trimming),由此,以被摄体图像和动态模型(例如,动物)的大小成为相等的方式进行修改(步骤S53)。
另外,被摄体截取图像P1的修整也针对与该被摄体截取图像P1的图像数据建立对应的例如阿尔法图或掩模图像P2等的位置信息进行。
然后,动态图像处理部306进行生成拟似地表示修整后的图像的被摄体图像的背侧的背面图像P3(参照图21A)的背面图像生成处理(步骤S54:参照图5)。
另外,关于背面图像生成处理会在后面进行阐述。
返回到图5,接下来,中央控制部301的CPU将与所生成的背面图像P3建立对应的被摄体截取图像P1的图像数据利用通信控制部303经由规定的通信网络N发送给用户终端2(步骤s55)。然后,控制点设定部306g在被摄体截取图像P1的被摄体图像内的与多个可移动点对应的各位置设定多个移动控制点(步骤S56)。
具体而言,控制点设定部306g从存储部305读出移动体模型(例如,动物)的移动信息305a,在被摄体截取图像P1的被摄体图像内,在基于用户对用户终端2的操作输入部202进行的规定操作所指定的所希望的位置上分别设定与在该移动信息305a中规定的基准帧(例如,第一帧等)的多个可移动点分别对应的移动控制点。
然后,动态图像播放部306i将对该被摄体图像所设定的多个移动控制点以及被摄体图像的合成位置或尺寸等的合成内容记录在规定的存储单元(例如规定的存储器等)中(步骤S57)。
然后,中央控制部301的CPU使处理进入步骤S8。关于步骤S8的处理的内容会在后面进行阐述。
另外,在步骤S52中,如果判断为已经设定了移动控制点(步骤S52:是),则中央控制部301的CPU跳过步骤S53~S57的处理,使处理进入步骤S8。
<背景图像的指定>
在步骤S4中,在来自用户终端2的指示是与背景图像的指定相关的内容的情况(步骤S4:背景图像的指定)下,动态图像处理部306的动态图像播放部306i基于用户对操作输入部202进行的规定操作读出所希望的背景图像(其他图像)的图像数据(步骤S61),将该背景图像的图像数据作为动态图像的背景而记录在规定的存储单元中(步骤S62)。
具体而言,在用户终端2的显示部203显示的动态图像生成用网页的画面内的多个图像数据中,基于用户对操作输入部202进行的规定操作所指定的任意一个图像数据的指定指示被经由通信网络N以及通信控制部303输入给服务器3。动态图像播放部306i从存储部305读出并获取了涉及该指定指示的背景图像的图像数据(步骤S61),然后,将该背景图像的图像数据作为动态图像的背景进行记录(步骤S62)。
接下来,中央控制部301的CPU将背景图像的图像数据利用通信控制部303经由规定的通信网络N发送给用户终端2(步骤S63)。
然后,中央控制部301的CPU使处理进入步骤S8。关于步骤S8的处理的内容会在后面进行阐述。
<移动以及乐曲的指定>
在步骤S4中,在来自用户终端2的指示是与移动以及乐曲的指定相关的内容的情况(步骤S4:移动以及乐曲的指定)下,动态图像处理部306基于用户对操作输入部202进行的规定操作来设定移动信息305a或移动的速度(步骤S71)。
具体而言,在用户终端2的显示部203显示的动态图像生成用网页的画面内的多个移动模型的模型名中,基于用户对操作输入部202进行的规定操作所指定的任意一个模型名(例如,草裙舞等)的指定指示被经由通信网络N以及通信控制部303输入给服务器3。动态图像处理部306在被存储于存储部305中的多个移动信息305a、…中,设定与涉及该指定指示的移动模型的模型名建立对应的移动信息305a。另外,动态图像处理部306也可以在多个移动信息305a、…中自动地指定例如作为默认设定的移动信息305a或用户上次指定的移动信息305a。
另外,在用户终端2的显示部203显示的动态图像生成用网页的画面内的多个移动速度(例如,1/2倍、标准(等倍)和2倍等)中,基于用户对操作输入部202进行的规定操作所指定的任意一个速度(例如,标准等)的指定指示被经由通信网络N以及通信控制部303输入给服务器3。动态图像处理部306将涉及该指定指示的速度设定为被摄体图像的移动速度。
然后,动态图像处理部306的动态图像播放部306i将所设定的移动信息305a或移动速度作为动态图像的移动内容而记录在规定的存储单元中(步骤S72)。
接下来,动态图像处理部306基于用户对操作输入部202进行的规定操作来设定自动演奏的乐曲(步骤S73)。
具体而言,在用户终端2的显示部203显示的动态图像生成用网页的画面内的多个曲名中,基于用户对操作输入部202进行的规定操作所指定的任意一个曲名的指定指示被经由通信网络N以及通信控制部303输入给服务器3。动态图像处理部306设定涉及该指定指示的曲名的乐曲。
然后,中央控制部301的CPU使处理进入步骤S8。关于步骤S8的处理的内容会在后面进行阐述。
在步骤S8中,中央控制部301的CPU判断是否是能够生成动态图像的状态(步骤S8)。即,基于用户对操作输入部202进行的规定操作,服务器3的动态图像处理部306进行被摄体图像的移动控制点的记录,被摄体图像的移动内容的记录以及背景图像的记录等,由此,判断是否完成了动态图像的生成准备并能够生成动态图像。
在此,如果判断为不是能够生成动态图像的状态(步骤S8:否),则中央处理部301的CPU使处理返回到步骤S4,根据来自用户终端2的指示的内容使处理分支(步骤S4)。
另一方面,如果判断为是能够生成动态图像的状态(步骤S8:是),则如图4所示,中央控制部301的CPU使处理进入步骤S10。
在步骤S10中,服务器3的中央控制部301的CPU基于用户对用户终端2的操作输入部202进行的规定操作来判断是否输入了动态图像的预览指示(步骤S10)。
即,在步骤S9中,用户终端2的中央控制部201将基于用户对操作输入部202进行的规定操作所输入的动态图像的预览指示利用通信控制部206经由规定的通信网络N发送给服务器3(步骤S9)。
然后,在步骤S10中,如果服务器3的中央控制部301的CPU判断输入了动态图像的预览指示(步骤S10:是),则动态图像处理部306的动态图像播放部306i将与设定完毕的曲名对应的演奏信息305b作为与动态图像一起自动演奏的信息而记录在规定的存储单元中(步骤S11)。
接下来,动态图像处理部306基于记录在存储单元中的演奏信息305b,开始由动态图像播放部306i进行的规定乐曲的演奏,并开始由构成动态图像的多个帧图像的帧生成部306h进行的生成(步骤S12)。
接下来,动态图像处理部306判断由动态图像播放部306i进行的规定乐曲的演奏是否结束(步骤S13)。
在此,如果判断为乐曲的演奏没有结束(步骤S13:否),则动态图像处理部306的帧生成部306h根据移动信息305a生成变形的被摄体图像的基准帧图像(步骤S14)。具体而言,帧生成部306h根据记录在存储单元的移动信息305a分别获取以规定的时间间隔移动的多个可移动点的坐标信息,计算出与这些可移动点分别对应的各移动控制点的坐标。然后,帧生成部306h在所计算出的坐标上逐次地移动移动控制点,并根据移动控制点的移动使设定在被摄体图像内的规定图像区域移动或变形,由此,生成基准帧图像。
另外,动态图像处理部306使用众所周知的图像合成方法来合成基准帧图像和背景图像。具体而言,例如,动态图像处理部306使背景图像的各像素中阿尔法值为“0”的像素透过,阿尔法值为“1”的像素用与基准帧图像所对应的像素的像素值重写,而且,背景图像的各像素中,阿尔法值为“0<α<1”的像素使用1的补数(1-α),生成截取了基准帧图像的被摄体区域Ps的图像(背景图像×(1-α),然后,使用阿尔法图中的1的补数(1-α)生成基准帧图像,此时,计算与单一背景颜色混合之后的值,从基准帧图像减去该值,将其与截取了被摄体区域Ps的图像(背景图像×(1-α))合成。
接下来,帧生成部306h根据由动态图像播放部306i演奏的规定乐曲的演奏的进行程度,生成插补相邻的两个基准帧图像之间的插补帧图像(步骤S15)。具体而言,帧生成部306h逐次获取相邻的两个基准帧图像之间的由动态图像播放部306i演奏的规定乐曲的演奏的进行程度,并根据该进行程度逐次生成在相邻的两个基准帧图像之间播放的插补帧图像。
另外,与上述基准帧图像的情况相同,动态图像处理部306使用众所周知的图像合成方法来合成插补帧图像和背景图像。
接下来,中央控制部301的CPU利用通信控制部303经由规定的通信网络N,将动态图像播放部306i自动演奏的乐曲的演奏信息305b和由在该乐曲的规定定时播放的基准帧图像以及插补帧图像构成的预览动态图像的数据一起发送给用户终端2(步骤S16)。在此,预览动态图像的数据构成将由规定数量的基准帧图像以及插补帧图像构成的多个帧图像和用户所希望的的背景图像合成之后得到的动态图像。
接下来,动态图像处理部306使处理返回到步骤S13,判断乐曲的演奏是否结束(步骤S13)。
在步骤S13中,上述处理反复执行,直到判断乐曲的演奏结束为止(步骤S13:是)。
如果判断为乐曲的演奏结束(步骤S13:是),则如图5所示,中央控制部301的CPU使处理返回到步骤S4,根据来自用户终端2的指示的内容使处理分支(步骤S4)。
在步骤S16中,如果用户终端2的通信控制部303接收到由服务器3发送的预览动态图像的数据,则中央控制部201的CPU控制声音输出部204以及显示部203来播放预览动态图像(步骤S17)。
具体而言,声音输出部204基于演奏信息305b自动演奏乐曲并从扬声器放出声音,并且,显示部203在该自动演奏的乐曲的规定定时在显示画面上显示由基准帧图像以及插补帧图像形成的预览动态图像。
另外,虽然在上述动态图像生成处理中播放预览动态图像,但这只是一个例子而不局限于此,例如,可以将逐次生成的基准帧图像或插补帧图像或背景图像的图像数据以及演奏信息305b作为一个文件而存储在规定的存储单元中,在涉及动态图像的所有数据的生成完毕之后,从服务器3将该文件发送给用户终端2,在该用户终端2进行播放。
<背面图像生成处理>
以下,参照图6~图15对动态图像处理部306进行的背面图像生成处理进行详细说明。
图6是表示涉及动作生成处理中的背面图像生成处理的动作的一个例子的流程图。
如图6所示,首先,动态图像处理部306的图像获取部306a获取与通过被摄体截取部304生成的被摄体截取图像P1的图像数据建立对应的掩模图像P2的图像数据,之后,骨骼信息获取部306b从该图像数据生成并获取骨骼信息(步骤A1)。
具体而言,骨骼信息获取部306b针对由图像获取部306a获取的在被摄体截取图像P1内表示被摄体区域Ps的位置的掩模图像P2的图像数据,实施例如生成由一个像素形成的线图像的细线化处理并生成骨骼线图像(省略图示),获取该骨骼线图像作为骨骼信息。
接下来,轮廓信息获取部306c基于由图像获取部306a获取的掩模图像P2的图像数据,确定构成该掩模图像P2的被摄体区域的轮廓线的各像素,获取涉及该各像素的坐标的轮廓信息(步骤A2)。
接下来,骨骼点设定部306d考虑被摄体的骨骼线图像的形状或人的关节的位置等,在骨骼线图像内,在相当于人的代表性各部分的各位置上确定多个骨骼点B,然后,在被摄体截取图像P1以及掩模图像P2所对应的各位置上设定该多个骨骼点B、…(步骤A3)。例如,骨骼点设定部306d在骨骼线图像内分别确定左右肩骨骼点B1和B2、左右肘骨骼点B3和B4、左右手腕骨骼点B5和B6、左右手指骨骼点B7和B8、左右股关节骨骼点B9和B10、左右膝骨骼点B11和B12、左右足踝骨骼点B13和B14、左右脚趾骨骼点B15和B16、下颚骨骼点B17以及头顶部骨骼点B18等(参照图16A以及图16B),将该骨骼点B设定在被摄体截取图像P1以及掩模图像P2所对应的各位置(坐标)上。
接下来,动态图像处理部306在掩模图像P2(背面图像P3)中的被摄体截取图像P1的与被摄体区域Ps(在图16B中用白色表示的区域)对应的被摄体对应区域Pa中,进行描绘相当于左右手臂的部分P3a(参照图17C)的手臂描绘处理(参照图7)(步骤A4)。
另外,关于手臂描绘处理会在后面进行阐述。
接下来,动态图像处理部306在掩模图像P2(背面图像P3)中的被摄体对应区域Pa中,进行描绘相当于左右脚的部分的脚描绘处理(参照图11)(步骤A5)。
另外,关于脚描绘处理会在后面进行阐述。
接下来,动态图像处理部306在掩模图像P2(背面图像P3)中的被摄体对应区域Pa中,进行描绘相当于躯体的部分P3b(参照图19C)的躯体描绘处理(参照图12)(步骤A6)。
另外,关于躯体描绘处理会在后面进行阐述。
接下来,动态图像处理部306在掩模图像P2(背面图像P3)中的被摄体对应区域Pa中,进行描绘相当于头的部分P3c(参照图20C)的头描绘处理(参照图13)(步骤A7)。
另外,关于头描绘处理会在后面进行阐述。
然后,动态图像处理部306实施针对头描绘处理后的掩模图像P2、即背面图像P3(参照图21A)的后续处理(步骤A8),结束该背面图像生成处理。
在此,针对背面图像P3的后续处理是使该背面图像P3中的描绘成线状的图案不明显的处理,例如,能够举出对该背面图像P3的图像数据使用双边滤波器的处理。由此,背面图像P3的颜色信息接近的区域用周围的像素值生成,颜色信息不同的区域彼此的像素值被保持,因此,能够使该后续处理后的背面图像P3d(参照图21B)成为颜色层次更加自然,难以对观看者产生不协调感的表现形态。
<手臂描绘处理>
以下,参照图7~图10对手臂描绘处理进行详细说明。
图7是表示涉及背面图像生成处理中的手臂描绘处理的动作的一个例子的流程图。
如图7所示,首先,动态图像处理部306进行描绘掩模图像P2(背面图像P3)中的被摄体对应区域Pa的相当于左右手臂的部分P3a中的手臂主体的区域的手臂区域描绘处理(参照图8)(步骤A41),之后,进行描绘手指侧的区域的手指区域描绘处理(参照图9)(步骤A42)。
<手臂区域描绘处理>
以下,参照图8对手臂区域描绘处理进行详细说明。
图8是表示涉及手臂区域描绘处理的动作的一个例子的流程图。
在此,手臂区域描绘处理是对左右手臂分别进行的处理。虽然在以下的说明中以右臂为例进行了说明,但在该右臂的处理后,对左臂也进行同样的处理。
如图8所示,颜色确定部306e的第一确定部e1首先确定被摄体截取图像P1以及掩模图像P2中的由骨骼点设定部306d设定的右肩骨骼点B2和右手腕骨骼点B6(步骤A101)。
接下来,第一确定部e1在确定了从右肩骨骼点B2开始经由右手腕骨骼点B6向手指侧延伸的直线之后,基于由轮廓信息获取部306c获取的轮廓信息来确定与该直线相交的轮廓线上的第一轮廓点C1(步骤A102)。然后,第一确定部e1在掩模图像P2中,将连接右肩骨骼点B2和第一轮廓点C1的线段设定为第一基准线段L1(步骤A103)。
接下来,第一确定部e1在指定了掩模图像P2中的第一基准线段L1上的第一轮廓点C1的位置(坐标)之后(步骤A104),在与该第一基准线段L1正交的两个方向中规定的一个方向(例如,图17B中的上方向)上按照每一像素地进行扫描(步骤A105)。
然后,第一确定部e1判断扫描位置是否到达被摄体区域Ps中的相当于右臂的部分的一个方向的轮廓线上(步骤A106)。在此,如果判断为扫描位置到达轮廓线上(步骤A106:是),则第一确定部e1获取掩模图像P2中的该轮廓线上的点的坐标,然后,基于被摄体截取图像P1的手臂部图像P1a(参照图17A),计算出轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A107)。
接下来,第一确定部e1在与第一基准线段L1正交的两个方向中的另一方向(例如,图17B中的下方向)上按照每一像素地进行扫描(步骤A108)。
然后,第一确定部e1判断扫描位置是否到达被摄体区域Ps中的相当于右臂的部分的另一方向的轮廓线上(步骤A109)。在此,如果判断为扫描位置到达轮廓线上(步骤A109:是),第一确定部e1在获取掩模图像P2中的该轮廓线上的点的坐标之后,基于被摄体截取图像P1的手臂部图像P1a(参照图17A),计算出轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A110)。
接下来,第一确定部e1基于针对与第一基准线段L1正交的两个方向中的各方向计算出的像素值的代表值来计算出第一基准线段L1的该扫描位置的代表像素值(例如,平均值)(步骤A111)。
接下来,背面图像生成部306f利用由第一确定部e1计算出的代表像素值来描绘掩模图像P2(背面图像P3)中的被摄体对应区域Pa的相当于右臂的部分P3a中由沿着第一基准线段L1的该扫描方向的规定数量的像素构成的区域(步骤A112)。
接下来,针对与第一基准线段L1正交的两个方向的各方向,第一确定部e1判断由沿着本次的扫描方向的规定数量的像素形成的区域的长度和由沿着上一次的扫描方向的规定数量的像素形成的区域的长度的差分是否超过规定值(步骤A113)。
具体而言,根据由沿着本次的扫描方向的规定数量的像素形成的区域是否比由沿着上一次的扫描方向的规定数量的像素形成的区域的长度的规定比例的长度还长,第一确定部e1判断差分是否超过规定值。
在步骤A113中,如果判断为差分没有超过规定值(步骤A113:否),则第一确定部e1判断第一基准线段L1的扫描位置是否到达右肩骨骼点B2(步骤A114)。
在此,如果判断为扫描位置没有到达右肩骨骼点B2(步骤A114:否),则第一确定部e1使第一基准线段L1上的扫描位置向右肩骨骼点B2侧移动一个像素,在指定该像素的位置(坐标)后(步骤A115),使处理进入步骤A105。
然后,动态图像处理部306,直到在步骤A114作出扫描位置到达右肩骨骼点B2的这一判断(步骤A114:是)为止,逐次反复地执行步骤A105之后的处理。由此,在以第一基准线段L1为基准的每次扫描中描绘掩模图像P2(背面图像P3)中的相当于人的右臂的手臂主体的部分。
然后,在步骤A114中,如果判断为第一基准线段L1上的扫描位置到达右肩骨骼点B2(步骤A114:是),则动态图像处理部306结束该手臂区域描绘处理。
另外,在步骤A113中,在判断为差分超过规定值的情况下(步骤A113:是),动态图像处理部306也结束该手臂区域描绘处理。
<手指区域描绘处理>
以下,参照图9以及图10对手指区域描绘处理进行详细说明。
图9是表示涉及手指区域描绘处理的动作的一个例子的流程图。另外,图10是表示涉及手指区域描绘处理中的直角四边形设定处理的动作的一个例子的流程图。
在此,手指区域描绘处理是对左右手分别进行的处理。在以下的说明中,虽然以右手为例进行了说明,但在该右手的处理之后,对左手也进行同样的处理。
如图9所示,首先,颜色确定部306e的第一确定部e1确定被摄体截取图像P1以及掩模图像P2中的由骨骼点设定部306d设定的右手腕骨骼点B6和右手指骨骼点B8(步骤A201)。
接下来,第一确定部e1在被摄体截取图像P1以及掩模图像P2中进行用于设定将相当于人的手指的部分(例如,掩模图像P2中的P2a1等)分别包围的直角四边形R1的直角四边形设定处理(参照图10)(步骤A202)。
在此,参照图10对直角四边形设定处理进行详细说明。
如图10所示,第一确定部e1确定从右手腕骨骼点B6开始经过右手指骨骼点B8向手指侧延伸的直线,之后,基于由轮廓信息获取部306c获取的轮廓信息来确定与该直线相交的轮廓线上的第二轮廓点C2(步骤A301)。然后,第一确定部e1在掩模图像P2,将连接右手腕骨骼点B6和第二轮廓点C2的线段设定为第二基准线段L2(步骤A302)。
接下来,第一确定部e1基于轮廓信息来获取作为掩模图像P2的被摄体区域的相当于右手指的部分的轮廓线上的点,即与第二基准线段L2正交且与通过右手腕骨骼点B6的直线相交的轮廓线上的两个手腕侧交点的坐标(步骤A303)。
接下来,第一确定部e1对掩模图像P2的被摄体区域的相当于右手指的部分的轮廓线中的包括第二轮廓点C2的两个手腕侧交点之间进行扫描,基于轮廓信息来确定与和第二基准线段L2正交的直线相交且存在于离右手腕骨骼点B6最远的位置上的第一交点D1(步骤A304)。接下来,第一确定部e1对掩模图像P2的被摄体区域的相当于右手指的部分的轮廓线中的包括第二轮廓点C2的两个手腕侧交点之间进行扫描,基于轮廓信息来确定与将第二基准线段L2夹在中间的平行的两条直线分别相交且存在于与该第二基准线段L2正交的方向上最远的位置上的第二及第三交点D2及D3(步骤A305)。
然后,第一确定部e1在掩模图像P2中设定与第一~第三交点D1~D3以及右手腕骨骼点B6相接的直角四边形R1,获取该直角四边形R1的第一~第四顶点F1~F4的各坐标(步骤A306)。
由此,结束直角四边形设定处理。
返回到图9,第一确定部e1指定掩模图像P2中的手指图像P2a1(参照图18B)中的连接直角四边形R1的第一顶点F1和第四顶点F4的一个边上的第一顶点F1的位置(坐标)(步骤A203)。
然后,第一确定部e1在与连接第一顶点F1和第四顶点F4的一个边正交的方向(例如,图18中的上下方向)上按照每一像素地进行扫描,获取被摄体截取图像P1的手指图像P1a1(参照图18A)中的存在于该直角四边形R1内的被摄体区域Ps(相当于人的手指以及脚部的部分)的各像素的像素值(步骤A204)。
接下来,第一确定部e1判断扫描位置是否到达与直角四边形R1的一个边相对置的边(连接第二顶点F2和第三顶点F3的边)(步骤A205)。在此,如果判断为扫描位置到达了相对置的边上(步骤A205:是),则第一确定部e1基于所获取的各像素的像素值来计算出一个边上的该扫描位置的代表像素值(例如,平均值)(步骤A206)。
接下来,背面图像生成部306f用由第一确定部e1计算出的代表像素值来描绘掩模图像P2(背面图像P3)中的被摄体对应区域Pa的相当于右手的部分P3a1中的由沿着该扫描方向的规定数量的像素形成的区域(步骤A207)。
接下来,第一确定部e1判断一个边上的扫描位置是否到达第四顶点F4(步骤A208)。
在此,如果判断为扫描位置没有到达第四顶点F4(步骤A208:否),则第一确定部e1使一个边上的扫描位置向第四顶点F4侧移动一个像素,并指定该像素的位置(坐标)(步骤A209),然后,使处理进入步骤A204。
然后,动态图像处理部306,直到在步骤A208进行了扫描位置到达了第四顶点F4的判断(步骤A208:是)为止,逐次反复进行步骤A204之后的处理。由此,按照以一个边为基准的每次扫描,对掩模图像P2(背面图像P3)中的相当于人的右手指的部分P3a1进行描绘。
然后,在步骤A208中,如果判断为一个边上的扫描位置到达了第四顶点F4(步骤A208:是),则动态图像处理部306结束该手指区域描绘处理。
<脚描绘处理>
以下,参照图11对脚描绘处理进行详细说明。
图11是表示涉及背面图像生成处理中的脚描绘处理的动作的一个例子的流程图。
如图11所示,首先,动态图像处理部306进行脚区域描绘处理(步骤A51),对掩模图像P2(背面图像P3)中的被摄体对应区域Pa的相当于左右脚的部分中的脚主体的区域进行描绘,然后,进行描绘脚趾侧区域的脚趾区域描绘处理(步骤A52)。
另外,脚描绘处理的脚区域描绘处理以及脚趾区域描绘处理是与上述手臂描绘处理中的手臂区域描绘处理以及手指区域描绘处理的各处理大致相同的处理,省略其详细的说明。
<躯体描绘处理>
以下,参照图12对躯体描绘处理进行详细说明。
图12是表示涉及背面图像生成处理中的躯体描绘处理的动作的一个例子的流程图。
如图12所示,首先,颜色确定部306e的第二确定部e2确定被摄体截取图像P1以及掩模图像P2中的由骨骼点设定部306d设定的下颚骨骼点B17和左右股关节骨骼点B9以及B10(步骤A601)。
然后,第二确定部e2确定左右股关节骨骼点B9和B10的中点Bm,然后,在掩模图像P2中确定连接该中点Bm和下颚骨骼点B17的第三基准线段L3(步骤A602)。接下来,第二确定部e2设定将第三基准线段L3的两端侧在该基准线段L的延伸方向上各自延长10%的延长线段L3a(步骤A603)。
接下来,第二确定部e2指定掩模图像P2中的延长线段L3a上的下颚侧的端部的位置(坐标)(步骤A604),然后,在与该延长线段L3a正交的两个方向中的规定的一个方向(例如,图19B中的左方向)上按照每一像素地进行扫描(步骤A605)。
然后,第二确定部e2判断扫描位置是否到达被摄体区域Ps中的相当于躯体的部分的一个方向的轮廓线上(步骤A606)。在此,如果判断为扫描位置到达了轮廓线上(步骤A606:是),则第二确定部e2获取掩模图像P2中的该轮廓线上的点的坐标,然后,基于被摄体截取图像P1的躯体图像P1b(参照图19A),计算出轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A607)。
另一方面,在步骤A606中,如果判断为扫描位置没有到达轮廓线上(步骤A606:否),则第二确定部e2判断扫描位置是否到达了两臂或两脚的描绘完毕区域A(步骤:A608)。
在此,如果判断为扫描位置到达了两臂或两脚的描绘完毕区域A(步骤A608:是),则第二确定部e2使处理进入步骤A607,获取掩模图像P2中的描绘完毕区域A的规定像素跟前的像素的坐标,然后,基于被摄体截取图像P1的躯体图像P1b(参照图19A),计算出描绘完毕区域A的规定像素跟前的像素的像素值和与该像素相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A607)。
然后,第二确定部e2在与延长线段L3a正交的两个方向中的另一方向(例如,图19B中的下方向)上按照每一像素地进行扫描(步骤A609)。
然后,第二确定部e2判断扫描位置是否到达被摄体区域Ps中的相当于躯体的部分的另一方向的轮廓线上(步骤A610)。在此,如果判断为扫描位置到达了轮廓线上(步骤A610:是),则第二确定部e2获取掩模图像P2中的该轮廓线上的点的坐标,然后,基于被摄体截取图像P1的躯体图像P1b(参照图19A),计算出轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A611)。
另一方面,在步骤A610中,如果判断为扫描位置没有到达轮廓线上(步骤A610:否),则第二确定部e2判断扫描位置是否到达了两臂或两脚的描绘完毕区域A(步骤:A612)。
在此,如果判断为扫描位置到达了两臂或两脚的描绘完毕区域A(步骤A612:是),则第二确定部e2使处理进入步骤A611,并获取掩模图像P2中的描绘完毕区域A的规定像素跟前的像素的坐标,然后,基于被摄体截取图像P1的躯体图像P1b(参照图19A),计算出描绘完毕区域A的规定像素跟前的像素的像素值和与该像素相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A611)。
然后,第二确定部e2基于对与延长线段L3a正交的两个方向中的各方向所计算出的像素值的代表值,计算出延长线段L3a的该扫描位置的代表像素值(例如,平均值)(步骤A613)。
接下来,背面图像生成部306f用由第二确定部e2计算出的代表像素值来描绘掩模图像P2(背面图像P3)中的被摄体对应区域Pa的相当于躯体的部分P3b中的由沿着延长线段L3a的该扫描方向的规定数量的像素形成的区域(步骤A614)。
接下来,针对与延长线段L3a正交的两个方向的各方向,第二确定部e2判断由沿着本次的扫描方向的规定数量的像素形成的区域的长度和由沿着上一次的扫描方向的规定数量的像素形成的区域的长度的差分是否超过规定值(步骤A615)。
具体而言,第二确定部e2,根据由沿着本次的扫描方向的规定数量的像素形成的区域是否比由沿着上一次的扫描方向的规定数量的像素形成的区域的长度的规定比例的长度还长,来判断差分是否超过规定值。
在步骤A615中,如果判断为差分没有超过规定值(步骤A615:否),则第二确定部e2判断延长线段L3a上的扫描位置是否到达股关节侧的端部(步骤A616)。
在此,如果判断为扫描位置没有到达股关节侧的端部(步骤A616:否),则第二确定部e2使延长线段L3a上的扫描位置向股关节侧移动一个像素,在指定该像素的位置(坐标)后(步骤A617),使处理进入步骤A605。
然后,动态图像处理部306,直到在步骤A616作出扫描位置到达股关节侧的端部的这一判断(步骤A616:是)为止,逐次反复地执行步骤A605之后的处理。由此,在以延长线段L3a为基准的每次扫描中描绘掩模图像P2(背面图像P3)中的相当于人的躯体的部分P3b。
然后,在步骤A616中,如果判断为延长线段L3a上的扫描位置到达了股关节侧的端部(步骤A616:是),则动态图像处理部306结束该躯体描绘处理。
另外,在步骤A615中,在判断差分超过规定值的情况下(步骤A615:是),动态图像处理部306也结束该躯体描绘处理。
<头描绘处理>
以下,参照图13~图15对头描绘处理进行详细说明。
图13是表示涉及背面图像生成处理中的头描绘处理的动作的一个例子的流程图。
如图13所示,动态图像处理部306进行第一描绘处理(参照图14),其中,在与基准线段L(例如,第四基准线段L4)正交的方向上描绘掩模图像P2(背面图像P3)中的被摄体对应区域Pa的相当于头的部分P3c(步骤A71),然后,进行第二描绘处理(参照图15),在该第二描绘处理中,在平行方向上描绘掩模图像P2(背面图像P3)中的被摄体对应区域Pa中的存在于直角四边形R2内的相当于头的部分(步骤A72)。
<第一描绘处理>
以下,参照图14对第一描绘处理进行详细说明。
图14是表示涉及第一描绘处理的动作的一个例子的流程图。
如图14所示,首先,颜色确定部306e的第三确定部e3确定被摄体截取图像P1以及掩模图像P2中的由骨骼点设定部306d设定的下颚骨骼点B17和头顶部骨骼点B18(步骤A801)。
接下来,第三确定部e3在掩模图像P2中将连接下颚骨骼点B17和头顶部骨骼点B18的线段设定为第四基准线段L4(步骤A802)。
接下来,第三确定部e3在指定了掩模图像P2中的第四基准线段L4上的下颚骨骼点B17的位置(坐标)之后(步骤A803),在与该第四基准线段L4正交的两个方向中的规定的一个方向(例如,图20B中的左方向)上,按照每一像素地进行扫描(步骤A804)。
然后,第三确定部e3判断扫描位置是否到达被摄体区域Ps中的相当于头的部分的一个方向的轮廓线上(步骤A805)。在此,如果判断为扫描位置到达轮廓线上(步骤A805:是),则第三确定部e3获取掩模图像P2中的该轮廓线上的点的坐标,然后,基于被摄体截取图像P1的头部图像P1c(参照图20A),计算出轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A806)。
接下来,第三确定部e3在与第四基准线段L4正交的两个方向中的另一方向(例如,图20B中的右方向)上按照每一像素地进行扫描(步骤A807)。
然后,第三确定部e3判断扫描位置是否到达被摄体区域Ps中的相当于头的部分的另一方向的轮廓线上(步骤A808)。在此,如果判断为扫描位置到达轮廓线上(步骤A808:是),第三确定部e3在获取掩模图像P2中的该轮廓线上的点的坐标之后,基于被摄体截取图像P1的头部图像P1c(参照图20A),计算出轮廓线上的点的像素值和与该轮廓线上的点相邻的规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A809)。
接下来,第三确定部e3基于针对与第四基准线段L4正交的两个方向中的各方向所计算出的像素值的代表值来计算出第四基准线段L4的该扫描位置的代表像素值(例如,平均值)(步骤A810)。
接下来,背面图像生成部306f利用由第三确定部e3计算出的代表像素值来描绘掩模图像P2(背面图像P3)中的被摄体对应区域Pa的相当于头的部分P3c中由沿着第四基准线段L4的该扫描方向的规定数量的像素构成的区域(步骤A811)。
接下来,针对与第四基准线段L4正交的两个方向的各方向,第三确定部e3判断由沿着本次的扫描方向的规定数量的像素形成的区域的长度和由沿着上一次的扫描方向的规定数量的像素形成的区域的长度的差分是否超过规定值(步骤A812)。
具体而言,第三确定部e3,根据由沿着本次的扫描方向的规定数量的像素形成的区域是否比由沿着上一次的扫描方向的规定数量的像素形成的区域的长度的规定比例的长度还长,来判断差分是否超过规定值。
在步骤A812中,如果判断为差分没有超过规定值(步骤A812:否),则第三确定部e3判断第四基准线段L4的扫描位置是否到达头顶部骨骼点B18(步骤A813)。
在此,如果判断为扫描位置没有到达头顶骨骼点B18(步骤A813:否),则第三确定部e3使第四基准线段L4上的扫描位置向头顶部骨骼点B18侧移动一个像素,在指定该像素的位置(坐标)后(步骤A814),使处理进入步骤A804。
然后,动态图像处理部306,直到在步骤A813作出扫描位置到达头顶部骨骼点B18的这一判断(步骤A813:是)为止,逐次反复地执行步骤A804之后的处理。由此,在以第四基准线段L4为基准的每次扫描中,描绘掩模图像P2(背面图像P3)中的相当于人的头的部分P3c。
然后,在步骤A813中,如果判断为第四基准线段L4上的扫描位置到达了头顶部骨骼点B18(步骤A813:是),则动态图像处理部306结束该第一描绘处理。
另外,在步骤A812中,在判断为差分超过规定值的情况下(步骤A812:是),动态图像处理部306也结束该第一描绘处理。
<第二描绘处理>
以下,参照图15对第二描绘处理进行详细说明。
图15是表示涉及第二描绘处理的动作的一个例子的流程图。
如图15所示,首先,颜色确定部306e的第三确定部e3在被摄体截取图像P1以及掩模图像P2中,进行设定将相当于人的头的部分分别围起的直角四边形R2的直角四边形设定处理(参照图10)(步骤A901)。
第二描绘处理中的直角四边形设定处理是与上述手指区域描绘处理中的直角四边形设定处理的各处理大致相同的处理。
即,基于轮廓信息,第三确定部e3获取作为掩模图像P2的被摄体区域的相当于头的部分的轮廓线上的点,即与第四基准线段L4正交且与通过下颚骨骼点B17的直线相交的轮廓线上的两个下颚侧交点的坐标。
接下来,第三确定部e3对掩模图像P2的被摄体区域的相当于头的部分的轮廓线中的包括头顶部骨骼点B18的两个下颚侧交点之间进行扫描,基于轮廓信息来确定与将第四基准线段L4夹在中间的平行的两条直线分别相交且存在于与该第四基准线段L4正交的方向上最远的位置上的第二及第三交点D2及D3。
然后,第三确定部e3在掩模图像P2中设定与下颚骨骼点B17以及头顶部骨骼点B18和第二及第三交点D2及D3相接的直角四边形R2,获取该直角四边形R2的第一~第四顶点F1~F4的各坐标。
由此,结束直角四边形设定处理。
接下来,第三确定部e3基于第四基准线段L4的延伸方向的长度,在下颚侧设定边界线Q(步骤A902)。具体而言,在直角四边形R2内,第三确定部e3将通过第四基准线段L4的延伸方向的长度的规定比例(例如,90%左右)的位置且与该第四基准线段L4正交的直线设定为边界线Q。
接下来,第三确定部e3在指定了掩模图像P2的头图像P2c(参照图20B)中的直角四边形R2的连接第一顶点F1和第二顶点F2的一个边上的第一顶点F1的位置(坐标)之后(步骤A903),在与该一个边正交的方向(例如,图20B中的下方向)上按照每一像素地进行扫描(步骤A904)。
然后,第三确定部e3判断扫描位置是否到达被摄体区域Ps中的相当于头的部分的轮廓线上(步骤A905)。在此,如果判断为扫描位置到达轮廓线上(步骤A905:是),则第三确定部e3在获取掩模图像P2中的该轮廓线上的点的坐标之后,基于被摄体截取图像P1的头部图像P1c(参照图20A),计算出轮廓线上的点的像素值和与该轮廓线上的点相邻的扫描方向(例如,图20B中的下方向)上规定像素数份的各像素的像素值的代表值(例如,平均值)(步骤A906)。
接下来,背面图像生成部306f判断存在于直角四边形R2内的相当于头的部分中的涉及该扫描位置的第四基准线段L4的平行方向的长度是否到达边界线Q上(步骤A907)。
在此,如果判断为该扫描位置的平行方向的长度没有到达边界线Q上(步骤A907:否),则背面图像生成部306f利用由第三确定部e3所确定的代表像素值,对掩模图像P2(背面图像P3)中的被摄体对应区域Pa的沿着该扫描方向的区域中的从头顶部侧的轮廓的位置开始到成为该区域的长度的规定比例的位置为止进行描绘(步骤A908)。
另一方面,在步骤A907中,如果判断为该扫描位置的平行方向的长度到达了边界线Q上(步骤A907:是),则背面图像生成部306f计算出从连接第一顶点F1和第二顶点F2的一个边开始到头顶部侧的轮廓为止的背景部分的长度T(步骤A909),之后,利用由第三确定部e3所确定的代表像素值,对掩模图像P2(背面图像P3)中的被摄体对应区域Pa的沿着该扫描方向的区域中的从头顶部侧的轮廓的位置开始到将背景部分的长度T减去之后的下颚侧位置为止进行描绘(步骤A910)。
接下来,第三确定部e3判断一个边上的扫描位置是否到达第二顶点F2(步骤A911)。
在此,如果判断为扫描位置没有到达第二顶点F2(步骤A911:否),则第三确定部e3使一个边上的扫描位置向第二顶点F2侧移动一个像素,在指定该像素的位置(坐标)之后(步骤A912),使处理进入步骤A904。
然后,动态图像处理部306,直到在步骤A911作出扫描位置到达第二顶点F2的这一判断(步骤A911:是)为止,逐次反复地执行步骤A904之后的处理。由此,在以一个边为基准的每次扫描中描绘掩模图像P2(背面图像P3)中的相当于人的头的部分。
然后,在步骤A911中,如果判断为一个边上的扫描位置到达第二顶点F2(步骤A911:是),则动态图像处理部306结束该第二描绘处理。
如上所述,根据本实施方式的动态图像生成系统100,基于被摄体截取图像P1的涉及被摄体的骨骼的骨骼信息来确定被摄体区域Ps的轮廓部分的颜色信息,基于该被摄体区域Ps的轮廓部分的颜色信息,按照被摄体的每个部位分别描绘背面图像P3的被摄体对应区域Pa,生成拟似地表示被摄体的背侧的背面图像P3,因此,能够利用被摄体截取图像P1的被摄体区域Ps的轮廓部分的颜色信息,简便地进行使观看者难以产生不协调感的背面图像P3的生成。具体而言,以通过与在被摄体截取图像P1的被摄体区域Ps内设定的骨骼建立对应的骨骼点B的基准线段L为基准,确定被摄体区域Ps的轮廓部分、特别是被摄体区域Ps中的基准线段L的正交方向以及平行方向中的至少一个方向的轮廓部分的颜色信息,能够按照该被摄体的包含基准线段L的每个部位分别描绘背面图像P3的被摄体对应区域Pa。
因此,能够按照被摄体的每个部位,用从被摄体截取图像P1的被摄体区域Ps的轮廓部分的颜色中观看者容易想像的颜色来描绘背面图像P3的被摄体对应区域Pa,能够针对被摄体截取图像P1的被摄体区域Ps,使背面图像P3对于观看者很难产生不协调感。
由此,在使作为静止图像(正面图像)的被摄体截取图像P1在规定方向上旋转的情况下,能够通过背面图像P3适当地表现该静止图像的背侧。另外,仅通过在被摄体截取图像P1的被摄体图像内设定移动控制点,就能够对与该被摄体截取图像P1对应的背面图像P3内的规定位置也自动地设定分别对应的移动控制点,能够使动态图像的生成处理变得更加简便。
另外,能够设定将被摄体区域Ps的相当于人的手指以及脚趾的部分分别围起的直角四边形R1,且以与该直角四边形R1的基准线段L平行的一个边为基准,在与该基准线段L呈正交方向上进行扫描,按照每次扫描来获取存在于该直角四边形R1内的被摄体区域Ps的颜色信息,并基于被摄体区域Ps的颜色信息来分别确定与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息。然后,由于基于存在于直角四边形R1内的与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息,按照每次扫描来分别对背面图像P3的被摄体对应区域Pa中的相当于人的手指以及脚趾的部分P3a1进行描绘,因此,即使是被摄体区域Ps形成复杂的形状的相当于人的手指或脚趾的部分,也能够利用在该相当于人的手指以及脚趾的部分所设定的直角四边形R1,按每次扫描以观看者从被摄体截取图像P1的被摄体区域Ps的轮廓部分的颜色中容易想像的颜色来分别描绘存在于背面图像P3的该直角四边形R1内的被摄体对应区域Pa。
另外,能够以将设定在被摄体区域Ps的相当于人的躯体的部分的基准线段L的至少一个端部侧在该基准线段L的延伸方向上延长了规定比例之后的延长线段L3a为基准,在与该延长线段L3a呈正交方向上进行扫描,按照每次扫描来获取上述被摄体区域Ps的颜色信息,并基于每次扫描所获取的被摄体区域Ps的颜色信息,分别确定与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息。然后,基于与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息,按每次扫描分别描绘背面图像P3的被摄体对应区域Pa中的相当于人的躯体的部分P3b,因此,能够利用在相当于人的躯体的部分所设定的延长线段L3a,在每次扫描中以观看者从被摄体截取图像P1的被摄体区域Ps的与该延长线段L3a呈正交方向的轮廓部分的颜色中容易想像的颜色来分别描绘背面图像P3的被摄体对应区域Pa。
另外,即使涉及被摄体区域Ps的相当于人的躯体的部分的轮廓部分的颜色信息的确定处理是在涉及背面图像P3的被摄体对应区域Pa中的相当于两臂以及两脚的部分的描绘的背面图像生成处理之后进行的,也能够以延长线段L3a为基准来在与该延长线段L3a呈正交方向上进行扫描,在每次扫描中确定在正交方向上将延长线段L3a夹在中间的与被摄体区域Ps的轮廓分别相交的两点,或者与被摄体区域Ps的躯体相邻的两臂以及两脚分别相交的两点,并以每次扫描所确定的两点为基准,在每次扫描中获取被摄体区域Ps的两个轮廓部分的颜色信息。即,能够考虑到背面图像P3的被摄体对应区域Pa的相当于与躯体相邻的两臂以及两脚的部分是否描绘已经完毕这一情况而高效并适当地进行背面图像P3的生成。
另外,基于在被摄体区域Ps的与相当于人的头的部分所设定的基准线段L呈正交方向的轮廓部分的颜色信息、即通过以基准线段L为基准在与该基准线段L呈正交方向上进行扫描而在每次扫描中获取的被摄体区域Ps的颜色信息,确定与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息,能够基于该信息在正交方向上描绘背面图像P3的被摄体对应区域Pa中的相当于人的头的部分P3c。
然后,基于基准线段L的平行方向的轮廓部分的颜色信息、即通过以与将相当于人的头的部分围起的直角四边形R2的基准线段L正交的一个边为基准而在基准线段L的平行方向上进行扫描而在每次扫描中获取的存在于该直角四边形R2内的被摄体区域Ps的颜色信息,确定与被摄体区域Ps的各扫描对应的轮廓部分的颜色信息,能够基于该信息而在平行方向上描绘背面图像P3的被摄体对应区域Pa中的相当于人的头的部分P3c。具体而言,能够以存在于直角四边形R2内的被摄体区域Ps的基准线段L的平行方向的长度或与直角四边形R2的基准线段L平行的一个边的长度为基准,在平行方向上直到背面图像P3的被摄体对应区域Pa中的相当于人的头的部分P3c的规定位置为止进行描绘。
因此,能够考虑与基准线段L呈正交方向以及平行方向的各轮廓部分的颜色,以观看者从被摄体截取图像P1的被摄体区域Ps的与该基准线段L呈正交方向或平行方向的轮廓部分的颜色中容易想像的颜色来描绘背面图像P3的被摄体对应区域Pa。即,在头顶部侧,能够考虑与基准线段L呈正交方向的轮廓部分的颜色,以观看者从例如毛发的颜色中容易想像的颜色进行描绘。另一方面,在离开头顶部的更靠近下颚侧的部分,能够考虑基准线段L的平行方向的轮廓部分的颜色,以观看者从例如耳朵或脖子周围的皮肤色中容易想像的颜色进行描绘。
另外,本发明不局限于上述实施方式,只要在不脱离本发明的宗旨的范围内,就可以进行各种改良以及设计上的变更。
例如,在上述实施方式中,虽然基于用户对用户终端2进行的规定操作,利用作为网络服务器的服务器(图像生成装置)3来生成了动态图像,但这只是一个例子,而不局限于此,图像生成装置的构成能够进行适当的任意的变更。即,作为通过软件来实现涉及生成背面图像P3的动态图像处理部306的功能的构成,也可以是如下构成:通过将软件安装在用户终端2中而无需通信网络N就以该用户终端2单体地进行动态图像生成处理。
另外,虽然在上述实施方式中以被摄体截取图像P1作为了处理对象,但这只是一个例子,而不局限于此,能够适当地进行任意的变更,例如,可以从最开始就只使用被摄体区域Ps。
另外,虽然背面图像生成处理是以手臂描绘处理、脚描绘处理、躯体描绘处理和头描绘处理的顺序进行的,但该各处理的顺序只是一个例子,而不局限于此,能够适当地进行任意的变更。
另外,虽然对头描绘处理以第一描绘处理和第二描绘处理的顺序进行,但该各处理顺序只是一个例子,而不局限于此,能够适当地进行任意的变更。即,例如,在是带着帽子的人的被摄体截取图像P1等情况下,可以当在平行方向上对掩模图像P2中的被摄体对应区域Pa中的相当于存在于直角四边形R2内的头的部分进行描绘的第二描绘处理之后,进行在与基准线段L呈正交方向上描绘的第一描绘处理。而且,可以采用如下构成:生成两个改变了第一描绘处理和第二描绘处理的处理顺序的背面图像P3,并让用户选择任意一方的背面图像P3。
另外,在上述实施方式的动态图像生成处理中,可以采用能够调整被摄体图像的合成位置或尺寸的构成。即,如果用户终端2的中央控制部201基于用户对操作输入部202进行的规定操作而判断为输入了被摄体图像的合成位置或尺寸的调整指示,则将与该调整指示对应的信号利用通信控制部206经由规定的通信网络N发送给服务器3。然后,服务器3的动态图像处理部306可以基于通过通信控制部输入的调整指示,将被摄体图像的合成位置设定在所希望的合成位置,或将该被摄体图像的尺寸设定成所希望的尺寸。
另外,在上述实施方式中,虽然作为用户终端2举出了个人计算机的例子,但这只是一个例子,而不局限于此,能够适当地进行任意的变更,例如,可以使用便携式电话机等。
另外,在被摄体截取图像P1或动态图像的数据中也可以加入禁止用户进行规定的改变的控制信息。
此外,虽然在上述实施方式中采用了在中央控制部301的控制下通过驱动图像获取部306a、骨骼信息获取部306b、颜色确定部306e和背面图像生成部306f来实现作为第一获取单元、第二获取单元、确定单元和生成单元的功能的构成。
即,在存储程序的程序存储器(省略图示)中存储包括第一获取处理程序、第二获取处理程序、确定处理程序、以及生成处理程序的程序。可以通过第一获取处理程序使中央控制部301的CPU发挥获取包括被摄体区域Ps的被摄体图像的第一获取单元的功能。另外,可以通过第二获取处理程序使中央控制部301的CPU发挥获取由第一获取单元所获取的被摄体图像的涉及被摄体的骨骼的骨骼信息的第二获取单元的功能。另外,可以通过确定处理程序使中央控制部301的CPU发挥基于由第二获取单元获取的骨骼信息来确定被摄体区域Ps的轮廓部分的颜色信息的确定单元的功能。另外,可以通过生成处理程序使中央控制部301的CPU发挥基于由确定单元所确定的被摄体区域Ps的轮廓部分的颜色信息,按照每个部位分别描绘背面图像P3的被摄体对应区域Pa,并生成该背面图像P3的生成单元的功能。
而且,作为保存用于执行上述各处理的程序的计算机能够读取的介质,除了ROM或硬盘等,也可以使用闪存等非易失性存储器和CD-ROM等的可移动型记录介质。另外,作为通过规定的通信线路提供程序的数据的介质,也可以使用载波(carrierwave)。
Claims (16)
1.一种图像生成方法,其特征为,包括:
第一获取步骤,获取包括被摄体区域的被摄体图像;
第二获取步骤,获取由该第一获取步骤获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;
确定步骤,基于由该第二获取步骤获取的上述骨骼信息,按照人的每个代表性部位来确定上述被摄体区域的轮廓部分的颜色信息;以及
生成步骤,基于由该确定步骤所确定的上述被摄体区域的轮廓部分的颜色信息来描绘拟似地表示被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像。
2.根据权利要求1所述的图像生成方法,其中,还包括:
设定步骤,基于由上述第二获取步骤所获取的上述骨骼信息,在上述被摄体图像的上述被摄体区域内设定与骨骼建立关联的骨骼点,
上述确定步骤以经过由上述设定步骤所设定的骨骼点的基准线段为基准来确定上述被摄体区域的轮廓部分的颜色信息。
3.根据权利要求2所述的图像生成方法,其中,
在上述生成步骤中,
还按照该被摄体的包括上述基准线段的每个部位,分别描绘上述背面图像的上述被摄体对应区域。
4.根据权利要求2所述的图像生成方法,其中,
在上述确定步骤中,
还确定上述被摄体区域中的与上述基准线段呈正交方向以及平行方向当中的至少一个方向的轮廓部分的颜色信息。
5.根据权利要求1所述的图像生成方法,其中,
在上述第一获取步骤中,
获取从存在背景和被摄体的图像中将包括被摄体的被摄体区域截取之后的图像,以作为上述被摄体图像。
6.一种图像生成方法,其特征为,包括:
第一获取步骤,获取包括被摄体区域的被摄体图像;
第二获取步骤,获取由该第一获取步骤获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;
确定步骤,基于由该第二获取步骤获取的上述骨骼信息来确定上述被摄体区域的轮廓部分的颜色信息;以及
生成步骤,基于由该确定步骤所确定的上述被摄体区域的轮廓部分的颜色信息来描绘拟似地表示被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像,
所述图像生成方法还包括:
设定步骤,基于由上述第二获取步骤所获取的上述骨骼信息,在上述被摄体图像的上述被摄体区域内设定与骨骼建立关联的骨骼点,
上述确定步骤以经过由上述设定步骤所设定的骨骼点的基准线段为基准来确定上述被摄体区域的轮廓部分的颜色信息,
上述确定步骤,还具有:
设定直角四边形的步骤,该直角四边形具有与经过在上述被摄体区域的相当于手指以及脚趾的部分的各自的前端侧所设定的一个骨骼点和与该一个骨骼点相邻的另一骨骼点的基准线段平行的两个边、以及与上述基准线段正交的两个边,且将相当于上述手指以及脚趾的部分分别包围;以及
以与所设定的上述直角四边形的上述基准线段平行的一个边为基准,在与该基准线段呈正交方向上进行扫描,并按照每次扫描来获取存在于该直角四边形内的上述被摄体区域的颜色信息的步骤,
并且,基于按照每次扫描所获取的存在于上述直角四边形内的上述被摄体区域的颜色信息,来分别确定与上述被摄体区域的各扫描对应的轮廓部分的颜色信息。
7.根据权利要求6所述的图像生成方法,其中,
在上述生成步骤中,
还基于由上述确定步骤所确定的存在于上述直角四边形内的与上述被摄体区域的各扫描对应的轮廓部分的颜色信息,按照每次扫描来分别描绘上述背面图像的上述被摄体对应区域中的相当于手指以及脚趾的部分。
8.一种图像生成方法,其特征为,包括:
第一获取步骤,获取包括被摄体区域的被摄体图像;
第二获取步骤,获取由该第一获取步骤获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;
确定步骤,基于由该第二获取步骤获取的上述骨骼信息来确定上述被摄体区域的轮廓部分的颜色信息;以及
生成步骤,基于由该确定步骤所确定的上述被摄体区域的轮廓部分的颜色信息来描绘拟似地表示被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像,
所述图像生成方法还包括:
设定步骤,基于由上述第二获取步骤所获取的上述骨骼信息,在上述被摄体图像的上述被摄体区域内设定与骨骼建立关联的骨骼点,
上述确定步骤以经过由上述设定步骤所设定的骨骼点的基准线段为基准来确定上述被摄体区域的轮廓部分的颜色信息,
上述确定步骤,还具有:
设定延长线段的步骤,该延长线段经过在上述被摄体区域的相当于躯体的部分所设定的一个骨骼点,并且使大致沿着脊椎延伸的基准线段的至少一个端部侧在该基准线段的延伸方向上延长规定比例;以及
以所设定的上述延长线段为基准,在与该延长线段呈正交方向上进行扫描,按照每次扫描来获取上述被摄体区域的颜色信息的步骤,
并且,基于每次扫描所获取的上述被摄体区域的颜色信息,来分别确定与上述被摄体区域的各扫描对应的轮廓部分的颜色信息。
9.根据权利要求8所述的图像生成方法,其中,
上述确定步骤,还具有:
以上述延长线段为基准,在与该延长线段呈正交方向上进行扫描,并按照每次扫描,对在上述正交方向上将上述延长线段夹在中间且与上述被摄体区域的轮廓分别相交的两点、或与上述被摄体区域的相邻于上述躯体的两臂以及两脚分别相交的两点进行确定的步骤,
并且,以按照每次扫描所确定的上述两点为基准,按照每次扫描来获取上述被摄体区域的两个轮廓部分的颜色信息。
10.根据权利要求9所述的图像生成方法,其中,
上述被摄体区域的相当于躯体的部分所涉及的上述确定步骤,在上述背面图像的上述被摄体对应区域中的相当于上述两臂以及上述两脚的部分的描绘所涉及的上述生成步骤之后进行。
11.根据权利要求8所述的图像生成方法,其中,
在上述生成步骤中,
还基于由上述确定步骤所确定的与上述被摄体区域的各扫描对应的轮廓部分的颜色信息,按照每次扫描来分别描绘上述背面图像的上述被摄体对应区域中的相当于躯体的部分。
12.一种图像生成方法,其特征为,包括:
第一获取步骤,获取包括被摄体区域的被摄体图像;
第二获取步骤,获取由该第一获取步骤获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;
确定步骤,基于由该第二获取步骤获取的上述骨骼信息来确定上述被摄体区域的轮廓部分的颜色信息;以及
生成步骤,基于由该确定步骤所确定的上述被摄体区域的轮廓部分的颜色信息来描绘拟似地表示被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像,
所述图像生成方法还包括:
设定步骤,基于由上述第二获取步骤所获取的上述骨骼信息,在上述被摄体图像的上述被摄体区域内设定与骨骼建立关联的骨骼点,
上述确定步骤以经过由上述设定步骤所设定的骨骼点的基准线段为基准来确定上述被摄体区域的轮廓部分的颜色信息,
上述生成步骤,还具有:
基于由上述确定步骤所确定的、与经过在上述被摄体区域的相当于头的部分的前端侧所设定的一个骨骼点和与该一个骨骼点相邻的另一骨骼点的基准线段呈正交方向的轮廓部分的颜色信息,在上述正交方向上描绘上述背面图像的上述被摄体对应区域中的相当于头的部分的步骤;以及
基于由上述确定步骤所确定的、与上述基准线段呈平行方向的轮廓部分的颜色信息,在上述平行方向上描绘上述背面图像的被摄体对应区域中的相当于头的部分的步骤。
13.根据权利要求12所述的图像生成方法,其中,
上述确定步骤,还具有:
以上述基准线段为基准,在与该基准线段呈正交方向上进行扫描,并按照每次扫描来获取上述被摄体区域的颜色信息的步骤,
并且,基于按照每次扫描所获取的上述被摄体区域的颜色信息,来分别确定与上述被摄体区域的各扫描对应的轮廓部分的颜色信息。
14.根据权利要求12所述的图像生成方法,其中,
上述确定步骤,还具有:
设定直角四边形的步骤,该直角四边形具有与上述基准线段平行的两个边以及与上述基准线段正交的两个边,且将相当于上述头的部分包围;以及
以与所设定的上述直角四边形的上述基准线段正交的一个边为基准,在与上述基准线段呈平行方向上进行扫描,按照每次扫描来获取存在于该直角四边形内的上述被摄体区域的颜色信息的步骤,
并且,基于按照每次扫描所获取的上述被摄体区域的颜色信息,来分别确定与上述被摄体区域的各扫描对应的轮廓部分的颜色信息。
15.根据权利要求14所述的图像生成方法,其中,
在上述生成步骤中,
还以存在于上述直角四边形内的上述被摄体区域的与上述基准线段呈平行方向的长度、以及上述直角四边形的与上述基准线段平行的一个边的长度当中的至少一个长度为基准,在上述平行方向上,直到上述背面图像的上述被摄体对应区域中的相当于头的部分的规定位置为止进行描绘。
16.一种图像生成装置,具有:
第一获取单元,获取包括被摄体区域的被摄体图像;
第二获取单元,获取由该第一获取单元所获取的被摄体图像的与被摄体的骨骼相关的骨骼信息;
确定单元,基于由该第二获取单元所获取的上述骨骼信息,按照人的每个代表性部位来确定上述被摄体区域的轮廓部分的颜色信息;以及
生成单元,基于由该确定单元所确定的上述被摄体区域的轮廓部分的颜色信息,按照上述被摄体的每个部位,分别描绘拟似地表示被摄体的背侧的背面图像的被摄体对应区域,以生成该背面图像。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011183636A JP5408206B2 (ja) | 2011-08-25 | 2011-08-25 | 画像生成方法、画像生成装置及びプログラム |
JP2011-183636 | 2011-08-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103150743A CN103150743A (zh) | 2013-06-12 |
CN103150743B true CN103150743B (zh) | 2016-04-13 |
Family
ID=47743016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210300972.3A Expired - Fee Related CN103150743B (zh) | 2011-08-25 | 2012-08-22 | 图像生成方法以及图像生成装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9299180B2 (zh) |
JP (1) | JP5408206B2 (zh) |
CN (1) | CN103150743B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12010456B2 (en) | 2023-03-29 | 2024-06-11 | Mediatek Inc. | Method for performing frame interpolation based on single-directional motion and associated non-transitory machine-readable medium |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6262105B2 (ja) * | 2014-09-04 | 2018-01-17 | 株式会社東芝 | 画像処理装置、画像処理システム、画像処理方法及びプログラム |
TWI643043B (zh) * | 2017-06-16 | 2018-12-01 | 東元電機股份有限公司 | 控制命令產生方法及其裝置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101515374A (zh) * | 2008-02-20 | 2009-08-26 | 中国科学院自动化研究所 | 基于图像的个性化真实感虚拟人物造型方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005322097A (ja) * | 2004-05-11 | 2005-11-17 | Nippon Telegr & Teleph Corp <Ntt> | 対象物像モデルのアニメーション表示装置、対象物像モデルのアニメーション表示方法および対象物像モデルのアニメーション表示プログラム |
JP4613313B2 (ja) | 2005-04-01 | 2011-01-19 | 国立大学法人 東京大学 | 画像処理システムおよび画像処理プログラム |
JP2007004732A (ja) * | 2005-06-27 | 2007-01-11 | Matsushita Electric Ind Co Ltd | 画像生成装置及び画像生成方法 |
US9240067B2 (en) * | 2009-10-15 | 2016-01-19 | Yeda Research & Development Co. Ltd. | Animation of photo-images via fitting of combined models |
-
2011
- 2011-08-25 JP JP2011183636A patent/JP5408206B2/ja not_active Expired - Fee Related
-
2012
- 2012-08-22 US US13/592,175 patent/US9299180B2/en not_active Expired - Fee Related
- 2012-08-22 CN CN201210300972.3A patent/CN103150743B/zh not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101515374A (zh) * | 2008-02-20 | 2009-08-26 | 中国科学院自动化研究所 | 基于图像的个性化真实感虚拟人物造型方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12010456B2 (en) | 2023-03-29 | 2024-06-11 | Mediatek Inc. | Method for performing frame interpolation based on single-directional motion and associated non-transitory machine-readable medium |
Also Published As
Publication number | Publication date |
---|---|
JP5408206B2 (ja) | 2014-02-05 |
CN103150743A (zh) | 2013-06-12 |
US20130050241A1 (en) | 2013-02-28 |
JP2013045340A (ja) | 2013-03-04 |
US9299180B2 (en) | 2016-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7750901B2 (en) | Telestrator system | |
CN101055646B (zh) | 用于处理图像的方法和装置 | |
US6738067B2 (en) | Image processing device, image processing method and recording medium | |
CN108062783A (zh) | 面部动画映射系统及方法 | |
Poupyrev et al. | Augmented groove: Collaborative jamming in augmented reality | |
CN106993249A (zh) | 一种声场的音频数据的处理方法及装置 | |
WO2010024486A1 (en) | 3d hair style simulation system and method using augmented reality | |
CN103198442B (zh) | 图像生成方法、图像生成装置 | |
US11055892B1 (en) | Systems and methods for generating a skull surface for computer animation | |
CN106952327A (zh) | 一种虚拟角色模拟真实头发模型的系统和方法 | |
TWI464705B (zh) | 產生合成影像之方法 | |
KR102254193B1 (ko) | 3차원 캐릭터를 생성하는 캐릭터 생성 시스템 및 그 방법 | |
KR101030204B1 (ko) | 화상 처리 장치, 화상 처리 장치의 제어 방법 및 정보 기억매체 | |
CN103150743B (zh) | 图像生成方法以及图像生成装置 | |
KR100411760B1 (ko) | 애니메이션 영상 합성 장치 및 방법 | |
JP2011223218A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
KR101089344B1 (ko) | 이퀄라이징 깊이지도 생성 기법을 이용한 단일영상의 입체영상 변환 방법 | |
JP2015097639A (ja) | カラオケ装置、ダンス採点方法、およびプログラム | |
JP2002092626A (ja) | 画像処理装置 | |
US11037363B2 (en) | Content modification device and method | |
KR101560354B1 (ko) | 3d 디지털 캐릭터 생성을 위한 복합 편집 시스템 및 방법 | |
JP5776442B2 (ja) | 画像生成方法、画像生成装置及びプログラム | |
JP5906897B2 (ja) | 動き情報生成方法、動き情報生成装置及びプログラム | |
CN117241063A (zh) | 基于虚拟现实技术的直播交互方法及系统 | |
CN117975536A (zh) | 一种人脸密集特征点检测与表情参数捕捉方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160413 Termination date: 20210822 |