CN106716500B - 一种信息处理装置及深度定义方法 - Google Patents
一种信息处理装置及深度定义方法 Download PDFInfo
- Publication number
- CN106716500B CN106716500B CN201680002231.3A CN201680002231A CN106716500B CN 106716500 B CN106716500 B CN 106716500B CN 201680002231 A CN201680002231 A CN 201680002231A CN 106716500 B CN106716500 B CN 106716500B
- Authority
- CN
- China
- Prior art keywords
- line segment
- depth
- information
- point
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 title claims description 38
- 238000012545 processing Methods 0.000 description 30
- 230000004048 modification Effects 0.000 description 15
- 238000012986 modification Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000009877 rendering Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000008602 contraction Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000004209 hair Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012913 prioritisation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/10—Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
Abstract
在获取了要被定义深度信息的二维图像时,信息处理装置接收用于指定该图像上的两个点的点信息的输入和指示作为深度基准的第一线段的线段信息的输入。接着,该装置针对连接由所述点信息指示的二维图像上的两个点的第二线段上的点,设置基于由线段信息指示的第一线段的深度信息。
Description
技术领域
本发明涉及程序、信息处理装置、深度定义方法及记录介质,并且更具体地,涉及针对2维图像定义深度方向上的起伏的技术。
背景技术
近年来,在以电子游戏为代表的计算机图形技术领域中,使用3维模型渲染表现已成为主流。这是因为,当例如在如动画那样移动同一人物和背景的同时在多个连续点处渲染帧时,可以缩短执行诸如重复渲染处理或光源计算处理的处理所需要的时间。尤其是对于人物的动作等实时改变以响应于电子游戏等的操作输入的互动式内容来说,通过事先准备3维模型、动画数据等,从各种视点位置或方向处理渲染表现是可能的。一般地,在这样的3维图形中,3维模型是基于由设计者等准备的多个2维图像(剪辑(cut))构建的,向该模型应用纹理,由此执行渲染。
另一方面,在通过应用纹理而渲染的3维图形中,可以提供不同于由设计者等准备的初始剪辑的印象。3维图形基本上是一种针对特定视点“恰当地”渲染应用了纹理的3维模型的技术,并且因此,与由2维图像渲染的剪辑不同,难以在特定的视线方向上再现有效“外观(appearance)”的表现。因此,通过使2维图像独特的表现的吸引力优先化而主要用于游戏画面的2维图像的游戏内容在一定程度得到支持。
专利文献1公开了一种能够在保持由设计者等渲染的2维图像的氛围和吸引力的同时表现(三维表现)3维动画的渲染技术。更具体地,在专利文献1中,在将2维图像分解为诸如头发、眉毛、眼睛及轮廓(脸)的部位之后,根据2维图像的外观,简单地将基准的曲面分配至轮廓的部位。通过根据与要表现的脸的方向一致的旋转的轮廓的球面来执行其它部位的2维图像的几何变形和移动,并且允许各种调节操作的应用,在不损坏原始的2维图像的印象的情况下实现不同方向的设计者期望的表现。换言之,与通过简单地应用纹理执行渲染的方法不同,专利文献1中描述的方法采用了使2维图像变形以实现设计者所期望的表现的方法。
引用列表
专利文献
专利文献1:日本专利特开第2009-104570号
专利文献2:日本专利特开第2003-085588号。
发明内容
技术问题
如在专利文献1中,根据基准部位的平移和旋转,使从预定方向呈现2维表现的 2维图像的各种部位变形。然而,构建要针对基准部位定义的曲面是有必要的。该操作与在3维图形中构建3维模型的操作相同。为了利用2维表现的吸引力,有必要为 2维图像的各个切片(cut)来定义球面,即,每个2维图像的深度方向信息。换言之,在3维图形的情况中,基于一个3维模型,从各个方向生成表现是可能的。然而,当从表示每个离散地定义的方向的优选表现的2维图像生成3维表现时,轮廓形状等不同,并且因此,使用常见的3维模型不是优选的。
相反,专利文献2公开了一种为2维图像中的人像简单定义3维形状的建模方法。然而,在专利文献2中描述的建模方法事先准备人像的3维基准形状数据,并且根据图像使数据变形。结果,并不总能获得设计者所期望的3维形状。另外,特别地,专利文献2中描述的方法是为拍摄的图像定义3维形状的方法。因此,由于面部中的眼睛的位置和大小可不同于实际人像的眼睛位置和大小,因此不可能容易地将该方法应用于人物图像,如由设计者等渲染的图片。
在3维建模中,为了结合诸如球体和长方体的基本图形并表现3维结构,有必要通过在各种方向上旋转图形来调节起伏(undulation)。为了使用这样的建模工具,技术知识是必要的。因此,2维图像设计者和3维建模设计者在实际开发中经常是不同的,并且可能不能总是表现出2维图像设计者所期望的起伏和轮廓。
考虑上述问题,做出本发明,并且本发明提供了一种针对2维图像直观定义图像的深度方向上的起伏的信息的程序、信息处理装置、深度定义方法和记录介质。
问题解决方案
为实现以上目的,提供一种程序,其中,该程序使计算机执行以下处理:获取作为深度信息的定义对象的2维图像的处理;针对获取的所述2维图像,接收用于指定该图像上的两个点的点信息的输入以及指示作为深度的基准的第一线段的线段信息的输入的处理;以及针对连接由所述点信息指示的所述2维图像上的所述两个点的第二线段上的点,设置基于由所述线段信息指示的第一线段的深度信息的处理。
发明的有益效果
根据本发明,该构成使针对2维图像简单定义图像的深度方向上的起伏的信息成为可能。
本发明的其它特征和益处通过下面与附图结合的描述将显而易见。应该注意,贯穿附图,相同的参考符号表示相同或相似的组件。
附图说明
结合在说明书中并且构成说明书一部分的附图示出了本发明的示例性实施方式,并且与描述一起用于解释本发明的原理。
图1是示出根据本发明实施方式的PC 100的功能构成的框图;
图2是例示根据本发明第一实施方式的由PC 100执行的深度定义处理的流程图;
图3A、图3B和图3C是说明根据本发明实施方式的定义深度信息的方法的图;
图4A和图4B是示出根据本发明实施方式的确定深度信息的正/负的方法的示例的图;
图5A和图5B是说明根据本发明第二实施方式的定义深度信息的方法的图;
图6是例示根据本发明第二实施方式的由PC 100执行的深度定义处理的流程图;
图7A是例示根据本发明的变型例1的针对对应点搜索定义的直线的图;
图7B是例示根据本发明的变型例2的针对对应点搜索定义的直线的图;
图8A和图8B是说明根据本发明的变型例3的深度信息的再编辑的模式的图;
图9A、图9B和图9C是说明根据本发明的变型例3的深度信息的再编辑中的匹配深度值的模式的图;
图10A和图10B是说明根据本发明的变型例4的基于估计来定义深度信息的方法的图;以及
图11A和图11B是说明根据本发明的第三实施方式的在不考虑对象图像的显示区域表面的情况下定义深度信息的方法的图。
具体实施方式
【第一实施方式】
参照下面附图将更详细地描述本发明的示例性实施方式。应该注意,下面要描述的实施方式将说明本发明被应用于PC的示例,作为信息处理装置的示例,PC能够针对与人物相关联的2维图像执行设置预定人物的深度信息的程序。但是,本发明不限于人物,并且适用于能够针对由2维图像表示的平面信息设置深度信息的任意装置。
《PC 100的构成》
图1是示出根据本发明实施方式的PC 100的功能构成的框图。
例如,控制单元101是诸如CPU的控制装置,并且控制PC 100的各个块的动作。更具体地,控制单元101读出与在存储介质102中存储的操作系统相关的程序、与深度定义应用(将稍后进行描述)相关的程序等,将程序加载至存储器103中,并且执行程序,从而控制各个块的动作。
存储介质102例如是诸如可重写ROM的非易失性存储器,或者是诸如可拆卸地连接至PC 100的HDD的存储装置。存储介质102可以包括诸如记录游戏程序的磁盘的记录介质,游戏程序可通过诸如光盘驱动器的预定可读/可写接口访问。除了上述程序,存储介质102存储各个块的动作所必须的参数等的信息、用于生成游戏图像的各种数据等。
存储器103可以例如是诸如RAM的易失性存储器。存储器103不仅用作用于加载从存储介质102读出的程序等的加载区,还用作用于存储在各个块的动作中输出的中间数据等的存储区。
获取单元104获取作为深度信息定义对象的2维图像。获取单元104从存储介质102读出基于用户操作输入而选择的2维图像或从连接至PC 100的外部装置读出相应的图像数据,并且将读出图像或数据载入存储器103中。
针对作为深度信息定义对象的2维图像,深度定义单元105基于由用户做出的操作输入来定义与2维图像对应的深度信息。例如,可以通过设置2维图像的各个像素的深度值,或形成3维模型或具有预定分辨率的深度图来实现深度信息的定义。
显示控制单元106可以例如包括GPU,并且控制在显示单元107的显示区上显示的画面的生成和更新。在该实施方式中,如果指定了作为深度定义对象的2维图像,显示控制单元106形成包括该图像的至少部分的画面数据,并且将所述数据传输至显示单元107以对其进行显示。显示单元107例如是诸如LCD的显示装置。在该实施方式中,显示单元107将被描述为PC 100的组件。然而,该发明不限于此。显示单元107不必被形成为与PC 100具有相同的外壳,并且可以是可拆卸地附接至PC 100 的外部显示装置。
操作输入单元108例如是PC 100的用户接口,诸如鼠标、键盘、或写字板。一旦检测到通过各种接口执行的操作输入,操作输入单元108向控制单元101输出与所述操作输入相对应的控制信号。另选地,操作输入单元108通知控制单元101与操作输入对应的事件的发生。
《深度定义处理》
将参照图2中示出的流程图详细地描述由具有根据本实施方式的上述构成的PC100执行的定义2维图像的深度信息的深度定义处理。当控制单元101读出例如在存储介质102中存储的对应处理程序,将该对应处理程序加载至存储器103中,并且执行该对应处理程序时,可以执行与该流程图对应的处理。应该注意,该深度定义处理将被描述为这样的处理,即,例如在使用获取单元104获取了作为深度信息定义对象的2维图像(对象图像),并且在具有深度设定功能的图像处理应用开始之后选择了深度设置功能时,该处理开始。
在步骤S201中,控制单元101确定是否针对对象图像执行了线段输入。基于由操作输入单元108检测到的操作输入来确定线段输入。例如,如果写字板或鼠标接收操作输入,则包括通过连接连续点(坐标)输入而定义的轨迹的信息。当然,线段输入无需基于轨迹。例如,可以包括定义锚定点和方向线或节点向量和控制点的多个离散点输入和方向。由线段输入定义的线段优选为曲线(包括折线)以表示波浪形状。然而,即使线段是直线,可以对其进行处理。如果确定执行了线段输入,则控制单元 101移动该过程至步骤S202;否则,控制单元101在该步骤中重复该处理。
在步骤S202中,控制单元101将输入线段(参照线段)的信息存储在例如存储器103中。所存储的线段信息可以由线段的起点和终点的坐标(端点信息),以及线段上按照预定间隔存在的点或通过将线段划分成预定数量的部分而定义的点的坐标群形成。另选地,所存储的线段信息可以由对线段进行多项式近似的函数的信息和端点信息形成。在前一种情况中,假设通过对坐标群内插来再现参考线段是可能的。
在步骤S203中,在控制单元101的控制下,深度定义单元105确定深度定义对象图像上的基准线段。在该实施方式中,基于参照线段的端点信息,深度定义单元 105确定通过连接参照线段的端点而定义的直线作为基准线段。
在步骤S204中,深度定义单元105针对基准线段确定点(深度定义点),在每个点处定义深度信息。应该注意,在本实施方式中,深度定义点被确定为按照关于线段上的除了基准线段的端点以外的位置的预定间隔存在。深度定义点可以包括端点。然而,这些端点与参照线段的端点重合,并且在根据本实施方式中的深度定义处理中的步骤S205(将在稍后进行描述)中,深度值是0。因此,就简化处理而言,这些端点从根据本实施方式的深度定义处理中的深度定义点中排除。
在本实施方式中,在基准线段上按照预定间隔存在的点被设置为深度定义点。然而,可以在基准线段上的任意位置处确定任意数量的深度定义点,例如,可以针对基准线段上存在的2维图像的各个像素确定深度定义点。另选地,可以与基于深度信息定义的3维模型或深度图的分辨率一致地确定深度定义点。
在步骤S205中,深度定义单元105指定参照线段上的、与步骤S204中确定的各个深度定义点相对应的对应点,根据深度定义点与所述对应点之间的距离来设置深度定义点的深度值,并存储深度值。在本实施方式中,通过更新与对象图像相关的深度图中的对应坐标处的深度值来存储深度值。然而,如上所述,深度信息的结构不限于此。
假设各个深度定义点在参照线段上的对应点都是参照线段与穿过该深度定义点且与对象图像平面内的基准线段正交的直线的交点。换言之,如图3A中所示,为对象图像300输入的参照线段301定义连接参照线段301的端点302a和302b的基准线段303的深度信息。如图3B所示,在这个时刻,根据与参照线段301与作为穿过各深度定义点且与基准线段303正交的平行直线的正交线305之间的交点的距离可设置基准线段303上的各深度定义点304的深度值。因此,如图3C所示,可以针对对象图像300的基准线段303的位置来定义深度方向上的起伏(图3C仅示出示例以理解 2维图像与起伏之间的关系)。
深度值可以是各个深度定义点与该深度定义点的对应点之间的距离,或通过将该距离乘以预定系数而获得的值。换言之,当基准线段上的深度定义点P(xt,yt)的对应点由R(xt,yt)表示时,可以使用系数k通过下列公式计算为点P设定的深度值D(xt,yt):
D(xt,yt)=k×|P(xt,yt)-R(xt,yt)|
由深度信息定义的深度值不限于表示朝向屏幕的显示对象图像的正面的凸起(凸出)的值,并且可以是表示朝向屏幕的反面的凹陷(凹入等)的值。可以通过预设定定义在正方向或反方向上的深度的线段输入来确定深度值的正/负(显示面为0),或可以根据上述系数是正值或负值来确定深度值的正/负。另选地,当指示深度方向的正/负时没有要求任何特定输入,,通过如图4A中所示那样将基准线段设定为边界,可以根据对应点存在的方向来确定深度方向的正/负,如图4B所示。
如上所述,通过执行针对2维图像的简单操作输入,根据本实施方式的深度定义处理使得直观地定义用户所期望的深度信息成为可能。
【第二实施方式】
通过假设将连接在对象图像的区域内输入的参考线段的端点的直线设置为基准线段,并且针对该线段上的各个点定义与参照线段对应的深度信息的方式说明了上述实施方式。然而,如图3A至图3C所述,2维图像不限于例如从人物面向的方向渲染的图像。换言之,由于2维图像中渲染的图像的组成和视角由设计者确定,如果针对对象图像中的直线定义深度信息,如在面向方向的情况那样,直观地定义设计者所期望的深度信息可能是不可能的。例如,当定义图5A中示出的具有发束感和“波浪”的发型的从根部至端部的深度信息时,与通过设置直线501作为基准线段的情况相比,能够通过设置符合波浪的曲线502作为基准线段来定义深度信息,以直观地设置期望的深度表示,如图5B所示。
在根据本实施方式的PC 100中,将描述一种通过接收与参照线段分离的基准线段的输入以提高与这样的深度定义相关的便捷性的定义深度信息的方法。应该注意,考虑到对用户更可取的过程,以下深度定义处理将在下面被描述为按照命名的顺序接收基准线段输入和参考线段输入的处理。然而,应容易理解的是,各线段的输入顺序不必限于此。此外,基准线段和参考线段可以根据笔划是2笔划轨迹输入中的第一笔划还是第二笔划来区分,或者可通过切换输入的线段的角色的另一操作输入来区分。
《深度定义处理》
根据本实施方式的深度定义处理将参考图6中示出的流程图详细描述。应该注意,在根据本实施方式的深度定义处理中,将省略与在第一实施方式中表示执行相同过程的步骤中相同的参考符号及其描述。下面仅描述本实施方式中的特征过程。
在步骤S601中,控制单元101确定是否针对对象图像执行了与基准线段相关的线段输入。如果确定执行了与基准线段有关的线段输入,则控制单元101将过程移动至步骤S602;否则,控制单元101在该步骤中重复该处理。
在步骤S602中,控制单元101存储输入的参照线段的信息,并且将该过程移动至步骤S201。上述第一实施方式已经解释了基于与参照线段相关的线段输入来输出用于定义基准线段的端点信息。然而,在根据本实施方式的深度定义处理中,由于接收了基准线段输入,端点信息是基于基准线段的起点和终点确定的。根据本实施方式的深度定义处理假设在步骤S201中接收的参照线段是由从输入的基准线段的终点或起点至其它端点的线段输入定义的。换言之,如果通过连续地输入两个笔划输入的基准线段和参照线段,则用户能够从基准线段的终点开始与参照线段相关的线段输入,并且通过引导输入位置至基准线段的起点来完成与参考线段相关的线段输入。
应该注意,在根据本实施方式的深度定义处理中,如上所述,首先接收参照线段输入,并且因此执行步骤S201和随后的步骤中的处理,除了根据第一实施方式的深度定义处理的步骤S203中的处理以外。
如上所述,根据本实施方式的深度定义处理使定义具有在2维图像上定义的任意形状的基准线段的深度信息成为可能,从而更简单地定义用户所期望的深度信息。
【变型例1】
与第一实施方式相似,通过假设基于穿过深度定义点且与基准线段正交的直线确定各个深度定义点的对应点的方式说明了第二实施方式。然而,例如,如果基准线段是曲线,则对应点在参照线段上是离散的,并且一些设计者可能具有不直观的印象。例如,如果基准线段是折线,除非在转折点处设定规则,不能定义正交性的概念。
因此,在本变型例中,当确定各个深度定义点的对应点时,使用与由如第一实施方式中的端点信息定义的直线正交且穿过深度定义点的直线,而不是基准线段,并且将直线与参照线段的交点设置为对应点,如图7A所示。不论基准线段的形状如何,这通过彼此平行并且由端点信息形成的正交线确定对应点,从而使得向用户呈现定义深度信息中的更直观的操作感觉是可能的。
【变型例2】
已经通过假设基于与基于基准线段或端点信息定义的直线正交的线段来确定深度定义点的对应点的方式说明了第一实施方式、第二实施方式和变型例1。然而,用于搜索对应点的直线不必与基准线段等正交。例如,可以预设基准线段等形成的角度,并且可以相对于基于所述角度定义的直线进行对应点的搜索,如图7B中所示。
【变型例3】
应该注意,用于定义深度信息的参照线段和基准线段可以是这样的线段,即,这些线段的信息例如与对象图像相关联地存储在存储介质102中,以使即使在定义深度信息之后仍然涉及参照线段和基准线段。在与深度信息处理相关联的对象图像的显示期间,这些线段不必一直重叠和显示,并且这些线段可能通常在不可见状态下经历显示控制,以通过例如诸如对对应区域的鼠标悬停(mouse-over)操作的操作输入而在可见状态下被设置。
另外,与已定义的深度信息相关的参照线段和基准线段可以被配置为被重新编辑。在这种情况下,再次定义线段,移动特定点等(深度定义点、对应点、端点、用于定义各个线段的点和向量等),改变与深度值设置相关联的系数,改变深度方向的正/负,并且改变与搜索对应点相关的线段的倾角可以是可能的。如图8A所示,通过附加地输入参照线段803至已基于参照线段802定义了深度信息的基准线段801上,可以根据参照线段803执行深度值的加法/减法运算。如图8B中示出,针对参照线段 802,加法/减法运算可以基于考虑到参照线段803的新参照线段804来设置深度值(图 8B示出加法运算)。
可以通过在不同方向上定义基准线段来定义深度信息。然而,如果针对与已定义了深度信息的基准线段相交的基准线段定义深度信息,可以执行深度值的加法/减法运算以外的处理。例如,改变与基准成分中的至少一个的深度值设置相关的参照线段的应用比例(上述系数),使得线段的深度值彼此匹配。更具体地,考虑如下情况,即,如果已基于多个基准线段901的参照线段902定义了深度信息的片段,则基于基准线段903和参照线段904来定义深度信息,如图9A所示。例如,对于位于基准线段903与各个基准线段901的交点处的深度定义点,可以优先设置基于参照线段904 上的对应点确定的深度值。在这样情况,如图9B所示,对于各个基准线段901上的相同位置处的深度定义点,可能发生深度值的失配。因此,如图9C所示,改变将用于基准线段901的深度值设置的系数以调节深度信息。应该注意,深度值被优先化的基准线段可以被每个用户选择。可以为每个基准线段或每个深度定义点指定优先化单元。这可以定义具有平面端部的形状,即,即使在特定基准线段上的端点位置处也具有不是0的深度值的形状。
如上所述,在定义或重新编辑深度信息时,显示控制单元106可以将基于通过深度定义处理而定义的深度信息的3维形状与对象图像一起显示,以确认是否获得设计者期望的深度表示。与正常的3维模型查看器相似,3维形状可以被配置为响应于向形状的显示界面输入的操作而经历平移或旋转操作。
【变型例4】
在专利文献1中描述的技术中,为了执行3维动画表示,渲染人物等的2维图像被分解为各个部分,并且分解的部分被定义为部位。在这种情况下,如果针对一个或更多个基准线段定义深度信息,根据各个部位的区域的形状来估计诸如半圆柱形或半椭圆形的形状是可能的。基于已针对所述区域定义了深度信息的一个或更多个基准线段,估计被认为要在该区域中的另一位置处被定义的基准线段和参考线段,并且给出深度信息是可能的。
更具体地,例如,如果区域1001是具有图10A中示出的形状(手臂1000)的部位的场合,假设通过参照线段1003针对基准线段1002定义深度信息。在这种情况下,在图10A中,区域1001具有水平方向上的宽度向下(在垂直方向上向下)减小的梯形。因此,可以估计为优选的是通过定义与基准线段1002相关联的深度信息来定义与宽度在垂直方向上的另一位置处增加/减小的平行基准线段相关联的深度信息。因此,如图10B所示,即使用户没有进行操作,在垂直方向上按照预定间隔定义了多个基准线段1004和参照线段1005,所述多个基准线段1004和参照线段1005是通过进行根据相应宽度对参考线段1003执行相似变形而获得的。对于各个基准线段1004,基于对应的参照线段1005来定义深度信息。
这能够简化用户的深度定义操作,从而提供了便捷性。注意,在图10A和图10B 中示出的示例中,区域1001具有表示垂直方向上的纵向方向的梯形,并且因此,基于估计而确定的基准线段1004与基准线段1002平行。然而,该发明不限于此。如果区域具有弯曲的形状,则基于估计而确定的基准线段的方向可以根据由根据该区域的曲率确定的曲线和均已被确定了深度信息的多个基准线段形成的角度来确定。深度定义单元105可以通过在区域中定义从用于确定该区域的曲率的中心点径向延伸的多个直线,然后根据所述角度旋转所述直线来定义基于估计而确定的基准线段。
通过假设基于图像中设置的透明度、层信息等可以清楚地掌握诸如部位的区域的形状的情况,说明了不要求基于这样的形状识别的操作输入的深度信息的定义(估计)。然而,本发明不必限于此。例如,可以通过图像处理获取图像中的边界部分的信息和诸如对比差异的颜色信息来进行形状识别和估计,并且可以确定深度信息是否被定义而无需任何操作输入。当然,对于诸如预先划分的部位的一个图像,不必进行形状识别。如果可以识别图像中的区域的局部形状,则可以通过假设存在一个图像的多个形状来进行处理。
【第三实施方式】
在上述实施方式和变型例中,基准线段的端点基本上被限制为具有与对象图像的显示面的深度值相等的深度值。换言之,由于通过参照线段的端点与基准线段的端点重合的操作输入来定义深度信息,即使基准线段的端点被设置为深度定义点,参照线段上的对应点也与深度定义点重合,并且因此深度值变为0。
当然,如图11A所示,另一方面,例如在人物图像等中,存在被正确地渲染以使得部位的端部(指尖等)存在于2维图像的显示面的正面(或反面)上的对象。在这种情况下,例如,即使针对基准线段1101定义参考线段1102,与指尖对应的点1103 也具有深度值0,并且因此未获得设计者期望的深度表示。因此,本实施方式采用了以下设置,其中,可以将指示是否将深度值局限于对象图像的显示面的属性信息添加至由端点信息指示的端点中的至少一个。例如,如图11B所示,可以采用以下设置,其中,通过输入基准线段1101作为从点1103至点1104的轨迹,并且接着输入参照线段1106作为从点1104至远离点1103的位置处的点1105的轨迹来添加关于解除基准线段1101的端点的点1103的深度值的限制的属性信息。通过该设置,深度定义单元105在确定参照线段1106上的与基准线段1101上的深度定义点对应的点时,将点 1105设置为与深度定义点1103对应的点,并且确定将根据点1103与点1105之间的距离来设置点1103的深度值。在确定基准线段1101上的另一深度定义点的对应点时,可能不存在参照线段1106与穿过各个深度定义点且与基准线段1101正交的线段的交点。因此,深度定义单元105确定例如用于搜索对应点的直线,该直线与连接点1105 和点1103的直线平行。
注意,参照图11A和图11B描述的过程仅是示例,并且基准线段和参考线段的输入顺序以及轨迹的输入方向不限于上述那些。在本实施方式中,如果基准线段的端点的坐标不与参考线段的端点的那些坐标重合,则添加属性信息。然而,为了明确指示,可以采用以下设置,其中,在图11B中的参考线段1106的输入之后,要求从点 1105至点1103的轨迹的输入和用于添加属性信息的操作输入。
不必形成属性信息以仅添加至基准信息的一个端点。例如,如果参考线段的两个端点不与基准信息的端点重合,属性信息可被添加至基准信息的端点中的每一个。在此情况下,可以进一步接收指定参考线段的端点中的哪个与基准线段的端点对应的输入。
【变型例5】
在上述实施方式和变型例中,考虑到用户的便捷性,通过向对象图像(即,显示对象图像的区域)输入的指令来执行线段输入。然而,本发明的实现不限于此。例如,如果按照对象图像的显示放大倍数基准线段的长度较短,则可能很难输入具有期望形状的参考线段,尤其是在例如将要定义指示复杂起伏的深度信息时。因此,例如,假设通过对显示对象图像的区域输入的指令仅输入端点信息和基准线段,可以以任意比例在不同区域中输入参考线段。在这种情况下,控制单元101将向输入的参考线段应用旋转/扩展和收缩处理,以使两个端点与基准线段的对应端点重合,并且存储结果数据作为参考线段信息。
注意,如果如在第一实施方式中不要求基准线段输入(参考线段的端点用于定义基准线段),则在对象图像的显示区域中接收与用于定义基准线段的端点相关的指令输入,并且控制单元101结合本变型例以相同的方式对附加地输入的参考线段进行旋转/扩展和收缩处理。
【总结】
根据需要,上述各种模式可以被配置为通过按照需要结合上述要素来定义深度信息。如变型例5中所示,不必基于与参考线段相关的输入获取关于用于定义深度信息的基准线段的端点信息,并且端点信息可以通过不同于参考线段输入的输入获取。另外,如果基准线段是直线,则不必输入基准线段,并且可以仅通过端点信息和参考线段的输入来定义深度信息。
【其它实施方式】
本发明不限于上述实施方式,并且可以进行各种改变和变型而不背离本发明的精神和范围。还可以通过用于使一个或多个计算机用作信息处理装置的程序来实现根据本发明的信息处理装置。所述程序可以通过被记录在计算机可读记录介质中或通过电通信线被提供/分布。因此,为通告本发明的范围的公开,制成下面的权利要求。
本申请要求于2015年7月1日提交的日本专利申请第2015-133122号的优先权,其全部内容通过引用结合于此。
Claims (9)
1.一种信息处理装置,该信息处理装置包括:
获取单元,其用于获取作为深度信息的定义对象的2维图像;
输入单元,其用于针对所获取的所述2维图像,接收用于指定该图像上的两个点的点信息的输入和指示作为深度的基准的第一线段的线段信息的输入,所述第一线段是基于连续操作输入的输入位置的轨迹,由所述点信息指示的所述两个点是所述第一线段的端点;以及
设置单元,其用于针对连接由所述点信息指示的所述2维图像上的所述两个点的第二线段上的点,设置基于由所述线段信息指示的所述第一线段的深度信息,
所述设置单元针对所述第二线段上的点设置深度信息,所述深度信息与由该点和所述第一线段上的对应点确定的距离相对应。
2.根据权利要求1所述的信息处理装置,该信息处理装置还包括执行单元,所述执行单元用于执行与所述第二线段相关的输入。
3.根据权利要求1所述的信息处理装置,其中,与所述第二线段上的点对应的所述第一线段上的点是所述第一线段与所述2维图像的平面内从所述第二线段上的点在预定方向上延伸的直线之间的交点。
4.根据权利要求1所述的信息处理装置,其中
所述输入单元还接收正/负信息的输入,所述正/负信息指示所述线段信息是否是用于确定正深度方向和负深度方向中的一个方向上的深度的信息,并且
所述设置单元基于所述正/负信息对所述第二线段上的点设置深度信息。
5.根据权利要求1所述的信息处理装置,其中,
所述深度信息是深度值,
如果已针对所述第二线段上的点设置了深度值,则所述设置单元将基于所述第一线段获取的深度值与由已设置的深度值指示的值相加来设置新的深度值。
6.根据权利要求1所述的信息处理装置,其中
所述输入单元还接收指示所述线段信息的适用率的信息,并且
所述设置单元针对所述第二线段上的点设置基于指示所述适用率的信息的深度信息,
所述深度信息是深度值,
所述深度值是根据下式计算的,
深度值=适用率×所述距离。
7.根据权利要求1所述的信息处理装置,该信息处理装置还包括定义单元,所述定义单元针对所述2维图像定义与同一部位相对应的区域,
其中,所述设置单元在与由所述定义单元定义的同一部位对应的区域内,以平行于所述第二线段的方式、或以根据该区域的曲率以规定的角度相对于所述第二线段旋转的方式规定多个估计第二线段,并且,通过多个估计第二线段对所述第一线段进行相似变形,获取与所述多个估计第二线段分别对应的多个估计第一线段,
所述设置单元针对所述估计第二线段上的点,设定与由该点和所述估计第一线段上的对应点确定的距离相对应的深度信息。
8.根据权利要求1所述的信息处理装置,该信息处理装置还包括:
形成单元,其用于形成基于由所述设置单元设置的深度信息的3维形状;以及
显示单元,其用于将通过所述形成单元形成的所述3维形状与所述2维图像一起显示。
9.一种深度定义方法,该深度定义方法包括:
获取步骤,获取作为深度信息的定义对象的2维图像;
输入步骤,针对在所述获取步骤中获取的所述2维图像,接收用于指定该图像上的两个点的点信息的输入和指示作为深度的基准的第一线段的线段信息的输入,所述第一线段是基于连续操作输入的输入位置的轨迹,由所述点信息指示的所述两个点是所述第一线段的端点;以及
设置步骤,针对连接由所述点信息指示的所述2维图像上的所述两个点的第二线段上的点,设置基于由所述线段信息指示的所述第一线段的深度信息,
在所述设置步骤中,针对所述第二线段上的点设置深度信息,所述深度信息与由该点和所述第一线段上的对应点确定的距离相对应。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015-133122 | 2015-07-01 | ||
JP2015133122A JP5920858B1 (ja) | 2015-07-01 | 2015-07-01 | プログラム、情報処理装置、深度定義方法及び記録媒体 |
PCT/JP2016/065161 WO2017002483A1 (ja) | 2015-07-01 | 2016-05-23 | プログラム、情報処理装置、深度定義方法及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106716500A CN106716500A (zh) | 2017-05-24 |
CN106716500B true CN106716500B (zh) | 2020-05-05 |
Family
ID=55974042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680002231.3A Active CN106716500B (zh) | 2015-07-01 | 2016-05-23 | 一种信息处理装置及深度定义方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10297036B2 (zh) |
JP (1) | JP5920858B1 (zh) |
CN (1) | CN106716500B (zh) |
HK (1) | HK1232330A1 (zh) |
WO (1) | WO2017002483A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6473214B1 (ja) * | 2017-11-24 | 2019-02-20 | 株式会社Live2D | プログラム、記録媒体及び描画方法 |
CN109240561B (zh) * | 2018-08-20 | 2021-01-08 | 广州视源电子科技股份有限公司 | 旋转元素的吸附元素选择方法和装置、旋转吸附方法 |
JP7086362B1 (ja) | 2021-03-29 | 2022-06-20 | 株式会社セルシス | 情報処理システム、情報処理方法および情報処理プログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103686139A (zh) * | 2013-12-20 | 2014-03-26 | 华为技术有限公司 | 帧图像转换方法、帧视频转换方法及装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003085588A (ja) | 2001-06-28 | 2003-03-20 | Shiyuusaku Furushima | 三次元形状モデリング方法 |
JP2009104570A (ja) | 2007-10-23 | 2009-05-14 | Cybernoids Co Ltd | 画像の形成用のデータ構造及び画像の形成方法 |
JP4541397B2 (ja) * | 2007-11-05 | 2010-09-08 | 日本電信電話株式会社 | 擬似的3次元画像生成装置、擬似的3次元画像生成方法及び擬似的3次元画像生成プログラム |
JP5817300B2 (ja) * | 2011-08-02 | 2015-11-18 | 大日本印刷株式会社 | 奥行き製作支援装置、奥行き製作支援方法、およびプログラム |
US9202309B2 (en) * | 2011-09-01 | 2015-12-01 | Adobe Systems Incorporated | Methods and apparatus for digital stereo drawing |
KR101862543B1 (ko) * | 2011-09-08 | 2018-07-06 | 삼성전자 주식회사 | 깊이정보 생성장치, 깊이정보 생성방법 및 그 저장매체 |
JP5857606B2 (ja) * | 2011-10-11 | 2016-02-10 | 大日本印刷株式会社 | 奥行き製作支援装置、奥行き製作支援方法、およびプログラム |
JP5994320B2 (ja) * | 2012-03-26 | 2016-09-21 | 大日本印刷株式会社 | 奥行き制作支援装置、奥行き制作支援方法、及びプログラム |
JP5966837B2 (ja) * | 2012-10-05 | 2016-08-10 | 大日本印刷株式会社 | 奥行き制作支援装置、奥行き制作支援方法、およびプログラム |
JP6182930B2 (ja) * | 2013-03-28 | 2017-08-23 | 大日本印刷株式会社 | 奥行き制作支援装置、奥行き制作方法、及びプログラム |
KR101748637B1 (ko) * | 2014-08-05 | 2017-06-20 | 한국전자통신연구원 | 깊이 맵 생성 장치 및 방법 |
-
2015
- 2015-07-01 JP JP2015133122A patent/JP5920858B1/ja active Active
-
2016
- 2016-05-23 CN CN201680002231.3A patent/CN106716500B/zh active Active
- 2016-05-23 WO PCT/JP2016/065161 patent/WO2017002483A1/ja active Application Filing
-
2017
- 2017-02-16 US US15/435,024 patent/US10297036B2/en active Active
- 2017-06-15 HK HK17105955.3A patent/HK1232330A1/zh unknown
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103686139A (zh) * | 2013-12-20 | 2014-03-26 | 华为技术有限公司 | 帧图像转换方法、帧视频转换方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2017016439A (ja) | 2017-01-19 |
US10297036B2 (en) | 2019-05-21 |
CN106716500A (zh) | 2017-05-24 |
JP5920858B1 (ja) | 2016-05-18 |
US20170161918A1 (en) | 2017-06-08 |
HK1232330A1 (zh) | 2018-01-05 |
WO2017002483A1 (ja) | 2017-01-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8154544B1 (en) | User specified contact deformations for computer graphics | |
Olsen et al. | Sketch-based modeling: A survey | |
JP2018537755A (ja) | 中心窩ジオメトリテッセレーション | |
JP2011048586A (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
CN110322571B (zh) | 一种页面处理方法、装置及介质 | |
CN106716500B (zh) | 一种信息处理装置及深度定义方法 | |
US20180108183A1 (en) | Projecting a two-dimensional image onto a three-dimensional graphical object | |
US9892485B2 (en) | System and method for mesh distance based geometry deformation | |
US20180151002A1 (en) | Modifying a simulated character by direct manipulation | |
US20220245874A1 (en) | Method of converting and replaying styles of vector images | |
KR20200080577A (ko) | 이미지 편집 애플리케이션 제공 장치 및 상기 장치에 의해 수행되는 이미지 내 얼굴 변형 방법 | |
US20230377268A1 (en) | Method and apparatus for multiple dimension image creation | |
JP2003115055A (ja) | 画像生成装置 | |
US20190073823A1 (en) | Recording medium, information processing apparatus, influence degree deriving method, and image generation method | |
US9959637B2 (en) | Method and apparatus for processing border of computer figure to be merged into background image | |
CN114648619A (zh) | 用于通过使用虚拟3d网格和手绘草图来设计3d对象的方法 | |
US8704828B1 (en) | Inverse kinematic melting for posing models | |
US8659600B2 (en) | Generating vector displacement maps using parameterized sculpted meshes | |
JPH11175765A (ja) | 3次元モデル作成方法、3次元モデル作成装置及び記憶媒体 | |
JP2020013390A (ja) | 情報処理装置、情報処理プログラム及び情報処理方法 | |
US10964081B2 (en) | Deformation mesh control for a computer animated artwork | |
JP7145359B1 (ja) | 推論モデル構築方法、推論モデル構築装置、プログラム、記録媒体、構成装置及び構成方法 | |
JPH11175758A (ja) | 立体表示方法および装置 | |
KR101940272B1 (ko) | 3차원 가상 컨텐츠 확대 장치 및 방법 | |
CN115272631A (zh) | 一种虚拟面部模型处理方法及相关设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1232330 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: WD Ref document number: 1232330 Country of ref document: HK |