CN112215914A - 用于由电子装置进行交互式图像漫画生成的系统和方法 - Google Patents

用于由电子装置进行交互式图像漫画生成的系统和方法 Download PDF

Info

Publication number
CN112215914A
CN112215914A CN202011163800.7A CN202011163800A CN112215914A CN 112215914 A CN112215914 A CN 112215914A CN 202011163800 A CN202011163800 A CN 202011163800A CN 112215914 A CN112215914 A CN 112215914A
Authority
CN
China
Prior art keywords
image
electronic device
caricature
input
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011163800.7A
Other languages
English (en)
Other versions
CN112215914B (zh
Inventor
邹璇
凌璠
毕宁
张雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Priority to CN202011163800.7A priority Critical patent/CN112215914B/zh
Publication of CN112215914A publication Critical patent/CN112215914A/zh
Application granted granted Critical
Publication of CN112215914B publication Critical patent/CN112215914B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

本发明描述用于由电子装置进行交互式图像漫画生成的系统和方法。所述方法包含检测图像的至少一个特征位置。所述方法还包含基于所述至少一个特征位置产生包括至少一个水平线和至少一个垂直线的栅格的图像网格。所述方法另外包含获得手势输入。所述方法还包含基于至少一个手势输入确定至少一个漫画动作。所述方法进一步包含基于所述图像网格、所述至少一个漫画动作和所述图像产生漫画图像。

Description

用于由电子装置进行交互式图像漫画生成的系统和方法
分案申请的相关信息
本案是分案申请。本分案的母案是申请日为2013年2月23日、申请号为201380073327.5、发明名称为“用于由电子装置进行交互式图像漫画生成的系统和方法”的发明专利申请案。
技术领域
本发明大体上涉及电子装置。更确切地说,本发明涉及用于由电子装置进行交互式图像漫画生成的系统和方法。
背景技术
在最近几十年中,电子装置的使用已变得普遍。确切地说,电子技术的进步已降低了愈加复杂且有用的电子装置的成本。成本减少和消费者需求已使电子装置的使用剧增,使得其在现代社会中几乎随处可见。由于电子装置的使用已推广开来,因此需要电子装置的新的且改进的特征。更确切地说,人们常常寻求执行新功能和/或更快、更有效且以更高质量执行功能的电子装置。
一些电子装置(例如,蜂窝式电话、智能电话、数码相机、摄录影机、计算机等)俘获和编辑图片或图像。举例来说,智能电话可利用集成图像感测装置俘获图像。
虽然俘获和编辑图片或图像可能是有益的,但此些过程常常耗时且费力。如可从此论述观察到,添加图像编辑的新的和/或改进的特征的系统和方法可以是有益的。
发明内容
在一方面,本发明揭露一种用于由电子装置进行交互式图像编辑的方法,其包括:确定图像中的至少一个面部特征;基于所述至少一个面部特征产生包括对应于所述至少一个面部特征的至少一个顶点的初始图像网格;通过图像感测装置从用户获得至少一个输入;基于所述至少一个输入确定经更新的图像网格,其中在所述初始图像网格和所述经更新的图像网格之间,对应于所述至少一个面部特征的所述至少一个顶点的位置是不同的;基于所述经更新的图像网格产生经编辑图像;以及显示所述经编辑图像。
在另一方面,本发明揭露一种用于交互式图像编辑的电子装置,其包括:存储器;处理器,其耦合至所述存储器,所述处理器经配置以:确定图像中的至少一个面部特征;基于所述至少一个面部特征产生包括对应于所述至少一个面部特征的至少一个顶点的初始图像网格;从用户获得至少一个输入;基于所述至少一个输入确定经更新的图像网格,其中在所述初始图像网格和所述经更新的图像网格之间,对应于所述至少一个面部特征的所述至少一个顶点的位置是不同的;以及基于所述经更新的图像网格产生经编辑图像;以及显示器,其经配置以显示所述经编辑图像。
附图说明
图1为说明其中可实施用于交互式图像漫画生成的系统和方法的电子装置的一个配置的框图;
图2为说明用于由电子装置进行交互式图像漫画生成的方法的一个配置的流程图;
图3说明面部图像和可使用本文中所揭示的系统和方法产生的漫画图像的实例;
图4说明可使用本文中所揭示的系统和方法产生的基于网格的模型的实例;
图5为说明其中可实施用于交互式图像漫画生成的系统和方法的电子装置的更具体配置的框图;
图6为说明用于由电子装置进行交互式图像漫画生成的方法的更具体配置的流程图;
图7为说明用于由电子装置验证手势输入的方法的一个配置的流程图;
图8说明垂直夹捏打开手势输入的实例;
图9说明垂直夹捏关闭手势输入的实例;
图10说明水平夹捏打开手势输入的实例;
图11说明水平夹捏关闭手势输入的实例;
图12说明面部图像和可使用本文中所揭示的系统和方法产生的漫画图像的另一实例;
图13为说明其中可实施用于交互式图像漫画生成的系统和方法的电子装置的更具体配置的框图;以及
图14说明可在电子装置中利用的各种组件。
具体实施方式
本发明描述一种用于由电子装置进行交互式图像漫画生成的方法。所述方法包含检测图像的至少一个特征位置。所述方法还包含基于所述至少一个特征位置产生图像网格,所述图像网格包括至少一个水平线和至少一个垂直线的栅格。所述方法还包含获得至少一个手势输入。所述方法还包含基于所述至少一个手势输入确定至少一个漫画动作。所述方法进一步包含基于所述图像网格、所述至少一个漫画动作和所述图像产生漫画图像。
所述图像可为面部图像。所述图像网格的顶点可对应于所述至少一个特征位置。所述至少一个手势输入可包含触摸输入。所述方法可包含显示所述图像和所述漫画图像中的至少一者。产生漫画图像可包含将所述至少一个漫画动作应用于所述图像。
所述至少一个漫画动作可提供图像网格的至少一个顶点的移位信息。所述至少一个漫画动作还可提供像素映射,其基于所述移位信息将图像顶点像素映射到对应的漫画图像顶点像素。产生漫画图像可包含基于所述像素映射在漫画图像中内插其它像素的位置。
所述方法可包含验证所述至少一个手势输入。验证所述至少一个手势输入可包含确定手势输入的运动是否大于运动阈值。
所述至少一个手势输入可包含多个手势输入。所述方法可包含确定所述手势输入相对于彼此的运动。所述方法可包含确定所述手势输入水平地对准。所述方法可包含确定所述手势输入垂直地对准。
所述方法可包含维持漫画动作列表。所述方法可包含将所述至少一个漫画动作添加到所述漫画动作列表。
本发明描述一种用于交互式图像漫画生成的电子装置。所述电子装置包含检测图像的至少一个特征位置的特征位置检测电路。所述电子装置还包含耦合到所述特征位置检测电路的图像网格产生电路。所述图像网格产生电路基于所述至少一个特征位置产生图像网格,所述图像网格包括至少一个水平线和至少一个垂直线的栅格。所述电子装置还包含获得至少一个手势输入的感测电路。所述电子装置还包含耦合到所述感测电路的漫画动作确定电路。所述漫画动作确定电路基于所述至少一个手势输入确定至少一个漫画动作。所述电子装置进一步包含耦合到所述图像网格产生电路和所述漫画动作确定电路的漫画图像产生电路。所述漫画图像产生电路基于所述图像网格、所述至少一个漫画动作和所述图像产生漫画图像。
本发明描述一种用于交互式图像漫画生成的计算机程序产品。所述计算机程序产品包含具有指令的非暂时性有形计算机可读媒体。所述指令包含用于致使电子装置检测图像的至少一个特征位置的代码。所述指令还包含用于致使所述电子装置基于所述至少一个特征位置来产生图像网格得代码,所述图像网格包括至少一个水平线和至少一个垂直线的栅格。所述指令还包含用于致使所述电子装置获得至少一个手势输入的代码。所述指令还包含用于致使所述电子装置基于所述至少一个手势输入确定至少一个漫画动作的代码。所述指令进一步包含用于致使所述电子装置基于所述图像网格、所述至少一个漫画动作和所述图像来产生漫画图像的代码。
本发明描述一种用于交互式图像漫画生成的设备。所述设备包含用于检测图像的至少一个特征位置的装置。所述设备还包含用于基于所述至少一个特征位置产生图像网格的装置,所述图像网格包括至少一个水平线和至少一个垂直线的栅格。所述设备还包含用于获得至少一个手势输入的装置。所述设备还包含用于基于所述至少一个手势输入确定至少一个漫画动作的装置。所述设备进一步包含用于基于所述图像网格、所述至少一个漫画动作和所述图像产生漫画图像的装置。
本文中所揭示的系统和方法的一些配置提供交互式图像(例如,面部)漫画生成。面部漫画生成可指代产生具有来自正常面部图像的经夸示面部分量的面部图像的一或多个程序。先前,这由艺术家手动地进行,而当今基于计算机的自动面部漫画生成已变得可用。
一种基于计算机的面部漫画生成的方法可含有以下步骤。首先,检测输入图像中的面部特征位置。这些特征可包含眼角、鼻孔、嘴角、下颌和其它面部轮廓点。第二,对于每一特征位置,通过按比例扩大或缩小输入图像中的此特征位置与平均面部中的对应特征位置之间的距离而计算漫画面部的新位置。第三,应用纹理扭曲技术将输入图像中的面部的纹理扭曲到漫画面部。所述纹理扭曲可基于将输入图像中的每一面部特征位置映射到漫画面部中的对应面部特征位置的变换。
然而,用户交互可添加到计算机面部漫画生成以实现用户所要样式的漫画生成(例如,具有放大眼部和缩小鼻部的特定样式)。本文中所揭示的系统和方法实现交互式面部漫画生成且可应用于具有触摸屏的移动装置。触摸屏上的不同手指手势可解释为基于网格的面部漫画生成模型上的不同漫画生成动作,使得用户可容易地通过使用触摸屏上的简单手指移动而产生有趣的漫画生成。图3提供基于本文中所揭示的系统和方法的漫画生成的实例。特定来说,图3说明左侧的原始面部图像和其余图像中的三个漫画生成效果。
在根据本文中所揭示的系统和方法的交互式面部漫画生成的一个应用情境中,面部图像可显示在触摸屏上且用户可在触摸屏上使用他的/她的手指将所要漫画生成动作添加到所述面部图像。每一动作之后,所显示的漫画面部图像可为循序应用于原始面部图像的先前漫画生成动作的结果。
现参看图式描述各种配置,在各图中,相同参考数字可指示功能上类似的元件。可以广泛多种不同配置来布置和设计如本文中在各图中大体描述和说明的系统和方法。因此,对如各图中所表示的若干配置的以下更详细描述并不希望限制如所主张的范围,而仅表示系统和方法。
图1为说明用于交互式图像漫画生成的电子装置102的一个配置的框图。如本文所使用,术语“漫画生成”可指代图像104的操纵。图像漫画生成可操纵所述图像的一或多个像素。举例来说,图像漫画生成可包含改变像素的大体位置。举例来说,图像漫画生成可包含改变像素相对于图像104中的其它像素的位置。漫画生成还可包含内插新像素。
电子装置102的实例包含智能电话、蜂窝式电话、数码相机、台式计算机、膝上型计算机、平板计算机、个人数字助理(PDA)、移动装置等。电子装置102可包含特征位置检测块/模块106、图像网格产生块/模块110、漫画动作确定块/模块116和漫画图像产生块/模块120中的一或多者。如本文所使用,术语“块/模块”可用于指示特定元件可在硬件(例如,电路)、软件或两者的组合中实施。举例来说,漫画动作确定块/模块116可在硬件(例如,电路)、软件或两者的组合中实施。
电子装置102可获得图像104。在一些实施方案中,图像104可为面部图像104。另外或替代地,图像104可为先前产生的漫画图像122。电子装置102可包含(或耦合到)俘获图像104的图像感测装置(未描绘)。所述图像感测装置可包含图像传感器。图像感测装置的实例可包含相机和扫描仪。举例来说,智能电话(例如,电子装置102)可包含俘获面部图像104的相机(例如,图像感测装置)。
在另一实例中,电子装置102可接收来自另一装置的图像104。举例来说,电子装置102可经由网络(例如,局域网(LAN)、因特网、蜂窝式网络等)或经由直接链路(例如,通用串行总线(USB)电缆、蓝牙无线链路等)接收来自另一装置的图像104。
图像104(例如,面部图像)可提供到特征位置检测块/模块106和漫画图像产生块/模块120。经由特征位置检测块/模块106,电子装置102可检测图像104的至少一个特征位置108。特征位置108可指代图像104的相异特征的位置。举例来说,面部图像104可包含例如面部的轮廓、眼角、鼻尖、鼻角、鼻孔、嘴角、前额、下颌、耳朵、面颊等特征。特征位置108可指代组成所述特征的像素的位置。如本文所使用,像素的位置可指代组成所述图像的像素的坐标(例如,x,y坐标系中)。特征位置确定块/模块106可基于一或多个算法确定特征位置108。举例来说,特征位置确定块/模块106可分析一或多个像素(例如,像素着色)以确定图像104的特征位于何处。
特征位置108(例如,面部特征位置)可提供到图像网格产生块/模块110。图像网格产生块/模块110可产生图像网格112。图像网格112可包含至少一个水平线和至少一个垂直线的栅格。所述线可在一或多个顶点处相交。换句话说,图像网格112可包含各自指示水平线与垂直线的相交的顶点的栅格。
在一些实施方案中,图像网格112可基于至少一个特征位置108。举例来说,图像网格112的一些顶点可对应于不同特征位置108。举例来说,对于面部图像104,图像网格112可包含对应于多个面部特征位置108(例如,眼角、鼻角、嘴角等)的多个顶点。换句话说,所述顶点可对应于组成面部特征的图像104的像素。此外,在此实例中,所述特征中的一或多者可对应于图像网格112的相同线。举例来说,如下文将结合至少图4描述,眼角可对应于图像网格112的相同水平线。应注意,在一些实施方案中,并非所有顶点可与特征位置对准。
如下文将描述,随着顶点基于手势输入114而移动,对应特征(例如,组成所述特征的像素)可以类似方式移动。举例来说,如果图像网格112的水平线向上移动,那么对应于此水平线上的顶点的特征(例如,眼角)也可向上移动。
电子装置102可获得手势输入114。如本文所使用,手势输入114可指代作为电子装置102的输入而接收的运动。举例来说,对象(例如,手指或触笔)可在垂直方向中从起点移动。此可由电子装置102作为手势输入114而接收。在一些实施方案中,手势输入114可为触摸输入。举例来说,智能电话(例如,电子装置102)可包含(或耦合到)触摸屏。在此实例中,用户可在起点处触摸指向触摸屏的对象(例如,手指或触笔)且可在垂直方向中移动所述对象同时维持与触摸屏的接触。以类似方式,触摸屏可检测水平手势输入114。
在一些实施方案中,手势输入114可不为触摸输入。举例来说,电子装置102可包含检测运动的运动感测装置(例如,相机)。在此实例中,运动感测装置可检测不与电子装置102接触的对象(例如,手指或触笔)的移动。举例来说,不与电子装置102接触的对象可在垂直方向中移动。电子装置102可经由相机(例如,运动感测装置)检测手势输入114。
在一些实施方案中,手势输入114可包含多个手势输入114。举例来说,电子装置102(例如,经由触摸屏)可检测两个手势输入114(经由用户的两个手指)。举例来说,电子装置102可检测垂直夹捏关闭手势输入114。垂直夹捏关闭手势输入114可包含朝向彼此移动的两个垂直手势输入114。相比而言,电子装置102可检测垂直夹捏打开手势输入114,其可包含远离彼此移动的两个垂直手势输入114。类似地,电子装置102可检测水平夹捏打开手势输入114(例如,远离彼此移动的两个水平手势输入114)或水平夹捏关闭手势输入114(例如,朝向彼此移动的两个水平手势输入114)。
手势输入114可提供到可确定漫画动作118的漫画动作确定块/模块116。漫画动作118可包含关于可如何操纵图像104来产生漫画图像122的信息。举例来说,漫画动作118可包含指示图像网格112的顶点可如何移动来产生漫画图像122的信息。在一些实施方案中,所述信息可包含展示图像网格112的顶点如何在图像104与漫画图像122之间移动的映射。
在一些实施方案中,漫画动作118可基于手势输入114。举例来说,如果电子装置102获得垂直夹捏打开手势输入114,那么漫画动作118可包含指示一或多个顶点可移动成彼此分开更远的信息。结合图8-11中的至少一者给出关于基于手势输入114的顶点的移动的更多细节。如将结合图8-11中的至少一者描述,哪些顶点移动以及多少顶点移动可基于顶点的位置和所述顶点距手势输入114的起点的距离。
漫画动作118可提供(例如,原始图像104的)手势输入114之前的顶点与(例如,漫画图像122的)手势输入114之后的同一顶点之间的映射。举例来说,漫画动作118可提供原始图像104中的第一顶点的位置与漫画图像122中的相同第一顶点的位置之间的映射。应注意,第一顶点的位置(例如,x,y坐标)可在图像104与漫画图像122之间改变。
在一些实施方案中,漫画动作118可提供图像104的非顶点像素(例如,并不对应于图像网格112的顶点的像素)的内插。举例来说,基于图像网格112顶点的映射,电子装置102可在图像104中内插其它像素的移动。基于此内插,电子装置102可基于所述映射将纹理扭曲应用于图像中的像素。
图像网格112、漫画动作118和图像104可提供到漫画图像产生块/模块120。漫画图像产生块/模块120可基于图像网格112、漫画动作118和图像104产生漫画图像122。漫画图像122可指代已被操纵的图像104的型式。举例来说,图像104的像素中的一或多者可不同地定位来产生漫画图像122。漫画图像产生块/模块120可通过将漫画动作118应用于图像网格112和图像104而产生漫画图像122。举例来说,如将在图8-11中更详细描述,如果漫画动作118含有指示第一顶点将远离第二顶点移动的信息,那么漫画图像产生块/模块120可远离图像104的对应于图像网格112的第二顶点的特征移动图像网格112的第一顶点和图像104的对应于所述第一顶点的特征。类似地,漫画图像产生块/模块120可根据漫画动作118中所指示的非顶点像素映射操纵图像104的非顶点像素。如上文所描述,非顶点像素映射可通过图像网格112的顶点的映射的内插而产生,且纹理扭曲可应用于所述像素。
图2为说明用于由电子装置102进行交互式图像漫画生成的方法200的一个配置的流程图。电子装置102可检测202图像104的至少一个特征位置108。举例来说,电子装置102可检测202面部图像104的至少一个面部特征位置108。面部特征的实例包含眼角、鼻尖、鼻角、嘴角、前额、下颌、耳朵、面颊等。电子装置102可利用一或多种方法确定图像104中的特征位置108。举例来说,电子装置102可确定面部图像104的面部轮廓或边缘(例如,顶部、侧部、底部或下颌等)、眼部、鼻部(例如,鼻孔)、嘴巴、前额等的像素位置。
在一些实施方案中,图像104可为由耦合到电子装置102的图像感测装置(例如,相机或扫描仪)检测到的图像。在其它实施方案中,图像104可为由另一装置(例如,因特网服务器、另一电子装置等)接收的图像。
在一些实施方案中,图像104可为先前已产生的漫画图像。举例来说,在方法200的先前循环中,可能已经基于先前(或现有)漫画动作和先前图像产生漫画图像。在此实例中,方法200可包含对先前产生的漫画图像执行图像漫画生成。
电子装置102可产生204图像网格112,其包含至少一个水平线和至少一个垂直线的栅格。在一些实施方案中,每一线可对应于一索引。举例来说,第一水平线可具有第一水平索引(例如,H0),且第二水平线可具有第二水平索引(例如,H1)。类似地,第一垂直线可具有第一垂直索引(例如,V0),且第二垂直线可具有第二垂直索引(例如,V1)。水平线与垂直线的相交可产生图像网格112的顶点。图像网格112的每一顶点可以坐标形式由其水平线索引(例如,H0、H1、…、H6)及其垂直线索引(例如,V0、V1、…、V7)指定。举例来说,第一水平线(例如,H0)与第一垂直线(例如,V0)的相交处的第一顶点可由坐标(H0,V0)指定。应注意,如图像坐标系X-O-Y(例如,x,y坐标系)中的顶点坐标所指示的图像网格112上每一顶点的实际位置可在漫画动作118之后改变。
在一些实施方案中,电子装置102可基于至少一个特征位置108产生204图像网格112。举例来说,电子装置102可产生204图像网格112,其中至少一个顶点(例如,水平线与垂直线的相交)对应于特征位置108。举例来说,电子装置102可产生204图像网格112,其中顶点可对应于眼角、嘴角、鼻角等中的一或多者。应注意,在某些状况下,一或多个特征(和对应顶点)可落在相同水平线上。举例来说,眼角可对应于图像网格112的对应于相同水平线的顶点。
电子装置102可获得206至少一个手势输入114。如上文所描述,在一些实施方案中,手势输入114可为触摸输入。在这些实施方案中,电子装置102可包含(或耦合到)检测触摸输入的触摸屏。在其它实施方案中,电子装置可经由耦合到电子装置102的运动感测装置获得206手势输入114。在此实例中,电子装置102可在不与电子装置102物理接触的情况下获得206手势输入114。在一些实施方案中,获得206至少一个手势输入114可包含确定手势输入114的方向。举例来说,触摸屏可检测垂直手势输入114。类似地,触摸屏可检测水平手势输入114。
在一些实施方案中,电子装置102可获得206多个手势输入114。举例来说,耦合到电子装置102的触摸屏可同时接收来自多个对象(例如,两个手指)的触摸输入。在此实例中,触摸屏还可检测手势输入114的相对运动。举例来说,触摸屏可检测手势输入114是移动为较靠近在一起还是分开较远。
触摸屏可检测手势输入114是否对准。举例来说,触摸屏可检测手势输入114的起点水平对准还是垂直对准。在一些实施方案中,对准可指示手势输入114的起点大体上落在相同线上(例如,水平对准的手势输入114的相同水平线和垂直对准的手势输入114的相同垂直线)。在其它实施方案中,确定手势输入114是否对准可包含确定手势输入114是否在彼此的阈值角度内。在另外其它实施方案中,对准可意味着手势输入114的起点小于距图像网格112的线的阈值距离。
电子装置102可基于所述至少一个手势输入114确定208至少一个漫画动作118。漫画动作118可提供图像网格112的至少一个顶点的移位信息。所述移位信息可指示可如何操纵图像104的特征位置108(和图像网格112顶点)来产生漫画图像122。举例来说,如果电子装置102获得206在垂直方向中较远离彼此移动的两个手势输入114(例如,垂直夹捏打开手势输入114),那么漫画动作118可包含指示一或多个顶点也可较远离彼此移动的信息。应注意,在一些实施方案中,顶点移动的距离可等于或不同于手势输入114的移动。在下文中结合图8-11给出关于基于手势输入114的顶点的移动的更多细节。在此实例中,漫画动作118可提供顶点像素映射,其基于移位信息将图像顶点像素映射到其对应的漫画图像顶点像素。像素映射可指示特定像素可如何基于手势输入114移动。
电子装置102可基于图像网格112、所述至少一个漫画动作118和图像104(或先前产生的漫画图像)产生210漫画图像122。在一些实施方案中,产生210漫画图像122可包含将所述至少一个漫画动作118应用于图像104(或先前产生的漫画图像)。举例来说,如上文所描述,所述至少一个漫画动作118可包含将手势输入114之前图像104(或先前产生的漫画图像)中的至少一个顶点映射到手势输入114之后漫画图像122中的对应顶点。在此实例中,电子装置102可应用所述映射且移动图像104(或先前产生的漫画图像)的对应特征位置108和/或网格图像112的顶点。
产生210漫画图像112还可包含操纵不与图像网格112的顶点相关联的一或多个像素。举例来说,漫画动作118可包含在漫画图像122中内插其它像素(例如,并不对应于顶点的像素)的位置。在此实例中,电子装置102可基于像素映射内插其它像素的位置且对所述像素执行纹理扭曲。
图3说明面部图像304和可使用本文中所揭示的系统和方法产生的漫画图像322a-c的实例。如上文所描述,电子装置102可经由耦合到电子装置102的图像感测装置(例如,相机或扫描仪)接收面部图像304。在一些实施方案中,可产生多个漫画图像322a-c。举例来说,可基于漫画动作118的第一集合和面部图像304产生第一漫画图像322a。在此实例中,手势输入114的第一集合可指示如本文所描述的漫画动作118的第一集合。在此实例中,电子装置102可维持漫画动作列表,其包含已经应用于面部图像304的漫画动作。举例来说,漫画动作列表可包含漫画动作118的第一集合。
在一些实例中,可基于漫画动作118的第二集合和第一漫画图像322a产生第二漫画图像322b。在此实例中,手势输入114的第二集合可指示漫画动作118的第二集合。漫画动作118的第二集合可附加到漫画动作列表(例如,其包含漫画动作118的第一集合)。
在一些实例中,可基于漫画动作118的第三集合和第二漫画图像322b产生第三漫画图像322c。在此实例中,手势输入114的第三集合可指示漫画动作118的第三集合。漫画动作118的第三集合可附加到漫画动作列表(例如,其包含漫画动作118的第一集合和漫画动作118的第二集合)。应注意,每一漫画图像322a-b可为先前漫画动作118的结果。举例来说,第三漫画图像322c可为将漫画动作118的第一、第二和第三集合应用于面部图像304的结果。
图4说明可在其中实施用于交互式图像漫画生成的系统和方法的基于网格的模型的实例。在一些实施方案中,基于网格的模型可包含叠加在图像404上的图像网格412。图像网格412和图像404可为结合图1描述的对应元件的实例。如上文所描述,图像网格412可包含对应于特征位置108的顶点428。举例来说,顶点A、B、C和D 428a-d可对应于眼角特征位置108。顶点E和F 428e-f可对应于鼻角特征位置108。顶点G和H 428g-h可对应于嘴角特征位置108。
如上文所描述,图像网格412可包含至少一个水平线424和至少一个垂直线426。每一水平线424和垂直线426可由线索引识别。举例来说,第一水平线424a可具有水平线索引H0。类似地,另一水平线424b-g可具有对应的水平线索引H1-H6。每一水平线424还可包含一或多个特征位置108。举例来说,从上到下,第一水平线(例如,H0)424a可为图像边界,第二水平线(例如,H1)424b可由前额界定,第三水平线(例如,H2)424c可延伸跨越两只眼睛,第四水平线(例如,H3)424d可延伸跨越鼻孔,第五水平线(例如,H4)424e可由嘴巴界定,第六水平线(例如,H5)424f可由下颌界定,且最后水平线(例如,H6)424g可为底部图像边界。
以类似方式,每一垂直线426a-h可具有垂直线索引V0-V7,且还可包含一或多个特征位置。举例来说,从左到右,第一垂直线(例如,V0)426a可为左侧图像边界,第二垂直线(例如,V1)426b可由最左面部轮廓点界定,第三垂直线(例如,V2)426c可由外左眼角界定,第四垂直线(例如,V3)426d可由内左眼角界定,第五垂直线(例如,V4)426e可由内右眼角界定,第六垂直线(例如,V5)426f可由外右眼角界定,第七垂直线(例如,V6)426g可由最右面部轮廓点界定,且最后垂直线(例如,V7)426h可由右侧图像边界界定。
图像网格412上的每一顶点可由其水平线索引(例如,H0、H1、…、H6)及其垂直线索引(例如,V0、V1、…、V7)指定。举例来说,顶点A 428a(例如,对应于外左眼角特征位置108)可为Vert(H2,V2)。应注意,如图像坐标系X-O-Y(例如,x,y坐标系)中的顶点坐标所指示的图像404上每一顶点的位置可在漫画动作118之后改变。
图5为说明其中可实施用于交互式图像漫画生成的系统和方法的电子装置502的更具体配置的框图。电子装置502可为结合图1描述的电子装置102的实例。电子装置502可包含特征位置检测块/模块506、图像网格产生块/模块510、漫画动作确定块/模块516和漫画图像产生块/模块520中的一或多者,其可为结合图1描述的对应元件的实例。在一些实施方案中,电子装置502可传递可为结合图1描述的对应元件的实例的图像504、一或多个特征位置508、图像网格512、手势输入514、漫画动作518和漫画图像522。
在一些实施方案中,电子装置502可包含(或耦合到)显示器536,显示器536显示图像504、漫画图像522和图像网格512中的至少一者。在另一实例中,电子装置502可耦合到投影仪且可投影图像504、图像网格512和/或漫画图像522。在一些实施方案中,显示器536可呈现可除面部图像504之外显示为如图4中所描绘的基于网格的模型的图像网格512。如将结合图13描述,图像网格512还可除漫画图像522之外显示为失真图像网格。
电子装置502还可包含确定手势输入514是否有效的手势输入验证块/模块530。举例来说,触摸屏上的手指手势可经检测和检查以确定其是否是有效手势输入514。有效手势输入514可为由电子装置502辨识的手势输入514。举例来说,有效手势输入514可为可从其确定漫画动作518的手势输入。有效手势输入514的实例包含(但不限于)水平或垂直方向中的夹捏打开和夹捏关闭手势输入。
在一些实施方案中,手势输入验证块/模块530可在手势输入514相对于彼此的运动大于运动阈值时确定手势输入514为有效。举例来说,当两个手指水平或垂直移动为彼此较靠近或远离达大于运动阈值(例如,30像素)的距离时,电子装置502可确定手势输入514为有效。
验证手势输入514还可包含确定手势输入514是否对准。如果手势输入514的起点大体上落在图像网格512的相同水平线上,那么水平手势输入514可水平地对准。类似地,如果手势输入514的起点大体上落在图像网格512的相同垂直线上,那么垂直手势输入514可垂直地对准。在一些实施方案中,电子装置502可确定不对准的手势输入514是非有效手势输入514。相比而言,电子装置502可确定对准的手势输入514是有效手势输入514。一旦已验证手势输入514,就可将经验证手势输入532提供到漫画动作确定块/模块516,所述漫画动作确定块/模块516可确定如结合图2所描述的漫画动作518。
在一些实施方案中,电子装置502可维持含有已经确定的所有漫画动作518的列表的漫画动作列表534。在一些实施方案中,漫画动作列表534可包含例如在方法200的先前例子中先前已应用于图像504的漫画动作518。在此实例中,当前应用的漫画动作518可附加到漫画动作列表534。举例来说,当漫画动作518由手势输入514识别时,电子装置502可将漫画动作518存储到漫画动作列表534(例如,其可或可不包含已经应用于图像504的先前漫画动作518)。
图6为说明用于由电子装置502进行交互式图像漫画生成的方法600的更具体配置的流程图。电子装置502可检测602图像504的至少一个特征位置508。在一些实施方案中,此可如结合图2所描述进行。
在一些实施方案中,电子装置502可显示604图像504。举例来说,电子装置502可耦合到呈现图像504的显示器536。显示器536的实例可包含电子装置502的显示屏、电视机、投影仪等。如上文所描述,图像504可为先前产生的漫画图像(例如,基于先前或现有漫画动作产生)。在此实例中,电子装置502可显示604先前产生的漫画图像。
电子装置502可基于所述至少一个特征位置508产生606包括至少一个水平线424和至少一个垂直线426的栅格的图像网格512。在一些实施方案中,此可如结合图2所描述进行。在一些实施方案中,电子装置502还可显示图像网格512。举例来说,显示器536可将图像网格512的水平线424和垂直线426叠加在图像504(或先前产生的漫画图像)的顶部上,如图4中所描绘。
电子装置502可获得608至少一个手势输入514。在一些实施方案中,此可如结合图2所描述进行。
电子装置502可验证610手势输入514。验证610手势输入514可包含确定手势输入514是否由电子装置502辨识。验证610手势输入514可包含确定手势输入514是否可确定漫画动作518。举例来说,电子装置502可确定手势输入514是否为垂直夹捏关闭手势输入、垂直夹捏打开手势输入、水平夹捏关闭手势输入或水平夹捏打开手势输入中的一者。
在一些实施方案中,验证610手势输入514可包含确定手势输入514相对于彼此的运动是否大于运动阈值。举例来说,当两个手指水平或垂直移动为彼此较靠近或远离达大于特定像素数目(例如,30像素)的量时,手势输入514可确定为有效。相比而言,如果手指尚未移动为彼此较靠近或远离达大于所述特定像素数目的量,那么电子装置502可确定610手势输入514并非有效。
验证610手势输入514还可包含确定手势输入514是否对准。举例来说,对准的手势输入514可确定为有效。相比而言,不对准的手势输入514可确定为无效。手势输入514可垂直或水平地对准。如果手势输入514的起点大体上落在图像网格512的相同线(例如,水平对准的手势输入514的相同水平线和垂直对准的手势输入514的相同垂直线)上,那么手势输入514可对准。在另一实施方案中,垂直对准的手势输入514可在彼此特定角度阈值内。在另一实施例中,对准的手势输入514可在彼此特定角度阈值内。
电子装置502可基于所述至少一个手势输入514确定612至少一个漫画动作518。在一些实施方案中,此可如结合图2所描述进行。
电子装置502可维持614漫画动作列表534。在一些实施方案中,漫画动作列表534可含有先前已应用于图像504(或先前产生的漫画图像)的所有漫画动作518的列表。在一些实施方案中,维持614漫画动作列表534可包含将当前使用的漫画动作518附加到漫画动作列表534。举例来说,基于手势输入514的第一集合,可确定第一漫画动作518。在此实例中,电子装置502可将漫画动作518存储到漫画动作列表534。类似地,如果手势输入514的第二集合提示第二漫画动作518,那么电子装置502可将第二漫画动作518附加到漫画动作列表534,漫画动作列表534此时可包含第一漫画动作518(和任何先前应用的漫画动作518)。
电子装置502可基于图像网格512、所述至少一个漫画动作518和图像504(或先前产生的漫画图像)产生616漫画图像522。在一些实施方案中,此可如结合图2所描述进行。如下文将描述,在一些配置中,多个漫画动作518(例如,第一集合和第二集合)可同时应用于图像504(或先前产生的漫画图像)。举例来说,可计算归因于所有漫画动作518的(例如,漫画图像522中)所有顶点的新位置,且随后可将单一纹理扭曲应用于图像504(或先前产生的漫画图像)一次来产生漫画图像522。
在一些实施方案中,电子装置502可显示618漫画图像522。举例来说,电子装置502可包含(或耦合到)呈现漫画图像522的显示器536。显示器536的实例包含电子装置502的显示屏、电视机、投影仪等。在一些实施方案中,电子装置502还可显示图像网格512。举例来说,显示器536可将失真图像网格(例如,基于漫画动作518)叠加在漫画图像522上,如将结合图13描述。应注意,如与漫画图像522一起显示的失真图像网格可不同于如与图像504一起显示的图像网格512。举例来说,在与漫画图像522一起显示的失真图像网格中,一或多个顶点(或一或多条线)之间的间距可大于或小于与图像504一起显示的图像网格512中的间距。
图7为说明用于由电子装置502验证手势输入514的方法700的一个配置的流程图。电子装置502可获得702多个手势输入514(例如,两个手指在触摸屏上移动)。在一些实施方案中,此可如结合图2所描述进行。
电子装置502可确定704手势输入514是否垂直地对准。在一些实施方案中,如果手势输入514(例如,手势输入起点)大体上落在相同垂直线426上,那么手势输入514可垂直地对准。相比而言,如果手势输入514并不大体上落在相同垂直线426上,那么手势输入514可不垂直地对准。在另一实例中,如果手势输入514在彼此的特定阈值角度内,那么电子装置502可确定704手势输入514垂直地对准。相比而言,如果手势输入514不在彼此的特定阈值角度内,那么电子装置502可确定704手势输入514不垂直地对准。在又一实施方案中,如果手势输入514小于距相同垂直线的阈值距离,那么电子装置502可确定704手势输入514垂直地对准。相反,如果其大于距相同垂直线的阈值距离,那么电子装置502可确定704手势输入514不垂直地对准。
如果电子装置502确定704手势输入514垂直地对准,那么电子装置502可确定706手势输入514的垂直运动是否大于运动阈值。举例来说,电子装置502可确定706两个手势输入514(例如,在触摸屏上移动的两个手指)是否正相对于彼此移动(远离彼此或朝向彼此)至少等于所确定像素数目(例如,三十)的量。如果电子装置502确定706手势输入514的垂直运动不大于运动阈值,那么电子装置502可确定708手势输入514无效。
然而,如果电子装置502确定706手势输入514的垂直运动大于运动阈值,那么电子装置502可确定710手势输入514是否正垂直移动为较靠近在一起。举例来说,如果起点处手势输入514之间的像素数目大于运动结束时手势输入514之间的像素数目,那么电子装置502可确定710手势输入514正移动为较靠近在一起。换句话说,如果手势输入514之间的像素数目变小,那么电子装置502可确定710手势输入514正移动为较接近。相比而言,如果起点处的手势输入514之间的像素数目小于运动结束时手势输入514之间的像素数目,那么电子装置502可确定710手势输入514正移动为分开。换句话说,如果手势输入514之间的像素数目变大,那么电子装置502可确定710手势输入514正移动为分开。
如果电子装置502确定710手势输入514正垂直移动为较靠近在一起,那么电子装置502可确定712手势输入514为垂直夹捏关闭手势输入514。相比而言,如果电子装置502确定710手势输入514不在垂直移动为较靠近在一起(例如,其正垂直移动为分开较远),那么电子装置502可确定714手势输入514为垂直夹捏打开手势输入514。
如果电子装置502确定704手势输入514不垂直地对准,那么电子装置502可确定716手势输入514的水平运动是否大于运动阈值。举例来说,电子装置502可确定716两个手势输入514(例如,在触摸屏上移动的两个手指)是否正相对于彼此移动(远离彼此或朝向彼此)至少等于所确定像素数目(例如,三十)的量。如果电子装置502确定716手势输入514的水平运动不大于运动阈值,那么电子装置502可确定708手势输入514无效。
然而,如果电子装置502确定716手势输入514的水平运动大于运动阈值,那么电子装置502可确定718手势输入514是否正水平移动为较接近在一起。举例来说,如果起点处手势输入514之间的像素数目大于运动结束时手势输入514之间的像素数目,那么电子装置502可确定718手势输入514正水平移动为较接近在一起。换句话说,如果手势输入514之间的像素数目变小,那么电子装置502可确定718手势输入514正水平移动为较靠近在一起。相比而言,如果起点处的手势输入514之间的像素数目小于运动结束时手势输入514之间的像素数目,那么电子装置502可确定718手势输入514正移动为分开。换句话说,如果手势输入514之间的像素数目变大,那么电子装置502可确定718手势输入514正移动为分开。
如果电子装置502确定718手势输入514正水平移动为较靠近在一起,那么电子装置502可确定720手势输入514为水平夹捏关闭手势输入514。相比而言,如果电子装置502确定718手势输入514不在水平移动为较靠近在一起(例如,其正水平移动为分开较远),那么电子装置502可确定722手势输入514为水平夹捏打开手势输入514。应注意,方法700中的步骤中的一或多者可由电子装置502的触摸屏执行。举例来说,触摸屏可检测垂直地对准、水平对准和/或运动是否大于运动阈值。
图8说明垂直夹捏打开手势输入的实例。更确切地说,图8说明垂直夹捏打开手势输入(左侧图像)和由对应的漫画动作118产生的失真图像网格812b(右侧图像)。如上文所描述,在一些实施方案中,触摸屏838可耦合到电子装置102。在此实例中,垂直夹捏打开手势输入可包含多个手势输入814a-b来产生漫画图像122。
在此实例中,第一手势输入起点840a(例如,触摸屏838上的指尖开始位置)可映射到具有坐标(X1start,Y1start)的第一顶点828a,且第二手势输入起点840b可映射到具有用于解释漫画动作118的图像坐标系上的坐标(X2start,Y2start)的第二顶点828b。第一顶点828a和第二顶点828b可对应于图像804的特征位置108。举例来说,第一顶点828a可对应于右眼的内角,且第二顶点828b可对应于右嘴角。如上文所描述,漫画动作118含有关于图像网格812a的哪些顶点可改变位置的信息。应注意,如图8中所描绘,手势输入起点840a-b可能不与顶点828a-b恰好排成一条线。在此实例中,手势输入起点840a-b可映射到最接近于手势输入起点840a-b的顶点828a-b。在另一实例中,手势输入起点840a-b可映射到最接近于手势输入起点840a-b的垂直线。
垂直漫画动作118可包含四个要素:漫画方向(例如,Cd)、图像网格812a中第一(从顶部)受影响水平线824a的索引(例如,Ch1)、最后(从顶部)受影响水平线824b(例如,Ch2)的索引(例如,Ch2),以及具有0与1之间的值的预定义垂直漫画生成水平。为简单起见,在图8中,水平线可由其索引指代。
对于垂直漫画动作118,假定Y1start大于Y2start,那么线Ch1 824a可为最接近于Y1start的水平线且线Ch2 824b可为最接近于Y2start的水平线。在此实例中,线Ch1 824a上的顶点(其可包含第一顶点828a)和线Ch2 824b上的顶点(其可包含第二顶点828b)以及线Ch1 824a与线Ch2 824b之间的水平线上的顶点可改变位置。
如果手指手势为如图8中所描绘的垂直夹捏打开手势输入814,那么线Ch1 824a上的所有图像网格812a顶点可向上朝向线Ch1-1 824c移动一值,所述值等于垂直漫画动作的水平(例如,CLv)乘以线Ch1 824a与线Ch1-1 824c之间的当前距离,如失真图像网格812b中所描绘。类似地,线Ch2 824b上的所有顶点可向下朝向线Ch2+1 824d移动一值,所述值等于垂直漫画动作的水平(例如,CLv)乘以线Ch2 824b与线Ch2+1 824d之间的当前距离,如失真图像网格812b中所描绘。同时,线Ch1 824a与线Ch2 824b之间的水平线上的顶点的新位置可通过从线Ch1 824a上的顶点以及线Ch2 824b上的顶点的新位置进行线性内插而确定。
图9说明垂直夹捏关闭手势输入的实例。更确切地说,图9说明垂直夹捏关闭手势输入(左侧图像)和由对应的漫画动作118产生的失真图像网格912b(右侧图像)。如上文所描述,在一些实施方案中,触摸屏938可耦合到电子装置102。在此实例中,垂直夹捏关闭手势输入可包含多个手势输入914a-b来产生漫画图像122。
在此实例中,第一手势输入起点940a(例如,触摸屏938上的指尖开始位置)可映射到具有坐标(X1start,Y1start)的第一顶点928a,且第二手势输入起点940b可映射到具有用于解释漫画动作118的图像坐标系上的坐标(X2start,Y2start)的第二顶点928b。第一顶点928a和第二顶点928b可对应于图像904的特征位置108。举例来说,第一顶点928a可对应于右眼的内角,且第二顶点928b可对应于右嘴角。如上文所描述,漫画动作118含有关于图像网格912a的哪些顶点可改变位置的信息。应注意,如图9中所描绘,手势输入起点940a-b可能不与顶点928a-b恰好排成一条线。在此实例中,手势输入起点940a-b可映射到最接近于手势输入起点940a-b的顶点928a-b。在另一实例中,手势输入起点940a-b可映射到最接近于手势输入起点940a-b的垂直线。
垂直漫画动作118可包含四个要素:漫画方向(例如,Cd)、图像网格912a中第一(从顶部)受影响水平线924a的索引(例如,Ch1)、最后(从顶部)受影响水平线924b(例如,Ch2)的索引(例如,Ch2),以及具有0与1之间的值的预定义垂直漫画生成水平。为简单起见,在图9中,水平线可由其索引指代。
对于垂直漫画动作118,假定Y1start大于Y2start,那么线Ch1 924a可为最接近于Y1start的水平线且线Ch2 924b可为最接近于Y2start的水平线。在此实例中,线Ch1 924a上的顶点(其可包含第一顶点928a)和线Ch2 924b上的顶点(其可包含第二顶点928b)以及线Ch1 924a与线Ch2 924之间的水平线上的顶点可改变位置。
如果手指手势为如图9中所描绘的垂直夹捏关闭手势输入914,那么线Ch1 924a上的所有图像网格912a顶点可向下朝向线Ch1+1 924c移动一值,所述值等于垂直漫画动作的水平(例如,CLv)乘以线Ch1 924a与线Ch1+1 924c之间的当前距离,如失真图像网格912b中所描绘。类似地,线Ch2 924b上的所有顶点可向上朝向线Ch2-1移动一值,所述值等于垂直漫画动作的水平(例如,CLv)乘以线Ch2 924b与线Ch2-1之间的当前距离,如失真图像网格912b中所描绘。如图9中所描绘,线Ch2-1可与线Ch1+1 924c相同。换句话说,线Ch2 924b上的所有顶点可向上朝向线Ch1+1 924c移动一值,所述值等于垂直漫画动作的水平(例如,CLv)乘以线Ch2 924b与线Ch1+1 924c之间的当前距离,如失真图像网格912b中所描绘。同时,线Ch1 924a与线Ch2 924b之间的水平线上的顶点的新位置可通过从线Ch1 924a上的顶点以及线Ch2 924b上的顶点的新位置进行线性内插而确定。
图10说明水平夹捏打开手势输入的实例。更确切地说,图10说明水平夹捏打开手势输入(左侧图像)和由对应的漫画生成动作118产生的失真图像网格1012b(右侧图像)。如上文所描述,在一些实施方案中,触摸屏1038可耦合到电子装置102。在此实例中,水平夹捏打开手势输入可包含多个手势输入1014a-b来产生漫画图像122。
在此实例中,第一手势输入起点1040a(例如,触摸屏1038上的指尖开始位置)可映射到第一顶点1028a,且第二手势输入起点1040b可映射到用于解释漫画动作118的图像坐标系上的第二顶点1028b。第一顶点1028a和第二顶点1028b可对应于图像1004的特征位置108。举例来说,第一顶点1028a可对应于左眼的外角,且第二顶点1028b可对应于右眼的内角。如上文所描述,漫画动作118含有关于图像网格1012a的哪些顶点可改变位置的信息。应注意,如图10中所描绘,手势输入起点1040a-b可能不与顶点1028a-b恰好排成一条线。在此实例中,手势输入起点1040a-b可映射到最接近于手势输入起点1040a-b的顶点1028a-b。
水平漫画动作118可包含五个要素:漫画方向(例如,Cd)、受影响水平控制线1024的索引(例如,Ch)、水平控制线1024上第一受影响顶点1028a的索引(例如,Cv1)、水平控制线1024上最后受影响顶点1028b的索引(例如,Cv2),以及预定义水平漫画生成水平(例如,CLh)。在此实例中,漫画方向可为水平的且受影响水平控制线1024可为最接近于手势输入的起点1040a-b的中点(例如,在垂直方向上)的水平线。为简单起见,在图10中,所述线可由其对应的索引指代。
在一些实施方案中,顶点Cv1 1028a和顶点Cv2 1028b可被定义为最接近于第一手势输入起点1040a(例如,X1start,Y1start)和第二手势输入起点1040b(例如,X2start,Y2start)的两个顶点。顶点Cv1 1028a和顶点Cv2 1028b还可被定义为两个特定顶点,而不管手势输入起点1040a-b的位置如何。举例来说,如果线Ch 1024为连接两个眼睛的线H2,那么顶点Cv1 1028a可被定义为Vert(H2,V2)且顶点Cv2 1028b可被定义为Vert(H2,V5),其对应于左眼的外眼角和右眼的内角。为简单起见,在图10中,顶点可由其对应的索引指代。举例来说,分别地,第一顶点1028a可被称为顶点Vert(Ch,Cv1)1028a,且第二顶点1028b可被称为顶点Vert(Ch,Cv2)1028b。对其它顶点的参考可类似地基于顶点索引。在一些实施方案中,对于水平漫画生成,仅水平控制线1024上的顶点可改变位置。换句话说,仅被定义为Vert(Ch,Cv1)、Vert(Ch,Cv1+1)、…、Vert(Ch,Cv2)的顶点可改变其位置。
如果手指手势为图10中所描绘的水平夹捏打开手势输入1014,那么顶点Vert(Ch,Cv1)1028a可向左移动一值,所述值等于水平漫画动作的水平(例如,CLh)乘以顶点Vert(Ch,Cv1)1028a与顶点Vert(Ch,Cv1-1)1028c之间的当前距离,如失真图像网格1012b中所描绘。类似地,顶点Vert(Ch,Cv2)1028b可向右移动一量,所述量等于水平漫画动作的水平(例如,CLh)乘以顶点Vert(Ch,Cv2)1028b与顶点Vert(Ch,Cv2+1)1028d之间的当前距离,如失真图像网格1012b中所描绘。同时,顶点Vert(Ch,Cv1+1)、…、Vert(Ch,Cv2-1)的新位置可通过从顶点Vert(Ch,Cv1)1028a和顶点Vert(Ch,Cv2)1028b的新位置进行线性内插而确定。如图10中所描绘,除水平控制线1024外的水平线上的顶点不可移动位置。这些顶点的位置可保持水平线与垂直于水平线的垂直线之间的相交点。
图11说明水平夹捏关闭手势输入的实例。更确切地说,图11说明水平夹捏关闭手势输入(左侧图像)和由对应的漫画生成动作118产生的失真图像网格1112b(右侧图像)。如上文所描述,在一些实施方案中,触摸屏1138可耦合到电子装置102。在此实例中,水平夹捏打开手势输入可包含多个手势输入1114a-b来产生漫画图像122。
在此实例中,第一手势输入起点1140a(例如,触摸屏1138上的指尖开始位置)可映射到第一顶点1128a,且第二手势输入起点1140b可映射到用于解释漫画动作118的图像坐标系上的第二顶点1128b。第一顶点1128a和第二顶点1128b可对应于图像1104的特征位置118。举例来说,第一顶点1128a可对应于左眼的外角,且第二顶点1128b可对应于右眼的内角。如上文所描述,漫画动作118含有关于图像网格1112a的哪些顶点可改变位置的信息。应注意,如图11中所描绘,手势输入起点1140a-b可能不与顶点1128a-b恰好排成一条线。在此实例中,手势输入起点1140a-b可映射到最接近于手势输入起点1140a-b的顶点1128a-b。
水平漫画动作118可包含五个要素:漫画方向(例如,Cd)、受影响水平控制线1124的索引(例如,Ch)、水平控制线1124上第一受影响顶点1128a的索引(例如,Cv1)、水平控制线1124上最后受影响顶点1128b的索引(例如,Cv2),以及预定义水平漫画生成水平(例如,CLh)。在此实例中,漫画方向可为水平的且受影响水平控制线1124可为最接近于手势输入的起点1140a-b的中点(例如,在垂直方向上)的水平线。为简单起见,在图11中,所述线可由其对应的索引指代。
在一些实施方案中,顶点Cv1 1128a和顶点Cv2 1128b可被定义为最接近于第一手势输入起点1140a(例如,X1start,Y1start)和第二手势输入起点1140b(例如,X2start,Y2start)的两个顶点。顶点Cv1 1128a和顶点Cv2 1128b还可被定义为两个特定顶点,而不管手势输入起点1140a-b的位置如何。举例来说,如果线Ch 1124为连接两个眼睛的线H2,那么顶点Cv1 1128a可被定义为Vert(H2,V2)且顶点Cv2 1128b可被定义为Vert(H2,V5),其对应于左眼的外眼角和右眼的内角。为简单起见,在图11中,顶点可由其对应的索引指代。举例来说,分别地,第一顶点1128a可被称为顶点Vert(Ch,Cv1)1128a,且第二顶点1128b可被称为顶点Vert(Ch,Cv2)1128b。对其它顶点的参考可类似地基于顶点索引。在一些实施方案中,对于水平漫画生成,仅水平控制线1124上的顶点可改变位置。换句话说,仅被定义为Vert(Ch,Cv1)、Vert(Ch,Cv1+1)、…、Vert(Ch,Cv2)的顶点可改变其位置。
如果手指手势为图11中所描绘的水平夹捏关闭手势输入1114,那么顶点Vert(Ch,Cv1)1128a可向右移动一值,所述值等于水平漫画动作的水平(例如,CLh)乘以顶点Vert(Ch,Cv1)1128a与顶点Vert(Ch,Cv1+1)1128c之间的当前距离,如失真图像网格1112b中所描绘。类似地,顶点Vert(Ch,Cv2)1128b可向左移动一量,所述量等于漫画动作的水平(例如,CLh)乘以顶点Vert(Ch,Cv2)1128b与顶点Vert(Ch,Cv2-1)1128d之间的当前距离,如失真图像网格1112b中所描绘。同时,顶点Vert(Ch,Cv1+1)、…、Vert(Ch,Cv2-1)的新位置可通过从顶点Vert(Ch,Cv1)1128a和顶点Vert(Ch,Cv2)1128b的新位置进行线性内插而确定。如图11中所描绘,除水平控制线1124外的水平线上的顶点不可移动位置。这些顶点的位置可保持水平线与垂直于水平线的垂直线之间的相交点。
图12说明面部图像1204和可使用本文中所揭示的系统和方法产生的漫画图像1222a-b的另一实例。如上文所描述,在一些实施方案中,耦合到电子装置102的显示器536可呈现面部图像1204和基于网格的模型中的图像网格1212a。
可基于漫画动作118的第一集合和面部图像1204产生第一漫画图像1222a。在此实例中,手势输入114的第一集合可指示如本文所描述的漫画动作118的第一集合。图12还描绘第一失真图像网格1212b。第一失真图像网格1212b可指示面部图像1204的前额、眼部、鼻部、嘴巴等上一系列水平夹捏动作之后一或多个顶点的位置改变,如中间图像中所说明。如上文所描述,漫画动作118的第一集合可附加到漫画动作列表534。漫画动作列表534可确定面部图像1204中每一图像网格1212a顶点的位置与第一漫画图像1222a中其新位置之间的映射。基于此顶点映射,可计算第一漫画图像1222a中的非顶点像素中的每一者与面部图像1204中的其原始位置的映射。可随后获得这些像素的颜色。
可基于漫画动作118的第二集合和第一漫画图像1222a产生第二漫画图像1222b。在此实例中,手势输入114的第二集合可指示如本文所描述的漫画动作118的第二集合。图12还描绘第二失真图像网格1212c。第二失真图像网格1212c可指示在进一步应用于第一漫画图像1222a的前额、下颌等上的一系列垂直夹捏动作之后一或多个顶点的位置改变,如右侧图像中所说明。如上文所描述,漫画动作118的第二集合可附加到漫画动作列表534(例如,其可含有漫画动作118的第一集合)。应注意,每一漫画图像1222a-b可为先前漫画动作118的结果。举例来说,第二漫画图像1222b可为漫画动作118的第一和第二集合应用于面部图像1204的结果。
在一些实施方案中,为应用漫画动作118(例如,漫画动作118的第一集合和漫画动作118的第二集合),可计算归因于组合的漫画动作118的所有顶点的新位置。可随后在面部图像1204上应用单一纹理扭曲(基于漫画动作118的第一集合和漫画动作118的第二集合两者)一次。
图13为说明其中可实施用于交互式图像漫画生成的系统和方法的电子装置1302的更具体配置的框图。电子装置1302可为结合图1描述的电子装置102的实例。电子装置1302可接收面部图像1304,其可为结合图1描述的图像104的实例。举例来说,面部图像1304可为先前进行漫画生成的面部图像。在一个实施方案中,面部图像1304可提供到面部检测块/模块1342,其可包含结合图1描述的特征位置检测块/模块106的功能性的全部或部分。举例来说,面部检测块/模块1342可检测面部特征位置1308,其可为结合图1描述的特征位置108的实例。面部特征位置1308可提供到图像网格产生块/模块1310,其可为结合图1描述的图像网格产生块/模块110的实例。在此实施方案中,图像网格产生块/模块1310可产生图像顶点坐标1344,其指示图像网格的对应于面部特征位置1308的顶点的位置。图像顶点坐标1344可基于在顶点(例如,H1,V2)处相交的水平线和垂直线的索引界定。
电子装置1302可接收手指手势输入1314,其可为结合图1描述的手势输入114的实例。手指手势输入1314可提供到交互式漫画动作解释块/模块1346,其可包含结合图1描述的漫画动作确定块/模块116的功能性的全部或部分。举例来说,交互式漫画动作解释块/模块1346可基于手指手势输入1314确定新漫画动作1318。
新漫画动作1318可提供到漫画动作更新块/模块1348,所述漫画动作更新块/模块1348可更新漫画动作列表。如上文所描述,电子装置1302可维持含有已经确定的所有漫画动作的列表的漫画动作列表。含有可能已经应用于面部图像1304(或先前产生的漫画图像)的所有先前漫画动作的列表的先前漫画动作列表1350a可提供到顶点重新映射块/模块1352以用于产生漫画图像顶点坐标。在一些实施方案中,先前漫画动作列表1350a可不包含新漫画动作1318(例如,当前正确定的漫画动作)。
顶点重新映射块/模块1352可基于先前漫画动作列表1350a和图像顶点坐标1344确定先前漫画图像顶点坐标1354a。先前漫画动作列表1350a和先前漫画图像顶点1354a可涉及经确定(例如,在方法200的先前例子中)的先前漫画动作。在一些实施方案中,先前漫画图像顶点坐标1354a可提供到交互式漫画动作解释块/模块1346以帮助确定新漫画动作1318。
在一些实施方案中,漫画动作更新块/模块1348可将新漫画动作1318添加到漫画动作列表(其包含先前已经确定的任何漫画动作)来产生新漫画动作列表1350b。新漫画动作列表1350b可提供到顶点重新映射块/模块1352。图像顶点坐标1344还可传递到顶点重新映射块/模块1352。
在一些实施方案中,顶点重新映射块/模块1352可基于新漫画动作列表1350b和图像顶点坐标1344确定新漫画图像顶点坐标1354b。举例来说,顶点重新映射块/模块1352可基于新漫画动作列表1350b(其可包含先前确定的漫画动作和新漫画动作1318)确定面部图像1304的顶点的位置(漫画图像1322中)。
新漫画图像顶点坐标1354b可传递到重新映射产生块/模块1356。重新映射产生块/模块1356还可接收图像顶点坐标1344。重新映射产生块/模块1356可产生图像顶点坐标1344与新漫画图像顶点坐标1354b之间的映射。重新映射产生块/模块1356的输出可为反映图像顶点与漫画图像顶点的位置改变之间的关系(例如,基于其坐标)的一或多个映射矩阵1358。
映射矩阵1358和面部图像1304可提供到执行面部图像1304的纹理扭曲的纹理扭曲块/模块1360。举例来说,纹理扭曲块/模块1360可改变面部图像1304中一或多个像素的位置来产生漫画图像1322。
图14说明可在电子装置1402中利用的各种组件。所说明组件可位于同一物理结构内或位于单独外壳或结构中。可根据本文中所描述的电子装置中的一或多者实施结合图14描述的电子装置1402。电子装置1402包含处理器1462。处理器1462可为通用单一或多芯片微处理器(例如,ARM)、专用微处理器(例如,数字信号处理器(DSP))、微控制器、可编程门阵列等。处理器1462可被称作中央处理单元(CPU)。尽管图14的电子装置1402中仅展示单一处理器1462,但在替代配置中,可使用处理器的组合(例如,ARM和DSP)。
电子装置1402还包含与处理器1462进行电子通信的存储器1464。也就是说,处理器1462可从存储器1464读取信息和/或将信息写入到存储器1464。存储器1464可为能够存储电子信息的任何电子组件。存储器1464可为随机存取存储器(RAM)、只读存储器(ROM)、磁盘存储媒体、光学存储媒体、RAM中的快闪存储器装置、随处理器一起包含的机载存储器、可编程只读存储器(PROM)、可擦除可编程只读存储器(EPROM)、电可擦除PROM(EEPROM)、寄存器等,包含其组合。
数据1466a和指令1468a可存储于存储器1464中。指令1468a可包含一或多个程序、例程、子例程、功能、程序等。指令1468a可包含单个计算机可读语句或许多计算机可读语句。指令1468a可由处理器1462执行以实施上文所描述的方法、功能和程序中的一或多者。执行指令1468a可涉及使用存储于存储器1464中的数据1466a。图14展示一些指令1468b和数据1466b正加载到处理器1462中(其可来自指令1468a和数据1466a)。
电子装置1402还可包含用于与其它电子装置通信的一或多个通信接口1470。通信接口1470可基于有线通信技术、无线通信技术或两者。不同类型的通信接口1470的实例包含串行端口、并行端口、通用串行总线(USB)、以太网适配器、IEEE 1394总线接口、小型计算机系统接口(SCSI)总线接口、红外(IR)通信端口、蓝牙无线通信适配器等。
电子装置1402还可包含一或多个输入装置1472和一或多个输出装置1474。不同种类的输入装置1472的实例包含键盘、鼠标、麦克风、遥控器装置、按钮、操纵杆、跟踪球、触控板、光笔等。举例来说,电子装置1402可包含用于俘获声学信号的一或多个麦克风1476。在一个配置中,麦克风1476可为将声学信号(例如,话音、语音)转换成电或电子信号的换能器。输出装置1474的不同种类的实例包含扬声器、打印机等。举例来说,电子装置1402可包含一或多个扬声器1478。在一个配置中,扬声器1478可为将电或电子信号转换为声学信号的换能器。可通常包含在电子装置1402中的输出装置的一个特定类型为显示装置1434。与本文中所揭示的配置一起使用的显示元件1434可利用任何合适的图像投影技术,例如液晶显示器(LCD)、发光二极管(LED)、气体等离子体、电致发光、阴极射线管(CRT)或类似者。还可提供显示控制器1480,用于将存储于存储器1464中的数据转换为显示装置1434上展示的文本、图形和/或移动图像(按需要)。
电子装置1402的各种组件可通过一或多个总线耦合在一起,所述总线可包含电力总线、控制信号总线、状态信号总线、数据总线等。为简单起见,各种总线在图14中说明为总线系统1482。应注意,图14仅说明电子装置1402的一个可能配置。可利用各种其它架构和组件。
在以上描述中,有时已结合各种术语而使用参考标号。在术语是结合参考标号使用的情形下,此可意图指代图中的一或多者中所示的特定元件。在无参考标号的情况下使用术语的情形下,此可意图大体指代所述术语,而不限于任何特定图。
术语“确定”涵盖许多种类的动作,且因此“确定”可包含计算、估算、处理、导出、调查、查找(例如,在表、数据库或另一数据结构中查找)、查实等。并且,“确定”可包含接收(例如,接收信息)、存取(例如,存取存储器中的数据)及其类似者。并且,“确定”可包含解析、选择、挑选、建立等等。
短语“基于”并不意味着“仅基于”,除非以其它方式明确地指定。换句话说,短语“基于”描述“仅基于”和“基于至少”两者。
应注意,在兼容的情况下,结合本文中所描述的配置中的任一者所描述的特征、功能、程序、组件、元件、结构等中的一或多者可与结合本文中所描述的其它配置中的任一者所描述的功能、程序、组件、元件、结构等中的一或多者进行组合。换句话说,可根据本文中揭示的系统和方法来实施本文中所描述的功能、程序、组件、元件等的任何兼容的组合。在一些配置中,本文揭示的功能或程序的一个或多个子集或部分可独立于本文揭示的其它功能或程序来应用。
可将本文中所描述的功能作为一或多个指令存储在处理器可读或计算机可读媒体上。术语“计算机可读媒体”是指可由计算机或处理器存取的任何可用媒体。借助于实例而非限制,此类媒体可包括RAM、ROM、EEPROM、快闪存储器、CD-ROM或其它光盘存储装置、磁盘存储装置或其它磁性存储装置或任何其它可用来存储指令或数据结构的形式的所要程序代码且可由计算机存取的媒体。如本文中所使用的磁盘和光盘包含压缩光盘(CD)、激光光盘、光学光盘、数字多功能光盘(DVD)、软磁盘和
Figure BDA0002745105680000241
其中磁盘通常是以磁性方式再现数据,而光盘是用激光以光学方式再现数据。应注意,计算机可读媒体可为有形的且非暂时性的。术语“计算机程序产品”是指计算装置或处理器,其与可由计算装置或处理器执行、处理或计算的代码或指令(例如,“程序”)结合。如本文所使用,术语“代码”可指可由计算装置或处理器执行的软件、指令、代码或数据。
也可经由发射媒体来发射软件或指令。举例来说,如果使用同轴电缆、光纤电缆、双绞线、数字订户线(DSL)或无线技术(例如,红外线、无线电和微波)从网站、服务器或其它远程源发射软件,那么同轴电缆、光纤电缆、双绞线、DSL或无线技术(例如,红外线、无线电和微波)包含在发射媒体的定义中。
本文所揭示的方法包括用于实现所描述的方法的一或多个步骤或动作。在不偏离权利要求书的范围的情况下,方法步骤和/或动作可彼此互换。换句话说,除非正描述的方法的适当操作需要步骤或动作的特定次序,否则,在不脱离权利要求书的范围的情况下,可修改特定步骤和/或动作的次序和/或使用。
应理解,权利要求书不限于上文所说明的精确配置和组件。在不偏离权利要求书的范围的情况下,可在本文中所描述的系统、方法和设备的布置、操作和细节方面进行各种修改、改变和变更。

Claims (42)

1.一种用于由电子装置进行交互式图像编辑的方法,其包括:
确定图像中的至少一个面部特征;
基于所述至少一个面部特征产生包括对应于所述至少一个面部特征的至少一个顶点的初始图像网格;
通过图像感测装置从用户获得至少一个输入;
基于所述至少一个输入确定经更新的图像网格,其中在所述初始图像网格和所述经更新的图像网格之间,对应于所述至少一个面部特征的所述至少一个顶点的位置是不同的;
基于所述经更新的图像网格产生经编辑图像;以及
显示所述经编辑图像。
2.根据权利要求1所述的方法,其中所述至少一个面部特征与眼睛或嘴巴相关联。
3.根据权利要求1所述的方法,其中所述至少一个输入为至少一个手势输入。
4.根据权利要求1所述的方法,其进一步包括显示所述图像。
5.根据权利要求1所述的方法,其中产生所述经编辑图像包括将所述至少一个编辑动作应用于所述图像。
6.根据权利要求5所述的方法,其中所述至少一个编辑动作提供针对所述初始图像网格的所述至少一个顶点的偏移信息,并提供像素映射,所述像素映射基于所述偏移信息将图像顶点像素映射到对应的经编辑图像顶点像素,且其中产生所述经编辑图像包括基于所述像素映射内插所述经编辑图像中其它像素的位置。
7.根据权利要求1所述的方法,其进一步包括验证所述至少一个输入。
8.根据权利要求7所述的方法,其中验证所述至少一个输入包括确定所述至少一个输入的运动是否大于运动阈值。
9.根据权利要求1所述的方法,其中所述至少一个输入包括多个输入。
10.根据权利要求9所述的方法,其进一步包括确定所述输入相对于彼此的运动。
11.根据权利要求9所述的方法,其进一步包括确定所述输入水平地对准。
12.根据权利要求9所述的方法,其进一步包括确定所述输入垂直地对准。
13.根据权利要求1所述的方法,其进一步包括维持编辑动作列表。
14.根据权利要求13所述的方法,其进一步包括将至少一个编辑动作添加到所述编辑动作列表。
15.根据权利要求14所述的方法,其中所述至少一个编辑动作为漫画动作。
16.根据权利要求1所述的方法,其中所述至少一个输入不是基于触摸的。
17.根据权利要求16所述的方法,其中所述至少一个输入基于手指或触笔的移动。
18.根据权利要求1所述的方法,其中产生所述经编辑图像包括内插不与所述至少一个顶点相关联的像素。
19.根据权利要求1所述的方法,其进一步包括扫描面部。
20.根据权利要求1所述的方法,其中表示在所述经编辑图像中的眼睛或嘴巴中的至少一者响应于所述至少一个输入而移动。
21.根据权利要求20所述的方法,其中在显示器上向所述用户呈现所述眼睛或嘴巴中的所述至少一者的移动。
22.一种用于交互式图像编辑的电子装置,其包括:
存储器;
处理器,其耦合至所述存储器,所述处理器经配置以:
确定图像中的至少一个面部特征;
基于所述至少一个面部特征产生包括对应于所述至少一个面部特征的至少一个顶点的初始图像网格;
从用户获得至少一个输入;
基于所述至少一个输入确定经更新的图像网格,其中在所述初始图像网格和所述经更新的图像网格之间,对应于所述至少一个面部特征的所述至少一个顶点的位置是不同的;以及
基于所述经更新的图像网格产生经编辑图像;以及
显示器,其经配置以显示所述经编辑图像。
23.根据权利要求22所述的电子装置,其中所述至少一个面部特征与眼睛或嘴巴相关联。
24.根据权利要求22所述的电子装置,其中所述至少一个输入为至少一个手势输入。
25.根据权利要求22所述的电子装置,其中所述显示器经配置以显示所述图像。
26.根据权利要求22所述的电子装置,其中产生所述经编辑图像包括将所述至少一个编辑动作应用于所述图像。
27.根据权利要求26所述的电子装置,其中所述至少一个编辑动作提供针对所述初始图像网格的所述至少一个顶点的偏移信息,并提供像素映射,所述像素映射基于所述偏移信息将图像顶点像素映射到对应的经编辑图像顶点像素,且其中产生所述经编辑图像包括基于所述像素映射内插所述经编辑图像中其它像素的位置。
28.根据权利要求22所述的电子装置,其中所述处理器经配置以验证所述至少一个输入。
29.根据权利要求28所述的电子装置,其中验证所述至少一个输入包括确定所述至少一个输入的运动是否大于运动阈值。
30.根据权利要求22所述的电子装置,其中所述至少一个输入包括多个输入。
31.根据权利要求30所述的电子装置,其中所述处理器经配置以确定所述输入相对于彼此的运动。
32.根据权利要求30所述的电子装置,其中所述处理器经配置以确定所述输入水平地对准。
33.根据权利要求30所述的电子装置,其中所述处理器经配置以确定所述输入垂直地对准。
34.根据权利要求22所述的电子装置,其中所述处理器经配置以维持编辑动作列表。
35.根据权利要求34所述的电子装置,其中所述处理器经配置以将至少一个编辑动作添加到所述编辑动作列表。
36.根据权利要求35所述的电子装置,其中所述至少一个编辑动作为漫画动作。
37.根据权利要求22所述的电子装置,其中所述至少一个输入不是基于触摸的。
38.根据权利要求37所述的电子装置,其中所述至少一个输入基于手指或触笔的移动。
39.根据权利要求22所述的电子装置,其中产生所述经编辑图像包括内插不与所述至少一个顶点相关联的像素。
40.根据权利要求22所述的电子装置,其进一步包括经配置以扫描面部的相机。
41.根据权利要求22所述的电子装置,其中所述处理器经配置以响应于所述至少一个输入而移动表示在所述经编辑图像中的眼睛或嘴巴中的至少一者。
42.根据权利要求41所述的电子装置,其中所述显示器经配置以向所述用户呈现所述眼睛或嘴巴中的所述至少一者的移动。
CN202011163800.7A 2013-02-23 2013-02-23 用于由电子装置进行交互式图像漫画生成的系统和方法 Active CN112215914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011163800.7A CN112215914B (zh) 2013-02-23 2013-02-23 用于由电子装置进行交互式图像漫画生成的系统和方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202011163800.7A CN112215914B (zh) 2013-02-23 2013-02-23 用于由电子装置进行交互式图像漫画生成的系统和方法
PCT/CN2013/000179 WO2014127494A1 (en) 2013-02-23 2013-02-23 Systems and methods for interactive image caricaturing by an electronic device
CN201380073327.5A CN105074780B (zh) 2013-02-23 2013-02-23 用于由电子装置进行交互式图像漫画生成的系统和方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201380073327.5A Division CN105074780B (zh) 2013-02-23 2013-02-23 用于由电子装置进行交互式图像漫画生成的系统和方法

Publications (2)

Publication Number Publication Date
CN112215914A true CN112215914A (zh) 2021-01-12
CN112215914B CN112215914B (zh) 2024-04-26

Family

ID=51390460

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202011163800.7A Active CN112215914B (zh) 2013-02-23 2013-02-23 用于由电子装置进行交互式图像漫画生成的系统和方法
CN201380073327.5A Active CN105074780B (zh) 2013-02-23 2013-02-23 用于由电子装置进行交互式图像漫画生成的系统和方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN201380073327.5A Active CN105074780B (zh) 2013-02-23 2013-02-23 用于由电子装置进行交互式图像漫画生成的系统和方法

Country Status (8)

Country Link
US (3) US10379734B2 (zh)
EP (2) EP2959458B1 (zh)
JP (1) JP6328669B2 (zh)
KR (1) KR20150121069A (zh)
CN (2) CN112215914B (zh)
ES (1) ES2769546T3 (zh)
HU (1) HUE046808T2 (zh)
WO (1) WO2014127494A1 (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788968B1 (en) * 2012-06-04 2014-07-22 Google Inc. Transitioning an interface to a neighboring image
WO2014127494A1 (en) 2013-02-23 2014-08-28 Qualcomm Incorporated Systems and methods for interactive image caricaturing by an electronic device
GB201706300D0 (en) * 2017-04-20 2017-06-07 Microsoft Technology Licensing Llc Debugging tool
US10559116B2 (en) * 2018-03-05 2020-02-11 Adobe Inc. Interactive caricature generation from a digital image
CN111145084B (zh) * 2019-12-25 2023-06-16 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
US11328385B2 (en) * 2020-04-14 2022-05-10 Adobe Inc. Automatic image warping for warped image generation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6069622A (en) * 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
KR20020030226A (ko) * 2000-10-16 2002-04-24 김란숙 영상기반 캐리커츄어 제작 방법
CN101887593A (zh) * 2009-05-15 2010-11-17 中山大学 一种聪明图形驱动的网格图像变形方法
JP2011170541A (ja) * 2010-02-17 2011-09-01 Ritsumeikan 画像変形方法、画像処理装置、及びコンピュータプログラム
CN102737362A (zh) * 2011-04-01 2012-10-17 国基电子(上海)有限公司 具漫画图像分割功能的电子装置及方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09305780A (ja) 1996-05-10 1997-11-28 Dainippon Printing Co Ltd レイアウト装置
JPH1010970A (ja) 1996-06-18 1998-01-16 Matsushita Electric Ind Co Ltd 地図データ更新システム
EP1039417B1 (en) 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
CN1174346C (zh) 2001-04-25 2004-11-03 中国科学技术大学 一种三维人脸动画的制作方法
KR100450210B1 (ko) 2002-10-25 2004-09-24 (주)엔룩스 3차원 스캔 얼굴모델의 합성 시스템과 그 방법 및 3차원스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된기록매체
GB0400894D0 (en) 2004-01-15 2004-02-18 British Telecomm Adaptive closed group caricaturing
TW200614094A (en) * 2004-10-18 2006-05-01 Reallusion Inc System and method for processing comic character
GB0813685D0 (en) 2008-07-25 2008-09-03 Omniperception Ltd A system & method for facial recognition
US8798374B2 (en) * 2008-08-26 2014-08-05 The Regents Of The University Of California Automated facial action coding system
KR20100041006A (ko) 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
CN101923726B (zh) 2009-06-09 2012-04-04 华为技术有限公司 一种语音动画生成方法及系统
US8405659B2 (en) * 2009-06-24 2013-03-26 International Business Machines Corporation System and method for establishing correspondence, matching and repairing three dimensional surfaces of arbitrary genus and arbitrary topology in two dimensions using global parameterization
CN101692681A (zh) * 2009-09-17 2010-04-07 杭州聚贝软件科技有限公司 一种在话机终端上实现虚拟形象互动界面的方法和系统
US20120306874A1 (en) * 2009-12-14 2012-12-06 Agency For Science, Technology And Research Method and system for single view image 3 d face synthesis
US8786559B2 (en) 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
US8233789B2 (en) * 2010-04-07 2012-07-31 Apple Inc. Dynamic exposure metering based on face detection
JP5240795B2 (ja) 2010-04-30 2013-07-17 オムロン株式会社 画像変形装置、電子機器、画像変形方法、および画像変形プログラム
KR101514327B1 (ko) 2010-11-04 2015-04-22 한국전자통신연구원 얼굴 아바타 생성 장치 및 방법
US8717381B2 (en) 2011-01-11 2014-05-06 Apple Inc. Gesture mapping for image filter input parameters
US8687023B2 (en) 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
CN102306389B (zh) 2011-08-03 2013-05-08 湖南互动传媒有限公司 一种手机动漫人物及背景的浮雕效果实现方法
CN102521867B (zh) 2011-12-16 2014-09-17 拓维信息系统股份有限公司 一种手机动漫人物及背景创作方法
US20140092015A1 (en) * 2012-09-29 2014-04-03 Zhaohui Xing Method and apparatus for manipulating a graphical user interface using camera
US8584049B1 (en) * 2012-10-16 2013-11-12 Google Inc. Visual feedback deletion
WO2014127494A1 (en) 2013-02-23 2014-08-28 Qualcomm Incorporated Systems and methods for interactive image caricaturing by an electronic device
US9129152B2 (en) * 2013-11-14 2015-09-08 Adobe Systems Incorporated Exemplar-based feature weighting

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6069622A (en) * 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
KR20020030226A (ko) * 2000-10-16 2002-04-24 김란숙 영상기반 캐리커츄어 제작 방법
CN101887593A (zh) * 2009-05-15 2010-11-17 中山大学 一种聪明图形驱动的网格图像变形方法
JP2011170541A (ja) * 2010-02-17 2011-09-01 Ritsumeikan 画像変形方法、画像処理装置、及びコンピュータプログラム
CN102737362A (zh) * 2011-04-01 2012-10-17 国基电子(上海)有限公司 具漫画图像分割功能的电子装置及方法

Also Published As

Publication number Publication date
EP3575947A3 (en) 2019-12-11
US20190278474A1 (en) 2019-09-12
HUE046808T2 (hu) 2020-03-30
ES2769546T3 (es) 2020-06-26
EP2959458A4 (en) 2016-12-28
EP2959458B1 (en) 2019-10-30
EP3575947B1 (en) 2022-06-22
US20200363946A1 (en) 2020-11-19
WO2014127494A1 (en) 2014-08-28
CN105074780B (zh) 2020-11-10
JP2016515236A (ja) 2016-05-26
CN105074780A (zh) 2015-11-18
EP2959458A1 (en) 2015-12-30
US10379734B2 (en) 2019-08-13
US20160011769A1 (en) 2016-01-14
US11526272B2 (en) 2022-12-13
KR20150121069A (ko) 2015-10-28
EP3575947A2 (en) 2019-12-04
JP6328669B2 (ja) 2018-05-23
US10761721B2 (en) 2020-09-01
CN112215914B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
US11526272B2 (en) Systems and methods for interactive image caricaturing by an electronic device
US10074217B2 (en) Position identification method and system
JP6089722B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2021120834A1 (zh) 基于生物识别的手势识别方法、装置、计算机设备及介质
US20150029180A1 (en) Information processing device, position designation method and storage medium
US9645735B2 (en) Information processing device and information processing method
US20160292900A1 (en) Image group processing and visualization
CN109101172B (zh) 多屏联动系统及其互动显示方法
JP2017182302A (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
WO2021097600A1 (zh) 一种隔空交互方法、装置和设备
KR100907104B1 (ko) 포인팅 지점 산출 방법 및 장치, 그리고 상기 장치를포함하는 원격 협업 시스템
JP2014029656A (ja) 画像処理装置および画像処理方法
WO2020223940A1 (zh) 姿势预测方法、计算机设备和存储介质
US20150138077A1 (en) Display system and display controll device
CN103529999B (zh) 一种触摸屏的检测方法
CN113112617B (zh) 一种三维图像的处理方法、装置,电子设备及存储介质
US20150123900A1 (en) Method and device for moving cursor of television
JP2020126358A (ja) 計測方法、計測装置、およびプログラム
CN104238734A (zh) 三维交互系统及其交互感测方法
CN109816723A (zh) 投影控制方法、装置、投影交互系统及存储介质
CN111179174B (zh) 一种基于人脸识别点的图像拉伸方法和装置
KR101285111B1 (ko) 2차원 영상을 3차원 영상으로 변환하는 영상 변환 장치 및 방법
US20230206566A1 (en) Method of learning a target object using a virtual viewpoint camera and a method of augmenting a virtual model on a real object implementing the target object using the same
WO2020124562A1 (zh) 图像处理方法、显示设备及计算机可读存储介质
CN114089878A (zh) 远程控制方法、终端、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant