JP6328669B2 - 電子デバイスによる対話型画像戯画化のためのシステムおよび方法 - Google Patents

電子デバイスによる対話型画像戯画化のためのシステムおよび方法 Download PDF

Info

Publication number
JP6328669B2
JP6328669B2 JP2015558318A JP2015558318A JP6328669B2 JP 6328669 B2 JP6328669 B2 JP 6328669B2 JP 2015558318 A JP2015558318 A JP 2015558318A JP 2015558318 A JP2015558318 A JP 2015558318A JP 6328669 B2 JP6328669 B2 JP 6328669B2
Authority
JP
Japan
Prior art keywords
image
caricature
gesture input
electronic device
vertex
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015558318A
Other languages
English (en)
Other versions
JP2016515236A (ja
Inventor
ゾウ、シュアン
リン、ファン
ビ、ニン
ジャン、レイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Publication of JP2016515236A publication Critical patent/JP2016515236A/ja
Application granted granted Critical
Publication of JP6328669B2 publication Critical patent/JP6328669B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Description

[0001]本開示は、一般に、電子デバイスに関する。より具体的には、本開示は、電子デバイスによる対話型画像戯画化のためのシステムおよび方法に関する。
[0002]ここ数十年に、電子デバイスの使用は、一般的になっている。特に、電子技術の進歩が、ますます複雑な役立つ電子デバイスの費用を低減してきた。費用低減と消費者需要が、電子デバイスの使用を急増させて、電子デバイスは、現代社会において事実上、どこにでもあるようになっている。電子デバイスの使用が拡大するにつれ、電子デバイスの新たな、向上したフィーチャの需要も拡大している。より具体的には、新たな機能を実行する電子デバイス、および/または機能を、より高速に、より効率的に、またはより高い品質で実行する電子デバイスが、しばしば、求められている。
[0003]一部の電子デバイス(たとえば、セルラー電話、スマートフォン、デジタルカメラ、カムコーダ、コンピュータなど)は、ピクチャまたは画像をキャプチャし、編集する。たとえば、スマートフォンは、組み込まれた画像感知デバイスで画像をキャプチャすることが可能である。
[0004]ピクチャまたは画像をキャプチャし、編集することは、有益であり得るが、そのようなプロセスは、しばしば、時間がかかり、面倒である。この説明から察することができるように、画像編集の新たなフィーチャ、および/または向上したフィーチャを追加するシステムおよび方法が、有益であり得る。
[0005]対話型画像戯画化のためのシステムおよび方法が実施され得る電子デバイスの一構成を示すブロック図。 [0006]電子デバイスによる対話型画像戯画化のための方法の一構成を示す流れ図。 [0007]顔画像、および本明細書で開示されるシステムおよび方法を使用して生成され得る戯画画像の例を示す図。 [0008]本明細書で開示されるシステムおよび方法を使用して生成され得るメッシュベースのモデルの例を示す図。 [0009]対話型画像戯画化のためのシステムおよび方法が実施され得る電子デバイスのより具体的な構成を示すブロック図。 [0010]電子デバイスによる対話型画像戯画化のための方法のより具体的な構成を示す流れ図。 [0011]電子デバイスによって入力されたジェスチャを検証するための方法の一構成を示す流れ図。 [0012]垂直ピンチオープンジェスチャ入力の例を示す図。 [0013]垂直ピンチクローズジェスチャ入力の例を示す図。 [0014]水平ピンチオープンジェスチャ入力の例を示す図。 [0015]水平ピンチクローズジェスチャ入力の例を示す図。 [0016]顔画像の別の例、および本明細書で開示されるシステムおよび方法を使用して生成され得る戯画画像の例を示す図。 [0017]対話型画像戯画化のためのシステムおよび方法が実施され得る電子デバイスのより具体的な構成を示すブロック図。 [0018]電子デバイスにおいて利用され得る様々な構成要素を示す図。
[0019]電子デバイスによる対話型画像戯画化のための方法が、説明される。この方法は、画像の少なくとも1つの特徴位置を検出することを含む。また、この方法は、少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成することも含む。また、この方法は、少なくとも1つのジェスチャ入力を獲得することも含む。また、この方法は、少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定することも含む。この方法は、画像メッシュ、少なくとも1つの戯画化アクション、および画像に基づいて、戯画化画像を生成することをさらに含む。
[0020]画像は、顔画像であり得る。画像メッシュの頂点が、少なくとも1つの特徴位置に対応することが可能である。少なくとも1つのジェスチャ入力は、タッチ入力を含み得る。この方法は、画像と戯画画像のうちの少なくとも1つを表示することを含み得る。戯画画像を生成することは、画像に少なくとも1つの戯画化アクションを適用することを含み得る。
[0021]少なくとも1つのキャラクタアクションが、画像メッシュの少なくとも1つの頂点に関するシフト情報をもたらすことが可能である。また、少なくとも1つのキャラクタアクションは、シフト情報に基づいて、画像頂点ピクセルを、対応する戯画画像頂点ピクセルにマッピングするピクセルマップをもたらすことも可能である。戯画画像を生成することは、ピクセルマップに基づいて、戯画画像の中の他のピクセルの位置を補間することを含み得る。
[0022]この方法は、少なくとも1つのジェスチャ入力を検証することを含み得る。少なくとも1つのジェスチャ入力を検証することは、ジェスチャ入力の動きが、動きしきい値より大きいかどうかを決定することを含み得る。
[0023]少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を含み得る。この方法は、それらのジェスチャ入力の互いに対する動きを決定することを含み得る。この方法は、それらのジェスチャ入力が水平にそろっていることを決定することを含み得る。この方法は、それらのジェスチャ入力が垂直にそろっていることを決定することを含み得る。
[0024]この方法は、戯画化アクションリストを保持することを含み得る。この方法は、戯画化アクションリストに少なくとも1つの戯画化アクションを追加することを含み得る。
[0025]対話型画像戯画化のための電子デバイスが、説明される。この電子デバイスは、画像の少なくとも1つの特徴位置を検出する特徴位置検出回路を含む。また、この電子デバイスは、特徴位置検出回路に結合された画像メッシュ生成回路も含む。画像メッシュ生成回路は、少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成する。この電子デバイスは、少なくとも1つのジェスチャ入力を獲得する検知回路も含む。また、この電子デバイスは、感知回路に結合された戯画化アクション決定回路も含む。戯画化アクション決定回路は、少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定する。この電子デバイスは、画像メッシュ生成回路および戯画化アクション決定回路に結合された戯画画像生成回路をさらに含む。戯画画像生成回路は、画像メッシュ、少なくとも1つの戯画化アクション、および画像に基づいて、戯画画像を生成する。
[0026]対話型画像戯画化のためのコンピュータプログラム製品が、説明される。このコンピュータプログラム製品は、命令を有する非一時的な有形のコンピュータ可読媒体を含む。命令は、電子デバイスに画像の少なくとも1つの特徴位置を検出させるためのコードを含む。また、命令は、電子デバイスに、少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成させるためのコードも含む。また、命令は、電子デバイスに少なくとも1つのジェスチャ入力を獲得させるためのコードも含む。また、命令は、電子デバイスに、少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定させるためのコードも含む。命令は、電子デバイスに、画像メッシュ、少なくとも1つの戯画化アクション、および画像に基づいて、戯画画像を生成させるためのコードをさらに含む。
[0027]対話型画像戯画化のための装置が、説明される。この装置は、画像の少なくとも1つの特徴位置を検出するための手段を含む。また、この装置は、少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成するための手段も含む。また、この装置は、少なくとも1つのジェスチャ入力を獲得するための手段も含む。また、この装置は、少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定するための手段も含む。この装置は、画像メッシュ、少なくとも1つの戯画化アクション、および画像に基づいて、戯画画像を生成するための手段をさらに含む。
[0028]本明細書で開示されるシステムおよび方法のいくつかの構成は、対話型画像(たとえば、顔)戯画化をもたらす。顔戯画化は、通常の顔画像からの誇張された顔構成要素を有する顔画像を生成する1つまたは複数の手順を表すことが可能である。以前には、このことは、アーティストによって手作業で行われていたが、今日では、コンピュータベースの自動顔戯画化が利用可能になっている。
[0029]コンピュータベースの顔戯画化の一方法は、以下のステップを包含し得る。第1に、入力画像の中の顔特徴位置を検出する。これらの特徴は、目の端、鼻孔、口の端、顎先、および他の顔輪郭点を含み得る。第2に、特徴位置ごとに、入力画像のこの特徴位置と、平均的な顔における対応する特徴位置との間の距離を拡大すること、または縮小することによって、戯画化される顔に関する新たな位置を計算する。第3に、入力画像の中の顔のテクスチャを歪めて戯画化された顔にするテクスチャワーピング技法を適用する。テクスチャワーピングは、入力画像の中の各顔特徴位置を、戯画化された顔の中の対応する顔特徴位置にマップする変換に基づくことが可能である。
[0030]しかし、戯画化のユーザによって所望されるスタイル(たとえば、拡大された目および縮小された鼻を有する特定のスタイル)を実現するユーザ対話が、コンピュータ顔戯画化に追加されることが可能である。本明細書で開示されるシステムおよび方法は、対話型顔戯画化を実現し、タッチスクリーンを有するモバイルデバイスに適用されることが可能である。タッチスクリーン上の様々な指ジェスチャが、メッシュベースの顔戯画化モデルに対する様々な戯画化アクションとして解釈されることが可能であり、したがって、ユーザは、タッチスクリーン上で単純な指の動きを用いることによって、興味深い戯画化を容易に生成することができる。図3は、本明細書で開示されるシステムおよび方法に基づく戯画化の例を与える。特に、図3は、左側に元の顔画像を示し、残りの画像において3つの戯画化効果を示す。
[0031]本明細書で開示されるシステムおよび方法による対話型顔戯画化の1つの応用シナリオにおいて、顔画像が、タッチスクリーン上に表示されることが可能であり、ユーザが、タッチスクリーン上でユーザの指を用いて、所望される戯画化アクションを顔画像に追加することが可能である。各アクションの後、表示される戯画化された顔画像は、元の顔画像に順次に適用されたそれまでの戯画化アクションの結果であり得る。
[0032]次に、様々な構成が、図を参照して説明され、図では、同様の参照符号は、機能的に類似した要素を示し得る。全般的に説明され、本明細書の図に示されるシステムおよび方法は、多種多様な異なる構成で構成され、設計されることが可能である。このため、図に表される、いくつかの構成の後段のより詳細な説明は、主張される範囲を限定することを意図しているのではなく、システムおよび方法を単に代表するにすぎない。
[0033]図1は、対話型画像戯画化のための電子デバイス102の一構成を示すブロック図である。本明細書で使用される「戯画化」という用語は、画像104の操作を指すことが可能である。画像戯画化は、画像の1つまたは複数のピクセルを操作することが可能である。たとえば、画像戯画化は、ピクセルのおよその位置を変えることを含み得る。たとえば、画像戯画化は、画像104において、あるピクセルの、他のピクセルに対する位置を変えることを含み得る。また、戯画化は、新たなピクセルを補間することも含み得る。
[0034]電子デバイス102の例には、スマートフォン、セルラー電話、デジタルカメラ、デスクトップコンピュータ、ラップトップコンピュータ、タブレット、携帯情報端末(PDA)、モバイルデバイスなどが含まれる。電子デバイス102は、特徴位置検出ブロック/モジュール106、画像メッシュ生成ブロック/モジュール110、戯画化アクション決定ブロック/モジュール116、および戯画画像生成ブロック/モジュール120のうちの1つまたは複数を含み得る。本明細書で使用される「ブロック/モジュール」という用語は、特定の要素が、ハードウェア(たとえば、回路)で、ソフトウェアで、またはハードウェアとソフトウェアの組合せで実装され得ることを示すのに使用され得る。たとえば、戯画化アクション決定ブロック/モジュール116が、ハードウェア(たとえば、回路)で、ソフトウェアで、またはハードウェアとソフトウェアの組合せで実装され得る。
[0035]電子デバイス102が、画像104を獲得することが可能である。いくつかの実施例において、画像104は、顔画像104であり得る。さらに、または代替として、画像104は、それまでに生成された戯画画像122であってもよい。電子デバイス102は、画像104をキャプチャする画像感知デバイス(図示せず)を含む(またはそのようなデバイスに結合される)ことが可能である。画像感知デバイスは、画像センサを含み得る。画像感知デバイスの例には、カメラおよびスキャナが含まれ得る。たとえば、スマートフォン(たとえば、電子デバイス102)が、顔画像104をキャプチャするカメラ(たとえば、画像感知デバイス)を含み得る。
[0036]別の例において、電子デバイス102が、別のデバイスから画像104を受け取ることが可能である。たとえば、電子デバイス102が、ネットワーク(たとえば、ローカルエリアネットワーク(LAN)、インターネット、セルラーネットワークなど)を介して、または直接リンク(たとえば、ユニバーサルシリアルバス(USB)ケーブル、Bluetooth(登録商標)ワイヤレスリンクなど)経由で別のデバイスから画像104を受け取ることが可能である。
[0037]画像104(たとえば、顔画像)が、特徴位置検出ブロック/モジュール106および戯画画像生成ブロック/モジュール120に供給され得る。特徴位置検出ブロック/モジュール106を介して、電子デバイス102が、画像104の少なくとも1つの特徴位置108を検出することが可能である。特徴位置108とは、画像104の特異な特徴の位置を指すことが可能である。たとえば、顔画像104が、顔の輪郭、目の端、鼻の先端部、鼻の端、鼻孔、口の端、額、顎先、耳、頬などの特徴を含み得る。特徴位置108とは、特徴を構成するピクセルの位置を指すことが可能である。本明細書で使用されるピクセルの位置とは、画像を構成するピクセルの座標(たとえば、x,y座標系における)を指すことが可能である。特徴位置決定ブロック/モジュール106は、1つまたは複数のアルゴリズムに基づいて、特徴位置108を決定することが可能である。たとえば、特徴位置決定ブロック/モジュール106は、1つまたは複数のピクセル(たとえば、ピクセルの色)を解析して、画像104の特徴がどこに位置しているかを決定することが可能である。
[0038]特徴位置108(たとえば、顔特徴位置)が、イメージメッシュ生成ブロック/モジュール110に供給され得る。イメージメッシュ生成ブロック/モジュール110が、イメージメッシュ112を生成することが可能である。画像メッシュ112は、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを含み得る。それらの線は、1つまたは複数の頂点で交差し得る。つまり、画像メッシュ112は、水平線と垂直線の交点をそれぞれが示す頂点のグリッドを含み得る。
[0039]いくつかの実施例において、画像メッシュ112は、少なくとも1つの特徴位置108に基づくことが可能である。たとえば、画像メッシュ112の頂点のうちのいくつかが、異なる特徴位置108に対応することが可能である。たとえば、顔画像104に関して、画像メッシュ112が、複数の顔特徴位置108(たとえば、目の端、鼻の端、口の端など)に対応する複数の頂点を含み得る。つまり、頂点は、顔特徴を構成する画像104のピクセルに対応することが可能である。さらに、この例において、特徴のうちの1つまたは複数が、画像メッシュ112の同一の線に対応することが可能である。たとえば、少なくとも図4に関連して後段で説明されるとおり、目の端が、画像メッシュ112の同一の水平線に対応することが可能である。いくつかの実施例において、頂点のすべてが特徴位置とそろうとは限らない可能性があることに留意されたい。
[0040]後段で説明されるとおり、頂点が、ジェスチャ入力114に基づいて移動されるにつれ、対応する特徴(たとえば、それらの特徴を構成するピクセル)が、同様に移動され得る。たとえば、画像メッシュ112の水平線が上方に移動された場合、この水平線上の頂点に対応する特徴(たとえば、目の端)も上方に移動することが可能である。
[0041]電子デバイス102が、ジェスチャ入力114を獲得することが可能である。本明細書で使用されるジェスチャ入力114とは、電子デバイス102によって入力されたものとして受け取られた動きを指すことが可能である。たとえば、ある物体(たとえば、指またはスタイラス)が、開始点から垂直方向で移動することが可能である。このことが、ジェスチャ入力114として電子デバイス102によって受け取られることが可能である。いくつかの実施例において、ジェスチャ入力114は、タッチ入力である。たとえば、スマートフォン(たとえば、電子デバイス102)は、タッチスクリーンを含み(またはタッチスクリーンに結合され)得る。この例において、ユーザが、開始点でタッチスクリーンに物体(たとえば、指またはスタイラス)を接触させることが可能であり、タッチスクリーンとの接触を保ちながら、その物体を垂直方向に移動させることが可能である。同様に、タッチスクリーンは、水平ジェスチャ入力114を検出することも可能である。
[0042]いくつかの実施例において、ジェスチャ入力114は、タッチ入力でない可能性がある。たとえば、電子デバイス102が、動きを検出する動き感知デバイス(たとえば、カメラ)を含み得る。この例において、動き感知デバイスは、電子デバイス102と接触していない物体(たとえば、指またはスタイラス)の動きを検出することが可能である。たとえば、電子デバイス102と接触していない物体が、垂直方向に移動することが可能である。電子デバイス102は、カメラ(たとえば、動き感知デバイス)を介して、ジェスチャ入力114を検出することが可能である。
[0043]いくつかの実施例において、ジェスチャ入力114は、複数のジェスチャ入力114を含み得る。たとえば、電子デバイス102が、(たとえば、タッチスクリーンを介して)2つのジェスチャ入力114(ユーザの2本の指を介する)を検出することが可能である。たとえば、電子デバイス102が、垂直ピンチクローズジェスチャ入力114を検出することが可能である。垂直ピンチクローズジェスチャ入力114は、互いに向かって移動する2つの垂直ジェスチャ入力114を含み得る。これに対して、電子デバイス102は、互いに遠ざかるように移動する2つの垂直ジェスチャ入力114を含み得る垂直ピンチオープンジェスチャ入力114を検出することが可能である。同様に、電子デバイス102は、水平ピンチオープンジェスチャ入力114(たとえば、互いに遠ざかるように移動する水平ジェスチャ入力114)または水平ピンチクローズジェスチャ入力114(たとえば、互いに向かって移動する2つの水平ジェスチャ入力114)を検出することが可能である。
[0044]ジェスチャ入力114が、戯画化アクション118を決定することが可能な戯画化アクション決定ブロック/モジュール116に供給され得る。戯画化アクション118は、戯画画像122を生成するのにどのように画像104が操作され得るかに関する情報を含み得る。たとえば、戯画化アクション118は、戯画画像122を生成するのに画像メッシュ112の頂点がどのように移動され得るかを示す情報を含み得る。いくつかの実施例において、その情報は、画像メッシュ112の頂点が、画像104と戯画画像122の間でどのように移動するかを示すマッピングを含み得る。
[0045]いくつかの実施例において、戯画化アクション118は、ジェスチャ入力114に基づき得る。たとえば、電子デバイス102が、垂直ピンチオープンジェスチャ入力114を獲得した場合、戯画化アクション118は、1つまたは複数の頂点が互いさらに遠ざかるように移動され得ることを示す情報を含み得る。ジェスチャ入力114に基づく頂点の移動に関するさらなる詳細が、図8〜図11のうちの少なくとも1つに関連して与えられる。図8〜図11のうちの少なくとも1つに関連して説明されるとおり、いずれの頂点が移動するか、およびどれだけ頂点が移動するかは、頂点の位置、およびジェスチャ入力114の開始点からの頂点の距離に基づき得る。
[0046]戯画化アクション118は、ジェスチャ入力114に先立つ(たとえば、元の画像104の)頂点とジェスチャ入力114の後(たとえば、戯画画像122)の頂点の間のマッピングをもたらし得る。たとえば、戯画アクション118は、元の画像104における第1の頂点の位置と戯画画像122における同一の第1の頂点の位置の間のマッピングをもたらし得る。第1の頂点の位置(たとえば、x,y座標)は、画像104と戯画画像122の間で変わり得ることに留意されたい。
[0047]いくつかの実施例において、戯画化アクション118が、画像104の非頂点ピクセル(たとえば、画像メッシュ112の頂点に対応しないピクセル)の補間をもたらすことが可能である。たとえば、画像メッシュ112頂点のマッピングに基づいて、電子デバイス102が、画像104におけるその他のピクセルの移動を補間することが可能である。この補間に基づいて、電子デバイス102は、マッピングに基づき、画像におけるピクセルにテクスチャワーピングを適用することが可能である。
[0048]画像メッシュ112、戯画化アクション118、および画像104が、戯画画像生成ブロック/モジュール120に供給され得る。戯画画像生成ブロック/モジュール120は、画像メッシュ112、戯画化アクション118、および画像104に基づいて、戯画画像122を生成することが可能である。戯画画像122とは、操作されている画像104のバージョンを指すことが可能である。たとえば、画像104のピクセルのうちの1つまたは複数が、戯画画像122を生成するように、異なるように位置付けられることが可能である。戯画画像生成ブロック/モジュール120は、画像メッシュ112および画像104に戯画化アクション118を適用することによって戯画画像122を生成することが可能である。たとえば、図8〜図11により詳細に説明されるとおり、戯画化アクション118が、第1の頂点が第2の頂点から遠ざかるように移動されるべきことを示す情報を包含する場合、戯画画像生成ブロック/モジュール120は、画像メッシュ112の第1の頂点、および第1の頂点に対応する画像104の特徴を、画像メッシュ112の第2の頂点に対応する画像104の特徴から遠ざかるように移動させることが可能である。同様に、戯画画像生成ブロック/モジュール120は、戯画アクション118に示される非頂点ピクセルマッピングに従って画像104の非頂点ピクセルを操作することが可能である。前述したとおり、非頂点ピクセルマッピングは、画像メッシュ112の頂点のマッピングの補間によって生成されることが可能であり、テクスチャワーピングが、ピクセルに適用されることが可能である。
[0049]図2は、電子デバイス102による対話型画像戯画化のための方法200の一構成を示す流れ図である。電子デバイス102が、画像104の少なくとも1つの特徴位置108を検出する202ことが可能である。たとえば、たとえば、電子デバイス102が、顔画像104の少なくとも1つの顔特徴位置108を検出する202ことが可能である。顔特徴の例には、目の端、鼻の先端部、鼻の端、口の端、額、顎先、耳、頬などが含まれる。電子デバイス102は、画像104における特徴位置108を決定するのに1つまたは複数のアプローチを利用することが可能である。たとえば、電子デバイス102は、顔画像104の顔輪郭もしくは顔境界(たとえば、上、両側、下、または顎先など)、目、鼻(たとえば、鼻孔)、口、額などのピクセル位置を決定することが可能である。
[0050]いくつかの実施例において、画像104は、電子デバイス102に結合された画像感知デバイス(たとえば、カメラまたはスキャナ)によって検出された画像であり得る。他の実施例において、画像104は、別のデバイス(たとえば、インターネットサーバ、別の電子デバイスなど)によって受け取られた画像であり得る。
[0051]いくつかの実施例において、画像104は、それまでに生成されている戯画画像であり得る。たとえば、方法200の先行するサイクルで、戯画画像が、前の(または既存の)戯画化アクションおよび前の画像に基づいて生成されていることが可能である。この例において、方法200は、それまでに生成された戯画画像に対して画像戯画化を実行することを含み得る。
[0052]電子デバイス102は、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを含む画像メッシュ112を生成する204ことが可能である。いくつかの実施例において、各線は、インデックスに対応することが可能である。たとえば、第1の水平線が、第1の水平インデックス(たとえば、H0)を有することが可能であり、第2の水平線が、第2の水平インデックス(たとえば、H1)を有することが可能である。同様に、第1の垂直線が、第1の垂直インデックス(たとえば、V0)を有することが可能であり、第2の垂直線が、第2の垂直インデックス(たとえば、V1)を有することが可能である。水平線と垂直線の交点が、画像メッシュ112の頂点をもたらし得る。画像メッシュ112の各頂点は、その頂点の水平線インデックス(たとえば、H0,H1,...,H6)とその頂点の垂直線インデックス(たとえば、V0,V1,...,V7)によって座標形式で指定され得る。たとえば、第1の水平線(たとえば、H0)と第1の垂直線(たとえば、V0)の交点における第1の頂点が、座標(H0,V0)によって指定され得る。画像座標系X−O−Y(たとえば、x,y座標系)における頂点座標によって示される、画像メッシュ112上の各頂点の実際の位置は、戯画化アクション118の後に変わり得ることに留意されたい。
[0053]いくつかの実施例において、電子デバイス102が、少なくとも1つの特徴位置108に基づいて、画像メッシュ112を生成する204ことが可能である。たとえば、電子デバイス102が、少なくとも1つの頂点(たとえば、水平線と垂直線の交点)が特徴位置108に対応する画像メッシュ112を生成する204ことが可能である。たとえば、電子デバイス102が、頂点が、目の端、口の端、鼻の端などのうちの1つまたは複数に対応し得る画像メッシュ112を生成する204ことが可能である。いくつかの事例において、1つまたは複数の特徴(および対応する頂点)が同一の水平線に当たる可能性があることに留意されたい。たとえば、目の端が、同一の水平線に対応する画像メッシュ112の頂点に対応することが可能である。
[0054]電子デバイス102は、少なくとも1つのジェスチャ入力114を獲得する206ことが可能である。前述したとおり、いくつかの実施例において、ジェスチャ入力114は、タッチ入力であり得る。これらの実施例において、電子デバイス102は、タッチ入力を検出するタッチスクリーンを含み(またはタッチスクリーンに結合され)得る。他の実施例において、電子デバイスは、電子デバイス102に結合された動き感知デバイスを介してジェスチャ入力114を獲得する206ことが可能である。この例において、電子デバイス102は、電子デバイス102との物理的接触なしに、ジェスチャ入力114を獲得する206ことが可能である。いくつかの実施例において、少なくとも1つのジェスチャ入力114を獲得する206ことは、ジェスチャ入力114の方向を決定することを含み得る。たとえば、タッチスクリーンが、垂直のジェスチャ入力114を検出することが可能である。同様に、タッチスクリーンが、水平のジェスチャ入力114を検出することが可能である。
[0055]いくつかの実施例において、電子デバイス102が、複数のジェスチャ入力114を獲得する206ことが可能である。たとえば、電子デバイス102に結合されたタッチスクリーンが、複数の物体(たとえば、2本の指)からタッチ入力を同時に受け取ることが可能である。この例において、タッチスクリーンは、ジェスチャ入力114の相対的な動きを検出することも可能である。たとえば、タッチスクリーンは、それらのジェスチャ入力114がより近づくように動いているか、より遠ざかるように動いているかを検出することが可能である。
[0056]タッチスクリーンは、ジェスチャ入力114がそろっているかどうかを検出することが可能である。たとえば、タッチスクリーンは、ジェスチャ入力114の開始点が、水平にそろっているか、または垂直にそろっているかを検出することが可能である。いくつかの実施例において、そろっていることは、ジェスチャ入力114の開始点が、実質的に、同一の線(たとえば、水平にそろったジェスチャ入力114に関して同一の水平線、および垂直にそろったジェスチャ入力114に関して同一の垂直線)に当たることを示し得る。他の実施例において、ジェスチャ入力114がそろっているかどうかを決定することは、ジェスチャ入力114が互いにあるしきい値角度内にあるかどうかを決定することを含み得る。さらに他の実施例において、そろっていることは、ジェスチャ入力114の開始点が画像メッシュ112の線からあるしきい値距離未満しか離れていないことを意味することが可能である。
[0057]電子デバイス102は、少なくとも1つのジェスチャ入力114に基づいて、少なくとも1つの戯画化アクション118を決定する208ことが可能である。戯画化アクション118は、画像メッシュ112の少なくとも1つの頂点に関するシフト情報をもたらすことが可能である。シフト情報は、戯画画像122を生成するのに画像104の特徴位置108(および画像メッシュ112頂点)がどのように操作され得るかを示すことが可能である。たとえば、電子デバイス102が、垂直方向で互いにより遠ざかるように動いている2つのジェスチャ入力114(たとえば、垂直ピンチオープンジェスチャ入力114)を獲得した206場合、戯画化アクション118は、1つまたは複数の頂点もまた、互いにより遠ざかるように動かされていることが可能であることを示す情報を含み得る。いくつかの実施例において、頂点が移動する距離は、ジェスチャ入力114の移動と等しくても、異なっていてもよいことに留意されたい。ジェスチャ入力114に基づく頂点の移動に関するさらなる詳細が、後段で図8〜図11に関連して与えられる。この例において、戯画化アクション118は、シフト情報に基づいて、画像頂点ピクセルを、その画像頂点ピクセルに対応する戯画画像頂点ピクセルにマッピングする頂点ピクセルマップをもたらすことが可能である。ピクセルマップは、ジェスチャ入力114に基づいて、特定のピクセルがどのように移動され得るかを示すことが可能である。
[0058]電子デバイス102が、画像メッシュ112、少なくとも1つの戯画化アクション118、および画像104(またはそれまでに生成された戯画画像)に基づいて、戯画画像122を生成する210ことが可能である。いくつかの実施例において、戯画画像122を生成すること210は、画像104(またはそれまでに生成された戯画画像)に少なくとも1つの戯画化アクション118を適用することを含み得る。たとえば、前述したとおり、少なくとも1つの戯画化アクション118が、ジェスチャ入力114より前の画像104(またはそれまでに生成された戯画画像)における少なくとも1つの頂点の、ジェスチャ入力114後の戯画画像122における対応する頂点に対するマッピングを含み得る。この例において、電子デバイス102は、そのマッピングを適応し、画像104(またはそれまでに生成された戯画画像)の対応する特徴位置108、および/またはメッシュ画像112の頂点を移動することが可能である。
[0059]また、戯画画像112を生成すること210は、画像メッシュ112の頂点に関連しない1つまたは複数のピクセルを操作することを含むことも可能である。たとえば、戯画化アクション118が、戯画画像122における他のピクセル(たとえば、頂点に対応しないピクセル)の位置の補間を含むことが可能である。この例において、電子デバイス102は、ピクセルマップに基づいて、他のピクセルの位置を補間し、それらのピクセルに対してテクスチャワーピングを実行することが可能である。
[0060]図3は、顔画像304、および本明細書で開示されるシステムおよび方法を使用して生成され得る戯画画像322a〜cの例を示す。前述したとおり、電子デバイス102が、電子デバイス102に結合された画像感知デバイス(たとえば、カメラまたはスキャナ)を介して顔画像304を受け取ることが可能である。いくつかの実施例において、複数の戯画画像322a〜cが、生成され得る。たとえば、第1の戯画画像322aが、第1のセットの戯画化アクション118、および顔画像304に基づいて、生成され得る。この例において、第1のセットのジェスチャ入力114が、本明細書で説明されるとおり、第1のセットの戯画化アクション118を示すことが可能である。この例において、電子デバイス102が、顔画像304に適用されている戯画化アクションを含む戯画化アクションリストを保持することが可能である。たとえば、戯画化アクションリストは、第1のセットの戯画化アクション118を含み得る。
[0061]いくつかの例において、第2の戯画画像322bが、第2のセットの戯画化アクション118、および第1の戯画画像322aに基づいて、生成され得る。この例において、第2のセットのジェスチャ入力114が、第2のセットの戯画化アクション118を示すことが可能である。第2のセットの戯画化アクション118は、戯画化アクションリスト(たとえば、第1のセットの戯画化アクション118を含む)に追加され得る。
[0062]いくつかの例において、第3の戯画画像322cが、第3のセットの戯画化アクション118、および第2の戯画画像322bに基づいて、生成され得る。この例において、第3のセットのジェスチャ入力114が、第3のセットの戯画化アクション118を示し得る。第3のセットの戯画化アクション118は、戯画化アクションリスト(たとえば、第1のセットの戯画化アクション118と、第2のセットの戯画化アクション118とを含む)に追加され得る。各戯画画像322a〜bは、それまでの戯画化アクション118の結果であり得ることに留意されたい。たとえば、第3の戯画画像322cは、第1のセット、第2のセット、および第3のセットの戯画化アクション118が顔画像304に適用された結果であり得る。
[0063]図4は、対話型画像戯画化のためのシステムおよび方法が実施され得るメッシュベースのモデルの例を示す。いくつかの実施例において、メッシュベースのモデルは、画像404の上に重ね合わされた画像メッシュ412を含み得る。画像メッシュ412および画像404は、図1に関連して説明される対応する要素の例であり得る。前述したとおり、画像メッシュ412は、特徴位置108に対応する頂点428を含み得る。たとえば、頂点A、B、C、およびD 428a〜dが、目の端特徴位置108に対応することが可能である。頂点EおよびF 428e〜fが、鼻の端特徴位置108に対応することが可能である。頂点GおよびH 428g〜hが、口の端特徴位置108に対応することが可能である。
[0064]前述したとおり、画像メッシュ412が、少なくとも1つの水平線424と、少なくとも1つの垂直線426とを含み得る。各水平線424および各垂直線426は、線インデックスで識別され得る。たとえば、第1の水平線424aが、H0という水平線インデックスを有することが可能である。同様に、その他の水平線424b〜gが、対応する水平線インデックスH1〜H6を有することが可能である。また、各水平線424が、1つまたは複数の特徴位置108を含むことも可能である。たとえば、上から下に、第1の水平線(たとえば、H0)424aが、一番上の画像境界線であることが可能であり、第2の水平線(たとえば、H1)424bが、額によって規定されることが可能であり、第3の水平線(たとえば、H2)424cが、2つの目を通ることが可能であり、第4の水平線(たとえば、H3)424dが、鼻孔を通ることが可能であり、第5の水平線(たとえば、H4)424eが、口によって規定されることが可能であり、第6の水平線(たとえば、H5)424fが、顎先によって規定されることが可能であり、最後の水平線(たとえば、H6)424gが、一番下の画像境界線であることが可能である。
[0065]同様に、各垂直線426a〜hが、垂直線インデックスV0〜V7を有することが可能であり、1つまたは複数の特徴位置を含むことも可能である。たとえば、左から右に、第1の垂直線(たとえば、V0)426aが、左の画像境界線であることが可能であり、第2の垂直線(たとえば、V1)426bが、最も左の顔輪郭点によって規定されることが可能であり、第3の垂直線(たとえば、V2)426cが、左目の外側の端によって規定されることが可能であり、第4の垂直線(たとえば、V3)426dが、左目の内側の端によって規定されることが可能であり、第5の垂直線(たとえば、V4)426eが、右目の内側の端によって規定されることが可能であり、第6の垂直線(たとえば、V5)426fが、右目の外側の端によって規定されることが可能であり、第7の垂直線(たとえば、V6)426gが、最も右の顔輪郭点によって規定されることが可能であり、最後の垂直線(たとえば、V7)426hが、右の画像境界線によって規定されることが可能である。
[0066]画像メッシュ412上の各頂点は、その頂点の水平線インデックス(たとえば、H0,H1,...,H6)およびその頂点の垂直線インデックス(たとえば、V0,V1,...,V7)によって指定され得る。たとえば、頂点A 428a(たとえば、左目の外側の端の特徴位置108に対応する)が、Vert(H2,V2)であることが可能である。画像座標系X−O−Y(たとえば、x,y座標系)における頂点座標によって示される、画像404上の各頂点の位置は、戯画化アクション118の後、変わり得ることに留意されたい。
[0067]図5は、対話型画像戯画化のためのシステムおよび方法が実施され得る電子デバイス502のより具体的な構成を示すブロック図である。電子デバイス502は、図1に関連して説明される電子デバイス102の例であり得る。電子デバイス502は、図1に関連して説明される対応する要素の例であり得る、特徴位置検出ブロック/モジュール506、画像メッシュ生成ブロック/モジュール510、戯画化アクション決定ブロック/モジュール516、および戯画画像生成ブロック/モジュール520のうちの1つまたは複数を含み得る。いくつかの実施例において、電子デバイス502は、図1に関連して説明される対応する要素の例であり得る、画像504、1つまたは複数の特徴位置508、画像メッシュ512、ジェスチャ入力514、戯画化アクション518、および戯画画像522を渡すことが可能である。
[0068]いくつかの実施例において、電子デバイス502が、画像504、戯画画像522、および画像メッシュ512のうちの少なくとも1つを表示するディスプレイ536を含む(またはディスプレイ536に結合される)ことが可能である。別の例において、電子デバイス502が、プロジェクタに結合されることが可能であり、画像504、画像メッシュ512、および/または戯画画像522を投影することが可能である。いくつかの実施例において、ディスプレイ536は、図4に示されるメッシュベースのモデルとして顔画像504に加えて表示され得る画像メッシュ512を提示することが可能である。図13に関連して説明されるとおり、画像メッシュ512は、歪められた画像メッシュとして戯画画像522に加えて表示されることも可能である。
[0069]また、電子デバイス502は、ジェスチャ入力514が有効であるかどうかを決定するジェスチャ入力検証ブロック/モジュール530を含むことも可能である。たとえば、タッチスクリーン上の指ジェスチャが、検出されて、それらのジェスチャが有効なジェスチャ入力514であるかどうかを決定するように確認され得る。有効なジェスチャ入力514は、電子デバイス502によって認識されるジェスチャ入力514であり得る。たとえば、有効なジェスチャ入力514は、戯画化アクション518が決定され得るジェスチャ入力であり得る。有効なジェスチャ入力514の例には、水平方向または垂直方向のピンチオープンジェスチャ入力およびピンチクローズジェスチャ入力が含まれるが、以上には限定されない。
[0070]いくつかの実施例において、ジェスチャ入力検証ブロック/モジュール530は、互いに対するジェスチャ入力514の動きが動きしきい値より大きい場合、ジェスチャ入力514が有効であると決定することが可能である。たとえば、2本の指が、動きしきい値(たとえば、30ピクセル)を超える距離で互いに近づくように、または遠ざかるように水平に、または垂直に動くと、電子デバイス502は、ジェスチャ入力514が有効であると決定することが可能である。
[0071]また、ジェスチャ入力514を検証することは、ジェスチャ入力514がそろっているかどうかを決定することを含むことも可能である。水平ジェスチャ入力514は、そのジェスチャ入力514の開始点が、実質的に、画像メッシュ512の同一の水平線上に当たる場合、水平にそろっていることが可能である。同様に、垂直ジェスチャ入力514は、そのジェスチャ入力514の開始点が、実質的に、画像メッシュ512の同一の垂直線上に当たる場合、垂直にそろっていることが可能である。いくつかの実施例において、電子デバイス502は、そろっていないジェスチャ入力514が、有効なジェスチャ入力514ではないと決定することが可能である。これに対して、電子デバイス502は、そろっているジェスチャ入力514が、有効なジェスチャ入力514であると決定することが可能である。ジェスチャ入力514が検証されると、検証されたジェスチャ入力532は、戯画化アクション決定ブロック/モジュール516に供給されることが可能であり、ブロック/モジュール516は、図2に関連して説明されるとおり、戯画化アクション518を決定することが可能である。
[0072]いくつかの実施例において、電子デバイス502は、決定されているすべての戯画化アクション518のリストを包含する戯画化アクションリスト534を保持することが可能である。いくつかの実施例において、戯画化アクションリスト534は、たとえば、方法200のそれまでのインスタンスにおいて、画像504にそれまでに適用されている戯画化アクション518を含み得る。この例において、現在、適用されている戯画化アクション518は、戯画化アクションリスト534に追加され得る。たとえば、戯画化アクション518がジェスチャ入力514によって識別されると、電子デバイス502が、その戯画化アクション518を戯画化アクションリスト534(たとえば、画像504に適用されているそれまでの戯画化アクション518を含むことも、含まないことも可能である)に記憶させることが可能である。
[0073]図6は、電子デバイス502による対話型画像戯画化のための方法600のより具体的な構成を示す流れ図である。電子デバイス502は、画像504の少なくとも1つの特徴位置508を検出する602ことが可能である。いくつかの実施例において、このことは、図2に関連して説明されるとおり行われ得る。
[0074]いくつかの実施例において、電子デバイス502は、画像504を表示する604ことが可能である。たとえば、電子デバイス502が、画像504を提示するディスプレイ536に結合され得る。ディスプレイ536の例には、電子デバイス502のディスプレイ画面、テレビ、プロジェクタなどが含まれ得る。前述したとおり、画像504は、それまでに生成された戯画画像(たとえば、以前の、または既存の戯画化アクションに基づいて生成された)であり得る。この例において、電子デバイス502は、それまでに生成された戯画画像を表示する604ことが可能である。
[0075]電子デバイス502が、少なくとも1つの特徴位置508に基づいて、少なくとも1つの水平線424と少なくとも1つの垂直線426のグリッドを備える画像メッシュ512を生成する606ことが可能である。いくつかの実施例において、このことは、図2に関連して説明されるとおり行われ得る。いくつかの実施例において、電子デバイス502は、画像メッシュ512を表示することも可能である。たとえば、ディスプレイ536が、図4に示されるとおり、画像メッシュ512の水平線424および垂直線426を、画像504(またはそれまでに生成された戯画画像)の上に重ね合わせることが可能である。
[0076]電子デバイス502が、少なくとも1つのジェスチャ入力514を獲得する608ことが可能である。いくつかの実施例において、このことは、図2に関連して説明されるとおり行われ得る。
[0077]電子デバイス502が、ジェスチャ入力514を検証する610ことが可能である。ジェスチャ入力514を検証すること610は、電子デバイス502によってジェスチャ入力514が認識されるかどうかを決定することを含み得る。ジェスチャ入力514を検証すること610は、ジェスチャ入力514が戯画化アクション518を決定することが可能であるかどうかを決定することを含み得る。たとえば、電子デバイス502は、ジェスチャ入力514が、垂直ピンチクローズジェスチャ入力、垂直ピンチオープンジェスチャ入力、水平ピンチクローズジェスチャ入力、または水平ピンチオープンジェスチャ入力のうちの1つであるかどうかを決定することが可能である。
[0078]いくつかの実施例において、ジェスチャ入力514を検証すること610は、互いに対するジェスチャ入力514の動きが、ある動きしきい値より大きいかどうかを決定することを含み得る。たとえば、2本の指が、あるピクセル数(たとえば、30ピクセル)を超える量だけ互いに水平に、または垂直に近づくように、または遠ざかるように動くと、そのジェスチャ入力514は、有効であると決定され得る。これに対して、それらの指が、そのピクセル数を超える量だけ互いに近づくように、または遠ざかるように動いていない場合、電子デバイス502は、そのジェスチャ入力514が有効ではないと決定する610ことが可能である。
[0079]ジェスチャ入力514を検証すること610は、ジェスチャ入力514がそろっているかどうかを決定することを含むことも可能である。たとえば、そろっているジェスチャ入力514は、有効であると決定され得る。これに対して、そろっていないジェスチャ入力514は、無効であると決定され得る。ジェスチャ入力514は、垂直に、または水平にそろっていることが可能である。ジェスチャ入力514は、ジェスチャ入力514の開始点が、実質的に、画像メッシュ512の同一の線(たとえば、水平にそろっているジェスチャ入力514の場合、同一の水平線、または垂直にそろっているジェスチャ入力514の場合、同一の垂直線)上に当たる場合、そろっていることが可能である。別の実施例において、垂直にそろっているジェスチャ入力514は、互いにある角度しきい値の範囲内にあることが可能である。別の実施形態において、そろっているジェスチャ入力514は、互いにある角度しきい値の範囲内にあることが可能である。
[0080]電子デバイス502が、少なくとも1つのジェスチャ入力514に基づいて、少なくとも1つの戯画化アクション518を決定する612ことが可能である。いくつかの実施例において、このことは、図2に関連して説明されるとおり行われ得る。
[0081]電子デバイス502は、戯画化アクションリスト534を保持する614ことが可能である。いくつかの実施例において、戯画化アクションリスト534は、画像504(またはそれまでに生成された戯画画像)にそれまでに適用されたすべての戯画化アクション518のリストを包含し得る。いくつかの実施例において、戯画化アクションリスト534を保持すること614は、現在、使用されている戯画化アクション518を戯画化アクションリスト534に追加することを含み得る。たとえば、第1のセットのジェスチャ入力514に基づいて、第1の戯画化アクション518が決定され得る。この例において、電子デバイス502は、戯画化アクション518を戯画化アクションリスト534に記憶させることが可能である。同様に、第2のセットのジェスチャ入力514が、第2の戯画化アクション518を促す場合、電子デバイス502は、第2の戯画化アクション518を戯画化アクションリスト534に追加することが可能であり、リスト534は、この時点で、第1の戯画化アクション518(およびそれまでに適用された戯画化アクション518)を含み得る。
[0082]電子デバイス502は、画像メッシュ512、少なくとも1つの戯画化アクション518、および画像504(またはそれまでに生成された戯画画像)に基づいて、戯画画像522を生成する616ことが可能である。いくつかの実施例において、このことは、図2に関連して説明されるとおり行われ得る。後段で説明されるとおり、いくつかの構成において、複数の戯画化アクション518(たとえば、第1のセット、および第2のセット)が、画像504(またはそれまでに生成された戯画画像)に同時に適用され得る。たとえば、すべての戯画化アクション518によるすべての頂点(たとえば、戯画画像522における)の新たな位置が、計算されることが可能であり、次に、単一のテクスチャワーピングが、戯画画像522を生成するようにその画像504(またはそれまでに生成された戯画画像)に1回、適用されることが可能である。
[0083]いくつかの実施例において、電子デバイス502が、戯画画像522を表示する618ことが可能である。たとえば、電子デバイス502が、戯画画像522を提示するディスプレイ536を含む(またはディスプレイ536に結合される)ことが可能である。ディスプレイ536の例には、電子デバイス502のディスプレイ画面、テレビ、プロジェクタなどが含まれる。いくつかの実施例において、電子デバイス502は、画像メッシュ512を表示することも可能である。たとえば、ディスプレイ536は、図13に関連して説明されるとおり、戯画画像522の上に歪められた画像メッシュを重ね合わせる(たとえば、戯画化アクション518に基づいて)ことが可能である。戯画画像522と一緒に表示される歪められた画像メッシュは、画像504と一緒に表示される画像メッシュ512とは異なり得ることに留意されたい。たとえば、戯画画像522と一緒に表示される歪められた画像メッシュにおいて、1つまたは複数の頂点(または1つまたは複数の線)の間の間隔は、画像504と一緒に表示される画像メッシュ512における間隔より大きいことも、小さいことも可能である。
[0084]図7は、電子デバイス502によるジェスチャ入力514を検証するための方法700の一構成を示す流れ図である。電子デバイス502が、複数のジェスチャ入力514(たとえば、タッチスクリーン上を動く2本の指)を獲得する702ことが可能である。いくつかの実施例において、このことは、図2に関連して説明されるとおり行われ得る。
[0085]電子デバイス502が、ジェスチャ入力514が垂直にそろっているかどうかを決定する704ことが可能である。いくつかの実施例において、ジェスチャ入力514は、ジェスチャ入力514(たとえば、ジェスチャ入力開始点)が、実質的に、同一の垂直線426上に当たる場合、垂直にそろっていることが可能である。これに対して、ジェスチャ入力514は、ジェスチャ入力514が、実質的に、同一の垂直線426上に当たらない場合、垂直にそろっていない可能性がある。別の例において、電子デバイス502は、ジェスチャ入力514が、互いにあるしきい値角度の範囲内にある場合、ジェスチャ入力514が垂直にそろっていると決定する704ことが可能である。これに対して、電子デバイス502は、ジェスチャ入力514が、互いにあるしきい値角度の範囲内にない場合、ジェスチャ入力514が垂直にそろってないと決定する704ことが可能である。さらに別の実施例において、電子デバイス502は、ジェスチャ入力514が、同一の垂直線からあるしきい値距離未満しか離れていない場合、ジェスチャ入力514が垂直にそろっていると決定する704ことが可能である。逆に、電子デバイス502は、ジェスチャ入力514が、同一の垂直線からあるしきい値距離を超えて離れている場合、ジェスチャ入力514が垂直にそろっていないと決定する704ことが可能である。
[0086]電子デバイス502が、ジェスチャ入力514が垂直にそろっていると決定した704場合、電子デバイス502は、ジェスチャ入力514の垂直の動きが、動きしきい値より大きいかどうかを決定する706ことが可能である。たとえば、電子デバイス502は、2つのジェスチャ入力514(たとえば、タッチスクリーン上を動く2本の指)が、所定のピクセル数(たとえば、30)と少なくとも等しい量だけ互いに対して動いているかどうか(互いから離れているか、近づいているか)を決定する706ことが可能である。電子デバイス502が、ジェスチャ入力514の垂直の動きが、動きしきい値より大きくはないと決定した706場合、電子デバイス502は、ジェスチャ入力514が無効であると決定する708ことが可能である。
[0087]しかし、電子デバイス502が、ジェスチャ入力514の垂直の動きが動きしきい値より大きいと決定した706場合、電子デバイス502は、ジェスチャ入力514が、垂直に、より近づくように動いているかどうかを決定する710ことが可能である。たとえば、電子デバイス502は、開始点におけるジェスチャ入力514の間のピクセル数が、動きの終わりにおけるジェスチャ入力514の間のピクセル数より大きい場合、ジェスチャ入力514がより近づくように動いていると決定する710ことが可能である。つまり、電子デバイス502は、ジェスチャ入力514の間のピクセル数がより小さくなっている場合、ジェスチャ入力514が近づくように動いていると決定する710ことが可能である。これに対して、電子デバイス502は、開始点におけるジェスチャ入力514の間のピクセル数が、動きの終わりにおけるジェスチャ入力514の間のピクセル数より小さい場合、ジェスチャ入力514が離れるように動いていると決定する710ことが可能である。つまり、電子デバイス502は、ジェスチャ入力514の間のピクセル数がより大きくなっている場合、ジェスチャ入力514が離れるように動いていると決定する710ことが可能である。
[0088]電子デバイス502が、ジェスチャ入力514が、垂直に、より近づくように移動していると決定した710場合、電子デバイス502は、ジェスチャ入力514が垂直ピンチクローズジェスチャ入力514であると決定する712ことが可能である。これに対して、電子デバイス502が、ジェスチャ入力514が垂直に、より近づくように動いていない(たとえば、ジェスチャ入力514が垂直に、より遠ざかるように移動している)と決定した710場合、電子デバイス502は、ジェスチャ入力514が垂直ピンチオープンジェスチャ入力514であると決定する714ことが可能である。
[0089]電子デバイス502が、ジェスチャ入力514が垂直にそろっていないと決定した704場合、電子デバイス502は、ジェスチャ入力514の水平の動きが動きしきい値より大きいかどうかを決定する716ことが可能である。たとえば、電子デバイス502が、2つのジェスチャ入力514(たとえば、タッチスクリーン上を動く2本の指)が、所定のピクセル数(たとえば、30)と少なくとも等しい量だけ互いに対して動いているかどうか(互いから離れているか、近づいているか)を決定する716ことが可能である。電子デバイス502が、ジェスチャ入力514の水平の動きが、動きしきい値より大きくはないと決定した716場合、電子デバイス502は、ジェスチャ入力514が無効であると決定する708ことが可能である。
[0090]しかし、電子デバイス502が、ジェスチャ入力514の水平の動きが動きしきい値より大きいと決定した716場合、電子デバイス502は、ジェスチャ入力514が水平に、より近づくように動いているかどうかを決定する718ことが可能である。たとえば、電子デバイス502は、開始点におけるジェスチャ入力514の間のピクセル数が、動きの終わりにおけるジェスチャ入力514の間のピクセル数より大きい場合、ジェスチャ入力514が、水平に、より近づくように動いていると決定する718ことが可能である。つまり、電子デバイス502は、ジェスチャ入力514の間のピクセル数がより小さくなっている場合、ジェスチャ入力514が、水平に、より近づくように動いていると決定する718ことが可能である。これに対して、電子デバイス502は、開始点におけるジェスチャ入力514の間のピクセル数が、動きの終わりにおけるジェスチャ入力514の間のピクセル数より小さい場合、ジェスチャ入力514が離れるように動いていると決定する718ことが可能である。つまり、電子デバイス502は、ジェスチャ入力514の間のピクセル数がより大きくなっている場合、ジェスチャ入力514が離れるように動いていると決定する718ことが可能である。
[0091]電子デバイス502が、ジェスチャ入力514が、水平に、より近づくように動いていると決定した718場合、電子デバイス502は、ジェスチャ入力514が水平ピンチクローズジェスチャ入力514であると決定する720ことが可能である。これに対して、電子デバイス502が、ジェスチャ入力514が、水平に、より近づくように動いていない(たとえば、ジェスチャ入力514が、水平に、より遠ざかるように動いている)と決定した718場合、電子デバイス502は、ジェスチャ入力514が水平ピンチオープンジェスチャ入力514であると決定する722ことが可能である。方法700におけるステップのうちの1つまたは複数は、電子デバイス502のタッチスクリーンによって実行されて得ることに留意されたい。たとえば、タッチスクリーンが、垂直にそろっていること、水平にそろっていること、および/または動きが動きしきい値より大きいかどうかを検出することが可能である。
[0092]図8は、垂直ピンチオープンジェスチャ入力の例を示す。より具体的には、図8は、垂直ピンチオープンジェスチャ入力(左側画像)、および対応する戯画化アクション118からもたらされる歪められた画像メッシュ812b(右側画像)を示す。前述したとおり、いくつかの実施例において、タッチスクリーン838が、電子デバイス102に結合され得る。この例において、垂直ピンチオープンジェスチャ入力が、戯画画像122を生成する複数のジェスチャ入力814a〜bを含み得る。
[0093]この例において、戯画化アクション118の解釈のために画像座標系の上で、第1のジェスチャ入力開始点840a(たとえば、タッチスクリーン838上の指先開始位置)が、座標(X1start,Y1start)を有する第1の頂点828aにマッピングされることが可能であり、第2のジェスチャ入力開始点840bが、座標(X2start,Y2start)を有する第2の頂点828bにマッピングされることが可能である。第1の頂点828aおよび第2の頂点828bは、画像804の特徴位置108に対応することが可能である。たとえば、第1の頂点828aが、右目の内側の端に対応することが可能であり、第2の頂点828bが、口の右端に対応することが可能である。前述したとおり、戯画化アクション118は、画像メッシュ812aのいずれの頂点が位置を変える可能性があるかについての情報を包含する。図8に示されるとおり、ジェスチャ入力開始点840a〜bは、頂点828a〜bとぴったりと並ぶとは限らないことに留意されたい。この例において、ジェスチャ入力開始点840a〜bは、ジェスチャ入力開始点840a〜bに最も近い頂点828a〜bにマッピングされ得る。別の例において、ジェスチャ入力開始点840a〜bは、ジェスチャ入力開始点840a〜bに最も近い垂直線にマッピングされ得る。
[0094]垂直戯画化アクション118が、4つの要素、戯画化方向(たとえば、Cd)、画像メッシュ812aにおける影響を受ける最初の(一番上から)水平線824aのインデックス(たとえば、Ch1)、影響を受ける最後の(一番上から)水平線824bのインデックス(たとえば、Ch2)、および0から1までの間の値を有する事前定義された垂直戯画化レベルを含み得る。簡単のため、図8で、水平線は、水平線のインデックスで参照され得る。
[0095]垂直戯画化アクション118に関して、Y1startがY2startより大きいものと想定すると、線Ch1 824aが、Y1startに最も近い水平線であることが可能であり、線Ch2 824bが、Y2startに最も近い水平線であることが可能である。この例において、線Ch1 824a(第1の頂点828aを含み得る)上の頂点、および線Ch2 824b(第2の頂点828bを含み得る)上の頂点、ならびに線Ch1 824aと線Ch2 824bの間の水平線上の頂点が、位置を変えることが可能である。
[0096]指ジェスチャが、図8に示される垂直ピンチオープンジェスチャ入力814である場合、線Ch1 824a上のすべての画像メッシュ812a頂点が、歪められた画像メッシュ812bに示されるとおり、垂直戯画化アクションのレベル(たとえば、CLv)に線Ch1 824aと線Ch1−1 824cの間の現在の距離を掛けた値と等しい値だけ、線Ch1−1 824cに向かって上方に移動することが可能である。同様に、線Ch2 824b上のすべての頂点が、歪められた画像メッシュ812bに示されるとおり、垂直戯画化アクションのレベル(たとえば、CLv)に線Ch2 824bと線Ch2+1 824dの間の現在の距離を掛けた値と等しい値だけ、線Ch2+1 824dに向かって下方に移動することが可能である。一方、線Ch1 824aと線Ch2 824bの間の水平線上の頂点の新たな位置は、線Ch1 824a上の頂点、および線Ch2 824b上の頂点の新たな位置からの線形補間によって決定され得る。
[0097]図9は、垂直ピンチクローズジェスチャ入力の例を示す。より具体的には、図9は、垂直ピンチクローズジェスチャ入力(左側画像)、および対応する戯画化アクション118からもたらされる歪められた画像メッシュ912b(右側画像)を示す。前述したとおり、いくつかの実施例において、タッチスクリーン938が、電子デバイス102に結合され得る。この例において、垂直ピンチクローズジェスチャ入力が、戯画画像122を生成する複数のジェスチャ入力914a〜bを含み得る。
[0098]この例において、戯画化アクション118の解釈のために画像座標系の上で、第1のジェスチャ入力開始点940a(たとえば、タッチスクリーン938上の指先開始位置)が、座標(X1start,Y1start)を有する第1の頂点928aにマッピングされることが可能であり、第2のジェスチャ入力開始点940bが、座標(X2start,Y2start)を有する第2の頂点928bにマッピングされることが可能である。第1の頂点928aおよび第2の頂点928bは、画像904の特徴位置108に対応することが可能である。たとえば、第1の頂点928aが、右目の内側の端に対応することが可能であり、第2の頂点928bが、口の右端に対応することが可能である。前述したとおり、戯画化アクション118は、画像メッシュ912aのいずれの頂点が位置を変える可能性があるかについての情報を包含する。図9に示されるとおり、ジェスチャ入力開始点940a〜bは、頂点928a〜bとぴったりと並ぶとは限らないことに留意されたい。この例において、ジェスチャ入力開始点940a〜bは、ジェスチャ入力開始点940a〜bに最も近い頂点928a〜bにマッピングされ得る。別の例において、ジェスチャ入力開始点940a〜bは、ジェスチャ入力開始点940a〜bに最も近い垂直線にマッピングされ得る。
[0099]垂直戯画化アクション118が、4つの要素、戯画化方向(たとえば、Cd)、画像メッシュ912aにおける影響を受ける最初の(一番上から)水平線924aのインデックス(たとえば、Ch1)、影響を受ける最後の(一番上から)水平線924b(たとえば、Ch2)のインデックス(たとえば、Ch2)、および0から1までの間の値を有する事前定義された垂直戯画化レベルを含み得る。簡単のため、図9で、水平線は、水平線のインデックスで参照され得る。
[00100]垂直戯画化アクション118に関して、Y1startがY2startより大きいものと想定すると、線Ch1 924aが、Y1startに最も近い水平線であることが可能であり、線Ch2 924bが、Y2startに最も近い水平線であることが可能である。この例において、Ch1 924a(第1の頂点928aを含み得る)上の頂点、および線Ch2 924b(第2の頂点928bを含み得る)上の頂点、ならびに線Ch1 924aと線Ch2 924の間の水平線上の頂点が、位置を変えることが可能である。
[00101]指ジェスチャが、図9に示される垂直ピンチクローズジェスチャ入力914である場合、線Ch1 924a上のすべての画像メッシュ912a頂点が、歪められた画像メッシュ912bに示されるとおり、垂直戯画化アクションのレベル(たとえば、CLv)に線Ch1 924aと線Ch1+1 924cの間の現在の距離を掛けた値と等しい値だけ、線Ch1+1 924cに向かって下方に移動することが可能である。同様に、線Ch2 924b上のすべての頂点が、歪められた画像メッシュ912bに示されるとおり、垂直戯画化アクションのレベル(たとえば、CLv)に線Ch2 924bと線Ch2−1の間の現在の距離を掛けた値と等しい値だけ、線Ch2−1に向かって上方に移動することが可能である。図9に示されるとおり、線Ch2−1は、線Ch1+1 924cと同一であり得る。つまり、線Ch2 924b上のすべての頂点が、歪められた画像メッシュ912bに示されるとおり、垂直戯画化アクションのレベル(たとえば、CLv)に線Ch2 924bと線Ch1+1 924cの間の現在の距離を掛けた値と等しい値だけ、線Ch1+1 924cに向かって上方に移動することが可能である。一方、線Ch1 924aと線Ch2 924bの間の水平線上の頂点の新たな位置は、線Ch1 924a上の頂点、および線Ch2 924b上の頂点の新たな位置からの線形補間によって決定され得る。
[00102]図10は、水平ピンチオープンジェスチャ入力の例を示す。より具体的には、図10は、水平ピンチオープンジェスチャ入力(左側画像)、および対応する戯画化アクション118からもたらされる歪められた画像メッシュ1012b(右側画像)を示す。前述したとおり、いくつかの実施例において、タッチスクリーン1038が、電子デバイス102に結合され得る。この例において、水平ピンチオープンジェスチャ入力が、戯画画像122を生成する複数のジェスチャ入力1014a〜bを含み得る。
[00103]この例において、戯画化アクション118の解釈のために画像座標系の上で、第1のジェスチャ入力開始点1040a(たとえば、タッチスクリーン1038上の指先開始位置)が、第1の頂点1028aにマッピングされることが可能であり、第2のジェスチャ入力開始点1040bが、第2の頂点1028bにマッピングされることが可能である。第1の頂点1028aおよび第2の頂点1028bは、画像1004の特徴位置108に対応することが可能である。たとえば、第1の頂点1028aが、左目の外側の端に対応することが可能であり、第2の頂点1028bが、右目の内側の端に対応することが可能である。前述したとおり、戯画化アクション118は、画像メッシュ1012aのいずれの頂点が位置を変える可能性があるかについての情報を包含する。図10に示されるとおり、ジェスチャ入力開始点1040a〜bは、頂点1028a〜bとぴったりと並ぶとは限らないことに留意されたい。この例において、ジェスチャ入力開始点1040a〜bは、ジェスチャ入力開始点1040a〜bに最も近い頂点1028a〜bにマッピングされ得る。
[00104]水平戯画化アクション118が、5つの要素、戯画化方向(たとえば、Cd)、影響を受ける水平制御線1024のインデックス(たとえば、Ch)、水平制御線1024上の影響を受ける最初の頂点1028aのインデックス(たとえば、Cv1)、水平制御線1024上の影響を受ける最後の頂点1028bのインデックス(たとえば、Cv2)、および事前定義された水平戯画化レベル(たとえば、CLh)を含み得る。この例において、戯画化方向は、水平であることが可能であり、影響を受ける水平制御線1024は、ジェスチャ入力の開始点1040a〜bの中点(たとえば、垂直方向における)に最も近い水平線であり得る。簡単のため、図10で、線は、線の対応するインデックスで参照され得る。
[00105]いくつかの実施例において、頂点Cv1 1028aおよび頂点Cv2 1028bは、第1のジェスチャ入力開始点1040a(たとえば、X1start,Y1start)および第2のジェスチャ入力開始点1040b(たとえば、X2start,Y2start)に最も近い2つの頂点として定義され得る。また、頂点Cv1 1028aおよび頂点Cv2 1028bは、ジェスチャ入力開始点1040a〜bの位置にかかわらず、特定の2つの頂点として定義されることも可能である。たとえば、線Ch 1024が、2つの目をつなぐ線H2である場合、頂点Cv1 1028aは、Vert(H2,V2)として定義されることが可能であり、頂点Cv2 1028bは、Vert(H2,V5)として定義されることが可能であり、これらは、左目の目の外側の端、および右目の内側の端に対応する。簡単のため、図10では、頂点は、頂点の対応するインデックスで参照され得る。たとえば、第1の頂点1028aおよび第2の頂点1028bは、頂点、Vert(Ch,Cv1)1028aとして参照されることが可能であり、第2の頂点1028bは、頂点、Vert(Ch,Cv2)1028bとして参照されることが可能である。他の頂点の参照も同様に、頂点インデックスに基づくことが可能である。いくつかの実施例において、水平戯画化に関して、水平制御線1024上の頂点だけが、位置を変えることが可能である。つまり、Vert(Ch,Cv1)、Vert(Ch,Cv1+1)、...、Vert(Ch,Cv2)と定義される頂点だけが、頂点の位置を変えることが可能である。
[00106]指ジェスチャが、図10に示されるとおり、水平ピンチオープンジェスチャ入力1014である場合、歪められた画像メッシュ1012bに示されるとおり、頂点、Vert(Ch,Cv1)1028aが、水平戯画化アクションのレベル(たとえば、CLh)に頂点、Vert(Ch,Cv1)1028aと頂点、Vert(Ch,Cv1−1)1028cの間の現在の距離を掛けた値と等しい値だけ、左に移動することが可能である。同様に、歪められた画像メッシュ1012bに示されるとおり、頂点、Vert(Ch,Cv2)1028bが、水平戯画化アクションのレベル(たとえば、CLh)に頂点、Vert(Ch,Cv2)1028bと頂点、Vert(Ch,Cv2+1)1028dの間の現在の距離を掛けた値と等しい値だけ、右に移動することが可能である。一方、頂点、Vert(Ch,Cv1+1)、...、Vert(Ch,Cv2−1)の新たな位置は、頂点、Vert(Ch,Cv1)1028aおよび頂点、Vert(Ch,Cv2)1028bの新たな位置からの線形補間によって決定され得る。図10に示されるとおり、水平制御線1024以外の水平線上の頂点は、位置が移動しないことが可能である。これらの頂点の位置は、水平線と、それらの水平線に垂直である垂直線の交点のままであり得る。
[00107]図11は、水平ピンチクローズジェスチャ入力の例を示す。より具体的には、図11は、水平ピンチクローズジェスチャ入力(左側画像)、および対応する戯画化アクション118からもたらされる歪められた画像メッシュ1112b(右側画像)を示す。前述したとおり、いくつかの実施例において、タッチスクリーン1138が、電子デバイス102に結合され得る。この例において、水平ピンチオープンジェスチャ入力が、戯画画像122を生成する複数のジェスチャ入力1114a〜bを含み得る。
[00108]この例において、戯画化アクション118の解釈のために画像座標系の上で、第1のジェスチャ入力開始点1140a(たとえば、タッチスクリーン1138上の指先開始位置)が、第1の頂点1128aにマッピングされることが可能であり、第2のジェスチャ入力開始点1140bが、第2の頂点1128bにマッピングされることが可能である。第1の頂点1128aおよび第2の頂点1128bは、画像1104の特徴位置118に対応することが可能である。たとえば、第1の頂点1128aが、左目の外側の端に対応することが可能であり、第2の頂点1128bが、右目の内側の端に対応することが可能である。前述したとおり、戯画化アクション118は、画像メッシュ1112aのいずれの頂点が位置を変える可能性があるかについての情報を包含する。図11に示されるとおり、ジェスチャ入力開始点1140a〜bは、頂点1128a〜bとぴったりと並ぶとは限らないことに留意されたい。この例において、ジェスチャ入力開始点1140a〜bは、ジェスチャ入力開始点1140a〜bに最も近い頂点1128a〜bにマッピングされ得る。
[00109]水平戯画化アクション118は、5つの要素、戯画化方向(たとえば、Cd)、影響を受ける水平制御線1124のインデックス(たとえば、Ch)、水平制御線1124上の影響を受ける最初の頂点1128aのインデックス(たとえば、Cv1)、水平制御線1124上の影響を受ける最後の頂点1128bのインデックス(たとえば、Cv2)、および事前定義された水平戯画化レベル(たとえば、CLh)を含み得る。この例において、戯画化方向は、水平であることが可能であり、影響を受ける水平制御線1124は、ジェスチャ入力の開始点1140a〜bの中点(たとえば、垂直方向における)に最も近い水平線であり得る。簡単のため、図11で、線は、線の対応するインデックスで参照され得る。
[00110]いくつかの実施例において、頂点Cv1 1128aおよび頂点Cv2 1128bが、第1のジェスチャ入力開始点1140a(たとえば、X1start,Y1start)および第2のジェスチャ入力開始点1140b(たとえば、X2start,Y2start)に最も近い2つの頂点として定義され得る。また、頂点Cv1 1128aおよび頂点Cv2 1128bは、ジェスチャ入力開始点1140a〜bの位置にかかわらず、特定の2つの頂点として定義されることも可能である。たとえば、線Ch 1124が、2つの目をつなぐ線H2である場合、頂点Cv1 1128aは、Vert(H2,V2)として定義されることが可能であり、頂点Cv2 1128bは、Vert(H2,V5)として定義されることが可能であり、これらは、左目の目の外側の端、および右目の内側の端に対応する。簡単のため、図11では、頂点は、頂点の対応するインデックスで参照され得る。たとえば、第1の頂点1128aは、頂点、Vert(Ch,Cv1)1128aとして参照されることが可能であり、第2の頂点1128bは、頂点、Vert(Ch,Cv2)1128bとして参照されることが可能である。他の頂点の参照も同様に、頂点インデックスに基づくことが可能である。いくつかの実施例において、水平戯画化に関して、水平制御線1124上の頂点だけが、位置を変えることが可能である。つまり、Vert(Ch,Cv1)、Vert(Ch,Cv1+1)、...、Vert(Ch,Cv2)と定義される頂点だけが、頂点の位置を変えることが可能である。
[00111]指ジェスチャが、図11に示されるとおり、水平ピンチクローズジェスチャ入力1114である場合、歪められた画像メッシュ1112bに示されるとおり、頂点、Vert(Ch,Cv1)1128aが、水平戯画化アクションのレベル(たとえば、CLh)に頂点、Vert(Ch,Cv1)1128aと頂点、Vert(Ch,Cv1+1)1128cの間の現在の距離を掛けた値と等しい値だけ、右に移動することが可能である。同様に、歪められた画像メッシュ1112bに示されるとおり、頂点、Vert(Ch,Cv2)1128bが、戯画化アクションのレベル(たとえば、CLh)に頂点、Vert(Ch,Cv2)1128bと頂点、Vert(Ch,Cv2−1)1128dの間の現在の距離を掛けた値と等しい値だけ、左に移動することが可能である。一方、頂点、Vert(Ch,Cv1+1)、...、Vert(Ch,Cv2−1)の新たな位置は、頂点、Vert(Ch,Cv1)1128aおよび頂点、Vert(Ch,Cv2)1128bの新たな位置からの線形補間によって決定され得る。図11に示されるとおり、水平制御線1124以外の水平線上の頂点は、位置が移動しないことが可能である。これらの頂点の位置は、水平線と、それらの水平線に垂直である垂直線の交点のままであり得る。
[00112]図12は、顔画像1204の別の例、および本明細書で開示されるシステムおよび方法を使用して生成され得る戯画画像1222a〜bの例を示す。前述したとおり、いくつかの実施例において、電子デバイス102に結合されたディスプレイ536が、メッシュベースのモデルにおいて顔画像1204および画像メッシュ1212aを提示することが可能である。
[00113]第1の戯画画像1222aが、第1のセットの戯画化アクション118、および顔画像1204に基づいて生成され得る。この例において、第1のセットのジェスチャ入力114が、本明細書で説明したとおり、第1のセットの戯画化アクション118を示すことが可能である。また、図12は、第1の歪められた画像メッシュ1212bも示す。第1の歪められた画像メッシュ1212bは、中央の画像において示されるとおり、顔画像1204の額、目、鼻、口などに対する一連の水平ピンチアクションの後の、1つまたは複数の頂点の位置の変化を示すことが可能である。前述したとおり、第1のセットの戯画化アクション118は、戯画化アクションリスト534に追加され得る。戯画化アクションリスト534は、顔画像1204におけるすべての画像メッシュ1212a頂点の位置と、第1の戯画画像1222aにおけるそれらの頂点の新たな位置の間のマッピングを決定することが可能である。この頂点マッピングに基づいて、第1の戯画画像1222aにおける非頂点ピクセルのそれぞれと顔画像1204におけるそれらのピクセルの元の位置のマッピングが、計算され得る。次に、これらのピクセルの色が、獲得され得る。
[00114]第2の戯画画像1222bが、第2のセットの戯画化アクション118、および第1の戯画画像1222aに基づいて生成され得る。この例において、第2のセットのジェスチャ入力114が、本明細書で説明されるとおり、第2のセットの戯画化アクション118を示すことが可能である。また、図12は、第2の歪められた画像メッシュ1212cも示す。第2の歪められた画像メッシュ1212cは、右側画像において示されるとおり、第1の戯画画像1222aの額、顎先などにさらに適用された一連の垂直ピンチアクションの後の、1つまたは複数の頂点の位置の変化を示すことが可能である。前述したとおり、第2のセットの戯画化アクション118は、戯画化アクションリスト534(たとえば、第1のセットの戯画化アクション118を包含することが可能な)に追加され得る。各戯画画像1222a〜bは、それまでの戯画化アクション118の結果であり得ることに留意されたい。たとえば、第2の戯画画像1222bは、第1のセットおよび第2のセットの戯画化アクション118が顔画像1204に適用されたことの結果であり得る。
[00115]いくつかの実施例において、戯画化アクション118(たとえば、第1のセットの戯画化アクション118および第2のセットの戯画化アクション118)を適用するのに、組み合わされた戯画化アクション118によるすべての頂点の新たな位置が、計算され得る。次に、単一のテクスチャワーピング(第1のセットの戯画化アクション118と第2のセットの戯画化アクション118の両方に基づく)が、顔画像1204に1回、適用され得る。
[00116]図13は、対話型画像戯画化のためのシステムおよび方法が実施され得る電子デバイス1302のより具体的な構成を示すブロック図である。電子デバイス1302は、図1に関連して説明される電子デバイス102の例であり得る。電子デバイス1302が、図1に関連して説明される画像104の例であり得る顔画像1304を受け取ることが可能である。たとえば、顔画像1304は、それまでに戯画化された顔画像であり得る。一実施例において、顔画像1304が、図1に関連して説明される特徴位置検出ブロック/モジュール106の機能のすべてまたは一部を含み得る顔検出ブロック/モジュール1342に供給され得る。たとえば、顔検出ブロック/モジュール1342が、図1に関連して説明される特徴位置108の例であり得る顔特徴位置1308を検出することが可能である。顔特徴位置1308は、図1に関連して説明される画像メッシュ生成ブロック/モジュール110の例であり得る画像メッシュ生成ブロック/モジュール1310に供給され得る。この実施例において、画像メッシュ生成ブロック/モジュール1310は、顔特徴位置1308に対応する画像メッシュの頂点の位置を示す画像頂点座標1344を生成することが可能である。画像頂点座標1344は、その頂点(たとえば、H1,V2)で交差する水平線と垂直線のインデックスに基づいて定義され得る。
[00117]電子デバイス1302が、図1に関連して説明されるジェスチャ入力114の例であり得る指ジェスチャ入力1314を受け取ることが可能である。指ジェスチャ入力1314は、図1に関連して説明される戯画化アクション決定ブロック/モジュール116の機能のすべてまたは一部を含み得る対話型戯画化アクション解釈ブロック/モジュール1346に供給され得る。たとえば、対話型戯画化アクション解釈ブロック/モジュール1346は、指ジェスチャ入力1314に基づいて、新たな戯画化アクション1318を決定することが可能である。
[00118]新たな戯画化アクション1318は、戯画化アクションリストを更新することが可能な戯画化アクション更新ブロック/モジュール1348に供給され得る。前述したとおり、電子デバイス1302は、決定されたすべての戯画化アクションのリストを包含する戯画化アクションリストを保持することが可能である。顔画像1304(またはそれまでに生成された戯画画像)に適用されている可能性があるそれまでのすべての戯画化アクションのリストを包含する前の戯画化アクションリスト1350aが、戯画画像頂点座標を生成するのに使用されるように頂点再マッピングブロック/モジュール1352に供給され得る。いくつかの実施例において、前の戯画化アクションリスト1350aは、新たな戯画化アクション1318(たとえば、現在、決定されている戯画化アクション)を含まないことが可能である。
[00119]頂点再マッピングブロック/モジュール1352は、前の戯画化アクションリスト1350aおよび画像頂点座標1344に基づいて、前の戯画画像頂点座標1354aを決定することが可能である。前の戯画化アクションリスト1350aおよび前の戯画画像頂点1354aは、決定された(たとえば、方法200の前のインスタンスにおいて)前の戯画化アクションに属することが可能である。いくつかの実施例において、前の戯画画像頂点座標1354aは、新たな戯画化アクション1318を決定するのを支援するように対話型戯画化アクション解釈ブロック/モジュール1346に供給され得る。
[00120]いくつかの実施例において、戯画化アクション更新ブロック/モジュール1348が、新たな戯画化アクションリスト1350bを生成するように新たな戯画化アクション1318を戯画化アクションリスト(それまでに決定されている戯画化アクションを含む)に追加することが可能である。新たな戯画化アクションリスト1350bは、頂点再マッピングブロック/モジュール1352に供給され得る。また、画像頂点座標1344が、頂点再マッピングブロック/モジュール1352に渡されることも可能である。
[00121]いくつかの実施例において、頂点再マッピングブロック/モジュール1352が、新たな戯画化アクションリスト1350bおよび画像頂点座標1344に基づいて、新たな戯画画像頂点座標1354bを決定することが可能である。たとえば、頂点再マッピングブロック/モジュール1352は、新たな戯画化アクションリスト1350b(それまでに決定された戯画化アクションおよび新たな戯画化アクション1318を含み得る)に基づいて、顔画像1304の頂点の位置(戯画画像1322における)を決定することが可能である。
[00122]新たな戯画画像頂点座標1354bは、再マッピング生成ブロック/モジュール1356に渡されることが可能である。また、再マッピング生成ブロック/モジュール1356は、画像頂点座標1344を受け取ることも可能である。再マッピング生成ブロック/モジュール1356は、画像頂点座標1344と新たな戯画画像頂点座標1354bの間のマッピングを生成することが可能である。再マッピング生成ブロック/モジュール1356の出力は、画像頂点の位置の変化と戯画画像頂点(たとえば、それらの頂点の座標に基づく)の間の関係を反映する1つまたは複数のマッピング行列1358であり得る。
[00123]マッピング行列1358および顔画像1304は、顔画像1304のテクスチャワーピングを実行するテクスチャワーピングブロック/モジュール1360に供給され得る。たとえば、テクスチャワーピングブロック/モジュール1360が、戯画画像1322を生成するように顔画像1304における1つまたは複数のピクセルの位置を変更することが可能である。
[00124]図14は、電子デバイス1402において利用され得る様々な構成要素を示す。図示される構成要素は、同一の物理的構造体内に配置されても、別々の筐体もしくは構造体に配置されてもよい。図14に関連して説明される電子デバイス1402は、本明細書で説明される電子デバイスのうちの1つまたは複数により実施され得る。電子デバイス1402は、プロセッサ1462を含む。プロセッサ1462は、汎用のシングルチッププロセッサもしくはマルチチッププロセッサ(たとえば、ARM)、専用マイクロプロセッサ(たとえば、デジタルシグナルプロセッサ(DSP))、マイクロコントローラ、プログラマブルゲートアレイなどであり得る。プロセッサ1462は、中央処理装置(CPU)と呼ばれ得る。単一のプロセッサ1462だけが、図14の電子デバイス1402において示されるものの、代替の構成において、プロセッサの組合せ(たとえば、ARMとDSP)が使用されることも可能である。
[00125]また、電子デバイス1402は、プロセッサ1462と電子通信状態にあるメモリ1464も含む。つまり、プロセッサ1462は、メモリ1464から情報を読み取ること、および/またはメモリ1464に情報を書き込むことができる。メモリ1464は、電子情報を記憶することができる任意の電子構成要素であり得る。メモリ1464は、ランダムアクセスメモリ(RAM)、読取り専用メモリ(ROM)、磁気ディスク記憶媒体、光記憶媒体、RAMにおけるフラッシュメモリデバイス、プロセッサに含められたオンボードメモリ、プログラマブル読取り専用メモリ(PROM)、消去可能なプログラマブル読取り専用メモリ(EPROM)、電気的に消去可能なPROM(EEPROM(登録商標))、レジスタなどであることが、以上の組合せであることを含め、可能である。
[00126]データ1466aおよび命令1468aが、メモリ1464の中に記憶され得る。命令1468aは、1つまたは複数のプログラム、ルーチン、サブルーチン、関数、手続きなどを含み得る。命令1468aは、単一のコンピュータ可読ステートメントを含んでも、多くのコンピュータ可読ステートメントを含んでもよい。命令1468aは、前述した方法、関数、および手続きのうちの1つまたは複数を実施するようにプロセッサ1462によって実行可能であり得る。命令1468aを実行することは、メモリ1464の中に記憶されたデータ1466aを使用することを含み得る。図14は、いくつかの命令1468bおよびデータ1466b(命令1468aおよびデータ1466aから来ることが可能な)が、プロセッサ1462にロードされていることを示す。
[00127]また、電子デバイス1402は、他の電子デバイスと通信するための1つまたは複数の通信インターフェース1470を含むことも可能である。通信インターフェース1470は、有線通信技術、ワイヤレス通信技術、または有線通信技術とワイヤレス通信技術の両方に基づくことが可能である。異なるタイプの通信インターフェース1470の例には、シリアルポート、パラレルポート、ユニバーサルシリアルバス(USB)、イーサネット(登録商標)アダプタ、IEEE1394バスインターフェース、スモールコンピュータシステムインターフェース(SCSI)バスインターフェース、赤外線(IR)通信ポート、Bluetoothワイヤレス通信アダプタなどが含まれる。
[00128]また、電子デバイス1402は、1つまたは複数の入力デバイス1472と、1つまたは複数の出力デバイス1474とを含むことも可能である。異なる種類の入力デバイス1472の例には、キーボード、マウス、マイクロフォン、リモコンデバイス、ボタン、ジョイスティック、トラックボール、タッチパッド、ライトペンなどが含まれる。たとえば、電子デバイス1402は、音響信号をキャプチャするための1つまたは複数のマイクロフォン1476を含み得る。一構成において、マイクロフォン1476は、音響信号(たとえば、音声、スピーチ)を電気信号または電子信号に変換するトランスデューサであり得る。異なる種類の出力デバイス1474の例には、スピーカ、プリンタなどを含み得る。たとえば、電子デバイス1402は、1つまたは複数のスピーカ1478を含み得る。一構成において、スピーカ1478は、電気信号または電子信号を音響信号に変換するトランスデューサであり得る。電子デバイス1402に通常、含められ得る1つの特定のタイプの出力デバイスが、ディスプレイデバイス1434である。本明細書で開示される構成で使用されるディスプレイデバイス1434は、液晶ディスプレイ(LCD)、発光ダイオード(LED)、ガスプラズマ、エレクトロルミネッセンス、陰極線管(CRT)などの任意の適切な画像投影技術を利用することが可能である。また、メモリ1464の中に記憶されたデータを、ディスプレイデバイス1434上に表示されるテキスト、グラフィックス、および/または動画に(適宜)変換するためのディスプレイコントローラ1480が、提供されることも可能である。
[00129]電子デバイス1402の様々な構成要素は、電力バス、制御信号バス、ステータス信号バス、データバスなどを含み得る1つまたは複数のバスによって一緒に結合され得る。簡単のため、様々なバスは、図14にバスシステム1482として示される。図14は、電子デバイス1402の可能な1つの構成を示すにすぎないことに留意されたい。他の様々なアーキテクチャおよび構成要素が利用され得る。
[00130]前述の説明において、参照符号が、ときとして、様々な用語に関連して使用されてきた。参照符号に関連して用語が使用される場合、このことは、図のうちの1つまたは複数に示される特定の要素を指すことを意図し得る。用語が参照符号なしに使用される場合、このことは、任意の特定の図に限定することなしに用語を一般的に指すことを意図し得る。
[00131]「決定すること」という用語は、多種多様なアクションを包含し、したがって、「決定すること」は、計算すること、演算すること、処理すること、導き出すこと、検査すること、探索すること(たとえば、テーブル、データベース、または別のデータ構造の中で探索すること)、確認することなどを含み得る。また、「決定すること」は、受け取ること(たとえば、情報を受け取ること)、アクセスすること(たとえば、メモリの中のデータにアクセスすること)なども含み得る。また、「決定すること」は、解決すること、選択すること、選ぶこと、確立することなども含み得る。
[00132]「〜に基づいて」という句は、特に明記しない限り、「〜だけに基づいて」を意味しない。つまり、「〜に基づいて」という句は、「〜だけに基づいて」と「少なくとも〜に基づいて」の両方を表す。
[00133]本明細書で説明される構成のうちのいずれか1つに関連して説明される特徴、機能、手続き、構成要素、要素、構造などのうちの1つまたは複数が、両立する場合、本明細書で説明される他の構成のいずれかに関連して説明される機能、手続き、構成要素、要素、構造などのうちの1つまたは複数と組み合わされてもよいことに留意されたい。つまり、本明細書で説明される機能、手続き、構成要素、要素などの任意の両立する組合せが、本明細書で開示されるシステムおよび方法により実施され得る。いくつかの構成において、本明細書で開示される機能または手続きの1つまたは複数のサブセットまたは部分が、本明細書で開示される他の機能または手続きとは無関係に適用されてもよい。
[00134]本明細書で説明される機能は、プロセッサ可読媒体上、またはコンピュータ可読媒体上の1つまたは複数の命令として記憶され得る。「コンピュータ可読媒体」という用語は、コンピュータまたはプロセッサによってアクセスされ得る任意の利用可能な媒体を指す。例として、限定としてではなく、そのような媒体は、RAM、ROM、EEPROM、フラッシュメモリ、CD−ROMもしくは他の光ディスクストレージ、磁気ディスクストレージもしくは他の磁気ストレージデバイス、または命令もしくはデータ構造の形態で所望されるプログラムコードを記憶するのに使用されることが可能であり、コンピュータによってアクセスされ得る他の任意の媒体を備えることが可能である。本明細書で使用されるディスク(disk)およびディスク(disc)には、コンパクトディスク(CD)(disc)、レーザディスク(登録商標)(disc)、光ディスク(disc)、デジタルバーサタイルディスク(DVD)(disc)、フロッピー(登録商標)ディスク(disk)、およびBlu−ray(登録商標)ディスク(disc)が含まれ、ここで、ディスク(disk)は、通常、データを磁気的に再現するのに対して、ディスク(disc)は、データを、レーザを用いて光学的に再現する。コンピュータ可読媒体は、有形で、非一時的であってもよいことに留意されたい。「コンピュータプログラム製品」という用語は、コンピューティングデバイスまたはプロセッサによって実行される、処理される、または計算されることが可能なコードまたは命令(たとえば、「プログラム」)と組み合わされたコンピューティングデバイスまたはプロセッサを指す。本明細書で使用される「コード」という用語は、コンピューティングデバイスまたはプロセッサによって実行可能であるソフトウェア、命令、コード、またはデータを指すことが可能である。
[00135]ソフトウェアまたは命令は、伝送媒体を介して伝送されることも可能である。たとえば、ソフトウェアが、ウェブサイト、サーバ、または他の遠隔ソースから、同軸ケーブル、光ファイバケーブル、より対線、デジタル加入者線(DSL)、あるいは赤外線、電波、およびマイクロ波などのワイヤレス技術を使用して伝送される場合、その同軸ケーブル、光ファイバケーブル、より対線、DSL、あるいは赤外線、電波、およびマイクロ波などのワイヤレス技術が、伝送媒体の定義に含められる。
[00136]本明細書で開示される方法は、説明される方法を実現するための1つまたは複数のステップまたはアクションを備える。方法ステップおよび/または方法アクションは、特許請求の範囲を逸脱することなく、互いに入れ替えられることが可能である。つまり、ステップまたはアクションの特定の順序が、説明されている方法の適切な動作のために要求されるのでない限り、特定のステップおよび/またはアクションの順序および/または使用は、特許請求の範囲を逸脱することなく、変更されてもよい。
[00137]特許請求の範囲は、以上に説明される構成および構成要素そのものに限定されないことを理解されたい。特許請求の範囲を逸脱することなく、本明細書で説明されるシステム、方法、および装置の構成、動作、および詳細に様々な変形、変更、および改変が行われ得る。
以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
[C1]
電子デバイスによる対話型画像戯画化のための方法であって、
画像の少なくとも1つの特徴位置を検出することと、
前記少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成することと、
少なくとも1つのジェスチャ入力を獲得することと、
前記少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定することと、
前記画像メッシュ、前記少なくとも1つの戯画化アクション、および前記画像に基づいて、戯画画像を生成することと、を備える方法。
[C2]
前記画像は、顔画像であるC1に記載の方法。
[C3]
前記画像メッシュの頂点は、前記少なくとも1つの特徴位置に対応するC1に記載の方法。
[C4]
前記少なくとも1つのジェスチャ入力は、タッチ入力を備えるC1に記載の方法。
[C5]
前記画像と前記戯画画像のうちの少なくとも1つを表示することをさらに備えるC1に記載の方法。
[C6]
戯画画像を生成することは、前記少なくとも1つの戯画化アクションを前記画像に適用することを備えるC1に記載の方法。
[C7]
少なくとも1つのキャラクタアクションは、前記画像メッシュの少なくとも1つの頂点に関するシフト情報をもたらし、前記シフト情報に基づいて、画像頂点ピクセルを対応する戯画画像頂点ピクセルにマッピングするピクセルマップをもたらし、ここにおいて、戯画画像を生成することは、前記ピクセルマップに基づいて、前記戯画画像における他のピクセルの位置を補間することを備えるC6に記載の方法。
[C8]
前記少なくとも1つのジェスチャ入力を検証することをさらに備えるC1に記載の方法。
[C9]
前記少なくとも1つのジェスチャ入力を検証することは、前記ジェスチャ入力の動きが動きしきい値より大きいかどうかを決定することを備えるC8に記載の方法。
[C10]
前記少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を備えるC1に記載の方法。
[C11]
前記ジェスチャ入力の互いに対する動きを決定することをさらに備えるC10に記載の方法。
[C12]
前記ジェスチャ入力が、水平にそろっていると決定することをさらに備えるC10に記載の方法。
[C13]
前記ジェスチャ入力が、垂直にそろっていると決定することをさらに備えるC10に記載の方法。
[C14]
戯画化アクションリストを保持することをさらに備えるC1に記載の方法。
[C15]
前記少なくとも1つの戯画化アクションを前記戯画化アクションリストに追加することをさらに備えるC14に記載の方法。
[C16]
対話型画像戯画化のための電子デバイスであって、
画像の少なくとも1つの特徴位置を検出する特徴位置検出回路と、
前記特徴位置検出回路に結合された画像メッシュ生成回路と、ここにおいて、前記画像メッシュ生成回路は、前記少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成する、
少なくとも1つのジェスチャ入力を獲得する感知回路と、
前記感知回路に結合された戯画化アクション決定回路と、ここにおいて、前記戯画化アクション決定回路は、前記少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定する、
前記画像メッシュ生成回路および前記戯画化アクション決定回路に結合された戯画画像生成回路と、ここにおいて、前記戯画画像生成回路は、前記画像メッシュ、前記少なくとも1つの戯画化アクション、および前記画像に基づいて、戯画画像を生成する、を備える電子デバイス。
[C17]
前記画像は、顔画像であるC16に記載の電子デバイス。
[C18]
前記画像メッシュの頂点は、前記少なくとも1つの特徴位置に対応するC16に記載の電子デバイス。
[C19]
前記少なくとも1つのジェスチャ入力は、タッチ入力を備えるC16に記載の電子デバイス。
[C20]
前記戯画画像生成回路に結合され、前記画像と前記戯画画像のうちの少なくとも1つを表示するディスプレイをさらに備えるC16に記載の電子デバイス。
[C21]
戯画画像を生成することは、前記少なくとも1つの戯画化アクションを前記画像に適用することを備えるC16に記載の電子デバイス。
[C22]
少なくとも1つのキャラクタアクションは、前記画像メッシュの少なくとも1つの頂点に関するシフト情報をもたらし、前記シフト情報に基づいて、画像頂点ピクセルを対応する戯画画像頂点ピクセルにマッピングするピクセルマップをもたらし、ここにおいて、戯画画像を生成することは、前記ピクセルマップに基づいて、前記戯画画像における他のピクセルの位置を補間することを備えるC21に記載の電子デバイス。
[C23]
前記感知回路に結合されたジェスチャ入力検証回路をさらに備え、ここにおいて、前記ジェスチャ入力検証回路は、前記少なくとも1つのジェスチャ入力を検証するC16に記載の電子デバイス。
[C24]
前記少なくとも1つのジェスチャ入力を検証することは、前記ジェスチャ入力の動きが動きしきい値より大きいかどうかを決定することを備えるC23に記載の電子デバイス。
[C25]
前記少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を備えるC16に記載の電子デバイス。
[C26]
前記ジェスチャ入力検証回路は、前記ジェスチャ入力の互いに対する動きを決定するC25に記載の電子デバイス。
[C27]
前記ジェスチャ入力検証回路は、前記ジェスチャ入力が、水平にそろっていると決定するC25に記載の電子デバイス。
[C28]
前記ジェスチャ入力検証回路は、前記ジェスチャ入力が、垂直にそろっていると決定するC25に記載の電子デバイス。
[C29]
戯画化アクションリストを保持するC16に記載の電子デバイス。
[C30]
前記少なくとも1つの戯画化アクションを前記戯画化アクションリストに追加するC29に記載の電子デバイス。
[C31]
命令を有する非一時的な有形のコンピュータ可読媒体を備える、対話型画像戯画化のためのコンピュータプログラム製品であって、前記命令は、
電子デバイスに、画像の少なくとも1つの特徴位置を検出させるためのコードと、
前記電子デバイスに、前記少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成させるためのコードと、
前記電子デバイスに、少なくとも1つのジェスチャ入力を獲得させるためのコードと、
前記電子デバイスに、前記少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定させるためのコードと、
前記電子デバイスに、前記画像メッシュ、前記少なくとも1つの戯画化アクション、および前記画像に基づいて、戯画画像を生成させるためのコードと、を備えるコンピュータプログラム製品。
[C32]
前記画像は、顔画像であるC31に記載のコンピュータプログラム製品。
[C33]
前記画像メッシュの頂点は、前記少なくとも1つの特徴位置に対応するC31に記載のコンピュータプログラム製品。
[C34]
前記少なくとも1つのジェスチャ入力は、タッチ入力を備えるC31に記載のコンピュータプログラム製品。
[C35]
前記命令は、前記電子デバイスに、前記画像と前記戯画画像のうちの少なくとも1つを表示させるためのコードをさらに備えるC31に記載のコンピュータプログラム製品。
[C36]
前記電子デバイスに、戯画画像を生成させるための前記コードは、前記電子デバイスに、前記少なくとも1つの戯画化アクションを前記画像に適用させるためのコードを備えるC31に記載のコンピュータプログラム製品。
[C37]
前記命令は、前記電子デバイスに、前記少なくとも1つのジェスチャ入力を検証させるためのコードをさらに備えるC31に記載のコンピュータプログラム製品。
[C38]
前記少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を備えるC31に記載のコンピュータプログラム製品。
[C39]
前記命令は、前記電子デバイスに、戯画化アクションリストを保持させるためのコードをさらに備えるC31に記載のコンピュータプログラム製品。
[C40]
前記命令は、前記電子デバイスに、前記少なくとも1つの戯画化アクションを前記戯画化アクションリストに追加させるためのコードをさらに備えるC39に記載のコンピュータプログラム製品。
[C41]
対話型画像戯画化のための装置であって、
画像の少なくとも1つの特徴位置を検出するための手段と、
前記少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成するための手段と、
少なくとも1つのジェスチャ入力を獲得するための手段と、
前記少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定するための手段と、
前記画像メッシュ、前記少なくとも1つの戯画化アクション、および前記画像に基づいて、戯画画像を生成するための手段と、を備える装置。
[C42]
前記画像は、顔画像であるC41に記載の装置。
[C43]
前記画像メッシュの頂点は、前記少なくとも1つの特徴位置に対応するC41に記載の装置。
[C44]
前記少なくとも1つのジェスチャ入力は、タッチ入力を備えるC41に記載の装置。
[C45]
前記画像と前記戯画画像のうちの少なくとも1つを表示するための手段をさらに備えるC41に記載の装置。
[C46]
戯画画像を生成するための前記手段は、前記少なくとも1つの戯画化アクションを前記画像に適用するための手段を備えるC41に記載の装置。
[C47]
前記少なくとも1つのジェスチャ入力を検証するための手段をさらに備えるC41に記載の装置。
[C48]
前記少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を備えるC41に記載の装置。
[C49]
戯画化アクションリストを保持するための手段をさらに備えるC41に記載の装置。
[C50]
前記少なくとも1つの戯画化アクションを前記戯画化アクションリストに追加するための手段をさらに備えるC49に記載の装置。

Claims (40)

  1. 電子デバイスによる対話型画像戯画化のための方法であって、
    画像を分析して前記画像の少なくとも1つの特徴位置を検出することと、
    前記少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成することと、ここにおいて、前記画像メッシュの少なくともいくつかの頂点は、前記少なくとも1つの特徴位置に対応する、
    少なくとも1つのジェスチャ入力を獲得することと、
    前記少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定することと、ここにおいて、前記少なくとも1つの戯画化アクションは、前記画像メッシュの、前記特徴位置に対応する少なくとも1つの、頂点に関するシフト情報をもたらし、前記特徴位置に対応する少なくとも1つの、前記頂点に関するシフト情報に基づいて、1つの画像頂点ピクセルを対応する1つの戯画画像頂点ピクセルにマッピングするピクセルマップをもたらし、
    前記画像メッシュ、前記少なくとも1つの戯画化アクション、および前記画像に基づいて、戯画画像を生成することと、ここにおいて、戯画画像を生成することは、前記少なくとも1つの戯画化アクションを前記画像に適用することを備え、ここにおいて、戯画画像を生成することは、前記ピクセルマップに基づいて、前記戯画画像における他の頂点および非頂点ピクセルの位置を補間することを備える、
    を備える方法。
  2. 前記画像は、顔画像である請求項1に記載の方法。
  3. 前記少なくとも1つのジェスチャ入力は、タッチ入力を備える請求項1に記載の方法。
  4. 前記画像と前記戯画画像のうちの少なくとも1つを表示することをさらに備える請求項1に記載の方法。
  5. 前記少なくとも1つのジェスチャ入力を検証することをさらに備える請求項1に記載の方法。
  6. 前記少なくとも1つのジェスチャ入力を検証することは、前記ジェスチャ入力の動きが動きしきい値より大きいかどうかを決定することを備える請求項に記載の方法。
  7. 前記少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を備える請求項1に記載の方法。
  8. 前記ジェスチャ入力の互いに対する動きを決定することをさらに備える請求項に記載の方法。
  9. 前記ジェスチャ入力が、水平にそろっていると決定することをさらに備える請求項に記載の方法。
  10. 前記ジェスチャ入力が、垂直にそろっていると決定することをさらに備える請求項に記載の方法。
  11. 戯画化アクションリストを保持することをさらに備える請求項1に記載の方法。
  12. 前記少なくとも1つの戯画化アクションを前記戯画化アクションリストに追加することをさらに備える請求項11に記載の方法。
  13. 対話型画像戯画化のための電子デバイスであって、
    画像を分析して前記画像の少なくとも1つの特徴位置を検出する特徴位置検出回路と、
    前記特徴位置検出回路に結合された画像メッシュ生成回路と、ここにおいて、前記画像メッシュ生成回路は、前記少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成し、前記画像メッシュの少なくともいくつかの頂点は、前記少なくとも1つの特徴位置に対応する、
    少なくとも1つのジェスチャ入力を獲得する感知回路と、
    前記感知回路に結合された戯画化アクション決定回路と、ここにおいて、前記戯画化アクション決定回路は、前記少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定し、ここにおいて、前記少なくとも1つの戯画化アクションは、前記画像メッシュの、前記特徴位置に対応する少なくとも1つの頂点に関するシフト情報をもたらし、前記特徴位置に対応する少なくとも1つの、前記頂点に関するシフト情報に基づいて、1つの画像頂点ピクセルを対応する1つの戯画画像頂点ピクセルにマッピングするピクセルマップをもたらし、
    前記画像メッシュ生成回路および前記戯画化アクション決定回路に結合された戯画画像生成回路と、ここにおいて、前記戯画画像生成回路は、前記画像メッシュ、前記少なくとも1つの戯画化アクション、および前記画像に基づいて、戯画画像を生成する、を備え、ここにおいて、戯画画像を生成することは、前記少なくとも1つの戯画化アクションを前記画像に適用することを備え、ここにおいて、戯画画像を生成することは、前記ピクセルマップに基づいて、前記戯画画像における他の頂点および非頂点ピクセルの位置を補間することを備える、
    電子デバイス。
  14. 前記画像は、顔画像である請求項13に記載の電子デバイス。
  15. 前記少なくとも1つのジェスチャ入力は、タッチ入力を備える請求項13に記載の電子デバイス。
  16. 前記戯画画像生成回路に結合され、前記画像と前記戯画画像のうちの少なくとも1つを表示するディスプレイをさらに備える請求項13に記載の電子デバイス。
  17. 前記感知回路に結合されたジェスチャ入力検証回路をさらに備え、ここにおいて、前記ジェスチャ入力検証回路は、前記少なくとも1つのジェスチャ入力を検証する請求項13に記載の電子デバイス。
  18. 前記少なくとも1つのジェスチャ入力を検証することは、前記ジェスチャ入力の動きが動きしきい値より大きいかどうかを決定することを備える請求項17に記載の電子デバイス。
  19. 前記少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を備える請求項13に記載の電子デバイス。
  20. ジェスチャ入力検証回路は、前記ジェスチャ入力の互いに対する動きを決定する請求項19に記載の電子デバイス。
  21. ジェスチャ入力検証回路は、前記ジェスチャ入力が、水平にそろっていると決定する請求項19に記載の電子デバイス。
  22. ジェスチャ入力検証回路は、前記ジェスチャ入力が、垂直にそろっていると決定する請求項19に記載の電子デバイス。
  23. 戯画化アクションリストを保持する請求項13に記載の電子デバイス。
  24. 前記少なくとも1つの戯画化アクションを前記戯画化アクションリストに追加する請求項23に記載の電子デバイス。
  25. コンピュータ実行可能コードを記憶する非一時的な有形のコンピュータ可読媒体であって、
    電子デバイスに、画像を分析して前記画像の少なくとも1つの特徴位置を検出させるためのコードと、
    前記電子デバイスに、前記少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成させるためのコードと、ここにおいて、前記画像メッシュの少なくともいくつかの頂点は、前記少なくとも1つの特徴位置に対応する、
    前記電子デバイスに、少なくとも1つのジェスチャ入力を獲得させるためのコードと、
    前記電子デバイスに、前記少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定させるためのコードと、ここにおいて、前記少なくとも1つの戯画化アクションは、前記画像メッシュの、前記特徴位置に対応する少なくとも1つの、頂点に関するシフト情報をもたらし、前記特徴位置に対応する少なくとも1つの、前記頂点に関するシフト情報に基づいて、1つの画像頂点ピクセルを対応する1つの戯画画像頂点ピクセルにマッピングするピクセルマップをもたらし、
    前記電子デバイスに、前記画像メッシュ、前記少なくとも1つの戯画化アクション、および前記画像に基づいて、戯画画像を生成させるためのコードと、ここにおいて、前記電子デバイスに、戯画画像を生成させるための前記コードは、前記電子デバイスに、前記少なくとも1つの戯画化アクションを前記画像に適用させるためのコードを備える、ここにおいて、前記電子デバイスに、戯画画像を生成させるための前記コードは、前記ピクセルマップに基づいて、前記戯画画像における他の頂点および非頂点ピクセルの位置を補間するためのコードを備える、
    を備えるコンピュータ可読媒体。
  26. 前記画像は、顔画像である請求項25に記載のコンピュータ可読媒体。
  27. 前記少なくとも1つのジェスチャ入力は、タッチ入力を備える請求項25に記載のコンピュータ可読媒体。
  28. 前記コンピュータ実行可能コードは、前記電子デバイスに、前記画像と前記戯画画像のうちの少なくとも1つを表示させるためのコードをさらに備える請求項25に記載のコンピュータ可読媒体。
  29. 前記コンピュータ実行可能コードは、前記電子デバイスに、前記少なくとも1つのジェスチャ入力を検証させるためのコードをさらに備える請求項25に記載のコンピュータ可読媒体。
  30. 前記少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を備える請求項25に記載のコンピュータ可読媒体。
  31. 前記コンピュータ実行可能コードは、前記電子デバイスに、戯画化アクションリストを保持させるためのコードをさらに備える請求項25に記載のコンピュータ可読媒体。
  32. 前記コンピュータ実行可能コードは、前記電子デバイスに、前記少なくとも1つの戯画化アクションを前記戯画化アクションリストに追加させるためのコードをさらに備える請求項31に記載のコンピュータ可読媒体。
  33. 対話型画像戯画化のための装置であって、
    画像を分析して前記画像の少なくとも1つの特徴位置を検出するための手段と、
    前記少なくとも1つの特徴位置に基づいて、少なくとも1つの水平線と少なくとも1つの垂直線のグリッドを備える画像メッシュを生成するための手段と、ここにおいて、前記画像メッシュの少なくともいくつかの頂点は、前記少なくとも1つの特徴位置に対応する、
    少なくとも1つのジェスチャ入力を獲得するための手段と、
    前記少なくとも1つのジェスチャ入力に基づいて、少なくとも1つの戯画化アクションを決定するための手段と、ここにおいて、前記少なくとも1つの戯画化アクションは、前記画像メッシュの、前記特徴位置に対応する少なくとも1つの、頂点に関するシフト情報をもたらし、前記特徴位置に対応する少なくとも1つの、前記頂点に関するシフト情報に基づいて、1つの画像頂点ピクセルを対応する1つの戯画画像頂点ピクセルにマッピングするピクセルマップをもたらし、
    前記画像メッシュ、前記少なくとも1つの戯画化アクション、および前記画像に基づいて、戯画画像を生成するための手段と、を備え、ここにおいて、戯画画像を生成するための前記手段は、前記少なくとも1つの戯画化アクションを前記画像に適用するための手段を備え、ここにおいて、戯画画像を生成するための前記手段は、前記ピクセルマップに基づいて、前記戯画画像における他の頂点および非頂点ピクセルの位置を補間するための手段を備える、
    装置。
  34. 前記画像は、顔画像である請求項33に記載の装置。
  35. 前記少なくとも1つのジェスチャ入力は、タッチ入力を備える請求項33に記載の装置。
  36. 前記画像と前記戯画画像のうちの少なくとも1つを表示するための手段をさらに備える請求項33に記載の装置。
  37. 前記少なくとも1つのジェスチャ入力を検証するための手段をさらに備える請求項33に記載の装置。
  38. 前記少なくとも1つのジェスチャ入力は、複数のジェスチャ入力を備える請求項33に記載の装置。
  39. 戯画化アクションリストを保持するための手段をさらに備える請求項33に記載の装置。
  40. 前記少なくとも1つの戯画化アクションを前記戯画化アクションリストに追加するための手段をさらに備える請求項39に記載の装置。
JP2015558318A 2013-02-23 2013-02-23 電子デバイスによる対話型画像戯画化のためのシステムおよび方法 Active JP6328669B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2013/000179 WO2014127494A1 (en) 2013-02-23 2013-02-23 Systems and methods for interactive image caricaturing by an electronic device

Publications (2)

Publication Number Publication Date
JP2016515236A JP2016515236A (ja) 2016-05-26
JP6328669B2 true JP6328669B2 (ja) 2018-05-23

Family

ID=51390460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015558318A Active JP6328669B2 (ja) 2013-02-23 2013-02-23 電子デバイスによる対話型画像戯画化のためのシステムおよび方法

Country Status (8)

Country Link
US (3) US10379734B2 (ja)
EP (2) EP3575947B1 (ja)
JP (1) JP6328669B2 (ja)
KR (1) KR20150121069A (ja)
CN (2) CN105074780B (ja)
ES (1) ES2769546T3 (ja)
HU (1) HUE046808T2 (ja)
WO (1) WO2014127494A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8788968B1 (en) * 2012-06-04 2014-07-22 Google Inc. Transitioning an interface to a neighboring image
EP3575947B1 (en) 2013-02-23 2022-06-22 QUALCOMM Incorporated Systems and methods for interactive image caricaturing by an electronic device
GB201706300D0 (en) * 2017-04-20 2017-06-07 Microsoft Technology Licensing Llc Debugging tool
US10559116B2 (en) * 2018-03-05 2020-02-11 Adobe Inc. Interactive caricature generation from a digital image
CN111145084B (zh) * 2019-12-25 2023-06-16 北京市商汤科技开发有限公司 图像处理方法及装置、图像处理设备及存储介质
US11328385B2 (en) * 2020-04-14 2022-05-10 Adobe Inc. Automatic image warping for warped image generation
CN113808007B (zh) * 2021-09-16 2022-07-19 北京百度网讯科技有限公司 调整虚拟脸部模型的方法、装置、电子设备及存储介质
US20230252687A1 (en) * 2022-02-10 2023-08-10 Qualcomm Incorporated Systems and methods for facial attribute manipulation

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6069622A (en) * 1996-03-08 2000-05-30 Microsoft Corporation Method and system for generating comic panels
JPH09305780A (ja) 1996-05-10 1997-11-28 Dainippon Printing Co Ltd レイアウト装置
JPH1010970A (ja) 1996-06-18 1998-01-16 Matsushita Electric Ind Co Ltd 地図データ更新システム
EP1039417B1 (en) 1999-03-19 2006-12-20 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Method and device for the processing of images based on morphable models
KR20020030226A (ko) * 2000-10-16 2002-04-24 김란숙 영상기반 캐리커츄어 제작 방법
CN1174346C (zh) 2001-04-25 2004-11-03 中国科学技术大学 一种三维人脸动画的制作方法
KR100450210B1 (ko) 2002-10-25 2004-09-24 (주)엔룩스 3차원 스캔 얼굴모델의 합성 시스템과 그 방법 및 3차원스캔 얼굴모델의 합성기능을 갖춘 프로그램이 수록된기록매체
GB0400894D0 (en) 2004-01-15 2004-02-18 British Telecomm Adaptive closed group caricaturing
TW200614094A (en) 2004-10-18 2006-05-01 Reallusion Inc System and method for processing comic character
GB0813685D0 (en) 2008-07-25 2008-09-03 Omniperception Ltd A system & method for facial recognition
US8798374B2 (en) * 2008-08-26 2014-08-05 The Regents Of The University Of California Automated facial action coding system
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
CN101887593A (zh) 2009-05-15 2010-11-17 中山大学 一种聪明图形驱动的网格图像变形方法
US20100302138A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Methods and systems for defining or modifying a visual representation
CN101923726B (zh) 2009-06-09 2012-04-04 华为技术有限公司 一种语音动画生成方法及系统
US8405659B2 (en) * 2009-06-24 2013-03-26 International Business Machines Corporation System and method for establishing correspondence, matching and repairing three dimensional surfaces of arbitrary genus and arbitrary topology in two dimensions using global parameterization
CN101692681A (zh) 2009-09-17 2010-04-07 杭州聚贝软件科技有限公司 一种在话机终端上实现虚拟形象互动界面的方法和系统
US20120306874A1 (en) * 2009-12-14 2012-12-06 Agency For Science, Technology And Research Method and system for single view image 3 d face synthesis
US8786559B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating tables using multi-contact gestures
JP5565671B2 (ja) * 2010-02-17 2014-08-06 学校法人立命館 画像変形方法、画像処理装置、及びコンピュータプログラム
US8233789B2 (en) * 2010-04-07 2012-07-31 Apple Inc. Dynamic exposure metering based on face detection
JP5240795B2 (ja) * 2010-04-30 2013-07-17 オムロン株式会社 画像変形装置、電子機器、画像変形方法、および画像変形プログラム
KR101514327B1 (ko) 2010-11-04 2015-04-22 한국전자통신연구원 얼굴 아바타 생성 장치 및 방법
US8717381B2 (en) 2011-01-11 2014-05-06 Apple Inc. Gesture mapping for image filter input parameters
CN102737362B (zh) * 2011-04-01 2015-07-08 国基电子(上海)有限公司 具漫画图像分割功能的电子装置及方法
US8687023B2 (en) 2011-08-02 2014-04-01 Microsoft Corporation Cross-slide gesture to select and rearrange
CN102306389B (zh) * 2011-08-03 2013-05-08 湖南互动传媒有限公司 一种手机动漫人物及背景的浮雕效果实现方法
CN102521867B (zh) * 2011-12-16 2014-09-17 拓维信息系统股份有限公司 一种手机动漫人物及背景创作方法
US20140092015A1 (en) * 2012-09-29 2014-04-03 Zhaohui Xing Method and apparatus for manipulating a graphical user interface using camera
US8584049B1 (en) * 2012-10-16 2013-11-12 Google Inc. Visual feedback deletion
EP3575947B1 (en) 2013-02-23 2022-06-22 QUALCOMM Incorporated Systems and methods for interactive image caricaturing by an electronic device
US9129152B2 (en) * 2013-11-14 2015-09-08 Adobe Systems Incorporated Exemplar-based feature weighting

Also Published As

Publication number Publication date
KR20150121069A (ko) 2015-10-28
CN112215914B (zh) 2024-04-26
US20160011769A1 (en) 2016-01-14
US20190278474A1 (en) 2019-09-12
US10761721B2 (en) 2020-09-01
CN105074780A (zh) 2015-11-18
EP2959458B1 (en) 2019-10-30
US10379734B2 (en) 2019-08-13
HUE046808T2 (hu) 2020-03-30
US20200363946A1 (en) 2020-11-19
WO2014127494A1 (en) 2014-08-28
JP2016515236A (ja) 2016-05-26
EP2959458A1 (en) 2015-12-30
EP3575947A3 (en) 2019-12-11
EP3575947A2 (en) 2019-12-04
US11526272B2 (en) 2022-12-13
ES2769546T3 (es) 2020-06-26
EP3575947B1 (en) 2022-06-22
CN112215914A (zh) 2021-01-12
EP2959458A4 (en) 2016-12-28
CN105074780B (zh) 2020-11-10

Similar Documents

Publication Publication Date Title
JP6328669B2 (ja) 電子デバイスによる対話型画像戯画化のためのシステムおよび方法
US20220247984A1 (en) System and method for interactive projection
WO2021120834A1 (zh) 基于生物识别的手势识别方法、装置、计算机设备及介质
EP3769509B1 (en) Multi-endpoint mixed-reality meetings
EP3341851B1 (en) Gesture based annotations
WO2015161653A1 (zh) 一种终端操作方法及终端设备
CN109101172B (zh) 多屏联动系统及其互动显示方法
US10033943B1 (en) Activity surface detection, display and enhancement
US20140292723A1 (en) Information processing device and information processing method
CN104081307A (zh) 图像处理装置、图像处理方法和程序
WO2021097600A1 (zh) 一种隔空交互方法、装置和设备
KR100907104B1 (ko) 포인팅 지점 산출 방법 및 장치, 그리고 상기 장치를포함하는 원격 협업 시스템
US10809958B2 (en) Setting up multiple displays via user input
JP2014029656A (ja) 画像処理装置および画像処理方法
US20210209840A1 (en) Generating a 3D Model of a Fingertip for Visual Touch Detection
US20150138077A1 (en) Display system and display controll device
WO2023197912A1 (zh) 图像的处理方法、装置、设备、存储介质和程序产品
CN109857244B (zh) 一种手势识别方法、装置、终端设备、存储介质及vr眼镜
JP7518196B2 (ja) 3dジオメトリを構築するための方法、装置及びプログラム
CN104238734A (zh) 三维交互系统及其交互感测方法
WO2020124562A1 (zh) 图像处理方法、显示设备及计算机可读存储介质
CN116954352A (zh) 一种投影手势的识别方法、智能交互系统及可读存储介质
JP2016110597A (ja) 情報処理システム、情報処理装置、座標変換方法およびプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170711

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20171212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180219

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20180227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180418

R150 Certificate of patent or registration of utility model

Ref document number: 6328669

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250