JP5578186B2 - キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム - Google Patents

キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム Download PDF

Info

Publication number
JP5578186B2
JP5578186B2 JP2012031476A JP2012031476A JP5578186B2 JP 5578186 B2 JP5578186 B2 JP 5578186B2 JP 2012031476 A JP2012031476 A JP 2012031476A JP 2012031476 A JP2012031476 A JP 2012031476A JP 5578186 B2 JP5578186 B2 JP 5578186B2
Authority
JP
Japan
Prior art keywords
image
character image
subject
character
extracting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012031476A
Other languages
English (en)
Other versions
JP2013168051A (ja
Inventor
一記 喜多
勝 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012031476A priority Critical patent/JP5578186B2/ja
Priority to US13/764,434 priority patent/US20130216136A1/en
Priority to CN201310051123.3A priority patent/CN103260036B/zh
Publication of JP2013168051A publication Critical patent/JP2013168051A/ja
Application granted granted Critical
Publication of JP5578186B2 publication Critical patent/JP5578186B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、アニメーション等に登場するキャラクターの画像であるキャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステムに関する。
本明細書において、キャラクター画像とはアニメーションに登場するような非実写的に表現された人物の画像をいう。
キャラクター画像と似たものにイラストがあり、例えば特許文献1には写真画像からイラスト的な画像を作成する技術が記載されている。しかしこれはあくまで実物の写真を「イラスト的」に表現したものであって、本明細書でいうキャラクター画像とは実物の写真とは異なる個性を有する人物等の画像である。広辞苑第五版によれば「イラスト」は「見て楽しく誇張・変形した絵」とあり、「キャラクター」とは「小説・映画・漫画などの登場人物」とされている。
このようなキャラクター画像に関しては、例えば下記非特許文献1にアニメ度なるものが論じられている。また、人物を撮影して、キャラクター画像に変換する最も単純な手法は、多数のキャラクター画像のデータベースを用意しておき、被写体の特徴にもっともマッチするキャラクター画像を選択するものである(例えば、特許文献2)。
被写体の特徴とは、単純な例としては男女の性別、色、明度、輪郭の形状等が挙げられる。顔認識技術を適用すれば、目の大きさ、顔の縦横比などもっと詳細な特徴も抽出することができる。
他方、データベースに多数記憶されているキャラクター画像には複数の特徴情報が付帯記憶されており、前記被写体から抽出された特徴情報とのマッチングを取り、最も整合性の高いキャラクター画像を選択すればよい。
特開2004−102819号公報 特開2004−313225号公報
河谷大和(北海道大学)ほか、「アニメキャラクターの特徴抽出に基づくアニメ度評価とその応用」FIT2008(第7回情報科学技術フォーラム)、I-040 、2008年
このように、従来の技術においては、被写体から抽出された特徴情報とのマッチングを取り、最も整合性の高いキャラクター画像を選択することにより、被写体をキャラクター画像に変換する。したがって、キャラクター画像に被写体の特徴を反映させることができる反面、ある人物に対して変換される最も整合性の高いキャラクター画像は一つのみとなる。
つまり、被写体とされたある人物の特徴は既成事実であるから、この既成事実に応じて変換されるキャラクター画像と当該人物とは常に対応関係にあり、基本的に同一人物は同一のキャラクター画像に変換される。
無論、CG(Computer Graphics)を駆使して、前記技術により変換されたキャラクター画像を加工すれば、ある人物に対して異なる特徴やイメージを加味したキャラクター画像を作成することが可能となる。しかし、CG技術により画像を加工することは、CG技術に対する高度の知識や技術等が必要であり、通常のユーザーには困難であり、容易且つ迅速に行うことはできない。
本発明は、このような従来の課題に鑑みてなされたものであり、被写体の特徴とは異なる特徴を加味したキャラクター画像を容易且つ迅速に作成することのできるキャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステムを提供することを目的とする。
前記課題を解決するため本発明は、撮影された被写体の画像をキャラクター画像に変換する画像処理装置におけるキャラクター画像の作成方法であって、前記被写体とは別のオブジェクトを撮影して、該オブジェクトの特徴を抽出し、前記被写体の画像を前記オブジェクトの特徴に応じたキャラクター画像に変換することを特徴とする。
すなわち、被写体を撮影した後、その被写体をキャラクター画像化するにあたって、他のオブジェクトを撮影することによって、そのオブジェクトの特徴で被写体をキャラクター画像化するものである。
本発明によれば、被写体の特徴とは異なる特徴を加味したキャラクター画像を容易且つ迅速に作成することができる。
(a)は、本発明の一実施の形態に係るデジタルカメラの構成を示すブロック図である。 本実施形態によるネットワーク系の構成を示す概念図である。 画像サービスサイトの構成を示すブロック図である。 (1)は画像サービスサイト内の第1DB、(2)は画像サービスサイト内の第2DBの構成を示す概念図である。 (1)はデジタルカメラ、(2)は画像サービスサイトの処理手順を示すフローチャートである。 図5におけるステップS102の被写体の顔を検出する処理の詳細を示すフローチャートである。 (a)は、顔の眼の領域を抽出するためのマスクパターンの例を示す図、(b)は眼の認識領域の条件データの例を示す図、(c)は顔認識領域の条件データの例を示す図である。 (1)は1回目の撮影画像の一例を示す図、(2)は切り抜かれた人物の顔部分の一例を示す図である。 図5におけるステップS106のオブジェクトを検出する処理の詳細を示すフローチャートである。 (1)は2回目の撮影画像の一例を示す図、(2)は切り抜かれたオブジェクトの一例を示す図である。 人物の顔の領域における特徴を抽出する処理手順の一例を説明するための図である。 オブジェクトの特徴を抽出する処理手順の一例を示すフローチャートである。 撮影からキャラクター画像に変換されるまでの例を示す遷移図である。 撮影からキャラクター画像に変換されるまでの例を示す遷移図である。 撮影からキャラクター画像に変換されるまでの例を示す遷移図である。 撮影からキャラクター画像に変換されるまでの例を示す遷移図である。
以下、本発明の実施形態について説明する。図1は、本発明を適用した実施形態に係るデジタルカメラ1の電気的構成を示すブロック図である。デジタルカメラ1は通信機能を備え、CPU11と、CPU11に接続されたROM12と、RAM13と、内部メモリ14とを具備し、ROM12には、CPU11に後述するフローチャートに示す動作を行わせるためのプログラムが記憶されている。また、CPU11は、撮像素子8で撮像した顔を認識処理するための顔認識エンジン150と、切り抜き処理エンジン450とを含んでいる。
顔認識エンジン150は、写真の中に1つ又は複数の顔が写っている場合、それぞれの顔を認識する能力を備えている。また、顔認識エンジン150は、CPU11と協働するASIC(Application Specific Integrated Circuit:特定用途向け集積回路)、若しくはDSP(Digital Signal Processor)、あるいはリコンフィギュラブルLSI(C言語等のプログラムによって再構成可能なLSI)によって構成される。
切り抜き処理エンジン450は、後述するフローチャートで説明する顔部分を切り抜く処理を実行する。RAM13は、CPU11が必要に応じて種々のデータを一時的に記憶する作業用のメモリである。
内部メモリ14は、ハードディスク、又はフラッシュメモリによる大容量不揮発性メモリである。
表示制御部16は、CPU11から供給される表示用の画像データに基づいて液晶表示パネル3を駆動することにより、画像や、各種メニューを液晶表示パネル3に表示させる。タッチ入力制御部17は、CPU11の制御に基づいてタッチパネル5の操作信号を入力するものである。
タッチパネル5は、静電容量方式、光学方式、抵抗膜方式、表面弾性波方式、超音波方式、電磁誘導方式等様々存在する中から、適宜選択することができる。指紋認証や、静脈認証の機能を組み込むことも可能である。
メモリカードインターフェース18は、メモリカードスロットに着脱自在に装着された各種のメモリカード60と、CPU11との間におけるデータの入出力を制御する入出力インターフェースである。
キー入力部7は、シャッターキー、電源キー等の通常デジタルカメラに配置されているキーを備える。キー入力制御部20は、CPU11の制御に基づいてキー入力部7を走査して、キーの操作信号を取り込むものである。
撮像制御部19は、撮像素子8を駆動して被写体の画像を取り込む制御を行う。ベイヤーデータで取り込まれた画像データは、YUV、及びRGBデータに変換後、JPEG(Joint Photographic Experts Group)データに圧縮されて内部メモリ14又はメモリカード60に記録される。
電源制御部70は、図外のバッテリを介してDC電源を取り入れ、各部に主電源71若しくは待機電源72の電力を供給する。
通信制御部30は、携帯電話回線31若しくは無線LAN32を経由してインターネット500に接続し、メールの送受信や、コンテンツの送受信を含む通信制御を行う。アドレス帳33は、メール送受信に用いられ、実際は、内部メモリ14内に設けられる。
図2は、本実施形態によるネットワーク系の構成を示す概念図である。510はパーソナルコンピュータであり、無線LAN32等で通信制御部30を介してデジタルカメラ1と接続でき、デジタルカメラ1では設定できない複雑な設定等をすることができる。
画像サービスサイト530は、デジタルカメラ1により撮影されて送信されてきた前記被写体とは別の物体であるオブジェクトの画像から当該オブジェクトの特徴を抽出する抽出手段、デジタルカメラ1により撮影されて送信されてきた被写体の画像を抽出されたオブジェクトの特徴に応じたキャラクター画像に変換する変換手段として機能するものである。なお、オブジェクトとは、キャラクター画像に変換したい被写体とは別に、作成したいキャラクター画像のイメージ(特徴)を与えるために撮影する被写体のことをいう。
図3は、この画像サービスサイト530の構成を示すブロック図である。この画像サービスサイト530は、DB(database)エリアAと、プログラムエリアB、及び制御部Cとからなる。DBエリアAには、第1DB100と第2DB200とが設けられている。プログラムエリアBには、後述するフローチャートで示す各種処理を実行するためのプログラムが格納されている。また、制御部Cは、CPU117やバッファメモリ118を備えている。
前記第1DB100は、図4(1)に示すように、人間の顔特徴情報記憶領域101と頭部キャラクター画像データ記憶領域102、及び付帯特徴情報記憶領域103に区分されている。人間の顔特徴情報記憶領域101には、後述するような顔の特徴を示す顔特徴情報が、各特徴量F(1)、F(2)、F(3)、F(4)・・・毎に区分されて記憶されている。また、頭部キャラクター画像データ記憶領域102には、後述する図13〜図16の603、703、803、903に示すような、キャラクター画像における髪の毛を含む首及び顔部分からなる頭部の画像を表示させる頭部キャラクター画像データA−1,A−2,A−3,A−4・・・が、前記顔の各特徴量F(1)、F(2)、F(3)、F(4)・・・に対応して記憶されている。付帯特徴情報記憶領域103には、頭部キャラクター画像A−1、A−2、A−3、A−4・・・・・・に対応してそれぞれ特徴ータが色相=HHH、彩度=SSS、明度=VVV、輪郭形状=fff、大きさ=LLLとして記憶されている。
前記第2DB200は、図4(2)に示すように、オブジェクトのテンプレート記憶領域201と身体キャラクター画像データ記憶領域202、及び付帯特徴情報領域203が各々N=1,2,3,4・・・とシリアル番号N毎に区分されている。オブジェクトのテンプレート記憶領域201には、「キウイフルーツ」、「モンブランケーキ」、「ブタの貯金箱」、「自動車」等の人間以外の物体の特徴を示す特徴情報(本実施の形態においては、色相、彩度、明度、輪郭形状、大きさの各特徴量データ)とがテンプレートとして記憶されている。また、身体キャラクター画像データ記憶領域202には、後述する図13〜図16の605、705、805、905に示すような、身体キャラクター画像データB−1,B−2,B−3,B−4・・・が、前記各テンプレートに対応して記憶されている。付帯特徴情報記憶領域103には、身体キャラクター画像データB−1,B−2,B−3,B−4・・・に対応してそれぞれ特徴データが色相=HHH、彩度=SSS、明度=VVV、輪郭形状=fff、大きさ=LLLとして付帯して記憶されている。
次に、以上の構成に係る本実施の形態における動作を図5に示すフローチャートに従って説明する。デジタルカメラ1を、キャラクター画像作成モードに設定すると、CPU11がROM12に格納されているプログラムに従って処理を実行することにより図5(1)のフローチャートに示すように動作する。また、画像サービスサイト530は、CPU117がプログラムエリアBに格納されているプログラムに従って処理を実行することにより同図(2)のフローチャートに示すように動作する。
すなわち、デジタルカメラ1は、1回目の撮影処理が実行されるまで待機する(ステップS101)。ユーザーが、キー入力部4に設けられているシャッターキーを操作すると、CPU11からの指示に従って撮像制御部19が撮像素子8を駆動する。これにより撮像素子8からベイヤーデータで取り込まれた画像データは、撮像制御部19によりYUV及びRGBデータに変換後、JPEGデータに圧縮されて内部メモリ14又はメモリカード60に記録される。
すると、ステップS101の判断がYESとなり、CPU11はステップS101からステップS102に処理を進めて、記録された画像中に人物の顔があるか否かを判断する。
図6は、この被写体の顔を検出する処理であるステップS102の詳細を示すフローチャートである。先ず、前述のようにして内部メモリ14又はメモリカード60に記録された画像を取り込み(ステップS301)、輝度もしくは色差データに基づいて輪郭を抽出する(ステップS302)。次に、前記画像をこの抽出した輪郭を境界とする領域に分割し(ステップS303)、分割領域の中からいずれかの対象領域を選択する(ステップS304)。そして、RGBまたは色差データに基づいて、選択した領域の平均RGBまたは平均色差データを算出し(ステップS305)、この算出したRGBまたは色差値をHSVに変換する(ステップS306)。
引き続き、この変換したHSVが肌色の領域は否か、つまり、色相(Hue)が6〜38°内か否かを判断し(ステップS307)、この判断がNOである場合には、顔の領域でないと判断する(ステップS315)。次に、今回選択した領域が、当該画像において最後の領域であるか否かを判断し(ステップS318)、最後の領域でない場合には、ステップS704に戻って次の領域を選択し、前述した処理を繰り返す。そして、最後の領域まで以上の処理が実行されると、ステップS318の判断がYESとなり、認識結果を判断結果として出力する(ステップS319)。
また、ステップS307での判断がYESである場合には、図7に示す顔のマスクパターンを用いて前記対象領域において眼と瞳の領域を検索する(ステップS308)。
図7において、(a)は、顔の眼の領域を抽出するためのマスクパターンの例で、これを参照パターンとして、テンプレートマッチング等を用いて検索し、入力画像から眼や顔のある画像領域を検索できる。(b)は、眼を認識するデータの例で、例えば、眼の細長さ=b/aとして、α1≦b/a≦α2の条件に合致する、または、(眼の面積)S1≒π×a×b、(黒眼(瞳)の面積)S2=π×r2、黒眼(瞳)の比率S2/S1=r2/abとして、β1≦r2/ab≦β2などの条件に合致する被写体画像の領域を「眼の領域」と識別することができる。また、(c)は、人間の顔と認識するための条件データの設定で、例えば、(眉下〜鼻下までの長さ)h1≒(鼻下〜あごまでの長さ)h2、または、(右眼の幅)W1≒(両眼の間)W2≒(左眼の幅)W3、などの条件を満たす被写体画像の領域を「顔の領域」であると識別できる。
そこで図7に示す顔のマスクパターンを用いて前記対象領域において眼と瞳の領域を検索する(ステップS308)。次に、眼の領域は検出できたか否かを判断し(ステップS309)、検出できない場合には、顔の領域でないと判断する(ステップS315)。検出できた場合には、眼の縦横比(b/a)、眼と瞳(黒眼)の面積比(r2/ab)を算出し(ステップS310)、眼と瞳の比率は所定範囲内か否か、すなわち前記α1≦b/a≦α2の条件に合致するか否かを判断する(ステップS311)。この判断がNOである場合には、顔の領域でないと判断する(ステップS315)。
また、ステップS311の判断がYESである場合には、眼と瞳の比率は所定範囲内であるか否か、すなわち前記β1≦r2/ab≦β2の条件に合致するか否かを判断する(ステップS312)。この判断がNOである場合には、顔の領域でないと判断する(ステップS315)。ステップS312の判断がYESである場合には、右眼の幅W1、右眼と左眼の間隔W2、左眼の幅W3を算出し(ステップS313)、W1とW2、W3は等しいか否か、すなわちW1−δ≦W2≦W1+δ、W1−δ≦W3≦W1+δであるか否かを判断する(ステップS314)。この判断がNOである場合には、顔の領域でないと判断する(ステップS315)。そして、この判断がYESである場合、つまり、ステップS307、S309、S311、S312、S314の判断が全てYESである場合には、前記ステップS304で選択した領域を、顔の領域として認識する(ステップS316)。さらに、この認識された顔の領域の位置座標を記憶し(ステップS317)、認識結果を判断結果として出力する(ステップS319)。
したがって、以上の処理により、図5(1)のフローチャートのステップS102において画像中に人物の顔があると判断された場合にはYESが出力され、人物の顔がない場合にはNOが出力されることとなる。そして、YESが出力された場合には、判断された顔画像(顔部分)を切り抜く切り抜き処理を実行する。この切り抜き処理は、前記ステップS302で抽出された輪郭であって前記ステップS316で顔の領域として認識された画像部分を切り出すことにより行う。さらに、この切り抜いた顔画像を画像サービスサイト530に送信する(ステップS104)。
したがって、1回目の撮影により例えば図8(1)に示す顔を有する人物P0が存在する画像P1を撮影したとすると、同図(2)に示すように、人物P0から顔部分P2が切り抜かれて、その画像データがデジタルカメラ1から画像サービスサイト530に送信される。
なお、このように本実施の形態においては、顔画像(顔部分)を切り抜く切り抜き処理(ステップS103)をデジタルカメラ1側で実行し、この切り抜いた顔画像を画像サービスサイト530に送信するようにした。しかし、デジタルカメラ1側から、1回目に撮影した画像そのものを画像サービスサイト530に送信し、画像サービスサイト530側で切りぬき処理を行うようにすることもできる。
このようにすれば、サーバー(画像サービスサイト530)と比較して処理能力が低いデジタルカメラ1の処理負担を軽減することができるのみならず、処理能力が高いサーバー(画像サービスサイト530)側で正確かつ迅速な切りぬき処理を行うことができる。
次に、デジタルカメラ1は、2回目の撮影処理が実行されるまで待機する(ステップS105)。ユーザーが、キー入力部4に設けられているシャッターキーを操作すると、前述と同様に、CPU11からの指示に従って撮像制御部19が撮像素子8を駆動して、撮像素子8からベイヤーデータで取り込まれた画像データが、撮像制御部19によりYUV及びRGBデータに変換後、JPEGデータに圧縮されて内部メモリ14又はメモリカード60に記録される。
すると、ステップS105の判断がYESとなり、CPU11はステップS105からステップS106に処理を進めて、例えば画像の中心部に人物の顔以外の物体があるか否かを判断する。
図9は、このオブジェクトを検出する処理であるステップ106の詳細を示すフローチャートである。先ず、前述のようにして内部メモリ14又はメモリカード60に記録された画像においてカーソルC(図10参照)で取り囲まれた画像の中央部分を取り込み(ステップS401)、輝度もしくは色差データに基づいて輪郭を抽出する(ステップS402)。次に、前記画像をこの抽出した輪郭を境界とする領域を抽出し(ステップS403)、この抽出した領域を選択領域とする(ステップS404)。そして、RGBまたは色差データに基づいて、選択した領域の平均RGBまたは平均色差データを算出し(ステップS405)、この算出したRGBまたは色差値をHSV(Hue、Saturation、Value)に変換する(ステップS406)。
引き続き、この変換したHSVが肌色の領域か否か、つまり、色相(Hue)が6〜38°内か否かを判断し(ステップS407)、この判断がNOである場合には、物体の領域であると判断する(ステップS415)。さらに、この認識された物体の領域の位置座標を記憶し(ステップS417)、認識結果を判断結果(YES)として出力する(ステップS418)。
また、ステップS407での判断がYESである場合には、図7に示す顔のマスクパターンを用いて前記対象領域において眼と瞳の領域を検索する(ステップS408)。次に、眼の領域は検出できたか否かを判断し(ステップS409)、検出できない場合には、物体の領域であると判断する(ステップS415)。検出できた場合には、眼の縦横比(b/a)、眼と瞳(黒眼)の面積比(r2/ab)を算出し(ステップS410)、眼と瞳の比率は所定範囲内か否か、すなわち前記α1≦b/a≦α2の条件に合致するか否かを判断する(ステップS411)。この判断がNOである場合には、物体の領域であると判断する(ステップS415)。
また、ステップS411の判断がYESである場合には、眼と瞳の比率は所定範囲内であるか否か、すなわち前記β1≦r2/ab≦β2の条件に合致するか否かを判断する(ステップS412)。この判断がNOである場合には、物体の領域であると判断する(ステップS415)。ステップS412の判断がYESである場合には、右眼の幅W1、右眼と左眼の間隔W2、左眼の幅W3を算出し(ステップS413)、W1とW2、W3は等しいか否か、すなわちW1−δ≦W2≦W1+δ、W1−δ≦W3≦W1+δであるか否かを判断する(ステップS414)。この判断がNOである場合には、物体の領域であると判断する(ステップS415)。そして、この判断がYESである場合、つまり、ステップS407、S409、S411、S412、S414の判断が全てYESである場合には、前記ステップS404で選択した領域を、物体の領域ではなく顔の領域として認識し(ステップS416)、認識結果を判断結果(NO)として出力する(ステップS418)。
したがって、以上の処理により、図5(1)のフローチャートのステップS106において画像の中心部に人物の顔以外の物体があると判断された場合にはYESが出力されることとなる。そして、YESが出力された場合には、判断された物体を切り抜く切り抜き処理を実行する(ステップS107)。この切り抜き処理は、前記ステップS402で抽出された輪郭であって前記ステップS315で物体の領域として認識された画像部分を切り出すことにより行う。さらに、この切り抜いた物体の画像をオブジェクトの画像として画像サービスサイト530に送信する(ステップS108)。
したがって、2回目の撮影により例えば図10(1)に示すように、液晶表示パネル3に表示されているスルー画像中において中心部に表示されているカーソルC内にキウイフルーツP3が存在する画像P4を撮影したとすると、同図(2)に示すように、画像P4からキウイフルーツP1部分が切り抜かれて、その画像データがオブジェクトの画像データとしてデジタルカメラ1から画像サービスサイト530に送信に送信される。
一方、画像サービスサイト530は、前記ステップS104でデジタルカメラ1から送信されてくる顔画像データを受信したか否かを判断する(ステップS201)。この顔画像データを受信したならば、頭部キャラクター画像変換処理を実行する(ステップS202)。この頭部キャラクター画像変換処理は、下記(1)及び(2)の処理で構成される。
(1)前記受信した顔画像データで表される顔画像の特徴を抽出する処理
(2)この抽出した特徴に対応する頭部キャラクター画像データを第1DB100から読み出す処理。
図11は、前記(1)の顔の特徴を抽出する処理手順の一例を示すフロー説明図である。すなわち、ステップ(a)顔の位置検出では、顔の輪郭画像に様々なグラフを当てはめて、人物の顔部分を検出する。次に、ステップ(b)顔の特徴点の位置検出では、画像の顔部分を切り出し、顔の大きさを正規化して、顔の特徴点の位置を検出する。さらに、ステップ(c)特徴量の検出においては、各特徴点から、ウェーブレット変換等で、周波数成分など個人毎の特徴量Fを抽出する。
この特徴量Fの最小値から最大値までの振れる範囲を1000とすると、図4(1)において、特徴量F(1)は1〜10、F(2)は11〜20、F(3)は21〜30、・・・F(100)は991〜1000の範囲の特徴量が得られたとき、対応する頭部キャラクター画像データA−1、A―2、A―3、・・・A−100に対応する。
この例では特徴量の範囲を1000に分けて100種類の頭部キャラクター画像(以下、頭部キャラクター画像データで表される画像を頭部キャラクター画像という)と対応付けたが、対応関係や頭部キャラクター画像の数等は適宜設定するものとする。
したがって、この例の場合には、図4に示した第1DB100の人間の顔特徴情報記憶領域101には、複数の前記特徴量F(1)、F(2)、F(3)、F(4)・・・が記憶されており、頭部キャラクター画像データ記憶領域102には、各特徴量に対応して異なる頭部キャラクター画像データが記憶されている。そして、前記(2)の処理で特徴量に対応する頭部キャラクター画像データを読み出すことにより、キャラクター画像変換処理(S202)が完了することになる。
そして、図5(2)のフローチャートにおいて、S202に続くステップS203では、デジタルカメラ1から送信されてくるオブジェクト画像データを受信したか否かを判断する。このオブジェクト画像データを受信したならば、身体キャラクター画像変換処理を実行する(ステップS204)。この身体キャラクター画像変換処理は、下記(1)及び(2)の処理で構成される。
(1)前記受信したオブジェクト画像データで表されるオブジェクトの特徴を抽出する処理
(2)この抽出したオブジェクトの特徴に対応する身体キャラクター画像データを第2DB200から読み出す処理。
図12は、前記(1)のオブジェクトの特徴を抽出する処理手順の一例を示すフローチャートである。画像サービスサイト530のCPU117は、プログラムエリアBに格納されているプログラムに基づき、このフローチャートに示すように処理を実行する。すなわち、第2DB200の行に付されたシリアル番号NをカウントするためのカウンタNに初期値「1」セットする(ステップS501)。
引き続き、受信したオブジェクト画像からの特徴抽出処理を実行する(ステップS502)。ここで、本実施の形態においては、抽出する特徴を色相、彩度、明度、輪郭形状、大きさの各特徴量データとする。したがって、このステップS502での処理により、バッファメモリ118にはオブジェクト画像の特徴データD1として、色相=HHH、彩度=SSS、明度=VVV、輪郭形状=fff、大きさ=LLLが記憶されることとなる。
そして、このバッファメモリ118に記憶した前記特徴データD1の色相=HHH、彩度=SSS、明度=VVV、輪郭形状=fff、大きさ=LLLと、第2DB200のN番目の行のテンプレート記憶領域201に記憶されている身体キャラクター画像データの特徴データD2とを比較し類似度を算出する(ステップS503)。つまり、抽出された特徴データD1の各値と記憶されている特徴データD2の各値との比率を算出する。
次に、この算出した比率である類似度が所定値以上であるか否かを判断し(ステップS504)、所定値未満である場合にはステップS506に進む。そして、Nの値が第2DB200の行の最大値であるNmaxとなるまで、Nの値をインクリメントしつつ(ステップS507)、ステップS503からの処理を繰り返す。また、類似度が所定値以上である場合には、オブジェクトをテンプレートの物体と認識する(ステップS505)。したがって、類似度が所定値以上である場合には、オブジェクトは、「キウイフルーツ」、「モンブランケーキ」、「ブタの貯金箱」、「自動車」等の人間以外の物体として特定されることとなる。
例えば、類似度の所定値以上を0.9〜1.1とする(1.0=一致)。撮影し抽出したオブジェクトの特徴データD1の色相HHHと第2DB200の1行目(N=1)の色相HHHの類似度が、0.8と判断されると、所定値の範囲を外れるので2行目(N=2)の比較へ進む。1行目で色相HHHの類似度が1.05と判断されると、所定値の範囲内なので彩度SSSの類似度比較へ進み、ここでも類似度が0.98のように所定範囲内であれば明度VVVの比較へ進む。もしここで明度VVVの類似度が1.2のように所定範囲を外れると2行目の比較は終了して3行目の比較へ進む。そして、3行目の特徴データD2がすべての特徴データD2の要素で所定範囲内と判断されると、3行目の身体キャラクター画像(以下、身体キャラクター画像データで表される画像を身体キャラクター画像という)は撮影したオブジェクトと類似していると判断し、類似フラグを立てておく(ステップS508)。
この類似度比較処理をNmax行まで行い、類似フラグが立った身体キャラクター画像データが10個あったとする。 次に、DB100で決定した頭部キャラクター画像とのマッチングを取る(ステップS509)。すなわち、頭部キャラクター画像は被写体の顔と類似しており、身体キャラクター画像はオブジェクトと類似しているので、類似フラグが立っている10個の身体キャラクター画像データの中から、既に決定している頭部キャラクター画像に最も特徴が似ているものを選択する。具体的には、頭部キャラクター画像A−1、A−2、A−3・・・はそれぞれ特徴データD3を色相=HHH、彩度=SSS、明度=VVV、輪郭形状=fff、大きさ=LLLとして付帯しており、類似フラグが立った10個の身体キャラクター画像の特徴データD2と、決定した頭部キャラクター画像の特徴データD2の類似度を比較し、各要素の類似度の平均が最も1に近い身体キャラクター画像を特定する。
そして、前記(2)の処理で、オブジェクトのテンプレート記憶領域201で特定されたテンプレートに対応する行に対応する行に記憶されている身体キャラクター画像データを読み出すことにより(ステップS510)、身体キャラクター変換処理(S204)が完了する。
しかる後に、前記ステップS202で読み出した頭部キャラクター画像と、前記ステップS204で読み出した身体キャラクター画像とを合成する合成処理を実行する(ステップS204)。つまり、身体キャラクター画像の上端部に頭部キャラクター画像を合成結合することにより、全身キャラクター画像を作成する。そして、この作成した全身キャラクター画像データをデジタルカメラ1に送信する(ステップS206)。
すると、デジタルカメラ1は、この画像サービスサイト530から送信されてくる全身キャラクター画像データを受信して、液晶表示パネル3に表示させるとともに、内部メモリ14又はメモリカード60に記憶する(ステップS109)。
したがって、本実施の形態によれば、被写体とした人物の特徴とは異なる特徴を加味したキャラクター画像を容易且つ迅速に作成することができる。しかも、実施の形態においては、被写体人物の顔の特徴をキャラクター画像が頭部の特徴に反映させるようにしたことから、被写体物の特徴を加味しつつこれとは異なる特徴を加味したキャラクター画像を容易且つ迅速に作成することができる。
すなわち、図13に示すように、1回目のシャッターキー操作により人物601を撮影すると、その顔部分602が切り抜き処理されてデジタルカメラ1から画像サービスサイト530に送信される。すると、画像サービスサイト530はこれを受信し、顔部分602の特徴に応じた頭部キャラクター画像(髪の毛を含む首及び顔部分からなる)603に変換する。
また、2回目のシャッターキー操作によりキウイフルーツ604をカーソルC内に位置させて撮影すると、キウイフルーツ604の画像部分が切り抜き処理されてデジタルカメラ1から画像サービスサイト530に送信される。すると、画像サービスサイト530はこれを受信して、キウイフルーツ604の特徴に応じた身体キャラクター画像605に変換する。しかる後に、画像サービスサイト530は、頭部キャラクター画像603と身体キャラクター画像605とを合成して全身キャラクター画像606を作成し、デジタルカメラ1に送信する。
したがって、被写体とした人物の顔部分602を有しつつ、これとは異なる物体であるオブジェクトとしてのキウイフルーツ604の特徴をも加味したキャラクター画像を容易且つ迅速に作成することができる。
また、図14に示すように、1回目のシャッターキー操作により人物を撮影すると、その顔部分702が切り抜き処理されてデジタルカメラ1から画像サービスサイト530に送信される。すると、画像サービスサイト530はこれを受信し、顔部分702の特徴に応じた頭部キャラクター画像703に変換する。
2回目のシャッターキー操作によりモンブランケーキ704をカーソルC内に位置させて撮影すると、モンブランケーキ704の画像部分が切り抜き処理されてデジタルカメラ1から画像サービスサイト530に送信される。すると、画像サービスサイト530はこれを受信して、モンブランケーキ704の特徴に応じた身体キャラクター画像705に変換する。しかる後に、画像サービスサイト530は、頭部キャラクター画像703と身体キャラクター画像705とを合成して全身キャラクター画像706を作成し、デジタルカメラ1に送信する。
また、図15に示すように、1回目のシャッターキー操作により人物を撮影すると、その顔部分802が切り抜き処理されてデジタルカメラ1から画像サービスサイト530に送信される。すると、画像サービスサイト530はこれを受信し、顔部分802の特徴に応じた頭部キャラクター画像803に変換する。
2回目のシャッターキー操作によりブタの貯金箱804をカーソルC内に位置させて撮影すると、ブタの貯金箱804の画像部分が切り抜き処理されてデジタルカメラ1から画像サービスサイト530に送信される。すると、画像サービスサイト530はこれを受信して、ブタの貯金箱804の特徴に応じた身体キャラクター画像805に変換する。しかる後に、画像サービスサイト530は、頭部キャラクター画像803と身体キャラクター画像805とを合成して全身キャラクター画像806を作成し、デジタルカメラ1に送信する。
また、図16に示すように、1回目のシャッターキー操作により人物を撮影すると、その顔部分902が切り抜き処理されてデジタルカメラ1から画像サービスサイト530に送信される。すると、画像サービスサイト530はこれを受信し、顔部分902の特徴に応じた頭部キャラクター画像903に変換する。
2回目のシャッターキー操作により自動車904をカーソルC内に位置させて撮影すると、自動車904の画像部分が切り抜き処理されてデジタルカメラ1から画像サービスサイト530に送信される。すると、画像サービスサイト530はこれを受信して、自動車904の特徴に応じた身体キャラクター画像905に変換する。しかる後に、画像サービスサイト530は、頭部キャラクター画像903と身体キャラクター画像905とを合成して全身キャラクター画像906を作成し、デジタルカメラ1に送信する。
したがって、被写体とした人物の顔部分602を有しつつ、これとは異なる物体であるオブジェクトとしてのモンブランケーキ704、ブタの貯金箱804、自動車905の特徴をも加味したキャラクター画像を容易且つ迅速に作成することができる。
なお、本実施の形態においては、デジタルカメラ1と画像サービスサイト530との組合せにより本発明を実施するようにしたが、デジタルカメラ1のみにより本発明を実施するようにしてもよい。この場合、第1DB100及び第2DB200とをROM12内に予め設けておき、図5に示したフローチャート(1)及び(2)に従った処理をデジタルカメラ1のCPU11に実行させればよい。
また、デジタルカメラを例にとって説明したが、スマートフォン等にも適用できる。
また、顔部分の切り抜きは、タッチパネルの上から指またはペンで顔部分の輪郭をなぞることによって行ってもよい。
また、第1DB、第2DBに記憶されている顔キャラクター画像や身体キャラクター画像は後から追加して増やしていくことができ、ユーザーが投稿できるようにしてもよい。
また、被写体とオブジェクトは同時期に撮影しなくても、被写体として既に保存されている写真を使用することもできる。
また、実施の形態においては、キャラクター画像に変換する対象を人である場合を示したが、人に限らず他の有体物であってもよい。
以上、この発明の実施形態について説明したが、この発明はこれらに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
この発明の実施形態によれば、人物の写真をキャラクター画像に変換したいときに、オブジェクトを撮影することによってそのオブジェクトの特徴を反映することができるので、直感的なイメージでキャラクター画像を作成することができる。
例えばイメージの例を挙げると、オブジェクトが「緑色で丸いキウイ」のときは、緑の服を着て丸顔のショートカットの女性」のキャラクター画像が作成されたり、オブジェクトが「モンブランケーキ」のときは、「ベージュのふんわりとしたワンピースをまとった女性」のキャラクター画像が作成されたり、オブジェクトが「ブタの貯金箱」のときは、ピンクのホームウエアでのんびり過ごしている女性」のキャラクター画像が作成されたり、オブジェクトが「シルバーの自動車」のときは、「モノトーンでスポーティな感じの女性」のキャラクター画像が作成されたりするので、感覚でキャラクター画像を作成することができ、新しい楽しみ方を提供することができる。
以下に、本出願の特許請求の範囲に記載された発明を付記する。
<請求項1>
撮影された被写体の画像をキャラクター画像に変換する画像処理装置におけるキャラクター画像の作成方法であって、
前記被写体とは別のオブジェクトを撮影して、該オブジェクトの特徴を抽出し、前記被写体の画像を前記オブジェクトの特徴に応じたキャラクター画像に変換することを特徴とする画像処理装置のキャラクター画像の作成方法。
<請求項2>
前記被写体は、顔を有する人物被写体であることを特徴とする請求項1記載のキャラクター画像の作成方法。
<請求項3>
撮影された被写体の画像をキャラクター画像に変換する画像処理装置であって、
前記被写体と、該被写体とは別のオブジェクトとを各々撮影する撮影手段と、
前記撮影手段により撮影されたオブジェクトの特徴を抽出する抽出手段と、
前記被写体の画像を前記抽出手段により抽出されたオブジェクトの特徴に応じたキャラクター画像に変換する変換手段と
を備えることを特徴とする画像処理装置。
<請求項4>
撮影された被写体の画像をキャラクター画像に変換する装置が有するコンピュータを、
前記撮影手段を制御して、被写体と、該被写体とは別のオブジェクトとを各々撮影する撮影制御手段と、
前記撮影制御手段により撮影されたオブジェクトの特徴を抽出する抽出手段と、
前記被写体の画像を前記抽出手段により抽出されたオブジェクトの特徴に応じたキャラクター画像に変換する変換手段と
として機能させることを特徴とする画像処理プログラム。
<請求項5>
端末、及び該端末とネットワークを介して接続されるサーバーとで構成され、撮影された被写体の画像をキャラクター画像に変換する画像変換ネットワークシステムであって、
前記端末は、前記被写体と、該被写体とは別のオブジェクトとを各々撮影する撮影手段を備え、
前記サーバーは、前記撮影手段により撮影されて供給されたオブジェクトの特徴を抽出する抽出手段と、
前記被写体の画像を前記抽出手段により抽出されたオブジェクトの特徴に応じたキャラクター画像に変換する変換手段と、
前記変換手段により変換されたキャラクター画像を前記端末に送信する送信手段と、
を備えることを特徴とする画像変換ネットワークシステム。
1 デジタルカメラ
3 液晶表示パネル
4 キー入力部
8 撮像素子
11 CPU
12 ROM
13 RAM
14 内部メモリ
16 表示制御部
17 タッチ入力制御部
18 メモリカードインターフェース
19 撮像制御部
20 キー入力制御部
30 通信制御部
32 無線LAN
60 メモリカード
100 第1DB
101 顔特徴情報記憶領域
102 頭部キャラクター画像記憶領域
117 CPU
118 バッファメモリ
150 顔認識エンジン
200 第2DB
201 テンプレート記憶領域
202 身体キャラクター画像記憶領域
500 インターネット
530 画像サービスサイト
A−1、A−2、A−3・・・ 頭部キャラクター画像
B−1、B−2、B−3・・・ 身体キャラクター画像
D1 オブジェクトの特徴データ
D2 身体キャラクター画像の特徴データ
F(1)、F(2)、F(3)・・・ 頭部キャラクター画像の特徴量

Claims (5)

  1. 撮影された被写体の画像をキャラクター画像に変換する画像処理装置のコンピュータが実行するキャラクター画像の作成方法であって、
    前記被写体とする物体である第1のオブジェクトを撮影して得られた画像から、該第1のオブジェクトの視覚的な特徴を抽出する第1の抽出工程と、
    前記第1のオブジェクトとは異なる更に別の物体である第2のオブジェクトを撮影して得られた画像から、該第2のオブジェクトの視覚的な特徴を抽出する第2の抽出工程と、
    前記被写体の画像を、前記第1の抽出工程で得られた第1のオブジェクトの視覚的な特徴に応じた第1のキャラクター画像に変換するとともに、前記第1のキャラクター画像を、前記第2の抽出工程で得られた第2のオブジェクトの視覚的な特徴に応じたキャラクター画像と合成する合成工程と、
    を実行することを特徴とする画像処理装置のキャラクター画像の作成方法。
  2. 前記被写体は、顔を有する人物被写体であることを特徴とする請求項1記載のキャラクター画像の作成方法。
  3. 撮影された被写体の画像から得られたキャラクター画像を合成する画像処理装置であって、
    前記被写体とする第1のオブジェクトを撮影して得られた画像から、該第1のオブジェクトの視覚的な特徴を抽出する第1の抽出手段と、
    前記第1のオブジェクトとは異なる更に別の物体である第2のオブジェクトを撮影して得られた画像から、該第2のオブジェクトの視覚的な特徴を抽出する第2の抽出手段と、
    前記被写体の画像を、前記第1の抽出手段で得られた第1のオブジェクトの視覚的な特徴に応じた第1のキャラクター画像に変換するとともに、前記第1のキャラクター画像を、前記第2の抽出手段で得られた第2のオブジェクトの視覚的な特徴に応じたキャラクター画像と合成する合成手段と、
    を備えることを特徴とする画像処理装置。
  4. 撮影された被写体の画像をキャラクター画像に変換する装置が有するコンピュータを、
    前記被写体とする物体である第1のオブジェクトを撮影して得られた画像から、該第1のオブジェクトの視覚的な特徴を抽出する第1の抽出手段、
    前記第1のオブジェクトとは異なる更に別の物体である第2のオブジェクトを撮影して得られた画像から、該第2のオブジェクトの視覚的な特徴を抽出する第2の抽出手段、
    前記被写体の画像を、前記第1の抽出手段で得られた第1のオブジェクトの視覚的な特徴に応じた第1のキャラクター画像に変換するとともに、前記第1のキャラクター画像を、前記第2の抽出手段で得られた第2のオブジェクトの視覚的な特徴に応じたキャラクター画像と合成する合成手段、
    として機能させることを特徴とする画像処理プログラム。
  5. 端末、及び該端末とネットワークを介して接続されるサーバーとで構成され、撮影された被写体の画像をキャラクター画像に変換する画像変換ネットワークシステムであって、
    前記端末は、前記被写体と、該被写体とは別の物体である複数のオブジェクトを各々撮影する撮影手段を備え、
    前記サーバーは、
    前記被写体とする第1のオブジェクトを撮影して得られた画像から、該第1のオブジェクトの視覚的な特徴を抽出する第1の抽出手段と、
    前記第1のオブジェクトとは異なる第2のオブジェクトを撮影して得られた画像から、該第2のオブジェクトの視覚的な特徴を抽出する第2の抽出手段と、
    前記被写体の画像を、前記第1の抽出手段で得られた第1のオブジェクトの視覚的な特徴に応じた第1のキャラクター画像に変換するとともに、前記第1のキャラクター画像を、被写体の画像を、前記第2の抽出手段で得られた第2のオブジェクトの視覚的な特徴に応じたキャラクター画像と合成する合成手段と、
    前記合成手段により合成されたキャラクター画像を前記端末に送信する送信手段と、
    を備えることを特徴とする画像変換ネットワークシステム。
JP2012031476A 2012-02-16 2012-02-16 キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム Expired - Fee Related JP5578186B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012031476A JP5578186B2 (ja) 2012-02-16 2012-02-16 キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム
US13/764,434 US20130216136A1 (en) 2012-02-16 2013-02-11 Image processing apparatus, image processing method, storage medium and image processing system
CN201310051123.3A CN103260036B (zh) 2012-02-16 2013-02-16 图像处理装置、图像处理方法以及图像处理系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012031476A JP5578186B2 (ja) 2012-02-16 2012-02-16 キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2014137325A Division JP5874783B2 (ja) 2014-07-03 2014-07-03 画像処理装置、画像処理方法、画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2013168051A JP2013168051A (ja) 2013-08-29
JP5578186B2 true JP5578186B2 (ja) 2014-08-27

Family

ID=48963696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012031476A Expired - Fee Related JP5578186B2 (ja) 2012-02-16 2012-02-16 キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム

Country Status (3)

Country Link
US (1) US20130216136A1 (ja)
JP (1) JP5578186B2 (ja)
CN (1) CN103260036B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9361510B2 (en) * 2013-12-13 2016-06-07 Intel Corporation Efficient facial landmark tracking using online shape regression method
JP2016118991A (ja) * 2014-12-22 2016-06-30 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
CN105163096A (zh) * 2015-10-16 2015-12-16 盐城工学院 一种图像智能高效识别系统
US10242291B2 (en) * 2017-02-08 2019-03-26 Idemia Identity & Security Device for processing images of people, the device seeking to sort these images as a function of contextual information
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
CN111080743B (zh) * 2019-12-12 2023-08-25 广东智媒云图科技股份有限公司 一种头部肢体特征点连线的人物作画方法及装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6307568B1 (en) * 1998-10-28 2001-10-23 Imaginarix Ltd. Virtual dressing over the internet
JP2001357415A (ja) * 2000-04-13 2001-12-26 Sony Corp 画像処理装置および方法、記録媒体、並びにプログラム
US6546309B1 (en) * 2000-06-29 2003-04-08 Kinney & Lange, P.A. Virtual fitting room
JP2004507822A (ja) * 2000-08-23 2004-03-11 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 衣類の選択に関する推奨例を発生する方法及びシステム
US7953648B2 (en) * 2001-11-26 2011-05-31 Vock Curtis A System and methods for generating virtual clothing experiences
US20030100363A1 (en) * 2001-11-28 2003-05-29 Ali Guiseppe C. Method and apparatus for inputting appearance of computer operator into a computer program
WO2003100703A2 (en) * 2002-05-28 2003-12-04 Casio Computer Co., Ltd. Composite image output apparatus and composite image delivery apparatus
JP3918632B2 (ja) * 2002-05-28 2007-05-23 カシオ計算機株式会社 画像配信サーバ、画像配信プログラム、及び画像配信方法
CN1311677C (zh) * 2004-03-12 2007-04-18 冯彦 一种数字视像节目角色头部的替换方法
JP2006040046A (ja) * 2004-07-28 2006-02-09 Sony Corp 情報処理システム及び情報処理方法
WO2007032075A1 (ja) * 2005-09-15 2007-03-22 Dentsu Inc. アトラクションシステムおよびアトラクション提供方法
WO2009108645A1 (en) * 2008-02-27 2009-09-03 Sony Computer Entertainment America Inc. Methods for capturing depth data of a scene and applying computer actions
CN101299267A (zh) * 2008-07-02 2008-11-05 北京中星微电子有限公司 一种人脸图像处理方法及装置
US8941642B2 (en) * 2008-10-17 2015-01-27 Kabushiki Kaisha Square Enix System for the creation and editing of three dimensional models
US20100191770A1 (en) * 2009-01-27 2010-07-29 Apple Inc. Systems and methods for providing a virtual fashion closet
WO2012065037A1 (en) * 2010-11-12 2012-05-18 Colormodules Inc. Method and system for color matching and color recommendation
US8724887B2 (en) * 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
JP2012181704A (ja) * 2011-03-01 2012-09-20 Sony Computer Entertainment Inc 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JP2013168051A (ja) 2013-08-29
US20130216136A1 (en) 2013-08-22
CN103260036B (zh) 2015-06-17
CN103260036A (zh) 2013-08-21

Similar Documents

Publication Publication Date Title
JP5578186B2 (ja) キャラクター画像の作成方法、画像処理装置及び画像処理プログラム並びに画像変換ネットワークシステム
JP6636154B2 (ja) 顔画像処理方法および装置、ならびに記憶媒体
KR101141643B1 (ko) 캐리커쳐 생성 기능을 갖는 이동통신 단말기 및 이를 이용한 생성 방법
JP2024028390A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
US20170372459A1 (en) Image processing method and image processing apparatus
US7580587B2 (en) Device and method for correcting image including person area
US7796785B2 (en) Image extracting apparatus, image extracting method, and image extracting program
WO2016180224A1 (zh) 一种人物图像处理方法及装置
US8478068B2 (en) Image processing device, electronic instrument, and information storage medium for evaluating composition of input image
CN110570460B (zh) 目标跟踪方法、装置、计算机设备及计算机可读存储介质
CN104641398B (zh) 被拍摄体跟踪装置以及相机
JP2005242566A (ja) 画像合成装置及び方法
KR20170088174A (ko) 영상 기반의 두피 진단 정보 제공 방법
CN114175113A (zh) 提供头像的电子装置及其操作方法
CN109949390A (zh) 图像生成方法、动态表情图像生成方法及装置
KR20130120175A (ko) 캐리커처 자동 생성 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
CN112036209A (zh) 一种人像照片处理方法及终端
CN112399078B (zh) 拍摄方法、装置及电子设备
CN107357424B (zh) 一种手势操作的识别方法、设备及计算机可读存储介质
JP5272775B2 (ja) 電子スチルカメラ
CN109361850A (zh) 图像处理方法、装置、终端设备及存储介质
CN110766631A (zh) 人脸图像的修饰方法、装置、电子设备和计算机可读介质
JP5874783B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム
JP2010140100A (ja) 顔パターン分析システム
JP2017188787A (ja) 撮像装置、画像合成方法、および画像合成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130606

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140623

R150 Certificate of patent or registration of utility model

Ref document number: 5578186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees