JP2012174197A - 似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラム - Google Patents

似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラム Download PDF

Info

Publication number
JP2012174197A
JP2012174197A JP2011038441A JP2011038441A JP2012174197A JP 2012174197 A JP2012174197 A JP 2012174197A JP 2011038441 A JP2011038441 A JP 2011038441A JP 2011038441 A JP2011038441 A JP 2011038441A JP 2012174197 A JP2012174197 A JP 2012174197A
Authority
JP
Japan
Prior art keywords
face
unit
position information
feature
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011038441A
Other languages
English (en)
Other versions
JP5291735B2 (ja
Inventor
Akira Kawamura
亮 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Network Communications Inc
Original Assignee
So Net Entertainment Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by So Net Entertainment Corp filed Critical So Net Entertainment Corp
Priority to JP2011038441A priority Critical patent/JP5291735B2/ja
Priority to US13/372,537 priority patent/US8976182B2/en
Publication of JP2012174197A publication Critical patent/JP2012174197A/ja
Application granted granted Critical
Publication of JP5291735B2 publication Critical patent/JP5291735B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本人の特徴を捉えた似顔絵を作成するためのパーツの配置情報を生成することのできる似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラムを提供する。
【解決手段】似顔絵作成装置10は、ユーザの顔画像を取得する画像取得部31と、上記顔画像中のパーツに関する特徴点の位置情報を取得する特徴点取得部33と、上記特徴点の位置情報を用いて、上記顔画像を上記複数のパーツ間の相対位置に基づいた顔タイプに分類する顔タイプ分類部35と、上記特徴点の位置情報に基づいた初期配置に対して、分類された上記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成部37と、上記配置情報に基づいてパーツ画像を配置し、似顔絵画像を生成する似顔絵作成部39と、を有する。
【選択図】図5

Description

本発明は、似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラムに関する。
顔画像から似顔絵を自動生成する装置の中には、例えば、顔画像に対して線画処理を施すことにより顔画像をスケッチに変換する装置がある。このような装置は、顔画像に含まれるユーザの顔の形状、顔の中の各パーツの配置等を、顔画像に基づいて忠実に再現することができる。
これに対し、似顔絵を描くことが上手いと言われるイラストレータや似顔絵師等は、本人らしい似顔絵を描くために、自らの経験やノウハウに基づいてユーザの顔の特徴を解析して似顔絵を描いている。このとき、イラストレータや似顔絵師は、ユーザの顔の特徴を強調して描くことが多い。似顔絵を描くとき、ユーザの特徴を強調する方が、より本人に似た似顔絵を描くことができることをイラストレータや似顔絵師は経験的に知っている。
このため、例えば特許文献1には、顔の特徴を強調する処理を行うキャラクター提供システムが開示されている。このキャラクター提供システムは、標準と比較して一定以上離れた特徴を有するパーツの特徴を誇張する誇張処理部を有する。例えば目が標準の範囲よりも大きい場合には、より目パーツを大きくする変形処理が行われる。
ところで、顔の印象は、各パーツの配置に大きく左右される。そこで、特許文献2には、顔画像からアニメーションを作成するに当たって、パーツの配置位置補正手段を有する画像処理装置が開示されている。この画像処理装置は、例えば、目と目の間の距離が平均よりも大きいユーザについては、より目と目の間の距離を離すように強調する補正を加える。
特開2005−228185号公報 特開2001−222725号公報
ところが、各パーツをそれぞれ平均値と比較して差分を強調する上記特許文献2に記載の方法では、複数のパーツ間のバランスは考慮されず、結局ユーザと似た似顔絵を生成するのは難しいという問題があった。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、複数のパーツ間の相対位置に基づいて、顔のバランスから受ける印象が強調された似顔絵を生成するために用いられるパーツの配置情報を生成することが可能な、似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、ユーザの顔画像を取得する画像取得部と、上記顔画像中のパーツに関する特徴点の位置情報を取得する特徴点取得部と、上記特徴点の位置情報を用いて、上記顔画像を上記複数のパーツ間の相対位置に基づいた顔タイプに分類する顔タイプ分類部と、上記特徴点の位置情報に基づいた初期配置に対して、分類された上記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成部と、上記配置情報に基づいてパーツ画像を配置し、似顔絵画像を生成する似顔絵作成部と、を有する似顔絵作成装置を提供することが出来る。
かかる構成によれば、顔画像中の複数のパーツ間の相対位置に基づいて顔タイプに分類される。そして、この顔タイプに基づいて配置情報が強調される。ここで用いられる顔タイプは、複数のパーツ間の相対位置に基づいて分類される。このため、顔タイプは、顔全体のバランスによる印象を反映する。そして、上記似顔絵作成装置は、この顔タイプに基づいて強調処理を行うため、顔全体のバランスから受ける印象を反映させた強調処理を行うことができる。このため、より本人の特徴をとらえた似顔絵を作成することができる。
また、上記配置情報生成部は、2以上のパーツの縦軸上の位置情報及び横軸上の位置情報の少なくともいずれかについて、上記2以上のパーツのうちのいずれかの位置情報を他のパーツの位置情報の変化量に基づいて決定することにより上記2以上のパーツを連動して上記補正を行ってもよい。
また、上記顔タイプ分類部は、上記特徴点取得部により取得された左目、右目、顔輪郭の左端、及び顔輪郭の右端を示す横軸上の位置情報に基づいて、パーツ位置が顔輪郭の内側に寄っている特徴を示す内顔タイプと、外側に寄っている特徴を示す外顔タイプとのいずれかに分類する第1の分類部を有し、上記配置情報生成部は、上記第1の分類部の分類結果に基づいて、各パーツの縦軸上の位置情報および横軸上の位置情報の少なくともいずれかを補正する第1の強調処理部を有してもよい。
また、上記第1の強調処理部は、口パーツの縦軸上の位置情報の補正量に基づいて決定される補正量を用いて、鼻パーツの縦軸上の位置情報を補正してもよい。
また、上記顔タイプ分類部は、上記特徴点取得部により取得された額の上端、顎の下端、左アイホールの上端、及び右アイホールの上端の縦軸位置情報に基づいて、パーツ位置が顔輪郭の上側に寄っている特徴を示す上顔タイプと、下側に寄っている特徴を示す下顔タイプとのいずれかに分類する第2の分類部を有し、上記配置情報生成部は、上記第2の分類部の分類結果に基づいて、各パーツの縦軸上の位置情報を補正する第2の強調処理部を有してもよい。
また、上記第2の強調処理部は、顔輪郭内に配置される2以上のパーツの縦軸上の位置情報の変位が互いに連動するように補正してもよい。
また、上記顔タイプ分類部は、上記特徴点取得部により取得された左目の目頭、左目の目尻、右目の目頭、右目の目尻、小鼻の左端、小鼻の右端、及び鼻先の中心を示す縦軸位置情報に基づいて、パーツの角度が上向きである特徴を示す上形顔タイプと、下向きである特徴を示す下形顔タイプとのいずれかに分類する第3の分類部を有し、上記配置情報生成部は、上記第3の分類部の分類結果に基づいて、特定のパーツの角度を補正する第3の強調処理部を有してもよい。
また、上記第3の強調処理部は、目パーツの配置角度及び鼻パーツの小鼻角度の少なくともいずれかを補正してもよい。
また、上記似顔絵作成部は、分類された上記顔タイプの示す特徴が強調されたパーツ画像を用いて上記似顔絵画像を生成してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザの顔画像中の複数のパーツに関する特徴点の位置情報を取得する特徴点取得部と、上記特徴点の位置情報を用いて、上記顔画像を上記複数のパーツ間の相対位置に基づいた顔タイプに分類した分類結果を取得する分類結果取得部と、上記特徴点の位置情報に基づいた初期配置に対して、分類された上記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成部とを有する、配置情報生成装置が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、ユーザの顔画像中の複数のパーツに関する特徴点の位置情報を取得する特徴点取得ステップと、上記特徴点の位置情報を用いて、上記顔画像を上記複数のパーツ間の相対位置に基づいた顔タイプに分類した分類結果を取得する分類結果取得ステップと、上記特徴点の位置情報に基づいた初期配置に対して、分類された上記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成ステップと、を含むことを特徴とする、配置情報生成方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、ユーザの顔画像中の複数のパーツに関する特徴点の位置情報を取得する特徴点取得部と、上記特徴点の位置情報を用いて、上記顔画像を上記複数のパーツ間の相対位置に基づいた顔タイプに分類した分類結果を取得する分類結果取得部と、上記特徴点の位置情報に基づいた初期配置に対して、分類された上記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成部と有する、配置情報生成装置として機能させるためのプログラムが提供される。
以上説明したように本発明によれば、より本人に似た似顔絵を生成するためのパーツ配置情報を作成することができる。
本発明の一実施形態に係る似顔絵作成処理の流れを概略的に示す説明図である。 同実施形態に係る似顔絵作成装置の強調処理において用いられる顔タイプ分類と各顔タイプが人に与える印象を示す図である。 顔画像における特徴点の位置と顔タイプ分類との関係を概略的に示す説明図である。 同実施形態に係る似顔絵作成装置の構成を示すブロック図である。 同実施形態に係る似顔絵作成装置の制御部の構成を示すブロック図である。 同実施形態に係る似顔絵作成処理の全体の流れを示すフローチャートである。 同実施形態に係る似顔絵作成装置が抽出する特徴点を示す説明図である。 同実施形態に係る内顔・外顔分類に用いる特徴点を示す説明図である。 同実施形態に係る内顔・外顔分類処理の判別アルゴリズムを示すフローチャートである。 同実施形態に係る上顔・下顔分類に用いる特徴点を示す説明図である。 同実施形態に係る上顔・下顔分類処理の判別アルゴリズムを示すフローチャートである。 同実施形態に係る上形顔・下形顔分類に用いる特徴点を示す説明図である。 同実施形態に係る上形顔・下形顔分類処理の判別アルゴリズムを示すフローチャートである。 同実施形態で用いられる顔輪郭パーツの特徴点と基準点位置とを示す説明図である。 同実施形態で用いられる各パーツの特徴点を示す説明図である。 同実施形態に係る内顔・外顔強調処理の流れを示すフローチャートである。 同実施形態に係る内顔強調処理結果の一例を示す説明図である。 同実施形態に係る外顔強調処理結果の一例を示す説明図である。 同実施形態に係る上顔・下顔強調処理の流れを示すフローチャートである。 同実施形態に係る上顔強調処理結果の一例を示す説明図である。 同実施形態に係る下顔強調処理結果の一例を示す説明図である。 同実施形態に係る上形顔・下形顔強調処理の流れを示すフローチャートである。 同実施形態に係る上形顔強調処理結果の一例を示す説明図である。 同実施形態に係る下形顔強調処理結果の一例を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、本明細書及び図面において、概念的には同一となる複数の要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。例えば顔写真20を、必要に応じてユーザAについての顔写真20a、ユーザBについての顔写真20bのように区別する。ただし、複数の顔写真20の夫々を特に区別する必要がない場合には、同一符号のみを付する。例えば、顔写真20a、顔写真20bなどを特に区別する必要がない場合には、単に顔写真20と称する。
<概要>
まず、図1〜図3を参照しながら、本発明の一実施形態に係る似顔絵作成処理の概要について説明する。図1は、本発明の一実施形態に係る似顔絵作成処理の流れを概略的に示す説明図である。図2は、同実施形態に係る似顔絵作成装置の強調処理において用いられる顔タイプ分類と各顔タイプが人に与える印象を示す図である。図3は、顔画像における特徴点の位置と顔タイプ分類との関係を概略的に示す説明図である。
図1に示されるように、本実施形態において、似顔絵作成処理は、顔写真20の解析結果から各パーツ画像の初期配置を決定するステップと、この初期配置から分類された顔タイプに基づいて、ユーザの特徴を強調する強調処理を実行するステップと、パーツ画像を選択して似顔絵を生成するステップと、を含む。
このとき、パーツの初期配置を示す初期画像30が示される。この初期画像30は、顔写真から抽出された特徴点の配置に忠実に、各顔パーツを並べた画像である。これに対し、強調画像40は、パーツの配置及び角度について、初期画像に強調処理を加えた画像である。この強調処理を加えた後の強調画像40のパーツ配置に基づいて、それぞれ選択されたパーツ画像を配置することにより、本人の特徴を強調した似顔絵画像50を生成することができる。
本人の顔パーツの配置を忠実に再現した初期画像30は、本人の特徴をそのまま表しているはずである。しかし、通常、この初期画像30のパーツ配置に基づいて作成した似顔絵よりも、特徴を強調した強調画像40のパーツ配置に基づいて作成した似顔絵画像50の方が、似顔絵を見る人にとっては、より本人に似ていると感じる場合が多い。
この強調処理は、通常人間が行う場合には、経験とノウハウとに基づいて行われている。例えば、目と目の間が離れているからより目と目の間を離すように強調する、口が大きいからより口を大きくするよう強調する、といった単純にパーツ毎の特徴を強調するだけではなく、顔全体のバランスから受ける印象を反映することが多い。ところが、コンピュータにこのような処理を行わせる場合には、それぞれのパーツの特徴を個別に位置、大きさ、角度について所定の平均値と比較することによって、差分を強調する手法が取られることがあった。
しかし、顔の印象は、各パーツの相対的な配置バランスに大きく左右される。このため、口が大きいからより大きく、目がたれているからより下がり気味に、両目の間が離れているからより離す、といったように、個別の強調処理を繰り返すと、顔のバランスが崩れてしまい、結局本人に似た似顔絵を生成することは困難である可能性が高かった。そこで、本発明の一実施形態に係る似顔絵作成装置は、顔全体の配置バランスから受ける印象に基づいて、顔のタイプを分類し、分類された顔タイプに基づいて強調処理を行う構成を有する。
ここで、本発明の一実施形態に係る似顔絵作成装置において用いられる顔タイプ分類と、各顔タイプから受ける顔の印象との対応関係が図2に示される。以下、各顔タイプの特徴について説明する。
内顔タイプは、顔輪郭内の各パーツが輪郭の中心に寄っている特徴を有する。これに対し、外顔タイプは、顔輪郭内の各パーツが輪郭の外側に寄っている特徴を有する。図3を参照すると、顔の右端と右黒目の中心との間、右黒目の中心と顔の中心との間、顔の中心と左黒目の中心との間、及び左黒目の中心と顔の左端との間の距離がそれぞれ等しい場合には、各顔パーツのバランスの均整が取れており、理想系とする。この理想系に対して、黒目の位置が顔の内側に寄っている内心傾向を示す場合には、内顔タイプと言える。一方、理想系に対して、黒目の位置が顔の外側に寄っているが外心傾向を示す場合には、外顔タイプと言える。
上顔タイプは、顔輪郭内の各パーツが輪郭の上側に寄っているという特徴を有する。これに対し、下顔タイプは、顔輪郭内の各パーツが輪郭の下側に寄っているという特徴を有する。図3を参照すると、額の上端とアイホールの上端との間、アイホールの上端と両小鼻の下端との間、及び両小鼻の下端とあごの下端との間の距離がそれぞれ等しい場合には、各顔パーツのバランスの均整が取れており、理想系とする。この理想系に対して、アイホールの上端からあごの下端までの距離が広く上心傾向を示す場合には、上顔タイプと言える。一方、理想系に対して、額の上端からアイホールの上端までの距離が広く、パーツが下に寄っている下心傾向を示す場合には、下顔タイプと言える。
また、上形顔タイプは、顔輪郭内のパーツの角度が釣りあがっているという特徴を有する。これに対し、下形顔タイプは、顔輪郭内のパーツの角度が垂れ下がっているという特徴を有する。
なおここでは、概略的に各顔タイプの特徴が説明された。各顔タイプへの分類方法の詳細等については後述される。
このように分類された顔タイプのうち、内顔タイプ、上顔タイプ、及び上形顔タイプは、例えば小顔、活発、神経質、大人っぽい、男性的、きつい、行動的である印象を与える場合が多い。また、外顔タイプ、下顔タイプ、及び下形顔タイプは、おっとり、ぼんやり、子供っぽい、賢そう、優しい、かなしそうであるという印象を与える場合が多い。本実施形態においては、この顔タイプに基づいて、顔の特徴を強調する強調処理を実行する。
<構成>
次に、図4及び図5を参照しながら、本発明の一実施形態に係る似顔絵作成装置の構成について説明する。図4は、同実施形態に係る似顔絵作成装置の構成を示すブロック図である。図5は、同実施形態に係る似顔絵作成装置の制御部の構成を示すブロック図である。
図4に示される似顔絵作成装置10は、ユーザの顔画像から似顔絵を作成する機能を有する。そして、似顔絵作成装置10は、例えば、PC(Personal Computer)、家庭用映像処理装置(DVDレコーダ、ビデオデッキなど)、PDA(Personal Digital Assistants)、家庭用ゲーム機器、家電機器などの情報処理装置であってもよい。また、似顔絵作成装置10は、携帯電話、PHS(Personal Handyphone System)、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器などの情報処理装置であってもよい。なお、似顔絵作成装置10は、配置情報生成装置の一例である。
この似顔絵作成装置10は、撮像部11と、記憶部12と、制御部13と、通信部14と、表示部15と、音声出力部16と、操作入力部17とを主に有する。
撮像部11は、例えばレンズと撮像素子と信号処理部とを含み、撮像機能を有する。撮像部11は、取得した映像を制御部13に入力することができる。又は、撮像部11は、取得した映像を記憶部12に記憶することもできる。
記憶部12は、データ格納用の装置であり、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置、および記憶媒体に記録されたデータを削除する削除装置などを含むことができる。ここで記憶媒体としては、例えば、HDD(Hard Disk Drive)などの磁気記録媒体や、EEPROM(Electronically Erasable and Programmable Read Only Memory)、フラッシュメモリ、MRAM(Magnetoresistive Random Access Memory)、FeRAM(Ferroelectric Random Access Memory)、PRAM(Phase change Random Access Memory)などの不揮発性メモリなどが用いられる。この記憶部12は、例えば制御部13が実行するプログラムや各種データを格納することができる。
制御部13は、例えばCPU(Central Processing Unit)やマイクロプロセッサなどの演算処理装置又は制御装置により実現され、各種プログラムに従って、似顔絵作成装置10内の動作全般を制御する機能を有する。制御部13の詳細な構成は、図5を用いて後に詳述される。
インタフェース部14は、外部の装置と接続するための接続インタフェースである。インタフェース部14は、例えば、通信網を介して外部の装置と接続するための通信デバイス等で構成された通信インタフェースであってよい。このときインタフェース部14は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。また、インタフェース部14は、USB(Universal Serial Bus)などの規格に従った通信を行うための通信装置であってもよい。或いは、インタフェース部14は、メモリーカード等の記憶媒体を挿入するためのスロットであってもよい。
表示部15は、例えば液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)装置、ブラウン管(CRT:Cathode Ray Tube)ディスプレイ装置などの表示装置により構成される。表示部15は、例えば生成された似顔絵の画像を表示することによりユーザに提供する機能を有する。
音声出力部16は、再生された音声データ等を出力する機能を有し、例えばスピーカーにより構成される。
操作入力部17は、例えば、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、制御部13に出力する入力制御回路などから構成されている。似顔絵作成装置10のユーザは、該操作入力部17を操作することにより、似顔絵作成装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。入力手段がタッチパネルである場合、このタッチパネルは表示部15に重畳して設けることができる。
ここで、次に図5を参照しながら、似顔絵作成装置10の制御部13の詳細な構成について説明する。制御部13は、画像データ取得部31と、特徴点抽出部33と、顔タイプ分類部35と、配置情報生成部37と、似顔絵作成部39との機能を主に有する。
画像データ取得部31は、画像取得部の一例であり、ユーザの顔画像データを取得する機能を有する。画像データ取得部31は、例えば撮像部11が撮像した画像データを取得してもよい。また、画像データ取得部31は、記憶部12に記憶された画像データを取得してもよい。或いは、画像データ取得部31は、インタフェース部14を介して接続される外部装置に記憶された画像データを取得してもよい。
特徴点抽出部33は、特徴点取得部の一例であり、画像データ取得部31により取得された画像データを解析することにより、ユーザの顔の各パーツ(例えば、顔輪郭、目、眉、鼻、口、耳など)に関する特徴点の位置情報を抽出する機能を有する。ここで、特徴点は、例えば各パーツの顔輪郭に対する相対位置と角度とを検出することができる点であることが望ましい。例えば、目に関する特徴点は、内端、外端、黒目中心、及びアイホール上端とすることができる。また、例えば、鼻に関する特徴点は、鼻先の中心、小鼻の右端及び左端とすることができる。本実施形態においては、これら各特徴点の位置情報は、画像解析ソフトウェア等が用いられることにより、自動抽出されるものとするが、本発明はこれに限定されない。例えば、特徴点の位置情報は、表示部15に表示されている顔画像に対して、操作入力部17を用いることにより入力された位置情報に基づいて特定されてもよい。
顔タイプ分類部35は、分類結果取得部の一例であり、特徴点抽出部33により抽出された各パーツに関する特徴点の位置情報に基づいて、ユーザの顔タイプを所定の顔タイプのいずれかに分類する機能を有する。顔タイプ分類部35は、さらに詳しくは、内顔・外顔分類部351と、上顔・下顔分類部353と、上形顔・下形顔分類部355との機能を有する。
内顔・外顔分類部351は、顔タイプ分類部35の第1の分類部の機能を有し、特徴点抽出部33により取得された左目、右目、顔輪郭の左端および顔輪郭の右端を示す横軸(X軸)位置情報に基づいて、所定の内顔タイプと外顔タイプのいずれかにユーザを分類する。この内顔・外顔分類部351は、顔輪郭の左端と左目中心との横軸座標さの絶対値と、顔輪郭の右端と右目の中心との横軸座標差の絶対値との和が、左目中心と右目中心との横軸座標差の絶対値より大きいか否かを判別し、その判別結果に基づいて内顔タイプと外顔タイプとのいずれかにユーザを分類する。内顔タイプは、各パーツ位置が顔輪郭の内側(中心)に寄っている特徴を有する。また、外顔タイプは、各パーツ位置が顔輪郭の外側に寄っている特徴を有する。
上顔・下顔分類部353は、顔タイプ分類部35の第2の分類部の機能を有し、特徴点抽出部33により取得された額の上端、顎の下端、左アイホールの上端及び右アイホールの上端の縦軸(Y軸)位置情報に基づいて、所定の上顔タイプと下顔タイプとのいずれかにユーザを分類する。ここで、左右アイホールの上端とは、各目の中心点と眉毛の中心点とを結ぶ線分を、2:1で分割する点とする。この上顔・下顔分類部353は、額の上端と左アイホールの上端との縦軸座標差の絶対値と、額の上端と右アイホールの上端との縦軸座標差の絶対値との和を2倍した値が、左アイホールの上端と顎の下端との縦軸座標値の絶対値と、右アイホールの上端と顎の下端との縦軸座標差の絶対値との和より大きいか否かを判別し、その判別結果に基づいて上顔タイプと下顔タイプとのいずれかにユーザを分類する。上顔タイプは、各パーツ位置が顔輪郭の上(額側を上とする)側に寄っている特徴を有する。下顔タイプは、各パーツ位置が顔輪郭の下(顎側を下とする)側に寄っている特徴を有する。
上形顔・下形顔分類部355は、顔タイプ分類部35の第3の分類部の機能を有し、特徴点抽出部33により取得された左目の外端、左目の内端、右目の外端、右目の内端、小鼻の左端、小鼻の右端、および鼻先の中心を示す縦軸位置情報に基づいて、所定の上形顔タイプ及び下形顔タイプのいずれかにユーザを分類する。この上形顔・下形顔分類部355は、左目の外端と左目の内端との縦軸座標差と、右目の外端と右目の内端との縦軸座標差との和が、0以上であるか否かを判別すると共に、小鼻の左端と鼻先の中心との縦軸座標差と、小鼻の右端と鼻先の中心との縦軸座標差との和が0以上であるか否かを判別し、その判別結果に基づいて上形顔タイプと下形顔タイプとのいずれかにユーザを分類する。上形顔タイプは、各パーツが釣りあがっている傾向であるという特徴を有する。下形顔タイプは、各パーツが垂れ下がっている傾向であるという特徴を有する。
配置情報生成部37は、顔タイプ分類部35による分類結果に基づいて、顔輪郭パーツ上に配置される各パーツの位置及び角度を含む配置情報を生成する機能を有する。この配置情報生成部37は、まず初期配置情報生成部371により、特徴点抽出部33により抽出された特徴点の位置情報に基づいて、特徴点の位置を忠実に再現することのできる初期配置情報を生成する。そして、内顔・外顔強調処理部373、上顔・下顔強調処理部375、上形顔・下形顔強調処理部377によりそれぞれの顔タイプ分類に基づいた強調処理を施して、似顔絵を生成するための各パーツの配置情報を生成する。
なお、配置情報生成部37は、2以上のパーツの位置情報を他のパーツの位置情報の変化量に基づいて決定することにより、2以上のパーツが連動して補正されてもよい。2以上のパーツを連動して補正することにより、顔全体のバランスを保つことができる。
初期配置情報生成部371は、上述の通り特徴点の位置情報を忠実に再現する初期配置情報を生成する機能を有する。初期配置をユーザの各パーツ位置とすることにより、この後実行される強調処理によって、実際の配置をさらに強調する強調処理を行うことができる。
内顔・外顔強調処理部373は、第1の強調処理部の一例であり、内顔・外顔分類部351による内顔・外顔分類処理の分類結果に基づいた強調処理を行う。この内顔・外顔強調処理は、内顔タイプに分類されたユーザの初期配置情報に対して、顔輪郭内に配置されるパーツを顔中心に近づけるように補正処理を行う。また、内顔・外顔強調処理は、外顔タイプに分類されたユーザの初期配置情報に対して、顔輪郭内に配置されるパーツを顔中心から遠ざけるように補正処理を行う。
上顔・下顔強調処理部375は、第2の強調処理部の一例であり、上顔・下顔分類部353による上顔・下顔分類処理の分類結果に基づいた強調処理を行う。この上顔・下顔分類処理は、上顔タイプに分類されたユーザの初期配置情報に対して、顔輪郭内に配置されるパーツを顔上部に近づけるように補正処理を行う。また、上顔・下顔強調処理は、下顔タイプに分類されたユーザの初期配置情報に対して、顔輪郭内に配置されるパーツを顔下部に近づけるように補正処理を行う。
上形顔・下形顔強調処理部377は、第3の強調処理部の一例であり、上形顔・下形顔分類部355による上形顔・下形顔分類処理の分類結果に基づいた強調処理を行う。この上形顔・下形顔分類処理は、上形顔タイプに分類されたユーザの初期配置情報に対して、特定のパーツの角度を釣り上げるように角度を補正する。また、上形顔・下形顔強調処理は、下形顔タイプに分類されたユーザの初期配置情報に対して、特定のパーツの角度を釣り下げるように角度を補正する。ここで特定のパーツとしては、例えば目パーツ及び鼻パーツが挙げられる。
似顔絵作成部39は、配置情報生成部37の生成した配置情報に基づいて似顔絵を生成する機能を有する。この似顔絵作成部39は、配置情報、分類された顔タイプ、及び特徴点の配置情報を似顔絵作成に用いてもよい。例えば、似顔絵作成部39は、分類された顔タイプに基づいて似顔絵作成に用いるパーツ画像を予め準備されたパーツ画像の中から選択してもよい。このとき似顔絵作成部39は、パーツ画像に対して顔タイプ等に基づいた変形処理を行ってもよいし、例えば顔画像の分析結果に基づいて新たなパーツ画像を生成してもよい。似顔絵作成部39は、上述のいずれかの方法により決定されたパーツ画像を、配置情報生成部37の生成した配置情報の示す位置に配置することにより似顔絵画像を生成することができる。
以上、本実施形態に係る似顔絵作成装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU(Central Processing Unit)などの演算装置がこれらの機能を実現する処理手順を記述した制御プログラムを記憶したROM(Read Only Memory)やRAM(Random Access Memory)などの記憶媒体から制御プログラムを読出し、そのプログラムを解釈して実行することにより行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
なお、上述のような本実施形態に係る似顔絵作成装置10の各機能を実現するためのコンピュータプログラムを作成し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
<似顔絵作成処理>
次に、図6を参照しながら、本発明の一実施形態に係る似顔絵作成処理の全体の流れについて説明する。図6は、同実施形態に係る似顔絵作成処理の全体の流れを示すフローチャートである。
まず、ユーザの顔を示す画像データが、似顔絵作成装置10の機能を実現するためのソフトウェア上にアップロードされる(S101)。ここで用いられる画像データは、ユーザの顔正面が撮影されたものであることが望ましい。
次に、特徴点抽出部33は、アップロードされた顔画像から、所定の特徴点を抽出する(S103)。ここで抽出される特徴点が、図7に示される。図7は、同実施形態に係る似顔絵作成装置が抽出する特徴点を示す説明図である。ここで示されるように、特徴点抽出部33は、左黒目の中心101、右黒目の中心102、顔輪郭の左端103、顔輪郭の右端104、額の上端105、顎の下端106、左アイホールの上端107、右アイホールの上端108、左目の外端109、左目の内端110、右目の外端111、右目の内端112、小鼻の左端113、小鼻の右端114、鼻先の中心115、左眉毛の中心116、右眉毛の中心117、及び口の中心118の位置を抽出して、各特徴点の位置情報を取得する。なお、各特徴点の位置情報は、ユーザが操作入力部17を用いて入力したポイントの位置情報であってもよい。ここで、例えば左黒目の中心101の位置情報は、[X101,Y101]と示される。
[顔タイプ分類処理]
次に、顔タイプ分類部35は、内顔・外顔分類部351による内顔・外顔分類処理(ステップS105)、上顔・下顔分類部353による上顔・下顔分類処理(ステップS107)、及び上形顔・下形顔分類部355による上形顔・下形顔分類処理(ステップS109)を実行する。以下、それぞれの分類処理の詳細について順に説明される。
(内顔・外顔分類処理)
まず、内顔・外顔分類部351によるステップS105の内顔・外顔分類処理について、図8及び図9を参照しながら説明する。図8は、本実施形態に係る内顔・外顔分類に用いる特徴点を示す説明図である。図9は、本実施形態に係る内顔・外顔分類処理の判別アルゴリズムを示すフローチャートである。
図8に示すように、この内顔・外顔分類処理では、ステップS103で抽出された顔の各特徴点の中から、左黒目の中心点101(X軸座標=X101,Y軸座標=Y101)、右黒目の中心点102(X軸座標=X102,Y軸座標=Y102)、顔輪郭の左端103(X軸座標=X103,Y軸座標=Y103)および顔輪郭の右端104(X軸座標=X104,Y軸座標=Y104)の各位置情報を任意の基点として用い、内顔タイプと外顔タイプとの分類判別が実行される。
図9において、内顔・外顔の分類処理が開始されると、ステップS103で取得された上記各基点の位置情報が参照され、内顔・外顔分類部351は、顔輪郭の左端103と左目の中心101とのX軸座標差の絶対値(|X103−X101|)と、右目の中心と顔輪郭の右端とのX軸座標差の絶対値(|X102−X104|)との和Cを演算する(ステップS201)。続いて、内顔・外顔分類部351は、左目の中心101と右目の中心102とのX軸座標差の絶対値I(|X101−X102|)を演算する(ステップS203)。
そして、内顔・外顔分類部351は、ステップS201で求めた値CとステップS203で求めた値Iとを比較する(ステップS205)。ここで値Cが値I以上である場合には、左右黒目の外側幅に対して左右黒目間が狭いことになるので内顔タイプであると判断され、内顔・外顔分類部351は、内顔・外顔判別変数F_InCircに1を設定する(ステップS207)。一方、ステップS205において値Cが値Iより小さいと判断された場合には、左右黒目の外側幅に対して左右黒目間が広いことになるので外顔タイプであると判断され、内顔・外顔分類部351は、内顔・外顔判別変数としてF_InCircに0を設定する(ステップS209)。
(上顔・下顔分類処理)
次に、上顔・下顔分類部353によるステップS107の上顔・下顔分類処理について、図10及び図11を参照しながら説明する。図10は、本実施形態に係る上顔・下顔分類に用いる特徴点を示す説明図である。図11は、本実施形態に係る上顔・下顔分類処理の判別アルゴリズムを示すフローチャートである。
図10に示すように、この上顔・下顔分類処理では、ステップS103で抽出された顔の各特徴点の中から、額の上端105(X軸座標=X105,Y軸座標=Y105)、顎の下端106(X軸座標=X106,Y軸座標=Y106)、左アイホールの上端107(X軸座標=X107,Y軸座標=Y107)および右アイホールの上端108(X軸座標=X108,Y軸座標=Y108)の各位置情報を任意の基点として用い、上顔タイプと下顔タイプとの分類判別が実行される。
図11において、上顔・下顔の分類処理が開始されると、ステップS103で取得された上記各基点の位置情報が参照され、上顔・外顔分類部353は、額の上端105と左アイホールの上端107とのY軸座標差の絶対値(|Y105−Y107|)と、額の上端105と右アイホールの上端108とのY軸座標差の絶対値(|Y105−Y108|)との和Tを演算する(ステップS301)。続いて、上顔・外顔分類部353は、左アイホールの上端107と顎の下端106とのY軸座標差の絶対値(|Y107−Y106|)と、右アイホールの上端108と顎の下端106とのY軸座標差の絶対値(|Y108−Y106|)との和Bを演算する(ステップS303)。
そして、上顔・外顔分類部353は、ステップS301で求めた値Tを2倍した値2TとステップS303で求めた値Bとを比較する(ステップS305)。ここで値2Tが値B以下である場合には、額が狭く顔のパーツが全体的に上に配置されていることになるので上顔タイプであると判断され、上顔・外顔分類部353は、上顔・下顔判別変数F_TopBtmに1を設定する(ステップS307)。一方、ステップS305において値2Tが値Bより大きい場合には、額が広く顔のパーツが全体的に下に配置されていることになるので下顔タイプであると判断され、上顔・外顔分類部353は、上顔・下顔判別変数F_TopBtmに0を設定する(ステップS309)。
(上形顔・下形顔分類処理)
次に、上形顔・下形顔分類部355によるステップS109の上顔・下顔分類処理について、図12及び図13を参照しながら説明する。図12は、本実施形態に係る上形顔・下形顔分類に用いる特徴点を示す説明図である。図13は、本実施形態に係る上形顔・下形顔分類処理の判別アルゴリズムを示すフローチャートである。
図12に示すように、この上形顔・下形顔分類処理では、ステップS103で抽出された顔の各特徴点の中から、左目の外端109(X軸座標=X109,Y軸座標=Y109)、左目の内端110(X軸座標=X110,Y軸座標=Y110)、右目の外端111(X軸座標=X111,Y軸座標=Y111)、右目の内端112(X軸座標=X112,Y軸座標=Y112)、小鼻の左端113(X軸座標=X113,Y軸座標=Y113)、小鼻の右端114(X軸座標=X114,Y軸座標=Y114)および鼻先の中心115(X軸座標=X115,Y軸座標=Y115)の各位置情報を任意の基点として用い、上顔タイプと下顔タイプとの分類判別が実行される。
図13において、上形顔・下形顔の分類処理が開始されると、ステップS103で取得された上記各基点の位置情報が参照され、上形顔・下形顔分類部355は、左目の外端109と左目の内端110とのY軸座標差(Y109−Y110)と、右目の外端111と右目の内端112とのY軸座標差(Y111−Y112)との和D_EIを演算する(ステップS401)。続いて、上形顔・下形顔分類部355は、小鼻の左端113と鼻先の中心115とのY軸座標差(Y113−Y115)と、小鼻の右端114と鼻先の中心115とのY軸座標差(Y114−Y115)との和D_Nを演算する(ステップS403)。
そして、上形顔・下形顔分類部355は、ステップS401で求めた値D_EIが0以上、かつステップS403で求めた値D_Nが0以上であるか否かを判別する(ステップS405)。ここで値D_EIが0以上、かつ値D_Nが0以上である場合には、目が吊り上っていて、小鼻の位置が鼻先に較べて高く、頬の位置が高いことになるので、上形顔タイプであると判断され、上形顔・下形顔分類部355は、上形顔・下形顔判別変数F_UpDpに1を設定する(ステップS407)。一方、ステップS405において値D_EIが0より小さい、または値D_Nが0より小さい場合には、目尻が下がっていて、小鼻の位置が鼻先に較べて低く、頬の位置が低いことになるので、下形顔タイプであると判断され、上形顔・下形顔分類部355は、上形顔・下形顔判別変数F_UpDpに0を設定する(ステップS409)。
[パーツ配置情報生成処理]
次に、配置情報生成部37は、パーツの配置情報生成処理を実行する。この配置情報生成処理は、初期配置情報生成部371による顔パーツ位置初期値決定処理(ステップS111)と、内顔・外顔強調処理部373による内顔・外顔による位置強調処理(ステップS113)と、上顔・下顔強調処理部375による上顔・下顔による位置強調処理(ステップS115)と、上形顔・下形顔強調処理部377による上形顔・下形顔による角度強調処理(S117)を含む。以下、それぞれの処理について詳細が順に説明される。
(初期配置の決定)
まず、初期配置情報生成部371は、配置情報の初期値を示す初期配置情報を生成する。この初期配置情報は、特徴点抽出部33により抽出された特徴点の位置情報に基づいて生成される。初期配置情報生成部371は、顔パーツの輪郭に対して、この特徴点の位置情報が示す通りに各パーツが配置されるように初期配置情報を生成する。
例えば、以下図14に示す顔輪郭パーツPFACEに対して、図15に示す各パーツPを配置する場合について考えることにする。図14は、本実施形態で用いられる顔輪郭パーツの特徴点と基準点位置とを示す説明図である。図15は、同実施形態で用いられる各パーツの特徴点を示す説明図である。なお、図14に示すように、顔パーツPFACE毎に予め顔の左端203、顔の右端204、額の上端205、及びあごの下端206の位置が設定されている。そして、各パーツPの配置においては、顔の左端203及び顔の右端204を結んだ線の中点に当たる基準点200が用いられる。
図15を参照すると、本実施形態においては、顔輪郭パーツPFACEに対して、左眉パーツPL−EYEBROW、右眉パーツPR−EYEBROW、左目パーツPL−EYE、右目パーツPR−EYE、鼻パーツPNOSE、口パーツPMOUTHが配置される。
ここで、配置情報を生成する際に用いられる特徴点は、特徴点抽出部33が抽出した顔画像中の特徴点(図7参照)と対応する特徴点である。顔輪郭パーツを基準とした特徴点の位置を、以下左黒目の中心201、右黒目の中心202、顔輪郭の左端203、顔輪郭の右端204、額の上端205、顎の下端206、左アイホールの上端207、右アイホールの上端208、左目の外端209、左目の内端120、右目の外端211、右目の内端212、小鼻の左端213、小鼻の右端214、鼻先の中心215、左眉毛の中心216、右眉毛の中心217、及び口の中心218として示す。なお、例えば左黒目の中心201の位置情報は、[X201,Y201]と示される。
初期配置情報は、例えば下記の計算式により求められる位置情報を含むことができる。例えば、基準点200の横軸位置は、X200=(X203+X204)/2で示される。顔画像における両目中心の縦軸位置は、Y100 = (Y101 + Y102) / 2で示される。顔画像における両眉毛中心の縦軸位置は、Y119 = (Y116 + Y117) / 2で示される。
上記の定義に基づくと、左目位置は下記の計算式により得られる。
X201 = X200 + |X203 -
X204| / 2 * |X101 - X102| / |X103 -
X104|
Y201 = Y206 + |Y205 -
Y206| * |Y100 - Y106| / |Y105 - Y106|
また、右目位置は、下記の計算式により得られる。
X202 = X200 - |X203 - X204| / 2 *
|X101 - X102| / |X103 - X104|
Y202 = Y201
なお、ここで左目の外端209、内端210、右目の外端211、内端212は目パーツに対して事前に定められた位置データである。
また、左眉位置は、下記の計算式により得られる。
X216 = X200 + |X203 - X204| / 2 *
|X116 - X117| / |X103 - X104|
Y216 = Y206 + |Y205 - Y206| * |Y119
- Y106| / |Y105 - Y106|
右眉位置は、下記の計算式により得られる。
X217 = X200 - |X203 -
X204| / 2 * |X116 - X117| / |X103 -
X104|
Y217 = Y201
鼻位置は、下記の計算式により得られる。
X215 = X200
Y215 = Y206 + |Y205 -
Y206| * |Y115 - Y106| / |Y105 - Y106|
口位置は、下記の計算式により得られる。
X218 = X200
Y218 = Y206 + |Y205 -
Y206| * |Y118 - Y106| / |Y105 - Y106|
上記の各計算式に基づいて、各パーツの初期の位置情報を含む初期配置情報が生成される。この初期配置情報に対して、後述の各強調処理が施される。
(内顔・外顔強調処理)
まず、内顔・外顔強調処理部373により内顔・外顔強調処理が実行される。この内顔・外顔強調処理の流れが図16に示される。図16は、本実施形態に係る内顔・外顔強調処理の流れを示すフローチャートである。
まず、内顔・外顔強調処理部373は、内顔・外顔分類部351による分類結果である内顔・外顔分類結果を取得する(S501)。そして、内顔・外顔強調処理部373は、この分類結果が内顔タイプであるか外顔タイプであるかを判断する(S503)。
ステップS503において内顔タイプであると判断された場合には、次に内顔・外顔強調処理部373は、左右目距離DEYE=|X101 - X102| / |X103 - X104|と、事前に定められた左右目距離の平均値MDEYEと比較する(S505)。そして、DEYEがMDEYEよりも小さい場合には、内顔・外顔強調処理部373は、目の左右位置の強調処理を実行する(S507)。
次に、内顔・外顔強調処理部373は、顔横幅に対する左右眉毛距離DEYEBROW =
|X116 - X117| / |X103 - X104|と、事前に定められた左右眉毛距離の平均値MDEYEBROWとを比較する(S509)。そして、DEYEBROWがMDEYEBROWよりも小さい場合には、内顔・外顔強調処理部373は、眉の左右位置の強調処理を実行する(S511)。
次に、内顔・外顔強調処理部373は、顔縦幅に対する口と顎の距離DMOUTH = |Y118
- Y106| / |Y105 - Y106|と事前に定められた口と顎の距離の平均値MDMOUTHとを比較する(S513)。そして、DMOUTHがMDMOUTHよりも小さい場合には、内顔・外顔強調処理部373は、口位置及び鼻位置の強調処理を実行する(S515)。
一方、ステップS503において外顔タイプと判断された場合には、次に内顔・外顔強調処理部373は、左右目距離DEYE=|X101 - X102| / |X103 - X104|と、事前に定められた左右目距離の平均値MDEYEと比較する(S517)。そして、DEYEがMDEYEよりも大きい場合には、内顔・外顔強調処理部373は、目の左右位置の強調処理を実行する(S519)。
次に、内顔・外顔強調処理部373は、顔横幅に対する左右眉毛距離DEYEBROW =
|X116 - X117| / |X103 - X104|と、事前に定められた左右眉毛距離の平均値MDEYEBROWとを比較する(S521)。そして、DEYEBROWがMDEYEBROWよりも大きい場合には、内顔・外顔強調処理部373は、眉の左右位置の強調処理を実行する(S523)。
次に、内顔・外顔強調処理部373は、顔縦幅に対する口と顎の距離DMOUTH = |Y118
- Y106| / |Y105 - Y106|と事前に定められた口と顎の距離の平均値MDMOUTHとを比較する(S525)。そして、DMOUTHがMDMOUTHよりも小さい場合には、内顔・外顔強調処理部373は、口位置及び鼻位置の強調処理を実行する(S527)。
ここで、ステップS507及びステップS519により補正される配置情報に含まれる目パーツの位置は、下記の計算により求められる。ここで、強調度合いを示す値をFとする。
X201 = X201 + F * (DEYE
- MDEYE)
Y201 = Y201
X202 = X202 - F * (DEYE
- MDEYE)
Y202 = Y202
また、ステップS511及びステップS523により補正される配置情報に含まれる眉パーツの位置は、下記の計算により求められる。
X216 = X216 + F * (DEYEBROW
- MDEYEBROW)
Y216 = Y216
X217 = X217 - F * (DEYEBROW
- MDEYEBROW)
Y217 = Y217
また、ステップS515及びステップS527により補正される配置情報に含まれる口パーツの位置は、下記の計算により求められる。
X218 = X218
Y218 = Y218 + F * (DMOUTH
- MDMOUTH)
また、ここで口パーツと連動して鼻パーツの位置も補正される。鼻パーツの位置は、下記の計算により求められる。
X215 = X215
Y215 = Y218 + (Y201 -
Y218) * (Y215 - Y218) / (Y201 - Y218)
なお、図17に内顔と判断された場合の強調処理後の各パーツ配置の一例が示される。図17は、本実施形態に係る内顔強調処理結果の一例を示す説明図である。図17に示されるように、顔輪郭内に配置される各パーツは、より顔の中心に寄るように位置を補正して特徴が強調される。一方図18に外顔と判断された場合の強調処理後の各パーツ配置の一例が示される。図18は、本実施形態に係る外顔強調処理結果の一例を示す説明図である。図18に示されるように、顔輪郭内に配置される各パーツは、より顔の外側に寄るように位置を補正して特徴が強調される。
(上顔・下顔強調処理)
次に、上顔・下顔強調処理部375により上顔・下顔強調処理が実行される。この上顔・下顔強調処理の流れが図19に示される。図19は、本実施形態に係る上顔・下顔強調処理の流れを示すフローチャートである。
まず、上顔・下顔強調処理部375は、上顔・下顔分類部353による分類結果である上顔・下顔分類結果を取得する(S601)。そして、上顔・下顔強調処理部375は、この分類結果が上顔タイプであるか下顔タイプであるかを判断する(S603)。
ステップS603において上顔タイプであると判断された場合には、次に上顔・下顔強調処理部375は、顔縦幅に対するアイホールと顎距離DEYEHOLE= |(Y116 + Y117) / 2 - Y106| / |Y105
- Y106|と、事前に定められた顔縦幅に対するアイホールと顎距離の平均値MDEYEHOLEと比較する。そして、DEYEHOLEがMDEYEHOLEよりも大きい場合には、上顔・下顔強調処理部375は、目の上下位置の強調処理(S607)、眉の上下位置の強調処理(S609)、鼻の上下位置の強調処理(S611)を実行する。
一方、ステップS603において下顔タイプであると判断された場合には、次に上顔・下顔強調処理部375は、顔縦幅に対するアイホールと顎距離DEYEHOLE= |(Y116 + Y117) / 2 - Y106| / |Y105
- Y106|と、事前に定められた顔縦幅に対するアイホールと顎距離の平均値MDEYEHOLEと比較する。そして、DEYEHOLEがMDEYEHOLEよりも小さい場合には、上顔・下顔強調処理部375は、目の上下位置の強調処理(S615)、眉の上下位置の強調処理(S617)、鼻の上下位置の強調処理(S619)を実行する。
ここで、ステップS607及びステップS615により補正される配置情報に含まれる目パーツの位置は、下記の計算により求められる。
X201 = X201
Y201 = Y201 + F * (DEYEHOLE
- MDEYEHOLE)
X202 = X202
Y202 = Y202 + F * (DEYEHOLE
- MDEYEHOLE)
また、ステップS609およびステップS617により補正される配置情報に含まれる眉パーツの位置は、下記の計算により求められる。
X216 = X216
Y216 = Y206 + |Y201 -
Y206| * |Y119 - Y106| / |Y101 - Y106|
X217 = X217
Y217 = Y216
また、ステップS611及びステップS619により補正される配置情報に含まれる鼻パーツの位置は、下記の計算により求められる。
X215 = X215
Y215 = Y218 + (Y201 -
Y218) * (Y215 - Y218) / (Y201 - Y218)
なお、図20に上顔と判断された場合の強調処理後の各パーツの配置の一例が示される。図20は、本実施形態に係る上顔強調処理結果の一例を示す説明図である。図20に示されるように、顔輪郭内に配置される各パーツは、より顔の上側に寄るように位置を補正して特徴が強調される。一方図21に下顔と判断された場合の強調処理後の各パーツ配置の一例が示される。図21は、本実施形態に係る下顔強調処理結果の一例を示す説明図である。図21に示されるように、顔輪郭内に配置される各パーツは、より顔の下側に寄るように位置を補正して特徴が強調される。なお上顔・下顔強調処理において、眉パーツ及び鼻パーツの位置は、それぞれ目パーツの位置と連動して補正される。
(上形顔・下形顔強調処理)
次に、上形顔・下形顔強調処理部377により上形顔・下形顔強調処理が実行される。この上形顔・下形顔強調処理の流れが図22に示される。図22は、本実施形態に係る上形顔・下形顔強調処理の流れを示すフローチャートである。
まず、上形顔・下形顔強調処理部377は、上形顔・下形顔分類部355による分類結果である上形顔・下形顔分類結果を取得する(S701)。そして、上形顔・下形顔強調処理部377は、この分類結果が上形顔タイプであるか下形顔タイプであるかを判断する(S703)。
ステップS703において、上形顔タイプであると判断された場合には、次に上形顔・下形顔強調処理部377は、顔画像から取得した特徴点の位置情報から、下記を満たす左目角度ROTLEYEと右目角度ROTREYEとを得る。
LENLEYE = SQRT( POW(X109-X110,
2) + POW(Y109-Y110, 2) )
COS(ROTLEYE) = (|(X109 - X110)|
/ LENLEYE
SIN(ROTLEYE) = (|(Y109 - Y110)|
/ LENLEYE
LENREYE = SQRT( POW(X111-X112,
2) + POW(Y111-Y112, 2) )
COS(ROTREYE) = (|(X111 - X112)|
/ LENREYE
SIN(ROTREYE) = (|(Y111 - Y112)|
/ LENREYE
そして、上形顔・下形顔強調処理部377は、左右目の角度平均ROTEYE=(ROTLEYE
+ ROTREYE) / 2と、事前に定められた左右目の角度平均の(複数ユーザの)平均値MROTEYEとを比較する(S705)。そして、ステップS705においてROTEYEがMROTEYEよりも大きい場合には、上形顔・下形顔強調処理部377は、目角度の強調処理を実行する(S707)。
次に、上形顔・下形顔強調処理部377は、顔画像から取得した特徴点の位置情報から、下記を満たす左小鼻角度ROTLNOSEと右小鼻角度ROTRNOSEとを得る。
LENLNOSE = SQRT( POW(X113-X115, 2) + POW(Y113-Y115,
2) )
COS(ROTLNOSE) = (|(X113 - X115)| / LENLNOSE
SIN(ROTLNOSE) = (|(Y113 - Y115)| / LENLNOSE
LENRNOSE = SQRT( POW(X114-X115, 2) + POW(Y114-Y115,
2) )
COS(ROTRNOSE) = (|(X114 - X115)| / LENRNOSE
SIN(ROTRNOSE) = (|(Y114 - Y115)| / LENRNOSE
そして、上形顔・下形顔強調処理部377は、左右小鼻の角度平均ROTNOSE= (ROTLNOSE+
ROTRNOSE) / 2と、事前に求められた左右小鼻角度平均の(複数ユーザの)平均値MROTNOSEとを比較する(S709)。そして、ステップS709においてROTNOSEがMROTNOSEよりも大きい場合には、上形顔・下形顔強調処理部377は、小鼻角度の強調処理を実行する(S711)。
一方、ステップS703において下形顔タイプであると判断された場合には、上形顔の場合と同様に上形顔・下形顔強調処理部377は、左右目の角度平均ROTEYE=(ROTLEYE + ROTREYE) / 2を算出する。そして、このROTEYEとMROTEYEとを比較する(S713)。そして、ステップS713においてROTEYEがMROTEYEよりも小さい場合には、上形顔・下形顔強調処理部377は、目角度の強調処理を実行する(S715)。
次に、上形顔・下形顔強調処理部377は、上形顔の場合と同様に、左右小鼻の角度平均ROTNOSE= (ROTLNOSE + ROTRNOSE) / 2を算出する。そして、上形顔・下形顔強調処理部377は、このROTNOSEとMROTNOSEとを比較する(S717)。そして、ステップS717においてROTNOSEがMROTNOSEよりも小さい場合には、上形顔・下形顔強調処理部377は、小鼻角度の強調処理を実行する(S719)。
ここで、ステップS707及びステップS715により補正される配置情報に含まれる目位置及び角度は、下記の計算により求められる。
ROTEYE = ROTEYE + F * (ROTEYE - MROTEYE)
X209 = (X209 - X201) + COS(ROTEYE) * (X209 - X201) - SIN(ROTEYE)
* (Y209 - Y201)
Y209 = (Y209 - Y201) + SIN(ROTEYE) * (X209 - X201) + COS(ROTEYE)
* (Y209 - Y201)
X210 = (X210 - X201) + COS(ROTEYE) * (X210 - X201) - SIN(ROTEYE)
* (Y210 - Y201)
Y210 = (Y210 - Y201) + SIN(ROTEYE) * (X210 - X201) + COS(ROTEYE)
* (Y210 - Y201)
X211 = (X211 - X201) + COS(ROTEYE) * (X211 - X201) - SIN(ROTEYE)
* (Y211 - Y201)
Y211 = (Y211 - Y201) + SIN(ROTEYE) * (X211 - X201) + COS(ROTEYE)
* (Y211 - Y201)
X212 = (X212 - X201) + COS(ROTEYE) * (X212 - X201) - SIN(ROTEYE)
* (Y212 - Y201)
Y212 = (Y212 - Y201) + SIN(ROTEYE) * (X212 - X201) + COS(ROTEYE)
* (Y212 - Y201)
また、ステップS711及びステップS719により補正される配置情報に含まれる小鼻角度及び位置は、下記の計算により求められる。
ROTNOSE = ROTNOSE + F * (ROTNOSE - MROTNOSE)
X213 = (X213 - X215) + COS(ROTNOSE) * (X213 - X215) - SIN(ROTNOSE)
* (Y213 - Y215)
Y213 = (Y213 - Y215) + SIN(ROTNOSE) * (X213 - X215) + COS(ROTNOSE)
* (Y213 - Y215)
X214 = (X214 - X215) + COS(ROTNOSE) * (X214 - X215) - SIN(ROTNOSE)
* (Y214 - Y215)
Y214 = (Y214 - Y215) + SIN(ROTNOSE) * (X214 - X215) + COS(ROTNOSE)
* (Y214 - Y215)
なお、図23に上形顔と判断された場合の強調処理後の各パーツ配置の一例が示される。図23は、本実施形態に係る上形顔強調処理結果の一例を示す説明図である。図23に示されるように、目パーツ及び鼻パーツの角度が強調される。一方図24に下形顔と判断された場合の強調処理後の各パーツ配置の一例が示される。図24は、本実施形態に係る下形顔強調処理結果の一例を示す説明図である。図24に示されるように、目パーツ及び鼻パーツの角度が強調される。
以上の処理から、本人らしい似顔絵を作成するために必要な各パーツの位置及び角度が得られる。
ここで再び図6に戻ると、次に、この配置情報に基づいて似顔絵が生成及び出力される(S119)。似顔絵作成部39は、配置情報生成部37により生成された配置情報に基づいて、パーツ画像を配置することによって、専門的な知識やノウハウ、センスがなくても、本人らしい似顔絵を生成することができる。ここで、用いられるパーツ画像は、ユーザの特徴点の形状や顔タイプ分類の結果等に基づいて似顔絵作成部39が自動的に選択してもよい。また、パーツ画像は、ユーザによって手動で選択されたパーツ画像を用いてもよい。
似顔絵が出力されると、次に顔写真が変更されたかどうかを検出し(S121)、変更された場合には、再びステップS101の処理に戻る。一方、顔写真が変更されない場合には、似顔絵作成処理が終了される。
以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、上記実施形態では、似顔絵を生成する似顔絵生成装置としたが、本発明はかかる例に限定されない。例えば、配置情報を出力する配置情報生成装置と、当該配置情報を受信して似顔絵を生成する似顔絵生成装置とは別体の装置であってもよい。さらに、特徴点の抽出、顔タイプ分類など、それぞれの処理が別の装置において実行されてもよいことは言うまでもない。
また、上記実施形態では、人の形をしたキャラクターを作成する似顔絵作成装置について説明されたが、似顔絵はかかる形態のものに限定されない。例えば、擬人化した動物又はロボット等のキャラクターも似顔絵の概念に含まれる。
また、上記実施形態では、2次元の似顔絵を作成する似顔絵作成装置について説明されたが、当然3次元のキャラクターを作成する装置に適用することができる。
尚、本明細書において、フローチャートに記述されたステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的に又は個別的に実行される処理をも含む。また時系列的に処理されるステップでも、場合によっては適宜順序を変更することが可能であることは言うまでもない。
10 似顔絵作成装置(配置情報生成装置)
11 撮像部
12 記憶部
13 制御部
14 インタフェース部
15 表示部
16 音声出力部
17 操作入力部
31 画像データ取得部
33 特徴点抽出部
35 顔タイプ分類部
351 内顔・外顔分類部(第1の分類部)
353 上顔・下顔分類部(第2の分類部)
355 上形顔・下形顔分類部(第3の分類部)
37 配置情報生成部
371 初期配置情報生成部
373 内顔・外顔強調処理部(第1の強調処理部)
375 上顔・下顔強調処理部(第2の強調処理部)
377 上形顔・下形顔強調処理部(第3の強調処理部)
39 似顔絵作成部

Claims (12)

  1. ユーザの顔画像を取得する画像取得部と、
    前記顔画像中のパーツに関する特徴点の位置情報を取得する特徴点取得部と、
    前記特徴点の位置情報を用いて、前記顔画像を前記複数のパーツ間の相対位置に基づいた顔タイプに分類する顔タイプ分類部と、
    前記特徴点の位置情報に基づいた初期配置に対して、分類された前記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成部と、
    前記配置情報に基づいてパーツ画像を配置し、似顔絵画像を生成する似顔絵作成部と、
    を備えることを特徴とする、似顔絵作成装置。
  2. 前記配置情報生成部は、2以上のパーツの縦軸上の位置情報及び横軸上の位置情報の少なくともいずれかについて、前記2以上のパーツのうちのいずれかの位置情報を他のパーツの位置情報の変化量に基づいて決定することにより前記2以上のパーツを連動して前記補正を行う、請求項1に記載の似顔絵作成装置。
  3. 前記顔タイプ分類部は、前記特徴点取得部により取得された左目、右目、顔輪郭の左端、及び顔輪郭の右端を示す横軸上の位置情報に基づいて、パーツ位置が顔輪郭の内側に寄っている特徴を示す内顔タイプと、外側に寄っている特徴を示す外顔タイプとのいずれかに分類する第1の分類部を有し、
    前記配置情報生成部は、前記第1の分類部の分類結果に基づいて、各パーツの縦軸上の位置情報および横軸上の位置情報の少なくともいずれかを補正する第1の強調処理部を有することを特徴とする、請求項1または2のいずれかに記載の似顔絵作成装置。
  4. 前記第1の強調処理部は、口パーツの縦軸上の位置情報の補正量に基づいて決定される補正量を用いて、鼻パーツの縦軸上の位置情報を補正することを特徴とする、請求項3に記載の似顔絵作成装置。
  5. 前記顔タイプ分類部は、前記特徴点取得部により取得された額の上端、顎の下端、左アイホールの上端、及び右アイホールの上端の縦軸位置情報に基づいて、パーツ位置が顔輪郭の上側に寄っている特徴を示す上顔タイプと、下側に寄っている特徴を示す下顔タイプとのいずれかに分類する第2の分類部を有し、
    前記配置情報生成部は、前記第2の分類部の分類結果に基づいて、顔輪郭内に配置される各パーツの縦軸上の位置情報を補正する第2の強調処理部を有することを特徴とする、請求項1〜4のいずれか1項に記載の似顔絵作成装置。
  6. 前記第2の強調処理部は、前記顔輪郭内に配置されるパーツのうちの2以上のパーツの縦軸上の位置情報の変位が互いに連動するように補正することを特徴とする、請求項5に記載の似顔絵作成装置。
  7. 前記顔タイプ分類部は、前記特徴点取得部により取得された左目の目頭、左目の目尻、右目の目頭、右目の目尻、小鼻の左端、小鼻の右端、及び鼻先の中心を示す縦軸位置情報に基づいて、パーツの角度が上向きである特徴を示す上形顔タイプと、下向きである特徴を示す下形顔タイプとのいずれかに分類する第3の分類部を有し、
    前記配置情報生成部は、前記第3の分類部の分類結果に基づいて、特定のパーツの角度を補正する第3の強調処理部を有することを特徴とする、請求項1〜6のいずれか1項に記載の似顔絵作成装置。
  8. 前記第3の強調処理部は、目パーツの配置角度及び鼻パーツの小鼻角度の少なくともいずれかを補正することを特徴とする、請求項7に記載の似顔絵作成装置。
  9. 前記似顔絵作成部は、分類された前記顔タイプの示す特徴が強調されたパーツ画像を用いて前記似顔絵画像を生成することを特徴とする、請求項1〜8のいずれか1項に記載の似顔絵作成装置。
  10. ユーザの顔画像中の複数のパーツに関する特徴点の位置情報を取得する特徴点取得部と、
    前記特徴点の位置情報を用いて、前記顔画像を前記複数のパーツ間の相対位置に基づいた顔タイプに分類した分類結果を取得する分類結果取得部と、
    前記特徴点の位置情報に基づいた初期配置に対して、分類された前記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成部と、
    を備えることを特徴とする、配置情報生成装置。
  11. ユーザの顔画像中の複数のパーツに関する特徴点の位置情報を取得する特徴点取得ステップと、
    前記特徴点の位置情報を用いて、前記顔画像を前記複数のパーツ間の相対位置に基づいた顔タイプに分類した分類結果を取得する分類結果取得ステップと、
    前記特徴点の位置情報に基づいた初期配置に対して、分類された前記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成ステップと、
    を含むことを特徴とする、配置情報生成方法。
  12. コンピュータを、
    ユーザの顔画像中の複数のパーツに関する特徴点の位置情報を取得する特徴点取得部と、
    前記特徴点の位置情報を用いて、前記顔画像を前記複数のパーツ間の相対位置に基づいた顔タイプに分類した分類結果を取得する分類結果取得部と、
    前記特徴点の位置情報に基づいた初期配置に対して、分類された前記顔タイプの示す特徴を強調する補正を加えた配置情報を生成する配置情報生成部と、
    を備えることを特徴とする、配置情報生成装置として機能させるためのプログラム。


JP2011038441A 2011-02-24 2011-02-24 似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラム Expired - Fee Related JP5291735B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011038441A JP5291735B2 (ja) 2011-02-24 2011-02-24 似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラム
US13/372,537 US8976182B2 (en) 2011-02-24 2012-02-14 Facial sketch creation device, configuration information generation device, configuration information generation method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011038441A JP5291735B2 (ja) 2011-02-24 2011-02-24 似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2012174197A true JP2012174197A (ja) 2012-09-10
JP5291735B2 JP5291735B2 (ja) 2013-09-18

Family

ID=46718681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011038441A Expired - Fee Related JP5291735B2 (ja) 2011-02-24 2011-02-24 似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラム

Country Status (2)

Country Link
US (1) US8976182B2 (ja)
JP (1) JP5291735B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015192844A (ja) * 2014-03-28 2015-11-05 学校法人塚本学院 大阪芸術大学 脳機能障害者生活支援装置
JP2019068872A (ja) * 2017-10-05 2019-05-09 株式会社顔分析パーソナルメイクアップ研究所 フィルム及び顔分析装置
JP2019079481A (ja) * 2017-10-25 2019-05-23 麗寶大數據股▲フン▼有限公司 生体情報解析装置及びその顔型のシミュレーション方法
JP2023048156A (ja) * 2021-09-27 2023-04-06 アイデミア・アイデンティティ・アンド・セキュリティー・フランス 拡張画像を生成するための方法及び関連する装置
WO2024113779A1 (zh) * 2022-11-30 2024-06-06 华为技术有限公司 图像处理方法、装置及相关设备

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD723045S1 (en) * 2013-03-11 2015-02-24 Microsoft Corporation Display screen with graphical user interface
CN105989584B (zh) * 2015-01-29 2019-05-14 北京大学 图像风格化重建的方法和装置
CN104700439B (zh) * 2015-03-12 2017-08-15 陕西炬云信息科技有限公司 基于单张目标画像的人脸画像合成方法
JP6722878B2 (ja) * 2015-07-30 2020-07-15 パナソニックIpマネジメント株式会社 顔認証装置
USD874478S1 (en) * 2018-01-30 2020-02-04 Magic Leap, Inc. Display panel or portion thereof with graphical user interface
TWI694384B (zh) * 2018-06-07 2020-05-21 鴻海精密工業股份有限公司 人臉圖像處理方法、電子裝置和存儲介質
CN110032959B (zh) * 2019-03-29 2021-04-06 北京迈格威科技有限公司 一种人脸脸型判断方法及装置
CN113223128B (zh) * 2020-02-04 2022-09-13 北京百度网讯科技有限公司 用于生成图像的方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105673A (ja) * 1996-09-30 1998-04-24 Toshiba Corp 似顔絵画像作成装置およびその方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852669A (en) * 1994-04-06 1998-12-22 Lucent Technologies Inc. Automatic face and facial feature location detection for low bit rate model-assisted H.261 compatible coding of video
JP2001222725A (ja) 2000-02-07 2001-08-17 Sharp Corp 画像処理装置
US6845171B2 (en) * 2001-11-19 2005-01-18 Microsoft Corporation Automatic sketch generation
US7039222B2 (en) * 2003-02-28 2006-05-02 Eastman Kodak Company Method and system for enhancing portrait images that are processed in a batch mode
JP2005228185A (ja) 2004-02-16 2005-08-25 E4C-Link Corp キャラクター提供システム
US7483553B2 (en) * 2004-03-29 2009-01-27 Microsoft Corporation Caricature exaggeration
TW200614094A (en) * 2004-10-18 2006-05-01 Reallusion Inc System and method for processing comic character
US20080079716A1 (en) * 2006-09-29 2008-04-03 Lynch Thomas W Modulating facial expressions to form a rendered face
JP4289420B2 (ja) * 2007-05-10 2009-07-01 セイコーエプソン株式会社 画像処理装置および画像処理方法
US8523570B2 (en) * 2010-05-21 2013-09-03 Photometria, Inc System and method for providing a face chart

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10105673A (ja) * 1996-09-30 1998-04-24 Toshiba Corp 似顔絵画像作成装置およびその方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015192844A (ja) * 2014-03-28 2015-11-05 学校法人塚本学院 大阪芸術大学 脳機能障害者生活支援装置
JP2019068872A (ja) * 2017-10-05 2019-05-09 株式会社顔分析パーソナルメイクアップ研究所 フィルム及び顔分析装置
JP2019079481A (ja) * 2017-10-25 2019-05-23 麗寶大數據股▲フン▼有限公司 生体情報解析装置及びその顔型のシミュレーション方法
JP2023048156A (ja) * 2021-09-27 2023-04-06 アイデミア・アイデンティティ・アンド・セキュリティー・フランス 拡張画像を生成するための方法及び関連する装置
JP7386951B2 (ja) 2021-09-27 2023-11-27 アイデミア・アイデンティティ・アンド・セキュリティー・フランス 拡張画像を生成するための方法及び関連する装置
WO2024113779A1 (zh) * 2022-11-30 2024-06-06 华为技术有限公司 图像处理方法、装置及相关设备

Also Published As

Publication number Publication date
US20120218270A1 (en) 2012-08-30
JP5291735B2 (ja) 2013-09-18
US8976182B2 (en) 2015-03-10

Similar Documents

Publication Publication Date Title
JP5291735B2 (ja) 似顔絵作成装置、配置情報生成装置、配置情報生成方法、及びプログラム
CN109325437B (zh) 图像处理方法、装置和系统
JP6636154B2 (ja) 顔画像処理方法および装置、ならびに記憶媒体
CN110612533B (zh) 用于根据表情对图像进行识别、排序和呈现的方法
JP6008045B2 (ja) 教師データ生成装置、方法、プログラム、および群衆状態認識装置、方法、プログラム
CN108564641B (zh) 基于ue引擎的表情捕捉方法及装置
CN106909875B (zh) 人脸脸型分类方法和系统
US20180007259A1 (en) Photo-taking prompting method and apparatus, an apparatus and non-volatile computer storage medium
CN106021550B (zh) 一种发型设计方法和系统
WO2020024569A1 (zh) 动态生成人脸三维模型的方法、装置、电子设备
KR20180015120A (ko) 자동화된 3차원 모델 생성
JP2011090466A (ja) 情報処理装置及び方法、並びにプログラム
US9536132B2 (en) Facilitating image capture and image review by visually impaired users
WO2018012136A1 (ja) メイクアップ支援装置およびメイクアップ支援方法
US12008686B2 (en) Augmented reality map curation
JP2006163871A (ja) 画像処理装置、画像処理方法、およびプログラム
CN108921856B (zh) 图像裁剪方法、装置、电子设备及计算机可读存储介质
US20160070955A1 (en) Portrait generating device and portrait generating method
JP2016103759A (ja) 画像処理装置、画像処理方法、及びプログラム
CN104378620B (zh) 一种图像处理方法及电子设备
CN108765551B (zh) 一种实现3d模型捏脸的方法及终端
CN110349269A (zh) 一种目标穿戴物试戴方法及系统
JP7385416B2 (ja) 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
CN107103646B (zh) 一种表情合成方法及装置
JP4947018B2 (ja) 顔画像の自動トリミング装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130607

R150 Certificate of patent or registration of utility model

Ref document number: 5291735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees