JP4183536B2 - Person image processing method, apparatus and system - Google Patents

Person image processing method, apparatus and system Download PDF

Info

Publication number
JP4183536B2
JP4183536B2 JP2003084508A JP2003084508A JP4183536B2 JP 4183536 B2 JP4183536 B2 JP 4183536B2 JP 2003084508 A JP2003084508 A JP 2003084508A JP 2003084508 A JP2003084508 A JP 2003084508A JP 4183536 B2 JP4183536 B2 JP 4183536B2
Authority
JP
Japan
Prior art keywords
image
face
person
background
background image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003084508A
Other languages
Japanese (ja)
Other versions
JP2004297274A (en
Inventor
賢哉 高見堂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2003084508A priority Critical patent/JP4183536B2/en
Publication of JP2004297274A publication Critical patent/JP2004297274A/en
Application granted granted Critical
Publication of JP4183536B2 publication Critical patent/JP4183536B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は人物画像処理方法及び装置並びにシステムに係り、特に原画像から人物画像を抽出し、この抽出した人物画像と予め準備された背景画像とを合成する技術に関する。
【0002】
【従来の技術】
従来、原画像から人物画像を抽出する場合には、青色スクリーンを背景(ブルーバック)にして人物を撮影して原画像を取得し、色(クロマ)の違いを利用して、原画像から人物画像を抽出して別の画像に嵌め込む手法(クロマキー)が知られている。
【0003】
また、特許文献1には、撮像画像をマトリクス状の複数のブロックに分割し、各ブロックごとにフレーム間の動きの大きさに応じて、動きの小さい背景ブロックと、動きの大きな対象ブロック(人物画像を含むブロック)とに選別する技術が開示されている。
【0004】
【特許文献1】
特開平10−13799号公報
【0005】
【発明が解決しようとする課題】
しかしながら、ブルーバックのような単純な背景で撮影された原画像の場合には、人物画像を抽出しやすいが、複雑な背景で撮影された原画像からは人物画像を良好に抽出することができないという問題がある。
【0006】
一方、引用文献1に記載の人物画像と背景画像との選別方法は、撮像画像の各ブロックのフレーム間の動きの大きさを利用しているため、静止画又は人物が動かない場合には、人物画像(人物を含むブロック)と背景画像との選別ができないという問題がある。このように従来においては、背景を切り出しやすい単純なものに限定しており、複雑な背景は処理の対象外とされていた。
【0007】
また、人物を撮影して得た画像の顔部分と、予め用意されている背景画像(テンプレート画像)とを合成し、得られた合成画像を利用者に提供するサービスも行われているが、かかる従来のサービスにおいては顔画像と背景画像とのつながりが不自然な合成画像が作成されることがあった。
【0008】
本発明はこのような事情に鑑みてなされたもので、原画像に含まれる人物の顔画像と用意されている背景画像とを用いて自然な画像合成を実現することができる人物画像処理方法及び装置を提供することを目的とする。また、本発明は原画像に含まれる人物の画像を背景画像と合成し、得られた合成画像を提供するサービスの実現に好適な人物画像処理システムを提供することを目的とする。
【0009】
【課題を解決するための手段】
前記目的を達成するために本発明に係る人物画像処理方法は、人物が含まれている原画像から人物領域を抽出する工程と、前記原画像から前記人物の目及び顔輪郭を含む顔パーツを抽出する工程と、前記抽出された顔パーツの情報に基づき顔の向きを計測する工程であって、前記抽出された目の中心座標と顔輪郭の端点の座標との距離に基づいて顔の向きを計測する工程と、予め準備された背景画像を前記計測により得られた情報に基づいて変形させる工程と、前記変形させて得られた背景画像と前記人物領域の画像とを合成して合成画像を作成する工程と、を含むことを特徴とする。
【0010】
本発明によれば、入力された原画像のデータを解析して画像内から自動的に人物領域及び目及び顔輪郭を含む顔パーツが抽出され、その抽出された顔パーツの目の中心座標と顔輪郭の端点の座標との距離に基づいて顔の向きが算出される。こうして求めた顔の向きに合わせて合成用の背景画像が変形され、人物領域の画像と合成される。このように、人物画像の特徴に合わせて背景画像を修正した後、これらを合成するようにしたので人物画像部分と背景画像とが違和感なく結合され、全体的に調和した自然な印象の画像を得ることができる。
【0011】
上記方法発明を具現化する装置を提供すべく、本発明に係る人物画像処理装置は、人物が含まれている原画像から人物領域を抽出する人物領域抽出手段と、前記原画像から前記人物の目及び顔輪郭を含む顔パーツを抽出する顔パーツ抽出手段と、前記顔パーツ抽出手段により抽出された顔パーツの情報に基づき顔の向きを計測する顔画像計測手段であって、前記抽出された目の中心座標と顔輪郭の端点の座標との距離に基づいて顔の向きを計測する顔画像計測手段と、人物画像の背景となる背景画像のデータを記憶する背景画像記憶手段と、前記背景画像記憶手段から読み出した背景画像を前記計測により得られた情報に基づいて変形させる背景画像変形手段と、前記背景画像変形手段で変形処理されて得られた背景画像と前記人物領域の画像とを合成して合成画像を作成する画像合成手段と、を備えたことを特徴とする。
また、前記顔画像計測手段は、前記顔パーツ抽出手段により抽出された顔パーツの情報に基づき顔の向きと顔のサイズとを計測し、前記背景画像変形手段は、前記背景画像記憶手段から読み出した背景画像を、前記計測により得られた顔の向きと顔のサイズとに基づいて変形させることを特徴とする。
【0012】
本発明の人物画像処理装置に原画像のデータを取り込むための画像データ入力手段としては、例えば、USBやイーサネット或いはBluetooth などに代表される通信インターフェイス、メモリカードに代表される記録メディアから情報を読み取るメディアインターフェイスなど用いることができる。
【0013】
また、画像合成手段で作成された合成画像を出力する出力手段としては、所定の通信方式に従ってデータを外部に送信するための通信インターフェイス、記録メディアへの書き込みを行うメディアインターフェイス、画像内容を表示する表示装置、印刷媒体に印画するプリンタなど種々の形態がある。
【0014】
本発明に係る人物画像処理システムは、人物が含まれている原画像のデータをネットワーク経由で送出する通信手段を備えた通信端末と、前記ネットワーク経由で前記通信端末から送られてきた画像データを処理する画像処理サーバと、から構成される人物画像処理システムであって、前記画像処理サーバは、前記通信端末から取得した原画像から人物領域を抽出する人物領域抽出手段と、前記原画像から前記人物の目及び顔輪郭を含む顔パーツを抽出する顔パーツ抽出手段と、前記顔パーツ抽出手段により抽出された顔パーツの情報に基づき顔の向きを計測する顔画像計測手段であって、前記抽出された目の中心座標と顔輪郭の端点の座標との距離に基づいて顔の向きを計測する顔画像計測手段と、人物画像の背景となる背景画像のデータを記憶する背景画像記憶手段と、前記背景画像記憶手段から読み出した背景画像を前記計測により得られた情報に基づいて変形させる背景画像変形手段と、前記背景画像変形手段で変形処理されて得られた背景画像と前記人物領域の画像とを合成して合成画像を作成する画像合成手段と、前記画像合成手段により作成された合成画像を前記ネットワーク経由で提供する画像提供手段と、を備えたことを特徴とする。
【0015】
画像処理サーバに原画像を入力する手段(画像データ入力手段)と画像提供手段は、ネットワーク経由でデータの送受信を行う通信手段で兼用できる。通信手段には受信手段および送信手段が含まれる。尚、画像処理サーバは、単一のコンピュータで構成されていてもよいし、複数のコンピュータで構築されたシステムであってもよい。
【0016】
本発明によれば、人物の画像を含む画像データを通信端末から画像処理サーバに送信し、合成画像の作成を依頼する。合成に用いる背景画像のデータはシステム側で少なくとも1つ(好ましくは複数)予め用意しておいてもよいし、通信端末側から提供してもよい。システム側に複数の背景画像のデータが準備されている場合、利用者は通信端末上で背景画像を確認して所望の背景画像を選択できるような手段を設ける態様が好ましい。
【0017】
画像処理サーバは、通信端末から送られてきた画像データを解析して人物領域及び目及び顔輪郭を含む顔パーツを抽出し、顔パーツの目の中心座標と顔輪郭の端点の座標との距離に基づいて顔の向きを算出する。そして、顔の向きに合わせて合成用背景画像の視点(画像角度)を変更するような画像変形を行い、背景画像を適切なものに修正する。こうして変形修正された背景画像と、抽出された人物の画像とが合成され、その処理結果画像(合成画像)が提供される。尚、画像処理サーバで作成された合成画像は、ネットワーク経由で依頼元(画像データ発信元)の通信端末に提供されてもよいし、他の通信端末やサーバなどに提供されてもよい。
【0018】
本発明の人物画像処理システムによれば、原画像から人物領域を抽出し、人物の顔と様々な背景画像とを自然な感じで合成して返す魅力的な画像加工サービスを実現することができる。
【0019】
本発明の一態様によれば、前記通信端末は、前記画像処理サーバで作成された画像を受信し、該受信した画像データに基づいて画像内容を表示する表示手段を備えていることを特徴とする。
【0020】
また、前記通信端末は、被写体の光学像を電気信号に変換する撮像手段を有し、該撮像手段で撮影した人物画像を含む画像データを前記通信手段から送出し得ることを特徴とする態様がある。例えば、カメラ付き携帯電話などが該当する。
【0021】
【発明の実施の形態】
以下添付図面に従って本発明の好ましい実施の形態について詳説する。
【0022】
図1は本発明に係る人物画像処理装置の要部を示す機能ブロック図である。同図に示すように、この人物画像処理装置10は、例えば、パーソナルコンピュータ等によって構成することができ、画像データ入力部11と、顔パーツ抽出部12と、人物領域抽出部13と、顔の向き計測部14と、顔のサイズ計測部15と、背景画像変形部16と、背景画像記憶部17と、合成処理部18と、画像データ出力部19とから構成されている。
【0023】
デジタルスチルカメラ(以下DSCと記載)やカメラ付き携帯電話等により撮影された原画像データは、画像データ入力部11を介して人物画像処理装置10に入力される。原画像データは、図2(A)に示すように人物を任意の背景のもとで撮影して得られた人物画像データである。
【0024】
画像データ入力部11には、DSCメディアのメディアインターフェイスの他にUSBインターフェイス、赤外線通信(IrDA)インターフェイス、イーサネットインターフェイスおよび無線通信インターフェイスを用いてもよく、何れのインターフェイスを適用するかは、原画像データが記録されている媒体や原画像データの記録形式により、ユーザによって適宜選択される。
【0025】
人物画像処理装置10に入力された原画像データは、顔パーツ抽出部12及び人物領域抽出部13に送られ、ここで顔パーツの抽出と人物領域の抽出が行われる(図2(B)参照)。顔パーツ抽出部12は、入力された画像データを解析して、目、鼻、唇、眉などの少なくとも1つ(好ましくは複数)の顔パーツを抽出する。抽出結果は、各顔パーツの座標でもよいし、各顔パーツを切り出した部分画像であってもよい。
【0026】
人物領域抽出部13は入力された原画像から人物領域と背景領域とを区別し、人物領域の部分を取り出す処理を行う。
【0027】
図3は顔パーツ抽出部12の構成例をブロック図である。顔パーツ抽出部12は、特徴抽出処理部21、マッチング処理部22、辞書データ格納部23、辞書データとの一致度を算出する一致度算出部24、一致度を判定する一致度判定部25及び顔パーツ座標確定部26を含む。
【0028】
特徴抽出処理部21は、入力された画像データに対して、例えば、ウエーブレット変換を行い、適切な位置と周波数のウエーブレット係数を取り出して量子化するなど、顔パーツ抽出のための特徴抽出処理を行う。
【0029】
辞書データ格納部23には、事前に非常に多数のサンプル画像から上記同様の特徴抽出処理を行い作成しておいた顔パーツ辞書データが格納されている。マッチング処理部22は、特徴抽出処理部21で抽出されたデータと顔パーツ辞書データとの間でマッチング処理を行う。一致度算出部24では、特徴抽出処理を施された画像データと顔パーツ辞書データとの一致度が算出される。最も一致度の高かった画像中の位置に対象の顔パーツが存在するものとされる。
【0030】
一致度判定部25は、マッチング処理の結果から算出された一致度がある一定のしきい値を超えているか否かを判断する。一致度がしきい値を超えていない場合には、対象の顔パーツが存在しないと判定される。この場合、最も一致度の高かった位置を顔パーツの座標として返すとともに、確信度を示す情報(例えば、低い確信度であることを示す値「0」)を返す。
【0031】
その一方、一致度判定部25において一致度がしきい値を超えた場合は、対象の顔パーツが存在すると判定される。この場合、顔パーツ座標確定部26は、最も一致度の高かった位置を顔パーツの座標として確定し、その座標情報を返すとともに、その一致度を確信度の情報として出力する。
【0032】
一致度は、マッチング結果が良好なほど高い数値となる。そのため、一致度を用いて確信度を算出することにより、確信度を良好なパーツ抽出ができたかどうかの指標として用いることが可能となる。
【0033】
こうして、入力された顔画像から各顔パーツの特徴点(座標や大きさなど)の情報が得られる。例えば、目、鼻、唇、眉、あごの最下点、顔輪郭の左右端点などの各座標が検出される。
【0034】
図4は図1に示した人物領域抽出部13の構成例を示したブロック図である。人物領域抽出部13は、図3で説明した顔パーツ抽出部12と兼用される顔座標検出部31と、領域分割部32と、確信度算出部33と、人物領域辞書データ格納部34と、確信度判定部35と、人物領域確定部36とを含む。
【0035】
図4に示したように、入力された画像データから顔座標検出部31において顔パーツが抽出され、顔パーツが抽出された位置が「顔」と判定される。
【0036】
領域分割部32では、顔座標検出の結果、顔部分と判定された位置(座標)を用いて、似た色やテクスチャをまとめて分割する領域分割処理を行う。例えば、「目の座標を含む肌色領域」を顔領域、「目のやや上にあり、黒、茶色などの領域」を髪領域とするように人物に含まれる構成要素を検出して人物領域を抽出する。
【0037】
一方、非常に多くの人物領域画像から、目の位置および人物と背景との境界線の平均的な位置関係を示す人物領域辞書データを事前に作成しておき、この辞書データを人物領域辞書データ格納部34に格納しておく。確信度算出部33では、当該画像データを基に求められた人物と背景との境界線と、人物領域辞書データ格納部34に格納されている人物と背景との境界線の平均的な位置関係とマッチング処理を行い、その一致度を算出する。一致度は、目、髪、肩などの位置関係が平均的なほど高い値になる。このように求められた一致度が人物領域抽出における確信度である。
【0038】
確信度判定部35では、求められた確信度が設定されたしきい値を超えていないときには画像データ内に人物領域は存在しないと判定され(確信度小に相当)、人物領域不定のため確信度が提供される。
【0039】
また、確信度判定部35において、確信度がしきい値を超えたときには(確信度大に相当)、最も一致度が高い領域を人物領域として確定する。この場合、人物領域確定部36において、人物領域と背景領域とが区別され、人物領域の情報とともにその確信度の情報が出力される。
【0040】
尚、画像内から人物領域と背景領域とを区別して抽出する方法は、種々の方法が考えられ、上述の方法に限定されない。例えば、原画像内の高周波成分から人物と背景の境界線を抽出するフィルタ処理を施し、原画像から人物領域を抽出する方法や、原画像内の肌色を抽出し、その肌色の領域のある点から同一領域に属すると思われる連結領域に対して順次領域拡張を行い、このようにして抽出された領域の形状が顔の形状か否かによって顔領域を抽出し、同様にして顔領域の上部の髪領域、顔の下部の首及び胸部領域等を抽出することで、人物領域を抽出する方法等がある。
【0041】
図1の顔パーツ抽出部12で抽出した顔パーツの座標情報に基づき、顔の向き計測部14において顔の向きが計算されるとともに、顔のサイズ計測部15において顔のサイズが計算される。例えば、図5に示すように、目の中心座標と顔輪郭の端点の座標との距離d1 ,d2 について左右の違いを求めることで顔の方向を計算することができる。また、左右の目の中心座標を結ぶ線L1 と画面の水平基準線L2 との角度を算出するなどして顔の傾き角度θを検出することができる。顔のサイズについては、左右の目の間隔や顔輪郭の端点の座標などから求めることができる。
【0042】
顔の向き及び顔のサイズの計測結果は図1に示した背景画像変形部16に送られる。背景画像変形部16では、背景画像記憶部17から読み出した背景画像データを顔の向きや顔のサイズに合わせて変形させる処理を行う。
【0043】
背景画像記憶部17には、複数の背景画像データが格納されており、利用者は所定のユーザインターフェイスを介して所望の背景画像を選択することができるようになっている。もちろん、背景画像の取得方法はこの実施の形態に限定されず、人物画像と合成する背景画像を別途入力するように構成してもよい。
【0044】
背景画像変形部16において変形処理された背景画像と、人物領域抽出部13において抽出された人物画像とは合成処理部18において合成され、合成画像が生成される。
例えば、図2(C)に示すような背景画像(顔部分が抜かれた背景画像)が選択されるものとすると、図2(D)のように、人物の顔の向き及びサイズに合わせて背景画像が変形された後、原画像から抽出された人物画像(顔画像)と合成される。
【0045】
合成処理部18で生成された合成画像は、図1の画像データ出力部19から出力される。出力形態には、表示装置やプリンタに画像を出力する形態、メモリカードやCD−R等の記録メディアや内蔵ハードディスクなどの記憶装置にファイル形式で記録する形態、通信手段(有線、無線を問わない)を介して他の装置に転送する形態などがある。
【0046】
上述した人物画像処理装置10は、パーソナルコンピュータで実現できるが、これに限らず、ネットワーク上の画像加工用のサービスサーバ等によって実現してもよい。
【0047】
図6は本発明に係る人物画像処理方法が適用されたネットワークシステムの構成図である。
【0048】
図6において、符号130はインターネット等のネットワーク140に接続可能なカメラ付き携帯電話であり、150はネットワーク140に接続可能な利用者のコンピュータ(PC)である。尚、このPC150は、USB等のインターフェイスを介してDSC152が接続され、DSC152から画像を取り込むことができるようになっている。
【0049】
また、ネットワーク140には、前述した人物画像処理装置10での画像加工と同様な画像処理を行うサービスサーバ160や、サービスサーバ160で処理された合成画像をプリント出力するプリントサーバ170等が接続されている。
【0050】
サービスサーバ160が提供する背景画像の合成処理サービスを利用する場合には、カメラ付き携帯電話130やPC150を用いてサービスサーバ160のホームページにアクセスし、背景画像の合成処理を依頼する画像をサービスサーバ160にアップロードする。また、サービスサーバ160は、背景画像の一覧等を利用者に提示し、利用者に背景画像を選択させることができる。
【0051】
サービスサーバ160は、図1に示した人物画像処理装置10と同様な機能と、通信機能を有するサーバコンピュータ162と、利用者からアップロードされた画像を保管したり、ユーザID、メールアドレス等のユーザ情報を管理したりする大容量記録装置(ストレージ)164とから構成されている。このサービスサーバ160は、利用者からアップロードされた原画像に対する背景画像の合成処理の依頼を受け付けると、原画像から人物画像を抽出し、上述のように顔の向きやサイズに合わせて背景画像を変形させて、人物画像と背景画像との合成処理を行う。このようにして作成した合成画像はネットワーク140経由で利用者のカメラ付き携帯電話130やPC150に提供される。
【0052】
画像の提供方法としては、依頼元のユーザ端末(この場合、カメラ付き携帯電話130やPC150)に画像データを送り返す態様、或いは、電子メールに添付して配信する態様がある。また、合成画像を所定の格納場所(例えば、ユーザ別に設定した専用の閲覧サイト)に格納し、そのアドレス情報(例えば、URL )を電子メール等により通知する態様もある。この場合、ユーザは指定されたサイトにアクセスして、そこから顔表情変化画像を閲覧又はダウンロードすることができる。
【0053】
こうして、利用者はサービスサーバ160で生成された合成画像をカメラ付き携帯電話130のディスプレイ131やPC150のディスプレイ151によって閲覧することができる。
【0054】
また、サービスサーバ160は、利用者から合成画像のプリント注文を受け付けた場合には、上記合成画像をプリントサーバ170に転送する。プリントサーバ170は、サーバコンピュータ172と、プリント装置174とを備えており、サービスサーバ160から受信した合成画像に基づいてプリント装置174により背景が合成された合成画像をプリント出力する。尚、プリント出力された写真プリントは、利用者が指定したコンビニエンス・ストアや写真店などの受取先に配送されたり、直接利用者の自宅に配送されたりする。
【0055】
上記の画像提供システムにおいて、さらに、顔パーツ抽出の推定成功率を表す確信度の情報を利用し、確信度が所定の判定基準値よりも低い場合には、精度の低い処理結果画像(合成画像)を提供しないなどの処理態様を採用することにより、ユーザに不快感を与えないサービスを提供することができ、全体のサービス品質を向上させることができる。
【0056】
【発明の効果】
以上説明したように本発明に係る顔画像処理装置によれば、入力された原画像から自動的に人物領域と顔パーツを抽出して顔の向きや顔のサイズを計測し、顔の向きやサイズに合わせて背景画像を変形させて人物画像と背景画像とを合成するようにしたので、自然な印象の合成画像を得ることができる。
【図面の簡単な説明】
【図1】本発明の実施形態に係る人物画像処理装置の要部を示す機能ブロック図
【図2】本発明に係る人物画像処理方法の処理内容を説明するために用いた画像例を示す図
【図3】図1に示した顔パーツ抽出部の構成例を示す図
【図4】図1に示した人物領域抽出部の構成例を示す図
【図5】顔の計測方法を説明するために用いた図
【図6】本発明に係る人物画像処理方法が適用されたネットワークシステムの構成図
【符号の説明】
10…人物画像処理装置、12…顔パーツ抽出部、13…人物領域抽出部、14…顔の向き計測部、15…顔のサイズ計測部、16…背景画像変形部、17…背景画像記憶部、18…合成処理部、130…カメラ付き携帯電話、131…ディスプレイ、140…ネットワーク、150…PC、152…DSC、160…サービスサーバ、170…プリントサーバ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a person image processing method, apparatus, and system, and more particularly to a technique for extracting a person image from an original image and synthesizing the extracted person image and a background image prepared in advance.
[0002]
[Prior art]
Conventionally, when a person image is extracted from an original image, a person is photographed with a blue screen as a background (blue background) to acquire the original image, and the person is extracted from the original image using the difference in color (chroma). A technique (chroma key) for extracting an image and fitting it into another image is known.
[0003]
Patent Document 1 discloses that a captured image is divided into a plurality of blocks in a matrix, and a background block with a small motion and a target block (a person with a large motion) according to the magnitude of the motion between frames for each block. A block including an image) is disclosed.
[0004]
[Patent Document 1]
Japanese Patent Application Laid-Open No. 10-13799
[Problems to be solved by the invention]
However, in the case of an original image taken with a simple background such as a blue background, it is easy to extract a person image, but a person image cannot be extracted well from an original image taken with a complicated background. There is a problem.
[0006]
On the other hand, since the method for selecting a person image and a background image described in the cited document 1 uses the magnitude of movement between frames of each block of the captured image, when a still image or a person does not move, There is a problem that a person image (a block including a person) and a background image cannot be selected. As described above, conventionally, the background is limited to a simple one that is easy to cut out, and the complicated background is excluded from processing.
[0007]
In addition, there is a service in which a face portion of an image obtained by photographing a person and a background image (template image) prepared in advance are combined, and the obtained combined image is provided to the user. In such a conventional service, a composite image in which the connection between the face image and the background image is unnatural may be created.
[0008]
The present invention has been made in view of such circumstances, and a person image processing method capable of realizing natural image composition using a face image of a person included in an original image and a prepared background image, and An object is to provide an apparatus. It is another object of the present invention to provide a person image processing system suitable for realizing a service for synthesizing an image of a person included in an original image with a background image and providing the obtained synthesized image.
[0009]
[Means for Solving the Problems]
In order to achieve the above object, a person image processing method according to the present invention includes a step of extracting a person region from an original image including a person, and a facial part including the eyes and face outline of the person from the original image. Extracting, and measuring the orientation of the face based on the extracted face part information , wherein the orientation of the face is based on the distance between the center coordinates of the extracted eye and the coordinates of the end points of the face contour A step of deforming a background image prepared in advance based on information obtained by the measurement, and a composite image obtained by combining the background image obtained by the deformation and the image of the person area And a step of creating.
[0010]
According to the present invention, the input original image data is analyzed to automatically extract a facial part including a human region, eyes, and face outline from the image, and the center coordinates of the extracted facial part The orientation of the face is calculated based on the distance from the coordinates of the end points of the face contour . The background image for synthesis is deformed in accordance with the face orientation thus obtained, and is synthesized with the image of the person area. In this way, after correcting the background image according to the characteristics of the person image, they are combined, so the person image part and the background image are combined without a sense of incongruity, and an image with a natural impression that is harmonized as a whole is obtained. Obtainable.
[0011]
In order to provide an apparatus that embodies the above method invention, a human image processing apparatus according to the present invention includes a human area extracting unit that extracts a human area from an original image including a person, and the person's image from the original image. a face part extraction unit that extracts a face part including eye and face contour, a face image measuring means for measuring the orientation of the face based on the face information of the extracted face part by part extracting means, which is the extracted Face image measuring means for measuring the orientation of the face based on the distance between the center coordinates of the eyes and the coordinates of the end points of the face contour, background image storage means for storing background image data as a background of the person image, and the background A background image deformation means for deforming a background image read from the image storage means based on the information obtained by the measurement, a background image obtained by deformation processing by the background image deformation means, and an image of the person area Characterized in that and an image synthesizing means for creating a synthesized image by synthesizing and.
Further, the face image measuring means measures a face direction and a face size based on the face part information extracted by the face part extracting means, and the background image deforming means reads out from the background image storage means. The background image is deformed based on the face orientation and the face size obtained by the measurement.
[0012]
As image data input means for capturing original image data into the human image processing apparatus of the present invention, for example, information is read from a communication interface typified by USB, Ethernet or Bluetooth, or a recording medium typified by a memory card. Media interface etc. can be used.
[0013]
As output means for outputting the composite image created by the image composition means, a communication interface for transmitting data to the outside in accordance with a predetermined communication method, a media interface for writing to a recording medium, and image contents are displayed. There are various forms such as a display device and a printer for printing on a print medium.
[0014]
A human image processing system according to the present invention includes a communication terminal having communication means for transmitting original image data including a person via a network, and image data sent from the communication terminal via the network. A human image processing system configured to process the human image processing system, wherein the image processing server extracts a human region from a raw image acquired from the communication terminal; Face part extraction means for extracting face parts including a person's eyes and face contour, and face image measurement means for measuring the orientation of the face based on the information of the face parts extracted by the face part extraction means , the extraction a face image measuring means for measuring the orientation of a face based on the distance between been eye center coordinates and the face contour of the end points of the coordinate data of the background image as a background of the portrait image A background image storage means for storing, a background image deformation means for deforming a background image read from the background image storage means based on the information obtained by the measurement, and a deformation process obtained by the background image deformation means. Image combining means for generating a combined image by combining a background image and the image of the person area, and image providing means for providing the combined image generated by the image combining means via the network. Features.
[0015]
The means for inputting the original image to the image processing server (image data input means) and the image providing means can be used as communication means for transmitting and receiving data via the network. The communication means includes a receiving means and a transmitting means. The image processing server may be configured by a single computer or a system constructed by a plurality of computers.
[0016]
According to the present invention, image data including an image of a person is transmitted from a communication terminal to an image processing server, and a creation of a composite image is requested. At least one (preferably a plurality) of background image data used for composition may be prepared in advance on the system side, or may be provided from the communication terminal side. In the case where a plurality of background image data are prepared on the system side, it is preferable to provide a means for the user to check the background image on the communication terminal and select a desired background image.
[0017]
The image processing server analyzes the image data sent from the communication terminal to extract a facial part including a person region and eyes and a face outline, and the distance between the center coordinates of the face parts and the coordinates of the end points of the face outline The direction of the face is calculated based on . Then, image deformation is performed such that the viewpoint (image angle) of the composition background image is changed according to the orientation of the face, and the background image is corrected to an appropriate one. The background image thus modified and the extracted person image are synthesized, and a processing result image (synthesized image) is provided. Note that the composite image created by the image processing server may be provided to the communication terminal of the request source (image data transmission source) via the network, or may be provided to other communication terminals or servers.
[0018]
According to the human image processing system of the present invention, it is possible to realize an attractive image processing service that extracts a human region from an original image and synthesizes and returns a human face and various background images with a natural feeling. .
[0019]
According to an aspect of the present invention, the communication terminal includes a display unit that receives an image created by the image processing server and displays image content based on the received image data. To do.
[0020]
The communication terminal includes an imaging unit that converts an optical image of a subject into an electrical signal, and the communication unit can send image data including a person image captured by the imaging unit from the communication unit. is there. For example, a mobile phone with a camera is applicable.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0022]
FIG. 1 is a functional block diagram showing a main part of a human image processing apparatus according to the present invention. As shown in the figure, the person image processing apparatus 10 can be configured by, for example, a personal computer, and includes an image data input unit 11, a face part extraction unit 12, a person region extraction unit 13, and a facial image. It consists of an orientation measurement unit 14, a face size measurement unit 15, a background image deformation unit 16, a background image storage unit 17, a synthesis processing unit 18, and an image data output unit 19.
[0023]
Original image data captured by a digital still camera (hereinafter referred to as DSC), a mobile phone with a camera, or the like is input to the human image processing apparatus 10 via the image data input unit 11. The original image data is person image data obtained by photographing a person under an arbitrary background as shown in FIG.
[0024]
In addition to the media interface of DSC media, a USB interface, an infrared communication (IrDA) interface, an Ethernet interface, and a wireless communication interface may be used for the image data input unit 11, and which interface is applied depends on the original image data Is appropriately selected by the user depending on the medium on which the image is recorded and the recording format of the original image data.
[0025]
The original image data input to the person image processing apparatus 10 is sent to the face part extraction unit 12 and the person region extraction unit 13, where face parts and person regions are extracted (see FIG. 2B). ). The face part extraction unit 12 analyzes the input image data and extracts at least one (preferably a plurality of) face parts such as eyes, nose, lips, and eyebrows. The extraction result may be the coordinates of each face part or a partial image obtained by cutting out each face part.
[0026]
The person area extraction unit 13 performs a process of distinguishing the person area and the background area from the input original image and extracting the person area portion.
[0027]
FIG. 3 is a block diagram illustrating a configuration example of the face part extraction unit 12. The face part extraction unit 12 includes a feature extraction processing unit 21, a matching processing unit 22, a dictionary data storage unit 23, a coincidence calculation unit 24 that calculates the coincidence with dictionary data, a coincidence determination unit 25 that determines the coincidence, and A face part coordinate determination unit 26 is included.
[0028]
The feature extraction processing unit 21 performs, for example, wavelet transform on the input image data, and extracts and quantizes the wavelet coefficients of appropriate positions and frequencies, and the like, for example, to extract the face parts. I do.
[0029]
The dictionary data storage unit 23 stores face part dictionary data created by performing the same feature extraction process from a large number of sample images in advance. The matching processing unit 22 performs matching processing between the data extracted by the feature extraction processing unit 21 and the face part dictionary data. The coincidence degree calculation unit 24 calculates the degree of coincidence between the image data subjected to the feature extraction process and the face part dictionary data. It is assumed that the target face part exists at a position in the image having the highest degree of coincidence.
[0030]
The coincidence determination unit 25 determines whether the coincidence calculated from the result of the matching process exceeds a certain threshold value. If the matching degree does not exceed the threshold value, it is determined that the target face part does not exist. In this case, the position having the highest degree of coincidence is returned as the coordinates of the face part, and information indicating the certainty factor (for example, a value “0” indicating that the certainty factor is low) is returned.
[0031]
On the other hand, when the coincidence degree exceeds the threshold value in the coincidence degree determination unit 25, it is determined that the target face part is present. In this case, the face part coordinate determination unit 26 determines the position having the highest degree of coincidence as the coordinate of the face part, returns the coordinate information, and outputs the coincidence as confidence level information.
[0032]
The better the matching result, the higher the matching result. Therefore, by calculating the certainty factor using the degree of coincidence, the certainty factor can be used as an index as to whether or not good part extraction has been performed.
[0033]
In this way, information on the feature points (coordinates, size, etc.) of each face part can be obtained from the input face image. For example, coordinates such as eyes, nose, lips, eyebrows, the lowest point of the chin, and left and right end points of the face contour are detected.
[0034]
FIG. 4 is a block diagram showing a configuration example of the person area extraction unit 13 shown in FIG. The person area extraction unit 13 includes a face coordinate detection unit 31, which is also used as the face part extraction unit 12 described in FIG. 3, an area division unit 32, a certainty factor calculation unit 33, a person region dictionary data storage unit 34, A certainty factor determination unit 35 and a person area determination unit 36 are included.
[0035]
As shown in FIG. 4, a face part is extracted from the input image data by the face coordinate detection unit 31, and the position where the face part is extracted is determined as “face”.
[0036]
The area dividing unit 32 performs area dividing processing for dividing similar colors and textures together using positions (coordinates) determined as face parts as a result of face coordinate detection. For example, the human skin area including the eye coordinates is detected as the face area, and the human area is detected by detecting the components included in the person so that the hair area is the area slightly above the eyes and black, brown, etc. Extract.
[0037]
On the other hand, from a large number of person area images, person area dictionary data indicating the average positional relationship between the eye positions and the boundary lines between the person and the background is created in advance, and this dictionary data is used as the person area dictionary data. Stored in the storage unit 34. In the certainty factor calculation unit 33, the average positional relationship between the boundary line between the person and the background obtained based on the image data and the boundary line between the person and the background stored in the person area dictionary data storage unit 34. The matching process is performed, and the degree of coincidence is calculated. The degree of coincidence increases as the positional relationship between eyes, hair, shoulders, etc. averages. The degree of coincidence thus obtained is the certainty factor in the person region extraction.
[0038]
The certainty factor determination unit 35 determines that the person area does not exist in the image data when the calculated certainty degree does not exceed the set threshold value (corresponding to a small certainty factor), and is certain because the person area is indefinite. Degrees are provided.
[0039]
Further, when the certainty factor exceeds the threshold value (corresponding to a high certainty factor) in the certainty factor determination unit 35, the region having the highest degree of coincidence is determined as the person region. In this case, the person area determination unit 36 distinguishes the person area from the background area, and outputs information on the certainty factor together with information on the person area.
[0040]
Note that various methods can be considered for extracting the person area and the background area from the image, and the method is not limited to the above-described method. For example, a method for extracting a person area from the original image by performing a filtering process that extracts a boundary line between a person and a background from high-frequency components in the original image, or extracting a skin color in the original image, and having a certain point in the skin color area To the connected regions that are considered to belong to the same region sequentially, and the face region is extracted according to whether or not the shape of the extracted region is the shape of the face. There is a method of extracting a person region by extracting a hair region, a neck and a chest region below the face, and the like.
[0041]
Based on the coordinate information of the face part extracted by the face part extracting unit 12 in FIG. 1, the face direction measuring unit 14 calculates the face direction, and the face size measuring unit 15 calculates the face size. For example, as shown in FIG. 5, the face direction can be calculated by obtaining the difference between the left and right distances d1 and d2 between the center coordinates of the eyes and the coordinates of the end points of the face contour. Further, the face inclination angle θ can be detected by calculating the angle between the line L1 connecting the center coordinates of the left and right eyes and the horizontal reference line L2 of the screen. The size of the face can be obtained from the distance between the left and right eyes, the coordinates of the end points of the face contour, and the like.
[0042]
The measurement results of the face orientation and the face size are sent to the background image deformation unit 16 shown in FIG. The background image deformation unit 16 performs a process of deforming the background image data read from the background image storage unit 17 according to the face direction and the face size.
[0043]
The background image storage unit 17 stores a plurality of background image data, and the user can select a desired background image via a predetermined user interface. Of course, the background image acquisition method is not limited to this embodiment, and a background image to be combined with a person image may be input separately.
[0044]
The background image transformed by the background image transformation unit 16 and the person image extracted by the person region extraction unit 13 are synthesized by the synthesis processing unit 18 to generate a synthesized image.
For example, if a background image (a background image from which a face portion is removed) as shown in FIG. 2C is selected, the background is matched to the orientation and size of the person's face as shown in FIG. After the image is deformed, it is combined with a person image (face image) extracted from the original image.
[0045]
The composite image generated by the composite processing unit 18 is output from the image data output unit 19 in FIG. The output form includes a form for outputting an image to a display device and a printer, a form for recording in a recording medium such as a memory card and a CD-R, and a storage device such as a built-in hard disk, and communication means (both wired and wireless). ) And the like, and so on.
[0046]
The person image processing apparatus 10 described above can be realized by a personal computer, but is not limited thereto, and may be realized by a service server for image processing on a network.
[0047]
FIG. 6 is a configuration diagram of a network system to which the person image processing method according to the present invention is applied.
[0048]
In FIG. 6, reference numeral 130 denotes a camera-equipped mobile phone that can be connected to a network 140 such as the Internet, and 150 denotes a user's computer (PC) that can be connected to the network 140. The PC 150 is connected to a DSC 152 via an interface such as a USB, and can capture an image from the DSC 152.
[0049]
Also connected to the network 140 are a service server 160 that performs image processing similar to the image processing in the person image processing apparatus 10 described above, a print server 170 that prints out a composite image processed by the service server 160, and the like. ing.
[0050]
When using the background image composition processing service provided by the service server 160, the home server of the service server 160 is accessed using the camera-equipped mobile phone 130 or the PC 150, and the image for requesting the background image composition processing is displayed on the service server. Upload to 160. In addition, the service server 160 can present a list of background images to the user and allow the user to select a background image.
[0051]
The service server 160 stores a server computer 162 having a function similar to that of the person image processing apparatus 10 shown in FIG. 1 and a communication function, an image uploaded from a user, a user ID, a mail address, and the like. And a large capacity recording device (storage) 164 for managing information. When the service server 160 receives a request for a background image composition process for an original image uploaded from a user, the service server 160 extracts a person image from the original image, and converts the background image according to the face direction and size as described above. Deformation is performed to combine the person image and the background image. The composite image created in this way is provided to the user's camera-equipped mobile phone 130 and PC 150 via the network 140.
[0052]
As an image providing method, there is a mode in which image data is sent back to the requesting user terminal (in this case, the camera-equipped mobile phone 130 or the PC 150), or a mode in which the image data is attached and distributed. There is also an aspect in which the composite image is stored in a predetermined storage location (for example, a dedicated browsing site set for each user), and the address information (for example, URL) is notified by e-mail or the like. In this case, the user can access the designated site and browse or download the facial expression change image from there.
[0053]
In this way, the user can view the composite image generated by the service server 160 on the display 131 of the camera-equipped mobile phone 130 or the display 151 of the PC 150.
[0054]
When the service server 160 receives a print order of a composite image from the user, the service server 160 transfers the composite image to the print server 170. The print server 170 includes a server computer 172 and a print device 174, and prints out a composite image in which the background is combined by the print device 174 based on the composite image received from the service server 160. The printed photo print is delivered to a receiver such as a convenience store or a photo store designated by the user, or directly to the user's home.
[0055]
In the above-described image providing system, the information on the certainty factor representing the estimation success rate of the face part extraction is further used, and when the certainty factor is lower than a predetermined determination reference value, the processing result image with low accuracy (composite image) ) Is not provided, a service that does not cause discomfort to the user can be provided, and the overall service quality can be improved.
[0056]
【The invention's effect】
As described above, according to the face image processing apparatus of the present invention, the human region and face parts are automatically extracted from the input original image to measure the face direction and the face size. Since the person image and the background image are synthesized by deforming the background image in accordance with the size, a synthesized image with a natural impression can be obtained.
[Brief description of the drawings]
FIG. 1 is a functional block diagram showing a main part of a human image processing apparatus according to an embodiment of the present invention. FIG. 2 is a diagram showing an example of an image used for explaining processing contents of a human image processing method according to the present invention. 3 is a diagram showing a configuration example of a face part extraction unit shown in FIG. 1. FIG. 4 is a diagram showing a configuration example of a person region extraction unit shown in FIG. 1. FIG. 5 is for explaining a face measurement method. FIG. 6 is a configuration diagram of a network system to which a human image processing method according to the present invention is applied.
DESCRIPTION OF SYMBOLS 10 ... Person image processing apparatus, 12 ... Face part extraction part, 13 ... Person area extraction part, 14 ... Face direction measurement part, 15 ... Face size measurement part, 16 ... Background image deformation | transformation part, 17 ... Background image storage part , 18 ... composition processing unit, 130 ... mobile phone with camera, 131 ... display, 140 ... network, 150 ... PC, 152 ... DSC, 160 ... service server, 170 ... print server

Claims (6)

人物が含まれている原画像から人物領域を抽出する工程と、
前記原画像から前記人物の目及び顔輪郭を含む顔パーツを抽出する工程と、
前記抽出された顔パーツの情報に基づき顔の向きを計測する工程であって、前記抽出された目の中心座標と顔輪郭の端点の座標との距離に基づいて顔の向きを計測する工程と、
予め準備された背景画像を前記計測により得られた情報に基づいて変形させる工程と、
前記変形させて得られた背景画像と前記人物領域の画像とを合成して合成画像を作成する工程と、
を含むことを特徴とする人物画像処理方法。
Extracting a person area from an original image including a person;
Extracting a facial part including the eyes and face outline of the person from the original image;
Measuring the orientation of the face based on the extracted face part information, measuring the orientation of the face based on the distance between the center coordinates of the extracted eyes and the coordinates of the end points of the face contour ; ,
Transforming a background image prepared in advance based on the information obtained by the measurement;
Creating a composite image by combining the background image obtained by the deformation and the image of the person area; and
A person image processing method comprising:
人物が含まれている原画像から人物領域を抽出する人物領域抽出手段と、
前記原画像から前記人物の目及び顔輪郭を含む顔パーツを抽出する顔パーツ抽出手段と、
前記顔パーツ抽出手段により抽出された顔パーツの情報に基づき顔の向きを計測する顔画像計測手段であって、前記抽出された目の中心座標と顔輪郭の端点の座標との距離に基づいて顔の向きを計測する顔画像計測手段と、
人物画像の背景となる背景画像のデータを記憶する背景画像記憶手段と、
前記背景画像記憶手段から読み出した背景画像を前記計測により得られた情報に基づいて変形させる背景画像変形手段と、
前記背景画像変形手段で変形処理されて得られた背景画像と前記人物領域の画像とを合成して合成画像を作成する画像合成手段と、
を備えたことを特徴とする人物画像処理装置。
Person area extraction means for extracting a person area from an original image including a person;
Facial part extracting means for extracting facial parts including the eyes and facial contours of the person from the original image;
Face image measuring means for measuring a face orientation based on face part information extracted by the face part extracting means , based on a distance between the extracted eye center coordinates and face contour end point coordinates. A face image measuring means for measuring the orientation of the face ;
Background image storage means for storing data of a background image as a background of a person image;
Background image deformation means for deforming a background image read from the background image storage means based on the information obtained by the measurement;
Image composition means for creating a composite image by combining the background image obtained by the deformation processing by the background image deformation means and the image of the person area;
A human image processing apparatus comprising:
前記顔画像計測手段は、前記顔パーツ抽出手段により抽出された顔パーツの情報に基づき顔の向きと顔のサイズとを計測し、
前記背景画像変形手段は、前記背景画像記憶手段から読み出した背景画像を、前記計測により得られた顔の向きと顔のサイズとに基づいて変形させることを特徴とする請求項記載の人物画像処理装置。
The face image measuring means measures a face direction and a face size based on the face part information extracted by the face part extracting means;
3. The human image according to claim 2, wherein the background image deforming means deforms the background image read from the background image storing means based on the face orientation and the face size obtained by the measurement. Processing equipment.
人物が含まれている原画像のデータをネットワーク経由で送出する通信手段を備えた通信端末と、前記ネットワーク経由で前記通信端末から送られてきた画像データを処理する画像処理サーバと、から構成される人物画像処理システムであって、
前記画像処理サーバは、前記通信端末から取得した原画像から人物領域を抽出する人物領域抽出手段と、
前記原画像から前記人物の目及び顔輪郭を含む顔パーツを抽出する顔パーツ抽出手段と、
前記顔パーツ抽出手段により抽出された顔パーツの情報に基づき顔の向きを計測する顔画像計測手段であって、前記抽出された目の中心座標と顔輪郭の端点の座標との距離に基づいて顔の向きを計測する顔画像計測手段と、
人物画像の背景となる背景画像のデータを記憶する背景画像記憶手段と、
前記背景画像記憶手段から読み出した背景画像を前記計測により得られた情報に基づいて変形させる背景画像変形手段と、
前記背景画像変形手段で変形処理されて得られた背景画像と前記人物領域の画像とを合成して合成画像を作成する画像合成手段と、
前記画像合成手段により作成された合成画像を前記ネットワーク経由で提供する画像提供手段と、
を備えたことを特徴とする人物画像処理システム。
A communication terminal having communication means for transmitting original image data including a person via a network; and an image processing server for processing image data sent from the communication terminal via the network. A human image processing system,
The image processing server includes a person area extracting unit that extracts a person area from an original image acquired from the communication terminal;
Facial part extracting means for extracting facial parts including the eyes and facial contours of the person from the original image;
Face image measuring means for measuring a face orientation based on face part information extracted by the face part extracting means , based on a distance between the extracted eye center coordinates and face contour end point coordinates. A face image measuring means for measuring the orientation of the face ;
Background image storage means for storing data of a background image as a background of a person image;
Background image deformation means for deforming a background image read from the background image storage means based on the information obtained by the measurement;
Image composition means for creating a composite image by combining the background image obtained by the deformation processing by the background image deformation means and the image of the person area;
Image providing means for providing a synthesized image created by the image synthesizing means via the network;
A human image processing system comprising:
前記通信端末は、前記画像処理サーバで作成された画像を受信し、該受信した画像データに基づいて画像内容を表示する表示手段を備えていることを特徴とする請求項記載の人物画像処理システム。5. The human image processing according to claim 4 , wherein the communication terminal includes display means for receiving an image created by the image processing server and displaying the image content based on the received image data. system. 前記通信端末は、被写体の光学像を電気信号に変換する撮像手段を有し、該撮像手段で撮影した人物画像を含む画像データを前記通信手段から送出し得ることを特徴とする請求項又は記載の人物画像処理システム。The communication terminal includes an imaging means for converting an optical image of an object into an electrical signal, according to claim 4 or wherein the image data including a person image photographed by the image pickup means may be transmitted from said communication means 5. The human image processing system according to 5 .
JP2003084508A 2003-03-26 2003-03-26 Person image processing method, apparatus and system Expired - Fee Related JP4183536B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003084508A JP4183536B2 (en) 2003-03-26 2003-03-26 Person image processing method, apparatus and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003084508A JP4183536B2 (en) 2003-03-26 2003-03-26 Person image processing method, apparatus and system

Publications (2)

Publication Number Publication Date
JP2004297274A JP2004297274A (en) 2004-10-21
JP4183536B2 true JP4183536B2 (en) 2008-11-19

Family

ID=33399662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003084508A Expired - Fee Related JP4183536B2 (en) 2003-03-26 2003-03-26 Person image processing method, apparatus and system

Country Status (1)

Country Link
JP (1) JP4183536B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104517274A (en) * 2014-12-25 2015-04-15 西安电子科技大学 Face portrait synthesis method based on greedy search

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100627049B1 (en) 2004-12-03 2006-09-25 삼성테크윈 주식회사 Apparatus and method for composing object to image in digital camera
JP4904013B2 (en) * 2005-04-08 2012-03-28 株式会社川島織物セルコン Image generation program and image generation apparatus
KR101240261B1 (en) * 2006-02-07 2013-03-07 엘지전자 주식회사 The apparatus and method for image communication of mobile communication terminal
JP4839908B2 (en) * 2006-03-20 2011-12-21 カシオ計算機株式会社 Imaging apparatus, automatic focus adjustment method, and program
EP2147392A1 (en) * 2007-05-08 2010-01-27 Eidgenössische Technische Zürich Method and system for image-based information retrieval
JP4861952B2 (en) 2007-09-28 2012-01-25 富士フイルム株式会社 Image processing apparatus and imaging apparatus
JP5320558B2 (en) * 2008-03-31 2013-10-23 ネット・クレイ株式会社 Imaging system and imaging method
JP5083559B2 (en) * 2008-06-02 2012-11-28 カシオ計算機株式会社 Image composition apparatus, image composition method, and program
JP5048736B2 (en) * 2009-09-15 2012-10-17 みずほ情報総研株式会社 Image processing system, image processing method, and image processing program
JP5605660B2 (en) * 2012-05-31 2014-10-15 フリュー株式会社 Image providing system and method, image providing apparatus, and image generating apparatus
JP6417511B2 (en) * 2017-02-24 2018-11-07 株式会社ミヤビカクリエイティブ Image generation system and image generation apparatus
JP7296164B1 (en) * 2022-08-12 2023-06-22 株式会社MuuMu Information processing apparatus, method, content creation program, and content playback program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104517274A (en) * 2014-12-25 2015-04-15 西安电子科技大学 Face portrait synthesis method based on greedy search
CN104517274B (en) * 2014-12-25 2017-06-16 西安电子科技大学 Human face portrait synthetic method based on greedy search

Also Published As

Publication number Publication date
JP2004297274A (en) 2004-10-21

Similar Documents

Publication Publication Date Title
JP4344925B2 (en) Image processing apparatus, image processing method, and printing system
CN111754415B (en) Face image processing method and device, image equipment and storage medium
JP4277534B2 (en) Image editing apparatus and image editing method
US7773782B2 (en) Image output apparatus, image output method and image output program
JP4795718B2 (en) Image processing apparatus and method, and program
JP4183536B2 (en) Person image processing method, apparatus and system
JP4799101B2 (en) Image processing method, apparatus, and program
JP4449723B2 (en) Image processing apparatus, image processing method, and program
US20040103111A1 (en) Method and computer program product for determining an area of importance in an image using eye monitoring information
JP2006318103A (en) Image processor, image processing method, and program
JP2006350498A (en) Image processor and image processing method and program
JP4642695B2 (en) Album creating system, album creating method, program, and album creating apparatus
CN116648729A (en) Head portrait display device, head portrait generation device, and program
JP2007226655A (en) Image processing method, apparatus and program
JP2007096405A (en) Method, device and program for judging direction of camera shake
JP2005086516A (en) Imaging device, printer, image processor and program
JP2005005960A (en) Apparatus, system, and method for image processing
JP4055126B2 (en) Human image processing method and apparatus
JP6806955B1 (en) Information processing equipment, information processing systems, information processing methods, and programs
CN116567349A (en) Video display method and device based on multiple cameras and storage medium
JP2010187208A (en) Electronic still camera
CN113191322A (en) Method and device for detecting skin of human face, storage medium and computer equipment
JP2004246673A (en) Face image processing device and system
JP2004288082A (en) Portrait creation method, portrait creation device, as well as program
JP2007164408A (en) Face image recognition and portrait creation management system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061113

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070216

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070412

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070604

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070622

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080902

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110912

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4183536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120912

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130912

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees