JP3810943B2 - Image processing apparatus, image processing method, and recording medium recording image processing program - Google Patents
Image processing apparatus, image processing method, and recording medium recording image processing program Download PDFInfo
- Publication number
- JP3810943B2 JP3810943B2 JP12630899A JP12630899A JP3810943B2 JP 3810943 B2 JP3810943 B2 JP 3810943B2 JP 12630899 A JP12630899 A JP 12630899A JP 12630899 A JP12630899 A JP 12630899A JP 3810943 B2 JP3810943 B2 JP 3810943B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- face
- face part
- registered
- face area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
【0001】
【発明の属する技術の分野】
本発明は、画像に図形等を合成する画像処理装置及びその方法に関する。
【0002】
【従来の技術】
顔画像処理を利用したシステムとして様々なものがある。
【0003】
例えば、存在検知、個人認証、視線・顔向き検出等の高度な利用法がある。また、顔領域に着目した上で、画像に変形を加えることを主目的としたものとして以下のものが挙げられる。
【0004】
1.めがね着せ替えシステム
2.動画編集システム
3.髪型着せ替えシステム
4.カップル子供シミュレーションシステム
5.写真シール製造器(いわゆるプリクラ(商標))のフレーム装飾
6.SIGGRAPH97で提案された顔変形システム
等がある。
【0005】
1.では、特徴点を手動で指定をし、静止画に対する処理のものが製品化され、眼鏡装用シミュレーション装置(特開平6−139318号)のような公知例がある。特徴点の自動化についても、特許が出願されている。
【0006】
2.は、動画に対する処理で、手動で対応点等を指定するシステムがテレビ局等で用いられ、放送に利用されている。なお、モーフィングについては、静止画用のモーフィングソフトについても様々なものが市販されている。
【0007】
3.は、画像処理装置(特開平8−329278号)で開示されているように、顔の輪郭を検出し、髪の部分を領域として求めた後、他の髪型を重ねるというものである。
【0008】
4.は、2人の人物、もしくは人物と他の画像とのモーフィングを行い、例えば2人の人物の子供の画像を合成する装置であり、商品化されている。顔部品の検出はハーフミラーに表示された位置に顔を合わせて検出を簡略化している。
【0009】
5.については、顔の位置は特定しておらず、画像の枠に装飾を施すことを主目的としている。また特定の領域に顔の位置を自分で調整してフレームの位置に移動する必要がある。
【0010】
6.については、文献[Darrell,T.Gordon,F.,Woodfill W.,Baker,H.:′′A MagicMorphin Mirror′′,SIGGRAPH′97 Visual Proceedings,ACM Press,1997]で提案され、色、距離情報とパターン情報を組み合わせて人物の顔位置を見つけ、その顔位置の画像を変形させることにより、顔の形状が曲げられたような効果を表示する装置である。
【0011】
それぞれの用途、特徴として、1,3については、髪型、めがね等のファッションを検討するためのシステムである。2,4,6は画像を局所的に変形させ、映像的な効果を向上させることを目的としたシステムである。5は画像認識を必要とせず、自動的に検出を行うものではない。
【0012】
【発明が解決しようとする課題】
本発明はこれらの装置には該当せず、それぞれ本発明の次の目的を達成するには機能的に不十分であった。
【0013】
すなわち、本発明は、主として動画を対象とし、位置や大きさが多様に変化する顔領域に追随し、自動的に顔領域や顔部品を検出する機能を利用して、顔の領域の位置、大きさ、また、顔部品の位置大きさにあわせて、顔領域の様々な部分に、鮮やかな色彩を持つ図形表示を行うことで、画像中の人物を瞬時に変装させたり、装飾したりすることを目的としたものである。
【0014】
また、自動的に顔の検出を行うために、利用者の手を煩わすことがなく、利用者が移動しても、移動した画面位置で同じ効果の合成画像が得られることも目的としている。
【0015】
これにより、本発明は、アミューズメントとしての効果が大きく、瞬時に印象の異なる様々な人物の変装画像を自動的に得ることが可能になる画像処理装置及びその方法を提供する。
【0016】
【課題を解決するための手段】
本発明は、画像を入力する画像入力手段と、前記入力した画像中の対象者の顔領域の大きさと位置を検出する顔領域検出手段と、前記検出した顔領域から目、鼻、または、口の顔部品の位置を検出する顔部品位置検出手段と、前記入力した画像と合成するための図形または画像の内容と位置を決定する図形計算手段と、前記入力した画像に対し、前記決定した図形または画像を合成する画像合成手段と、前記合成された画像を出力する画像出力手段と、を有し、前記図形計算手段は、複数の図形、または、画像の集合からなる登録図形パターン情報であり、かつ、前記顔領域、または、前記顔部品の位置、前記合成するための図形または画像と前記顔部品との相対的な位置関係、並びに、前記顔領域の大きさに基づいて設定可能な登録図形パターン情報を保持する情報保持手段と、前記顔領域の位置と大きさ、または、顔部品の位置の情報と、前記保持された登録図形パターン情報とを用いて、合成する図形または画像の位置と大きさを決定する重ね合わせ位置計算手段と、を有し、前記重ね合わせ位置計算手段は、前記登録図形パターン情報に含まれる相対的な位置関係を表すベクトルを用いるものであり、前記検出した顔部品の位置を中心として前記ベクトルによって前記合成する図形または画像の位置を決定することを特徴とする画像処理装置である。
【0017】
また、本発明は、画像を入力する画像入力手段と、前記入力した画像中の対象者の顔領域を検出する顔領域検出手段と、前記検出した顔領域から目、鼻、または、口の顔部品の位置を検出する顔部品位置検出手段と、前記入力した画像を変換する内容と位置を決定する図形計算手段と、前記入力した画像における前記決定した位置を前記決定した内容に変換する画像合成手段と、前記変換された画像を出力する画像出力手段と、を有し、前記図形計算手段は、変換する領域の形状の集合からなる登録図形パターン情報であり、かつ、前記顔領域、または、前記顔部品の位置、前記変換する領域の形状と前記顔部品との相対的な位置関係、並びに、前記顔領域の大きさに基づいて設定可能な登録図形パターン情報を保持する情報保持手段と、前記顔領域の位置と大きさ、または、顔部品の位置の情報と、前記保持された登録図形パターン情報とを用いて、変換する領域の位置と大きさを決定する画像変換手段と、を有し、前記画像変換手段は、前記登録図形パターン情報に含まれる相対的な位置関係を表すベクトルを用いるものであり、前記検出した顔部品の位置を中心として前記ベクトルによって前記変換する領域の位置を決定することを特徴とする画像処理装置である。
【0038】
【発明の実施の形態】
以下に本発明の実施例について説明する。
【0039】
[実 施 例 1]
本発明の実施例1の画像処理装置について説明する。
【0040】
画像処理装置では、図2(a)のように、入力された画像に対して、顔領域と顔部品の大きさ、位置を検出し、図2(b)(c)のように、所定の図形を検出された顔部品位置に応じて、相対的に位置、大きさを変え、図2(b)(c)のように、入力画像と共に重ね合わせた表示、加工をする。これにより、表示された内容は、認識対象となった人物があたかも瞬時に変装したように見せることができる。
【0041】
このような効果を狙った画像生成を行うためには、画像処理装置は、図1のような画像入力部100、顔領域検出部200、顔部品検出部300、画像出力部400、図形計算部500、図形合成部600が必要であり、以下、それぞれの構成要素に対して説明する。
【0042】
なお、画像処理装置は、例えば、カメラを備えたパソコンで実現可能であり、各構成要素の機能を果たすプログラムをこのパソコンにインストールして記憶させておけばよい。また、このプログラムをFD,CD−ROM,MO,DVD等の記録媒体に記録させておき、他のパソコンに移植してもよい。さらに、写真シール製造器等に使用してもよい。
【0043】
(画像入力部100)
画像入力部100は、人物が写っている静止画像、または動画像を得るためのものである。基本的な構成としては図3に示すように、カメラ101、フレームグラバ102からなり、人間の顔を撮影するために用いる。入力画像は、カラー、モノクロに限らない。
【0044】
また、画像入力部100の別の構成として、カメラの代わりに、TVチューナー、VCR、DVD等でもよい。
【0045】
さらに、画像入力部100の別の構成として、ファイルに記録されたデジタルビデオデータやネットワークを経由して得られるビデオデータを入力としてもよい。
【0046】
もちろん動画、静止画の種類を問わない。フレームグラバ102上のメモリ103に入力画像が保存され、それぞれの各処理部からアクセスされる。
【0047】
(顔領域検出部200)
顔領域検出部200は、画像入力部100から得られた画像に対して、画像中から人物の顔領域を検出する。
【0048】
顔領域の検出方法として、予め収集した顔画像から生成されたテンプレートを用いて、画像の各部分に当てはめ、テンプレートと高い相関をもつ部分を顔領域とする。
【0049】
図4に示すように、顔領域検出部200は、画像変換部201とテンプレート計算部202と領域決定部203からなる。
【0050】
画像変換部201は、入力画像がカラー画像の場合は、モノクロ画像に変換し、さらに入力画像を数段階の大きさに縮小し、いくつかの大きさの画像を生成する。縮小率等はカメラのレンズ系、画角等の情報や画像の大きさ等から、想定される顔領域の大きさを予め判断し数段階の割合を決定しておく。
【0051】
テンプレート計算部202は、用意されたテンプレートを用いて、縮小画像に対し、画像をラスタースキャンし、各部分画像に対してテンプレートとの類似度を求める。類似度の計算方法としては、テンプレートとして、学習パターンを用いて構成された部分空間を用いて、部分空間法[エルッキ・オヤ著,小川英光,佐藤誠訳,“パターン認識と部分空間法”,産業図書,1986 参照]を用いて類似度を求めてもよい。この場合、顔に類似しているが、顔ではないような擬似顔画像のテンプレートも用意しておき、同時に類似度を計算することによって、誤った領域を検出しないようにもできる。
【0052】
領域決定部203は、各縮小画像における各部分画像での類似度から判断して、もっとも顔らしいと判定された領域についての情報を出力する。具体的には、縮小画像の縮小率、検出された場所の検出位置である。テンプレートの大きさと縮小率を考慮し、元の入力画像の大きさにあわせて、顔領域を表す矩形の大きさと、矩形の位置を出力とする。
【0053】
(顔部品検出部300)
顔部品検出部300は、顔領域と判定された領域について、目、鼻、口といった顔の部品を検出する。
【0054】
図5に示すように、顔部品検出部300は、画像変換部301、候補点抽出部302、候補点検証部303、候補点決定部304で構成される。
【0055】
画像変換部301では、入力画像から、顔領域検出部200によって決定された領域を注目領域とし、その領域の濃淡値の低い部分に対して処理を行うための、処理画素を決定する。
【0056】
候補点抽出部302では、文献[福井和広、山口修:「形状抽出とパターン照合の組合せによる顔特徴点抽出」,電子情報通信学会論文誌(D),vol.J80-D-II,No.8,pp2170--2177 (1997)]で述べられている分離度フィルタを用いて円形領域の候補点を検出する。候補は複数個の点として表される。
【0057】
候補点検証部303では、また候補点をパターン認識手法により、各顔部品のテンプレートとの類似性の判定する。
【0058】
候補点決定部304では、候補点の位置関係の組み合わせを用いて候補点を絞り、候補点の位置を出力する。
【0059】
図6を用いて説明する。
【0060】
図6の351は時間Tにおける入力画像を表し、顔領域検出部200によって顔領域を検出した結果、その矩形領域を図6の352に示す。
【0061】
顔部品検出部300では、この矩形領域内部について、円形領域の候補点を検出し(図6の353)、位置関係、パターンの類似性等を満たすような4つの候補を選択し目鼻特徴点を得る(図6の354)。
【0062】
また、本実施例では、ある入力画像に対して、瞳位置、鼻孔位置を検出した場合、その次のフレームではその検出位置付近のみを部品の探索範囲として、高速に部品検出を行うトラッキング探索を行う。
【0063】
図6の355は時間Tにおける入力画像を表し、前述したような検出方法で目鼻特徴点を検出されたとする。その後時間T+1では、再び全画面中から顔検出、目鼻検出を行うのではなく、図6の356に示したように、検出した点の近傍領域の矩形の部分だけに対して、候補点抽出部302の円形領域の候補点の検出、候補点検証部303における、各顔部品のテンプレートとの類似性判定を行い、候補点を絞り、候補点の位置を出力する。
【0064】
時間T+1の時点では、画像が図6の357のように別の方向を向いているように、変化していても、わずかな時間であれば人物の動作が少ないため、探索範囲を前述のように絞っても、特徴点の抽出が可能となる。
【0065】
また、大きな動作を行い、時間T+aの時点では、画像が図6の358のように部品の探索範囲から外れた場合には、顔領域検出部200により、顔領域の検出を行い、顔部品の再度検索を行う。
【0066】
このトラッキング処理により、顔部品位置を求める時間が短縮され、スムーズな画像の合成、変換処理を行えるようになる。
【0067】
本実施例では、目の瞳の位置の中心座標、鼻孔の位置の中心座標を出力する。
【0068】
もちろん、口やその他の顔部品の位置を検出し、その出力としてもよい。
【0069】
(画像出力部400)
画像出力部400は、合成内容を付加された入力画像を、出力機器に送る。
【0070】
図7に示すように、画像を画面に出力する場合には、画像合成部600の画像メモリにある合成結果をビデオRAM410に転送する。D/A変換を介してディスプレイ411に表示する。
【0071】
ファイルへの出力の場合には、ファイルポインタ、もしくはバッファに対して画像データを転送する。
【0072】
ファイルは磁気ディスク430、メモリ440等に保存される。
【0073】
また、画像の圧縮や画像のフォーマット変換等を行うエンコーダ420を通して画像を保存、出力してもよい。
【0074】
また、ネットワーク440を会して、別の装置にデータを送付しても良い。
【0075】
また、通信を行う場合は、合成した結果の画像を送信することも出来、入力と合成部分の画像を分ける等の方法や、図形計算部500に必要な合成に必要な情報のみを送信し、受信側で合成を行う等の方法でもよい。
【0076】
出力メディアが画像やデジタルビデオの場合には、各画像のメモリを描画内容にしたがって各画素の情報を変更し、記録メディア(ファイル)に保存する。
【0077】
(図形計算部500)
図形計算部500は、入力画像に重ね合わせるための所定の図形や画像を保持、選択、位置計算を行う。図2(b)(c)で示したような重ね合わせるための所定の図形や画像の情報のことを、「登録図形パターン情報」と呼ぶ。
【0078】
1 登録図形パターン情報の内容
まず、登録図形パターン情報について説明する。
【0079】
登録図形パターン情報の内容としては、表示する線、多角形、円、楕円、円弧等の規定図形、またビットマップと呼ばれるような画素集合等の規定画像等の、図形の属性を示すもの、また図形の色、テクスチャ等の属性、顔領域との相対的な位置関係を表す位置情報、等があり、これをオブジェクトと呼ぶ。
【0080】
一例として図11に示すような構造体で各オブジェクトを表現する。
【0081】
ここで、各引数は図形を表現するための、パラメータや、相対的な位置関係を表現するための関係情報を表現するためのものである。そのオブジェクトを複数個有し、ある意味を持った図形配置の行うものを登録図形パターン情報と呼ぶ。
【0082】
図2(b)の例では、"cat"を表す登録図形パターン情報であり、図10に示すように9個のオブジェクトからなる。511,512,513多角形オブジェクト、514,515,516,517,518,519は線オブジェクトである。顔に合わせて相対的な位置関係に図形を配置することにより、猫に「変装」させることができる。
【0083】
各オブジェクトは、オブジェクトの図形属性によって、それを表現する構造が異なる。例えば、多角形オブジェクトの場合は、多角形の角の個数、そして各ポイントの位置情報を表す変数が定義される。線オブジェクトの場合は、2点の位置情報が定義される。また色属性を表すためのRGB値を表す変数、またはテクスチャを表すための変数等も定義されている。
【0084】
図12は、オブジェクトの相対位置を指定するための指定方法についての説明図である。
【0085】
図12(a)のような顔がカメラに入力されると、顔領域検出部200、顔部品検出部300の機能により、図12(b)に示す各ポイントが検出される。
【0086】
図12(c)は、その検出された特徴点から、いくつかの基準となりうる点について、ラベルをつけたもので、その名前を示すことにより、各特徴点の座標位置を得ることができる。
【0087】
図12(d)は、各特徴点を用いて、相対的に位置を表すための、いくつかのベクトル情報を示しており、それぞれのラベルで位置情報を指定できる。
【0088】
実際に、入力された画像に対して、図12(f)で示すような、多角形(三角形)を描画する方法について説明する。
【0089】
まず、図形の種類(現在は多角形)を指定し、その位置情報を指定する。
【0090】
図12(e)に示すように、p1,p2,p3の各点を目の位置b1からの相対的な位置関係で表現する。
【0091】
そのためには、a1,a2,a3のベクトルを次のように指定する。
【0092】
まず、基準として、b1(目)を選び、相対的な位置を表現するベクトルa1を表す。
【0093】
そのために、例えば、顔領域を基準とした
FACE_WIDTH,FACE_HEIGHT
というベクトルを用いて表現すると、
a1 = t1 * FACE_WIDTH + t2 * FACE_HEIGHT
よって、
p1 = b1 + a1 = b1 + FACE_WIDTH * t1 + FACE_HEIGHT* t2
といった記述をすればよい(t1,t2は実数値)。
【0094】
そして、図12(f)のような白い三角形を書くためには、以下の記述で可能となる。
【0095】
FG_FILL_POLYGON 3
RIGHT_EYE ADD FACE_WIDTH t1 ADD FACE_HEIGHT t2
RIGHT_EYE ADD FACE_WIDTH -t3 ADD FACE_HEIGHT t4
RIGHT_EYE ADD FACE_WIDTH t5 ADD FACE_HEIGHT -t6
COLOR 255 255 255
511のオブジェクトの場合は、まず、表示位置を指定するために、基準となる顔部品の特徴点を指定する。
【0096】
顔部品の特徴点としては、瞳位置、鼻孔位置、顔領域の中心、各部品間の中点等複数の候補があるが、511の場合、2つの鼻孔の中点を基準特徴点として選択し、その基準特徴点からの相対位置を設定する。
【0097】
相対位置の設定は、顔の大きさが変化した場合にも、大きさをあわせて図形を重ね合わせるためであり、相対基準量を用いて指定する。
【0098】
相対基準量は、検出された顔領域の大きさや2つの目の間の距離等が選択できる。
【0099】
511では3角形を表示するために、相対基準量として、顔領域の大きさを選び、その定数倍のx、y座標位置に3点を指定する。色属性は、511の場合は塗りつぶしを行い、RGB値を指定している。
【0100】
512,513の場合も同様に、基準特徴点として、それぞれの瞳位置を選択し、その上方に相対基準量を用いて、各点の指定を行っている。
【0101】
514から519は線オブジェクトであるために、2点を指定する。この場合も、基準特徴点と相対基準量を用いて指定する。線の場合は、実線、破線等の指定、色属性の指定等も行える。
【0102】
その他、円オブジェクトについても、円の中心を表す変数、円の大きさを表す変数等が定義され、その他の図形オブジェクトについても、同様に構造が定義される。
【0103】
ビットマップオブジェクトについては、表示を行う場合の位置、または表示させる場合の拡大率等を指定する。
【0104】
なお、これらのオブジェクトは描画順序によって描かれる結果が異なるために、描画順序を規定し、オブジェクトの記述順に画像に施されるとする。
【0105】
2 図形計算部500の内容
次に、図形計算部500の振る舞いについて説明する。
【0106】
図形計算部500は、図9に示すように図形データベース501、重ね合わせ位置計算部501から構成される。
【0107】
図形データベース501には、複数の登録図形パターン情報が保存されており、これらの登録図形パターンはファイルとして管理され、自由に新規追加、削除等が行われる。データベースには、パターン情報の個数や大きさ等の情報が管理される。
【0108】
各パターンの情報の構造は、図13に示すように、データベースには複数の登録図形パターンがあり、各登録図形パターンは、それぞれオブジェクトの集合として構成されている。
【0109】
このデータベースは、磁気ディスクまたはメモリユニットから構成されている。そして、登録図形パターンのデータベースを記憶したFD,CD−ROM,MO,DVD等の記録媒体を別途用意しておき、これをパソコンである画像処理装置にインストール等によって記憶させてもよい。この場合に、登録図形パターンのデータベースの記録媒体のみを製造、販売してもよい。
【0110】
パターン編集部504によって、登録図形パターンの入出力を可能にする。例えば、可搬型磁気ディスク、可搬型メモリユニット等の交換を目的としたメディア、またはネットワーク経由によるデータ交換等を目的としたインタフェースを有してもよいし、編集エディタ機能を有してもよい。
【0111】
これらの登録図形パターン情報は、あるスクリプト言語によって記述することができる。
【0112】
例えば、“cat”を表す登録図形パターン情報は、図8に示すようなテキスト情報で記述されたスクリプトとして表現される。これにより、テキストファイルを編集することで、合成する図形情報を修正することができ、このファイルをネットワークを通じて流通させること等も可能である。
【0113】
重ね合わせ位置計算部502は、必要となる基準特徴点の情報や相対基準量の情報を、顔領域検出部200や顔部品検出部300から読み込み、引数によって指定されたそれぞれの位置を計算する。
【0114】
図14のフローチャートを用いて説明する。
【0115】
まず、登録図形データ情報を図形データベース501の中からひとつを選択して、メモリに読み込む(ステップ50201)。その選択は選択部503によって選ばれる。
【0116】
選択部503は、利用者によって選択された登録図形パターンのID(例えば、認識番号)を重ね合わせ位置計算部502に送り、そのIDのパターンを読み込む。
【0117】
ここで、選択部503に乱数発生機構やタイマを持たせ、一定時間間隔であるパターンの変更シーケンスを行ったり、パターンをランダムに切り替える等の演出効果を導入することも可能である。
【0118】
メモリにロードされた登録図形パターン情報について、複数のオブジェクトについて次の処理を行う。
【0119】
まず記述された順序通りに一つのオブジェクトを読み込む(ステップ50202)。
【0120】
そのオブジェクトの中で定義されている引数の読み込みを行う(ステップ50203)。
【0121】
引数には、位置情報を表すものとパラメータ(円の半径の大きさ等)を表すものがあるが、それぞれについて指定された引数の情報にしたがって処理をする。
【0122】
説明は位置情報の場合で説明する。始めに位置情報を表すための変数の初期化を行う。位置情報を表す点(ax,ay)とすると、ax,ayについて、ax,ay共に0を代入する(ステップ50204)。
【0123】
次に指定されている顔部品等の位置情報もしくは、顔部品から得られる図12で示したベクトル等を用いて指定された長さを読み込む(ステップ50205)。
【0124】
その位置情報に係数を施す(定数倍する)処理を行う(ステップ50206)。
【0125】
そして位置情報を表す変数であるax,ayに加算する(ステップ50207)。
【0126】
さらに引数に記述がある場合には、ステップ50205から繰り返し、そうでなければ(ax,ay)がその位置情報となる(ステップ50208)。
【0127】
さらに引数がある場合には、繰り返し(ステップ50209)、全てのオブジェクトの引数について値が決まった場合に終了する(ステップ50210)。
【0128】
この手順により検出した顔の位置の情報に対応する、合成画像の位置が決定する。
【0129】
(画像合成部600)
画像合成部600は、指定された登録図形パターン情報を図形計算部500によって計算された位置に、それぞれの属性で合成、または画像の加工を行う。
【0130】
画像合成部600の構成例を図15に示す。
【0131】
画像メモリ610は、入力画像を保持し、それぞれの合成部612に渡される。
【0132】
各合成部612は、登録図形パターン情報で記述された形状の種類、処理方法に応じて選択的に用いられる。その指示は、図形計算部500から渡される形状、位置情報、パラメータ、画像情報をオブジェクト情報制御部611が受取り、指定のオブジェクトの数だけ処理を繰り返す。
【0133】
画像メモリ610に保持されている画像は合成部612によって変換され、画像メモリ613に保持される。処理が繰り返される場合は、画像メモリ613から画像メモリ610に画像がコピーされ、処理が繰り返される。
【0134】
オブジェクト情報制御部611は、全ての合成が終了すると、画像メモリ613の画像を外部に渡す。
【0135】
これまで、画像に対して図形を合成することについて述べたが、次にビットマップ画像の重ね合わせについて説明する。
【0136】
ビットマップの重ね合わせは、図16のように行われる。フローチャートは図17である。
【0137】
図16の650は処理対象となる入力画像であり、わかりやすくするために、検出した目鼻に円をつけて表示したものである。
【0138】
検出された位置応じて計算される位置に合わせて、図16の652で表されるようなビットマップ画像(サル)を重ね合わせ、図16の651の合成画像を得ることを目的とする。
【0139】
図17のステップ661では、合成するビットマップの画像を読み込み、同時に埋め込みの際の排除色(合成しない領域を表し、図16の652の白い領域の色を指す。)を読み込む。
【0140】
ステップ662では、ビットマップ画像が合成される位置を図16の653のように前述のような位置指定から計算する。
【0141】
ステップ663では、入力画像を読み込み、ビットマップ画像の合成を開始する。合成位置は拡大、縮小されることもあるため、対象となる領域のなかでの画素位置を求め(ステップ664)、それぞれの合成位置によって処理が異なる(ステップ665)。図16の654の場所に対応する図16の655の位置では、排除色の場合(図16の656)は入力画像の画素値をそのまま出力し(ステップ666)、排除色ではなく図柄がある場合(図16の657)はビットマップ画像の画素値を出力とする(ステップ667)。
【0142】
全ての対象領域に対して処理が行われたかを判断し(ステップ668)、終わっていれば、図16の651に示したような合成画像を出力する。
【0143】
もちろん、一枚の入力画像に複数のビットマップ合成を行っても良い。
【0144】
なお、合成部612の構成を変え、画像メモリを一つにしてもよいし、その構成は問わない。
【0145】
また、出力メディアがディスプレイ等で、リアルタイムに表示を行う場合は、VRAMに直接画像変換を加えるような構成でもよい。
【0146】
出力メディアが画像やデジタルビデオの場合には、各画像のメモリを描画内容にしたがって各画素の情報を変更し、記録メディアに保存すればよい。
【0147】
[実 施 例 2]
実施例2の画像処理装置について説明する。
【0148】
実施例2の画像処理装置では、実施例1で述べた画像合成部600に画像変換部700を加える。
【0149】
画像合成部600に画像変換部700の機能を追加した構成例を図18に示す。
【0150】
画像合成部600で説明した各機能と同列で、画像を変換する機能をもつもの、例えば画像のある領域に対してモザイク化を行うモザイク処理部701や画像のある部分領域を拡大、縮小する部分拡大縮小処理部702やその他の画像変換部703を追加する。
【0151】
画像合成部600を用いた実施例では、図形や画像の重ね合わせによる合成のみであるが、画像自身に画像変換を加えることで、様々な印象の異なる画像を得ることがさらに可能となる。
【0152】
図19に画像変換の例を示す。
【0153】
図19(a)は処理対象となる入力画像であり、わかりやすくするために、検出した目鼻に円をつけて表示したものである。
【0154】
この画像に対し、検出された顔領域、目鼻位置の情報を用いて、顔領域付近以外の場所について、モザイク化の処理を行ったものが図19(b)である。
【0155】
また、顔領域付近のみに対しモザイク化の処理を行ったものが図19(c)であり、このような画像自身に対して画像変換を行う処理を提供する。
【0156】
もちろん、顔領域を自動的に追跡しているために、図19(c)(d)のように、人物が移動しても、その場所でモザイク化の処理を行うことで、常時顔領域がモザイクが処理された画像を得ることができる。
【0157】
また、入力画像の一部分を拡大、縮小する機能により、図19(e)(f)のように、目部分の拡大や鼻部分の拡大といった効果を施すこともできる。
【0158】
従って、目鼻等の部品情報も用いた変形制御が可能であるため従来例の6.で述べたようなシステムとは異なる。
【0159】
処理手順は以下の通りである。
【0160】
画像メモリ610は、入力画像を保持し、それぞれの画像変換部に渡す。
【0161】
各画像変換部701,702,703は、登録図形パターン情報で記述された画像変換の種類、処理方法に応じて選択的に用いられる。
【0162】
その指示は、図形計算部500から渡される形状、位置情報、パラメータ、をオブジェクト情報制御部611が受取り、画像メモリ610に保持されている画像を変換部701によって変換し、画像メモリ613に保持する。処理が繰り返される場合は、画像メモリ613から画像メモリ610に画像がコピーされ、処理が再度行われる。オブジェクト情報制御部611は、全ての合成、画像変換が終了すると、画像メモリ613の画像を外部に渡す。
【0163】
各画像変換部は、図20のフローチャートで動作する。ここでは、部分拡大処理を行う部分拡大縮小処理部702の動作を例に説明する。
【0164】
まず、ステップ711では、画像変換の情報を読み込む。部分拡大処理部702では、目の領域の拡大率等を読み込む。
【0165】
ステップ712では、画像変換を施すための画像変換の位置情報を計算する。
【0166】
部分拡大縮小処理部702では、原画像の目領域と拡大後の目領域の大きさのを求める。図20の721のように拡大前の目領域の位置を求め、ステップ711で得られた拡大率を元に、図20の722の拡大後の目領域の位置を求める。
【0167】
ステップ713では、画像変換を施すための対象画像をメモリから読み込み、ステップ714において、画像変換を施す。
【0168】
部分拡大縮小処理702では、先の拡大を対象領域に対して行い、723のような画像をえる。そして、ステップ715で、その画像を出力する。
【0169】
もちろんこのような画像変形を複数回行ってもよいし、多重に操作してもよい。図形の合成と組み合わせて利用することでさらなる効果が期待できる。
【0170】
また、このような画像変換だけでなく、色調の補正や対象領域のエッジだけを抽出する等の別の処理でもよい。
【0171】
[変 形 例]
以下、上記実施例の変形例を幾つか説明する。
【0172】
(変形例1)
図21のように、音声出力部700を加え、画像の合成に合わせて音声、音楽等を出力してもよい。
【0173】
この場合、図形計算部500で、合成が開始されたフレームに同期して、音声を出力させてもよい。また、合成が行われているときに、バックグラウンドミュージックを出力してもよい。音声情報は、登録図形パターン情報に付随して保持させればよい。
【0174】
(変形例2)
また、図22のように、音声認識部800を加え、音声による合成内容の選択を行っても良い。
【0175】
例えば、「サル」という声をシステムに対して入力すると音声認識部800により、「サル」という言葉を認識し、その言葉に対応する
変装内容を選択部503への指示で選択し、図16のような変装が行われることが実現できる。
【0176】
もちろん、このために登録図形パターン情報にキーワードをつける拡張を施して良い。
【0177】
これにより、次々に合成情報につけられたキーワードを発声することで次々に様々な画像変形を楽しむことが出来る。
【0178】
(変形例3)
実施例1,2では、顔領域、顔部品の位置と大きさだけであったが、顔から得られる副次的な特徴をくわえ、さらにバリエーションを加えることができる。
【0179】
ここで、副次的な特徴とは、瞬き、顔の向き、瞳の位置、視線方向、口のあけ方、個人同定情報等をさす。
【0180】
例えば、顔の向きに応じて図形を変形させることにより、各図形オブジェクトにアフィン変換等の変形操作を加え、顔の向きに対応した図形出力が可能になる。
【0181】
また、顔の状態によって、表示、合成するオブジェクトの数を変更する等の拡張を行ってもよい。
【0182】
例えば、人間の目のまばたきを行うことをスイッチとして、目を閉じているフレームでは、別のオブジェクトが表示されることや、オブジェクトの属性(色、大きさ、位置、形状)を変更させることも可能である。このような拡張のためには、オブジェクトの記述法と登録図形パターン情報の構造を変更する必要がある。
【0183】
また、顔の特徴として、目鼻の位置だけであったが、口等を検出する部も加えれば、さらに表現能力を高めることができる。
【0184】
(変更例4)
現在は、入力画像自身には変更を加えてないが、画像にもモーフィングに代表されるような変形を加え、図形表示と組み合わせることで、表現力を高めることができる。
【0185】
例えば、ある動物の骨格に合わせて、顔の領域を変形させ、その後図形表示を行えば、さらにリアリティも向上させることができる。
【0186】
(変更例5)
また、入力画像の情報にあわせて各オブジェクトの属性を変更することも可能である。
【0187】
例えば、入力画像の色調にあわせて、色属性を変更する等がその例である。暗い画像が入力された場合には、明度や彩度を落として重ね合わせれば効果的である。
【0188】
(変更例6)
顔の検出は、実施例では一人で説明を行ったが、複数人を検出し、複数人の顔部品情報を同時に検出する方法に変更し、複数人を同時に仮装させることも可能である。
【0189】
【発明の効果】
本発明によれば、瞬時に様々な変形パターン含んだ顔画像を得ることができ、アミューズメントやプレゼンテーション、画像通信、ビデオメール等の画像効果を向上させることが可能になる。
【0190】
また、通常とは異なる動画像を簡単に生成できるために、コミュニケーションのツールとしての効果をもたらすことが期待できる。
【図面の簡単な説明】
【図1】本発明の実施例1の画像処理装置のブロック図である。
【図2】合成適用例である。
【図3】画像入力部のブロック図である。
【図4】顔領域検出部のブロック図である。
【図5】顔部品検出部のブロック図である。
【図6】顔部品の検出の説明図である。
【図7】画像出力部のブロック図である。
【図8】登録パターン情報のスクリプト例である。
【図9】図形計算部のブロック図である。
【図10】登録図形パターンの一例である。
【図11】オブジェクトの構造体の一例である。
【図12】オブジェクトの相対位置の指定法である。
【図13】登録図形パターンの構造である。
【図14】オブジェクトの相対位置の計算法の流れ図である。
【図15】画像合成部のブロック図である。
【図16】ビットマップ合成部の説明図である。
【図17】ビットマップ合成のフローチャートである。
【図18】画像変換部のブロック図である。
【図19】画像変換適用例である。
【図20】画像変換の説明図とフローチャートである。
【図21】実施例2の画像処理装置のブロック図である。
【図22】変更例の画像処理装置であり音声認識部を用いたブロック図である。
【符合の説明】
100 画像入力部
200 顔領域検出部
300 顔部品検出部
400 画像出力部
500 図形計算部
600 図形合成部[0001]
[Field of the Invention]
The present invention relates to an image processing apparatus and method for synthesizing a figure or the like with an image.
[0002]
[Prior art]
There are various systems using face image processing.
[0003]
For example, there are advanced usage methods such as presence detection, personal authentication, and gaze / face orientation detection. In addition, the followings can be cited as the main purpose of adding deformation to an image while paying attention to the face area.
[0004]
1. Glasses changing system
2. Video editing system
3. Hairstyle changing system
4). Couple kids simulation system
5). Frame decoration of photo sticker maker (so-called “Purikura”)
6). Face deformation system proposed in SIGGRAPH 97
Etc.
[0005]
1. Then, a feature point is manually specified, and a processing for a still image is commercialized, and there is a publicly known example such as a spectacle wearing simulation device (Japanese Patent Laid-Open No. 6-139318). Patents have also been filed for the automation of feature points.
[0006]
2. In the processing for moving images, a system for manually specifying corresponding points and the like is used in television stations and the like, and is used for broadcasting. As for morphing, various morphing software for still images are commercially available.
[0007]
3. As disclosed in an image processing apparatus (Japanese Patent Laid-Open No. 8-329278), after detecting the outline of a face and obtaining a hair portion as an area, another hairstyle is superimposed.
[0008]
4). Is a device that morphs two persons or a person and another image and synthesizes, for example, images of children of the two persons, and is commercialized. The detection of the facial parts is simplified by matching the face to the position displayed on the half mirror.
[0009]
5). With regard to, the position of the face is not specified, and the main purpose is to decorate the frame of the image. In addition, it is necessary to adjust the position of the face to a specific area and move it to the frame position.
[0010]
6). Is proposed in the literature [Darrell, T. Gordon, F., Woodfill W., Baker, H.:”A MagicMorphin Mirror ”, SIGGRAPH '97 Visual Proceedings, ACM Press, 1997], color and distance information And the pattern information are combined to find the position of the person's face and deform the image of the face position to display an effect that the shape of the face is bent.
[0011]
For each application and feature, 1 and 3 are systems for examining fashion such as hairstyles and glasses.
[0012]
[Problems to be solved by the invention]
The present invention does not correspond to these devices, and each of them is functionally insufficient to achieve the following object of the present invention.
[0013]
That is, the present invention mainly targets a moving image, follows a face area whose position and size change variously, uses a function of automatically detecting a face area and a face part, Instantly disguise or decorate a person in an image by displaying graphics with vibrant colors on various parts of the face area according to the size and position of the face part. It is for the purpose.
[0014]
Another object of the present invention is to automatically detect a face, so that a user's hand is not bothered and a composite image having the same effect can be obtained at the moved screen position even if the user moves.
[0015]
As a result, the present invention provides an image processing apparatus and method that have a great effect as an amusement and can automatically obtain disguise images of various persons with different impressions instantly.
[0016]
[Means for Solving the Problems]
The present invention includes an image input means for inputting an image, a face area detection means for detecting the size and position of the face area of the subject in the input image, and an eye, nose or mouth from the detected face area. A face part position detecting means for detecting the position of the face part, a figure for combining with the inputted image or a figure calculating means for determining the content and position of the image, and the figure determined for the inputted image Alternatively, the image calculation means includes an image synthesis means for synthesizing images and an image output means for outputting the synthesized image, and the graphic calculation means is registered graphic pattern information composed of a plurality of figures or a set of images. And registration that can be set based on the position of the face area or the face part, the relative positional relationship between the figure or image to be combined and the face part, and the size of the face area. Figure The position of the figure or image to be synthesized using the information holding means for holding the screen information, the position and size of the face area, or the position information of the face part and the held registered figure pattern information And overlay position calculation means for determining the size. The overlay position calculation means uses a vector representing a relative positional relationship included in the registered figure pattern information, and the figure to be synthesized by the vector around the position of the detected face part or Determine the position of the image An image processing apparatus characterized by this.
[0017]
The present invention also provides an image input means for inputting an image, a face area detection means for detecting the face area of the subject in the input image, and a face of eyes, nose, or mouth from the detected face area. Face component position detecting means for detecting the position of a part, graphic calculation means for determining the content and position for converting the input image, and image composition for converting the determined position in the input image to the determined content Means and image output means for outputting the converted image. The graphic calculation means is registered graphic pattern information consisting of a set of shape of the area to be converted, and the position of the face area or the face part, the shape of the area to be converted and the relative of the face part Information holding means for holding registered figure pattern information that can be set based on the general positional relationship, and the size of the face area, information on the position and size of the face area, or the position of the face part; Image conversion means for determining the position and size of the area to be converted using the stored registered figure pattern information, and the image conversion means is a relative information included in the registered figure pattern information. A vector representing a positional relationship is used, and the position of the region to be converted is determined by the vector with the position of the detected face part as the center. An image processing apparatus characterized by this.
[0038]
DETAILED DESCRIPTION OF THE INVENTION
Examples of the present invention will be described below.
[0039]
[Example 1]
An image processing apparatus according to a first embodiment of the present invention will be described.
[0040]
In the image processing apparatus, as shown in FIG. 2A, the size and position of the face area and the facial part are detected from the input image, and predetermined values are obtained as shown in FIGS. 2B and 2C. The position and size of the figure are relatively changed in accordance with the detected face part position, and display and processing are superimposed with the input image as shown in FIGS. As a result, the displayed content can appear as if the person to be recognized is disguised instantly.
[0041]
In order to perform image generation aiming at such an effect, the image processing apparatus includes an
[0042]
Note that the image processing apparatus can be realized by a personal computer equipped with a camera, for example, and a program that performs the function of each component may be installed and stored in the personal computer. Further, this program may be recorded on a recording medium such as FD, CD-ROM, MO, DVD, etc. and ported to another personal computer. Further, it may be used in a photographic sticker manufacturing machine.
[0043]
(Image input unit 100)
The
[0044]
As another configuration of the
[0045]
Furthermore, as another configuration of the
[0046]
Of course, regardless of the type of video or still image. An input image is stored in the
[0047]
(Face region detection unit 200)
The face
[0048]
As a method for detecting a face area, a template generated from a face image collected in advance is applied to each part of the image, and a part having a high correlation with the template is set as a face area.
[0049]
As shown in FIG. 4, the face
[0050]
When the input image is a color image, the
[0051]
The template calculation unit 202 performs a raster scan on the reduced image using the prepared template, and obtains a similarity with the template for each partial image. As a method of calculating similarity, a subspace method using a learning pattern as a template is used as a subspace method [Erki Oya, Hidemitsu Ogawa, Makoto Sato, “Pattern recognition and subspace method”, The similarity may be obtained using an industrial book, see 1986]. In this case, a template of a pseudo face image that is similar to a face but not a face is prepared, and at the same time, the similarity can be calculated so that an erroneous region is not detected.
[0052]
The area determination unit 203 outputs information on an area determined to be the most face based on the similarity between the partial images in each reduced image. Specifically, the reduction rate of the reduced image and the detection position of the detected location. Considering the size of the template and the reduction ratio, the size of the rectangle representing the face area and the position of the rectangle are output in accordance with the size of the original input image.
[0053]
(Face Parts Detection Unit 300)
The face
[0054]
As shown in FIG. 5, the facial
[0055]
The
[0056]
In the candidate point extraction unit 302, the literature [Kazuhiro Fukui, Osamu Yamaguchi: “Face feature point extraction by combination of shape extraction and pattern matching”, IEICE Transactions (D), vol.J80-D-II, No. 8, pp2170--2177 (1997)], the candidate point of a circular area is detected using the separability filter. Candidates are represented as a plurality of points.
[0057]
The candidate point verification unit 303 also determines the similarity between the candidate points and the template of each facial part by a pattern recognition method.
[0058]
The candidate
[0059]
This will be described with reference to FIG.
[0060]
351 in FIG. 6 represents an input image at time T. As a result of detecting the face area by the face
[0061]
The face
[0062]
Further, in this embodiment, when a pupil position and a nostril position are detected for a certain input image, a tracking search that performs component detection at high speed with only the vicinity of the detection position as a component search range in the next frame is performed. Do.
[0063]
355 in FIG. 6 represents an input image at time T, and it is assumed that an eye-nose feature point is detected by the detection method as described above. After that, at
[0064]
At
[0065]
Further, a large operation is performed, and at the time T + a, when the image deviates from the part search range as indicated by 358 in FIG. 6, the face
[0066]
By this tracking process, the time for obtaining the face part position is shortened, and a smooth image composition and conversion process can be performed.
[0067]
In this embodiment, the center coordinates of the eye pupil position and the center coordinates of the nostril position are output.
[0068]
Of course, the position of the mouth and other facial parts may be detected and output as such.
[0069]
(Image output unit 400)
The
[0070]
As shown in FIG. 7, when outputting an image to the screen, the composition result in the image memory of the
[0071]
In the case of output to a file, image data is transferred to a file pointer or a buffer.
[0072]
The file is stored in the
[0073]
The image may be stored and output through an
[0074]
Further, the network 440 may be met and the data may be sent to another device.
[0075]
In addition, when performing communication, it is also possible to transmit an image of the combined result, such as a method such as separating the input and the image of the combined part, or transmitting only the information necessary for combining necessary for the
[0076]
When the output medium is an image or digital video, the information of each pixel is changed in the memory of each image according to the drawing content, and the information is stored in a recording medium (file).
[0077]
(Graphic calculation unit 500)
The
[0078]
1. Contents of registered graphic pattern information
First, the registered graphic pattern information will be described.
[0079]
The registered graphic pattern information includes graphic attributes such as lines, polygons, circles, ellipses, and arcs to be displayed, and graphic images such as a set of pixels called a bitmap. There are attributes such as the color of the figure and the texture, position information indicating the relative positional relationship with the face area, and the like, which are called objects.
[0080]
As an example, each object is represented by a structure as shown in FIG.
[0081]
Here, each argument is for expressing a parameter for expressing a figure and relation information for expressing a relative positional relationship. What has a plurality of objects and performs graphic arrangement with a certain meaning is called registered graphic pattern information.
[0082]
In the example of FIG. 2B, the registered graphic pattern information representing “cat” is composed of nine objects as shown in FIG. Polygonal objects 511, 512, and 513, 514, 515, 516, 517, 518, and 519 are line objects. By placing figures in a relative positional relationship with the face, the cat can be “disguised”.
[0083]
Each object has a different structure for expressing it depending on the graphic attribute of the object. For example, in the case of a polygon object, the number of polygon corners and variables representing the position information of each point are defined. In the case of a line object, position information of two points is defined. In addition, variables representing RGB values for representing color attributes, variables for representing textures, and the like are also defined.
[0084]
FIG. 12 is an explanatory diagram of a designation method for designating the relative position of an object.
[0085]
When a face as shown in FIG. 12A is input to the camera, the points shown in FIG. 12B are detected by the functions of the face
[0086]
In FIG. 12C, points that can be used as a reference are labeled from the detected feature points, and the coordinates of each feature point can be obtained by indicating the names.
[0087]
FIG. 12D shows some vector information for relatively representing the position using each feature point, and the position information can be designated by each label.
[0088]
A method of actually drawing a polygon (triangle) as shown in FIG. 12F with respect to an input image will be described.
[0089]
First, the type of figure (currently a polygon) is designated, and its position information is designated.
[0090]
As shown in FIG. 12E, the points p1, p2, and p3 are expressed by a relative positional relationship from the eye position b1.
[0091]
For this purpose, the vectors a1, a2, and a3 are designated as follows.
[0092]
First, b1 (eyes) is selected as a reference, and a vector a1 expressing a relative position is represented.
[0093]
For this purpose, for example, the face area is used as a reference.
FACE_WIDTH, FACE_HEIGHT
When expressed using the vector
a1 = t1 * FACE_WIDTH + t2 * FACE_HEIGHT
Therefore,
p1 = b1 + a1 = b1 + FACE_WIDTH * t1 + FACE_HEIGHT * t2
(T1 and t2 are real values).
[0094]
In order to write a white triangle as shown in FIG. 12 (f), the following description is possible.
[0095]
RIGHT_EYE ADD FACE_WIDTH t1 ADD FACE_HEIGHT t2
RIGHT_EYE ADD FACE_WIDTH -t3 ADD FACE_HEIGHT t4
RIGHT_EYE ADD FACE_WIDTH t5 ADD FACE_HEIGHT -t6
In the case of the
[0096]
There are multiple candidate face feature points such as pupil position, nostril position, face area center, and midpoint between each part. In the case of 511, the midpoint of the two nostrils is selected as the reference feature point. The relative position from the reference feature point is set.
[0097]
The setting of the relative position is for superimposing figures with matching sizes even when the size of the face changes, and is specified using a relative reference amount.
[0098]
As the relative reference amount, the size of the detected face area, the distance between two eyes, and the like can be selected.
[0099]
In 511, in order to display a triangle, the size of the face area is selected as a relative reference amount, and three points are designated at x and y coordinate positions that are a multiple of the face area. When the color attribute is 511, the color is filled and an RGB value is designated.
[0100]
Similarly, in the case of 512 and 513, each pupil position is selected as a reference feature point, and each point is designated using a relative reference amount above it.
[0101]
Since 514 to 519 are line objects, two points are designated. Also in this case, it designates using a reference feature point and a relative reference amount. In the case of a line, it is possible to specify a solid line, a broken line, etc., and a color attribute.
[0102]
In addition, a variable representing the center of the circle, a variable representing the size of the circle, and the like are defined for the circle object, and the structure is similarly defined for the other graphic objects.
[0103]
For a bitmap object, a position for displaying or an enlargement ratio for displaying is specified.
[0104]
Note that these objects have different rendering results depending on the rendering order, so that the rendering order is defined and applied to the image in the object description order.
[0105]
2 Contents of
Next, the behavior of the
[0106]
As shown in FIG. 9, the
[0107]
The graphic database 501 stores a plurality of registered graphic pattern information, and these registered graphic patterns are managed as files, and are newly added and deleted freely. Information such as the number and size of pattern information is managed in the database.
[0108]
As shown in FIG. 13, the information structure of each pattern has a plurality of registered graphic patterns in the database, and each registered graphic pattern is configured as a set of objects.
[0109]
This database is composed of a magnetic disk or a memory unit. Then, a recording medium such as an FD, CD-ROM, MO, and DVD that stores a registered graphic pattern database may be prepared separately and stored in an image processing apparatus that is a personal computer by installation or the like. In this case, only the recording medium of the registered graphic pattern database may be manufactured and sold.
[0110]
The pattern editing unit 504 enables input / output of registered graphic patterns. For example, a medium for exchanging a portable magnetic disk, a portable memory unit or the like, an interface for exchanging data via a network, or an editing editor function may be provided.
[0111]
These registered graphic pattern information can be described by a script language.
[0112]
For example, registered graphic pattern information representing “cat” is expressed as a script described in text information as shown in FIG. Thereby, the graphic information to be synthesized can be corrected by editing the text file, and this file can be distributed through the network.
[0113]
The overlapping position calculation unit 502 reads necessary reference feature point information and relative reference amount information from the face
[0114]
This will be described with reference to the flowchart of FIG.
[0115]
First, one piece of registered graphic data information is selected from the graphic database 501 and read into the memory (step 50201). The selection is selected by the
[0116]
The
[0117]
Here, the
[0118]
For the registered graphic pattern information loaded in the memory, the following processing is performed for a plurality of objects.
[0119]
First, one object is read in the order described (step 50202).
[0120]
An argument defined in the object is read (step 50203).
[0121]
There are arguments that indicate position information and parameters (such as the size of the radius of a circle), and processing is performed in accordance with the argument information specified for each.
[0122]
The description will be given in the case of position information. First, a variable for representing position information is initialized. Assuming that the point (ax, ay) represents position information, 0 is substituted for both ax and ay for ax and ay (step 50204).
[0123]
Next, the designated length is read using the position information of the designated face part or the like, or the vector shown in FIG. 12 obtained from the face part (step 50205).
[0124]
Processing for applying a coefficient to the position information (multiplying by a constant) is performed (step 50206).
[0125]
And it adds to ax and ay which are variables showing position information (Step 50207).
[0126]
Further, if there is a description in the argument, the processing is repeated from
[0127]
If there are more arguments, the process is repeated (step 50209), and the process ends when the values of all the object arguments are determined (step 50210).
[0128]
The position of the synthesized image corresponding to the face position information detected by this procedure is determined.
[0129]
(Image composition unit 600)
The
[0130]
A configuration example of the
[0131]
The image memory 610 holds an input image and passes it to each combining
[0132]
Each combining
[0133]
The image held in the image memory 610 is converted by the
[0134]
The object
[0135]
Up to now, it has been described that a figure is synthesized with an image. Next, overlapping of bitmap images will be described.
[0136]
Bitmaps are superimposed as shown in FIG. The flowchart is shown in FIG.
[0137]
[0138]
An object is to obtain a composite image 651 in FIG. 16 by superimposing bit map images (monkeys) represented by 652 in FIG. 16 in accordance with the positions calculated according to the detected positions.
[0139]
In step 661 in FIG. 17, a bitmap image to be combined is read, and simultaneously, an exclusion color at the time of embedding (representing a region not to be combined and indicating a
[0140]
In
[0141]
In
[0142]
It is determined whether processing has been performed for all target regions (step 668), and if completed, a composite image as shown at 651 in FIG. 16 is output.
[0143]
Of course, a plurality of bitmaps may be combined with one input image.
[0144]
Note that the configuration of the combining
[0145]
Further, when the output medium is a display or the like and displays in real time, a configuration in which image conversion is directly applied to the VRAM may be used.
[0146]
When the output medium is an image or digital video, the information of each pixel may be changed in the memory of each image according to the drawing content and stored in the recording medium.
[0147]
[Example 2]
An image processing apparatus according to the second embodiment will be described.
[0148]
In the image processing apparatus according to the second embodiment, an
[0149]
A configuration example in which the function of the
[0150]
The same function as that described in the
[0151]
In the embodiment using the
[0152]
FIG. 19 shows an example of image conversion.
[0153]
FIG. 19A shows an input image to be processed, which is displayed with a circle on the detected eyes and nose for easy understanding.
[0154]
FIG. 19B shows the image obtained by performing mosaic processing on a place other than the vicinity of the face area using information on the detected face area and eye / nose position.
[0155]
Further, FIG. 19C shows a result of performing mosaic processing only on the vicinity of the face area, and provides processing for performing image conversion on such an image itself.
[0156]
Of course, since the face area is automatically tracked, even if a person moves as shown in FIGS. 19C and 19D, the face area is always changed by performing mosaic processing at that place. A mosaic processed image can be obtained.
[0157]
Further, the function of enlarging and reducing a part of the input image can provide effects such as enlargement of the eye part and enlargement of the nose part as shown in FIGS.
[0158]
Therefore, since deformation control using part information such as the eyes and nose is possible, the conventional example 6. This is different from the system described in.
[0159]
The processing procedure is as follows.
[0160]
The image memory 610 holds an input image and passes it to each image conversion unit.
[0161]
Each of the
[0162]
As the instruction, the object
[0163]
Each image conversion unit operates according to the flowchart of FIG. Here, the operation of the partial enlargement / reduction processing unit 702 that performs the partial enlargement process will be described as an example.
[0164]
First, in step 711, image conversion information is read. The partial enlargement processing unit 702 reads the enlargement ratio of the eye region and the like.
[0165]
In
[0166]
The partial enlargement / reduction processing unit 702 obtains the sizes of the eye area of the original image and the enlarged eye area. The position of the eye area before enlargement is obtained as 721 in FIG. 20, and the position of the eye area after enlargement 722 in FIG. 20 is obtained based on the enlargement ratio obtained in step 711.
[0167]
In step 713, a target image for image conversion is read from the memory, and in step 714, image conversion is performed.
[0168]
In the partial enlargement / reduction processing 702, the previous enlargement is performed on the target area, and an image like 723 is obtained. In
[0169]
Of course, such image deformation may be performed a plurality of times, or multiple operations may be performed. Further effects can be expected by using it in combination with figure composition.
[0170]
In addition to such image conversion, other processes such as color tone correction and extraction of only the edge of the target area may be used.
[0171]
[Example of deformation]
Hereinafter, some modifications of the above embodiment will be described.
[0172]
(Modification 1)
As shown in FIG. 21, an
[0173]
In this case, the
[0174]
(Modification 2)
In addition, as shown in FIG. 22, a
[0175]
For example, when a voice “monkey” is input to the system, the
It is possible to implement disguise as shown in FIG. 16 by selecting disguise contents by an instruction to the
[0176]
Of course, for this purpose, an extension for adding a keyword to the registered graphic pattern information may be performed.
[0177]
Thus, various image deformations can be enjoyed one after another by uttering the keywords attached to the composite information one after another.
[0178]
(Modification 3)
In the first and second embodiments, only the face area and the position and size of the face parts were used. However, the secondary features obtained from the face can be added and further variations can be added.
[0179]
Here, secondary features include blinking, face orientation, pupil position, line-of-sight direction, mouth opening, personal identification information, and the like.
[0180]
For example, by deforming a figure according to the orientation of the face, a deformation operation such as affine transformation is applied to each figure object, and a figure output corresponding to the orientation of the face becomes possible.
[0181]
Further, the expansion may be performed by changing the number of objects to be displayed and synthesized depending on the face state.
[0182]
For example, blinking human eyes can be used as a switch to display another object in a frame with closed eyes or to change the attributes (color, size, position, shape) of the object. Is possible. For such extension, it is necessary to change the description method of the object and the structure of the registered graphic pattern information.
[0183]
Further, although the face feature is only the position of the eyes and nose, the expression ability can be further enhanced by adding a part for detecting the mouth and the like.
[0184]
(Modification 4)
At present, the input image itself is not changed, but it is possible to enhance the expressive power by adding a deformation represented by morphing to the image and combining it with a graphic display.
[0185]
For example, if the face area is deformed in accordance with the skeleton of a certain animal and then graphic display is performed, the reality can be further improved.
[0186]
(Modification 5)
It is also possible to change the attribute of each object according to the information of the input image.
[0187]
For example, the color attribute is changed in accordance with the color tone of the input image. When a dark image is input, it is effective to superimpose with a reduced brightness and saturation.
[0188]
(Modification 6)
The face detection has been described by one person in the embodiment, but it is also possible to change to a method of detecting a plurality of persons and simultaneously detecting the face part information of the plurality of persons, and disguise a plurality of persons at the same time.
[0189]
【The invention's effect】
According to the present invention, face images including various deformation patterns can be obtained instantaneously, and image effects such as amusement, presentation, image communication, and video mail can be improved.
[0190]
In addition, since it is possible to easily generate a moving image different from normal, it can be expected to bring about an effect as a communication tool.
[Brief description of the drawings]
FIG. 1 is a block diagram of an image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a synthesis application example.
FIG. 3 is a block diagram of an image input unit.
FIG. 4 is a block diagram of a face area detection unit.
FIG. 5 is a block diagram of a face part detection unit.
FIG. 6 is an explanatory diagram of detection of a facial part.
FIG. 7 is a block diagram of an image output unit.
FIG. 8 is a script example of registered pattern information.
FIG. 9 is a block diagram of a figure calculation unit.
FIG. 10 is an example of a registered graphic pattern.
FIG. 11 is an example of an object structure.
FIG. 12 is a method for specifying the relative position of an object.
FIG. 13 is a structure of a registered graphic pattern.
FIG. 14 is a flowchart of a method for calculating the relative position of an object.
FIG. 15 is a block diagram of an image composition unit.
FIG. 16 is an explanatory diagram of a bitmap synthesis unit.
FIG. 17 is a flowchart of bitmap synthesis.
FIG. 18 is a block diagram of an image conversion unit.
FIG. 19 is an application example of image conversion.
FIG. 20 is an explanatory diagram and a flowchart of image conversion.
FIG. 21 is a block diagram of an image processing apparatus according to a second embodiment.
FIG. 22 is a block diagram illustrating a modified example of an image processing apparatus using a voice recognition unit.
[Explanation of sign]
100 Image input section
200 Face area detection unit
300 Facial parts detector
400 Image output unit
500 figure calculator
600 figure composition part
Claims (9)
前記入力した画像中の対象者の顔領域の大きさと位置を、前記入力した画像の縮小率を変えながら顔のテンプレートとの類似度を求めることにより検出する顔領域検出手段と、
前記検出した顔領域から顔部品の複数の候補点を検出し、前記複数の候補点の中から顔部品のテンプレートとの類似度および候補点同士の位置関係に基づいて選択することにより、目、鼻、または、口の顔部品の位置を検出する顔部品位置検出手段と、
前記入力した画像と合成するための図形または画像の内容と位置を決定する図形計算手段と、
前記入力した画像に対し、前記決定した図形または画像を合成する画像合成手段と、
前記合成された画像を出力する画像出力手段と、
を有し、
前記図形計算手段は、
複数の図形または画像の集合からなる登録図形パターンの情報であって、
(A)登録図形パターンにおいて基準となる顔領域または顔部品、
(B)前記登録図形パターンにおける前記顔領域の大きさに基づく相対基準量ベクトル、および、
(C)前記合成するための図形または画像と前記登録図形パターン中の前記顔領域または前記顔部品との相対的な位置関係を前記相対基準量ベクトルを用いて表現した相対位置ベクトル、
を含む登録図形パターン情報を保持する情報保持手段と、
前記顔領域検出手段により検出された前記顔領域の位置と大きさ、または、前記顔部品位置検出手段により検出された前記顔部品の位置の情報と、前記保持された登録図形パターン情報とを用いて、合成する図形または画像の位置と大きさを決定する重ね合わせ位置計算手段と、
を有し、
前記重ね合わせ位置計算手段は、前記顔部品位置検出手段により検出された前記顔部品の位置を基準として、
前記登録図形パターン情報に含まれる前記相対位置ベクトル、および、
前記顔領域検出手段により検出された前記顔領域の大きさに基づく相対基準量ベクトル
を用いて前記合成する図形または画像の位置と大きさを決定する、
ことを特徴とする画像処理装置。An image input means for inputting an image;
A face area detection means for detecting the size and position of the face area of the subject in the input image by obtaining a similarity to a face template while changing the reduction ratio of the input image;
By detecting a plurality of candidate points of the face part from the detected face region, and selecting from among the plurality of candidate points based on the similarity with the template of the face part and the positional relationship between the candidate points, Facial part position detecting means for detecting the position of the facial part of the nose or mouth,
A figure calculation means for determining a figure to be combined with the inputted image or the content and position of the image;
Image combining means for combining the determined figure or image with the input image;
Image output means for outputting the synthesized image;
Have
The graphic calculation means
Registered graphic pattern information consisting of a collection of multiple figures or images,
(A) a face area or a face part which is a reference in the registered figure pattern;
(B) a relative reference quantity vector based on the size of the face area in the registered figure pattern, and
(C) a relative position vector expressing a relative positional relationship between the figure or image to be combined and the face region or the face part in the registered figure pattern using the relative reference amount vector;
Information holding means for holding registered graphic pattern information including:
Using the position and size of the face area detected by the face area detecting means, or the information on the position of the face part detected by the face part position detecting means, and the stored registered figure pattern information Superimposing position calculating means for determining the position and size of the figure or image to be combined;
Have
The superposition position calculation means is based on the position of the face part detected by the face part position detection means.
The relative position vector included in the registered graphic pattern information; and
Determining the position and size of the figure or image to be combined using a relative reference vector based on the size of the face region detected by the face region detection means;
An image processing apparatus.
前記入力した画像中の対象者の顔領域の大きさと位置を、前記入力した画像の縮小率を変えながら顔のテンプレートとの類似度を求めることにより検出する顔領域検出手段と、
前記検出した顔領域から顔部品の複数の候補点を検出し、前記複数の候補点の中から顔部品のテンプレートとの類似度および候補点同士の位置関係に基づいて選択することにより、目、鼻、または、口の顔部品の位置を検出する顔部品位置検出手段と、
前記入力した画像を変換する内容と位置を決定する図形計算手段と、
前記入力した画像における前記決定した位置を前記決定した内容に変換する画像合成手段と、
前記変換された画像を出力する画像出力手段と、
を有し、
前記図形計算手段は、
複数の図形または画像の集合からなる登録図形パターンの情報であって、
(A)登録図形パターンにおいて基準となる顔領域または顔部品、
(B)前記登録図形パターンにおける前記顔領域の大きさに基づく相対基準量ベクトル、および、
(C)前記合成するための図形または画像と前記登録図形パターン中の前記顔領域または前記顔部品との相対的な位置関係を前記相対基準量ベクトルを用いて表現した相対位置ベクトル、
を含む登録図形パターン情報を保持する情報保持手段と、
前記顔領域検出手段により検出された前記顔領域の位置と大きさ、または、前記顔部品位置検出手段により検出された前記顔部品の位置の情報と、前記保持された登録図形パターン情報とを用いて、変換する領域の位置と大きさを決定する画像変換手段と、
を有し、
前記画像変換手段は、前記顔部品位置検出手段により検出された前記顔部品の位置を基準として、
前記登録図形パターン情報に含まれる前記相対位置ベクトル、および、
前記顔領域検出手段により検出された前記顔領域の大きさに基づく基準ベクトル
を用いて前記変換する領域の位置と大きさを決定する
ことを特徴とする画像処理装置。An image input means for inputting an image;
A face area detection means for detecting the size and position of the face area of the subject in the input image by obtaining a similarity to a face template while changing the reduction ratio of the input image;
By detecting a plurality of candidate points of the face part from the detected face region, and selecting from among the plurality of candidate points based on the similarity with the template of the face part and the positional relationship between the candidate points, Facial part position detecting means for detecting the position of the facial part of the nose or mouth,
Graphic calculation means for determining the content and position to convert the input image;
Image synthesis means for converting the determined position in the input image into the determined content;
Image output means for outputting the converted image;
Have
The graphic calculation means
Registered graphic pattern information consisting of a collection of multiple figures or images,
(A) a face area or a face part which is a reference in the registered figure pattern;
(B) a relative reference quantity vector based on the size of the face area in the registered figure pattern, and
(C) a relative position vector expressing a relative positional relationship between the figure or image to be combined and the face region or the face part in the registered figure pattern using the relative reference amount vector;
Information holding means for holding registered graphic pattern information including:
Using the position and size of the face area detected by the face area detecting means, or the information on the position of the face part detected by the face part position detecting means, and the stored registered figure pattern information Image conversion means for determining the position and size of the area to be converted;
Have
The image converting means is based on the position of the face part detected by the face part position detecting means.
The relative position vector included in the registered graphic pattern information; and
An image processing apparatus, wherein a position and a size of the area to be converted are determined using a reference vector based on the size of the face area detected by the face area detecting means.
前記入力した画像が動画である場合に、
前記動画の前フレームにおいて検出された前記顔領域の位置の近傍、または、
前記動画の前フレームにおいて検出された前記顔部品の各々の位置の近傍
のみを探索領域として検出を行い、前記動画の現フレームにおける顔領域、または、顔部品を検出する
ことを特徴とする請求項1または2記載の画像処理装置。The face area detecting means or the face part position detecting means is
If the input image is a video,
Near the position of the face area detected in the previous frame of the video, or
The detection of only the vicinity of each position of the face part detected in the previous frame of the moving picture as a search area, and detecting a face area or a face part in the current frame of the moving picture. The image processing apparatus according to 1 or 2.
画像入力手段が画像を入力する画像入力ステップと、
顔領域検出手段が、前記画像入力手段によって入力された画像中の対象者の顔領域の大きさと位置を、前記画像入力手段によって入力された画像の縮小率を変えながら顔のテンプレートとの類似度を求めることにより、検出する顔領域検出ステップと、
顔部品位置検出手段が、前記顔領域検出手段によって検出された顔領域から顔部品の複数の候補点を検出し、前記複数の候補点の中から顔部品のテンプレートとの類似度および候補点同士の位置関係に基づいて選択することにより、目、鼻、または、口の顔部品の位置を検出する顔部品位置検出ステップと、
図形計算手段が、前記画像入力手段によって入力された画像と合成するための図形または画像の内容と位置を決定する図形計算ステップと、
画像合成手段が、前記画像入力手段によって入力された画像に対し、前記図形計算手段に決定された図形または画像を合成する画像合成ステップと、
画像出力手段が前記画像合成手段によって合成された画像を出力する画像出力ステップと、
を有し、
前記図形計算ステップは、
複数の図形または画像の集合からなる登録図形パターンの情報であって、
(A)登録図形パターンにおいて基準となる顔領域または顔部品、
(B)前記登録図形パターンにおける前記顔領域の大きさに基づく相対基準量ベクトル、および、
(C)前記合成するための図形または画像と前記登録図形パターン中の前記顔領域または前記顔部品との相対的な位置関係を前記相対基準量ベクトルを用いて表現した相対位置ベクトル、
を含む登録図形パターン情報を情報保持手段が保持する情報保持ステップと、
重ね合わせ位置計算手段が、前記顔領域検出手段によって検出された前記顔領域の位置と大きさ、または、前記顔部品位置検出手段によって検出された前記顔部品の位置の情報と、前記情報保持手段によって保持された前記登録図形パターン情報とを用いて、合成する図形または画像の位置と大きさを決定する重ね合わせ位置計算ステップと、
を有し、
前記重ね合わせ位置計算ステップでは、前記重ね合わせ位置計算手段が、前記顔部品位置検出ステップにおいて前記顔部品位置検出手段によって検出された前記顔部品の位置を基準として、
前記情報保持手段に保持された前記登録図形パターン情報に含まれる相対位置ベクトル、および、
前記顔領域検出ステップにおいて前記顔領域検出手段によって検出された前記顔領域の大きさに基づく相対基準量ベクトル
を用いて前記合成する図形または画像の位置と大きさを決定する
ことを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
An image input step in which the image input means inputs an image;
The face area detecting means, the size and position of the subject's face area in the image input by said image input means, the degree of similarity between the template of the face while changing the reduction ratio of the input image by the image input means by finding and a face area detection step of detecting,
The face part position detecting means detects a plurality of candidate points of the face part from the face area detected by the face area detecting means, and the similarity between the face part template and the candidate points among the plurality of candidate points A face part position detecting step for detecting the position of the face part of the eyes, nose, or mouth by selecting based on the positional relationship of
A figure calculating means for determining a figure for synthesizing with the image input by the image input means or the content and position of the image; and
Image synthesis means, the image input by said image input means, an image combining step of combining the determined shape or image on the graphic calculation means,
An image output step in which the image output means outputs the image synthesized by the image synthesis means ;
Have
The graphic calculation step includes:
Registered graphic pattern information consisting of a collection of multiple figures or images,
(A) a face area or a face part which is a reference in the registered figure pattern;
(B) a relative reference quantity vector based on the size of the face area in the registered figure pattern, and
(C) a relative position vector expressing a relative positional relationship between the figure or image to be combined and the face region or the face part in the registered figure pattern using the relative reference amount vector;
An information holding step in which the information holding means holds registered graphic pattern information including:
The superposition position calculating means includes the position and size of the face area detected by the face area detecting means , or information on the position of the face part detected by the face part position detecting means, and the information holding means. by using the been the registered graphic pattern information held by the position calculation step superposition to determine the location and size of graphic or image to be combined,
Have
In the superposition position calculation step, the superposition position calculation means is based on the position of the face part detected by the face part position detection means in the face part position detection step.
A relative position vector included in the registered graphic pattern information held in the information holding means , and
An image characterized in that the position and size of the figure or image to be synthesized are determined using a relative reference vector based on the size of the face region detected by the face region detection means in the face region detection step. Processing method.
画像入力手段が画像を入力する画像入力ステップと、
顔領域検出手段が、前記画像入力手段によって入力された画像中の対象者の顔領域の大きさと位置を、前記画像入力手段によって入力された画像の縮小率を変えながら顔のテンプレートとの類似度を求めることにより検出する顔領域検出ステップと、
顔部品位置検出手段が、前記検出された顔領域から顔部品の複数の候補点を検出し、前記複数の候補点の中から顔部品のテンプレートとの類似度および候補点同士の位置関係に基づいて選択することにより、目、鼻、または、口の顔部品の位置を検出する顔部品位置検出ステップと、
図形計算手段が、前記画像入力手段によって入力された画像と合成するための図形または画像の内容と位置を決定する図形計算ステップと、
画像合成手段が、前記画像入力手段によって入力された画像に対し、前記決定された図形または画像を合成する画像合成ステップと、
画像出力手段が、前記画像合成手段によって合成された画像を出力する画像出力ステップと、
を有し、
前記図形計算ステップは、
複数の図形または画像の集合からなる登録図形パターンの情報であって、
(A)登録図形パターンにおいて基準となる顔領域または顔部品、
(B)前記登録図形パターンにおける前記顔領域の大きさに基づく相対基準量ベクトル、および、
(C)前記合成するための図形または画像と前記登録図形パターン中の前記顔領域または前記顔部品との相対的な位置関係を前記相対基準量ベクトルを用いて表現した相対位置ベクトル、
を含む登録図形パターン情報を情報保持手段が保持する情報保持ステップと、
画像変換手段が、前記顔領域検出ステップにおいて前記顔領域検出手段によって検出された前記顔領域の位置と大きさ、または、前記顔部品位置検出ステップにおいて前記顔部品位置検出手段によって検出された前記顔部品の位置の情報と、前記情報保持手段によって保持された前記登録図形パターン情報とを用いて、変換する領域の位置と大きさを決定する画像変換ステップと、
を有し、
前記画像変換ステップでは、前記画像変換手段が、前記顔部品位置検出ステップにおいて前記顔部品位置検出手段によって検出された前記顔部品の位置を基準として、
前記情報保持手段によって保持された前記登録図形パターン情報に含まれる前記相対位置ベクトル、および、
前記顔領域検出ステップにおいて前記顔領域検出手段によって検出された前記顔領域の大きさに基づく相対基準量ベクトル
を用いて前記変換する領域の位置と大きさを決定する
ことを特徴とする画像処理方法。 An image processing method performed by an image processing apparatus,
An image input step in which the image input means inputs an image;
The face area detecting means, the size and position of the subject's face area in the image input by said image input means, the degree of similarity between the template of the face while changing the reduction ratio of the input image by the image input means Detecting a face area by obtaining
Face part position detecting means detects a plurality of candidate points of the face parts from the detected face area, based on the positional relationship between the similarity and the candidate point of the facial part of the template from the plurality of candidate points A face part position detecting step for detecting the position of the face part of the eyes, nose or mouth by selecting
A figure calculating means for determining a figure for synthesizing with the image input by the image input means or the content and position of the image; and
Image synthesis means, the image input by said image input means, an image combining step of combining the determined graphic or image,
An image output means for outputting an image synthesized by the image synthesis means ;
Have
The graphic calculation step includes:
Registered graphic pattern information consisting of a collection of multiple figures or images,
(A) a face area or a face part which is a reference in the registered figure pattern;
(B) a relative reference quantity vector based on the size of the face area in the registered figure pattern, and
(C) a relative position vector expressing a relative positional relationship between the figure or image to be combined and the face region or the face part in the registered figure pattern using the relative reference amount vector;
An information holding step in which the information holding means holds registered graphic pattern information including:
The image conversion means detects the position and size of the face area detected by the face area detection means in the face area detection step, or the face detected by the face part position detection means in the face part position detection step. and information of the position of the component, using said registered graphic pattern information held by said information holding means, and an image conversion step of determining the position and size of the area to be converted,
Have
In the image conversion step, the image conversion means is based on the position of the face part detected by the face part position detection means in the face part position detection step.
The relative position vector included in the registered graphic pattern information held by the information holding means ; and
An image processing method for determining the position and size of the area to be converted using a relative reference quantity vector based on the size of the face area detected by the face area detecting means in the face area detecting step. .
前記画像入力手段によって入力された画像が動画である場合に、
前記動画の前フレームにおいて検出された前記顔領域の位置の近傍、または、
前記動画の前フレームにおいて検出された前記顔部品の各々の位置の近傍
のみを探索領域として検出を行い、前記動画の現フレームにおける顔領域、または、顔部品を検出する
ことを特徴とする請求項4または5記載の画像処理方法。In the face area detection step or the face part position detection step, the face area detection means or the face part position detection means includes:
When the image input by said image input means is a video,
Near the position of the face area detected in the previous frame of the video, or
The detection of only the vicinity of each position of the face part detected in the previous frame of the moving picture as a search area, and detecting a face area or a face part in the current frame of the moving picture. 6. The image processing method according to 4 or 5.
画像を入力する画像入力手段、
前記画像入力手段によって入力された画像中の対象者の顔領域の大きさと位置を、前記画像入力手段によって入力された画像の縮小率を変えながら顔のテンプレートとの類似度を求めることにより検出する顔領域検出手段、
前記顔領域検出手段によって検出された顔領域から顔部品の複数の候補点を検出し、前記複数の候補点の中から顔部品のテンプレートとの類似度および候補点同士の位置関係に基づいて選択することにより、目、鼻、または、口の顔部品の位置を検出する顔部品位置検出手段、
前記画像入力手段によって入力された画像と合成するための図形または画像の内容と位置を決定する図形計算手段、
前記画像入力手段によって入力された画像に対し、前記図形計算手段によって決定された図形または画像を合成する画像合成手段、および、
前記画像合成手段によって合成された画像を出力する画像出力手段、
として機能させ、
前記図形計算手段は、
複数の図形または画像の集合からなる登録図形パターンの情報であって、
(A)登録図形パターンにおいて基準となる顔領域または顔部品、
(B)前記登録図形パターンにおける前記顔領域の大きさに基づく相対基準量ベクトル、および、
(C)前記合成するための図形または画像と前記登録図形パターン中の前記顔領域または前記顔部品との相対的な位置関係を前記相対基準量ベクトルを用いて表現した相対位置ベクトル、
を含む登録図形パターン情報を保持する情報保持手段、および、
前記顔領域検出手段により検出された前記顔領域の位置と大きさ、または、前記顔部品位置検出手段により検出された前記顔部品の位置の情報と、前記情報保持手段によって保持された登録図形パターン情報とを用いて、合成する図形または画像の位置と大きさを決定する重ね合わせ位置計算手段、
を有し、
前記重ね合わせ位置計算手段は、前記顔部品位置検出手段により検出された前記顔部品の位置を基準として、
前記情報保持手段に保持された前記登録図形パターン情報に含まれる相対位置ベクトル、および、
前記顔領域検出手段により検出された前記顔領域の大きさに基づく相対基準量ベクトル
を用いて前記合成する図形または画像の位置と大きさを決定する、
ことを特徴とする画像処理プログラムを記録した記録媒体。 The computer,
Image input means for inputting images,
Detected by determining the similarity between the size and position of the subject's face area in the input image by the image input unit, the template of the face while changing the reduction ratio of the input image by the image input means Face area detection means ,
A plurality of candidate points of the face part are detected from the face area detected by the face area detecting means, and selected from the plurality of candidate points based on the similarity to the face part template and the positional relationship between the candidate points. Face part position detecting means for detecting the position of the face part of the eyes, nose, or mouth,
A figure calculation means for determining a figure to be combined with an image input by the image input means or a content and position of the image;
Image combining means for combining the graphic or image determined by the graphic calculating means with the image input by the image input means ; and
Image output means for outputting the image synthesized by the image synthesis means ;
Function as
The graphic calculation means
Registered graphic pattern information consisting of a collection of multiple figures or images,
(A) a face area or a face part which is a reference in the registered figure pattern;
(B) a relative reference quantity vector based on the size of the face area in the registered figure pattern, and
(C) a relative position vector expressing a relative positional relationship between the figure or image to be combined and the face region or the face part in the registered figure pattern using the relative reference amount vector;
Information holding means for holding registered graphic pattern information including, and
The position and size of the face area detected by the face area detection means , or information on the position of the face part detected by the face part position detection means, and the registered figure pattern held by the information holding means A superposition position calculation means for determining the position and size of a figure or image to be synthesized using information,
Have
The superposition position calculation means is based on the position of the face part detected by the face part position detection means .
A relative position vector included in the registered graphic pattern information held in the information holding means , and
Determining the position and size of the figure or image to be combined using a relative reference vector based on the size of the face region detected by the face region detection means ;
The recording medium which recorded the image processing program characterized by the above-mentioned.
画像を入力する画像入力手段、
前記画像入力手段に入力された画像中の対象者の顔領域の大きさと位置を、前記画像入力手段に入力された画像の縮小率を変えながら顔のテンプレートとの類似度を求めることにより検出する顔領域検出手段、
前記顔領域検出手段によって検出された顔領域から顔部品の複数の候補点を検出し、前記複数の候補点の中から顔部品のテンプレートとの類似度および候補点同士の位置関係に基づいて選択することにより、目、鼻、または、口の顔部品の位置を検出する顔部品位置検出手段、
前記画像入力手段に入力された画像と合成するための図形または画像の内容と位置を決定する図形計算手段、
前記画像入力手段に入力された画像に対し、前記図形決定手段によって決定された図形または画像を合成する画像合成手段、および、
前記画像合成手段によって合成された画像を出力する画像出力手段、
として機能させ、
前記図形計算手段は、
複数の図形または画像の集合からなる登録図形パターンの情報であって、
(A)登録図形パターンにおいて基準となる顔領域または顔部品、
(B)前記登録図形パターンにおける前記顔領域の大きさに基づく相対基準量ベクトル、および、
(C)前記合成するための図形または画像と前記登録図形パターン中の前記顔領域または前記顔部品との相対的な位置関係を前記相対基準量ベクトルを用いて表現した相対位置ベクトル、
を含む登録図形パターン情報を保持する情報保持手段、および、
前記顔領域検出手段により検出された前記顔領域の位置と大きさ、または、前記顔部品位置検出手段により検出された前記顔部品の位置の情報と、前記情報保持手段により保持された前記登録図形パターン情報とを用いて、変換する領域の位置と大きさを決定する画像変換手段、
を有し、
前記画像変換手段は、前記顔部品位置検出手段により検出された前記顔部品の位置を基準として、
前記情報保持手段に保持された前記登録図形パターン情報に含まれる前記相対位置ベクトル、および、
前記顔領域検出手段により検出された前記顔領域の大きさに基づく相対基準量ベクトル
を用いて前記変換する領域の位置と大きさを決定する
ことを特徴とする画像処理プログラムを記録した記録媒体。Computer
Image input means for inputting images,
Detected by determining the similarity between the size and position of the subject's face area in the input image to the image input unit, the template of the face while changing the reduction ratio of the input image to the image input unit Face area detection means ,
A plurality of candidate points of the face part are detected from the face area detected by the face area detecting means, and selected from the plurality of candidate points based on the similarity to the face part template and the positional relationship between the candidate points. Face part position detecting means for detecting the position of the face part of the eyes, nose, or mouth,
A figure calculation means for determining a figure to be combined with an image input to the image input means or a content and position of the image;
Image combining means for combining the graphic or image determined by the graphic determining means with respect to the image input to the image input means ; and
Image output means for outputting the image synthesized by the image synthesis means ;
Function as
The graphic calculation means
Registered graphic pattern information consisting of a collection of multiple figures or images,
(A) a face area or a face part which is a reference in the registered figure pattern;
(B) a relative reference quantity vector based on the size of the face area in the registered figure pattern, and
(C) a relative position vector expressing a relative positional relationship between the figure or image to be combined and the face region or the face part in the registered figure pattern using the relative reference amount vector;
Information holding means for holding registered graphic pattern information including, and
Position and size of the face region detected by the face region detecting means, or the information of the position of the face part detected by the face part position detecting means, the registration figure held by said information holding means Image conversion means for determining the position and size of the area to be converted using the pattern information;
Have
The image converting means is based on the position of the face part detected by the face part position detecting means .
The relative position vector included in the registered graphic pattern information held in the information holding means ; and
A recording medium on which an image processing program is recorded, wherein a position and a size of the area to be converted are determined using a relative reference vector based on the size of the face area detected by the face area detecting means .
前記画像入力手段によって入力された画像が動画である場合に、
前記動画の前フレームにおいて検出された前記顔領域の位置の近傍、または、
前記動画の前フレームにおいて検出された前記顔部品の各々の位置の近傍
のみを探索領域として検出を行い、前記動画の現フレームにおける顔領域、または、顔部品を検出する、
ことを特徴とする請求項7または8記載の画像処理プログラムを記録した記録媒体。The face area detecting means or the face part position detecting means is
When the image input by said image input means is a video,
Near the position of the face area detected in the previous frame of the video, or
Detecting only the vicinity of each position of the face part detected in the previous frame of the moving picture as a search area, and detecting a face area or a face part in the current frame of the moving picture;
9. A recording medium on which the image processing program according to claim 7 or 8 is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12630899A JP3810943B2 (en) | 1999-05-06 | 1999-05-06 | Image processing apparatus, image processing method, and recording medium recording image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP12630899A JP3810943B2 (en) | 1999-05-06 | 1999-05-06 | Image processing apparatus, image processing method, and recording medium recording image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000322588A JP2000322588A (en) | 2000-11-24 |
JP3810943B2 true JP3810943B2 (en) | 2006-08-16 |
Family
ID=14931984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP12630899A Expired - Fee Related JP3810943B2 (en) | 1999-05-06 | 1999-05-06 | Image processing apparatus, image processing method, and recording medium recording image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3810943B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102971766A (en) * | 2010-06-30 | 2013-03-13 | Nec软件有限公司 | Head detection method, head detection device, attribute determination method, attribute determination device, program, recording medium and attribute determination system |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3842073B2 (en) * | 2001-05-25 | 2006-11-08 | シャープ株式会社 | Image processing apparatus, image processing program, and recording medium recording image processing program |
JP3993029B2 (en) * | 2002-06-24 | 2007-10-17 | デジタルファッション株式会社 | Makeup simulation apparatus, makeup simulation method, makeup simulation program, and recording medium recording the program |
JP3966461B2 (en) * | 2002-08-09 | 2007-08-29 | 株式会社リコー | Electronic camera device |
KR100582784B1 (en) * | 2002-10-17 | 2006-05-23 | 엘지전자 주식회사 | Image processing method for image communication system |
JP4351023B2 (en) * | 2002-11-07 | 2009-10-28 | パナソニック株式会社 | Image processing method and apparatus |
JP4094942B2 (en) * | 2002-12-11 | 2008-06-04 | 日本電信電話株式会社 | Arbitrary viewpoint image transmission method, apparatus for implementing the method, processing program therefor, and recording medium |
JP3854229B2 (en) | 2003-01-07 | 2006-12-06 | 株式会社東芝 | Image processing device |
JP4307301B2 (en) | 2003-07-31 | 2009-08-05 | キヤノン株式会社 | Image processing apparatus and method |
JPWO2005076210A1 (en) | 2004-02-05 | 2007-10-18 | ソフトバンクモバイル株式会社 | Image processing method, image processing apparatus, and mobile communication terminal apparatus |
JP2006053718A (en) * | 2004-08-11 | 2006-02-23 | Noritsu Koki Co Ltd | Photographic processor |
JP3920889B2 (en) * | 2004-12-28 | 2007-05-30 | 沖電気工業株式会社 | Image synthesizer |
JP4417292B2 (en) | 2005-05-25 | 2010-02-17 | ソフトバンクモバイル株式会社 | Object output method and information processing apparatus |
JP2007272435A (en) * | 2006-03-30 | 2007-10-18 | Univ Of Electro-Communications | Face feature extraction device and face feature extraction method |
WO2010073432A1 (en) | 2008-12-24 | 2010-07-01 | 株式会社ソニー・コンピュータエンタテインメント | Image processing device and image processing method |
JP5595655B2 (en) * | 2008-12-24 | 2014-09-24 | 株式会社ソニー・コンピュータエンタテインメント | Image processing apparatus and image processing method |
JP5685958B2 (en) * | 2010-02-24 | 2015-03-18 | 大日本印刷株式会社 | Image display system |
JP5648299B2 (en) * | 2010-03-16 | 2015-01-07 | 株式会社ニコン | Eyeglass sales system, lens company terminal, frame company terminal, eyeglass sales method, and eyeglass sales program |
BR112015029417A8 (en) * | 2013-05-28 | 2020-03-17 | Thomson Licensing | method for editing a video stream, and computer-readable storage medium, related device and device |
WO2017094504A1 (en) * | 2015-11-30 | 2017-06-08 | ソニー株式会社 | Image processing device, image processing method, image capture device, and program |
CN112802162B (en) * | 2021-02-02 | 2024-05-10 | 网易(杭州)网络有限公司 | Face adjusting method and device for virtual character, electronic equipment and storage medium |
-
1999
- 1999-05-06 JP JP12630899A patent/JP3810943B2/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102971766A (en) * | 2010-06-30 | 2013-03-13 | Nec软件有限公司 | Head detection method, head detection device, attribute determination method, attribute determination device, program, recording medium and attribute determination system |
US8917915B2 (en) | 2010-06-30 | 2014-12-23 | Nec Solution Innovators, Ltd. | Head detecting method, head detecting apparatus, attribute determining method, attribute determining apparatus, program, recording medium, and attribute determining system |
CN102971766B (en) * | 2010-06-30 | 2016-06-29 | 日本电气方案创新株式会社 | Head detection method, head detection device, attribute decision method, attribute decision maker and attribute determination system |
Also Published As
Publication number | Publication date |
---|---|
JP2000322588A (en) | 2000-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3810943B2 (en) | Image processing apparatus, image processing method, and recording medium recording image processing program | |
JP5463866B2 (en) | Image processing apparatus, image processing method, and program | |
JP2918499B2 (en) | Face image information conversion method and face image information conversion device | |
CN113287118A (en) | System and method for face reproduction | |
US8717504B2 (en) | Picture processing apparatus, processing method for use therewith, and program | |
JP2010507854A (en) | Method and apparatus for virtual simulation of video image sequence | |
CN112348937A (en) | Face image processing method and electronic equipment | |
JP2005242566A (en) | Image composition device and method | |
WO2023066120A1 (en) | Image processing method and apparatus, electronic device, and storage medium | |
TWI464705B (en) | A method for generating a composite image | |
WO2023221684A1 (en) | Digital human generation method and apparatus, and storage medium | |
KR20130120175A (en) | Apparatus, method and computer readable recording medium for generating a caricature automatically | |
US20220292690A1 (en) | Data generation method, data generation apparatus, model generation method, model generation apparatus, and program | |
JP2002232783A (en) | Image processor, method therefor and record medium for program | |
JP3444148B2 (en) | Eyebrow drawing method | |
JPH06118349A (en) | Spectacles fitting simulation device | |
JP5966657B2 (en) | Image generating apparatus, image generating method, and program | |
KR100422470B1 (en) | Method and apparatus for replacing a model face of moving image | |
JP4323910B2 (en) | Image composition apparatus and method | |
JP3983623B2 (en) | Image composition apparatus, image composition method, image composition program, and recording medium on which image composition program is recorded | |
KR101738896B1 (en) | Fitting virtual system using pattern copy and method therefor | |
US11287658B2 (en) | Picture processing device, picture distribution system, and picture processing method | |
WO2021237736A1 (en) | Image processing method, apparatus and system, and computer-readable storage medium | |
JP4148165B2 (en) | Image composition to create a composite image by overlaying images | |
CN115564638A (en) | Network training method, image face changing method, device and electronic equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20041109 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050107 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050308 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050502 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051101 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051215 |
|
A911 | Transfer of reconsideration by examiner before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060307 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060313 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20060523 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20060525 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090602 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100602 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100602 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110602 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |