JP3854229B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP3854229B2
JP3854229B2 JP2003001489A JP2003001489A JP3854229B2 JP 3854229 B2 JP3854229 B2 JP 3854229B2 JP 2003001489 A JP2003001489 A JP 2003001489A JP 2003001489 A JP2003001489 A JP 2003001489A JP 3854229 B2 JP3854229 B2 JP 3854229B2
Authority
JP
Japan
Prior art keywords
image
unit
input
corresponding point
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003001489A
Other languages
English (en)
Other versions
JP2004213481A (ja
Inventor
和浩 檜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003001489A priority Critical patent/JP3854229B2/ja
Priority to US10/390,778 priority patent/US7239741B2/en
Publication of JP2004213481A publication Critical patent/JP2004213481A/ja
Application granted granted Critical
Publication of JP3854229B2 publication Critical patent/JP3854229B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、入力された画像に対して装飾あるいは変形などの画像処理を施し、ディスプレイに出力する画像処理装置に関するものであり、特に人物の顔画像に対し、髪型を変更したり化粧を行ったり等の装飾を施した画像をディスプレイに表示する、あるいはネットワークを通じて送信する画像処理装置に関するものである。
【0002】
【従来の技術】
従来より、入力された人物の画像に装飾あるいは変形などの画像処理を施し、ディスプレイなどに出力する画像処理装置が使用されている。例えば、顔画像に対して髪型の変更、メガネの装着、あるいは化粧の修飾などを行い、その使用状態を、静止画にてシミュレーションするための装置やソフトウェアは、現在広く利用されている。
【0003】
これらに利用されている画像処理装置には、例えば、顔画像中の特徴点の抽出を行い、これらに対して予め決められた画像を重ねることにより、装飾画像を表示するものが提案されている(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開2000−322588号公報
【0005】
【発明が解決しようとする課題】
しかしながら、前述した画像処理装置による画像は、実画像のシミュレーションとしては満足できるものではなかった。すなわち、仮想画像の生成の基となる顔画像中の特徴点や特徴領域の検出が正確でないため、表情の変化や動き等に十分に対応できるものではなく、リアルタイムで入力画像に対して装飾あるいは変形などを施し出力することは困難であった。
【0006】
そこでこの発明は、前記課題に鑑みてなされたものであり、入力画像に対する装飾あるいは変形などの画像処理が効率良く正確に実行でき、リアルタイムで入力画像に対して画像処理を行うことが可能な画像処理装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
前記目的を達成するために、この発明の一実施態様に係る画像処理装置は、予め設定された3次元のモデル画像を持ち、前記モデル画像と外部から入力された第1の処理パラメータに基づいて3次元画像を描画する画像描画部と、静止画像及び動画像のいずれかの入力画像が入力される画像入力部と、前記画像描画部により描画された前記3次元画像上と、前記画像入力部に入力された前記入力画像上とにおいて、互いに対応する点を探索し、対応点位置情報を求める対応点探索部と、前記対応点探索部により求めた前記対応点位置情報の各々によって決まる距離関数の総和が最小になるように前記第1の処理パラメータの値を改善し、第2の処理パラメータを求める処理パラメータ改善部とを具備することを特徴とする。
この発明の他の実施態様に係る画像処理装置は、予め設定された3次元のモデル画像を持ち、前記モデル画像と外部から入力された第1の処理パラメータに基づいて3次元画像を描画する画像描画部と、静止画像及び動画像のいずれかの入力画像が入力される画像入力部と、前記画像描画部により描画された前記3次元画像上と、前記画像入力部に入力された前記入力画像上とにおいて、互いに対応する点を探索し、対応点位置情報を求める対応点探索部と、前記対応点探索部により求めた前記対応点位置情報から互いに対応する点間の距離を得て、前記距離に所定の重み付けを行って総和を算出し、前記総和が最小になるように前記第1の処理パラメータの値を改善し、第2の処理パラメータを求める処理パラメータ改善部とを具備することを特徴とする。
【0008】
また、前記目的を達成するために、この発明に係る画像処理方法は、3次元のモデル画像と第1の処理パラメータに基づいて、3次元画像を描画する工程と、静止画像及び動画像のいずれかの入力画像が入力される工程と、前記3次元画像上と前記入力画像上とにおいて、互いに対応する点を探索し、対応点位置情報を求める工程と、前記対応点探索部により求めた前記対応点位置情報を用いて、前記第1の処理パラメータの値を改善し、第2の処理パラメータを求める工程とを具備することを特徴とする。
【0009】
【発明の実施の形態】
以下、図面を参照してこの発明の実施の形態の画像処理装置としての仮想鏡装置及び画像処理方法について説明する。説明に際し、全図にわたり、共通する部分には共通する参照符号を付す。
【0010】
[第1の実施の形態]
まず、この発明の第1の実施の形態の仮想鏡装置について説明する。
【0011】
図1は、第1の実施の形態の仮想鏡装置とその周辺部の構成を示す図である。
【0012】
仮想鏡装置1は、カメラ2等の撮像装置から取り込んだ画像、例えば人物の顔画像等に対し、装飾あるいは変形などの画像処理を施してディスプレイ3に出力する。また、カメラ2から取り込んだ画像に対して、装飾あるいは変形などの画像処理を施し符号化を行い、ネットワーク4に送出する。さらに、ネットワーク4から符号化された情報を受け取り、情報の復号、及び修飾により得られた画像をディスプレイに出力する。
【0013】
なお、カメラ2は精度の高い画像を得るために、複数のカメラを備えていても良い。さらに、仮想鏡装置1は、複数のカメラ2から得られる画像を処理するために、十分な処理能力を備えている。
【0014】
前記装飾あるいは変形とは、例えば顔画像に化粧を追加する場合や、表情を移植する場合などを指す。顔画像に化粧を追加する場合は、カメラ2からの入力画像に対して仮想的に口紅の色を変更するなどの化粧を施し、ディスプレイ3に表示する。また、表情を移植する場合は、カメラ2から入力された顔の表情を、他の人物もしくは動物などの顔に移植しディスプレイ3に表示する。これにより、使用者がカメラ2の前で微笑むと、ディスプレイ3上の動物が同じように微笑むといった処理が行える。
【0015】
また、ネットワーク4越しに同様の操作を行うことで、テレビ電話のように使用することも可能である。テレビ電話として使用する際に、例えば人の表情を動物の表情へ移植する処理を行えば、相手先には使用者ではなく、動物の表情を表示できる。このため、使用者がだれなのかわからないが、表情の変化や動きは読みとれるという、匿名性が高く、かつ臨場感のある通話を行うことができる。
【0016】
次に、前記仮想鏡装置1の構成について説明する。
【0017】
図2は、第1の実施の形態の仮想鏡装置の構成を示すブロック図である。
【0018】
仮想鏡装置は、図2に示すように、3Dモデル描画部11、画像入力部12、対応点探索部13、動き・モデルパラメータ改善部14、画像出力部15、及びネットワーク接続部16から構成される。
【0019】
3Dモデル描画部11の出力部は、対応点探索部13の第1入力部に接続されており、画像入力部12の出力部は対応点探索部13の第2入力部に接続されている。画像入力部12の入力部には、外部に設けられたカメラ2が接続されている。
【0020】
前記対応点探索部13の出力部は、動き・モデルパラメータ改善部14の入力部に接続される。動き・モデルパラメータ改善部14の出力部は、3Dモデル描画部11の入力部に接続されている。さらに、前記3Dモデル描画部11の出力部は、画像出力部15の入力部に接続されており、画像出力部15の出力部はディスプレイ3に接続されている。
【0021】
また、ネットワーク接続部16には、外部に設けられたネットワーク4が接続されている。動き・モデルパラメータ改善部14の出力部は、ネットワーク接続部16の入力部に接続されている。さらに、ネットワーク接続部16の出力部は、3Dモデル描画部11の入力部に接続されている。
【0022】
前記3Dモデル描画部11は、予め一般的な使用者の3次元のモデル画像(以下、3Dモデルと記す)を持ち、与えられた動き・モデルパラメータ(第1の処理パラメータ)に応じて3次元の画像を描画し出力する。これは、従来のグラフィックス・プロセシング・ユニット(GPU)と同様の機能である。前記動き・モデルパラメータは、画像における動きや姿勢、表情等を表現するためのパラメータである。すなわち、動き・モデルパラメータを3Dモデル描画部11に与えれば、3Dモデルを任意の動きや姿勢、表情で描画し、3次元の描画画像を作成することができる。
【0023】
前記画像入力部12は、カメラ2により取り込まれた静止画像あるいは動画像の入力画像を対応点探索部13に出力する。
【0024】
前記対応点探索部13は、3Dモデル描画部11で描画した3次元の描画画像と、画像入力部12から入力された入力画像との間で、対応点の探索を行う。対応点の探索とは、描画画像上と入力画像上との間で、2つの画像上において対応する点を探索する操作である。
【0025】
前記動き・モデルパラメータ改善部14は、対応点の探索により求めた情報より動き・モデルパラメータ改善する。前記画像出力部15は、3Dモデル描画部11で描画された3次元の描画画像を受け取り、ディスプレイに出力する。
【0026】
前記ネットワーク接続部16は、動き・モデルパラメータ改善部14から動き・モデルパラメータ(第2の処理パラメータ)を受け取り、ネットワーク4を介して他の画像処理装置に出力する。また、ネットワーク接続部16は、他の画像処理装置からネットワーク4を介して情報、例えば動き・モデルパラメータを受け取り、3Dモデル描画部11に出力する。
【0027】
次に、図2に示した仮想鏡装置1の動作について説明する。
【0028】
図3は、仮想鏡装置の動作のフローを示す図である。
【0029】
まず、外部から動き・モデルパラメータの初期解(S1)が3Dモデル描画部11に入力され、3Dモデル描画部11は、予め設定された3Dモデルと与えられた動き・モデルパラメータの初期解に応じて、3次元の描画画像を描画する(S2)。
【0030】
また、画像入力部12には、カメラ2から、静止画像あるいは動画像の入力画像、例えば人物の顔画像などが取り込まれる。これら描画画像(S3)及び入力画像(S4)は、対応点探索部13に入力される。
【0031】
前記対応点探索部13は、受け取った描画画像と入力画像との間で対応点の探索を行う(S5)。対応点の探索とは、描画画像と入力画像の2つの画像上において、対応する点を探索する操作である。例えば、図4(a)に示す描画画像上の目の部分に配置された注目点Aが、図4(b)に示す入力画像上のどの位置に対応するかを探索し、注目点Aに対応する対応点Bの位置情報を求める。この対応点位置情報(S6)は、動き・モデルパラメータ改善部14に入力される。
【0032】
動き・モデルパラメータ改善部14は、対応点位置情報をもとに、描画画像を再度、描画したときの対応点Bと注目点Aとの距離が短くなるように、動き・モデルパラメータの初期解の改善を行い(S7)、動き・モデルパラメータの2次解(S8)を算出する。これら対応点探索部13、及び動き・モデルパラメータ改善部14の動作は、後で詳述する。
【0033】
こうして得られた動き・モデルパラメータの2次解は、再び、3Dモデル描画部11にフィードバックされ、前述と同様に、3次元描画画像の描画、対応点の探索、及び動き・モデルパラメータの算出の処理を行うことにより、さらに精度の高い動き・モデルパラメータを求める。
【0034】
このように、3次元描画画像の描画から、対応点の探索、動き・モデルパラメータの算出までの処理が複数回繰り返し実行され、高い精度の動き・モデルパラメータが算出される。算出された動き・モデルパラメータは、3Dモデル描画部11に入力される。そして、3Dモデル描画部11により3次元の描画画像が描画されて、画像出力部15に出力される。さらに、3次元の描画画像は、画像出力部15よりディスプレイ3に出力され表示される。
【0035】
また、画像入力部12に入力される入力画像が動画の場合、所定の時間間隔で入力画像が対応点探索部13に取り込まれる。まず、最初の入力画像が対応点探索部13に取り込まれると、前述した3次元の描画画像の描画から、動き・モデルパラメータの算出までの処理が繰り返し実行されて、高い精度の動き・モデルパラメータが求める。そして、この動き・モデルパラメータを用いて、3次元の描画画像が描画され、画像出力部15に出力される。続いて、対応点探索部13に新しい入力画像が取り込まれると、同様に、3次元の描画画像の描画から、動き・モデルパラメータの算出までの処理が繰り返し実行されて、高い精度の動き・モデルパラメータの算出、さらに3次元の描画画像の出力が行われる。
【0036】
このように、入力画像が動画の場合、所定時間が経過する毎に入力画像が取り込まれ、次の入力画像が取り込まれるまでの間に、前記3次元描画画像の描画、対応点の探索、及び動き・モデルパラメータの算出までの処理が繰り返し実行されて高い精度の動き・モデルパラメータが求められる。そして、この動き・モデルパラメータを用いて、3Dモデル描画部11により3次元の描画画像が描画され、画像出力部15を介してディスプレイ3に表示される。
【0037】
また、ネットワーク4を用いて画像の入出力を行う場合、最終的に算出された高い精度の動き・モデルパラメータが動き・モデルパラメータ改善部14よりネットワーク接続部16を介してネットワーク4に出力される。一方、ネットワーク4からは、ネットワーク接続部16を介して動き・モデルパラメータを受け取る。そして、この動き・モデルパラメータを用いて、3Dモデル描画部11により3次元の描画画像を描画し、画像出力部15を介してディスプレイ3に表示する。
【0038】
なお、ここではネットワーク4により動き・モデルパラメータの授受を行う例を示したが、これに限るわけではなく、画像データの授受を直接行うようにしてもよい。
【0039】
次に、前述した対応点探索部13、及び動き・モデルパラメータ改善部14の動作を詳細に述べる。
【0040】
図4(a)及び図4(b)は、対応点探索部13における対応点位置情報を求める様子を示す図である。図4(a)に3Dモデル描画部11によって描画した描画画像を示し、図4(b)に画像入力部12に入力される入力画像を示す。
【0041】
対応点探索部13は、描画画像と入力画像との間で、以下のような処理により対応点の探索を行い、対応点の位置情報を求める。その後、動き・モデルパラメータ改善部14は、最小二乗法などを用いて、描画画像上と入力画像上とにおける対応点間の距離が最小となるように、動き・モデルパラメータを改善する。
【0042】
図4(a)に示すように、3Dモデル上に定義された注目点Aの描画画像上の位置を(x、y)とする。ただし、i=1、2、…、Nである。Nは注目点Aの数であり、描画画像上に所定の間隔で数十から数千点程度配置される。
【0043】
まず、対応点探索部13は、注目点A(x、y)が存在する周辺画像Cと似た対応画像Dが入力画像上でどこに存在するか探索する。さらに、周辺画像C内における注目点Aの位置関係から、図4(b)に示すように、探索した対応画像D内における対応点B(u、v)の位置情報を算出する。
【0044】
続いて、動き・モデルパラメータ改善部14は、i=1、2、…、Nの全ての点において、注目点Aと対応点Bとの距離が最小となるように、動き・モデルパラメータを改善する。
【0045】
例えば、注目点A(x、y)と対応点B(u、v)との距離の二乗和をRとすると、
R=Σ|(x、y)−(u、v)|
ここで、x、yは動き・モデルパラメータPの関数であるため、RもPの関数でR(P)と表現できる。したがって、Rが最小になるようなPを求めることにより、動きや姿勢、表情を表現する動き・モデルパラメータを改善することができる。
【0046】
また例えば、関数R(P)として、以下のような二乗和以外の関数を使用することもできる。
【0047】
R=Σλi|(x、y)−(u、v)|(λiは点ごとに定められた定数)
次に、前記仮想鏡装置1を、単一の半導体装置内に形成した例を示す。
【0048】
図5は、仮想鏡装置の一部を単一の半導体基板上に配置した一例を示すレイアウト図である。
【0049】
半導体基板21上には、図5に示すように、データの転送路22に接続された入出力画像処理ユニット23、行列演算ユニット24、バスインタフェース25、入力回路26、及び出力回路27が配置されている。
【0050】
前記入出力画像処理ユニット23では、前記3Dモデル描画部11、対応点探索部13にて行う処理が実行される。行列演算ユニット24では、前記動き・モデルパラメータ改善部14にて行う処理が実行される。なお、動き・モデルパラメータ改善部14にて行う処理は、入出力画像処理ユニット23で実行してもよい。また、動き・モデルパラメータ改善部14にて行う処理データが大きい場合は、バスインタフェース25を介して半導体基板21の外部に設けられた処理装置などにより処理を実行しても良い。
【0051】
前記入力回路26には、外部に設けられたカメラより入力画像が入力される。出力回路27には、入出力画像処理ユニット23にて処理された3次元の描画画像が入力され、この描画画像は外部に設けられたディスプレイに出力される。
【0052】
このように、前述した仮想鏡装置の構成を単一の半導体基板上に集積することにより、入力画像の動きや表情を高精度で示す、動き・モデルパラメータをリアルタイムで高速に算出できる。この結果、3次元の描画画像をリアルタイムで高速にディスプレイ3に表示することが可能になる。
【0053】
この第1の実施の形態では、3Dモデルを用いて作成した描画画像と入力画像とのマッチングを行うことにより、効率よくかつ高精度に人の姿勢や表情などを算出することができる。
【0054】
また、単一の半導体基板上に、3Dモデル描画部、対応点検索部、及び動き・モデルパラメタ改善部を集積することにより、半導体装置外でデータ転送を行う必要がなく、処理が高速化でき、リアルタイム処理が可能になる。
【0055】
また、ネットワークに接続されているため、遠隔地に使用者の姿勢や表情などを効率よく送信できる。さらに、遠隔地の使用者とテレビ電話のように対面することが可能である。また、仮想空間でのジェスチャや表情を使ったコミュニケーションが可能になる。さらに、アバタを用いた場合、匿名性も保持できる。
【0056】
[第2の実施の形態]
次に、この発明の第2の実施の形態の仮想鏡装置について説明する。この第2の実施の形態は、図2に示した前記第1の実施の形態の構成に、さらに3Dモデル作成部を追加したものである。その他の構成は、前記第1の実施の形態と同様である。
【0057】
図6は、第2の実施の形態の仮想鏡装置の構成を示すブロック図である。図7は、前記仮想鏡装置の動作のフローを示す図である。
【0058】
仮想鏡装置5は、図6に示すように、3Dモデル作成部31、3Dモデル描画部11、画像入力部12、対応点探索部13、動き・モデルパラメータ改善部14、画像出力部15、及びネットワーク接続部16から構成される。
【0059】
複数のカメラ2から複数の入力画像が、3Dモデル作成部31に入力される。3Dモデル作成部31は、入力された複数の入力画像に基づいて、3次元のモデル画像(3Dモデル)と動き・モデルパラメータを作成する(S9)。3Dモデル(S10)と動き・モデルパラメータは、3Dモデル描画部11に入力され、3次元の描画画像が描画される。
【0060】
また、複数のカメラ2から前記複数の入力画像が、画像入力部12に入力される。さらに、前記描画画像と入力画像は、対応点探索部13に入力される。
【0061】
前記対応点探索部13は、受け取った描画画像と入力画像との間で対応点の探索を行う。対応点の探索以降に処理は、前記第1の実施の形態と同様であり、説明は省略する。
【0062】
このように構成された仮想鏡装置5では、カメラ2などから入力された入力画像を用いて、3Dモデル及び動き・モデルパラメータを作成する3Dモデル作成部31を備えている。これにより、3Dモデル描画部11に、予め3Dモデルと動き・モデルパラメータを与えなくても、3Dモデル作成部31により3次元の描画画像を作成できる。言い換えると、3Dモデル描画部11で使用する3Dモデルの設定や、3Dモデル描画部11への動き・モデルパラメータの入力を行わなくても、3Dモデル作成部31、及び3Dモデル描画部11により3次元の描画画像を作成できる。これにより、仮想鏡装置5を動作させることができる。
【0063】
この第2の実施の形態では、3Dモデルを用いて作成した描画画像と入力画像とのマッチングを行うことにより、効率よくかつ高精度に人の姿勢や表情などを算出することができる。
【0064】
また、単一の半導体基板上に、3Dモデル作成部、3Dモデル描画部、対応点検索部、及び動き・モデルパラメタ改善部を集積することにより、半導体装置外でデータ転送を行う必要がなく、処理が高速化でき、リアルタイム処理が可能になる。
【0065】
また、ネットワークに接続されているため、遠隔地に使用者の姿勢や表情などを効率よく送信できる。さらに、遠隔地の使用者とテレビ電話のように対面することが可能である。また、仮想空間でのジェスチャーや表情を使ったコミュニケーションが可能になる。さらに、アバターを用いた場合、匿名性も保持できる。
【0066】
また、3Dモデル作成部をもつことにより、任意の使用者がこの仮想鏡装置を使用することが可能になる。
【0067】
以上説明したようにこの発明の実施の形態によれば、例えば人物の画像が入力され、この入力画像を分析、修飾、表示する過程において、前述したような3次元のモデル画像と入力画像とのマッチングを行うアルゴリズムを用いることにより、顔の表情の変化や動きなどを精度良く抽出することができる。前記アルゴリズムを実行する装置を半導体基板上に集積化すれば、アルゴリズムをより効率よく実行することが可能である。
【0068】
また、半導体装置に一部機能を集積化することで、汎用プロセッサでは難しい、リアルタイムでの処理が行える。これにより、画像処理後の出力画像を鏡のようにインタラクティブに使用できる。さらに、テレビ電話などで相手先に表示される画像を修飾したり、制限したりといった、リアルタイム処理が必要な用途に使用できるようになる。
【0069】
また、前述した各実施の形態はそれぞれ、単独で実施できるばかりでなく、適宜組み合わせて実施することも可能である。さらに、前述した各実施の形態には種々の段階の発明が含まれており、各実施の形態において開示した複数の構成要件の適宜な組み合わせにより、種々の段階の発明を抽出することも可能である。
【0070】
【発明の効果】
以上述べたようにこの発明によれば、入力画像に対する装飾あるいは変形などの画像処理が効率良く正確に実行でき、リアルタイムで入力画像に対して画像処理を行うことが可能な画像処理装置を提供することができる。
【図面の簡単な説明】
【図1】 この発明の第1の実施の形態の仮想鏡装置とその周辺部の構成を示す図である。
【図2】 前記第1の実施の形態の仮想鏡装置の構成を示すブロック図である。
【図3】 前記第1の実施の形態の仮想鏡装置の動作フローを示す図である。
【図4】 前記第1の実施の形態の仮想鏡装置における対応点探索部の対応点位置情報を求める様子を示す図である。
【図5】 前記第1の実施の形態の仮想鏡装置を単一の半導体基板上に形成した一例を示すレイアウト図である。
【図6】 この発明の第2の実施の形態の仮想鏡装置の構成を示すブロック図である。
【図7】 前記第2の実施の形態の仮想鏡装置の動作フローを示す図である。
【符号の説明】
1…仮想鏡装置、2…カメラ、3…ディスプレイ、4…ネットワーク、5…仮想鏡装置、11…3Dモデル描画部、12…画像入力部、13…対応点探索部、14…動き・モデルパラメータ改善部、15…画像出力部、16…ネットワーク接続部、21…半導体基板、22…転送路、23…入出力画像処理ユニット、24…行列演算ユニット、25…バスインタフェース、26…入力回路、27…出力回路、31…3Dモデル作成部

Claims (10)

  1. 予め設定された3次元のモデル画像を持ち、前記モデル画像と外部から入力された第1の処理パラメータに基づいて3次元画像を描画する画像描画部と、
    静止画像及び動画像のいずれかの入力画像が入力される画像入力部と、
    前記画像描画部により描画された前記3次元画像上と、前記画像入力部に入力された前記入力画像上とにおいて、互いに対応する点を探索し、対応点位置情報を求める対応点探索部と、
    前記対応点探索部により求めた前記対応点位置情報の各々によって決まる距離関数の総和が最小になるように前記第1の処理パラメータの値を改善し、第2の処理パラメータを求める処理パラメータ改善部と、
    を具備することを特徴とする画像処理装置。
  2. 予め設定された3次元のモデル画像を持ち、前記モデル画像と外部から入力された第1の処理パラメータに基づいて3次元画像を描画する画像描画部と、
    静止画像及び動画像のいずれかの入力画像が入力される画像入力部と、
    前記画像描画部により描画された前記3次元画像上と、前記画像入力部に入力された前記入力画像上とにおいて、互いに対応する点を探索し、対応点位置情報を求める対応点探索部と、
    前記対応点探索部により求めた前記対応点位置情報から互いに対応する点間の距離を得て、前記距離に所定の重み付け行って総和を算出し、前記総和が最小になるように前記第1の処理パラメータの値を改善し、第2の処理パラメータを求める処理パラメータ改善部と、
    を具備することを特徴とする画像処理装置。
  3. 前記対応点探索部は、前記3次元画像上に複数の点を配置し、これら複数の点の各々に対して、前記入力画像上において対応する点を探索することにより、前記対応点位置情報を求めることを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記処理パラメータ改善部は、前記画像描画部により前記モデル画像と前記第2の処理パラメータに基づいて3次元画像を描画したとき、前記3次元画像上に配置された複数の点と、これらに対応する前記入力画像上における複数の点とにおいて、各々の対応する2点間の距離が最小になるように、前記第2の処理パラメータを求めることを特徴とする請求項3に記載の画像処理装置。
  5. 前記画像描画部により前記モデル画像と前記第2の処理パラメータに基づいて描画された3次元画像を外部に出力する画像出力部を、さらに具備することを特徴とする請求項1乃至4のいずれか1つに記載の画像処理装置。
  6. 前記画像描画部及び対応点探索部が単一の半導体基板上に形成されていることを特徴とする請求項1乃至のいずれか1つに記載の画像処理装置。
  7. 前記半導体基板上には、前記処理パラメータ改善部がさらに形成されていることを特徴とする請求項記載の画像処理装置。
  8. 前記処理パラメータ改善部により求められた前記第2の処理パラメータをネットワークに出力するネットワーク接続部を、さらに具備することを特徴とする請求項1乃至のいずれか1つに記載の画像処理装置。
  9. 前記ネットワーク接続部は、前記ネットワークから前記第2の処理パラメータを受け取り、前記画像描画部に出力することを特徴とする請求項に記載の画像処理装置。
  10. 前記画像入力部に入力された前記入力画像が人物像である場合、前記人物像と近似した動き、姿勢及び表情のアバタの画像を、前記画像出力部から出力することを特徴とする請求項に記載の画像処理装置。
JP2003001489A 2003-01-07 2003-01-07 画像処理装置 Expired - Fee Related JP3854229B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003001489A JP3854229B2 (ja) 2003-01-07 2003-01-07 画像処理装置
US10/390,778 US7239741B2 (en) 2003-01-07 2003-03-19 Image processing device executing image processing on input image and processing method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003001489A JP3854229B2 (ja) 2003-01-07 2003-01-07 画像処理装置

Publications (2)

Publication Number Publication Date
JP2004213481A JP2004213481A (ja) 2004-07-29
JP3854229B2 true JP3854229B2 (ja) 2006-12-06

Family

ID=32677489

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003001489A Expired - Fee Related JP3854229B2 (ja) 2003-01-07 2003-01-07 画像処理装置

Country Status (2)

Country Link
US (1) US7239741B2 (ja)
JP (1) JP3854229B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7461012B2 (en) * 2004-06-08 2008-12-02 Elbex Video Ltd. Method and apparatus for simplified e-commerce shopping via home shopping terminals
CN102245100B (zh) * 2008-12-10 2014-09-10 皇家飞利浦电子股份有限公司 图形表示
CN102314855B (zh) * 2010-07-06 2014-12-10 南通新业电子有限公司 影像处理系统、显示装置及影像显示方法
CN102314820A (zh) * 2010-07-06 2012-01-11 鸿富锦精密工业(深圳)有限公司 影像处理系统、显示装置及影像显示方法
JP5045827B2 (ja) * 2011-02-01 2012-10-10 カシオ計算機株式会社 画像処理装置、画像処理方法、及び、プログラム
US8489469B1 (en) * 2012-08-30 2013-07-16 Elbex Video Ltd. Method and structure for simplified coding of display pages for operating a closed circuit E-commerce
US20170182406A1 (en) * 2014-03-21 2017-06-29 Audience Entertainment Llc Adaptive group interactive motion control system and method for 2d and 3d video
JP6426968B2 (ja) * 2014-10-08 2018-11-21 キヤノン株式会社 情報処理装置およびその方法
JP6348093B2 (ja) * 2015-11-06 2018-06-27 ファナック株式会社 入力データから検出対象物の像を検出する画像処理装置および方法
US10882453B2 (en) * 2017-04-01 2021-01-05 Intel Corporation Usage of automotive virtual mirrors

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03125585A (ja) * 1989-10-11 1991-05-28 Mitsubishi Electric Corp 画像信号の符号復号化器
US5652851A (en) * 1993-07-21 1997-07-29 Xerox Corporation User interface technique for producing a second image in the spatial context of a first image using a model-based operation
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6466205B2 (en) * 1998-11-19 2002-10-15 Push Entertainment, Inc. System and method for creating 3D models from 2D sequential image data
JP3810943B2 (ja) 1999-05-06 2006-08-16 株式会社東芝 画像処理装置、画像処理方法および画像処理プログラムを記録した記録媒体
US6944327B1 (en) * 1999-11-04 2005-09-13 Stefano Soatto Method and system for selecting and designing eyeglass frames
JP3725460B2 (ja) * 2000-10-06 2005-12-14 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理方法、記録媒体、コンピュータプログラム、半導体デバイス
US7020305B2 (en) * 2000-12-06 2006-03-28 Microsoft Corporation System and method providing improved head motion estimations for animation
US6919892B1 (en) * 2002-08-14 2005-07-19 Avaworks, Incorporated Photo realistic talking head creation system and method

Also Published As

Publication number Publication date
US7239741B2 (en) 2007-07-03
US20040131247A1 (en) 2004-07-08
JP2004213481A (ja) 2004-07-29

Similar Documents

Publication Publication Date Title
EP3370208B1 (en) Virtual reality-based apparatus and method to generate a three dimensional (3d) human face model using image and depth data
WO2021093453A1 (zh) 三维表情基的生成方法、语音互动方法、装置及介质
US11736756B2 (en) Producing realistic body movement using body images
CN111787242B (zh) 用于虚拟试衣的方法和装置
US11887234B2 (en) Avatar display device, avatar generating device, and program
JP7387202B2 (ja) 3次元顔モデル生成方法、装置、コンピュータデバイス及びコンピュータプログラム
CN104656893B (zh) 一种信息物理空间的远程交互式操控系统及方法
KR102491140B1 (ko) 가상 아바타 생성 방법 및 장치
CN109671141B (zh) 图像的渲染方法和装置、存储介质、电子装置
KR102148151B1 (ko) 디지털 커뮤니케이션 네트워크에 기반한 지능형 채팅
JP3854229B2 (ja) 画像処理装置
JP4474546B2 (ja) 顔形状モデリングシステムおよび顔形状モデリング方法
CN113362263A (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
CN114445562A (zh) 三维重建方法及装置、电子设备和存储介质
CN111597928A (zh) 三维模型处理方法及装置、电子设备、存储介质
CN109685911B (zh) 一种可实现虚拟试衣的ar眼镜及其实现方法
JP2007102478A (ja) 画像処理装置、画像処理方法、及び半導体集積回路
CN114779948B (zh) 基于面部识别的动画人物即时交互控制方法、装置及设备
CN111524240A (zh) 场景切换方法、装置及增强现实设备
CN115147508B (zh) 服饰生成模型的训练、生成服饰图像的方法和装置
CN107527033A (zh) 摄像头模组和社交系统
CN118230359A (zh) 人体姿态的估计方法、装置、系统及可读存储介质
CN118447200A (zh) 信息处理设备、信息处理方法和存储介质
CN113283953A (zh) 一种虚拟试衣方法、装置、设备及存储介质
CN111652979A (zh) 一种实现ar的方法和系统

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060907

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090915

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100915

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110915

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120915

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130915

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees