JP2008181520A - 復元された顔画像をビデオから再構成するシステムおよび方法 - Google Patents

復元された顔画像をビデオから再構成するシステムおよび方法 Download PDF

Info

Publication number
JP2008181520A
JP2008181520A JP2008011138A JP2008011138A JP2008181520A JP 2008181520 A JP2008181520 A JP 2008181520A JP 2008011138 A JP2008011138 A JP 2008011138A JP 2008011138 A JP2008011138 A JP 2008011138A JP 2008181520 A JP2008181520 A JP 2008181520A
Authority
JP
Japan
Prior art keywords
image
face
video
model
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008011138A
Other languages
English (en)
Inventor
Frederick W Wheeler
フレドリック・ウィルソン・ウィーラー
Xiaoming Liu
シャオミン・リュ
Peter Tu Tu
ピーター・トゥ・トュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of JP2008181520A publication Critical patent/JP2008181520A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔画像復元を実行するシステムおよび方法を提供すること。
【解決手段】このシステムは、複数のビデオフレームのそれぞれで見つかる顔画像にアクティブ外見モデルをあてはめるアクティブ外見モデルコンポーネントと、他の顔画像のそれぞれの匹敵する画素に各顔画像の各画素を位置決めする位置決めコンポーネントと、復元された顔画像を顔画像から作成する復元コンポーネントとを含む。この方法は、複数のビデオフレームのそれぞれで見つかる顔画像にアクティブ外見モデルをあてはめることと、他の顔画像のそれぞれの匹敵する画素に各前記顔画像の各画素を位置決めすることと、復元された顔画像を顔画像から作成することとを含む。
【選択図】図1

Description

関連出願の相互参照
本願は、その開示全体が参照によって本明細書に組み込まれている2007年1月24日出願の米国仮出願第60/886,433号からの優先権を主張するものである。
本発明は、全般的には、ビデオのフレーム内の顔へのアクティブ外見モデル(active appearance model)のあてはめ、顔のそれぞれの位置決め、およびビデオのフレームを使用する復元された顔画像の作成のシステムおよび方法に関する。
ある距離をおいた自動顔認識は、たとえば法執行監視応用などの多数の実世界シナリオで非常に重要になりつつある。しかし、ある距離をおいた自動顔認識は、いくつかの難しい態様を有してきた。低い画像解像度およびカメラのぼけが、多くの場合に正確な顔認識を得ることが不能であることに寄与する。
自動顔認識を組み込むことが望ましい多数の監視システムで、被写体は、ビデオに取り込まれる。既知の顔認識アルゴリズムは、静止画像に対して働き、したがって、顔認識アプリケーションは、一般に、顔の適切なビューを有するビデオの単一のフレームを抽出する。ある意味で、既知の顔認識アプリケーションは、ビデオで入手可能な情報のわずかな部分だけを使用する。
したがって、改良された顔画像復元を実行するシステムおよび方法が提供されることが望まれる。
本発明は、復元された顔画像を作成するのにビデオの複数のフレームを使用するシステムおよび方法を説明する。用語「復元された」は、本明細書では、結果の顔画像が、複数のビデオフレームのいずれかからのどの個々の顔画像よりも高い明瞭さを有することを表すのに使用される。
本発明の1つの例示的実施形態は、復元された顔画像をビデオの複数のフレームから作成するシステムである。このシステムは、複数のビデオフレームのそれぞれで見つかる顔画像にアクティブ外見モデルをあてはめるアクティブ外見モデルコンポーネントを含む。このシステムは、他の顔画像のそれぞれの匹敵する画素に各前記顔画像の各画素を位置決めする位置決めコンポーネントと、復元された顔画像を顔画像から作成する復元コンポーネントをも含む。
本発明のもう1つの例示的実施形態は、復元された顔画像をビデオの複数のフレームから作成する方法である。この方法は、複数のビデオフレームのそれぞれで見つかる顔画像にアクティブ外見モデルをあてはめることと、他の顔画像のそれぞれの匹敵する画素に各顔画像の各画素を位置決めすることと、復元された顔画像を顔画像から作成することとを含む。
上記および他の利点および特徴は、添付図面と共に提供される本発明の好ましい実施形態の次の詳細な説明からよりたやすく理解されるであろう。
本明細書で説明され、図示される本発明の実施形態は、復元された顔画像を作成するのにビデオの複数のフレームを使用するシステムおよび方法論を対象とする。図1を具体的に参照すると、顔再構成システム10が示されている。システム10は、トレーニングデータベース12、ビデオ入力18、モジュール16内のアクティブ外見モデル、位置決めモジュール24、ワープモジュール26、平均化モジュール28、およびウィーナフィルタモジュール30を含む。
トレーニングデータベース12は、2次元のおよびおそらくは3次元の顔画像を含む。トレーニングデータベース12は、アクティブ外見モデル(「AAM」)をトレーニングするのに使用される。トレーニングデータベース12は、たとえば、Notre Dame Biometrics Database Collection D(「Collection D」)などの公に入手可能なデータベースとすることができる。トレーニングデータベース12からの顔画像は、アクティブ外見モデルトレーニングモジュール14によって、顔イメージ全般の外見および形状の数学的表現を構成するのに使用される。「外見」とは、カラリゼーション(colorization)およびテクスチャを意味する。この数学的表現は、調整可能とすることができる。
複数フレーム復元の第1段階は、位置決めである。フレームを組み合わせるために、各フレームを、フレームの対の間でxがxの関数になるように写像しなければならない。これは、実際の物体または情景の点の第1画像座標x=(r,c)の、第2の画像座標x=(r,c)への変換を可能にする。位置決めの1つの手法は、AAMなどの実際のフレームからフレームへの動きを正確にモデル化できるパラメータ化された位置決め関数を選択することである。
顔画像に適用されるAAMは、異なる方位の異なる人の顔にあてはまるように設計された、顔の形状と外見との両方の2ステージモデルである。アクティブ形状サブモデルは、ランドマーク点(landmark point)の組の位置の分布を記述する。図2(a)に、一連の顔画像の位置決めに使用される33個のランドマーク点を示す。主成分分析(PCA)および顔画像のトレーニングセットを使用して、形状空間の次元数を減らすと同時に、トレーニングセット母集団にまたがる変動の主要なモードを取り込む。
AAMアクティブ形状サブモデルは、データベース12からのトレーニングセット内のすべての顔形状の平均値である平均顔形状と、固有ベクトルの組とを含む。平均顔形状は、標準的な形状であり、AAMアクティブ外見サブモデルの基準のフレームとして使用される。顔画像の各トレーニングセットは、基準の標準形状フレームにワープされる。
顔画像の各トレーニングセットは、基準の標準形状フレームにワープされるので、トレーニングセットからの顔画像のすべてが、同一の形状を有するかのように表現される。形状変動を除去されて、顔画像の外見の変動が、次元数削減のためにPCAを使用して外見固有ベクトルの組を選択することによって、第2ステージでモデル化される。
モジュール16の完全にトレーニングされたアクティブ外見モデルは、外見および形状にまたがって連続的に変化する顔画像を作ることができる。顔画像の復元のために、モジュール16のアクティブ外見モデルは、ビデオフレームのうちの1つに現れる新しい顔にあてはめられる。これは、モデルによって生成された顔がビデオフレーム内の顔と一致するように、顔の形状パラメータおよび外見パラメータ(固有係数(eigen−coefficient))について解くことによって達成される。たとえばSimultaneous Inverse Compositional(SIC)アルゴリズムを使用して、新しい顔をビデオフレーム内の顔にあてはめることができる。
ビデオ入力18は、1つもしくは複数のビデオカメラまたは一連のスチール写真を自動的に撮影するようにセットされた1つもしくは複数のスチールカメラを含むものとすることができるが、ビデオ(またはスチール写真)の複数のフレームを入手し、このフレームのそれぞれに、被写体の顔画像が含まれる。ビデオ入力18を生のまたは法廷のビデオまたはスチール写真とすることができることを了解されたい。ビデオまたはスチール写真がアナログベースである場合には、アナログ−ディジタル変換器が、フレームを伝送する前に必要になるはずである。ビデオ入力18の出力フレームは、顔検出モジュール20に送られ、顔検出モジュール20は、顔画像を検出するのに使用される。この検出は、自動的にまたは手動で行うことができる。手動検出の例には、グラフィカルユーザインターフェースの使用を含めることができる。自動検出の例には、米国ペンシルバニア州ピッツバーグのPittsburgh Pattern Recognition社が販売する顔検出ソフトウェアパッケージを含めることができる。
各フレームおよび各検出された顔について、形状パラメータのベクトルおよび外見パラメータのベクトルが入手される。モジュール16のAAMは、顔形状および外見の固有ベクトルをアクティブ外見モデルトレーニングモジュール14から受け取る。さらに、AAMあてはめモジュール22が、形状パラメータのベクトルおよび外見パラメータのベクトルを判定する。形状パラメータのベクトルは、顔の形状を制御し、外見パラメータのベクトルは、顔の外見を制御する。
形状パラメータおよび外見パラメータを、モデルを新しい顔にあてはめるために推定しなければならないが、結果の形状パラメータだけが、位置決めに使用される。モジュール16のAAMは、複数のビデオまたはスチールのフレームにまたがって顔を位置合せするのに必要な位置決めを提供する。AAMのアクティブ形状サブモジュール部分は、各フレーム内で33個のランドマーク位置を定義する(図2(a))。これらのランドマーク位置は、図示の顔にまたがる49個の三角形の頂点である。
位置決めモジュール24によって達成される、任意の2つのフレームの間での顔の位置決めは、区分的アフィン変換またはスプライン変換にすることができ、三角形のそれぞれのアフィン変換は、対応する三角形頂点によって定義される。顔の縁の付近での不連続性を避けるために、顔の位置決めは、延長された境界領域を定義するために顔ランドマークの組を外挿することによって増補される(図2(b))。図示のように、30個の新しいランドマークが、推定された顔の縁から外への固定された距離に位置決めされており、境界に45個の新しい三角形が形成される。ブレンディングマスク(図2(c))を使用して、複数フレーム顔再構成の顔領域を、単一の観察されたフレームの非顔(背景)領域と組み合わせ、したがって、見る人にとってより自然なブレンドされた結果を提供する。ブレンディングマスクMは、ベースフレーム内で定義され、顔領域の内側で1の値を有し、その領域の外部では、顔領域への距離を伴って線形に0までフェードする。ブレンディングマスクMは、次式を使用して、復元された顔画像Iをフィル画像Iとブレンドするのに使用される。
I(r, c) = M(r, c)IR(r, c) + (1 - M(R, c))If (R, c).
位置決め機能中に、複数のビデオ(またはスチール写真)フレームのうちの1つが、ベースフレームLとして選択される。動きが、さまざまなフレームの間で発生しつつあり、その動きは、一般に、特定の方向に流動的であるので、すべてのフレームLからLまでの中間からの1フレームを、ベースフレームLとして選択することができる。基準の新しいフレームHが、ベースフレームLから作成される。基準の新しいフレームHは、ベースフレームLより高い画素解像度を有する。
図3に、一連のビデオフレーム内の顔画像の位置決めを示す。一連の複数のビデオフレームを位置決めしたならば、顔画像のワープが、ワープモジュール26を介して達成される。その後、アクティブ外見モデルあてはめモジュール22から入手された位置決め情報を使用して、入力ビデオ(またはスチール写真)フレームL〜Lのそれぞれの顔画像のそれぞれを、基準の新しいフレームHにワープする。
ワープモジュール26からの出力は、平均化モジュール28に入力され、平均化モジュール28は、ワープされたビデオ(またはスチール写真)フレームのすべての平均をとる。この平均化は、画素ごとの基礎で加算し、フレーム数で割ることによって行うことができる。
平均化モジュール28からの出力は、次に、ウィーナフィルタ30に入力される。当初に入力されるビデオフレームは、点像分布関数(PSF)を用いて畳み込まれ、イメージグリッド上でサンプリングされ、加法性白色ガウス雑音によって改悪され、量子化された情景の連続画像からイメージング処理によって形成される。PSFは、減らされる必要があるぼけの責任を負う。加法性雑音は、ぼけを減らす能力を制限する。雑音の支配的な源は、CCD電子雑音であり、これは、平坦なスペクトルを有する加法性ガウス雑音として良好にモデル化される。
すべての画像信号が空間周波数領域で表現された状態で、変換オリジナル画像がI(ω,ω)であり、光学的伝達関数(OTF、PSFのフーリエ変換)がH(ω,ω)であり、加法性ガウス雑音信号がN(ω,ω)である場合に、観察されるビデオフレームは、
G(ω1, ω2) = H(ω1, ω2)I(ω1, ω2) + N(ω1, ω2).
である。
ウィーナフィルタ30は、単一画像ぼけ除去の古典的方法である。ウィーナフィルタ30は、I(ω,ω)の最小平均二乗誤差(MMSE)推定値をもたらす。ぼけていない画像を用い、雑音のあるぼけた観察G(ω,ω)を与えられ、未知の画像信号に関する仮定を行わないと、ウィーナフィルタ30は、
I(ω1, ω2) = (H*(ω1, ω2))G(ω1, ω2)/│(H(ω1, ω2)│2+ K).
である。パラメータH(ω,ω)は、H(ω,ω)の複素共役であり、パラメータKは、noise−to−signal power ratioであり、したがって、MMSEウィーナフィルタが形成される。実際には、パラメータKは、雑音増幅と先鋭化とのバランスをとるために調整される。パラメータKが大きすぎる場合には、画像は、その高空間周波数を最高の可能な範囲まで復元させることができない。パラメータKが小さすぎる場合には、復元された画像は、増幅された高空間周波数雑音によって改悪される。Kは0に向かう傾向があるので、H(ω,ω)>0と仮定すると、ウィーナフィルタは、理想的な逆フィルタに近づき、これは、次のように高周波数雑音を大きく増幅する。
I(ω1, ω2) = G(ω1, ω2)/(H(ω1, ω2).
ぼけた雑音のある画像に対するウィーナフィルタ30の効果は、(1)PSFによって減衰されず、高い信号対雑音比を有する空間周波数を通過させ、(2)PSFによって減衰され、高い信号対雑音比を有する空間周波数を増幅し、(3)低い信号対雑音比を有する空間周波数を減衰させることである。
ベースライン複数フレーム復元アルゴリズムは、連続するビデオフレームLからLまでの位置合せされた顔領域の平均をとることと、その結果にウィーナフィルタを適用することとによって働く。フレーム平均化は、加法性画像雑音を減らし、ウィーナフィルタは、PSFの効果からぼけを除去する。時間平均されたフレームに適用されるウィーナフィルタは、高空間周波数で、単一ビデオフレームに適用されるウィーナフィルタより正確に、PSFによって減衰された画像を再生することができる。高空間周波数をより正確に再生することによって、復元された顔画像40は、より高い有効解像度および詳細におけるより高い明瞭さを有する。これは、これらの高空間周波数での画像雑音が平均化処理を介して減らされることに起因する。分散σを有する0平均加法性ガウス雑音によって改悪されたN個の測定値のそれぞれが、σ/Nの分散を有する、その値の推定値を与える。N個の位置決めされワープされた画像の平均をとることによって、加法性雑音分散およびKの適当な値が、1/Nの倍率で減る。
ここで具体的には図4を参照すると、顔再構成システム110が示されている。システム110は、システム10(図1)に似て、トレーニングデータベース12、ビデオ入力18、およびモジュール16内のアクティブ外見モデルを含み、これらの構成要素のそれぞれが、上で説明したシステム10と同様に動作する。システム110は、さらに、復元された顔画像140を作成する超解像モジュール124を含む。
動作中に、システム110は、アクティブ外見モデルを各フレームの顔画像にあてはめる。次に、複数のフレーム、たとえば約N=10個の連続するフレームの組を組み合わせて、超解像画像140を作成する。1つの可能な実施形態で、顔の動き、カメラPSF、およびサンプリングを含む画像形成処理は、フレームごとにモデル化される。超解像画像140について解くために、L−ノルムデータ忠実度成分を有する費用関数が定義され、Bilateral Total Variation正規化が使用される。費用関数の解析的勾配を使用する最速降下探索が、超解像顔画像140を作る。
顔画像の復元された顔画像140への超解像は、Farsiu et al. in "Fast and robust multiframe super-resolution," IEEE Transactions on Image Processing, vol. 13, no. 10, pp. 1327-1344, October 2004によって提案されたものに似たアルゴリズムなど、適当な超解像アルゴリズム124を介して達成される。
N個の入力フレームY(iは1からNまでである)のそれぞれは、Lと表される基準の低解像度フレームに存在する。そのような基準のフレームは、イメージサイズおよびアクティブ外見モデルランドマーク点を封入する。位置決め処理は、基準のフレームの間で画像をワープすることを可能にする。Lごとに、各次元でLより高い画素解像度を有する、対応する基準の高解像度フレームHが、作成される。超解像画像140は、フレームH内で解かれ、ここで、k=N/2である。
超解像アルゴリズム124を初期化するために、初期超解像画像140が、N個の入力フレームYのそれぞれの顔領域をフレームHにワープし、平均をとることによって作成される。ワープは、各顔画像をスケールアップし、位置合せする。その結果を、フレームHまでスケールアップされた入力画像Yの非顔領域とブレンドする。超解像処理は、入力フレームYのそれぞれをフレームH内の未知の超解像画像Xに関係付ける画像形成モデルを使用する。具体的に図5を参照すると、全体的に140として示された反復的に改善される超解像画像140から140の組の初期超解像画像が、画像形成モデル142に送られる。画像形成モデル142は、Xを各Yに関係付ける時に、顔の動き、カメラのぼけ、および検出器サンプリングを考慮に入れる。具体的には、全体的にASM 19からASM 19までとして示された、複数のフレーム1からNまでのそれぞれの外見形状モデル19が、カメラのぼけおよび初期超解像画像140と一緒に画像形成モデル142に入力される。
入力フレーム18ごとに、位置決め演算子Fは、XをフレームHからHにワープし、フレームHは、Lの2倍の解像度を有するが、Yに位置合せされている。最近接、双一次、または任意の他の補間を、ワープ動作に使用することができる。カメラぼけ演算子Hは、変数iに依存せず、高解像度フレームH内でPSFを適用する。ほとんどの設置された監視カメラは、真のPSFを判定することによって吟味される。画像形成モデル142は、手で選択される幅σを有するガウス形状のPSFを仮定する。検出器のサンプリング動作は、各次元で1つおきの画素を抽出し、フレームHから入力フレームYの基準のフレームであるLに変換する疎な行列Dによって表される。Vが加法性画素強度雑音を表す場合に、完全な線形画像形成処理は、
Yi = DHFi X + Vi.
である。
次に、出力Yは、データ忠実度モジュール146に入力され、データ忠実度モジュール146は、データ忠実度費用と、超解像画像画素値に関するこの費用の勾配とを判定する。下で定義されるデータ忠実度費用JDF(x)は、観察のモデルと実際の観察との間の差のLノルムに正規化項Ψ(X)を加えたものである。超解像画像Xを判定するのに使用できる1つの最適化アルゴリズムが、
である。Lノルムは、データ忠実度モジュール146内で、不正なモデル化仮定および位置決め誤差に対する堅牢性のために使用される。
それと同時に、初期超解像画像140が、正規化モジュール150に送られ、正規化モジュール150は、縮退超解像画像に向かう傾向のある解を抑制するのにBilateral Total Variation(BTV)を使用する。BTV費用関数は、
である。ここで、S およびS は、画像をx方向およびy方向でl画素およびm画素だけシフトする演算子である。BTVを用いると、その上で絶対画素差制約が適用される近傍を、P>1を用いてTotal Variation(TV)より大きくすることができる。近傍のサイズは、パラメータPによって制御され、制約の強さの減衰は、α(0<α<1)によって制御される。
超解像画像140について解くために、Xを、まず上で説明した初期画像140に初期化する。初期画像140を、画像形成モジュール142および正規化モジュール150に送る。画像形成モジュール142は、結果をデータ忠実度モジュール146に出力する。データ忠実度モジュール146は、データ忠実度費用関数の解析的勾配148を出力し、正規化モジュール150は、正規化費用関数の解析的勾配152を出力する。これらの出力148および152は、反復最適化モジュール154に入力される。段階サイズβ=0.01および固定された回数の反復、たとえば30回の反復を使用する、次の最速降下探索が使用される。
観察されたビデオがカラーである場合には、超解像処理は、輝度成分だけに適用される。初期画像は、NTSC色空間(YIQ)に変換され、輝度(Y)成分が、すべての入力フレームについて計算される。超解像輝度結果は、初期画像からのクロミナンス成分と組み合わされる。
図6(a)から6(c)を参照すると、質を高められたビデオフレームとのオリジナルビデオフレーム(図6(a))の比較が示されている。図6(b)は、単一ビデオフレームに対するウィーナフィルタの結果を示す。図6(c)は、複数の連続するビデオフレームに対して超解像アルゴリズム124を利用する超解像の結果を示す。図6(b)および6(c)に示された顔画像の明瞭さが、図6(a)を上回って増分式に改善されていることが、明瞭である。
限られた個数の実施形態だけに関して本発明を詳細に説明してきたが、本発明が、そのような開示された実施形態に限定されないことを容易に理解されたい。そうではなく、本発明を変更して、これまでに説明はしなかったが本発明の趣旨および範囲と一致する任意の個数の変形、変更、置換、または同等の配置を組み込むことができる。さらに、本発明のさまざまな実施形態を説明したが、本発明の諸態様に、説明された実施形態の一部だけを含めることができることを理解されたい。したがって、本発明は、前述の説明によって限定されるとみなされてはならず、本発明は、添付の特許請求の範囲の範囲によってのみ限定される。また、図面の符号に対応する特許請求の範囲中の符号は、単に本願発明の理解をより容易にするために用いられているものであり、本願発明の範囲を狭める意図で用いられたものではない。そして、本願の特許請求の範囲に記載した事項は、明細書に組み込まれ、明細書の記載事項の一部となる。
本発明の例示的実施形態による高品質顔復元システムを示す概略図である。 図1のシステムのアクティブ外見モデルのランドマーク点の使用を示す図である。 図1のシステムのアクティブ外見モデルでの連続するビデオフレームの使用およびランドマーク点の使用を示す図である。 本発明のもう1つの例示的実施形態による高品質顔復元システムを示す図である。 図4のシステムで使用される例示的な超解像アルゴリズムを示す概略図である。 図1のシステムを介する単一フレームの出力および図4のシステムを介する複数フレームの出力に対してオリジナルビデオフレームを比較する図である。
符号の説明
10 顔再構成システム
12 トレーニングデータベース
18 ビデオ入力
19 外見形状モデル
20 顔検出モジュール
22 AAMあてはめモジュール
24 位置決めモジュール
26 ワープモジュール
28 平均化モジュール
30 ウィーナフィルタモジュール
40 復元された顔画像
110 顔再構成システム
124 超解像モジュール
140 復元された顔画像
142 画像形成モデル
146 データ忠実度モジュール
148 データ忠実度費用関数の解析的勾配
150 正規化モジュール
152 正規化費用関数の解析的勾配
154 反復最適化モジュール

Claims (10)

  1. 復元された顔画像をビデオの複数のフレームから作成するシステム(10)であって、
    複数のビデオフレーム(18)のそれぞれで見つかる顔画像にアクティブ形状モデルをあてはめるアクティブ形状コンポーネント(16)と、
    他の顔画像のいずれかの対応する位置に各前記顔画像の顔領域内の各位置を位置決めする位置決めコンポーネント(24)と、
    復元された顔画像(40)を前記顔画像から作成する復元コンポーネントと
    を含むシステム(10)。
  2. 前記アクティブ形状コンポーネントは、
    複数のビデオフレームを供給するビデオ入力モジュール(18)と、
    前記複数のビデオフレームのぞれぞれの中で顔を検出するように適合された顔検出モジュール(20)と、
    顔画像モデルパラメータを、前記モデルが前記複数のビデオフレームのそれぞれの中の前記顔によく似るように判定するあてはめモジュール(22)と
    を含む、請求項1記載のシステム。
  3. 前記復元コンポーネントは、超解像アルゴリズム(124)を含む、請求項1記載のシステム。
  4. 前記超解像アルゴリズムは、
    画像形成モデル(IFM)顔画像を作成するために前記複数のビデオフレームのそれぞれについてアクティブ形状モデルを使用するIFM(142)と、
    前記IFM顔画像と比較するために前記複数のビデオフレームのそれぞれからの実際の顔画像を使用するデータ忠実度モデル(146)であって、前記データ忠実度モデルは、費用関数を含む、データ忠実度モデル(146)と
    を含む、請求項3記載のシステム。
  5. 高空間周波数歪みを抑制する正規化モジュール(150)を含み、前記正規化モジュールは、第2費用関数を含む、請求項4記載のシステム。
  6. 前記復元コンポーネントは、
    前記複数のビデオフレームのそれぞれの前記顔画像のそれぞれを前記複数のビデオフレームの画素解像度より高い画素解像度を有する基準の新しいフレームにワープするために前記位置決めコンポーネントからの出力をとるワープモジュール(26)と、
    画素ごとの基礎で前記ワープされた顔画像のそれぞれの平均をとる平均化モジュール(28)と、
    前記平均をとられた顔画像から復元された顔画像を作成する画像復元アルゴリズム(30)と
    を含む、請求項1記載のシステム。
  7. 前記画像復元アルゴリズムは、ウィーナフィルタを含む、請求項6記載のシステム。
  8. 基準の前記新しいフレームは、前記複数のビデオフレームの前記画素解像度より2倍高い画素解像度を有する、請求項6記載のシステム。
  9. 復元された顔画像をビデオの複数のフレームから作成する方法であって、
    複数のビデオフレームのそれぞれで見つかる顔画像にアクティブ形状モデルをあてはめることと、
    他の顔画像のそれぞれの対応する画像位置に各前記顔画像の各画像位置を位置決めすることと、
    復元された顔画像を前記顔画像から作成することと
    を含む方法。
  10. アクティブ外見モデルの前記あてはめは、
    顔画像のデータベースにアクセスすることと、
    前記データベースから前記顔画像の外見および形状の一般化された数学的表現を構成することと
    を含む、請求項9記載の方法。
JP2008011138A 2007-01-24 2008-01-22 復元された顔画像をビデオから再構成するシステムおよび方法 Withdrawn JP2008181520A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US88643307P 2007-01-24 2007-01-24
US11/836,316 US8064712B2 (en) 2007-01-24 2007-08-09 System and method for reconstructing restored facial images from video

Publications (1)

Publication Number Publication Date
JP2008181520A true JP2008181520A (ja) 2008-08-07

Family

ID=39295520

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008011138A Withdrawn JP2008181520A (ja) 2007-01-24 2008-01-22 復元された顔画像をビデオから再構成するシステムおよび方法

Country Status (3)

Country Link
US (1) US8064712B2 (ja)
EP (1) EP1950700A1 (ja)
JP (1) JP2008181520A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171470A (ja) * 2012-02-21 2013-09-02 Kao Corp 顔画像合成装置及び顔画像合成方法
US9235751B2 (en) 2012-03-15 2016-01-12 Kabushiki Kaisha Toshiba Method and apparatus for image detection and correction

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4814840B2 (ja) * 2007-05-23 2011-11-16 オリンパス株式会社 画像処理装置又は画像処理プログラム
US20090060373A1 (en) * 2007-08-24 2009-03-05 General Electric Company Methods and computer readable medium for displaying a restored image
US20090060286A1 (en) * 2007-09-04 2009-03-05 General Electric Company Identification system and method utilizing iris imaging
JP5076755B2 (ja) * 2007-09-07 2012-11-21 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
WO2009034688A1 (ja) * 2007-09-10 2009-03-19 Nikon Corporation 画像処理方法およびプログラム
JP2010117787A (ja) * 2008-11-11 2010-05-27 Seiko Epson Corp 画像処理装置
US8442330B2 (en) 2009-03-31 2013-05-14 Nbcuniversal Media, Llc System and method for automatic landmark labeling with minimal supervision
US8471905B2 (en) * 2009-04-09 2013-06-25 Raytheon Company Methods and apparatus for imaging
WO2010134200A1 (ja) * 2009-05-22 2010-11-25 株式会社東芝 画像処理装置、方法及びプログラム
JP5525923B2 (ja) * 2010-06-09 2014-06-18 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
US9582928B2 (en) 2011-01-13 2017-02-28 Samsung Electronics Co., Ltd. Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
EP2724316B1 (en) * 2011-06-24 2019-06-19 InterDigital Madison Patent Holdings Method and device for processing of an image
DE102011080180B4 (de) * 2011-08-01 2013-05-02 Sirona Dental Systems Gmbh Verfahren zur Registrierung mehrerer dreidimensionaler Aufnahmen eines dentalen Objektes
KR101818005B1 (ko) 2011-09-06 2018-01-16 한국전자통신연구원 얼굴 데이터 관리 시스템 및 그 방법
DE102011121332A1 (de) * 2011-12-16 2013-06-20 Testo Ag Verfahren zur Erzeugung von SR-Bildern mit verbesserter Bildauflösung und Messvorrichtung
US9087260B1 (en) * 2012-01-03 2015-07-21 Google Inc. Hierarchical randomized quantization of multi-dimensional features
WO2013148139A1 (en) 2012-03-29 2013-10-03 Nikon Corporation Algorithm for minimizing latent sharp image and point spread function cost functions with spatial mask fidelity
WO2013148142A1 (en) 2012-03-29 2013-10-03 Nikon Corporation Algorithm for minimizing latent sharp image cost function and point spread function cost function with a spatial mask in a regularization term
CN102800071B (zh) * 2012-06-20 2015-05-20 南京航空航天大学 序列图像pocs超分辨率重建方法
CN103020898B (zh) * 2012-12-03 2018-01-05 北京理工大学 序列虹膜图像超分辨率重建方法
CN103077505B (zh) * 2013-01-25 2015-12-09 西安电子科技大学 基于字典学习和结构聚类的图像超分辨率重建方法
US8749641B1 (en) * 2013-05-01 2014-06-10 Google Inc. Detecting media source quality to determine introduced phenomenon
WO2014190494A1 (en) * 2013-05-28 2014-12-04 Thomson Licensing Method and device for facial recognition
US10165263B2 (en) 2013-09-30 2018-12-25 Nikon Corporation Point spread function estimation of optics blur
US9025067B2 (en) 2013-10-09 2015-05-05 General Electric Company Apparatus and method for image super-resolution using integral shifting optics
US9384386B2 (en) 2014-08-29 2016-07-05 Motorola Solutions, Inc. Methods and systems for increasing facial recognition working rang through adaptive super-resolution
CN106033617B (zh) * 2015-03-16 2019-10-18 广州四三九九信息科技有限公司 一种结合可视化工具进行游戏图片智能压缩的方法
US10055821B2 (en) 2016-01-30 2018-08-21 John W. Glotzbach Device for and method of enhancing quality of an image
CN107133250A (zh) * 2016-02-28 2017-09-05 王国起 新网址、新网站、对网站的使用方法及相关的产品
CN105844590A (zh) * 2016-03-23 2016-08-10 武汉理工大学 基于稀疏表示的图像超分辨率重建方法及系统
CN105894468A (zh) * 2016-03-31 2016-08-24 武汉双赢信息技术有限公司 一种基于边缘清晰度评价指标的图像复原方法
CN106157230B (zh) * 2016-05-25 2019-08-16 华中科技大学 海量脑组织三维图像数据快速调用方法
JP6629139B2 (ja) * 2016-05-30 2020-01-15 株式会社東芝 制御装置、制御方法およびプログラム
CN106372844B (zh) * 2016-08-19 2020-08-28 网易(杭州)网络有限公司 一种日程创建方法和设备
CN108460746B (zh) * 2018-04-10 2021-09-03 武汉大学 一种基于结构和纹理分层预测的图像修复方法
KR102177453B1 (ko) * 2018-10-16 2020-11-11 서울시립대학교 산학협력단 얼굴 인식 방법 및 얼굴 인식 장치
CN111260577B (zh) * 2020-01-15 2023-04-18 哈尔滨工业大学 基于多引导图和自适应特征融合的人脸图像复原系统
CN111507914B (zh) * 2020-04-10 2023-08-08 北京百度网讯科技有限公司 人脸修复模型的训练方法、修复方法、装置、设备和介质
CN111767606A (zh) * 2020-05-15 2020-10-13 成都飞机工业(集团)有限责任公司 一种飞机装配工艺文件快速编制方法
CN113742951B (zh) * 2021-11-05 2022-02-08 南京易司拓电力科技股份有限公司 基于周期性均值恒虚警的电压扰动检测门限设计方法
CN116631019B (zh) * 2022-03-24 2024-02-27 清华大学 基于面部图像的口罩适合性检测方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756325B2 (en) * 2005-06-20 2010-07-13 University Of Basel Estimating 3D shape and texture of a 3D object based on a 2D image of the 3D object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171470A (ja) * 2012-02-21 2013-09-02 Kao Corp 顔画像合成装置及び顔画像合成方法
US9235751B2 (en) 2012-03-15 2016-01-12 Kabushiki Kaisha Toshiba Method and apparatus for image detection and correction

Also Published As

Publication number Publication date
US20080175509A1 (en) 2008-07-24
US8064712B2 (en) 2011-11-22
EP1950700A1 (en) 2008-07-30

Similar Documents

Publication Publication Date Title
JP2008181520A (ja) 復元された顔画像をビデオから再構成するシステムおよび方法
CN104683767B (zh) 透雾图像生成方法及装置
JP3996630B2 (ja) 画像変換方法、テクスチャマッピング方法、画像変換装置、サーバークライアントシステム、画像変換プログラム、影認識方法および影認識装置
KR101328741B1 (ko) 색상 채널을 이용한 영상 개선 장치 및 방법
CN108694705A (zh) 一种多帧图像配准与融合去噪的方法
US20090263043A1 (en) Blind deconvolution and super-resolution method for sequences and sets of images and applications thereof
CN113170030A (zh) 使用神经网络对摄影曝光不足进行校正
US20160371820A1 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for estimating blur
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
US8965141B2 (en) Image filtering based on structural information
EP1766569A1 (en) Methods, system, program modules and computer program product for restoration of color components in an image model
Chang et al. Low-light image restoration with short-and long-exposure raw pairs
JP2010218110A (ja) ノイズ低減装置、ノイズ低減方法、ノイズ低減プログラム、記録媒体
JP2008518318A (ja) ボケた画像部分の画質を向上する方法
Faramarzi et al. Blind super resolution of real-life video sequences
CN111510691A (zh) 颜色插值方法及装置、设备、存储介质
JP2009111921A (ja) 画像処理装置及び画像処理方法
Ley et al. Reconstructing white walls: Multi-view, multi-shot 3d reconstruction of textureless surfaces
Tseng et al. Depth image super-resolution via multi-frame registration and deep learning
Vandewalle et al. Joint demosaicing and super-resolution imaging from a set of unregistered aliased images
Gevrekci et al. POCS-based restoration of Bayer-sampled image sequences
Vivirito et al. Restoration of out-of-focus images based on circle of confusion estimate
Bareja et al. An improved iterative back projection based single image super resolution approach
Mohan Adaptive super-resolution image reconstruction with lorentzian error norm
El-Yamany et al. An adaptive M-estimation framework for robust image super resolution without regularization

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110405