JP2011510420A - 画像内個人の永続的認識可能化 - Google Patents

画像内個人の永続的認識可能化 Download PDF

Info

Publication number
JP2011510420A
JP2011510420A JP2010544307A JP2010544307A JP2011510420A JP 2011510420 A JP2011510420 A JP 2011510420A JP 2010544307 A JP2010544307 A JP 2010544307A JP 2010544307 A JP2010544307 A JP 2010544307A JP 2011510420 A JP2011510420 A JP 2011510420A
Authority
JP
Japan
Prior art keywords
image
face
recognition
model
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010544307A
Other languages
English (en)
Other versions
JP5517952B2 (ja
JP2011510420A5 (ja
Inventor
アンドリュー フレデリック クルツ
マデラクシ ダス
Original Assignee
イーストマン コダック カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by イーストマン コダック カンパニー filed Critical イーストマン コダック カンパニー
Publication of JP2011510420A publication Critical patent/JP2011510420A/ja
Publication of JP2011510420A5 publication Critical patent/JP2011510420A5/ja
Application granted granted Critical
Publication of JP5517952B2 publication Critical patent/JP5517952B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)

Abstract

個人の画像および関連付けられた画像から導出されたデータを蓄積して使用し、画像または写真コレクション内の個人の継続した認識を容易にする認識モデルを連続して作製する方法およびシステム。

Description

本発明は、個人の画像および関連する画像から導出されたデータを蓄積して使用し、画像または写真コレクション内の個人の認識を容易にする認識モデルを継続して作製する方法およびシステムに関する。
現在、写真、特にデジタル画像は、デジタルカメラ、ビデオカメラ、携帯電話(携帯電話カメラ)、ウェブカメラ、およびテレビ電話を含む多数のソースによって取得することができる。個人消費者の画像は、消費者自身のものであるか、家族のものであるか、それとも友人のものであるかにかかわらず、上記その他のデバイスを使用して生成される。したがって、デジタル写真の出現とともに、消費者は、デジタル画像および映像の大量のコレクションを蓄積している。現在、典型的な消費者のデジタル画像コレクションが及ぶ時間の長さは、ほんの数年である。しかし、1人当たりのデジタルカメラで取り込む画像の平均数は、やはり毎年増大している。しかし残念ながら、画像および映像を整理し、電子データファイルのコレクションから取り出すことはすでに、典型的な消費者にとって問題である。整理および取出し上の問題は、平均的なデジタル画像および映像のコレクションが及ぶ時間の長さが増大するにつれて、大きくなり続けるであろう。
ユーザは、当該の特定の人物を含む画像および映像を見つけたいと望むことが多い。ユーザは、手作業で探索を行って当該の人物を含む画像および映像を見つけることができる。しかしこれは遅く、骨の折れる処理である。市販のソフトウェア(たとえば、Adobe Album)の中には、ユーザが後に検索できるように画像内の人物を示すラベル(メタデータ)で画像にタグ付けできるものもあるが、最初のラベル付け処理はやはり非常に退屈で、かつ時間がかかる。
また、様々な検索およびソート方策を標的にするアルゴリズム方法を使用して、デジタル画像にタグ付けすることもできる。たとえば、イベント分類または人物認識および識別に基づいて、デジタル写真を検索およびソートすることができる。日時、位置(GPS対応を含む)、物体またはペット認識、および取込み条件データなどの他の参照データを使用して、検索、ソート、およびタグ付け処理を支持することもできる。もちろん、多くの場合、人物認識および識別が特に重要である。
顔認識ソフトウェアでは、画像のグランドトゥルース(ground−truth)のラベル付きのセット(すなわち、対応する人物識別情報を有する画像のセット)が存在するものとする。大部分の消費者の画像コレクションには、グランドトゥルース画像の類似したセットはない。画像のグランドトゥルースのラベル付きのセットは、参照画像に基づくものとすることができ、参照画像から導出された、主要な顔の属性または特徴を表す定量的なデータを、識別情報マーカとして使用することができる。さらに、多くの消費者の画像の中には複数の人物が存在するので、画像内の顔のラベル付けは複雑である。したがって、画像内の人物の識別情報で画像に簡単にラベル付けしても、画像内のどの人物がどの識別情報に関連付けられているのかを示さない。また、目、皮膚、または髪の色、アイウェアの有無および幾何形状、衣服(衣類)の色およびパターン、身体的な運動の特徴、ならびに声の特性(韻律)を含む他のキューを使用して、画像(静止画または映像)内の人物の認識を容易にすることもできる。
写真コレクションからの画像を含む消費者の静止画、ならびに典型的な消費者の映像画像における個人の自動認識は、これらの画像の性質が制約されないことによって複雑になる。消費者の画像は、プロの写真家の感覚を使用して取り込まれるわけではないので、フレーミング、ポーズ、および照明があまり最適でないことがあり、後の識別の手間を複雑にする可能性がある。さらに、消費者は、写真撮影のイベントにおいて制約されないので、ポーズをとったスタジオ写真と比較すると、設定、外観、背景、および前景、ならびにユーザの活動は非常に多様である。同じフレーム内に複数の人物が見られることが多く、個人(特に顔)を遮ったり部分的に不明瞭にしたりすることがよくある。
予め取り込んだ静止画を使用して人物の識別を可能にする1つの手法は、ローサーらによる同一出願人による米国特許出願第11/755,343号に記載されている。ローサー‘343は、複数のイベントまたはサブイベントに及ぶ写真コレクションとともに機能する人物認識方法を予期する。画像のセットを分析し、人物および顔の位置を突き止めて数え、次いで関連する特徴(顔、ポーズ、髪、など)に関して特徴付ける。画像内の独自の顔を識別するには、相互に作用する人物識別器アルゴリズムが使用される。データベースに記録のない人物が画像に含まれる場合、相互に作用する人物識別器は、画像内で識別した顔の周囲を円で囲んで表示する。したがって、ユーザは、名前および任意の他の適切なタイプのデータで顔にラベル付けすることができる。しかし、その人物が前の画像に現れている場合、人物分類器アルゴリズムおよび個人のプロファイルデータを使用して、その人物に関連付けられたデータを取出して整合させることができる。そのような記録された特徴には、人物識別情報、イベント番号、画像番号、顔の形状、顔の点、顔/髪の色/質感、頭部画像セグメント、ポーズ角度、3次元モデル、および関連する特徴が含まれる。ローサー‘343出願の方法では、イベントまたは複数の時間的に近似した画像取込みイベント中に撮影された複数の画像から収集された顔データを使用して、特定の人物の頭部(顔)の少なくとも一部分の複合モデルの構築を試みる。画像取込みイベントは、空間および時間における個々の発生、またはより大きなスーパーイベント内に入る一連のリンクされたイベントもしくはサブイベントとすることができる。次いでローサー‘343は、個人の複合モデルを使用して、後の時間的に近似した取込みイベント中に取り込んだ写真内でその個人の画像を識別できることを予期している。ローサー‘343はさらに、複合モデルの使用と後の画像取込みイベントとの間にかなりの時間間隙が生じる場合、顔の特性の変化を補償するように複合モデルを変形できることを予期する。
どちらもA.ルイらによる同一出願人による米国特許第6,606,411号および同第6,351,556号は、時間的イベントおよびサブイベントによって画像コンテンツをクラスタ化するアルゴリズムを開示している。米国特許第6,606,411号は、イベントが一貫した色分布を有し、したがってこれらの写真が同じ後景で撮影された可能性が高いことを教示する。各サブイベントでは、一緒に撮影されたすべての背景領域に対して単一の色および質感の表現が算出される。上記の特許は、デジタル画像コレクション内の画像および映像をどのようにして時間的イベントおよびサブイベントにクラスタ化するのかを教示する。上記の特許の開示全体を、本願に引用して援用する。「イベント」および「サブイベント」という用語は、特有の発生(イベントに対応する)およびこれらの発生の部分(サブイベントに対応する)に関するユーザの主観的な知覚の整合を試みるコンピュータ仲介手順を製品に対して示すために、客観的な意味で使用される。画像の日時のクラスタ化および質感比較のマッピングに基づいて、画像のコレクションを1つ以上のイベントに分類することができる。これらの複数の画像は、イベント間に1つ以上の識別された境界を有することに基づいてイベントに分別される。これらの境界は、1つ以上の最大の時間差に対応する。各イベントでは、米国特許第6,351,556号に記載のように、連続する画像の色ヒストグラム情報を比較することによって、サブイベント(もしあれば)を決定することができる。これは、画像を複数のブロックに分割し、次いでそれぞれのブロックに対する色ヒストグラムを算出することで実現される。サブイベント境界を検出するには、米国特許第6,351,556号に記載のように、ブロックに基づくヒストグラム相関関係の手順が使用される。
総合すると、ルイ‘411およびルイ‘556の特許に記載の手法を使用して、デジタル画像を関連する写真コレクションにクラスタ化することができ、またローサー‘343出願の複合顔モデル方法を、写真コレクションのデジタル画像内の個人を認識する助けとして使用することができる。しかし、顔の特性は、複合モデル(または他の顔のモデル)の変形によって正しく補償されることなく変化するので、ローサー‘343の顔認識方法は、個人の誤認に対して時間とともに脆弱になる。
比較すると、ギャラガーらによる「Using Time in Recognizing Persons in Images」という名称の同一出願人による米国特許出願公開第2006/0245624号(米国特許出願第11/116,729号)は、個人の年齢に基づいて、個人の異なる顔のモデルを利用して認識する写真認識の処理を予期する。具体的には、ギャラガー‘624は、外観モデルのセットが個人の一生の期間に及ぶように、外観モデルジェネレータが個人に対する一連の外観モデルを時間の経過とともに生成することを予期する。たとえば、人物の年齢に応じて、毎年または5年ごとに定期的に追加の外観モデルを生成することができる。その後、一生の期間に及ぶ個人に対する外観モデルのセットを使用して、その時間範囲からの写真内で個人を認識することができる。具体的には、個人認識分類器は、画像のセットに関連付けられた画像取込み時間と、当該の特定の人物に関連付けられた関連時間を有する外観モデルの特徴とを使用して、検出した人物が当該の人物である可能性または確率について示す人物分類を行う。より一般的には、次いでこれらの外観モデルを使用して、その人物を含む先にまたは後に取り込んだ消費者の静止画内でこの個人を識別することができる。
とりわけ、ギャラガー‘624は、ローサー‘343と同様に、その人物を含む時間でクラスタ化されたラベル付き(ユーザに検証された)画像のコレクションを使用して、人物の外観モデルが組み立てられることを予期する。したがって、ローサー‘343は、顔の(複合)モデルを変形させることによって個人の外観の経時的な変化に適合することを予期し、一方ギャラガー‘624は、ユーザ年齢に基づく予定に従って定期的に、新しい顔のモデルを事前に生成することを予期する。しかし、ローサー‘343とギャラガー‘624はどちらも、これらの画像が利用可能になったときに、写真コレクションからの画像を使用して顔または複合モデルを構築する。これらの手法はどちらも、外観の変化に応じて個人に対する新しい認識モデルを生成する必要性を事前に評価すること、または認識した必要性に応じてモデルを事前に生成することを予期しない。
近年、様々な相補的なまたは競合する顔認識モデルが開発されてきたことに留意されたい。認識モデルのかなり完全な調査が、ACM Computing Surveys、Vol.35、399〜458頁、2003年に発表されたW.チャオ、R.チェラッパ、P.J.フィリプス、およびA.ローゼンフェルトによる論文「Face Recognition:A Literature Survey」によって提供されている。
最初に提案された顔認識モデルは、Journal of Cognitive Neuroscience、Vol.3、No.1、71〜86頁、1991年内のM.タークおよびA.ペントランドによる「Eigenfaces for Recognition」に記載の「ペントランド(Pentland)」モデルである。ペントランドモデルは、真正面の顔の画像を評価するための2次元モデルである。対象は四方八方に向いていることがあるので、このモデルの有用性は消費者の写真では制限されることがある。このモデルは、大部分の顔データを捨てて、目、口、およびいくつかの他の特徴がどこに存在するかを示すデータを維持する。これらの特徴の位置は、質感分析によって突き止められる。このデータから、顔をモデリングする定義された顔の点(目、口、および鼻など)のセットに関係する固有ベクトル(方向および程度)が抽出される。ペントランドモデルは、正規化のために正確な目の位置を必要とするので、ポーズおよび照明の変動の影響を受けやすい。ペントランドモデルは機能するが、その制限に対処するより新しいモデルによってはるかに改良されている。
アクティブ形状モデル(ASM)は、画像内の人物を認識するのに有用な別の顔モデルである。ASMは、Computer Vision and Image Understanding、No.61、38〜59頁、1995年1月に発表されたT.F.クーツ、C.J.テイラー、D.クーパー、およびJ.グラハムによる論文「Active Shape Models−Their Training and Application」に記載された。ASMは、一連の顔の特徴点で顔を描写する2次元顔モデルである。当初クーツらによって論じられたように、ASM手法は、顔ならびに他の形状または物体に適用することができる。顔の場合、クーツらは、目、鼻、および口に関係する顔の点を使用することを予期しただけである。しかし、ボリンおよびチェンによる前述の2002年の論文では、顔認識へのASMの適用は、拡張された顔の特徴点のコレクション、特に図5aに示す82個の顔の特徴点モデルで強化された。局部化された顔の特徴は、特有の特徴点のセットを接続する線によって形成される特有の特徴点もしくは角度間の距離によって、または顔の外観の変動性を示す主要な構成要素上にこれらの特徴点を投影する係数によって示すことができる。これらの弧の長さの特徴を眼間距離で分割して、異なる顔の寸法にわたって正規化する。ここで使用される顔の測定は、性別、年齢、魅力、および民族性という判断にとって重要と示された人間の顔の人体測定から導出される。点PCは、点0および1の中心に位置決めした点である(すなわち、ちょうど目と目の間の点)。添付の表1および表2は、図5aに示す82個の顔の特徴点のモデルを使用して定量化できる一連の直線および弧の長さの顔の特徴を示す。導出可能な顔の特徴のより完全な一覧は、同一出願人によるダース‘308出願(米国特許出願公開第2005/0111737号に相当)に与えられている。
Figure 2011510420
Figure 2011510420
この拡張されたアクティブ形状モデルは、照明の変動、および垂直から15度のポーズ傾斜に及ぶポーズの変動に対処できるので、ペントランドモデルより強固である。とりわけ、ASMは、髪および皮膚に関係するものなどの質感に基づくデータを使用またはモデリングしない。
認識モデルのさらなる進歩として、アクティブ外観モデル(AAM)は、幾何形状データおよび分析を質感データで補完することによって、ASM手法を発展させている。しわ、髪、および影に関係する高周波データである質感データを、それぞれの顔の位置に適用することができる。ASM手法は、8th International Conference on Computer Vision、Vol.1、748〜754頁、IEEE Computer Society Press、2001年7月に発表されたT.F.クーツおよびC.J.テイラーによる「Constrained Active Appearance Models」に記載されている。AAM手法はより多くの情報を利用しており、したがって識別および認識に対してASM手法より強固である。AAM手法は、前に論じた同一出願人によるギャラガー‘624特許出願で使用されている。しかし、AAMは2次元モデルにすぎず、ASM手法より照明およびポーズの変動の影響を受けやすく、その使用は正面の写真だけに制限される。
比較すると、「複合」モデル360は、顔と頭部の両方をマッピングする3次元幾何形状への顔認識モデルの進歩である。複合モデル手法は、IEEE Transactions on Pattern Analysis and Machine Intelligence、Vol.25、1063〜1074頁、2003年に発表されたV.ブランツおよびT.フェッターによる「Face Recognition Based On Fitting A 3−D Morphable Model」で導入された。一般にこの概念は、ASMの顔の特徴点手法を複数のポーズに拡大する。ブランツおよびフェッターによって記載のように、人間の顔の参照3次元顔モデルおよび顔特性は、レーザスキャナからの光ビームで複数の顔を走査することによって作製された。その後、新しい対象に対して、その人物の写真のコレクションが、照明条件の範囲下の異なるポーズで取得される。次いで、顔の形状および質感データを参照3次元顔モデルに適合させることによって、その人物の3次元モデルを生成することができる。後に、人物特有の3次元顔モデルを使用して、新しい写真内でその個人を認識することができる。この手法は、約1°の分解能で正確なポーズ推定を提供する。しかし、この認識処理は、誰かを整合させるのに数分かかるので、現在のソフトウェアでは遅い。
前述の同一出願人によるローサー‘343出願は、写真分析のための3次元顔モデル(複合モデル)を作製するためのブランツおよびフェッターに対する代替手法を提供する。具体的には、ローサー‘343では、対象は、一続きの複数のポーズおよび照明条件を必要とする画像取得処理によって制約されない。逆に、ローサー‘343の処理は、既存の写真のコレクションから個人に対する3次元複合モデル360の生成を試みる。ボリンおよびチェンの拡張ASM手法に従って、ポーズまたは照明によって変動しうるこれらの写真を分析して、利用可能な顔の特徴点(図5a参照)を取り出す。次いで、複数の写真からの顔の特徴点を「マスタ」複合モデル360にマッピングすることによって、個人の複合モデル360が生成される。もちろん、この手法は、利用可能な写真のコレクションにおける潜在的なデータ損失の影響を受けやすい。すなわち、個人の写真のコレクションが特定のポーズを欠いている場合、この手法は補償することができず、最善でも低減された精度でしか補間できない。その結果、正面および右側の画像だけで組み立てられた例示的な部分的に完全な複合モデルは、左側の顔のポーズをもつ画像に対してその個人の認識を支持する鍵となるデータを欠いている。
もちろん、実際の顔データをほとんどもたない後頭部の画像に画像評価が適用されるとき、画像認識タスクにおける顔認識モデルの成功率は低下する。そのような場合、髪の質感および形状に対処する外観モデルが有用となることがある。1つのそのような手法は、IEEE Trans.on PAMI、Vol.28、1164〜1169頁、2006年に発表されたY.ヤコブおよびL.デービッドによる論文「Detection and Analysis of Hair」に記載されている。
例示的なポーズ推定モデリング手法は、Proceedings IEEE International Conference on Automatic Face and Gesture Recognition、1998年に発表されたシミズらによる「Head Pose Determination From One Image Using a Generic Model」に記載されている。この手法では、まず3次元モデルに対して、縁部曲線(たとえば、目、唇、および眉の輪郭)が定義される。次に、モデル内で定義された曲線に対応する曲線を求めて入力画像が検索される。モデル内の縁部曲線と入力画像の対応関係を確立させた後、様々なポーズ角度で3次元モデルを繰り返し調整すること、そして曲線と入力画像の最も密接した適合を示す調整を決定することによって、頭部ポーズが推定される。最も密接した曲線の適合を示すポーズ角度が、入力画像のポーズ角度であると決定される。
米国特許第6,606,411号 米国特許第6,351,556号 米国特許出願公開第2006/0245624号 米国特許出願公開第2005/0111737号
「Face Recognition:A Literature Survey」,W.チャオ、R.チェラッパ、P.J.フィリプス、A.ローゼンフェルト,ACM Computing Surveys、Vol.35、399〜458頁、2003年 「Eigenfaces for Recognition」,M.ターク、A.ペントランド,Journal of Cognitive Neuroscience、Vol.3、No.1、71〜86頁、1991年 「Active Shape Models−Their Training and Application」,T.F.クーツ、C.J.テイラー、D.クーパー、J.グラハム,Computer Vision and Image Understanding、No.61、38〜59頁、1995年1月 「Constrained Active Appearance Models」,T.F.クーツ、C.J.テイラー,8th International Conference on Computer Vision、Vol.1、748〜754頁、IEEE Computer Society Press、2001年7月 「Detection and Analysis of Hair」,Y.ヤコブ、L.デービッド,IEEE Trans.on PAMI、Vol.28、1164〜1169頁、2006年 「Head Pose Determination From One Image Using a Generic Model」,シミズ,Proceedings IEEE International Conference on Automatic Face and Gesture Recognition、1998年
前の議論で示唆したように、人物の外観は、加齢、挙動上の要因(化粧品の使用、日焼け、髪型の変化)、運動、健康上の要因、または他の理由のために時間とともに変化する傾向がある。その結果、既存の顔または複合モデルが不正確になるので、写真またはデジタル画像内の個人の認識は妨げられる。現在、識別情報と画像データ、特に顔画像データのグランドトゥルース結合は、ユーザからの断続的な入力を継続することを必要とする。ギャラガー‘624のような手法は、妥当な予定に従って顔モデルを更新することによって人物認識を改善できるが、モデルに対する予定された更新間の劇的な顔の変化は、成功率を低減させることがある。したがって、既知の識別情報の個人の継続した画像、または画像から導出したデータを取得し、この画像データを顔または頭部の認識モデルに適用する方法は、継続した画像または後の画像内の個人のより強固なまたは永続的な識別を可能にすることができる。そのような方法は、複合モデル360を含む1つ以上の顔認識モデルを利用、更新、および支持することが好ましいであろう。
本発明の好ましい実施形態は、画像内の特定の人物を時間とともに永続的に電子認識することを可能にする、コンピュータで実施される方法を含む。本発明では、機械認識およびコンピュータ認識および電子認識とは、デジタル画像データを処理および分析できるプログラムされた実行ユニットまたはデバイスを指す。好ましい実施形態の方法は、人物の顔認識モデルを使用して人物の複数の顔画像を分析し、人物の顔の外観の変化を識別するステップをさらに含む。好ましい実施形態の次のステップは、顔画像に対する対象認識の信頼値を計算するステップと、顔画像に対する対象認識の信頼値と顔認識モデルの対象認識の信頼値を比較して信頼値の変化を識別するステップとを含む。これらのステップを使用して、連続した精度のためには人物に対してより新しい顔認識モデルが必要とされるかどうかを決定する。より新しい顔認識モデルが必要とされる場合、人物の現在または後の画像から新しい顔認識モデルが生成され、その後、後の人物認識タスクに対して使用される。この方法の好ましい実施形態は、対象認識の信頼値を時間とともに追跡して、新しい顔認識モデルを生成する必要性を示すことができる人物の顔の外観の変化を識別するステップを含む。これには任意選択で、既知の顔と認識されない顔の整合を示す確率分布である類似性スコア分布から計算される正規化した確率の比を含む。任意選択のステップは、特定の人物の複数の個人ポーズに及ぶ画像の完全なセットを取り込んでその人物の認識モデルを生成するステップを含むことができる。この方法は、世帯を構成する1人以上の人物に適用して、その世帯に関連付けられた画像内のこれらの人物の認識を可能にすることができる。関連する画像は、デジタル写真フレーム、携帯電話、テレビ電話、カメラ、写真コレクションからの走査、ウェブカメラなどの電子撮像デバイスを使用して取得することができる。声特性の取込みを可能にして人物を認識するためのさらなるキューを提供するために、マイクロフォンを提供することができる。顔認識モデルは、3次元複合モデル、アクティブ形状モデル、またはアクティブ外観モデルから得ることができる。モデルを生成するステップは、取得した顔画像を色、グレイスケール、および寸法に対して正規化する任意選択のステップを含むことができる。画像の変化量は、変化率、全体的な変化、閾値、変化の急峻さまたは速度、および変化の持続時間などの様々な測定基準に基づいて測定することができる。これらはそれぞれ、望みに応じて、特定の事前に選択した顔の特徴に別個に適用することができ、また顔の測定基準の使用を含む。
本発明の別の好ましい実施形態は、人物の複数の顔画像を取り込む画像取込みデバイスを備えるシステムを含む。取り込んだ画像は、人物の予め生成した顔認識モデルとともに記憶される。この顔認識モデルは、モデル信頼値を含む。システムは、顔画像と顔認識モデルの差を識別する手段と、顔画像に対する対象認識の信頼値を計算する手段とをさらに含む。対象認識の信頼値とモデル信頼値を比較する手段と、顔画像に対する対象認識の信頼値とモデル信頼値の差が大きい場合に新しい顔認識モデルを生成する手段とがさらに含まれる。差の大きさは、所定の閾値、変化率、全体的な変化量、変化の急峻さまたは速度、および変化の持続時間の使用など、様々な方法で決定することができる。
本発明によって企図される他の実施形態は、機械またはコンピュータ処理装置にそこに記憶された命令またはデータ構造を実行させるために、機械または処理装置によって読取り可能な命令またはアルゴリズムのプログラムを有形に実施または保持するコンピュータ可読媒体およびプログラム記憶デバイスを含む。そのようなコンピュータ可読媒体は、汎用または特殊目的コンピュータによってアクセスできる任意の利用可能な媒体とすることができる。そのようなコンピュータ可読媒体は、たとえばRAM、ROM、EEPROM、CD−ROM、DVD、または他の光ディスク記憶、磁気ディスク記憶、もしくは他の磁気記憶デバイスなどの物理的なコンピュータ可読媒体を含むことができる。汎用または特殊目的コンピュータによってアクセスできるソフトウェアプログラムを保持または記憶するのに使用できる任意の他の媒体も、本発明の範囲内であると見なされる。
本発明の上記その他の態様および目的は、以下の説明および添付の図面と一緒に考慮するとよりよく認識および理解されるであろう。しかし、以下の説明は、本発明の好ましい実施形態およびその多数の特有の詳細を示すが、限定するものではなく例として与えられることが理解されるべきである。本発明の精神から逸脱することなく、本発明の範囲内で多くの変更および変形を加えることができ、また本発明は、すべてのそのような変形を含む。以下の図は、寸法、角度関係、または相対位置に関して正確な縮尺で描写したものではない。
意味論的な顔のキューに基づいて画像または画像のセットが分析されるデジタル画像分析処理を実行するシステム図である。 ローカルユーザとカメラを含む電子デバイスとの相互作用の図である。 ローカルユーザとカメラを含む電子デバイスとの相互作用の図である。 本発明の一実施形態に有用なハードウェアおよびソフトウェア構成を示す図である。 事前の画像取込みを必要とする認識モデルの更新処理を示す流れ図である。 82個の顔の特徴点を有する顔特徴モデリング構造を示す図である。 顔の参照画像の一般的な概念を示す図である。 顔の参照画像の一般的な概念を示す図である。 様々な顔または頭部のポーズを示す図である。 顔認識タスクに対する顔を比較する類似性スコア分布の訓練またはグランドトゥルースのセットの概念を示すグラフである。 複数の人物の世帯に対する類似性スコア分布を示すグラフである。 顔の測定基準および対象認識の信頼値の経時的な変化の長期的なグラフである。 画像分析写真認識システムの実施形態と本発明の認識モデル更新処理の流れの実施形態との相互作用を示す図である。
デジタル写真は、画像の取込み、使用、および共有に対する消費者の挙動に大きな変革をもたらしたが、意味情報と画像の関連付けは、匿名のデジタルファイル構造によって妨げられる。画像データファイルが電子記憶デバイス内に集まるにつれて、画像は、典型的な靴箱の4”×6”の写真より扱いにくくなることがある。様々なタイプの消費者入力またはソフトウェア自動化(取込み条件、写真分析などに対して)によって、ファイル名を変化させることができ、またメタデータを画像に関連付けることができるが、これらの関連付けを強固にするのは困難である。
一態様では、顔認識および識別アルゴリズムを進化させることは、人間の干渉の必要性を低減させながら、人物および人物の識別情報を電子画像と関連付ける写真ソフトウェアの能力を改善することである。具体的には、これらの方法は、個人の1つ以上の参照または基線画像を個人の識別情報に関連付けるグランドトゥルース開始ステップに依拠する。個人ユーザは、その個人または他の個人の画像、ならびに付随する識別情報、および他の関連する意味情報(年齢、血縁、性別、民族など)を提供することができる。次いで、写真ソフトウェアは、これらの基線画像、およびそこから導出されるデータ(顔モデル、外観モデル、および複合モデルを含む)、ならびに意味データを使用して、後に写真コレクションの画像内で個人を認識し、これらの画像にタグ付けまたはリンクを行うことが予期される。
この点を説明するために、図1は、意味に基づくデジタル画像分析処理のためのシステム300の一般的な動作を示す。システム300では、イベントマネージャ320、人物ファインダ330、および個人認識分類器340を含む様々なアルゴリズムによってデジタル画像コレクション315が分析される。この目的は、ユーザ100(図2aおよび2b)が、ユーザインターフェース265を介して、デジタル画像コレクション315を含むデータベース310にうまく問い合わせて、1人以上の当該の人物を含む画像および映像を発見できるようにすることである。代わりに、ユーザ100は、画像分析システム300を使用して、新しく利用可能な画像または画像コレクション内で当該の人物を、後に使用するために自動的に識別することができる。
これを可能にするためには、新しい画像もしくは画像コレクション、または映像を分析して、その中の人物を識別しなければならない。人物ファインダ330は、人物検出器332を使用して、たとえば身体のような形状の位置を突き止めることによって、写真または画像内で人物を発見することができる。人物はまた、顔検出器334を使用して発見することができる。顔検出器334は、局部特徴検出器336を使用して、顔または顔の一部を発見する。顔検出器334はまた、顔のポーズを推定するために、ポーズ推定器を含むことができる。既知の人物に関連する特徴は、関連する特徴検出器を使用して識別することができる。人物ファインダ330は、画像内で検出された人物それぞれに対して個人の特徴338を出力することが好ましい。図5aに示し以下に説明するように、個人の特徴は、特有の顔の特徴に関連付けられた82個の特徴点の位置を含むことが好ましい。目の色、皮膚の色、髪の色、顔の形状、性別、身体の形状、身体の寸法、または衣服(色、質感、模様)などの他の個人の特徴338は、潜在的に、適切な定量化可能な記述子を使用する出力として提供することができる。人物認識タスクは、最大数の顔の点(1〜82)にアクセス可能であるため、正面のポーズで最も容易であることが明らかである。
個人の特徴338は、個人認識分類器340への入力として提供され、個人認識分類器340は、個人の識別情報(人物の名前)を画像または画像コレクション内に描写された人物の特定の画像にリンクさせようとする。これには、識別情報、家族関係、年齢、性別、および顔モデルデータを含めて、個人に関する意味情報を含むことができる人物プロファイル345が鍵となる。人物プロファイル345は、好みの活動、家の住所、およびGPS座標、ならびに家の画像のコレクション(イベントのクラスタ化を助けることができる)を含めて、人物の特徴的な特性を含む関係データベースを含むことができる。本発明の一実施形態は、所定の住宅に居住する人物に対する認識モデルを維持することに重点を置くが、認識モデルを含めて、非居住者に対する個人のプロファイルも同様に使用することができる。
別の態様として、人物プロファイル345はまた、プロファイルされた個人それぞれに対して、関連する認識モデル350を含み、またはこれらの認識モデル350にリンクされる。これらの認識モデル350は主に、顔認識モデル352[固有の顔モデル、外観モデル(どちらも2次元)、髪モデル354、または声もしくは歩容モデル(映像の場合)など]を含む「グランドトゥルース」生体測定データを含む。これらはすべて、個人認識分類器340によって使用することができる。認識モデル350は、関連する期間にわたってタグ付けされ、したがって時間的に関連する認識モデルを使用する認識タスクを通じて、以前、現在、および後の画像を処理することができる。具体的には、個人の頭部および顔のポーズに基づく3次元モデルである複合モデル360を使用することもできる。識別を容易にするために、複合モデル360は、当該の画像に対する推定されるポーズ角度まで回転され、次いで特徴の整合が試みられる。好みの活動または衣服データ356を含む生体測定によらない個人の挙動情報を使用することもできる。個人認識分類器340は、利用可能なデータの一部分を使用して人物の画像と個人の識別情報(人物の名前)をうまく整合させ、次いで人物分類370を出力すると理想的である。人物分類は、非対象(未知または追跡していない人物)、対象[またはエドワード、アシュレー(いとこ)、祖母エミリー、もしくはマイケル=バーンズ(友人)などのユーザ]、あるいは不確実な識別を含むことができる。特に本発明の一実施形態に対する追加の出力として、対象認識の信頼値470、顔の測定基準475(図7)、および他の状態尺度を決定することができる(測定基準計算ステップ375を使用)。対象認識の信頼値470は、人物ファインダ330によって検出された人物が当該の人物であるとシステムで推定される可能性(確率)を示す。
平行して、イベントマネージャ320は、取込み時間分析器322およびイベント特徴分類器326を使用する評価に基づいて、デジタル画像サブセットを関連する期間にクラスタ化することによって、画像管理および整理に寄与することができる。取込み時間分析器322は、デジタル画像または映像が取り込まれた時間を決定し、その画像取込み時間を出力する。たとえば、EXIF画像形式では、画像または映像取込みデバイスは、画像または映像に関連付けられた情報をファイルヘッダ内に記憶することができる。「日付\時間」エントリは、画像が取り込まれた日付および時間に関連付けられる。GPS位置を含む他の取込み条件メタデータも使用することができる。イベント特徴検出器324は、画像データを検査して、1つ以上の画像内に存在する画像属性(形状、色、パターン、文字、人物クラスタ化などを含む)を識別および分類する。人物ファインダ330からのデータを使用して、複数の画像にわたって共通の人物をリンクさせることができる。次いで、イベント特徴分類器326は、これらの識別された属性と、食事、パーティ、スポーツ、または結婚式などの認識可能な人間の活動とを関連付けようとする。イベント分類は、同一出願人によるルイ‘411およびルイ‘556特許に記載の方法を使用して完成させることができる。利用可能な場合、個人のカレンダ情報などの他の意味データを使用することができる。それによってイベントマネージャ320は、イベント属性と所定の画像をリンクさせて、所定のイベントに関連付けられたデジタル画像コレクションサブセットを識別する。この出力は、イベント特徴328として提供される。
イベント特徴データ328および人物分類データ370を合わせて、画像分類380を完成させる。画像分類380は、出力データをデータベース310に戻す。人物分類データ370を使用して、1人以上の既知の人物と所定の画像および画像のセットをリンクさせることができる。個人の関係によりイベントで人物が繰り返しクラスタ化されるので、グループのクラスタ化は、識別情報の判断とイベント認識の両方に役立つことができる。その結果得られる画像分類データをデータベース310に追加することができ、またユーザ100に問い合わせて識別結果を認証することができる。
しかし、前述のように、画像内の個人の自動化されたソフトウェア識別の成功は、個人の身体的な外観の変化によって悪影響を受けることがある。人物の外観は、加齢、挙動上の要因(化粧品の使用、日焼け、もしくは髪型の変化)、運動、健康上の要因、美容整形、または他の理由のために時間とともに変化する傾向がある。その結果、グランドトゥルースデータの確立後の個人の外観の関連する変化に関する知識を欠いているので、グランドトゥルース画像データおよび意味データの確立されたセットを使用する自動写真認識は失敗することがある(永続性の減少)。失敗の別の要因は、グランドトゥルース画像データ内に変動するポーズおよび照明下の画像例が存在しないことである可能性がある。たとえば、グランドトゥルースライブラリは、屋外照明下のプロファイル図または画像を欠いていることがあり、新しい画像内でこれらの条件に遭遇すると認識に失敗する可能性がある。デジタル画像内の個人の認識の成功率が低下するにつれて(図7の対象認識の信頼値470の低減によって測定できる)、ユーザのフラストレーションは増大する可能性が高い。ユーザに問い合わせて意味情報を更新できるが、識別情報にリンクされた顔認識モデルが更新されない場合、認識に失敗し続ける可能性がある。1つの手法として、同一出願人によるローサー‘343出願は、そのような身体的な変化を補償するために、画像変形によって個人の複合モデルを変えることを示唆している。別の手法として、同一出願人によるギャラガー‘624出願は、年齢に基づく予定に従って、データベース310に入ってくる新しい画像を使用して個人の新しい外観モデルを生成する方法を予期する。しかし、個人の外観に対する身体的な変化がかなり劇的である場合、利用可能な画像を使用する画像モデルの変形と予定された認識モデルの更新のいずれも、後の認識中の成功率を改善するには十分でない可能性がある。
概念的には、本発明の好ましい実施形態の意図は、既存のグランドトゥルース画像データに対して既知の個人の画像を評価して、人物識別を強化するために新しい画像が必要かどうかを決定できるということである。具体的には、本発明の好ましい実施形態は、既知の個人の外観変化を事前に評価し、次いで画像データを事前に取得または使用し、この画像データから、顔および認識モデルデータを適宜導出できるシステムまたはデバイスを予期する。たとえば、住宅内に位置する画像取込みデバイス(カメラ)は、時間の経過とともに、継続的であるが恐らく断続的に、1人以上の個人の画像を取得することができる。もちろん、人物は、識別情報に関する視覚的な知識を主に顔の特徴から導出するので、顔画像の取込みが強調される。さらに、画像の長期的な記録、または画像から導出された識別情報属性に関するデータは、日付にリンクさせたグランドトゥルース画像(モデル)データセットとして蓄積することができる。写真分析ソフトウェアによる写真認識中に、画像から導出されたデータのこの長期的な記録(顔および頭部モデルを含む)を使用して、画像内の個人をアルゴリズムで識別する上での不確実さまたは誤りを低減させることができる。以下により詳細に論じるように、本発明の好ましい実施形態は、1つ以上の住宅内カメラを使用して必要に応じて適切な画像を取得し、次いで図1に示すような写真認識システム300内で使用される顔モデル352または複合モデル360に必要な画像から導出されたデータを提供することである。
カメラは、家または住宅内で見ることができる様々な一般的なまたは潜在的に一般的な電子デバイスのいずれかに付随させることができると考えられる。たとえば、図2aに示すように、ローカルユーザ100は、潜在的な画像取込みイベント400中に、机で作業し、コンピュータ220を使用している。コンピュータ220は、画像取込みデバイス(カメラ)230を有する。画像取込みデバイス230は、ウェブカメラとすることができる。この例では、コンピュータ220の電子表示装置240のスクリーン245が、別の人物の画像を描写している。この画像は、写真の静止画であっても、生の映像画像であってもよい。ローカルユーザ100が机での活動に携わっている間、恐らくコンピュータを使用しているか否かにかかわらず、カメラ230は、本発明の好ましい実施形態の目的を含む様々な理由のために、ユーザ100の画像を取得することができる。カメラ230は、角度θ内からの光を取り込んで撮像する。カメラ230は、デジタルカメラ、ビデオカメラ、携帯電話カメラ、ウェブカメラ、テレビ電話、ビデオゲームシステムカメラ、または健康監視カメラを含む様々な潜在的な電子デバイスによって提供することができる。
カメラ230は、ローカルユーザに意識してカメラ230に対してポーズを取らせる必要なく、存在を感じさせずに必要な画像を取得できることが好ましい。ウェブカメラがコンピュータ220に取り付けられた図2aの例では、本発明の好ましい実施形態の目的のためにローカルユーザ100の画像取込みを可能にでき、一方図2bは、本発明の好ましい実施形態における代替の例示的な画像取込みイベント400を示す。図2bに示すように、ローカルユーザ100は、壁掛け式電子画像デバイス210のスクリーン245上に描写された画像を見ている。電子画像デバイス210は、フレーム250の上部部分に沿って配置されたカメラ230をさらに備える。電子画像デバイス210は、テレビジョンまたは映像通信デバイスとすることができるが、デジタル画像を表示する電子写真フレームであることが好ましい。したがって、デバイス210はカメラ230を、顔認識ソフトウェアおよび意味論的関連付けソフトウェアと組み合わせて利用して、個人ユーザ100を識別し、次いでその個人に関連付けられた画像にアクセスして表示することができる。この文脈では、カメラ230は、画像を見た経験を個人化することによって、デバイス210がユーザ100に直接的な利益を提供することを可能にする。さらに、本発明の好ましい実施形態の目的のため、次いでこの同じデバイス210は、カメラ230、前述の顔認識ソフトウェア、および本発明の好ましい実施形態の他の寄与する構成要素を使用して、静止画または映像画像内の人物の認識の上で永続性を可能にする画像を取得することができる。この場合、デバイス210を電子写真フレームとして用いることで、能力(人物の認識の改善)が潜在的な利益(意味論的にリンクされた画像を見ること)に直接結合される。そのような結合は、ウェブカメラ、テレビ電話、または他のデバイスを介して能力を可能にすることと比較すると、美的に望ましく、また侵入性をあまり知覚することなくこの能力が消費者にますます受け入れられるようにすることができる。また、人は写真を見るとき立ち止まる傾向があるので、本発明の好ましい実施形態に必要な品質画像を取得する機会が長くなる。
図2bに示すように、電子画像デバイス210は、電子(またはデジタル)写真(フォト)フレームとすることができ、コンピュータ220は、ローカルで配置され、または無線リンクによって遠隔で接続される。電子写真フレームの基本的な要素は、W.エドワーズによる米国特許第4,754,271号に記載されており、これには電子表示装置(LCD)、メモリ、支持回路、およびユーザインターフェースが含まれる。現在になってようやく一般的になってきたデジタル写真フレームは、エドワーズ‘271によって予期されるより多くの能力を備えることが多い。たとえば、アガワルらによる同一出願人による米国特許第6,509,910号は、PCまたはサーバと接続しなくてもデジタル画像およびオブジェクトを共有できるメディアフレームを予期する。したがって、Kodak EasyShare EX1011 Digital Picture Frameなどの電子フレームにより、無線コンテンツ転送、音声再生、コンテンツ視聴制御、および他の特徴が可能になる。
特許技術および技術文献では、他の特徴および能力をデジタルフォトフレームに適合させることが引き続き考察されている。一例として、CHI(Computer Human Interaction)、2006年の議事録に発表されたJ.キムらによる論文「Cherish:Smart Digital Photo Frames for Sharing Social Narratives at Home」では、無線対応デジタル写真フレームは、分散型のスマートホームセンサと接続して家の中の個人を検出し、適切な画像にアクセスすることが予期される。別の例として、CHI2001年議事録に発表されたエリザベスD.マイナットらによる「Digital Family Portraits:Supporting Peace of Mind for Extended Family Members」に記載のデジタル写真フレームは、画像が標準的な静止写真(電子的に表示される画像ではない)であるデジタル写真フレームを予期しており、境界フレームが毎日デジタルで変化して、写真の中に描写される人物についての関連する情報(健康など)を伝達する。カメラ230を電子写真フレーム(図2bに示すデバイス210)に追加すると、見る人の顔認識を使用してコンテンツ描写をその人に調整することを含めて、能力を強化することもできる。
本発明の好ましい実施形態の場合、好ましい実施形態では、デジタル写真フレームである電子画像デバイス210にカメラ230を付随させる。カメラ230は通常、撮像レンズと撮像センサ(どちらも図示せず)の両方を有する電子画像取込みデバイスであり、静止画像または映像画像を取得することができる。撮像センサは、当技術分野では周知のCCDまたはCMOSタイプの撮像器とすることができる。カメラ230はまた、画像取込み処理がユーザの位置を突き止めもしくはユーザを追従し、または接写画像を取得できるように、パン、傾斜、またはズーミング機能を備えることができる。図2aおよび2bに示すように、カメラ230は、電子表示装置240の上で、フレーム250の上縁部に取り付けられる。しかし、カメラ230は、表示装置240の側面もしくは下縁部に沿って取り付けることもでき、または代わりに、電子画像デバイス210(もしくはコンピュータ220)から取り外して無線リンクを介して通信することもできる。カメラ230はまた、表示装置240の後ろに位置決めすることができ、したがって表示装置自体を通ってユーザ100を撮像する。そのような「見る表示装置」デバイスの概念は、先行技術では知られている。1つの例示的なデバイスは、マニコらによる「Image Capture and Display Device」という名称の同一出願人による米国特許第7,042,486号に記載されている。このタイプの他の例示的なデバイスは、マックネリーらによる「Pass−Through Reflective Projection Display」という名称の米国特許第5,639,151号、およびタニカギによる「Picture display−Image Pickup Apparatus」という名称の米国特許第4,400,725号に記載されている。
本発明の目的のため、好ましい実施形態は、住宅内の個人の現在の画像を継続的であるが断続的に、恐らく毎日、毎週、毎月、毎年、またはより長い周期で取得することである。本発明の好ましい実施形態の目的を、侵入性を感じることなく人が容易に受け入れるような存在を感じさせない方法で実現することも好ましい。確かに、画像取込みが行われていることを個人に警報することができ、またさらには、処理を助けるために様々なポーズで頭部を回転させるように求めることもできる。しかし、ユーザの不快感およびぎこちないまたは誇張された挙動の発生を低減させることも望ましい。したがって通常、人が自然の条件下から追加または代替の価値を導出する電子デバイス210を介して、本発明の好ましい実施形態の能力を提供することが好ましい。したがって、図2aおよび2bに示すように、本発明の好ましい実施形態は、人が頻繁に使用するコンピュータ、デジタル写真フレーム、ウェブカメラ、またはテレビ電話などの電子画像デバイス210内で、好ましい実施形態を使用して実現することができる。例示的なテレビ電話は、A.カーツらによる「A Residential Video Communication System」という名称の同一出願人による米国特許出願第11/756,532号に記載されている。
身体(頭部)のポーズおよび照明などの画像取込み条件は、むしろ変わりやすいことが予期される。たとえば、住宅内の室内照明は、写真スタジオの場合よりはるかに変わりやすいが、また通常、消費者の写真で通常見られる写真の範囲(屋内、屋外、昼間、夜間など)ほど変わらない。頭部のポーズは任意の所定の瞬間で変わりやすいが、個人(ユーザ100)はデバイス210を使用するので、本発明の好ましい実施形態の写真認識の目的のために画像を取得できる頭部位置の真正面、側面、および背後の範囲にわたって自然に位置決めされることが予期される。しかし、取込み条件がより変わりやすいので、画像取込み、画像処理、およびデータ抽出は、スタジオ条件で取り込んだ写真より困難になる可能性が高い。
本発明の好ましい実施形態では、画像内の個人の永続的な認識を可能にする方法は、図3により詳細に示す認識モデル更新システム200の好ましい実施形態を含むハードウェアとソフトウェアの組合せによって支持される。システム200は、電子画像デバイス210を特徴とする。電子画像デバイス210は、電子写真フレーム、テレビ電話、またはウェブカメラを有するTVもしくはコンピュータとすることができ、この場合も、カメラ230および電子表示装置240(LCD、OLED、または他のタイプ)を含み、筐体255のフレーム250内にスクリーン245が配置される。デバイス210はまた、ユーザインターフェース制御部260と、マイクロフォン270と、音声を放出するスピーカ272と、運動検出センサ274と、周囲光検出器276とを有することができる。デバイス210はコンピュータ220にリンクされる。コンピュータ220は、内部に、またはネットワークリンクを介して提供することができる。コンピュータはシステム制御装置280にリンクされ、システム制御装置280は、カメラ230、表示装置240、ユーザインターフェース制御部260、運動検出センサ274、および他のハードウェア構成要素の動作を制御する。コンピュータ220はまた、メモリ(またはデータ記憶域)222、通信制御装置224、画像処理装置235、ユーザインターフェース265、ユーザ追跡(またはアルゴリズム)290、およびユーザ識別ソフトウェア/処理285にリンクされる。本発明に特有のまたは密接な関係があるアルゴリズム、プログラム命令、またはソフトウェアは、DVDまたはフラッシュドライブなどのプログラム記憶媒体を介してメモリ222内にロードすることができる。通信制御装置224は、ネットワーク(図示せず)にリンクされる。破線は、デバイス210内の可能なデータ通信経路のサブセットを表す。
ユーザ追跡処理290は、運動検出291、声検出292、顔検出293、ポーズ検出294、または照明検出295を含む環境感知処理またはソフトウェアアルゴリズムによって可能になる。ユーザ追跡処理290は、画像取込み中、顔追跡に簡略化することができる。マイクロフォン270、運動検出センサ274、周囲光検出器276、およびカメラ230から導出される信号は、これらのアルゴリズムによって行われる計算のための入力データを提供する。図3の対象(ユーザまたは人物)検出および追跡処理290は、実際のイベントにリアルタイムで対処することを除いて、図1の人物ファインダ330に類似している。音声処理装置(図示せず)を含むこともできる。ユーザインターフェース265は声認識技術を含むことができ、ならびにユーザインターフェース制御部260の一部としてタッチスクリーンを含むことができる。
図3に示す認識モデル更新システム200の大部分は独自のものではない。たとえば、表示装置240、カメラ230、および画像処理装置235は、標準的なコンピュータまたはテレビ電話システムの一部として提供することができる。同様に、ユーザ追跡処理290およびユーザ識別処理285は、自動化を備えたテレビ電話または健康監視システムを含む様々なインテリジェントデバイスによって使用できる構成要素である。図3に示す認識モデルのインテリジェントエージェント420は、本発明の好ましい実施形態に関係する独自の態様であり、画像内の人物を認識する上で永続性を可能にするのに有用な画像および画像から導出されたモデルの必要性を予期して実現する特殊ソフトウェアアルゴリズムを含む。認識モデルのインテリジェントエージェント(AI)420は、一連の相互に作用するアルゴリズムおよびデータベース、命令のプログラム、人工知能、学習システム、またはニューラルネットワークを含むことができる。
図4は、認識モデルのインテリジェントエージェント420が、画像内の個人の認識の上で永続性を継続して可能にするためにそのアルゴリズムまたは同等の論理を実行するとき、画像取込みイベント400中に行うことができる認識モデル更新処理410を示す。第1のステップ(430)では、電子デバイス210およびカメラ230の前で、運動検出291、声検出292、または他の技法を使用して人物(ユーザ100)が検出される。第2のステップでは、顔認識に対して良好な画像を取得するためにユーザ追跡処理290およびポーズ推定の支持を得て、カメラ230によって潜在的な対象の初期画像取込み431が得られる。その後、ユーザ追跡処理290は潜在的な対象を引き続き監視することができ、その対象は、住宅の既知のユーザ100として認証される。このユーザ識別ステップ432中、対象の最善の(または十分な)新しく取り込んだ画像が、認識モデルデータベース450または人物プロファイル345からの既知のユーザ100に対して利用可能な事前に確立された認識モデル350(顔モデル352、複合モデル360、または参照画像358)と比較される。対象がAI420にとって当該の既知のユーザではないと決定された場合、それに応じて決定ノード445に信号で伝え、カメラ230による対象追跡290および画像取込みは、(決定ノード445を通って)取込み停止ステップ434を介して停止される。対象識別情報が不確かである場合、ユーザに問い合わせることができる(ステップ443)。
しかし、ユーザ識別ステップ432で、(対象認識の信頼値470を介して測定すると高い確率で)対象が当該の既知のユーザ100であると決定された場合、それに続いて状態試験433が、新しい画像が必要かどうかを決定する。返答が肯定的である場合、決定ノード445に信号で伝えられ、決定ノード445は、認識モデル更新処理410に、写真収集状態を継続させる(画像取込み435の継続)。肯定は、年齢試験を含む様々な理由に基づいて行うことができる。年齢試験では、ユーザ年齢および最近の認識モデルの開始日を考慮する。1つ以上の処理中認識モデルを完成させるのに必要な標的画像のセットがまだ完全でない場合にも、肯定的な返答を行うことができる。状態試験返答はまた、対象認識の信頼値470によって測定される(測定基準計算ステップ375)ユーザ外観の変化の検出に基づいて、または他の顔特徴測定基準(475)によって測定される独自のもしくは著しい顔の特徴のはっきりとわかる変化によって行うことができる。ユーザ年齢データ、認識モデル年齢、または完全性データ、およびユーザ外観データの長期的な変化は、メモリ222内に記憶される認識モデルデータベース450によって供給することができる。これらの基準のいずれかにより状態試験433が肯定的な返答をもたらす場合、認識モデル更新処理410は、認識モデル画像取込み435のステップに続く。しかし、これらの様々な基準すべてが否定的な返答をもたらす場合、決定ノード445を介して画像取込みが停止される(ステップ434)。
したがって、返答が肯定的である場合、認識モデル画像取込み435は、状態試験433の経過中に認識モデルデータベース450から識別される何らかの標的画像を探求して、カメラ230を介して、識別したユーザ100のグランドトゥルース標的画像の新しいセットの取得を試みる。後に論じるように、対象(ユーザ100)の探求される標的画像は、様々な異なる顔のポーズおよび照明条件に及ぶことがある。画像取得(ステップ435)は、対象(および顔)追跡によって助けられて進む。新しい対象画像が取り込まれると、画像品質(画像寸法、コントラスト、照明、および分解能など)ならびに対象ポーズ(良好なポーズか、所望の標的ポーズか)に基づいて、それらの画像の妥当性を試験することができる(ステップ436)。画像が十分である場合、後の使用のためにタグ付けされて保存され(ステップ437)、また対象が離れるまで、またはすべての所望のグランドトゥルース標的画像が得られて取込み停止434がトリガされるまで、画像取込み(ステップ435)および画像取込み試験(ステップ436)は画像取込みループ425内で継続する。画像取込み(ステップ435)が終わると、利用可能な対象画像のコレクションを検討して(ステップ438)、認識モデル(複数可)を生成できるかどうかを決定することができる。次いで検討の結果が、モデル生成に対して個人のグランドトゥルースセットを完成させるのにより多くの標的画像が必要か(否か)を示す状態試験(ステップ433)に供給される。
対象画像の必要なコレクションが利用可能であるとき、1つ以上の認識モデル350を生成することができ、画像正規化(ステップ439)から始まり、その後に画像分析(ステップ440)およびモデル生成(ステップ441)が続く。これらのタスクは、オフライン(非リアルタイム)で完成させることができる。完成した認識モデル350は、認識モデルデータベース450および人物プロファイル345に供給することができる。画像分析ステップ(440)は、画像データと認識モデルの両方で動作することができる。その機能には、画像を分析して、顔質感モデル(色を含む)および顔幾何形状モデル(顔の点、頭部形状)に対するデータを導出すること、ならびに画像内の人物認識に有用となりうる対象認識の信頼値470を計算することが含まれる。このステップはまた、顔の特徴を長期的に追跡する尺度(顔の測定基準475)を導出するため、または新しく生成された認識モデルと対象に対する以前のモデルもしくは画像とを比較するための分析を含むことができる。新しい認識モデル、顔の測定基準475、および対象認識の信頼値(470)の計算が完了すると、認識モデル更新処理410に対して取得した標的画像を任意選択で削除することができる(ステップ442)。AI420は、様々なこれらの機能を支持するが、特に画像正規化439、画像分析440、認識モデル生成(ステップ441)、ユーザ識別432、状態試験433および状態監視(ステップ438)、ならびに画像試験436を支持する。
前の議論では、参照画像358を含む様々な顔画像およびモデルについて述べた。図5aは詳細な82点の顔モデル(90)の概念を示し、一方図5bおよび5cは顔の参照画像358の概念を示す。82個の顔の特徴点は、IS&T PICS Conferenceの議事録、226〜231頁、2002年内のボリンおよびチェンによる「An Automatic Facial Feature Finding System For Portrait Images」に記載のアクティブ形状モデルに基づく方法に従って定義される。ボリンおよびチェンの方法は、局部的な質感の整合を使用して特徴点を局部化し、続いて訓練例から学習した全体の形状制約を適用する。図5aは、顔上の特徴点の位置を示す。図5aの顔の点モデル90は顔検出および認識に有用であり、後により詳細に論じるが、あまり詳細でない画像、図5bおよび5cの参照画像358も有用なことがある。参照画像358は、明るく照らした条件下で取り込んだ、あまり詳細でない正面に基づく画像モデルである。参照画像358は、実際の画像(図5b)として、または簡略化した顔モデル(図5c)として記憶することができる。顔の点(約8〜20個)の低減させたセットを使用していくつかの目立った参照特徴92を表すことに基づいて細部を低減させることで、取り込んだ画像による対象識別を促進することができる。そのような参照特徴92は、目130間の眼間距離を含むことができる。他の例示的な選択された顔の参照特徴は、口135、顔125を横切る頬と頬の距離、目の中心線と鼻140の距離に関係するものとすることができる。さらに、側面の参照画像358を生成して使用することもできる。初期画像取込み431および画像取込みループ425活動中、参照画像358は、画像取込みおよび対象追跡、ならびにポーズ追跡およびポーズ推定に特に有用となりうる。
画像から個々の人物を認識するタスクは、様々な顔モデル352、複合モデル360、および髪モデル354を含めて、様々な顔の属性を定量化またはモデリングする様々な認識モデルによって支持することができる。明るく照らした正面(真正面)の画像は、多くの認識モデルにとって有用な入力であるが、それらの中には追加の入力画像を必要とするものがある。具体的には、前に論じたように、ペントランドの固有顔モデル、アクティブ外観モデル(AAM)、およびアクティブ形状モデル(ASM)はすべて、真正面または正面の画像を利用する2次元モデルである。一方、ASMの顔特徴点の手法を複数のポーズに拡大する複合モデル手法(360)は、標準的な正面画像に加えて複数のポーズの画像を必要とする。同様に、ヤコブの髪モデルは、典型的な正面画像に加えて様々な非正面ポーズからの画像の取得を必要とする。
したがって、本発明の好ましい実施形態は、対象(ユーザ100)の適切な画像を事前に取得することによって1つ以上の有用な認識モデル350を支持できる認識モデル更新処理410を予期し、認識モデル更新処理410から、モデル(複数可)を事前に導出することができる。具体的には、本発明の好ましい実施形態は、異なるポーズおよび照明条件に及ぶ対象に対する標的画像の十分なセットを得て、その個人に対する完全な3次元複合モデルを組み立てることを予期する。処理(画像分析ステップ440)の一部として、取込みループ425を介して取得した標的画像のコレクションから、顔の点モデル90を支持するデータが導出される。顔の点モデル90は、公称では図5aに示す82個の特徴点を使用する。そのデータを使用して、複合モデル360が、モデル生成ステップ441を介して生成される。本発明の好ましい実施形態は、標的画像を体系的に探求してより完全な複合モデル360を組み立てる事前手法を予期する。さらに、論じるように、本発明の好ましい実施形態はまた、画像を用いる人物認識タスクの成功の減少を示しうる複合モデル360の品質ならびに他の測定基準を事前に長期的に追跡することを予期する。次いで、既存の認識モデルが対象の外観を減少した精度で表すとき、新しいモデルを生成して、認識の永続性を拡大させることができる。本発明の好ましい実施形態は、様々な対象ポーズに対処できる能力のため、複合モデル360を生成することを優先的に予期するが、AAMまたはASM手法を使用して、簡略化された2次元正面モデルを支持することもできる。たとえば、AAM手法に必要な高周波の質感に関連するデータは、画像分析ステップ441中に画像から導出することができる。同様に、髪質感および形状モデルに必要なデータも導出することができる。人物の3次元ポーズデータを取り込みまたはモデリングする他の手法も有用なことがある。
上記の議論では、顔認識モデルの展望、および顔認識モデルと本発明の好ましい実施形態の関係について説明してきた。しかし、これらのモデルを画像分析システム(図1参照)における顔認識に使用することについて、明らかにすることができる。具体的には、認識されない顔と既知の顔のセットとの整合を試みるとき、認識ソフトウェアは、整合が存在するか否かを決定するのに拡大縮小または測定基準を必要とする。一態様として、顔認識システム(ソフトウェア)は、整合または不整合を表す特徴整合の統計の「訓練」を受ける必要がある。この訓練は、多くのラベル付き(既知)の顔に対する画像セットを含むグランドトゥルース画像ライブラリによって容易になる。これらの画像を分析して、一般的な(すなわち、少数の個人を標的としない)顔認識モデルを作製し、そこから類似性データおよび類似性統計を導出することができる。撮像された人物のサンプルグループは多様であるべきであり、また方法が使用されるときに予期される人口統計および条件を表すべきである。
導出した一般的なモデルデータを代わりに提供できるので、グランドトゥルース画像ライブラリを有するすべての認識ソフトウェアパッケージまたはシステムをロードする必要はない。顔画像および関連する顔認識モデルを統計的に分析して、類似性スコアを生成することができる。たとえば、図6aに示すように、たとえば対応する特徴点(1〜82)間のユークリッド距離またはシティブロック距離の加算を計算できるアクティブ形状の顔特徴点モデル(図5a)を使用することによって、認識モデルから類似性スコア460を算出することができる。類似性スコア分布460は、既知の顔と認識されない顔の整合を示す確率分布である。類似性スコア460の分布は、図6aに示すように、標的の顔が参照の顔に整合する場合(分布1)、および標的の顔が参照の顔に整合しない場合(分布2)に生成される。これらの分布は、システムの訓練段階中に取得した大量の(数千)または多数のラベル付きの例示的な顔画像からのデータに基づく。たとえば、データ例は、「N」人の個人を含むことができ、各個人の「M」個の例示的な画像が、様々なポーズおよび照明条件下で異なる時間に取り込まれる。次いで、各個人の参照認識モデルとこの個人の「M」個の例との間の類似性スコア460を算出することによって分布1が生成され、また各個人の参照認識モデルとすべての他の個人からの顔画像との間の類似性スコア460を算出することによって分布2が生成される。分布の垂直軸は、分布1の場合、両方の顔が同じ個人のものである確率を示し、分布2の場合、両方の顔が異なる個人のものである確率を示す。これらの分布から、所定の類似性スコアが本当の整合に対応する確率を決定することができる。分布1および2が交差する類似性スコアは同程度の蓋然性のある点であり、2つの顔が同じ個人からのものである、または異なる個人からのものである確率が等しい。この点より高い類似性スコアでは、同じ個人である可能性がより高く、より低い類似性スコアでは、異なる個人である可能性がより高い。
家族写真の分野では、顔認識上の問題には、少数(通常、十数人)の選択肢の中から所定の顔に対する正しいクラス(人物)を発見することが伴う。システムは、訓練段階で作製される世帯(または家族単位)に関連する通常少数の人物に対する類似性スコア分布のグランドトゥルースセット(図6a)および認識モデル(公称では複合モデル360)から始まる。世帯内の多数の個人に対して1つ以上の認識モデル(好ましくは複合モデル360)が収集された後、図6bに示すように、世帯の類似性スコア分布(分布3および4)を生成することができる。通常、血縁の個人(たとえば、兄弟)は類似しているため、世帯分布は、世帯内のグランドトゥルース分布(図6a)より多くの重複を示すことが予期される(すなわち、人物を見分けるのが困難なはずある)。世帯の構成員が著しく異なって見えるとき、世帯の類似性のスコアは、訓練セットの類似性スコア分布を使用するときより信頼度が大きくまた算出時間が低減された認識結果をもたらすことがある。他方では、配偶者など世帯内の個人は全く異なって見えることがある一方、その逆も起こる可能性がある。たとえば、兄弟または姉妹は、特に二卵生または一卵生双生児である場合、他の家族構成員にさえわかりにくいほどに、非常に似通って見えることがある。たとえば、スーザンとアシュレーが姉妹である場合、彼女らの顔の類似性は、人物識別のために追加の分析を必要とすることがある。このマルチクラスの顔認識上の問題は、ペアワイズ分類パラダイムを使用することによって解決することができる。このパラダイムでは、クラスの各対に対して2つのクラス分類子が設計される。ペアワイズ手法を使用する利点は、2人の人物間の実際の差が、データセット内の他の人物とは無関係に考察されることであり、これにより、特有の一対の個人にとって最も際立った特徴および特徴の重みを発見することが可能になる。ペアワイズ手法は、一部には同等の性能に必要な顔の特徴の数がはるかに少ないことから、すべての顔に対して同じ全体の特徴セットを使用する標準的な手法よりも顔認識性能を改善することができる。1つの特徴だけを使用して、いくつかの顔の対を完全に区別することができ、大部分は、特徴セット全体の10%未満しか必要としない。これは、使用される特徴が特有の個人間の主要な差を標的にするので予期される。複合モデル360の利益は、分析のために多種多様な顔の特徴を提供することである。さらに、傾向が現れると、独自の特徴に対する適応システムによって突き止めることができる。このペアワイズ手法は、データベースが少数の主な個人を含み、その中には家族の類似が存在することが多い家族写真の分野に適している。もちろん、たとえば一卵性双生児が成人であり、元の家族(または世帯)単位から独立して生活しているときなど、複数の血縁の世帯(関係のある世帯)にわたって共通または類似のペアワイズ顔測定基準を使用する必要があることがある。また、ペアワイズ測定基準の使用は、2人の個人に事実上限定されるものではなく、より大勢(一卵性または二卵生の三つ子など)に適宜拡大することもできる。
「N」人の主要な個人がデータベース内に存在する場合、N(N−1)/2個の2クラス分類子が必要とされる。これらの分類子は、顔の特徴点データ(図5a)、固有顔データ、質感データ、または他の顔データタイプに基づくものとすることができる。各対に対して、分類子は、その特定の対に対して最大の区別を提供する特徴セット全体からの特徴の重み付きセットを使用する。これにより、異なる人物の対に対して異なる特徴のセットを使用することができる。この方策は、顔の比較すべてに単一の特徴空間を使用する従来の手法とは異なる。人物区別実験で報告されるように、人間の視覚システムもまた、異なる対を区別するのに異なる特徴を使用する可能性が高い。これは、外見が非常に類似している人物、たとえば双生児を区別しようとしているときにより明らかになる。特有の特徴を使用して双生児を区別することができ、これは、異なる対を区別するのに使用される特徴(複数可)とは異なる。問合せ顔画像が到達すると、N(N−1)/2個の分類子それぞれに対してこの画像を評価して、肯定(分類子が存在)または否定の結果を決定する。分類子評価はまた、「ブースティング(boosting)」などによって、組み合わせて行うこともできる。ブースティングは、弱い分類子のコレクションを組み合わせてより強い分類子を形成する方法である。
類似性スコア分布460は、識別情報の整合または不整合を決定するのに有用な道具であるが、整合に成功した確率を監視または報告するにはそれほど有用ではない。この必要性は、対象認識の信頼値470を用いて実現することができる。対象認識の信頼値470(または信頼度レベル)は、属性(この場合、対象認識)の値に割り当てられる信頼度の尺度であり、百分率(0〜100%)または確率(0〜1)として表現されることが多い。所定の識別されていない顔の顔認識タスクの一部として、参照顔を使用して、またシステムに提供される分布(分布1および2)を使用して、その顔が参照顔(またはモデル)を有する既知の人物である確率を、類似性スコアから決定することができる。対象認識の信頼値470を定量化する1つの方法は、正規化された比P(同じ)/(P(同じ)+P(異なる))を算出することである。上式で、P(同じ)は、水平軸上の所定の類似性スコアに対する分布1からの確率であり、P(異なる)は分布2からの確率である。これは、高い類似性スコアの100%または100%付近の同程度の蓋然性のある点で50%の信頼度レベルをもたらし、類似性スコアが低減する(顔間の距離が増大する)につれてより小さくなる。
しかし、既知の対象(またはユーザ100)の外観が時間とともに変化するにつれて、複合モデル360を含むあらゆる現在の認識モデルの精度は、認識タスクでの使用に関して低減されることがある。外観の変化は、大小にかかわらず、一時的かそれとも長く続くかにかかわらず、発生することがある。たとえば、ユーザ100は、口髭または顎髭を伸ばし、次いでその後、数カ月後に剃り落とすことがある。参照または標準として口髭のない認識モデルを使用する認識タスク内で口髭を生やしたユーザ100を正しく識別する信頼度は、低減される可能性が高い。そのような外観の変化には新しい認識モデルを必要としないことがあるが、変化の中には、1つ以上の新しいモデルの作製を必要とするものもある。劇的であるが一時的な外観変化に適応できるように(たとえば、女性が髪を下ろしているか、それとも編んでいるかに対処するように)、複合モデルを含む複数の認識モデルを同時に維持して、並行する期間に及ぶようにすることができる。
図7に示すように、対象認識の信頼値470を用いて、認識精度の変化を時間とともに監視することができる。対象認識の信頼値470は、新しい認識モデルが作製されたとき(ステップ441)に最初に決定またはリセットされる(標的約1.0)。次いで図7が示すように、後の対象認識の信頼値470は、認識モデル生成後、個人の顔の特性が変化するにつれて減衰することができる。減衰または劣化は、徐々に(傾向線)または突然発生することがあり、現在の認識モデルの信頼性が減少している可能性の指標として、定義された変化検出基準に対して、パーセント変化、全体的な変化、閾値変化、または変化率(および持続時間)などの測定基準を使用して、減衰または劣化を追跡し、著しい変化を識別して測定することができる。認識タスク実行の成功の知覚における減衰または変化は、測定基準計算ステップ375中に写真認識タスク(図1)または認識モデル更新処理410(図4)の一部として計算できる変化測定基準(上記に示唆)を使用して測定することができる。このようにして、対象認識の信頼値470の突然のまたは長期の傾向線変化を測定するこのステップを用いて、インテリジェントエージェント420は、新しい認識モデルの必要性を識別できるほど十分な大きさを有する外観の変化を調べることができる。
別の態様として、個別の顔の特徴の計算および追跡も有用である可能性がある。たとえば、体重の増減とともに顔の幅がはっきりわかるほどに変化することがあり、脱毛がもとで髪の生え際が変化することがあり、また加齢または日光暴露とともにしわが発生することがある。関連する顔の特徴は、表1および2で示唆したように、顔の特徴点モデル(図5a)の顔の点からの計算を使用して定義することができる。たとえば、特有の顔の測定基準475は、インテリジェントエージェント420(図7参照)によって、容易に計算し(ステップ375)、次いで長期的に追跡することができる。これらの顔の測定基準475を使用して、顔の幅、髪の生え際、または特殊なペアワイズ属性を含む様々な特徴を追跡することができる。対象認識の信頼値470の場合と同様に、インテリジェントエージェント420は、現在の認識モデルの信頼性が減少している可能性の基準または指標として、パーセント変化、全体的な変化、閾値変化、または変化率(および持続時間)を使用して、著しい顔の測定基準475の変化を監視することができる。これは、顔全体を表すための単一の対象認識の信頼値470の演算で示唆される平均化処理では、微妙な顔の特徴の変化は強調されない可能性があるため、有用である。代わりに、感度を強化するために、重み付き平均化技法を使用して一般に変化しやすい顔の特徴を強調することによって、類似性スコア460または対象認識の信頼値470を計算することができる。
本発明の好ましい実施形態の様々な動作上および概念上の態様について、次に明らかにすることができる。たとえば、消費者が、認識モデルAI420を含む認識モデル更新ソフトウェアを、恐らく電子画像デバイス210の一部として住宅内に最初に持ち込んだとき、認識モデル更新システム200をその世帯に対して初期化する必要がある。新しいグループのユーザ100がまず認識モデル更新ソフトウェア(システム)の使用を開始するとき、ユーザ識別情報および意味データを含む様々なデータを入力するはずであることを予期することができる。具体的には、ユーザ100は、識別情報および年齢情報、血縁情報、ならびに少なくとも明るく概ね均一の照明条件下で取り込んだ正面の顔画像(パスポート写真画像または顔写真など)を供給するはずである。これらの画像は、図5bの参照画像358に概ね類似していることがある。入力は、キーボード、デジタルカメラ、写真スキャナ、または他の適切な方法を介して提供することができる。非居住者(祖父母または友人など)の走査した、デジタルの、または電子メールで送られた画像を含むこともできる。
通常、インテリジェントエージェント(420)のソフトウェアは、図5aの82個の特徴(アクティブ形状)顔点モデル90など、画像からの顔認識データを分析的に導出する。次いで、予備の認識モデルおよび参照画像358が生成されるはずである。その後、認識モデル更新システム200を使用して、認識モデル更新処理410を行うことができ、これらの予備のモデルは、初期画像取込み431を支持する。好ましい実施形態では、処理410は、各世帯居住者、ならびに各個人ユーザ100に適した顔の測定基準475および対象認識の信頼値470に対して、標的画像の完全なセット、次いで3次元複合モデル360を含む認識モデルを生成するはずである。
運動検出器291によってユーザ100が検出されると(ステップ430)、認識モデル更新システム200とともに電子画像デバイス210を使用して、画像取込みイベント400が開始する。運動検出器291は、音センサ(マイクロフォン270)、光強度センサ(周囲光検出器276)、もしくは運動を検出する光センサ、またはこれらの組合せを含むことができる。カメラ230はまた、たとえば画像領域ヒストグラムを使用して存在および位置を検出することによって、運動検出を支持することができる。次いで、運動検出器291およびカメラ230を使用できるユーザ追跡処理290で、電子撮像デバイス210に対する潜在的な対象の位置を追跡する。潜在的な対象がカメラ230の視野θに入ったと決定されると、初期画像取込み431を行って、1つ以上の初期画像を取得する。次いで、ユーザ識別処理432で意味識別情報データにアクセスし、顔認識ソフトウェア、音声認識ソフトウェア、または他の技法を使用して、既知のユーザ100の識別を試みる。この場合も、分析時間を低減させるために、識別(ステップ432)は、82個の顔の点構造に基づくASMまたは複合モデルなどのより詳細な認識モデルの代わりに、参照画像358を使用することができる。
高速識別のための他の選択肢として、デバイス210は、顔検出アルゴリズムを使用することができる。顔検出アルゴリズムは顔検出および顔認識に最適化されており、必ずしも顔のモデリングも支持するわけではない。例には、OKAO Visionなどの市販のソフトウェア、またはOpenCVソースコードを利用するSourceForge.netからのMPTなどのフリーウェアが含まれる。これらのパッケージはまた、正面のポーズを有することを前提としている。
初期画像取込み431中に得た画像を使用して既知のユーザ100を識別した後、状態試験433で、認識タスクにおける永続性を可能にするには認識モデリングに対して新しい画像が必要か否かを決定することができる。返答が否定的である場合、画像取込みを停止させ(ステップ434)、一方返答が肯定的である場合、画像取込みループ425を開始する。画像取込みループ425は、画像取込み(435)、画像試験(436)、および対象追跡(290)からなる相互に作用する処理である。ギャラガー‘624に示唆されているような年齢に基づく予定に対して、最近の認識モデル(特に複合モデル360)が古くなった場合、肯定的な返答を行うことができると最も簡単である。対象認識の信頼値470または顔の測定基準475(ステップ375)の変化によって測定すると、現在取得した画像(ステップ431および290)の分析に基づいて、最近の認識モデルが十分ではなくなったとインテリジェントエージェント420が決定した場合も、肯定的な返答を行うことができる。さらに、認識モデル更新処理410が1つ以上の認識モデルの完成を試みているが、標的画像の不完全なセットを有する場合、肯定的な返答を提供することができる。返答は、肯定的であるかそれとも否定的であるかにかかわらず、決定ノード445を通って送られて、取込みの停止(ステップ434)または画像取込みループ425をもたらす。別の選択肢として、ユーザ100は、新しい認識モデルの作製を要求することもできる。
同一出願人によるギャラガー‘624出願によって示唆されている年齢に基づく予定の手法について、より詳細に考慮することができる。例示的な年齢の進行として、0〜1歳の子供には4カ月ごと、1〜3歳の子供には6カ月ごと、また4〜16歳の子供または若年層には1年ごとに、新しい認識モデルを探求することができる。それ以降、年齢17〜23歳の間は2年ごと、その後5年に1回のタイミングを予定することができる。状態試験ステップ433中、ユーザの現在の年齢を年齢進行予定と比較して、新しい認識モデルが必要か否かを決定することができる。
しかし、前述のように、年齢に基づく予定の手法は、その個人に対する写真認識の成功率を減少させるユーザの外観の著しい変化を事前に識別して反応しない。一例として、ユーザ100には、ほくろ、傷跡(複数可)、および母斑の除去、脱毛、または眼鏡の使用など、独自の顔の特徴に関係する比較的突然の顔の特徴変化が生じる可能性がある。ユーザ識別または画像試験ステップ(それぞれ432および436)中に特徴の区分化および抽出アルゴリズムを行って、取り込んだ画像内でこれらの特徴の位置を突き止めることができる。インテリジェントエージェント420は、対象認識の信頼値470または顔の測定基準475を使用する有意性試験を適用し、独自の顔の特徴の変化が、更新された認識モデル(複数可)の作製に値するかどうかを決定することができる。返答は、肯定的であるかそれとも否定的であるかにかかわらず、状態試験ステップ433に対する入力として供給することができる。代わりに、あまり劇的でない変化(ユーザの口髭の成長など)の場合、インテリジェントエージェント420がメタデータで既存の認識モデルを増大させて顔の外観および日付の変化を表すだけで十分なことがある。別の選択肢として、個人が劇的な美容の変化(視覚的に顕著であるが一時的な髪型など)に対処するために、複数の認識モデル(複数の複合モデル360を含む)を並行して維持および使用することができる。顎髭の成長および後の除去など、劇的であるが一時的な外観変化に対する別の手法として、AI420は、新しい認識モデルを生成するのではなく、顎髭前の認識モデルを依然として確実に使用できることを決定することもある。
変化しうるが母斑または傷ほど独自または明白ではない他の顔の特徴も、画像内人物認識タスクに影響を及ぼすことがある。例として、体重の増減とともに顔の幅がはっきりわかるほどに変化することがあり、脱毛がもとで髪の生え際が変化することがあり、また加齢または日光暴露とともにしわが発生することがある。長期的な正規化グラフと年齢の関係である図7は、髪の生え際および顔の幅の経時的な変化を顔の測定基準475で示す。髪の生え際は、顔の特徴点58−66(図5a参照)から導出されるデータを使用して追跡することができ、一方顔の幅は、顔の特徴点79−81および68−70間の距離を使用して追跡することができる。別の例として、顔のしわは、表面粗度およびパターン分析のためのASM質感尺度を使用して追跡することができる。2人の外見の類似した人物を区別するペアワイズ顔分類子を、このようにして追跡することもできる。図7はまた、眼間距離(顔の特徴点0−1間の距離)に対する顔の測定基準475をグラフで示す。青年期を過ぎると、公称では、眼間距離は一生を通じて一定であるため、関連する顔の測定基準475を、他の顔の距離または面積に基づく顔の測定基準に対する参照または正規化値として使用することができる。
図7はまた、対象認識の信頼値470が時間とともに変化する概念を直接的に示す。インテリジェントエージェント420は、認識モデル更新処理410を介して個人ユーザ100に対する新しい認識モデルを完成した後、新しい基本値(1.0に非常に近接していることが望ましい)を計算する。次いで、画像分析システム300を介して(ステップ340および375を介して)、または認識モデル更新処理410に関連する画像取込みイベント400中に[状態試験、ステップ433および375を介して(図4および8参照)]そのユーザの後の画像が分析されるとき、新しい対象認識の信頼値470を計算することができる。インテリジェントエージェント420は、対象認識の信頼値470の段階的な変化を時間とともに追跡することができる(図7に示唆)。次いで、加齢の影響、食事、健康状態、または他の理由のためかどうかにかかわらず、ユーザの外観が時間とともに変化するにつれて、追跡される対象認識の信頼値470を低減させることができる。たとえば対象認識の信頼値470が(たとえば約80%に)低減され、認識の永続性が減少している時点で、インテリジェントエージェント420は、新しい顔認識モデルの生成には新しい画像が必要であると決定することができる。次いで、状態試験ステップ433への状態入力を「yes」に変化させて、認識モデルの生成には新しい画像が必要であることを示すことができる。図7は、前の認識モデルが古くなり、新しいものが生成されるので、幼児期および若年期中は対象認識の信頼値470が比較的迅速に変化しうることを概念的に示す。図7には示さないが、複数の認識モデルが並行して維持および追跡されている場合、複数の対象認識の信頼値470を同時に追跡することができる。各認識モデル(それぞれの並行した複合モデル360など)は、関連する対象認識の信頼値470を有することができる。
図7が示すように、対象認識の信頼値470および顔の測定基準475の長期的な追跡により、写真内人物認識タスクに影響を与え、したがってタスクの成功および確実性、ならびに支持している認識モデルの使用可能な寿命を低減させうるユーザの顔の外観の著しい変化の記録をとることができる。新しい認識モデルの必要性を事前に識別し、次いでそれらを生成するのは有用であるが、演算上の必要性を低減させ、また混乱を低減させるために、不必要な認識モデルの生成または大量生産は避けるべきである。ユーザ100による衣装の着用など、一時的な繰り返さないイベントのため、新しい認識モデルの生成を低減させることが望ましい。状態試験ステップ433は、変化量、変化の時間的な急峻さ、および変化の持続時間(たとえば、数週間の画像に及ぶ変化の持続)に基づいて、対象認識の信頼値470または顔の測定基準475内で観察された変化に論理試験を適用して、新しい認識モデルを生成する必要があるかどうかを決定することができる。これらの雑音低減技法に加えて、メタデータタグで、または新しい特徴を補償する補助顔モデルファイル(補助認識モデル365)で既存の認識モデル350を修正することによって、長期の性質のものである場合でも、いくつかの変化(口髭の成長または眼鏡の着用など)に適応することができる。特に髪型または顎髭に対する、より劇的であるが潜在的に一時的または繰り返す顔の外観の変化の場合、複数の認識モデルが並行して必要とされることがある。認識モデル更新処理410はまた、補助的な並行するモデルを必要に応じて生成し、類似性のスコアを使用してこれらを互いに試験して、それぞれのそのようなモデルによって十分な付加価値が提供されるかどうかを決定することができる。
状態試験が肯定的である場合、画像取込みループ425につながり、画像取込みループ425では、画像試験(436)で、ユーザ100の取り込んだ画像が必要なポーズに対応し、必要な照明および画像品質を有するかどうかを基本的に決定する。映画撮影者には定義および理解されるように、様々な水平を向いた一般的なポーズ(正面、正面の4分の3、および側面を含む)で、対象ポーズの変動の思想を図5dに示す。しかし、自動化された対象認識の場合、顔のポーズの著しい変動は、映画撮影より正確に定義される。ポーズ推定のためのモデルに基づく技法は通常、画像から個人の3次元の頭部形状を再現し、次いで3次元モデルを使用して頭部の向きを推定する。たとえば、シミズらによる前に論じた論文に記載の手法を使用して、ポーズ推定を完成させることができる。頭部のポーズには、偏揺れ、縦揺れ、および横揺れという3つの角度成分がある。偏揺れは、垂直軸の周りで頭部を右または左に回す角度を指す。縦揺れは、横軸の周りで頭部を上または下に向ける角度を指す。横揺れは、前頭面に垂直な軸の周りで頭部を右または左に傾斜させる角度を指す。
そのような方法を使用して、画像試験(ステップ436)中に(ステップ435から)取り込んだ画像それぞれに対して、ポーズ角度を推定することができる。対象の強固な3次元認識モデル(複合モデル360)を生成するために、画像取込みループ425中に取得した画像のコレクションは、広い範囲の角度に及ぶ必要がある。対象の頭部の周り(偏揺れ)で360度に及ぶすべての画像が究極であるが、実際には、正面から左および右側面の向きに及ぶ様々な画像で、大部分の認識タスクに有用な3次元複合モデルが可能になる。チャオおよびチェラッパによって示唆されるように、画像ポーズ間の角度の刻みは約5度であることが好ましいはずである。もちろん、顔認識タスクに対して消費者によって提供される顔画像は、様々な量および方向の頭部傾斜を有する。一般に、認識モデルおよび画像内顔認識ソフトウェアは、何らかの頭部傾斜に対処することができる。また、人物の頭部は、自然にとにかく垂直に整合する傾向がある。傾斜は、無作為の静止画ではやはりますます問題であるが、画像コレクションで時間とともに顔のモデリングおよび認識タスクを行うことによって、この影響は低減されるはずである。潜在的には、標的画像取得を助けるために、故意に頭部を回転させるようにユーザ100に求めることができる。同様に、強固な顔モデルを作製するには、異なる照明条件下で収集された顔画像が必要とされる。ブランツおよびフェッターは、22個の異なる照明条件を使用した。しかし、所定のユーザに対する取込み状況で、これらの条件すべてが発生するとは限らない。画像は、発生する可能性が高い照明条件(たとえば、窓からの光、頭上からの光など)のサブセット下で収集される。
画像試験(ステップ436)はまた、新しく取り込んだ画像の品質を評価することができる。画像品質に対する一般的な指針は、寸法、照明、および画像コントラストなどの事柄に対処する。たとえば、正面画像の場合、最小画像寸法は、眼間距離に及ぶ少なくとも100画素を提供するべきであり、300画素を超えることが好ましい。画像の明るさの要件は、信号レベルを飽和させたりまたは低くしすぎたりするべきではないので少なめであるが(雑音を最小限にするため)、画像に知覚上の影響があるとは判断されていない。たとえば、画素電子ウェル容量の約20%という平均画素信号レベルを使用することができる。暗い領域からハイライトまでの信号範囲を比較する画像コントラストは、髪を含む顔の特徴を発見するのに十分である必要がある。約100〜200:1の画像コントラスト比が十分なはずである。別の画像品質の測定基準は、顔の光の陰影または非均一性の量を定量化して、モデリング特性を超えるかどうかを決定することができる。インテリジェントエージェント420は、これらの測定基準を組み合わせて、認識モデルの生成に使用するのに十分なほど良好かどうかを示す全体的な取込み品質の測定基準にすることができる。
画像品質の測定基準は、対象信頼値470の演算で使用することもできる。1つの手法として、取込み品質のいくつかの個別のレベルに対して類似性スコア分布460(図6)の別個のセットが提供される。定量化された画像品質の測定基準を有する新しい顔画像の場合、十分に同等の取込み条件に対応する類似性スコア分布460が認識処理で使用されるはずである。別の代替手段は、前述のように対象認識の信頼値470を算出し、取込み品質の測定基準を使用して信頼値を修正する(たとえば、乏しい取込み条件下で取り込んだ顔に対して信頼値を下げる)ことである。
類似性スコア(460)分布を組み立てるのに使用される大きなラベル付きグランドトゥルースライブラリは、異なる照明条件下で撮影した人物の画像を含むはずである。ブランツおよびフェッターは、異なる光と陰影の組合せを包含する1人当たり22個の異なる照明条件を使用する。チャオおよびチェラッパによれば、グランドトゥルースライブラリ内の画像から、3次元頭部モデルの固有頭部の近似を得ることができる。新しい顔画像の場合、その3次元頭部モデルを固有頭部の線形結合として近似させ、次いでこれを使用して光源を決定することができる。通常、消費者のシステムは、可能な照明条件のサブセットを認識し、ライブラリ内で取り込んだ22個の変動は、より大きな範囲の可能性に及ぶ。たとえば、頭部の上からフラッシュを発光させる照明はめったにない。したがって、AI420に関連付けられたデータベースは、窓からの日光、様々な種類の室内照明(蛍光、白熱など)、拡散周囲照明など、そのシステムの場合に遭遇する異なる光源/状況で取り込んだ画像を含むことができる。これらの様々な光は、対象の陰影および顔の色に違いをもたらすことがある。陰影の影響は、グランドトゥルースライブラリおよび関連する類似性スコアを介して処理に加味される。認識モデルでは色は通常使用されず、またカラー画像はグレイスケールに変換されるので、色の違いは最小限になる。カメラ230を単色カメラとすることができると最も簡単である。代わりに、カメラ230を、色を感知する画像取込みデバイスとすることができ、カラーからグレイスケールへの変換は、画像取込み直後にカメラ内で行うことができる。最後に、カラーからグレイスケールへの変換は、グレイスケール正規化に先行するステップとして、画像正規化(ステップ439)中に行うことができる。
写真認識タスクの大部分は、はっきりとわかる陰影をもたない顔画像を評価することに留意されたい。したがって、画像取込みループ425は、照明の不均一性を明白に検出できない様々なポーズの向きにわたって、ユーザ100の標的画像を取得するべきである。状況によって、正面ポーズの対象画像データを十分な均一性で収集できるとき、インテリジェントエージェント420は、公称の標的複合モデル360を補完するものとして、AAM質感データを生成することができる。
画像品質の測定基準および対象ポーズの標的を満たす画像取込みループ425内で取得した標的画像は、後に使用するために保存され、タグ付けされる(ステップ437)。それに続く対象画像の検討処理(ステップ438)は、認識モデルを作製するのに十分な標的画像が利用可能であることを検証することによって画像取得および認識モデル生成を支持するAI420の機能である。標的画像の取得状態は、再び状態試験ステップ433に入力(yes/no、必要なポーズ、日付)として提供される。ポーズの十分なコレクションは、正面図、左および右を向いた図、上および下を向いた図、ならびに2つの側面図を含むはずである。追加のポーズは、後頭部などのより極端な位置を含むことができる。返答が肯定的である場合、画像正規化439につながる。画像正規化439は、画像内人物認識タスクに適切な参照特徴データ(対象またはユーザ100に対するグランドトゥルース顔点データ)の導出に先行するステップである。
画像正規化439は基本的に、存在を感じさせないシステムが遭遇しうる複数の問題(室内光、取込みデバイスからのユーザの距離および方向の変化)を克服するタスクを負う。第1の例として、寸法正規化は、画像を拡大縮小して認識モデルを生成するのに重要である。具体的には、正面図には、眼間距離(参照特徴92として図5bに示す)が有用であり、いくつかの表2の計算では分母として使用される。新しく取り込んだ画像に対して目130間の導出した距離と、最初のシステムセットアップ中に生成された参照画像358から得られる予期される寸法設定情報とを比較することができる。次いで、ポーズ推定を使用して補正係数を導出して適用し、画像取込み中の対象ポーズに関係する視誤差を補償することができる。側面図に対する対象ポーズの変化として、目が著しく遠い、または完全に隠れている場合、代替の顔特徴の参照距離が寸法正規化のために必要とされることがある。たとえば、目から耳道までの距離を使用することができる。
画像正規化ステップ439はまた、グレイスケール正規化を含むことができる。前述のように、顔および頭部画像データに基づく認識タスクの場合、色データは通常重要ではなく、グレイスケールデータで十分である。さらに、色に関連する変動は、様々な照明条件下の画像のグランドトゥルースライブラリおよび導出される類似性スコア分布を組み立てることによって保障される。したがって、入力画像を単にグレイスケールに変換して、色に基づく認識モデルに必要な色空間較正および補正を回避することができる。取得した標的画像が標的公称照明条件内に入る場合、グレイスケール変換で十分であり、グレイスケール正規化を回避することができる。しかし、画像取込み条件がより変わりやすいとき、グレイスケール画像を一般的なトーンスケール分布に正規化する必要があることがある。しかし、図5aの82個の顔の点の位置を突き止めることを含めて、認識モデリングでは質感特徴が使用されるので、画像正規化が画像特徴の頻度、方向、およびパターン形成などの他の画像の質感属性を不明瞭にしたり低減させたりしないことが重要である。
画像正規化(ステップ439)は、リンクされた画像分析および認識モデル生成ステップ(それぞれ440および441)につながる。一例として、ASM手法に続いて、画像を分析して、図5aの一般的な顔モデルを所定のユーザの顔の上にマッピングする。適切な距離は、表1および2に従って、関連する顔の特徴点間の距離を画素単位で測定することによって決定することができる。正規化は、画素単位で与えられる眼間距離で分割することによって行われる。標的距離はまた、ミリメートル単位の既知の距離を使用して実際に拡大縮小することができる。たとえば、大人の人間に対する典型的な眼間距離は約60mmである。
認識モデルの生成(ステップ441)が3次元複合モデル360を生成する場合、入力画像分析は、図5aの特徴顔点モデルを使用して3次元モデルに対して定義された縁部曲線(たとえば、目、唇、眉、および耳の輪郭)、ならびに表1および2で定義された顔の特徴を識別することから開始する。モデルおよび入力画像内の縁部曲線間の対応関係を確立した後、様々なポーズ角度で3次元モデルを繰り返し調整すること、そして入力画像に最も近い曲線適合を示す調整を決定することによって、頭部ポーズが推定される。最も近い曲線適合を示すポーズ角度は、入力画像のポーズ角度であると決定される。利用可能なモデル生成画像のそれぞれに対してポーズ角度推定を完成させることができる。1つまたはいくつかの画像から3次元モデルを生成することができ、十分な分解能を提供するのに十分な大きさの頭部寸法と組み合わせた画像の数で、精度が増大される。
前述のように、本発明の好ましい実施形態は、複合モデル360とは別に、ペントランド固有モデル、アクティブ形状(ASM)モデル、およびアクティブ外観モデル(AAM)を含む他の認識モデル350の生成を支持することができる。これらのモデルは2次元モデルであるため、各ポーズに対して別個のモデルを作製することができ、すべてのポーズにわたる2次元モデルの集合が、個人に対する全体的なモデルになる。所定の顔を整合させるのに使用されるこの集合からのモデルは、顔のポーズ推定に基づく。ヤコブの場合、髪モデルまたは眼鏡の特徴付け、縁部および顔の毛などの質感属性は、既知の特性および位置を有する特徴から識別され、所定のユーザ上で効率的に位置を突き止めることができる。前述の幾何学的モデルに加えてこれらの追加の属性を使用して、認識モデルを強化することができる。
さらに、リンクされた画像分析および認識モデル生成ステップ(それぞれ440および441)は、新しく生成した認識モデルの品質に関連付けられた、更新された対象認識の信頼値470を表にするタスクを負う。公称では、個人に対して1つ以上の認識モデルの生成後、関連付けられた対象認識の信頼値は、図7に示すように、1に戻り、または1に近づくはずである。潜在的には、1つ以上の複合モデル360、アクティブ外観モデル(AAM)、またはペントランド固有モデルなどのそれぞれの維持される認識モデルは、別個に追跡される関連付けられた対象認識の信頼値470を有することができる。他の追跡される顔の測定基準475に対する計算もまた、更新して前の値と比較することができる。
前述のように、本発明の好ましい実施形態は、画像内の個人の認識の上で永続性を可能にする方法を予期する。この方法では、対象認識の信頼値470、顔の測定基準475、または他の顔の分類子を蓄積、長期的に追跡、および分析して、対象認識の成功が悪化している、または悪化する可能性が高いかどうかを決定する。これらの要因に関する新しい指示状態データは、画像分析システム300または認識モデル更新処理410から取得することができる(測定基準計算ステップ375)。前の説明では、新しい認識モデルの必要性を識別すると、カメラ230を有する電子画像デバイス210を促して、ユーザ100の必要な画像を取得させる。しかし、代替の手法として、必要性の識別は、写真コレクションに入る新しい画像を使用して画像分析システム300中に決定することができ、次いで上記その他の画像を使用して、事前にカメラで取り込んだ画像を用いることなく認識モデルを生成することができる。
具体的には、図8は、画像分析システム300と認識モデル更新処理410の相互作用を示す。この場合、画像分析システム300によって新しい画像を分析して、写真内人物認識タスクを実行する。図1の場合と同様に、システム300は、人物ファインダ330、イベントマネージャ320、および個人認識分類器340を利用する。たとえば、ユーザ100は、対象(世帯居住者または非居住者など)および非対象を含む新しい画像を既存の写真コレクションに加えている可能性がある。前述のように、個人認識分類器340は、対象[もしくはアーロン(息子)などのユーザ]、非対象、または不確実な人物分類370を提供することができる。個人またはユーザ100が、人物プロファイル345を使用する個人認識分類器340によってうまく識別されたとき、突然のまたは傾向線の長期的な変化に対する対象認識の信頼値470および他の顔の測定基準475を計算し、次いで分析することができる(ステップ375および433)。次いで、これらの測定基準が、複合モデル360などの認識モデル350が劣化し、または著しく変化していることを示すと、認識モデル更新処理410を開始することができる。しかし、カメラ230を有する電子画像デバイス210を使用して新しい画像を取得するのではなく、画像分析システム300によって後に提供された画像から新しい画像を得ることができる。個人の画像が利用可能になると、これらの画像の必要性および妥当性を試験し(ステップ436)、次いで適宜記憶する(ステップ437)ことができる。画像検討(ステップ438)は、有用な認識モデルを作製するのに十分な画像が利用可能であるかどうかを決定し、状態通知を渡す(ステップ433)ことができる。十分な画像が利用可能であるとき、画像正規化(ステップ439)、画像分析(ステップ440)、および認識モデル生成(ステップ441)に従って、AI420によって認識モデルが生成される。複合モデル360などの新しい認識モデルを人物プロファイル345に供給することができ、一方新しい対象認識の信頼値470および顔の測定基準475を供給することができる(ステップ375)。
図8に概要を示す全体的な処理は、ユーザ100によって供給される画像コレクションを使用して人物の認識モデル350を導出する方法を提供する。たとえば、図8の処理は、同一出願人によるローサー‘343の方法を使用して複合モデル360を導出することができ、または同一出願人によるギャラガー‘624の方法を使用してAAMモデルを生成することができる。しかし、これらの出願、特にギャラガー‘624とは異なり、図8の処理は、新しい認識モデルをいつ生成するかを決定するのに時間および年齢に基づく予定に依拠するだけでなく、代わりに対象認識の信頼値470または顔の測定基準475に基づいて事前追跡および分析手法を使用して、新しい認識モデル350を生成する必要性を決定する。次いで、図8の処理は、定義された必要性に応じて新しい認識モデルを事前に生成する手段を提供する。この手法は、カメラ230を有する電子画像デバイス210を使用してユーザ100の画像を事前に取得しないので、プライバシー上の問題に関してそれほど侵入性がないことを見出すことができる。しかし、図8の処理によって生成される認識モデル350は不完全なことがあり、画像品質の低減されたソースデータを利用して全体的な有効性を低減させることがある。画像の利用可能性の遅延はまた、モデル品質および確実性を低減させることもある。これらの問題は、より低い対象認識の信頼値470が新しい認識モデルに関連付けられる(たとえば、約1.0ではなくわずか約0.92)ことで反映されることがある。事前の画像取込み(図4の処理)とユーザによって供給される画像からのモデル導出(図8の処理)との組合せによって新しい認識モデル350が生成されるハイブリッド手法を使用できることも予期される。ハイブリッド手法(または図8の処理)は、ユーザ100が、当該の個人の(走査された、単に取り込んだ、電子メールで送られた)ソース画像を提供することによって認識モデル350を直接支持できるので有用である。これは、図4に示す認識モデル更新処理410を支持するカメラ230によって撮像される可能性が低い非居住者およびたまの訪問者(遠い親類または友人など)である個人に対して特に有用なものとなりうる。
前に示唆したように、ユーザ100には、本発明の方法および装置の好ましい実施形態に関してプライバシー上の問題がありうることが予期される。たとえば、人物は、図2bに示すデジタル写真フレームなど、カメラ230を有する電子画像デバイス210が自身の写真を取り込んでいることを懸念する可能性がある。これに対処するために、視覚または音声のキューを提供して、画像取込みが行われていることを示すことができる。目に見える確かな物理的な止め具を、カメラ230を覆うように配置することによって、画像取込みを防止することもできる。プライバシー制御はまた、どの個人を認識モデルが作製されている対象と見なすかを決定することができ、ならびに認識モデルおよび長期的に追跡されるデータへのアクセスを制御することができる。
ユーザ100は、本発明のいくつかの好ましい実施形態の方法(図4または8に表す)またはシステム(図1、3、または8に表す)を使用して、インターネットで使用するための画像を作製または更新するためのソースデータとして使用できる画像または顔モデルを取得できることも予期される。たとえば、ユーザ100は、この出力を使用して、Facebookまたは同等物に示すための自身の3次元画像を作製することができる。同様に、ユーザ100は、この出力を使用して、Second Lifeなどのメタバース内で使用するためのフォトリアリスティックなアバターを作製することができる。
別の態様として、本発明の好ましい実施形態のデバイス(図3に示すものなど)と画像に基づく監視およびセキュリティシステムを比較することができる。セキュリティおよび監視システムは先行技術で知られており、代表例には、エイティックらによる米国特許第6,111,517号およびクックらによる米国特許第7,114,079号が含まれる。通常、自動化または人間の観察を伴う監視システムは、当該の領域の画像データを能動的に警戒、表示、および記録する。多くの監視システムでは、個人または個人の活動は自動的に分類されることがあるが、領域内の個人を認識することなく、領域を公然とまたは内密に観察することができる。多くのそのようなシステムは、領域内の人間の活動を示す顔、声、または他のキューを識別するように調整される。セキュリティ検査システムの場合、顔検出ソフトウェアを使用して、通行人(または、たとえば飛行機の乗客)の顔画像と事前定義された警戒リストからの人物の顔画像とを比較する。多くのセキュリティおよび監視システムは、顔検出および認識アルゴリズムならびにデータベースを使用してタスクを実行しながら、既存の顔画像または顔画像データを使用する。すなわち、本発明の好ましい実施形態とは異なり、セキュリティおよび監視システムは、住宅内の個人など、個人の小さな選択グループの正確な顔モデルを維持する必要性を予期しない。したがって、これらのシステムは、対象認識の信頼値470および顔の測定基準475を決定し、次いで長期的に追跡して顔の外観の変化を評価するために、新しい顔画像を分析しない。同様に、セキュリティおよび監視システムは、個人の新しい完全な顔認識モデルを作製するために個人(ユーザ)の複数のポーズの画像の取得を開始する必要性を決定するために、そのような長期的に追跡されたデータを分析しない。最後に、これらのセキュリティおよび監視システムは、新しい認識モデル350の必要性の識別に応じず、したがって次いで蓄積された画像を使用して新しい顔認識モデルを生成する処理を管理しない。
本発明の好ましい実施形態について、顔および頭部の画像データを使用して画像内の人物の認識の上で永続性を可能にすることに関して主に説明してきた。前述のように、映像画像を分析する際に特に有用となりうる声および歩容データを含めて、他のデータを使用することもできる。たとえば、ユーザ100に対する声データは、マイクロフォン270を使用して、または映像入力の音声追跡から収集することができる。この音声を分析して、周波数、ピッチ、有声率、およびセグメント持続時間などの属性に対する統計的に有効な声認識の測定基準を導出することができる。さらに、聞き手を誘導しまた意図を信号で送るためにスピーカが使用する非言語的キューである韻律を分析することもできる。韻律は、声のピッチ、ペーシング、および音量などの要因を含み、意識的にまたは無意識に生じることがある。強い高調波スペクトル構造(基本的に母音)を有する有声の音声を標的にする音声分析は、高速かつ効率的な手法となりうることに留意されたい。これを可能にするために、音声処理では、雑音抑圧およびエコー消去などの様々な支持技術が必要とされることがある。
θ 全角度、 λ 光、 1〜82 顔の特徴点、 90 顔の点モデル、 92 参照特徴、 100 ユーザ(または個人もしくは人物)、 125 顔、 130 目、 135 口、 140 鼻、 200 認識モデル更新システム、 210 電子画像デバイス、 220 コンピュータ、 222 メモリ、 224 通信制御装置、 230 画像取込みデバイス(またはカメラ)、 235 画像処理装置、 240 表示装置、 245 スクリーン、 250 フレーム、 255 筐体、 260 ユーザインターフェース制御部、 265 ユーザインターフェース、 270 マイクロフォン、 272 スピーカ、 274 運動検出センサ、 276 周囲光検出器、 280 システム制御装置、 285 ユーザ識別処理、 290 ユーザ追跡、 291 運動検出、 292 声検出、 293 顔検出、 294 ポーズ検出、 295 照明検出、 300 画像分析システム、 310 データベース、 315 デジタル画像コレクション、 320 イベントマネージャ、 322 取込み時間分析器、 324 イベント特徴検出器、 326 イベント特徴分類器、 328 イベント、 330 人物ファインダ、 332 人物検出器、 334 顔検出器、 336 特徴検出器、 338 個人の特徴、 340 個人認識分類器、 345 人物プロファイル、 350 認識モデル、 352 顔モデル、 354 髪モデル、 356 衣服データ、 358 参照画像、 360 複合モデル、 365 補助認識モデル、 370 人物分類、 375 測定基準計算ステップ、 380 画像分類、 400 画像取込みイベント、 410 認識モデル更新処理、 420 認識モデルのインテリジェントエージェント(AI)、 425 取込みループ、 430 人物の検出、 431 初期画像取込み、 432 ユーザの識別、 433 状態試験、 434 取込みの停止、 435 認識モデル画像取込み、 436 画像取込み試験、 437 タグ付けおよび保存、 438 対象画像の検討、 439 画像正規化、 440 画像分析、 441 モデル生成、 442 画像ファイルの削除、 443 ユーザへの問合せ、 445 決定ノード、 450 認識モデルデータベース、 460 類似性スコア(または類似性スコア分布)、 470 対象認識の信頼値、 475 顔の測定基準、 480 信頼度計算。

Claims (28)

  1. 画像内の特定の人物のコンピュータ認識を可能にするコンピュータで実行される方法であって、
    前記人物の顔認識モデルを使用して人物の複数の顔画像を分析して、前記顔画像と前記認識モデルを比較することによって顔の外観の変化を識別するステップと、
    前記顔画像に対する対象認識の信頼値を計算するステップと、
    前記顔画像に対する前記対象認識の信頼値と前記顔認識モデルに関連付けられた前の対象認識の信頼値を比較して、前記信頼値の変化を識別するステップと、
    前記対象認識の信頼値の前記識別した変化を分析して、前記人物に対して新しい顔認識モデルが必要かどうかを決定するステップと、
    前記識別した変化を分析する前記ステップによって、前記新しい顔認識モデルが必要であると決定された場合、前記人物の現在または後の画像から前記新しい顔認識モデルを生成するステップと、
    後の人物認識タスクに対して前記新しい顔認識モデルを使用するステップとを含むことを特徴とする方法。
  2. 請求項1に記載の方法であって、前記識別した変化を分析する前記ステップが、前記対象認識の信頼値の変化を時間とともに追跡して、前記信頼値の著しい変化を識別するステップを含むことを特徴とする方法。
  3. 請求項2に記載の方法であって、全体的な変化、パーセント変化、閾値変化、変化率、または変化持続時間を含む変化検出基準に対して、前記対象認識の信頼値の著しい変化を測定するステップをさらに含むことを特徴とする方法。
  4. 請求項1に記載の方法であって、類似性スコア分布から計算される確率の正規化した比の使用を含む前記対象認識の信頼値を計算するステップをさらに含み、前記類似性スコア分布が、既知の顔と認識されない顔の整合を示す確率分布であることを特徴とする方法。
  5. 請求項4に記載の方法であって、世帯の構成員だけを含む住民に対して類似性スコア分布を計算するステップをさらに含むことを特徴とする方法。
  6. 請求項5に記載の方法であって、スコア分布の類似性を計算する前記ステップが、ペアワイズ測定基準を使用するステップを含むことを特徴とする方法。
  7. 請求項1に記載の方法であって、1つ以上の定義された顔の測定基準に対して前記顔画像を分析するステップをさらに含み、前記顔の測定基準が、顔認識モデルを使用して追跡される所定の顔の特徴に関連付けられることを特徴とする方法。
  8. 請求項1に記載の方法であって、画像取込みデバイス、画像コレクション、またはこれらの組合せから前記人物の前記複数の顔画像を取得するステップをさらに含むことを特徴とする方法。
  9. 請求項1に記載の方法であって、前記顔認識モデルが、3次元複合モデル、アクティブ形状モデル、またはアクティブ外観モデルから選択されることを特徴とする方法。
  10. 請求項1に記載の方法であって、前記人物が、顔認識モデルが存在する対象であるか、それとも顔認識モデルが存在しない非対象であるかを識別するステップをさらに含むことを特徴とする方法。
  11. 請求項1に記載の方法であって、世帯を構成する1人以上の人物に対して前記方法を使用して、前記世帯に関連付けられた画像内で前記人物の認識を可能にするステップをさらに含むことを特徴とする方法。
  12. デジタル画像内の特定の人物のコンピュータ認識を可能にするコンピュータで実行される方法であって、
    画像取込みデバイスを使用して前記人物の少なくとも1つのデジタル顔画像を取得するステップと、
    前記人物の所定の顔認識モデルに対して、前記人物の前記少なくとも1つのデジタル顔画像を分析して、前記少なくとも1つの画像と前記モデルの間の顔の外観の変化を識別するステップと、
    前記少なくとも1つの顔画像のそれぞれに対する対象認識の信頼値を計算するステップと、
    前記少なくとも1つの画像のそれぞれに対する前記対象認識の信頼値と前記所定の顔認識モデルに関連付けられた対象認識の信頼値を比較して、前記値の変化を識別するステップと、
    前記対象認識の信頼値の前記識別した変化を分析して、前記人物に対して新しい顔認識モデルが必要かどうかを決定するステップと、
    前記画像取込みデバイスを使用して前記人物の少なくとも1つのさらなる顔画像を取得し、前記新しい顔認識モデルを生成するのに必要な画像の完全なセットを編集するステップと、
    前記画像の完全なセットから前記新しい顔認識モデルを生成するステップと、
    写真内人物認識タスクに対して前記新しい顔認識モデルを使用するステップとを含むことを特徴とする方法。
  13. 請求項12に記載の方法であって、前記識別した変化を分析する前記ステップが、前記対象認識の信頼値の変化を時間とともに追跡して、前記信頼値の著しい変化を識別するステップを含むことを特徴とする方法。
  14. 請求項12に記載の方法であって、類似性スコア分布から計算される確率の正規化した比を使用して前記対象認識の信頼値を計算するステップをさらに含み、前記類似性スコア分布が、既知の顔と認識されない顔の整合を示す確率分布であることを特徴とする方法。
  15. 請求項12に記載の方法であって、1つ以上の定義された顔の測定基準に対して前記顔画像を分析するステップをさらに含み、前記顔の測定基準が、顔認識モデルを使用して追跡される所定の顔の特徴に関連付けられることを特徴とする方法。
  16. 請求項12に記載の方法であって、前記画像取込みデバイスが、電子写真フレーム、テレビ電話、ウェブカメラ、またはデジタルカメラから選択されるデバイスであることを特徴とする方法。
  17. 請求項12に記載の方法であって、前記新しい顔認識モデルを生成する前記ステップが、前記画像取込みデバイスによって取得した前記顔画像を、グレイスケールおよび寸法に対して正規化するステップを含むことを特徴とする方法。
  18. 請求項12に記載の方法であって、前記人物の前記画像の完全なセットが、異なる顔のポーズに及ぶ一連の顔画像を含むことを特徴とする方法。
  19. 請求項12に記載の方法であって、前記顔認識モデルが、3次元複合モデル、アクティブ形状モデル、またはアクティブ外観モデルから選択されることを特徴とする方法。
  20. 請求項12に記載の方法であって、前記人物が、顔認識モデルが存在する対象であるか、それとも顔認識モデルが存在しない非対象であるかを識別するステップをさらに含むことを特徴とする方法。
  21. 請求項20に記載の方法であって、前記人物が対象であるかそれとも非対象であるかを識別する前記ステップが、選択された顔の特徴を含む参照画像を利用して前記顔の外観を表すステップを含むことを特徴とする方法。
  22. 請求項20に記載の方法であって、前記人物の声の特性の取込みを可能にするマイクロフォンを有する前記画像取込みデバイスを提供するステップと、前記声の特性を分析して、前記人物に対する認識キューを提供するステップとをさらに含むことを特徴とする方法。
  23. 画像内の特定の個人のコンピュータ認識を可能にするコンピュータで実行される方法であって、
    前記個人の1つ以上の顔画像から導出された、画像内人物認識タスクで使用できる前記個人の顔認識モデルを提供するステップと、
    前記顔認識モデルにリンクされた対象認識の信頼値を提供するステップと、
    前記対象認識の信頼値を時間とともに追跡するステップと、
    前記時間とともに追跡した信頼値を分析して、前記個人の顔の外観の著しい変化を示す信頼値の変化を識別するステップと、
    前記個人の前記顔の外観の前記著しい変化に基づいて、前記個人に対する少なくとも1つの新しい顔認識モデルの必要性を決定するステップと、
    前記決定した必要性に応じて、前記個人の現在または後に取得した顔画像を使用して、前記個人に対する前記少なくとも1つの新しい顔認識モデルを生成するステップとを含むことを特徴とする方法。
  24. 請求項23に記載の方法であって、類似性スコア分布から計算される確率の正規化した比の使用を含む前記対象認識の信頼値を計算するステップをさらに含み、前記類似性スコア分布が、既知の顔と認識されない顔の整合を示す確率分布であることを特徴とする方法。
  25. 請求項23に記載の方法であって、前記顔認識モデルが、3次元複合モデル、アクティブ形状モデル、またはアクティブ外観モデルから選択されることを特徴とする方法。
  26. 請求項23に記載の方法であって、前記個人に対する少なくとも1つの新しい顔認識モデルの前記必要性が、年齢に基づく予定に従って決定されることを特徴とする方法。
  27. 画像内の特定の人物の機械認識を可能にする方法ステップを実行するために機械によって実行可能な命令のプログラムを有形に記憶する機械可読なプログラム記憶デバイスであって、前記方法ステップが、
    前記人物の顔認識モデルを使用して前記人物の複数の顔画像を分析し、前記認識モデルと前記顔画像の間の前記人物の顔の外観の変化を識別するステップと、
    前記顔画像に対する対象認識の信頼値を計算するステップと、
    前記顔画像に対する前記対象認識の信頼値と前記顔認識モデルに関連付けられた対象認識の信頼値を比較して、前記信頼値の変化を識別するステップと、
    前記対象認識の信頼値の前記識別した変化を分析して、前記人物に対して新しい顔認識モデルが必要かどうかを決定するステップと、
    前記識別した変化を分析する前記ステップによって、前記新しい顔認識モデルが必要であると決定された場合、前記人物の現在または後の画像から前記新しい顔認識モデルを生成するステップと、
    後の人物認識タスクに対して前記新しい顔認識モデルを使用するステップとを含むことを特徴とするプログラム記憶デバイス。
  28. 人物の複数の顔画像を取り込む画像取込みデバイスと、
    前記人物の前記複数の顔画像および前記人物の予め生成した顔認識モデルを記憶する、前記画像取込みデバイスに結合された記憶域であって、前記顔認識モデルがモデル信頼値を含む、記憶域と、
    前記顔画像に対する対象認識モデル信頼値を計算する手段を含む、前記顔画像と前記顔認識モデルの差を識別する手段と、
    前記顔画像に対する前記対象認識の信頼値と前記モデル信頼値を比較する手段と、
    前記顔画像に対する前記対象認識の信頼値と前記モデル信頼値の差が大きい場合に新しい顔認識モデルを生成する手段と
    を含むことを特徴とするシステム。
JP2010544307A 2008-01-21 2009-01-12 画像内個人の永続的認識可能化 Active JP5517952B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/017,131 US8180112B2 (en) 2008-01-21 2008-01-21 Enabling persistent recognition of individuals in images
US12/017,131 2008-01-21
PCT/US2009/000188 WO2009094109A1 (en) 2008-01-21 2009-01-12 Enabling persistent recognition of individuals in images

Publications (3)

Publication Number Publication Date
JP2011510420A true JP2011510420A (ja) 2011-03-31
JP2011510420A5 JP2011510420A5 (ja) 2012-03-08
JP5517952B2 JP5517952B2 (ja) 2014-06-11

Family

ID=40670918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010544307A Active JP5517952B2 (ja) 2008-01-21 2009-01-12 画像内個人の永続的認識可能化

Country Status (4)

Country Link
US (1) US8180112B2 (ja)
EP (1) EP2238563B1 (ja)
JP (1) JP5517952B2 (ja)
WO (1) WO2009094109A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019536496A (ja) * 2016-09-19 2019-12-19 ロレアルL′Oreal アイバッグの3次元分析のための、システム、デバイス、及び方法
JP2020526845A (ja) * 2017-07-13 2020-08-31 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 姿勢変動に頑健な顔位置調整のためのシステム及び方法
JPWO2021225001A1 (ja) * 2020-05-08 2021-11-11

Families Citing this family (271)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110028212A1 (en) * 2004-07-01 2011-02-03 David Krien Computerized Imaging of Sporting Trophies and Method of Providing a Replica
US8402040B2 (en) * 2004-08-20 2013-03-19 Morphotrust Usa, Inc. Method and system to authenticate an object
US8583454B2 (en) * 2005-07-28 2013-11-12 Beraja Ip, Llc Medical claims fraud prevention system including photograph records identification and associated methods
US8751264B2 (en) 2005-07-28 2014-06-10 Beraja Ip, Llc Fraud prevention system including biometric records identification and associated methods
US8839094B2 (en) * 2007-01-23 2014-09-16 Jostens, Inc. System and method for yearbook creation
AU2008209447B2 (en) * 2007-01-23 2013-01-17 Jostens, Inc. Method and system for creating customized output
US20100153146A1 (en) * 2008-12-11 2010-06-17 International Business Machines Corporation Generating Generalized Risk Cohorts
US9215417B2 (en) * 2008-02-05 2015-12-15 At&T Intellectual Property I, Lp Managing media content for a personal television channel
US8150108B2 (en) * 2008-03-17 2012-04-03 Ensign Holdings, Llc Systems and methods of identification based on biometric parameters
EP2120192A1 (en) * 2008-05-13 2009-11-18 Sap Ag Method and system for supporting a decision-making process
CN101677390A (zh) * 2008-09-19 2010-03-24 佛山普立华科技有限公司 数码摄影装置及其头像图片拍摄方法
US9342594B2 (en) * 2008-10-29 2016-05-17 International Business Machines Corporation Indexing and searching according to attributes of a person
US9104984B2 (en) * 2008-11-13 2015-08-11 Sony Corporation Method and device relating to information management
US8301443B2 (en) * 2008-11-21 2012-10-30 International Business Machines Corporation Identifying and generating audio cohorts based on audio data input
US8180891B1 (en) 2008-11-26 2012-05-15 Free Stream Media Corp. Discovery, access control, and communication with networked services from within a security sandbox
US10880340B2 (en) 2008-11-26 2020-12-29 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9519772B2 (en) 2008-11-26 2016-12-13 Free Stream Media Corp. Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device
US9986279B2 (en) 2008-11-26 2018-05-29 Free Stream Media Corp. Discovery, access control, and communication with networked services
US9026668B2 (en) 2012-05-26 2015-05-05 Free Stream Media Corp. Real-time and retargeted advertising on multiple screens of a user watching television
US10334324B2 (en) 2008-11-26 2019-06-25 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US9386356B2 (en) 2008-11-26 2016-07-05 Free Stream Media Corp. Targeting with television audience data across multiple screens
US10631068B2 (en) 2008-11-26 2020-04-21 Free Stream Media Corp. Content exposure attribution based on renderings of related content across multiple devices
US10419541B2 (en) 2008-11-26 2019-09-17 Free Stream Media Corp. Remotely control devices over a network without authentication or registration
US9154942B2 (en) 2008-11-26 2015-10-06 Free Stream Media Corp. Zero configuration communication between a browser and a networked media device
US10977693B2 (en) 2008-11-26 2021-04-13 Free Stream Media Corp. Association of content identifier of audio-visual data with additional data through capture infrastructure
US9961388B2 (en) 2008-11-26 2018-05-01 David Harrison Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements
US10567823B2 (en) 2008-11-26 2020-02-18 Free Stream Media Corp. Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device
US8749570B2 (en) 2008-12-11 2014-06-10 International Business Machines Corporation Identifying and generating color and texture video cohorts based on video input
US8190544B2 (en) 2008-12-12 2012-05-29 International Business Machines Corporation Identifying and generating biometric cohorts based on biometric sensor input
US20100153174A1 (en) * 2008-12-12 2010-06-17 International Business Machines Corporation Generating Retail Cohorts From Retail Data
US8417035B2 (en) * 2008-12-12 2013-04-09 International Business Machines Corporation Generating cohorts based on attributes of objects identified using video input
US20100153147A1 (en) * 2008-12-12 2010-06-17 International Business Machines Corporation Generating Specific Risk Cohorts
US20100153597A1 (en) * 2008-12-15 2010-06-17 International Business Machines Corporation Generating Furtive Glance Cohorts from Video Data
US20100153180A1 (en) * 2008-12-16 2010-06-17 International Business Machines Corporation Generating Receptivity Cohorts
US8219554B2 (en) 2008-12-16 2012-07-10 International Business Machines Corporation Generating receptivity scores for cohorts
US11145393B2 (en) 2008-12-16 2021-10-12 International Business Machines Corporation Controlling equipment in a patient care facility based on never-event cohorts from patient care data
US8493216B2 (en) 2008-12-16 2013-07-23 International Business Machines Corporation Generating deportment and comportment cohorts
US20100153133A1 (en) * 2008-12-16 2010-06-17 International Business Machines Corporation Generating Never-Event Cohorts from Patient Care Data
US20100153390A1 (en) * 2008-12-16 2010-06-17 International Business Machines Corporation Scoring Deportment and Comportment Cohorts
WO2010075430A1 (en) 2008-12-24 2010-07-01 Strands, Inc. Sporting event image capture, processing and publication
JP2010186288A (ja) * 2009-02-12 2010-08-26 Seiko Epson Corp 顔画像の所定のテクスチャー特徴量を変更する画像処理
WO2010102515A1 (en) * 2009-03-11 2010-09-16 Hong Kong Baptist University Automatic and semi-automatic image classification, annotation and tagging through the use of image acquisition parameters and metadata
JP5350871B2 (ja) * 2009-04-20 2013-11-27 シャープ株式会社 情報表示装置および情報表示方法
US20100289942A1 (en) * 2009-05-18 2010-11-18 Sony Corporation And Sony Electronics Feedback system for optimizing exposure
CN102483745B (zh) * 2009-06-03 2014-05-14 谷歌公司 共同选择图像分类
US20100312609A1 (en) * 2009-06-09 2010-12-09 Microsoft Corporation Personalizing Selection of Advertisements Utilizing Digital Image Analysis
EP2446618A4 (en) * 2009-06-24 2013-03-06 Hewlett Packard Development Co CREATING AN ALBUM OF MAGES
US8452086B2 (en) * 2009-07-10 2013-05-28 Palo Alto Research Center Incorporated System and user interface for machine-assisted human labeling of pixels in an image
US8649600B2 (en) * 2009-07-10 2014-02-11 Palo Alto Research Center Incorporated System and method for segmenting text lines in documents
US8442319B2 (en) * 2009-07-10 2013-05-14 Palo Alto Research Center Incorporated System and method for classifying connected groups of foreground pixels in scanned document images according to the type of marking
EP2490171B1 (en) * 2009-10-16 2020-11-25 Nec Corporation Person image search starting from clothing query text.
US20110102142A1 (en) * 2009-11-04 2011-05-05 Widger Ian J Webcast viewer verification methods
US8416277B2 (en) * 2009-12-10 2013-04-09 Apple Inc. Face detection as a metric to stabilize video during video chat session
US9619469B2 (en) * 2009-12-22 2017-04-11 Apple Inc. Adaptive image browsing
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
CN102147851B (zh) * 2010-02-08 2014-06-04 株式会社理光 多角度特定物体判断设备及多角度特定物体判断方法
JP5567853B2 (ja) * 2010-02-10 2014-08-06 キヤノン株式会社 画像認識装置および方法
US20110257985A1 (en) * 2010-04-14 2011-10-20 Boris Goldstein Method and System for Facial Recognition Applications including Avatar Support
JP2013526934A (ja) * 2010-05-21 2013-06-27 マイ オーソドンティクス プロプライエタリー リミテッド 処置後の外観予測
US8462224B2 (en) * 2010-06-01 2013-06-11 Hewlett-Packard Development Company, L.P. Image retrieval
CA2801593C (en) * 2010-06-10 2022-06-21 Brown University Parameterized model of 2d articulated human shape
JP5739428B2 (ja) * 2010-08-04 2015-06-24 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 画像分類装置、方法、プログラム、プログラムを記録する記録媒体及び集積回路
WO2012040371A1 (en) 2010-09-22 2012-03-29 The Nielsen Company (Us), Llc. Methods and apparatus to determine impressions using distributed demographic information
US20120076368A1 (en) * 2010-09-27 2012-03-29 David Staudacher Face identification based on facial feature changes
US8726161B2 (en) * 2010-10-19 2014-05-13 Apple Inc. Visual presentation composition
US10318877B2 (en) 2010-10-19 2019-06-11 International Business Machines Corporation Cohort-based prediction of a future event
WO2012064893A2 (en) 2010-11-10 2012-05-18 Google Inc. Automated product attribute selection
CN103473721B (zh) 2010-12-20 2017-04-12 尼尔森(美国)有限公司 使用分布式人口统计信息确定媒体印象的方法和装置
US11080513B2 (en) * 2011-01-12 2021-08-03 Gary S. Shuster Video and still image data alteration to enhance privacy
US8744119B2 (en) * 2011-01-12 2014-06-03 Gary S. Shuster Graphic data alteration to enhance online privacy
KR101029160B1 (ko) * 2011-02-07 2011-04-13 (주)올라웍스 이미지 데이터베이스에 신규 이미지 및 이에 대한 정보를 추가하기 위한 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
CN103189856B (zh) 2011-03-18 2016-09-07 尼尔森(美国)有限公司 确定媒体印象的方法和装置
US9373021B2 (en) * 2011-03-25 2016-06-21 Sony Corporation Method, apparatus and system for outputting a group of images
US9047464B2 (en) 2011-04-11 2015-06-02 NSS Lab Works LLC Continuous monitoring of computer user and computer activities
US9489567B2 (en) * 2011-04-11 2016-11-08 Intel Corporation Tracking and recognition of faces using selected region classification
US8904473B2 (en) 2011-04-11 2014-12-02 NSS Lab Works LLC Secure display system for prevention of information copying from any display screen system
US9092605B2 (en) * 2011-04-11 2015-07-28 NSS Lab Works LLC Ongoing authentication and access control with network access device
US8923629B2 (en) 2011-04-27 2014-12-30 Hewlett-Packard Development Company, L.P. System and method for determining co-occurrence groups of images
TWI471117B (zh) * 2011-04-29 2015-02-01 Nat Applied Res Laboratoires 可用於行動裝置之人臉膚質評估演算介面裝置
AU2012253551A1 (en) 2011-05-09 2014-01-09 Catherine Grace Mcvey Image analysis for determining characteristics of animal and humans
US9355329B2 (en) * 2011-05-09 2016-05-31 Catherine G. McVey Image analysis for determining characteristics of pairs of individuals
US9552637B2 (en) 2011-05-09 2017-01-24 Catherine G. McVey Image analysis for determining characteristics of groups of individuals
US9323980B2 (en) 2011-05-13 2016-04-26 Microsoft Technology Licensing, Llc Pose-robust recognition
US9251402B2 (en) * 2011-05-13 2016-02-02 Microsoft Technology Licensing, Llc Association and prediction in facial recognition
US20130097194A1 (en) * 2011-08-05 2013-04-18 New York University Apparatus, method, and computer-accessible medium for displaying visual information
EP2557524A1 (en) * 2011-08-09 2013-02-13 Teclis Engineering, S.L. Method for automatic tagging of images in Internet social networks
US8798362B2 (en) * 2011-08-15 2014-08-05 Hewlett-Packard Development Company, L.P. Clothing search in images
US8660322B2 (en) 2011-08-25 2014-02-25 King Saud University Passive continuous authentication method
US8634661B2 (en) * 2011-09-07 2014-01-21 Intellectual Ventures Fund 83 Llc Event classification method using light source detection
US8634660B2 (en) * 2011-09-07 2014-01-21 Intellectual Ventures Fund 83 Llc Event classification method using lit candle detection
US20130058577A1 (en) * 2011-09-07 2013-03-07 Peter O. Stubler Event classification method for related digital images
KR101180471B1 (ko) * 2011-09-27 2012-09-07 (주)올라웍스 한정된 메모리 환경 하에서 얼굴 인식 성능 향상을 위한 참조 얼굴 데이터베이스 관리 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
US8805094B2 (en) * 2011-09-29 2014-08-12 Fujitsu Limited Using machine learning to improve detection of visual pairwise differences between browsers
US20130083997A1 (en) * 2011-10-04 2013-04-04 Alcatel-Lucent Usa Inc. Temporally structured light
US10791257B2 (en) * 2011-11-14 2020-09-29 Gopro, Inc. Positioning apparatus for photographic and video imaging and recording and system utilizing the same
US9087273B2 (en) * 2011-11-15 2015-07-21 Facebook, Inc. Facial recognition using social networking information
KR20130078676A (ko) * 2011-12-30 2013-07-10 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP5790509B2 (ja) * 2012-01-05 2015-10-07 富士通株式会社 画像再生装置、画像再生プログラム、及び画像再生方法
US20130194172A1 (en) * 2012-01-30 2013-08-01 Cellco Partnership D/B/A Verizon Wireless Disabling automatic display shutoff function using face detection
US9230187B2 (en) * 2012-03-15 2016-01-05 Qualcomm Incorporated System and method for robust estimation of color dependent measurements
US10702773B2 (en) * 2012-03-30 2020-07-07 Videx, Inc. Systems and methods for providing an interactive avatar
TW201348984A (zh) * 2012-05-18 2013-12-01 Primax Electronics Ltd 相片影像管理方法及相片影像管理系統
KR20130131106A (ko) * 2012-05-23 2013-12-03 삼성전자주식회사 이미지 인식 기술을 이용한 서비스 제공 방법 및 그 전자 장치
JP5899472B2 (ja) * 2012-05-23 2016-04-06 パナソニックIpマネジメント株式会社 人物属性推定システム、及び学習用データ生成装置
AU2013204865B2 (en) 2012-06-11 2015-07-09 The Nielsen Company (Us), Llc Methods and apparatus to share online media impressions data
US8798401B1 (en) * 2012-06-15 2014-08-05 Shutterfly, Inc. Image sharing with facial recognition models
US8873851B2 (en) 2012-06-29 2014-10-28 Intellectual Ventures Fund 83 Llc System for presenting high-interest-level images
US9014510B2 (en) 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Method for presenting high-interest-level images
US9014509B2 (en) 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Modifying digital images to increase interest level
US8897485B2 (en) 2012-06-29 2014-11-25 Intellectual Ventures Fund 83 Llc Determining an interest level for an image
KR101979669B1 (ko) * 2012-07-13 2019-05-17 삼성전자주식회사 이미지 내 사용자의 시선 보정 방법, 기계로 읽을 수 있는 저장 매체 및 통신 단말
AU2013204953B2 (en) 2012-08-30 2016-09-08 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions
US20140096018A1 (en) * 2012-09-28 2014-04-03 Interactive Memories, Inc. Methods for Recognizing Digital Images of Persons known to a Customer Creating an Image-Based Project through an Electronic Interface
US9465813B1 (en) * 2012-11-09 2016-10-11 Amazon Technologies, Inc. System and method for automatically generating albums
US9158970B2 (en) 2012-11-16 2015-10-13 Canon Kabushiki Kaisha Devices, systems, and methods for visual-attribute refinement
US9672339B2 (en) * 2012-12-12 2017-06-06 Intel Corporation Electro-biometric authentication
TWI517675B (zh) * 2013-01-29 2016-01-11 國立交通大學 影像編碼方法及應用該影像編碼之嵌入式系統
US9852275B2 (en) 2013-03-15 2017-12-26 NSS Lab Works LLC Security device, methods, and systems for continuous authentication
GB2500823B (en) 2013-03-28 2014-02-26 Paycasso Verify Ltd Method, system and computer program for comparing images
US9122911B2 (en) 2013-03-28 2015-09-01 Paycasso Verify Ltd. System, method and computer program for verifying a signatory of a document
US9697533B2 (en) 2013-04-17 2017-07-04 The Nielsen Company (Us), Llc Methods and apparatus to monitor media presentations
US9519914B2 (en) 2013-04-30 2016-12-13 The Nielsen Company (Us), Llc Methods and apparatus to determine ratings information for online media presentations
US20140341443A1 (en) * 2013-05-16 2014-11-20 Microsoft Corporation Joint modeling for facial recognition
US9208567B2 (en) 2013-06-04 2015-12-08 Apple Inc. Object landmark detection in images
US9852519B2 (en) * 2013-06-25 2017-12-26 Pixart Imaging Inc. Detection system
US11080318B2 (en) * 2013-06-27 2021-08-03 Kodak Alaris Inc. Method for ranking and selecting events in media collections
US10068246B2 (en) 2013-07-12 2018-09-04 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions
US9465977B1 (en) 2013-07-19 2016-10-11 Google Inc. Face template balancing
KR20150011714A (ko) * 2013-07-23 2015-02-02 주식회사 케이티 영상 방향 판단 장치
US9313294B2 (en) 2013-08-12 2016-04-12 The Nielsen Company (Us), Llc Methods and apparatus to de-duplicate impression information
CN103413270A (zh) * 2013-08-15 2013-11-27 北京小米科技有限责任公司 一种图像的处理方法、装置和终端设备
US9779527B2 (en) * 2013-08-15 2017-10-03 Xiaomi Inc. Method, terminal device and storage medium for processing image
US12008838B2 (en) 2013-09-17 2024-06-11 Cloudspotter Technologies, Inc. Private photo sharing system, method and network
US10460151B2 (en) 2013-09-17 2019-10-29 Cloudspotter Technologies, Inc. Private photo sharing system, method and network
TWI671657B (zh) * 2013-09-18 2019-09-11 日商半導體能源研究所股份有限公司 顯示裝置、顯示裝置的驅動方法、程式以及儲存介質
CN104639517B (zh) * 2013-11-15 2019-09-17 阿里巴巴集团控股有限公司 利用人体生物特征进行身份验证的方法和装置
US20220261465A1 (en) * 2013-11-21 2022-08-18 Yevgeny Levitov Motion-Triggered Biometric System for Access Control
US9524421B2 (en) * 2013-12-09 2016-12-20 Google Inc. Differentiating real faces from representations
CN104715227B (zh) * 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
US10489912B1 (en) * 2013-12-20 2019-11-26 Amazon Technologies, Inc. Automated rectification of stereo cameras
US10956947B2 (en) 2013-12-23 2021-03-23 The Nielsen Company (Us), Llc Methods and apparatus to measure media using media object characteristics
US9852163B2 (en) 2013-12-30 2017-12-26 The Nielsen Company (Us), Llc Methods and apparatus to de-duplicate impression information
US9237138B2 (en) 2013-12-31 2016-01-12 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions and search terms
US10147114B2 (en) 2014-01-06 2018-12-04 The Nielsen Company (Us), Llc Methods and apparatus to correct audience measurement data
US20150193816A1 (en) 2014-01-06 2015-07-09 The Nielsen Company (Us), Llc Methods and apparatus to correct misattributions of media impressions
WO2015127394A1 (en) 2014-02-23 2015-08-27 Northeastern University System for beauty, cosmetic, and fashion analysis
US20150262207A1 (en) 2014-03-13 2015-09-17 The Nielsen Company (US),LLC Methods and apparatus to compensate impression data for misattribution and/or non-coverage by a database proprietor
KR20150116641A (ko) * 2014-04-08 2015-10-16 한국과학기술연구원 이미지 인식 장치, 그것의 이미지 인식 방법 및 얼굴 이미지 생성 방법
US9614724B2 (en) 2014-04-21 2017-04-04 Microsoft Technology Licensing, Llc Session-based device configuration
US9639742B2 (en) 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US9773156B2 (en) * 2014-04-29 2017-09-26 Microsoft Technology Licensing, Llc Grouping and ranking images based on facial recognition data
US10111099B2 (en) 2014-05-12 2018-10-23 Microsoft Technology Licensing, Llc Distributing content in managed wireless distribution networks
US9384334B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content discovery in managed wireless distribution networks
US9430667B2 (en) 2014-05-12 2016-08-30 Microsoft Technology Licensing, Llc Managed wireless distribution network
US9384335B2 (en) 2014-05-12 2016-07-05 Microsoft Technology Licensing, Llc Content delivery prioritization in managed wireless distribution networks
US9874914B2 (en) 2014-05-19 2018-01-23 Microsoft Technology Licensing, Llc Power management contracts for accessory devices
FR3021443B1 (fr) * 2014-05-20 2017-10-13 Essilor Int Procede de construction d'un modele du visage d'un individu, procede et dispositif d'analyse de posture utilisant un tel modele
US9367490B2 (en) 2014-06-13 2016-06-14 Microsoft Technology Licensing, Llc Reversible connector for accessory devices
US9460493B2 (en) 2014-06-14 2016-10-04 Microsoft Technology Licensing, Llc Automatic video quality enhancement with temporal smoothing and user override
US10115004B2 (en) 2014-06-17 2018-10-30 Carnegie Mellon University Methods and software for hallucinating facial features by prioritizing reconstruction errors
US9373179B2 (en) 2014-06-23 2016-06-21 Microsoft Technology Licensing, Llc Saliency-preserving distinctive low-footprint photograph aging effect
US10339504B2 (en) * 2014-06-29 2019-07-02 Avaya Inc. Systems and methods for presenting information extracted from one or more data sources to event participants
US10311464B2 (en) 2014-07-17 2019-06-04 The Nielsen Company (Us), Llc Methods and apparatus to determine impressions corresponding to market segments
US9405963B2 (en) * 2014-07-30 2016-08-02 International Business Machines Corporation Facial image bucketing with expectation maximization and facial coordinates
CN104133899B (zh) * 2014-08-01 2017-10-13 百度在线网络技术(北京)有限公司 图片搜索库的生成方法和装置、图片搜索方法和装置
US10140517B2 (en) * 2014-08-06 2018-11-27 Dropbox, Inc. Event-based image classification and scoring
US10740802B2 (en) * 2014-08-18 2020-08-11 Fuji Xerox Co., Ltd. Systems and methods for gaining knowledge about aspects of social life of a person using visual content associated with that person
US20160063539A1 (en) 2014-08-29 2016-03-03 The Nielsen Company (Us), Llc Methods and apparatus to associate transactions with media impressions
US10290019B2 (en) 2014-10-24 2019-05-14 Dropbox, Inc. User re-engagement with online photo management service
KR102357326B1 (ko) * 2014-11-19 2022-01-28 삼성전자주식회사 얼굴 특징 추출 방법 및 장치, 얼굴 인식 방법 및 장치
US10262272B2 (en) * 2014-12-07 2019-04-16 Microsoft Technology Licensing, Llc Active machine learning
US20160189182A1 (en) 2014-12-31 2016-06-30 The Nielsen Company (Us), Llc Methods and apparatus to correct age misattribution in media impressions
US10257495B1 (en) * 2014-12-31 2019-04-09 Morphotrust Usa, Llc Three dimensional composite images of digital identifications
US10402626B2 (en) * 2015-03-02 2019-09-03 M and M Technologies Limited Recognition of human faces based on population verified reproducible measurements between facial anthropological landmarks on 2 dimensional or 3 dimensional human photographs
US10089520B2 (en) * 2015-03-26 2018-10-02 Krishna V Motukuri System for displaying the contents of a refrigerator
US10445391B2 (en) 2015-03-27 2019-10-15 Jostens, Inc. Yearbook publishing system
US20160294891A1 (en) * 2015-03-31 2016-10-06 Facebook, Inc. Multi-user media presentation system
JP6966421B2 (ja) * 2015-04-01 2021-11-17 オウル・ラブズ・インコーポレイテッドOwl Labs, Inc. 角度分離されたサブシーンの合成およびスケーリング
US10628593B2 (en) 2015-04-17 2020-04-21 Dropbox, Inc. Collection folder for collecting file submissions and recording associated activities
KR102393228B1 (ko) 2015-05-11 2022-04-29 매직 립, 인코포레이티드 뉴럴 네트워크들을 활용하여 생체 인증 사용자 인식을 위한 디바이스들, 방법들 및 시스템들
US10045082B2 (en) 2015-07-02 2018-08-07 The Nielsen Company (Us), Llc Methods and apparatus to correct errors in audience measurements for media accessed using over-the-top devices
US10380633B2 (en) 2015-07-02 2019-08-13 The Nielsen Company (Us), Llc Methods and apparatus to generate corrected online audience measurement data
JP6785305B2 (ja) 2015-07-15 2020-11-18 15 セカンズ オブ フェイム,インコーポレイテッド 顔認識及びコンテキストビデオストリームで個人を識別するためのビデオ解析技術のための装置及び方法
US20170026836A1 (en) * 2015-07-20 2017-01-26 University Of Maryland, College Park Attribute-based continuous user authentication on mobile devices
US9769367B2 (en) 2015-08-07 2017-09-19 Google Inc. Speech and computer vision-based control
US9838754B2 (en) 2015-09-01 2017-12-05 The Nielsen Company (Us), Llc On-site measurement of over the top media
US9984309B2 (en) * 2015-09-30 2018-05-29 International Business Machines Corporation Classifying and grouping electronic images
US10275641B2 (en) 2015-10-01 2019-04-30 Intellivision Technologies Corp Methods and systems for extracting feature descriptors for an image
KR20180105636A (ko) 2015-10-21 2018-09-28 15 세컨즈 오브 페임, 인크. 얼굴 인식 애플리케이션들에서 긍정 오류를 최소화하기 위한 방법들 및 장치
US10205994B2 (en) 2015-12-17 2019-02-12 The Nielsen Company (Us), Llc Methods and apparatus to collect distributed user information for media impressions
US9836819B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US9836484B1 (en) 2015-12-30 2017-12-05 Google Llc Systems and methods that leverage deep learning to selectively store images at a mobile image capture device
US10732809B2 (en) 2015-12-30 2020-08-04 Google Llc Systems and methods for selective retention and editing of images captured by mobile image capture device
US10225511B1 (en) 2015-12-30 2019-03-05 Google Llc Low power framework for controlling image sensor mode in a mobile image capture device
US9838641B1 (en) 2015-12-30 2017-12-05 Google Llc Low power framework for processing, compressing, and transmitting images at a mobile image capture device
US10713966B2 (en) 2015-12-31 2020-07-14 Dropbox, Inc. Assignments for classrooms
CN105608441B (zh) * 2016-01-13 2020-04-10 浙江宇视科技有限公司 一种车型识别方法及系统
US10270673B1 (en) 2016-01-27 2019-04-23 The Nielsen Company (Us), Llc Methods and apparatus for estimating total unique audiences
CN109074484B (zh) 2016-03-02 2022-03-01 蒂诺克股份有限公司 用于有效率的面部识别的系统和方法
JP6889728B2 (ja) 2016-03-11 2021-06-18 マジック リープ, インコーポレイテッドMagic Leap,Inc. 畳み込みニューラルネットワークにおける構造学習
EP3436926A4 (en) 2016-03-30 2019-11-13 Tinoq Inc. SYSTEMS AND METHODS FOR USER DETECTION AND RECOGNITION
US9892326B2 (en) * 2016-03-31 2018-02-13 International Business Machines Corporation Object detection in crowded scenes using context-driven label propagation
US10956544B1 (en) 2016-04-01 2021-03-23 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10733275B1 (en) * 2016-04-01 2020-08-04 Massachusetts Mutual Life Insurance Company Access control through head imaging and biometric authentication
US10497014B2 (en) * 2016-04-22 2019-12-03 Inreality Limited Retail store digital shelf for recommending products utilizing facial recognition in a peer to peer network
US20170351845A1 (en) * 2016-06-01 2017-12-07 Invio, Inc. Research study data acquisition and quality control systems and methods
US10198626B2 (en) 2016-10-19 2019-02-05 Snap Inc. Neural networks for facial modeling
KR102530045B1 (ko) * 2016-12-23 2023-05-09 삼성전자주식회사 전자 장치 및 그 동작 방법
WO2018117704A1 (en) * 2016-12-23 2018-06-28 Samsung Electronics Co., Ltd. Electronic apparatus and operation method thereof
US11138742B2 (en) * 2017-02-14 2021-10-05 The Trustees Of The University Of Pennsylvania Event-based feature tracking
US10726558B2 (en) 2017-02-27 2020-07-28 Dolphin AI, Inc. Machine learning-based image recognition of weather damage
US10282598B2 (en) 2017-03-07 2019-05-07 Bank Of America Corporation Performing image analysis for dynamic personnel identification based on a combination of biometric features
US10565433B2 (en) 2017-03-30 2020-02-18 George Mason University Age invariant face recognition using convolutional neural networks and set distances
US10430966B2 (en) * 2017-04-05 2019-10-01 Intel Corporation Estimating multi-person poses using greedy part assignment
US10277714B2 (en) 2017-05-10 2019-04-30 Facebook, Inc. Predicting household demographics based on image data
US20180352166A1 (en) * 2017-06-01 2018-12-06 Silicon Constellations, Inc. Video recording by tracking wearable devices
CN109086645B (zh) 2017-06-13 2021-04-20 阿里巴巴集团控股有限公司 人脸识别方法、装置以及虚假用户的识别方法、装置
US10943088B2 (en) 2017-06-14 2021-03-09 Target Brands, Inc. Volumetric modeling to identify image areas for pattern recognition
US10735916B2 (en) * 2017-06-20 2020-08-04 Apple Inc. Two-way communication interface for vision-based monitoring system
CN107220990B (zh) * 2017-06-22 2020-09-08 成都品果科技有限公司 一种基于深度学习的头发分割方法
US20190007672A1 (en) 2017-06-30 2019-01-03 Bobby Gene Burrough Method and Apparatus for Generating Dynamic Real-Time 3D Environment Projections
US10303932B2 (en) * 2017-07-05 2019-05-28 Midea Group Co., Ltd. Face recognition in a residential environment
US10210381B1 (en) 2017-08-01 2019-02-19 Apple Inc. Multiple enrollments in facial recognition
EP3662406B1 (en) 2017-08-01 2023-11-22 Apple Inc. Determining sparse versus dense pattern illumination
KR102362651B1 (ko) 2017-08-01 2022-02-14 애플 인크. 얼굴 인식에 사용되는 템플릿들을 업데이트하기 위한 프로세스
US11445094B2 (en) 2017-08-07 2022-09-13 Apple Inc. Electronic device having a vision system assembly held by a self-aligning bracket assembly
US10996713B2 (en) 2017-08-07 2021-05-04 Apple Inc. Portable electronic device
US10268234B2 (en) 2017-08-07 2019-04-23 Apple Inc. Bracket assembly for a multi-component vision system in an electronic device
US10366279B2 (en) 2017-08-29 2019-07-30 Bank Of America Corporation System for execution of multiple events based on image data extraction and evaluation
EP3698358A1 (en) 2017-10-18 2020-08-26 Soapbox Labs Ltd. Methods and systems for processing audio signals containing speech data
CN107832690B (zh) * 2017-10-30 2020-12-08 Oppo广东移动通信有限公司 人脸识别的方法及相关产品
US20190164205A1 (en) * 2017-11-28 2019-05-30 International Business Machines Corporation Generating an electronic wardrobe profile for an individual user in a customer account id
CN108174297A (zh) * 2018-01-24 2018-06-15 深圳市康冠商用科技有限公司 画框电视机
US10885315B2 (en) 2018-03-19 2021-01-05 Rovi Guides, Inc. Systems and methods for alerting a user to published undesirable images depicting the user
CN110634174B (zh) * 2018-06-05 2023-10-10 深圳市优必选科技有限公司 一种表情动画过渡方法、系统及智能终端
CA3050456C (en) * 2018-07-24 2023-01-03 Sultan A. Alrasheed Facial modelling and matching systems and methods
EP3834096A4 (en) * 2018-08-08 2022-04-20 IP Investment Holdings, LLC SYSTEM AND METHOD OF OPERATION IN AN AUGMENTED REALITY DISPLAY
US10909375B2 (en) 2018-08-08 2021-02-02 Mobilitie, Llc System and method for operation in an augmented reality display device
US11263418B2 (en) 2018-08-21 2022-03-01 Tinoq Inc. Systems and methods for member facial recognition based on context information
US10936856B2 (en) 2018-08-31 2021-03-02 15 Seconds of Fame, Inc. Methods and apparatus for reducing false positives in facial recognition
US10853526B2 (en) * 2018-09-10 2020-12-01 Lenovo (Singapore) Pte. Ltd. Dynamic screen filtering
US11144998B2 (en) * 2018-09-20 2021-10-12 The Toronto-Dominion Bank Dynamic provisioning of data exchanges based on detected relationships within processed image data
US10846327B2 (en) * 2018-11-02 2020-11-24 A9.Com, Inc. Visual attribute determination for content selection
US20200213510A1 (en) * 2018-12-30 2020-07-02 Luke Trevitt System and method to capture and customize relevant image and further allows user to share the relevant image over a network
CN109858464B (zh) * 2019-02-26 2021-03-23 北京旷视科技有限公司 底库数据处理方法、人脸识别方法、装置和电子设备
US11010596B2 (en) 2019-03-07 2021-05-18 15 Seconds of Fame, Inc. Apparatus and methods for facial recognition systems to identify proximity-based connections
EP3973468A4 (en) 2019-05-21 2022-09-14 Magic Leap, Inc. HANDPOSITION ESTIMATING
WO2020261508A1 (en) * 2019-06-27 2020-12-30 Nec Corporation Image processing device, person search system, image processing method, and non-transitory computer readable medium
US11039676B2 (en) * 2019-07-21 2021-06-22 Shaobo Kuang System and method for selecting or recommending skincare, haircare, beauty or fashion products
CN112766014A (zh) * 2019-10-21 2021-05-07 深圳君正时代集成电路有限公司 一种人脸识别中进行自动学习的识别方法
CN112766015A (zh) * 2019-10-21 2021-05-07 深圳君正时代集成电路有限公司 一种提高人脸识别准确性的二次识别方法
US20220375258A1 (en) * 2019-10-29 2022-11-24 Guangzhou Huya Technology Co., Ltd Image processing method and apparatus, device and storage medium
US11341351B2 (en) 2020-01-03 2022-05-24 15 Seconds of Fame, Inc. Methods and apparatus for facial recognition on a user device
US11794695B2 (en) * 2020-02-20 2023-10-24 B-Horizon GmbH Car sharing management system
US20210365530A1 (en) * 2020-03-11 2021-11-25 Yevgeny Levitov Motion-triggered biomentric system for access control
CN111444817B (zh) * 2020-03-24 2023-07-07 咪咕文化科技有限公司 一种人物图像识别方法、装置、电子设备和存储介质
US11475709B2 (en) 2020-03-30 2022-10-18 Tina Elizabeth LAFRENIERE Systems, methods, and platform for facial identification within photographs
US11661212B2 (en) * 2020-04-11 2023-05-30 Hamilton Sundstrand Corporation Prognostic and health monitoring by energy metering at power supply interface
CN111680552B (zh) * 2020-04-28 2023-10-03 北京控制工程研究所 一种特征部位智能识别方法
CN111523513B (zh) * 2020-05-09 2023-08-18 深圳市华百安智能技术有限公司 通过大数据筛选进行人员入户安全验证的工作方法
US11244169B2 (en) 2020-06-15 2022-02-08 Bank Of America Corporation System for executing multiple events based on video data extraction and evaluation
US11645813B2 (en) * 2020-07-06 2023-05-09 Disney Enterprises, Inc. Techniques for sculpting digital faces based on anatomical modeling
WO2022031872A1 (en) 2020-08-04 2022-02-10 Owl Labs Inc. Designated view within a multi-view composited webcam signal
WO2022046810A2 (en) 2020-08-24 2022-03-03 Owl Labs Inc. Merging webcam signals from multiple cameras
CN112015936B (zh) * 2020-08-27 2021-10-26 北京字节跳动网络技术有限公司 用于生成物品展示图的方法、装置、电子设备和介质
KR102283673B1 (ko) * 2020-11-30 2021-08-03 주식회사 코어라인소프트 병변 추적 검사에 기반하여 진단 보조 정보의 임계치를 조정하는 의료 영상 판독 지원 장치 및 방법
CN112836682B (zh) * 2021-03-04 2024-05-28 广东建邦计算机软件股份有限公司 视频中对象的识别方法、装置、计算机设备和存储介质
US11790568B2 (en) 2021-03-29 2023-10-17 Kyndryl, Inc Image entity extraction and granular interactivity articulation
US20230245127A1 (en) * 2022-02-02 2023-08-03 Kyndryl, Inc. Augmented user authentication
CN116386106B (zh) * 2023-03-16 2024-08-20 宁波星巡智能科技有限公司 伴睡婴幼儿时婴幼儿头部智能识别方法、装置及设备
CN116434313B (zh) * 2023-04-28 2023-11-14 北京声迅电子股份有限公司 基于多人脸识别模块的人脸识别方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167632A (ja) * 1997-12-02 1999-06-22 Omron Corp 本人特定装置
JP2000137813A (ja) * 1998-10-30 2000-05-16 Oki Electric Ind Co Ltd 個体識別装置
JP2006078855A (ja) * 2004-09-10 2006-03-23 Toshiba Tec Corp 個人認証装置

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56119586A (en) 1980-02-25 1981-09-19 Suzuyo Tanigaki Picture display and image pickup device
US4754271A (en) 1987-03-10 1988-06-28 Willie Edwards Liquid crystal photograph
US5164992A (en) * 1990-11-01 1992-11-17 Massachusetts Institute Of Technology Face recognition system
US5550928A (en) * 1992-12-15 1996-08-27 A.C. Nielsen Company Audience measurement system and method
US5639151A (en) 1996-02-16 1997-06-17 Mcnelley; Steve H. Pass-through reflective projection display
US6111517A (en) * 1996-12-30 2000-08-29 Visionics Corporation Continuous video monitoring using face recognition for access control
JP3621245B2 (ja) * 1997-12-12 2005-02-16 株式会社東芝 人物認識装置、人物認識方法、および、人物認識プログラムの記録媒体
US6606411B1 (en) 1998-09-30 2003-08-12 Eastman Kodak Company Method for automatically classifying images into events
US6509910B1 (en) 1998-11-18 2003-01-21 Eastman Kodak Company Method and system for interfacing with a digital media frame network
US6351556B1 (en) 1998-11-20 2002-02-26 Eastman Kodak Company Method for automatically comparing content of images for classification into events
US6577757B1 (en) * 1999-07-28 2003-06-10 Intelligent Reasoning Systems, Inc. System and method for dynamic image recognition
US7042486B2 (en) 1999-11-30 2006-05-09 Eastman Kodak Company Image capture and display device
US7114079B1 (en) 2000-02-10 2006-09-26 Parkervision, Inc. Security access based on facial features
CN1304919C (zh) 2001-07-03 2007-03-14 皇家菲利浦电子有限公司 交互显示器和用于显示信息的方法
JP3903783B2 (ja) 2001-12-14 2007-04-11 日本電気株式会社 顔メタデータ生成方法および装置、並びに顔類似度算出方法および装置
US7110575B2 (en) 2002-08-02 2006-09-19 Eastman Kodak Company Method for locating faces in digital color images
US7362919B2 (en) 2002-12-12 2008-04-22 Eastman Kodak Company Method for generating customized photo album pages and prints based on people and gender profiles
GB2402535B (en) * 2003-06-05 2006-06-21 Canon Kk Image processing
US7492924B2 (en) * 2003-07-18 2009-02-17 Intel Corporation Face tracking
WO2006078265A2 (en) * 2004-03-30 2006-07-27 Geometrix Efficient classification of three dimensional face models for human identification and other applications
US7689010B2 (en) * 2004-12-03 2010-03-30 Invacare International Sarl Facial feature analysis system
US7522773B2 (en) 2005-04-28 2009-04-21 Eastman Kodak Company Using time in recognizing persons in images
US7386105B2 (en) * 2005-05-27 2008-06-10 Nice Systems Ltd Method and apparatus for fraud detection
JP4577113B2 (ja) 2005-06-22 2010-11-10 オムロン株式会社 対象決定装置、撮像装置および監視装置
US7885436B2 (en) * 2006-07-13 2011-02-08 Authentec, Inc. System for and method of assigning confidence values to fingerprint minutiae points

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167632A (ja) * 1997-12-02 1999-06-22 Omron Corp 本人特定装置
JP2000137813A (ja) * 1998-10-30 2000-05-16 Oki Electric Ind Co Ltd 個体識別装置
JP2006078855A (ja) * 2004-09-10 2006-03-23 Toshiba Tec Corp 個人認証装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019536496A (ja) * 2016-09-19 2019-12-19 ロレアルL′Oreal アイバッグの3次元分析のための、システム、デバイス、及び方法
JP2020526845A (ja) * 2017-07-13 2020-08-31 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh 姿勢変動に頑健な顔位置調整のためのシステム及び方法
JPWO2021225001A1 (ja) * 2020-05-08 2021-11-11
WO2021225001A1 (ja) * 2020-05-08 2021-11-11 富士通株式会社 識別方法、生成方法、識別プログラム及び識別装置
JP7351413B2 (ja) 2020-05-08 2023-09-27 富士通株式会社 識別方法、生成方法、識別プログラム及び識別装置

Also Published As

Publication number Publication date
JP5517952B2 (ja) 2014-06-11
US20090185723A1 (en) 2009-07-23
EP2238563B1 (en) 2018-03-07
EP2238563A1 (en) 2010-10-13
US8180112B2 (en) 2012-05-15
WO2009094109A1 (en) 2009-07-30

Similar Documents

Publication Publication Date Title
JP5517952B2 (ja) 画像内個人の永続的認識可能化
US10346677B2 (en) Classification and organization of consumer digital images using workflow, and face detection and recognition
EP1886255B1 (en) Using photographer identity to classify images
US7522773B2 (en) Using time in recognizing persons in images
US7551755B1 (en) Classification and organization of consumer digital images using workflow, and face detection and recognition
US8199979B2 (en) Classification system for consumer digital images using automatic workflow and face detection and recognition
US7555148B1 (en) Classification system for consumer digital images using workflow, face detection, normalization, and face recognition
US7587068B1 (en) Classification database for consumer digital images
JP5639478B2 (ja) デジタル画像における顔の表情の検出
US7558408B1 (en) Classification system for consumer digital images using workflow and user interface modules, and face detection and recognition
US20060110014A1 (en) Expression invariant face recognition
JP5287333B2 (ja) 年令推定装置
KR20160101973A (ko) 비제약형 매체에 있어서 얼굴을 식별하는 시스템 및 방법
WO2007053458A1 (en) Determining a particular person from a collection
WO2008147533A1 (en) Composite person model from image collection
JP2014064083A (ja) 監視装置及び方法
Dubey et al. Echelon Based Pose Generalization of Facial Images Approaches
JP2020135369A (ja) 情報処理装置、システム、情報処理方法及びプログラム
Abdulsada et al. Human face detection in a crowd image based on template matching technique
Leo Web based face recognition for visual internet of things
Kohli et al. Attendance System using Face Recognition–A Review
Thomas Face recognition from surveillance-quality video

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130104

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20130403

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140401

R150 Certificate of patent or registration of utility model

Ref document number: 5517952

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250