JP3178719B2 - 動的物体認識方法及びその画像処理システム - Google Patents

動的物体認識方法及びその画像処理システム

Info

Publication number
JP3178719B2
JP3178719B2 JP50078491A JP50078491A JP3178719B2 JP 3178719 B2 JP3178719 B2 JP 3178719B2 JP 50078491 A JP50078491 A JP 50078491A JP 50078491 A JP50078491 A JP 50078491A JP 3178719 B2 JP3178719 B2 JP 3178719B2
Authority
JP
Japan
Prior art keywords
probability
frame
predetermined
resolution
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP50078491A
Other languages
English (en)
Other versions
JPH05501770A (ja
Inventor
バート,ピーター・ジエフリー
Original Assignee
サーノフ コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サーノフ コーポレイション filed Critical サーノフ コーポレイション
Publication of JPH05501770A publication Critical patent/JPH05501770A/ja
Application granted granted Critical
Publication of JP3178719B2 publication Critical patent/JP3178719B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/248Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
    • G06V30/2504Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 発明の背景 本発明は、比較的高解像度の画像データフレームの時
系列中に図式表示された所定クラスの物体を認識するた
めの動的画像処理技術に関する。
画像データ中に図式表示された物体のパターン形状を
認識するための技術が当該技術分野で周知である。ま
た、予め選択された角方位を持つ移動物体と静止物体と
を区別し、又は他の所定の興味ある特徴をもつ物体を区
別する技術も、当業界では周知である。
これら技術の例としては、米国特許第4,692,806号
(発明者:アンダーソン他;登録日:1987年9月8日)
及び米国特許第4,385,322号(発明者:ヒュバッチ他;
登録日1983年5月24日)に開示されている。
アンダーソン特許には、第1所定ピクセル数から成る
元々広視野且つ高解像度の画像を処理して、第1所定数
よりも小さい第2所定ピクセル数の広視野低解像度画像
を派生させる画像データ圧縮技術が示されている。この
派生した低解像度画像中の検出された興味ある特徴の位
置に基づき、第2所定ピクセル数のみを含む可動ウィン
ドウを用い、検出された興味ある特徴を含む元の高解像
度画像の狭視野部の位置を得ることができる。アンダー
ソン特許では、いわゆるマルチ解像度ピラミッドプロセ
ッサ技術を採用して、画像データ圧縮を行っている。
アンダーソン特許のデータ圧縮技術は、連続した比較
的高解像度の画像データフレームに対して時系列的に繰
り返し行われるが、この各圧縮作用中における目的特徴
の検出は、相互に変わるところはない(即ち、各繰り返
し作用中、目的特徴は、一つ前の繰り返し作用上で検出
されるか否かにかかわらず、検出又は非検出される)。
ヒュバッチ特許には、データ圧縮技術を用いたパター
ン認識方法が開示されている。まず基準シーンがファイ
ン(細)フォーマットで記録保持され、次いでコース
(粗)フォーマットで記録保持される。記憶された基準
シーンの粗情報は、広視野対象シーンからの粗情報とリ
アルタイムで比較され、合致パーセントを示す相関番号
(確率)を用いて対象シーンと基準シーンとの最高合致
位置が定められる。粗合致部位近傍に存在する対象シー
ンの狭視野領域のみが、基準シーンの記憶された細情報
と比較される。最適合致位置は、対象シーンと基準シー
ンの細記憶情報との合致の最大相関番号(確率)に従っ
て正確に決定される。ヒュバッチ特許では、記憶された
粗及び細基準情報は固定されたままであることに留意さ
れたい。
今、認識されるべき物体が3次元可動物体である場合
を考える。この物体は、連続した画像データフレームの
時系列中に図式表示される。各画像データフレームは、
3次元物体の2次元投写により構成される。このような
場合、各フレーム中における2次元投写の大きさ及び形
状は、3次元物体の投写方向に対する垂直方向への距
離、及び当該フレームにおける3次元物体の投写の角方
向により変化する。もし3次元物体が移動すれば、その
図式表示の大きさ及び形状がフレーム毎に塩化する。こ
のように、3次元移動物体に関して単一フレームから得
られる情報は、完全とは程遠いものとなる。しかし、単
一フレームから得た情報に時系列上の全ての前フレーム
から得られた情報を累積付加してゆくことにより、その
ような3次元可動物体を選択的に高精度で照合認識する
に十分な情報を収集することができる。本発明に係る動
的画像処理方法は、この種の認識における問題を効率よ
く解決することを意図して為されたものである。
発明の要約 具体的に言えば、本発明に係る動的に画像を処理する
方法では、所定クラスの物体が認識される。所定クラス
の物体の全ては、既知の一群の包括的属性を有し、この
一群の包括的属性が、全体として、所定クラスの物体と
それ以外のクラスの物体とを区別する。この方法では、
本画像処理を制御すると共に、一組の決定基準を特定す
るための手段に応答を示す。この方法では、また、この
一群の包括的属性に関する限定された数の個別特徴を初
期に規定している記憶データに応答を示す。所定クラス
の物体が一又は複数の連続画像データフレームのシーケ
ンス中にグラフィカルに表示されている場合、任意の初
期記憶された特徴は、当該シーケンス中に存在する可能
性がある。この方法は、次の各ステップを含む。
先ず、相対的に高解像度であり時系列の連続した画像
データフレームが、この高解像度フレームの解像度より
も低い解像度を示す少なくとも一レベルから成るマルチ
解像度ピラミッドプロセッサにおいて解析される。格納
されたプログラムによる制御下で、且つ記憶データによ
って初期に規定された個別特徴のうち少なくとも第1の
特徴に応じて、第1の確率に関する決定基準に従って第
1の決定が行われる。この第1の確率では、時系列上の
相対的に初期に発生する一又は複数のフレームのシーケ
ンス中におけるマルチ解像度ピラミッドプロセッサの低
い方の解像度の任意のレベルは、所定クラスの物体の固
定特徴のうち少なくとも第1の特徴を、その画像データ
の部分として含んでいる。この第1の確率が第1の所定
閾値と少なくとも等しい場合、シーケンスの最初の方で
の発生フレーム内における画像データの当該部分の少な
くとも相対位置を決定するデータは、記憶データに追加
され、これによって記憶データが増大されることにな
る。
その後、格納プログラムによる制御下で、且つ増大さ
れた記憶データに応じて、第2の確率に関する決定基準
に従って第2の決定が行われる。この第2の確率は、時
系列上の相対的に後に発生する一又は複数のフレームの
シーケンスのマルチ解像度ピラミッドプロセッサのレベ
ルのうちの何れかによって、少なくとも個別特徴のうち
の第2の特徴を第1の特徴に加えて画像データ中の上記
部分が更に含むことが照合される確率である。第2の確
率が第2の所定閾値以上であるならば、画像データの上
記部分は、所定クラスの物体のグラフィカル表示である
と認識される。しかしながら、第2の所定閾値よりもか
なり小さい第3の所定閾値よりも、第2の確率が小さい
場合には、画像データの上記部分は、所定クラスの物体
のグラフィカル表示でないと認識される。第2の確率が
第2および第3の所定の閾値の間の範囲内にある場合に
は、前記照合ステップにより規定される更なるデータが
記憶データに追加され、これによって記憶データが一層
増大されることとなる。更に、もし第2の確率がこの範
囲にあるならば、照合ステップ及びこれに応じた記憶デ
ータの蓄積は、時系列上の一又は複数のフレームのもっ
と後に発生するシーケンスに対して再帰的にくり返され
る。これは、そのような繰り返しステップが第2の閾値
より上昇するか、或いは第3の閾値より小さく降下する
まで続けられる。
図面の簡単な説明 図1は、本発明の原理を描いた機能図; 図2は、図1中の撮像手段の特定の構成例を用いた本
発明の一例を示す図; 図3は、図1のプリプロセッサの例を示す図; 図4は、図1の物体認識手段及び記憶データの例を示
す図である。
好適な実施例の説明 人間の観察者は、複雑なシーン(場面)に存在する所
定クラスの物体(例:他の人間)を認識するのに困難を
覚えることはない。事実、観察者が何百もの個体を知っ
ていたとしても、観察シーン中に存在する任意の一個体
を認識することに困難はない。
全ての人間は、一群の既知の包括的属性(以下、包括
的特徴ともいう)を備えており、これらの包括的属性
は、全体として、人間を人間以外の他の物体から識別す
る作用を果たす。しかしながら、これは、主として、一
個体を他個体から識別する顔相上の特徴における差に基
づく。
図1に示した本発明に係る動的画像処理方法は、その
全てが一群の既知の包括的特徴をもつ所定クラスの物体
を認識するという人間の能力を模倣したものである。こ
れらの属性は、全体として、この所定クラスの物体をそ
れ以外のクラスの物体から識別する作用を果たす。更
に、本発明の動的画像処理では、所定クラスに属する予
め選択された複数のメンバー中からの識別を行なうこと
も可能である。予め選択されたメンバーの各々は、少な
くとも一つのサブグループの既知の包括的特徴の各々に
おける既知の種属性(以下、種ともいう)の特有の組を
もつということによって、個々に規定されている。
図1には、視野102を有する撮像手段100が示されてい
る。撮像手段100は、外部照射器にて照射される視野102
内の物体から反射した輻射線を受ける構造を備える。或
いは、撮像手段100は、視野102内で物体を輻射線で照射
するための手段及び物体からの反射エコーを受ける手段
を含む構成とすることもできる(これらのエコー(反射
波)は、物体距離情報を提供することもできる)。更
に、撮像手段100は、電磁、超音波及び/又はあらゆる
他の種類の波−エネルギースペクトルの所定波長の任意
の部分の輻射に応答を示すことができる。視野102内に
は、所定クラス104に属する2個の可動物体が配置され
ている(図1では可動の立方体として示す)。両物体
は、立方体の全ての包括的属性を備えているが、具体的
には、上側の立方体の面は「+」が記され、下側の立方
体の面には「0」が記されているという点で両者は相違
する。更に、視野102内には、所定クラス104以外の種々
の静止物体106が複数存在する。
撮像手段100は、各3次元立方体104の2次元投射像を
生成する。立方体104は可動であるので、各立方体の投
写された形状及び大きさは、いずれの時間においても、
撮像手段100からの立方体の方向及び距離に従って変化
する。
撮像手段100の出力は、時系列上に連続した相対的に
高解像度の画像データフレームを含む。各フレームは、
クラス104に属する各立方体及び物体106の2次元投写を
アナログ形式でグラフィカルに表現する。この表現は、
時系列上に当該フレーム発生時点における立方体及び物
体が存在する空間位置における2次元投影像を表す。ア
ナログ/デジタル(A/D)コンバータ108は、プリプロセ
ッサ110、マルチ解像度ピラミッドプロセッサ112、物体
認識手段114、記憶プログラム116、及び記憶データ118
を備えるデジタルプロセッサによる処理に供するため
に、連続した各フレームにおける画像データをデジタル
形式に変換する。
図1において、デジタルプロセッサは、相互に接続さ
れた機能ブロックのシステムとして示されている。その
システムでは、各ブロックがサブシステムに対応してい
る。実際には、デジタルプロセッサシステムは、ソフト
ウェア(即ち、プログラムされたコンピュータシステ
ム)及び/又はハードウェア(即ち、ハード配線された
素子)中に組み込まれることができる。プリプロセッサ
(以下、前プロセッサともいう)110のサブシステムの
詳細例は図3に示され、移体認識手段114及び記憶デー
タ118の詳細例は図4に示されている。両図に関しては
後述する。
記憶プログラム116は、制御入力をプリプロセッサ11
0、マルチ解像度ピラミッドプロセッサ112、物体認識手
段114及び記憶データ118へ提供して、該入力に従ってこ
れらサブシステムの動作シーケンスを制御する。この動
作シーケンスは、物体認識手段114から記憶プログラム1
16へフィードバックされた情報に従って修正される。制
御情報はまた、撮像手段100、プリプロセッサ110及びマ
ルチ解像度ピラミッドプロセッサ112の各々を介して物
体認識手段114からフィードバックされる。加えて、物
体認識手段114は、記憶データ118へ増大されたデータ蓄
積を提供する。
デジタル形式の画像データは、信号入力としてプリプ
ロセッサ110へ供給される。プリプロセッサ110は、物体
認識手段114及び記憶プログラム116から加えられる制御
情報に従って、入力として加えられる画像データを変更
すると共に、この変更された画像データをマルチ解像度
ピラミッドプロセッサ112に対する入力として与える。
マルチ解像度ピラミッドプロセッサ112は、上記のア
ンダーソン特許に教示された機能の対応を実行可能であ
って、米国特許第4,703,514号(登録日:1087年10月27
日;発明者:バン・デア・バル;発明の名称「リアルタ
イムマルチ解像度信号処理装置のプログラム構造」)の
開示内容に従って構成されることができる。
ピラミッドプロセッサ112からの出力データは、第1
の信号入力として物体認識手段114へ供給される。加え
て、物体認識手段114は、プリプロセッサ110から直接に
第2の信号入力情報を受ける。また、情報は撮像手段10
0からフィードバックされ、物体認識手段114への入力と
なる。更に、格納プログラム116による制御下で、格納
データ118は、選択された格納データを物体認識手段114
への入力として供給する。
物体認識プログラム114からの出力情報は、出力使用
手段120へ入力として供給される。図1にはまた、オプ
ションであるが、撮像手段100からの画像出力を表示す
るための(破線で示した)表示モニタ122が配置されて
いる。表示モニタ122は、また、出力使用手段120から受
けた情報を表示することができる(例:画像中の認識さ
れた物体を確認するために役立つキャプション及び他の
標識)。
図1は、本発明システムの全般的な構成を示す。本発
明をよりよく理解できるように、具体的な図示例(図
2)について以下説明する。図2において、認識手段10
0は、カラーテレビカメラ200a及び距離測定手段200bを
備える。カメラ200a及び距離測定手段200b双方の視野
は、ドア通路203を有する部屋201の内部にある。ジョン
204a、ビル204b及びメアリー204cの3人のうち誰かは、
あるとき、部屋201内に居ないかもしれない。そして、
エンドテーブル206a、ソファー206b及び振動ファン208
から成る3個の物品は、図2に示すようにずっと部屋20
1内に置かれている。図2に示した状態時では、ジョン2
04aは、テレビカメラ200a及び距離測定手段200bから成
る撮像手段に比較的近くであって部屋102内の位置に起
立している。ソファ206b上に座ったビル204bは、部屋10
2内の撮像手段100から比較的離れた場所に位置してい
る。そして、メアリー204cは、矢印205で示すようにド
ア通路203から部屋201を出たばかりである。
図2に示した実施例の場合に、本発明の目的は、
(1)部屋201内にいる任意の人間を全体的に認識する
こと;(2)次いで、全体的に認識された任意の人間が
ジョン204aであるか、ビル204bであるか、或いはメアリ
ー204cであるか、具体的に認識すること;(3)及びそ
の後、具体的に認識された各人の部屋201内における位
置と追跡すること、の3点である。
図示上の事情から、プリプロセッサ110は図3に示す
形態を採用しており、また物体認識手段114及び記憶デ
ータ118は図4に示すように構成されている。明瞭化の
ため、図3及び4において、記憶プログラム116とプリ
プロセッサ110、物体認識手段114及び記憶データ118と
の個々の接続関係は図示を省略した。しかし、各サブシ
ステムのシーケンスは記憶プログラム116により制御さ
れていることが理解されなければならない。
図3に示すように、プリプロセッサ110はカラーフィ
ルタ、フレーム及び距離メモリ300、画像方向変換手段3
02、そして移動物体手段304を備える。図4に示すよう
に、物体認識手段114は、大きさ調整手段400、テンプレ
ート方向変換手段401、指向パターン形状相関手段402、
確率決定手段404、フレッシュトーン検出器406、ゲート
408、ウィンドウ制御手段410及びゲート412を備える。
更に図4に示すように、記憶データ118は、初期記憶さ
れたマルチ視野マルチ解像度テンプレート118a、静止物
体の記憶位置118b、及び後に記憶された認識増大データ
118cを備える。
初期的に記憶されたテンプレート118aは、ジョン204
a、ビル204b及びメアリー204cの各人の顔全体、頭部の
左及右側面またはその部分をいくつかの異なる解像度で
規定している予め記憶された画像データを含む。低解像
度のテンプレートは、特定個人の頭全体又は顔全体を包
含することができるが、高解像度のテンプレートは、各
人の顔の比較的高情報部のみに限定される。例えば、高
解像度テンプレートは、各人の顔を横切る水平ストリッ
プを含む。このストリップ(細長い領域)はその人の
耳、眼、及び鼻梁を示す(即ち、特定個人と他の個人と
を認識するために使用されることができる高識別情報を
含む)。加えて、好ましくは低解像度のみにおいて、テ
ンプレート118aは、人体形状、包括的な(構成員全てに
当てはまる)頭部、又は人間の各部の形状を他の物体の
形状から図形的に識別する他のパターン形状からなる一
又は複数のテンプレートを含む。
図3に戻って、カラーテレビカメラ200aからのリアル
タイム出力に対応するA/Dコンバータ108からの入力の部
分は、デジタル形式で、まずブロック300のカラーフィ
ルタ部によってカラーフィルタリングを受けて、クロミ
ナンス(I,Q)部から輝度(Y)部を分離する(カラー
テレビカメラ200aからの出力は、標準NTSC形式であると
想定している)。テレビカメラ200aからの出力の分離さ
れた輝度部及びクロミナンス部は、デジタル形式で直接
ブロック300に(赤、緑及び青の別個の信号として、或
いはL,I,Qの別個の信号として)供給される場合には、
ブロック300のカラーフィルタ部は省略されることがで
きる。いずれにせよ、輝度及びクロミナンス情報の一又
は複数の連続フレームは、ブロック300のフレームメモ
リ部内に一時的に記憶される。
距離測定手段200b及びカラーテレビカメラ200aは、同
じ視野102に対して水平及び垂直方向に走査される。た
だし、フレームレートは必ずしも同一でなくてよい。距
離測定手段200bは、赤外パルスの送信とそのエコーの受
信との間の時間インターバルを測定することによって作
用を果たす。距離は、レーダーと同様に、このインター
バルの長さによって定められることとなる。距離測定手
段200bのために可視光線ではなく赤外線を用いる理由
は、距離測定手段200bの感度に対して部屋201内の環境
光の強度変化が影響を及ぼすのを回避するためである。
いずれにしても、距離測定手段200bからのデジタル形式
の出力情報は、ブロック300の距離メモリ部内へ一時的
に記憶されることとなる。
或いはまた、パターンマッチング処理によって大きさ
及び距離情報を得ることも可能である。このパターンマ
ッチング処理は、記憶されたテンプレート又は現在の画
像の大きさを調整することによって、両者間の最適マッ
チングを得るものである。
テレビ情報及び距離情報に対するサンプルレートが同
一であるとすると、距離メモリは、テレビフレームメモ
リの各テレビピクセル記憶位置に対応する個々の距離記
憶位置を有することとなる。従って、テレビフレームメ
モリ及び対応する距離メモリの双方を同期して読み出す
期間中、水平(X)及び垂直(Y)のピクセル座標は、
フレームメモリの読み出されたアドレスから求められ
る。また、各読み出されたピクセルに対する距離(Z)
座標は、当該ピクセルの距離メモリ内位置に記憶されて
いる情報から得られる。このように、ブロック300から
の各出力の一つは、図3に示すごとく、読み出された連
続の各ピクセルのX,Y、及びZピクセル座標である。更
に、クロミナンス(基準色)情報がブロック300内に標
準IQ形式で記憶されていると仮定すれば、ブロック300
のテレビフレームメモリの読み出し結果によって、ブロ
ック300からカラー出力が導き出されることになる。こ
のカラー出力より、連続的に読み出された各ピクセルの
対応するIQ値が得られる。
静止物体から移動物体を分離するための単純で周知の
技術は、テレビ画像情報の連続して発生する2個のフレ
ームの対応ピクセルを差演算し、静止物体のピクセルを
実質的に除去することである、これにより、差フレーム
のピクセルは、移動物体のみに対応することとなる。こ
の差フレームのピクセルを現在フレームのピクセルから
差し引けば、その結果生じるフレームは静止物体のみを
含む。移動移体手段304にこの単純な周知の方法を適用
することはできるが、これが本発明の目的に対する移動
物体手段304の最適な適用方法ではない。本発明の目的
に対しては、人間は、人間とそれ以外の物体とを識別す
る特徴として、移動物体であるという事実を利用するこ
とが望ましい。エンドテーブル206a及びソファー206bと
同様に振動ファン208も部屋201内における永久背景物体
であり、振動ファン208は移動物体でもある。本発明の
観点からすれば、その内部では移動しているにもかかわ
らず、振動ファン208といった移動背景物体を静止物体
であるとみなす移動物体手段304を備えることが望まし
い。従って、このような移動物体手段304が移動前景物
体と全ての背景物体(静止していると考えられる)とを
識別することとなる。
上述のように、静止物体の配置は、記憶データ118の
セクション118bに格納されている。システムの予備動作
として、記憶データ118のセクション118b内に保持され
るデータを得るために、カラーテレビカメラ200a及び距
離測定手段200bは、全3名の人間ジョン204a、ビル204
b、及びメアリー204cの誰もが部屋201内にいない状態で
動作するようにしてもよい。これにより、この予備動作
中に部屋201内に存在する永久静止背景物体のみの画像
を導出することができる。この予備動作によって得られ
た画像は、この目的のために移動物体手段304を用いる
ことにより、記憶データ118の静止物体118bセクション
の記憶位置へ保持されるために転送される。
移動物体手段304のより望ましい実現物としては、記
憶データ118のセクション118bに記憶されるために移動
物体手段304から転送された静止物体情報が移動物体手
段304自体によっても使用できるようにすることが考え
られる。システムの動作中、移動(前景)物体を得るた
めに現フレームのピクセルから背景のピクセルを差し引
くことによって背景を除去することは、前景から背景を
差し引くことになり、こうして前景画像が歪むこととな
る。あまり簡単ではないが優れた移動物体手段304の実
現法では、まず条件差演算を実行することによってこの
歪を回避する。この差演算では、背景中の一ピクセルと
現画像の対応ピクセルとが十分に近接した値である場合
にのみ、後者から前者が差し引かれる。もし両ピクセル
の値が近接していないならば、現画像の対応ピクセル自
体が使用される。しかも、もし両者の値が近接している
ならば、その結果として差演算が行われて、当該ピクセ
ルの代わりに0値が仮に使用される。仮にピクセルの仮
の値が0であるならば、該ピクセルの値に対する評価
は、その周囲の与えられた領域にわたって該ピクセルを
包囲するピクセルの重み付け平均値に基づいて演算され
る。もし、重み付け平均が所定の閾値より大きければ、
現画像の対応ピクセル値は代入され、それ以外の場合に
は該ピクセルに対して0という仮の値が使用される。こ
のような優れた移動物体手段の利点は、前景ピクセルの
ピクセル値が背景ピクセルのピクセル値に近接している
ときに生じる偽の差演算(これによって穴だらけで引き
続く処理に不適切な前景画像となる)、並びに歪および
ノイズを最小限に抑制できるということである。
その特別な構成にかかわらず、移動物体手段304は、
物体認識手段114により使用される移動する(前景)物
体を表すそれらのピクセルを示す出力を供給する。更
に、移動物体の情報は、記憶保持されるためにブロック
300へ戻される、つまり、直接あるいは、望まれる場合
には、ブロック300内で更に記憶された後に、マルチ解
像度ピラミッドプロセッサ112へ転送される。
画像方向変換手段302は、標準の方向変換アルゴリズ
ムを用いて画像データを回転させる。この回転は、一又
は複数の軸の周りに、調整可能な作用点のいずれかの側
の所定の小角で該軸に関して行われる(即ち、画像は作
用点に関して両方向に移動される)。物体認識手段114
のブロック402は、変換手段302へ制御入力をフィードバ
ックし、この制御入力に従って各軸に対する作用点の値
を調整する。そのフレームメモリ内に記憶される前又は
後にカラーテレビカメラ200aからブロック300により受
信された画像データは、ブロック302に供給されてその
向き(指向)が変換される。変換された画像データは、
ブロック300へ戻されてそのフレームメモリ内に記憶さ
れる。更に、ブロック302は、物体認識手段114のテンプ
レート方向変換手段401に接続される。
好ましくは、画像方向変換手段302及び移動物体手段3
04による修正の後にブロック300内に記憶された画像デ
ータは、ブロック300のフレームメモリから読み出され
て、マルチ解像度ピラミッドプロセッサ112への入力と
して供給される。
図4には、物体認識手段114及び記憶データ118の図示
例が示されている。図4に示すように、色情報(例:I情
報及びQ情報)がプリプロセッサ110からフレッシュト
ーン検出器406への第1の入力として供給され、X及び
Yピクセル座標は、プリプロセッサ110からフレッシュ
トーン検出器406への第2の入力として供給される。フ
レッシュトーン検出器406は、もし存在するならば、色
においてフレッシュトーン(肌の色)である画像色差
(クロミナンス)の部分のX及びYピクセル座標を出力
として導出する。好適には、フレッシュトーン検出器40
6は、Qの値に対するIの値をグラフで計算すると共
に、また適用色を規定するI及びQの各値が矩形内にお
さまる場合にのみ、フレッシュトーン出力を導出する。
この矩形内では、Iの値は比較的小さい所定の正の値と
比較的大きな所定の正の値との間に存在する。また、Q
の値は、比較的小さい所定の絶対値以下の値である。検
出器406から出力されたフレッシュトーンX,Yピクセル座
標は、いずれも、3入力のうちの一として、確実決定手
段404及びゲート408へ供給される。
プリプロセッサ110から供給される共に動画像データ
のX及びYピクセル座標を定める移動物体情報は、確率
決定手段404及びゲート408双方へ第2の信号入力として
直接に供給される。
全体的には上記の画像方向変換手段302と類似したテ
ンプレート方向変換手段401は、記憶データ118のセクシ
ョン118aから3入力(それぞれL,C及びRと命名され
た)の内の一又は複数からの任意の組合せを同時に受信
可能である。加えて、プリプロセッサ110の変換302から
制御入力が変換手段401へ供給され、また相関手段402か
らの相関値出力からも制御入力が変換手段401へ供給さ
れる。変換手段401からの出力は、記憶データ118から大
きさ調整手段400を介して3入力の内の第1の入力とし
て相関手段402へ供給される。記憶データ118からの第2
及び第3の入力は、記憶データ118のセクション118b及
び118cから相関手段402へ直接に供給される。更に、Z
ピクセル座標は、大きさ調整手段400へ制御入力として
供給され、X及びYピクセル座標は相関手段402へ入力
として供給される。相関手段402は、マルチ解像度ピラ
ミッドプロセッサ112の出力から追加の入力を受ける。
相関手段402の基本機能は、高識別特性を以って、マ
ルチ解像度ピラミッドプロセッサ112からの画像データ
と記憶データ118のセクション118aからのテンプレート
画像データとの相関を求めることである。相関されたパ
ターン形状が指向される(向き付けされる)という事実
によって、相関の精度が増大する。更に、記憶データ11
8であるセクション118bからの静止物体のピクセル位置
を利用することにより、相関手段402がピラミッドプロ
セッサ112から供給される画像データで静止物体の存在
を考慮する必要がなくなる。また、相関手段402は、画
像情報を利用することもできる。この画像情報は、必ず
しもマルチ解像度ピラミッドプロセッサ112から供給さ
れる現在の入力中に存在しているのではなく、記憶デー
タ118のセクション118c中に記憶された本発明の物体認
識システムの初期動作からも利用される。相関手段のよ
り詳細な動作に関しては後述する。いずれにしても、相
関手段は、その時点における現在の演算された相関値を
表す第1の出力を導出する。この第1の出力は、確率決
定手段404への3入力の内の第3の入力として供給さ
れ、また上述のように、各変換手段302及び401へフィー
ドバックされる。また、相関手段402は、第2の出力を
ゲート408へ3つの信号入力のうちの第3の入力として
供給する。相関手段402からのこの第2の入力は、画像
領域のX及びYピクセル座標から成る。これらのピクセ
ル座標は、その後、相関手段402へ供給される大きさ調
整された現在のテンプレートに対応する。このテンプレ
ートは、マルチ解像度ピラミッドプロセッサ112からの
画像データの相関がとられる際の基準パターン形状とし
て働く。
確率決定手段404は、格納プログラム116から現在供給
されている決定基準に従って制御される。これらの決定
基準に従って、手段104は、各相関値、フレッシュトー
ン、及び自身への移動入力に対して所定の重み付けを付
与する。3入力の重み付け値から演算された確率が記憶
プログラム116からの現在の決定基準により定められた
所定閾値より小さい状態である限り、確率決定手段404
から「使用可能(エネイブル)」出力が導出されること
はない。しかし、もし演算された確率がこの閾値を超え
ているが(まだ、現在の決定基準により定められる高閾
値よりは低い状態である)場合、確率決定手段404は、
「使用可能1(エネイブル1)」出力を導出する。確率
決定手段404は、上記の高閾値を越えて上昇する演算さ
れた確率に応じて、「使用可能2(エネイブル2)」出
力を導出する。
「使用可能1」出力は、ゲート408へ制御入力として
供給される。この制御入力に応答して、ゲート408は、
現在の相関X,Yピクセル座標、現在のフレッシュトーン
X,Yピクセル座標、及び現在の移動ピクセルX,Y座標を記
憶データ118のセクション118cへの第1、第2及び第3
の入力として、そこへ記憶させるための供給する。ま
た、相関X及びYピクセル座標は、(好適にはアンダー
ソン特許の開示内容に従って作用する)ウィンドウ制御
手段410への入力として供給され、ウィンドウ制御手段4
10からの出力は、ピラミッドプロセッサ112へ制御入力
としてフィードバックされる。更に、確率決定手段404
からの使用可能1及び使用可能2のそれぞれの出力の所
定閾値と高閾値との間の範囲内における確率を計算する
手段404に応答して、該確率決定手段404は、記憶プログ
ラム116がシステム動作の新たなサイクルを開始すべき
ことを表示するために制御信号を記憶プログラム116へ
フィードバックする。
「使用可能2」出力の発生は、例えばジョン204a又は
ビル204bといった撮像されたシーン中の対象物が、記憶
データ118のセクション118a上に初期的に記憶されてい
る一又は複数の特定テンプレート中に描かれた物体であ
るとして認識されたという事実を示している。「使用可
能2」出力は、ゲート412へ制御入力として供給され
る。これに応答して、ゲート412は、記憶データ118から
信号を出力使用手段120へ供給する。この(グラフィッ
クデータ及び/又は英数字データを含む)信号は、その
画像中において認識された物体と位置(即ち、認識され
たピクセル座標)の確認のために役立つ。出力利用手段
120は、転送された照合信号に応答を示し或る所定の機
能を実行するための手段を含む。図示例において、出力
使用手段120は、中央ロケーションへ、受信時間と共に
その内部に格納される情報を記録又は転送することがで
き、及び/又は特定の認識された物体の表示画像に非常
に近接した位置において表示モニタ122上に表示される
識別キャプションを提供する。
図示上の都合から、本実施例の動作説明においては、
ジョン204a、ビル204b及びメアリー204cをそれぞれ描い
たテンプレートを含み記憶データ118のセクション118a
中に初期記憶されたマルチ視野マルチ解像度テンプレー
トが導出され、その後に、以下に記す方法でセクション
118a中に組織化されたデータベースとして記憶される。
3名の各個人の各々に対する画像の一セットは、記憶
データ118のセクション118a中に記憶されたテンプレー
トを導出するために使用されるトレーニングフェイズに
おいて撮像される。各セットは、各正面(即ち全顔
面)、左横顔及び右横側のサブセットを含む。各サブセ
ットは、当該個人が伴う本質的な種々の具体的な表情を
含むことができる。しかし、トレーニングフェイズ中に
は、いくつかの可変パラメータは固定された状態におか
れる。これらの拘束条件としては、均一光照射、カメラ
からの距離の固定、及び予め与えられた正面、左横顔及
び右横顔の各位置から頭部を回転または傾斜させないこ
とが含まれる。トレーニングフェイズの画像の各々は変
形されて、ラプラシアンピラミッド、つまりバンドパス
ピラミッドになる。このピラミッドは、256×256のピク
セル解像度をもつレベル1から、わずか16×16の解像度
であるレベル5から構築されている。そして、頭部及び
顔面の輪郭をとり囲む16×16のレベル5画像のうちの一
つの8×8セクションは、記憶データ118のセクション1
18aの初期記憶データベース中に含まれるべき図像とし
て保存される。次に、3個の8×8セクションは、32×
32のレベル4のピラミッド画像から取られることができ
る。これらは、頭頂部、顔面中央部、及びあご領域をカ
バーする。これらもまた、初期記憶データベース中に含
まれることができる。最後に、64×64のレベル3ピラミ
ッド画像の5個の8×8セクションが初期記憶データベ
ース中に含まれる。これらの後者のピラミッド画像は、
両目、鼻、及び口の左右端の各領域をカバーすることが
できる。このようにして、全9個の図像が、各人(即
ち、ジョン、ビル及びメアリー)が伴う元の256×256ピ
クセル解像度のサブセット画像の各々に対するトレーニ
ングセットを構成することとなる。
また、各図像に関連してデータベースには、各図像が
取り出された特定レベルのピラミッド画像中における水
平及び垂直オフセット位置を定めるデータが格納され
る。
上記の初期的に記憶された図像テンプレートに加え
て、記憶データ118のセクション118aは、一般的な人間
の形状を規定するテンプレートをも含む。このような包
括的テンプレートは、ピラミッド画像のレベル5または
それ以上の画像でなければならず、一又は複数の位置
(例えば、立位、座位)における普遍化された人間の頂
部における頭部の普遍的形状を示すにとどまる。
上記システムの第2の予備動作(既述)は、部屋201
内における静止(背景)物体(例:エンドテーブル206
a、ソファー206b及び振動ファン208)の位置を記憶デー
タ118のセクション118b内に記憶することである。
フレッシュトーンは、各人から成る撮像された物体及
び他種の撮像された物体を識別するための周知の包括的
属性である。本システムにより使用されるフレッシュト
ーン検出器406により対象の一特徴としてフレッシュト
ーンを検出することは、関連する全ての個人のこの包括
的属性に関している。
人間の他の包括的属性は、動くということである。も
ちろん、常に動き続ける必要はない。更に、対象物体が
全て人間というわけではない。しかし、移動物体手段30
4からの移動物体出力は、システムによって、関連する
全ての個人の包括的属性に関連している別の対象の一特
徴として使用される。
人間の更に他の識別性をもつ包括的属性は、人体のパ
ターン形状である。記憶データ118のセクション118a中
に初期記憶された上述の包括的テンプレートは、この人
間の包括的属性に関する対象の特徴である。
ブロック300のフレーム及び距離メモリは、カメラ200
a及び距離測定手段200bの連続フレームの各々に対する
アドレシングに従って読み出されると、これと同時にシ
ステムはこれら3個の対象の特徴のいずれかが存在する
ことを調査する。移動(前景)物体の対象特徴又はフレ
ッシュトーンの対象特徴の各読み出しフレームのX及び
Y座標の決定は、直接に行われる。しかし、読み出しフ
レームの識別ピクセルを人体パターン形状に属するもの
として取り扱うことは、一層複雑性を増す。まず、人間
の2次元画像パターン形状は、カメラ200aに対する3次
元の人間の指向(向き)に依存する。次に、この2次元
で撮像されたパターンの大きさは、カメラ200aから人間
までの距離と、その時に存在する視野102の大きさ(こ
れらは、カメラ200aにズーム機能が付いている場合には
調整可能)の双方に依存して変化するということであ
る。本実施例においては、視野102は固定されているも
のとする。しかし、上述したような、大きさ調整手段40
0は、供給される距離測定されたZピクセル座標に従っ
て、画像データの大きさにおけるあらゆる相違を補償す
ることができる。このことは、記憶データ118のセクシ
ョン118a内に初期記憶されることが必要なテンプレート
数が大幅に減少されることを意味する。
包括的な物体の認識の場合には、テンプレート変換手
段401は使用されない。しかし、(それぞれ立姿及び座
姿の一般的な人間の)2個の包括的テンプレートが連続
フレーム中において順次に作用され、もしある場合に
は、この2個のテンプレートのうちのどちらが高い相関
値を与えるかを決定する。この後、高い方の相関値を示
すテンプレートのみが考慮されることとなる。
相関値を決定することは、数個のフレームを読み出す
ことを伴う。フレーム毎に、画像方向(オリエンテーシ
ョン)変換手段302が、初期のゼロ作用点に関して前後
に移動される。相関手段402は、指向パターン形状の相
関を求めるので、2個の変動位置の一方に関して導出さ
れた相関値は、通常他方の相関値よりもはるかに高くな
る。これに応答して、変換手段302の作用点は、高い方
の相関値により示される方向へゼロから徐々にオフセッ
トされる。この処理は、特定オフセット点の各相関値が
ほぼ互いに等しくなるまで続けられる。このようにし
て、一般的な人間形状の画像パターンの傾斜が補償され
ることとなる。
あるいは、例えば単純相関、規格化相関、平均自乗誤
差及び絶対誤差を含む当該技術分野において周知の他の
技術は、与えられたパターンと記憶パターンとの間の一
致性を決定するために使用することができる。
上述のように、マルチ解像度ピラミッドプロセッサ11
2及び適用相関手段402からの初期入力は、一般的な人間
を認識する場合には低解像度(即ち、ピラミッドプロセ
ッサの高レベル)となる。初期においては、フレームの
全領域が考慮される。しかし、上記アンダーソン特許に
教示されている中心化技術に従って、ウィンドウ制御手
段410は、与えられた相関値を達成する相関手段402の出
力に応答して、ピラミッドプロセッサ112からの出力を
次段の低(解像度は高くなる)ピラミッドプロセッサレ
ベルに切り替えると共に、ピラミッドプロセッサ112か
ら出力された画像フレームの領域を、上記の達成された
相関値を提供する相関パターン形状の近隣の局部ウィン
ドウ領域のみに限定する。
相関手段402は、記憶データ118の各セクション118bお
よび118cからの各入力を用いてその動作を変更する。こ
れにより、静止(背景)物体位置がパターン形状相関に
及ぼす寄与が無視され、また相関手段402により導出さ
れた相関値の重み付けが、それに供給され既に得られた
記憶された認識増大情報に従って増大される。
システム動作の初期を想定すると、図2におけるジョ
ン及びビルは、部屋201内の図示された位置にいる。ジ
ョンはカメラから離れた位置で静止して立っており、一
方、ビルはカメラに向かって静止して座った状態にあ
る。更に、ジョンの場合には、マルチ解像度ピラミッド
プロセッサ112からのジョンの低解像度画像と、立姿で
の包括的な人間テンプレートとの間の相違は、(確率決
定手段404へのフレッシュトーン及び移動物体入力は、
ジョンに対しては無視可能であるが)確率決定手段404
からの「使用可能1(エネイブル1)」出力を発生する
に十分であり、またこの相関値はウィンドウ制御手段41
0によってマルチ解像度ピラミッドプロセッサ112を次の
段階の高いピラミッドプロセッサレベルに切り替えさせ
るのに十分であると仮定する。ビルの場合には、フレッ
シュトーン入力に対して、確率決定手段404により決定
される確率は、(確率決定手段404への相関値及び移動
物体入力はビルの場合には無視可能であるが)「使用可
能1(エネイブル1)」出力を発生するのに十分である
と仮定する。ビルの場合に低相関値となる理由は、彼が
ソファーに座った状態にあるから、(カメラからの距離
は実質的にビルと同じ)ソファーの画像と組み合わされ
たマルチ解像度ピラミッドプロセッサ112からのビルの
画像を低解像度にすると、座姿の人間の包括的なパター
ン形状とは著しく相違する組み合わされたパターン形状
となる。(また、このパターン形状は、この低解像度で
は、相関手段402へ供給される静止物体情報の記憶位置
を用いては効果的に修正できない)。
手段404からの「使用可能1(エネイブル1)」出力
はゲート408を開き、記憶データ118のセクション118cに
おける蓄積が増大された認識データに、ジョン及びビル
の各位置のピクセル座標を送出する。従って、システム
動作の次サイクルにおいては、相関値は、これらの各位
置において一層大きく重み付けされることとなる。更
に、ジョンの場合には、ジョンの位置近傍の局在ウィン
ドウ内のみにおける高解像度画像の、立姿の人間の包括
的な形状パターンに対する相関が計算されることとな
る。これからは、高解像度に対して高相関値が得られ、
(従ってより高精度の)ジョン位置の決定になる。更
に、システム動作の第1サイクルと第2サイクルとの間
において、ジョンは、(1)移動物体情報が、現在、確
率決定手段への入力として存在することとなり、また
(2)フレッシュトーンが撮像される状態になるよう
に、その位置を変えることができた。これによって、ジ
ョンの画像が少なくとも人間の包括的な画像であること
をシステムが結論として推定する点まで、確率が増大す
る。これに応答して、確率決定手段404は信号を記憶プ
ログラム116へ戻す。この信号により記憶プログラム116
は、人間のこの包括的なパターン形状(この時は、実際
にはジョンの画像)により示される特定の人を、もし存
在するならば、システムの動作シーケンスをその後のサ
イクル中において決定するために必要な方式で制御す
る。
ビルの場合には、システム動作の第2サイクルでは、
ビルの撮像された頭部近傍において、高相関値となり、
または、相関があるX及びYピクセルが得られる。これ
は、システム動作の第1サイクル中に記憶データ118の
セクション118c内にフレッシュトーンX及びYピクセル
座標が記憶されていることによる。システム動作の第2
サイクル中に得られた相関値は、システム動作の第3サ
イクル中に使用される次段のより低い(高解像度)ピラ
ミッドプロセッサレベルへ、マルチ解像度プロセッサ11
2からの出力を、ウィンドウ制御手段410によって切り替
えさせるのに十分な程度に高い。更に、この高解像度に
おいては、相関されている画像パターン形状上のソファ
ー206bの影響は、記憶データ118のセクション118bから
相関手段402に供給される静止物体情報により確実に除
去できる。従って、フレッシュトーン情報と共に、シス
テム動作の第3サイクルにより得られた相関値は、人間
の包括的な画像としてビルの画像を認識し得る十分に高
い確率を提供する。
「使用可能1(エネイブル1)」出力が手段404から
導出されるシステム動作の連続した各サイクル中に、追
加の増大情報が記憶データ118のセクション118c中に記
憶されるために送出され、これがシステム動作の次のサ
イクル中に使用される。更に、その属の構成物に当ては
まる一般的な特徴を持つ包括的な人間が画像の確定され
た位置に存在することを示す確率が任意のサイクル中に
手段404により達成されていることに応答して、手段404
は信号を記憶プログラム116へ戻す。これにより、シス
テムは、次の動作サイクル中に、もし存在するならば、
個々のうちのどの特定の一人がそのような包括的人間に
よって表されるかという決定を開始する。
含まれる各人のうちの任意の一人の同一性を決定する
に際し、当該個人に対する全顔面(C)、左横顔(L)
及び右横顔(R)の上記の初期記憶テンプレートが、記
憶データ118のセクション118aから変換手段401へ各入力
として供給される。変換手段401は、上記の変換手段302
の場合と同様に作用する。すなわち、その3入力へ供給
された(C)、(L)及び(R)のテンプレートデータ
の混合の変換を現在の作用点の左右で前後に移動させ
る。そして、その3入力の混合変換の最大相関値が生成
される方向に、各連続フレーム間の作用点を常に変化さ
せる。この変化作用は、作用点が、左側移動と右側移動
とがほぼ等しい相関値を生成する場所に到達するまで続
けられる。加えて、変換手段302の作用点を示す変換手
段302からの信号は、変換手段401へ入力として供給され
ることができる。これにより、変換手段302により補償
されている画像の傾斜量に従って、変換手段401の混合
変換が高精細度で調整される。これらの全ての情報によ
り、変換手段401は合成テンプレート(例:3/4左顔面テ
ンプレート)出力を導出することができる。この出力
は、大きさ調整手段400へ入力として送出される。大き
さ調整手段400は、当該個人の頭部の2次元画像を大幅
に補償する。これは、3次元空間内における該個人の頭
部の姿勢(向き)の現在の変化によって行われる。
撮像された包括的人間の位置が認識された後、相関手
段402は、その特定の包括的に認識された人間によっ
て、もし存在するならば、どの個人(ジョン、ビル又は
メアリー)が表わされるかを具体的に認識する目的のた
めに、上述した初期記憶されマルチ視野及びマルチ解像
度をもちデータベースを構成する図像テンプレートを利
用する。この具体的認識処理の初期において、セクショ
ン118c内に既に記憶されている増大データは、その包括
的に認識された人間の位置を含む16×16の画像ピクセル
ウィンドウを供給する。
引き続く具体的認識の処理は、図示上の都合から、相
関手段402自体は、この特定個人に関する相関値増分を
順次に全体的に導出するために使用される一時記憶手段
を含む(しかしながら、この目的のために、具体的認識
処理において記憶データ118のセクション118cを使用す
ることを理解されるべきである)。具体的には、ピラミ
ッドプロセッサ112からの16×16画像ウィンドウ、レベ
ル5は、各人毎にデータベース中の初期記憶レベル5図
像と比較される。そして、その結果得られる規格化され
た(−1.0〜+1、0の間で変わり得る)相関値は、各
人毎に別個に一時記憶される。各人に対する同様の比較
処理は、データベース中の3個のレベル4図像の各々に
対して、レベル4解像度で行われ、次いで、データベー
ス中の5個のレベル3図像の各々に対してレベル3解像
度で行われる。
上述のように、データベース中に記憶された各図像に
関連して、該図像の特定レベルピラミッドの撮られた画
像中における水平及び垂直オフセット位置を規定するデ
ータが格納されている。従って、各人に対して、データ
ベース中の3個のレベル4解像度の図像の各々、及び5
個のレベル3解像度の図像の各々が既知であり、またこ
れらはセクション118a中の記憶情報の一部分となる。こ
れらレベル4及びレベル3解像度比較の各々及びその各
オフセットは、各人に関するレベル4及びレベル3解像
度の各比較において15×15のセル画像ウィンドウの位置
を規定する際に考慮される。これは、図像が存在しそう
にない領域を不必要に調査することを防止することによ
って、システム速度を向上させるため役割を果たす。
高解像度において図像の数が増大する理由は、高解像
度図像はより大きな可変性を有しており、これによりト
レーニングフェイズ中における刻々の撮像された人間の
表情の微妙な変化の影響を一層受けやすいからである。
図像数が多いことにより、高い周波数の特徴における小
さな変化を理由として特定のトレーニングセットが考慮
されない可能性が減少される。いずれにしても、各人に
対する3個のレベル4図像の内の一つが規格化された最
大の相関値を示し、この一の図像が、格納されているレ
ベル5の規格化された相関値に追加される規格化相関値
を有することになる。同様に、5個のレベル3図像の規
格化された最大の相関値は、規格化されたレベル5相関
値と規格化された最大のレベル4相関値との総和に追加
される。このようにして、各人に対して、−3.0〜+
3、0の範囲内で変化する規格化された相関値の総和が
存在する。これがどのような値であっても、確率決定手
段404へ供給される。そして、もしその値が第2の閾値
と少なくとも等しいならば、確率決定手段404は、ゲー
ト412を開く「使用可能2(エネイブル2)」出力を導
出する。これに応答して、ゲート412は、3人(すなわ
ちジョン、ビル又はメアリー)の内の具体的に認識され
た一人の同一性及びピクセル位置を出力使用手段120へ
送出する。もし最高相関値が閾値より小さいならば、構
成物に特有なものとして包括的に認識された人間は、該
3名の内の誰でもないということになる。
以上の説明は、3名の内の誰も予め具体的に認識され
なかったことを仮定している。もし3名の内の第3番目
の人間が具体的に認識されたならば、システムは確率決
定手段404へ供給された移動物体(前景)情報を全面的
に利用して、具体的に認識された当該個人の位置と、記
憶データ118(連続的に更新されている)のセクション1
18c内に格納されている具体的に認識された当該個人の
位置(すなわち、認識されたピクセル座標)とを連続的
に追跡するよう動作する。したがって、もしメアリー
が、以前、具体的に認識されておりその後(図2中の矢
印205により示されるように)ドア通路203から部屋201
を出たと仮定するならば、メアリーの画像が突然消え去
ったことは、システム動作の追跡モードで認識されるこ
ととなる。
更に、各人の内の一人がシステムによって既に具体的
に認識されている場合、包括的に認識された他の撮像化
人間を具体的に認識する試みに際して当該人間のデータ
ベース図像を考慮することは、システムのための目的に
は十分ではない。従って、具体的認識の上記処理は、現
在の画像において既に具体的に認識された全人間の以前
に記憶された図像を考慮対象から排除することによっ
て、第2の人間に対してはスピードアップすることがで
きる。
端的に言えば、本発明に係る物体認識のための動的画
像処理技術は、先に詳述した図示例のみにその使用を限
定されることはない(すなわち、(1)部屋内における
包括的な人間の存在を認識すること、及び(2)包括的
に認識された人間が既知の人間群の中の特定一個人であ
るかどうかを認識すること、のみには限定されない)。
本発明を適用することによって極めて大きな利点が得ら
れる他の例としては、監視テレビカメラ、ロボットシス
テム及び目標追跡システム等の複合自動制御システムが
挙げられる。或いはまた、製造に使用される機械的な視
覚において、自動組み立て又は分類されるべき種々の所
定部品の各々を個別に認識するためなどにも、本発明は
極めて適している。
図1に戻って、上述以外の本発明の他の特徴を示す。
これらの特徴は、本発明の図示例及び本発明の他の動作
例の両方にも使用可能である。例えば、物体認識手段11
4により導出された情報は、撮像手段100の視野の方向性
及び/又はズーミングの制御のために使用することがで
きる。この場合、撮像手段100は、物体認識手段114にサ
ーボ情報へ戻す。更に、出力使用手段120は、物体認識
手段114から供給された物体認識情報を記録するための
記録機器を後日の使用に供するための装備することもで
きる。つまり、このような情報は、物体認識情報が収集
された位置から離隔した位置へ出力利用手段120によっ
て遠隔計測で伝達されることも可能である。
図1に広範に示した本発明の実施例は、その最も効率
的な実施態様と考えることができる。まず、開示された
実施例においては、新規画像情報は、リアルタイムで継
続的に収集され、物体認識処理が発生する。次に、マル
チ解像度ピラミッドプロセッサは、動きが制御可能な可
動ウィンドウを組み込み、このウィンドウは考慮必要性
が最小と考えられる画像データを効率よく減少するよう
に使用される。
リアルタイムで得られているような画像データに関す
る処理以外には、多数の連続フレームから成る画像デー
タの全ブロックを記録することも可能であり、これは、
物体認識の目的のために、この画像データブロック内に
おける画像データを動的処理する前に行われる。更にま
た、データ減縮はマルチ解像度ピラミッドプロセッサに
よって実行される必要はない。理由は、物体認識のため
に使用され得る他のデータ圧縮技術が本技術分野に存在
するからである。
図1において、現実の3次元物体を撮像する撮影手段
は、画像データを得るために使用されている。しかし、
このような画像データを他の手段で得ることも可能であ
る。一例として、コンピュータで生成したり、あるいは
アニメ漫画技術にて得ることが可能である。
以上詳述した本発明に係る物体認識システムの動作の
図示は、確率決定手段404により使用される対象の特徴
として、(1)色(すなわち、フレッシュトーン)、
(2)パターン形状、及び(3)前景物体の移動、を用
いる。これら色、パターン形状、又は移動物体情報に代
えてまたはこれらに加えて、対象の他の特徴も、物体認
識のための識別要素として使用されることができるを理
解すべきである。
フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60

Claims (8)

    (57)【特許請求の範囲】
  1. 【請求項1】時系列に連続した第1の解像度の画像デー
    タフレームにグラフィカル表示された所定クラスの物体
    を認識するための動的な画像処理の方法であって、 該方法は、(A)前記画像処理を制御すると共に一組の
    決定基準の特定を行うための記憶プログラムと、(B)
    記憶データとによって実現されるものであり; 前記所定クラスの物体は、全て、既知の一群の包括的属
    性をもち、前記一群の包括的属性によって、全体とし
    て、前記所定クラスに属する物体はそれ以外の物体から
    区別され; 前記記憶データによって、前記一群の包括的属性に関連
    した限定された数の個別特徴が初期的に規定されてお
    り、初期的に記憶された前記個別特徴の少なくとも1つ
    は、前記所定クラスの物体が画像データの一又は複数の
    連続したフレームのシーケンス中にグラフィカル表示さ
    れている場合に、当該シーケンス中に存在しており; 時系列に連続した第1の解像度の画像データフレーム
    は、一又は複数の第1のフレームと、該第1のフレーム
    の後に発生する一又は複数の第2のフレームとを含み、 前記方法は: a)前記記憶プログラムによる制御の下で、且つ前記記
    憶データにより初期的に規定される前記個別特徴のうち
    の少なくとも第1の個別特徴に応じて、第1の確率に関
    する第1の決定を前記決定基準に従って行なうステップ
    であって、前記時系列の前記第1のフレームは、前記第
    1の確率で、前記画像データの部分として、前記所定ク
    ラスの物体の前記個別特徴のうちの少なくとも前記第1
    の個別特徴を含み; b)前記第1の確率が第1の所定閾値以上であることに
    応じて、前記時系列の前記第1のフレーム内における前
    記部分の少なくとも相対位置を規定するデータを前記記
    憶データに追加し、これによって前記記憶データを増加
    させるステップ; c)前記記憶プログラムによる制御の下で、且つ前記増
    加された記憶データに応じて、前記第1の個別特徴に加
    えて前記個別特徴のうちの少なくとも第2の個別特徴を
    前記部分に含むことが前記第2のフレームによって照合
    される、という第2の確率に関する第2の決定を決定基
    準に従って行なうステップ; d)前記第2の確率が第2の所定閾値よりも大きいこと
    に応じて、前記部分を前記所定クラスの物体がグラフィ
    カル表示されたものであると認識するステップ; e)前記第2の所定閾値よりも小さい第3の所定閾値よ
    り前記第2の確率が小さいことに応じて、前記所定クラ
    スの物体のグラフィカル表示ではないものとして前記部
    分を認識するステップ; f)前記第2の確率が前記第2の所定閾値と第3の所定
    閾値との間の範囲内に存在することに応じて、前記ステ
    ップc)の照合における前記部分の少なくとも相対位置
    を規定する更なるデータを前記記憶データへ追加し、こ
    れによって前記記憶データを更に増加させるステップを
    備え; g)前記第2の確率が前記範囲内にある場合、前記第2
    のフレームの後に発生する前記時系列の一又は複数のフ
    レームのシーケンスに対して前記ステップc)からf)
    を、このような繰り返しステップd)により決定される
    確率が前記第2の所定閾値を越えるか又は前記第3の所
    定閾値よりも小さくなるまで、再帰的に繰り返すステッ
    プと、 を備える方法。
  2. 【請求項2】前記ステップa)に先立って、前記連続し
    た第1の解像度の画像データフレームの各々を解析し
    て、前記第1の解像度のフレームの解像度よりも低い第
    2の解像度を示す少なくとも一レベルから成るマルチ解
    像度ピラミッドにする解析ステップを含み、 前記ステップa)において、前記第1の確率は、前記時
    系列の前記第1のフレームのシーケンスの該マルチ解像
    度ピラミッドのうちの任意の第2の解像度レベルが、前
    記所定クラスの物体の前記個別特徴のうちの少なくとも
    前記第1の個別特徴を前記画像データの部分として含
    む、という確率であり; 前記ステップc)において、前記第2の確率は、前記時
    系列の前記第2のフレームのシーケンスのマルチ解像度
    ピラミッドのうちの任意のレベルにより、前記第1の個
    別特徴に加えて前記個別特徴のうちの少なくとも第2の
    個別特徴を前記部分に含むことが照合される、という確
    率である、請求項1に記載の方法。
  3. 【請求項3】前記所定クラスの物体は予め選択された複
    数のメンバーより成り、前記所定クラスの予め選択され
    た該メンバーの各々は、既知の具体的属性からなる固有
    グループを各メンバーが有することにより個々に規定さ
    れ、前記固有グループは、全体として、既知のメンバー
    を前記所定クラスの他のメンバーから区別するものであ
    り、該固有グループは、前記既知の包括的属性の少なく
    とも各サブグループであり、 前記サブグループの前記包括的属性夫々である各具体的
    属性に関して、前記記憶データは、前記連続したフレー
    ムの特定のピラミッドレベルにおける当該包括的属性で
    ある具体的属性のグラフィカル表示に関連する別個の具
    体的特徴を含み、 前記方法は、 h)前記記憶プログラムによる制御の下で、且つ前記所
    定クラスの物体のグラフィカル表示として前記部分が認
    識されることに応じて、特定のピラミッドレベルにおけ
    る前記サブグループの前記包括的属性のうちの第1の所
    定属性である異なる具体的属性の各々に関連した個別の
    記憶された具体的特徴の各々を前記部分と順次に比較し
    て、前記比較された具体的特徴のどれが前記部分に対応
    するかを所定閾値の確率よりも大きい最も大きい確率で
    決定するステップ; i)特定のピラミッドレベルにおいて前記サブグループ
    の前記包括的属性のうちそれぞれ別の所定属性である異
    なる具体的属性に関連する個別の記憶された具体的特徴
    毎に、前記ステップh)を繰り返し、これによって、前
    記部分によりグラフィカル表示された既知の具体的属性
    の固有グループと、該固有グループによって規定される
    該予め選択された個別のメンバーと、を決定するステッ
    プを更に備える含む請求項2に記載の方法。
  4. 【請求項4】時系列に連続した第1の解像度の画像デー
    タフレームにグラフィカル表示された所定クラスの物体
    を動的に認識するための画像処理システムであって、前
    記所定クラスの各物体は、全て、前記所定クラスの物体
    をそれ以外の物体から全体として区別する既知の包括的
    属性の第1の群をもち、前記所定クラスの既知メンバー
    の各々は、前記所定クラスの既知メンバーを他のメンバ
    ーから全体として区別する既知の具体的特徴の第2の群
    を持ち; 時系列に連続した第1の解像度の画像データフレーム
    は、一又は複数の第1のフレームと、前記第1のフレー
    ムの後に発生する一又は複数の第2のフレームとを含
    み、 前記システムは: 前記画像処理を制御するための記憶プログラムを格納す
    ると共に、一組の決定基準を特定するための第1の手段
    を備え; 一組の初期データを含むデータを記憶する第2の手段を
    備え、前記初期データにより、包括的属性の少なくとも
    前記第1の群に関連する限定された数の個別特徴が規定
    され、初期的に記憶された少なくとも一つの前記個別特
    徴は、前記所定クラスの物体が一又は複数の連続する画
    像データフレームのシーケンスにグラフィカル表示され
    る場合に、当該シーケンスに存在しており; 前記第1の手段及び第2の手段に結合された第3の手段
    を備え、該第3の手段は、 (1)前記時系列の前記第1のフレームが、前記所定ク
    ラスの物体の前記個別特徴のうちの少なくとも前記第1
    の個別特徴を前記画像データの部分として含む、という
    第1の確率に関する第1の決定を前記決定基準に従って
    行い; (2)第1の所定閾値以上の前記第1の確率に応じて、
    前記時系列の前記第1のフレーム内における前記部分の
    少なくとも相対位置を規定する追加データを前記第2の
    手段に記憶し、これにより該第2の手段に記憶されたデ
    ータを増加させ; (3)前記第1の個別特徴に加えて前記個別特徴のうち
    の少なくとも第2の個別特徴を前記部分に含むことが前
    記時系列の前記第2のフレームにより照合される、とい
    う第2の確率に関する決定を前記決定基準に従って行な
    い; (4)第2の所定閾値を越えた前記第2の確率に応じ
    て、前記所定クラスの物体のグラフィカル表示であると
    前記部分を認識し; (5)前記第2の所定閾値よりも小さい第3の所定閾値
    より小さい前記第2の確率に応じて、前記所定クラスの
    物体のグラフィカル表示ではないと前記部分を認識し; (6)前記第2の所定閾値と第3の所定閾値との間の範
    囲内に存在する前記第2の確率に応じて、前記第2の決
    定により定められた更なる追加データを前記第2の手段
    に記憶し、それによって前記第2の手段に記憶データを
    増加させ; (7)前記第2の確率が前記範囲内に存在する場合、前
    記第2のフレームの後に発生する前記時系列の一又は複
    数のフレームのシーケンスに対して追加の決定を、最終
    の追加の決定により規定される確率が前記第2の所定閾
    値を越えて増大するか、又は前記第3の所定閾値より小
    さく減少するまで再帰的に行う、システム。
  5. 【請求項5】請求項4に記載のシステムにおいて、更
    に、 前記連続した第1の解像度の画像データフレームの各々
    を解析して、前記第1の解像度フレームのレベルよりも
    低い第2の解像度を示す少なくとも一つのレベルより成
    るマルチ解像度ピラミッドにするための解析手段を更に
    含み、 前記第3の手段は、前記第1の手段、第2の手段、及び
    解析手段に結合されて、 (1)前記時系列の前記第1のフレームのシーケンスの
    該マルチ解像度ピラミッドの任意の第2の解像度レベル
    が、前記所定クラスの物体の前記個別特徴のうちの少な
    くとも前記第1の個別特徴をその画像データの部分とし
    て含む、という第1の確率に関する第1の決定を前記決
    定基準に従って行ない; (2)第1の所定閾値以上の前記第1の確率に応じて、
    前記時系列の前記第1のフレームにおける前記部分の少
    なくとも相対位置を規定する追加データを前記第2の手
    段に記憶し、それによって前記第2の手段に記憶された
    データを増加し、 (3)前記第1の個別特徴に加えて前記個別特徴のうち
    の少なくとも第2の個別特徴を前記部分に含むことが、
    前記第2のフレームのシーケンスの該マルチ解像度ピラ
    ミッドのうちの任意のレベルにより照合される、という
    第2の確率に関する決定を前記決定基準に従って行な
    い; (4)前記第2の閾値より大きい前記第2の確率に応じ
    て、前記所定クラスの物体のグラフィカル表示であると
    して前記部分を認識し; (5)前記第2の所定閾値よりも小さい第3の所定閾値
    より小さい前記第2の確率に応じて、所定クラスの物体
    のグラフィカル表示ではないとして前記部分を認識し、 (6)前記第2の所定閾値と第3の所定閾値との間の範
    囲内に存在する前記第2の確率に応じて、前記第2の決
    定により規定される更なる追加データを前記第2の手段
    に記憶し、それによって該第2の手段に記憶データを更
    に増加させ、 (7)前記第2の確率が前記範囲内にある場合、前記第
    2のフレームの後に発生する前記時系列の一又は複数の
    フレームのシーケンスに対する追加の決定を、最終の追
    加の決定により定められる確率が前記第2の所定閾値を
    越えて増大するか又は前記第3の所定閾値以下に減少す
    るまで、再帰的に行なう、 システム。
  6. 【請求項6】前記所定クラスの物体の前記グラフィカル
    表示は、可動物体の2次元表示を含み、それによって前
    記可動物体のフレームにおける前記2次元表示の位置は
    フレーム毎に変化し得るものであり、前記システムは、 前記連続した画像データフレームに応答を示し、移動す
    る物体のグラフィカル表示を規定するピクセルからなる
    フレームにおいてピクセル位置を導き出すための移動対
    象物手段、を含み、 前記第3の手段は、前記移動対象物手段に結合されて、
    前記確率の決定を行う際に追加特徴として前記移動物体
    の各ピクセル位置を採用すると共に、前記範囲内にある
    と決定される確率に応じて、前記移動する物体のピクセ
    ル位置を追加データとして前記第2の手段に記憶する、
    請求項4に記載のシステム。
  7. 【請求項7】前記所定クラスの物体の前記グラフィカル
    表示は、所定の色相特性を有する物体の2次元表示を含
    み;前記システムは、 前記連続した画像データフレームに応答を示し、前記所
    定の色相特性を有する物体のグラフィカル表示を規定す
    るピクセルからなるフレームにおいて各ピクセル位置を
    導き出すための色検出手段、を更に含み; 前記第3の手段は、前記色検出手段に結合されて、前記
    所定の色相特性をもつ前記物体の各ピクセル位置を前記
    確率決定を行う際に追加特徴として採用すると共に、前
    記範囲内にあると決定された確率に応じて、前記移動す
    る物体のピクセル位置を前記第2の手段に追加データと
    して記憶する、請求項4に記載のシステム。
  8. 【請求項8】前記第2の手段に記憶された該初期データ
    により規定される該特徴中には、前記所定クラスの前記
    物体の2次元グラフィカル表示に関連づけられた所定の
    パターン形状があり、前記第3の手段は、 連続した各画像データフレームを構成する該ピクセルに
    より規定されるパターン形状を所定の解像度において前
    記所定のパターン形状の各々に対して相関をとると共
    に、これにより得られた相関値を前記確率決定を行う際
    に採用するためのマッチング手段と、 前記範囲内にあると決定された確率に応じて、相関ピク
    セル位置を前記第2の手段に記憶するための手段と、を
    含む請求項4に記載のシステム。
JP50078491A 1989-11-06 1990-11-05 動的物体認識方法及びその画像処理システム Expired - Fee Related JP3178719B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US432,013 1989-11-06
US07/432,013 US5063603A (en) 1989-11-06 1989-11-06 Dynamic method for recognizing objects and image processing system therefor

Publications (2)

Publication Number Publication Date
JPH05501770A JPH05501770A (ja) 1993-04-02
JP3178719B2 true JP3178719B2 (ja) 2001-06-25

Family

ID=23714384

Family Applications (1)

Application Number Title Priority Date Filing Date
JP50078491A Expired - Fee Related JP3178719B2 (ja) 1989-11-06 1990-11-05 動的物体認識方法及びその画像処理システム

Country Status (6)

Country Link
US (1) US5063603A (ja)
EP (1) EP0499627B1 (ja)
JP (1) JP3178719B2 (ja)
DE (1) DE69032326T2 (ja)
ES (1) ES2116284T3 (ja)
WO (1) WO1991006921A1 (ja)

Families Citing this family (309)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5159647A (en) * 1991-03-04 1992-10-27 David Sarnoff Research Center, Inc. Fast and efficient search method for graphical data
GB9119964D0 (en) * 1991-09-18 1991-10-30 Sarnoff David Res Center Pattern-key video insertion
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US5903454A (en) 1991-12-23 1999-05-11 Hoffberg; Linda Irene Human-factored interface corporating adaptive pattern recognition based controller apparatus
US6418424B1 (en) 1991-12-23 2002-07-09 Steven M. Hoffberg Ergonomic man-machine interface incorporating adaptive pattern recognition based control system
US10361802B1 (en) 1999-02-01 2019-07-23 Blanding Hovenweep, Llc Adaptive pattern recognition based control system and method
US6850252B1 (en) 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
US5699442A (en) * 1992-04-10 1997-12-16 Andrew Welch System for detecting the location of a reflective object within a video field
US5680481A (en) * 1992-05-26 1997-10-21 Ricoh Corporation Facial feature extraction method and apparatus for a neural network acoustic and visual speech recognition system
US5309522A (en) * 1992-06-30 1994-05-03 Environmental Research Institute Of Michigan Stereoscopic determination of terrain elevation
US5432864A (en) * 1992-10-05 1995-07-11 Daozheng Lu Identification card verification system
US5835641A (en) * 1992-10-14 1998-11-10 Mitsubishi Denki Kabushiki Kaisha Image pick-up apparatus for detecting and enlarging registered objects
US5550928A (en) * 1992-12-15 1996-08-27 A.C. Nielsen Company Audience measurement system and method
US6822563B2 (en) 1997-09-22 2004-11-23 Donnelly Corporation Vehicle imaging system with accessory control
US5877897A (en) 1993-02-26 1999-03-02 Donnelly Corporation Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array
DE69434657T2 (de) * 1993-06-04 2007-02-15 Sarnoff Corp. System und Verfahren zur elektronischen Bildstabilisierung
CA2129206C (en) * 1993-08-10 1998-07-14 Mark Thurman Integration of tv video with ir tracker features
US5561753A (en) * 1993-12-02 1996-10-01 International Business Machines Corporation Method and system for relocating selectable graphical objects in a graphical user interface environment
EP0664642B1 (en) 1994-01-20 2002-07-24 Omron Corporation Image processing device for identifying an input image, and copier including same
US5572596A (en) * 1994-09-02 1996-11-05 David Sarnoff Research Center, Inc. Automated, non-invasive iris recognition system and method
US6714665B1 (en) * 1994-09-02 2004-03-30 Sarnoff Corporation Fully automated iris recognition system utilizing wide and narrow fields of view
US5578823A (en) * 1994-12-16 1996-11-26 Hitachi, Ltd. Transmission electron microscope and method of observing element distribution by using the same
US5627915A (en) * 1995-01-31 1997-05-06 Princeton Video Image, Inc. Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field
US6891563B2 (en) 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
US5649021A (en) * 1995-06-07 1997-07-15 David Sarnoff Research Center, Inc. Method and system for object detection for instrument control
US5892554A (en) * 1995-11-28 1999-04-06 Princeton Video Image, Inc. System and method for inserting static and dynamic images into a live video broadcast
US5912700A (en) * 1996-01-10 1999-06-15 Fox Sports Productions, Inc. System for enhancing the television presentation of an object at a sporting event
US5842194A (en) * 1995-07-28 1998-11-24 Mitsubishi Denki Kabushiki Kaisha Method of recognizing images of faces or general images using fuzzy combination of multiple resolutions
US6985172B1 (en) * 1995-12-01 2006-01-10 Southwest Research Institute Model-based incident detection system with motion classification
EP0865637A4 (en) * 1995-12-04 1999-08-18 Sarnoff David Res Center DETECTION SYSTEM WITH A WIDE AND NARROW FIELD OF VIEW AND METHOD
JPH09212648A (ja) * 1996-01-31 1997-08-15 Toshiba Corp 動画像処理方法
US7655894B2 (en) 1996-03-25 2010-02-02 Donnelly Corporation Vehicular image sensing system
US6289107B1 (en) * 1996-05-23 2001-09-11 Nike, Inc. Apparatus and method of measuring human extremities using peripheral illumination techniques
US5917553A (en) * 1996-10-22 1999-06-29 Fox Sports Productions Inc. Method and apparatus for enhancing the broadcast of a live event
US5930410A (en) * 1997-01-13 1999-07-27 Hewlett-Packard Company Method and apparatus for obtaining multiple views from one scan window
US6542260B1 (en) * 1997-01-13 2003-04-01 Hewlett-Packard Company Multiple image scanner
US5953077A (en) * 1997-01-17 1999-09-14 Fox Sports Productions, Inc. System for displaying an object that is not visible to a camera
US6252632B1 (en) 1997-01-17 2001-06-26 Fox Sports Productions, Inc. System for enhancing a video presentation
US6160907A (en) * 1997-04-07 2000-12-12 Synapix, Inc. Iterative three-dimensional process for creating finished media content
US6084590A (en) * 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams
US6760061B1 (en) * 1997-04-14 2004-07-06 Nestor Traffic Systems, Inc. Traffic sensor
US6151403A (en) * 1997-08-29 2000-11-21 Eastman Kodak Company Method for automatic detection of human eyes in digital images
JP3584458B2 (ja) 1997-10-31 2004-11-04 ソニー株式会社 パターン認識装置およびパターン認識方法
WO1999023600A1 (en) * 1997-11-04 1999-05-14 The Trustees Of Columbia University In The City Of New York Video signal face region detection
US6002782A (en) * 1997-11-12 1999-12-14 Unisys Corporation System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model
US6697103B1 (en) * 1998-03-19 2004-02-24 Dennis Sunga Fernandez Integrated network for monitoring remote objects
US6266053B1 (en) 1998-04-03 2001-07-24 Synapix, Inc. Time inheritance scene graph for representation of media content
US6297825B1 (en) 1998-04-06 2001-10-02 Synapix, Inc. Temporal smoothing of scene analysis data for image sequence generation
US6249285B1 (en) 1998-04-06 2001-06-19 Synapix, Inc. Computer assisted mark-up and parameterization for scene analysis
US6229550B1 (en) 1998-09-04 2001-05-08 Sportvision, Inc. Blending a graphic
US6266100B1 (en) 1998-09-04 2001-07-24 Sportvision, Inc. System for enhancing a video presentation of a live event
WO2000031706A1 (en) * 1998-11-23 2000-06-02 Nestor, Inc. Traffic light collision avoidance system
US6754663B1 (en) 1998-11-23 2004-06-22 Nestor, Inc. Video-file based citation generation system for traffic light violations
US7062073B1 (en) 1999-01-19 2006-06-13 Tumey David M Animated toy utilizing artificial intelligence and facial image recognition
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
EP1190571A1 (en) * 1999-04-08 2002-03-27 New York University Extremely high resolution foveated display
US6466275B1 (en) 1999-04-16 2002-10-15 Sportvision, Inc. Enhancing a video of an event at a remote location using data acquired at the event
US6393137B1 (en) * 1999-06-17 2002-05-21 Raytheon Company Multi-resolution object classification method employing kinematic features and system therefor
GB2352859A (en) * 1999-07-31 2001-02-07 Ibm Automatic zone monitoring using two or more cameras
US6766058B1 (en) * 1999-08-04 2004-07-20 Electro Scientific Industries Pattern recognition using multiple templates
DE19962201A1 (de) * 1999-09-06 2001-03-15 Holger Lausch Verfahren und Anordnung zur Erfassung und Analyse des Rezeptionsverhaltens von Personen
JP3679953B2 (ja) * 1999-09-14 2005-08-03 富士通株式会社 生体情報を用いた個人認証システム
US7020351B1 (en) 1999-10-08 2006-03-28 Sarnoff Corporation Method and apparatus for enhancing and indexing video and audio signals
WO2001028238A2 (en) * 1999-10-08 2001-04-19 Sarnoff Corporation Method and apparatus for enhancing and indexing video and audio signals
US6731790B1 (en) * 1999-10-19 2004-05-04 Agfa-Gevaert Method of enhancing color images
US7075556B1 (en) 1999-10-21 2006-07-11 Sportvision, Inc. Telestrator system
US6909438B1 (en) 2000-02-04 2005-06-21 Sportvision, Inc. Video compositor
US7107235B2 (en) * 2000-03-10 2006-09-12 Lyden Robert M Method of conducting business including making and selling a custom article of footwear
US7752775B2 (en) 2000-03-10 2010-07-13 Lyden Robert M Footwear with removable lasting board and cleats
JP4374759B2 (ja) * 2000-10-13 2009-12-02 オムロン株式会社 画像比較システムおよび画像比較装置
US7095444B1 (en) * 2000-11-06 2006-08-22 Sri International Method and apparatus for generating, distributing and reconstructing deconstructed video
EP1346295A4 (en) 2000-11-15 2005-01-12 Mark Frigon METHOD AND DEVICE FOR OBTAINING INFORMATION ON THE PRESENCE OF AT LEAST ONE OBJECT IN AN IMAGE
JP4106874B2 (ja) * 2001-02-05 2008-06-25 ソニー株式会社 画像処理装置および方法、並びに記録媒体
US20020169735A1 (en) * 2001-03-07 2002-11-14 David Kil Automatic mapping from data to preprocessing algorithms
US20020129342A1 (en) * 2001-03-07 2002-09-12 David Kil Data mining apparatus and method with user interface based ground-truth tool and user algorithms
US6603882B2 (en) * 2001-04-12 2003-08-05 Seho Oh Automatic template generation and searching method
US20030076981A1 (en) * 2001-10-18 2003-04-24 Smith Gregory Hugh Method for operating a pre-crash sensing system in a vehicle having a counter-measure system
US6775605B2 (en) 2001-11-29 2004-08-10 Ford Global Technologies, Llc Remote sensing based pre-crash threat assessment system
US6819991B2 (en) * 2001-11-29 2004-11-16 Ford Global Technologies, Llc Vehicle sensing based pre-crash threat assessment system
US7158870B2 (en) 2002-01-24 2007-01-02 Ford Global Technologies, Llc Post collision restraints control module
US6831572B2 (en) 2002-01-29 2004-12-14 Ford Global Technologies, Llc Rear collision warning system
US6721659B2 (en) 2002-02-01 2004-04-13 Ford Global Technologies, Llc Collision warning and safety countermeasure system
US6519519B1 (en) 2002-02-01 2003-02-11 Ford Global Technologies, Inc. Passive countermeasure methods
US6498972B1 (en) 2002-02-13 2002-12-24 Ford Global Technologies, Inc. Method for operating a pre-crash sensing system in a vehicle having a countermeasure system
US7009500B2 (en) 2002-02-13 2006-03-07 Ford Global Technologies, Llc Method for operating a pre-crash sensing system in a vehicle having a countermeasure system using stereo cameras
US7221796B2 (en) * 2002-03-08 2007-05-22 Nec Corporation Character input device, character input method and character input program
US9569746B2 (en) 2002-03-14 2017-02-14 Nike, Inc. Custom fit sale of footwear
EP1504276B1 (en) 2002-05-03 2012-08-08 Donnelly Corporation Object detection system for vehicle
WO2004044829A1 (en) 2002-11-08 2004-05-27 Data Flow / Alaska, Inc. System for uniquely identifying subjects from a target population
AU2002362145A1 (en) 2002-12-11 2004-06-30 Nielsen Media Research, Inc. Detecting a composition of an audience
US7203338B2 (en) * 2002-12-11 2007-04-10 Nielsen Media Research, Inc. Methods and apparatus to count people appearing in an image
US7396574B2 (en) * 2003-05-28 2008-07-08 Robert C. Bogert Self-inflating cushion and footwear including same
US8363951B2 (en) 2007-03-05 2013-01-29 DigitalOptics Corporation Europe Limited Face recognition training method and apparatus
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
US9129381B2 (en) 2003-06-26 2015-09-08 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US7792335B2 (en) 2006-02-24 2010-09-07 Fotonation Vision Limited Method and apparatus for selective disqualification of digital images
US8553949B2 (en) 2004-01-22 2013-10-08 DigitalOptics Corporation Europe Limited Classification and organization of consumer digital images using workflow, and face detection and recognition
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US8330831B2 (en) 2003-08-05 2012-12-11 DigitalOptics Corporation Europe Limited Method of gathering visual meta data using a reference image
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US9692964B2 (en) 2003-06-26 2017-06-27 Fotonation Limited Modification of post-viewing parameters for digital images using image region or feature information
US8896725B2 (en) 2007-06-21 2014-11-25 Fotonation Limited Image capture device with contemporaneous reference image capture mechanism
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8682097B2 (en) 2006-02-14 2014-03-25 DigitalOptics Corporation Europe Limited Digital image enhancement with reference images
US8155397B2 (en) 2007-09-26 2012-04-10 DigitalOptics Corporation Europe Limited Face tracking in a camera processor
US7620218B2 (en) 2006-08-11 2009-11-17 Fotonation Ireland Limited Real-time face tracking with reference images
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8593542B2 (en) 2005-12-27 2013-11-26 DigitalOptics Corporation Europe Limited Foreground/background separation using reference images
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7616233B2 (en) 2003-06-26 2009-11-10 Fotonation Vision Limited Perfecting of digital image capture parameters within acquisition devices using face detection
US7440593B1 (en) * 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US20050071242A1 (en) * 2003-09-30 2005-03-31 Nike International Ltd. Method and system for custom-manufacturing footwear
US7564994B1 (en) * 2004-01-22 2009-07-21 Fotonation Vision Limited Classification system for consumer digital images using automatic workflow and face detection and recognition
US7526103B2 (en) 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
WO2006083278A2 (en) * 2004-05-26 2006-08-10 Bae Systems Information And Electronic Systems Integration, Inc. Method for transitioning from a missile warning system to a fine tracking system in a countermeasures system
SE528068C2 (sv) 2004-08-19 2006-08-22 Jan Erik Solem Med Jsolutions Igenkänning av 3D föremål
US7881496B2 (en) 2004-09-30 2011-02-01 Donnelly Corporation Vision system for vehicle
US8320641B2 (en) 2004-10-28 2012-11-27 DigitalOptics Corporation Europe Limited Method and apparatus for red-eye detection using preview or other reference images
US7620241B2 (en) * 2004-11-30 2009-11-17 Hewlett-Packard Development Company, L.P. Artifact reduction in a digital video
US7796827B2 (en) * 2004-11-30 2010-09-14 Hewlett-Packard Development Company, L.P. Face enhancement in a digital video
US20060114994A1 (en) * 2004-12-01 2006-06-01 Silverstein D Amnon Noise reduction in a digital video
US7643088B2 (en) * 2004-12-01 2010-01-05 Hewlett-Packard Development Company, L.P. Artifact reduction in a digital video
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7715597B2 (en) 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition
US7315631B1 (en) 2006-08-11 2008-01-01 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US8488023B2 (en) 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
WO2006081634A2 (en) * 2005-02-04 2006-08-10 Barco N.V. Method and device for image and video transmission over low-bandwidth and high-latency transmission channels
US7450778B2 (en) * 2005-03-17 2008-11-11 Hewlett-Packard Development Company, L.P. Artifact reduction in a digital video
US7440608B2 (en) * 2005-05-31 2008-10-21 Hewlett-Packard Development Company, L.P. Method and system for detecting image defects
US11632498B1 (en) 2005-06-03 2023-04-18 Craig P. Mowry Multi-dimensional imaging system and method
US10341558B2 (en) * 2005-06-03 2019-07-02 Craig P. Mowry System and apparatus for increasing quality and efficiency of film capture and methods of use thereof
US7599527B2 (en) * 2005-09-28 2009-10-06 Facedouble, Inc. Digital image search system and method
US8311294B2 (en) 2009-09-08 2012-11-13 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US7587070B2 (en) * 2005-09-28 2009-09-08 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US8369570B2 (en) 2005-09-28 2013-02-05 Facedouble, Inc. Method and system for tagging an image of an individual in a plurality of photos
US8600174B2 (en) * 2005-09-28 2013-12-03 Facedouble, Inc. Method and system for attaching a metatag to a digital image
US7450740B2 (en) 2005-09-28 2008-11-11 Facedouble, Inc. Image classification and information retrieval over wireless digital networks and the internet
US7804983B2 (en) * 2006-02-24 2010-09-28 Fotonation Vision Limited Digital image acquisition control and correction method and apparatus
JP2007257078A (ja) * 2006-03-20 2007-10-04 Fujitsu Ltd 画像検索装置
US7965875B2 (en) 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
JP4764273B2 (ja) * 2006-06-30 2011-08-31 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
US7515740B2 (en) 2006-08-02 2009-04-07 Fotonation Vision Limited Face recognition with combined PCA-based datasets
US7403643B2 (en) 2006-08-11 2008-07-22 Fotonation Vision Limited Real-time face tracking in a digital image acquisition device
US7916897B2 (en) 2006-08-11 2011-03-29 Tessera Technologies Ireland Limited Face tracking for controlling imaging parameters
WO2008024639A2 (en) 2006-08-11 2008-02-28 Donnelly Corporation Automatic headlamp control system
US8648867B2 (en) 2006-09-25 2014-02-11 Neurala Llc Graphic processor based accelerator system and method
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
EP2115662B1 (en) 2007-02-28 2010-06-23 Fotonation Vision Limited Separating directional lighting variability in statistical face modelling based on texture space decomposition
EP2123008A4 (en) 2007-03-05 2011-03-16 Tessera Tech Ireland Ltd FACIAL CATEGORIZATION AND NOTE SYSTEM FOR A MOBILE PHONE CONTACT LIST
KR101247147B1 (ko) 2007-03-05 2013-03-29 디지털옵틱스 코포레이션 유럽 리미티드 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출
US8335345B2 (en) 2007-03-05 2012-12-18 Sportvision, Inc. Tracking an object with multiple asynchronous cameras
WO2008131823A1 (en) * 2007-04-30 2008-11-06 Fotonation Vision Limited Method and apparatus for automatically controlling the decisive moment for an image acquisition device
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
US8517990B2 (en) 2007-12-18 2013-08-27 Hospira, Inc. User interface improvements for medical devices
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
US8311281B2 (en) * 2008-04-09 2012-11-13 Nec Corporation Object detection apparatus
JP5547730B2 (ja) 2008-07-30 2014-07-16 デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド 顔検知を用いた顔及び肌の自動美化
US8411963B2 (en) 2008-08-08 2013-04-02 The Nielsen Company (U.S.), Llc Methods and apparatus to count persons in a monitored environment
WO2010063463A2 (en) 2008-12-05 2010-06-10 Fotonation Ireland Limited Face recognition using face tracker classifier data
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
US8884741B2 (en) 2010-02-24 2014-11-11 Sportvision, Inc. Tracking system
US9122994B2 (en) * 2010-03-26 2015-09-01 Brain Corporation Apparatus and methods for temporally proximate object recognition
US9405975B2 (en) 2010-03-26 2016-08-02 Brain Corporation Apparatus and methods for pulse-code invariant object recognition
US9311593B2 (en) 2010-03-26 2016-04-12 Brain Corporation Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices
US8467623B2 (en) 2010-03-26 2013-06-18 Brain Corporation Invariant pulse latency coding systems and methods systems and methods
KR20110111106A (ko) * 2010-04-02 2011-10-10 삼성테크윈 주식회사 객체추적 및 로이터링 장치 및 방법
US8369617B2 (en) * 2010-04-12 2013-02-05 Nokia Corporation Cross device image recognition improvement
US9906838B2 (en) 2010-07-12 2018-02-27 Time Warner Cable Enterprises Llc Apparatus and methods for content delivery and message exchange across multiple content delivery networks
US9152915B1 (en) 2010-08-26 2015-10-06 Brain Corporation Apparatus and methods for encoding vector into pulse-code output
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US20120114181A1 (en) * 2010-11-01 2012-05-10 Borthwick James R Vehicle pose estimation and load profiling
US9147156B2 (en) 2011-09-21 2015-09-29 Qualcomm Technologies Inc. Apparatus and methods for synaptic update in a pulse-coded network
US9070039B2 (en) 2013-02-01 2015-06-30 Brian Corporation Temporal winner takes all spiking neuron network sensory processing apparatus and methods
US8990133B1 (en) 2012-12-20 2015-03-24 Brain Corporation Apparatus and methods for state-dependent learning in spiking neuron networks
US9047568B1 (en) 2012-09-20 2015-06-02 Brain Corporation Apparatus and methods for encoding of sensory data using artificial spiking neurons
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
US9215383B2 (en) 2011-08-05 2015-12-15 Sportsvision, Inc. System for enhancing video from a mobile camera
US8725662B2 (en) 2011-09-21 2014-05-13 Brain Corporation Apparatus and method for partial evaluation of synaptic updates based on system events
US9460387B2 (en) 2011-09-21 2016-10-04 Qualcomm Technologies Inc. Apparatus and methods for implementing event-based updates in neuron networks
US8725658B2 (en) 2011-09-21 2014-05-13 Brain Corporation Elementary network description for efficient memory management in neuromorphic systems
US9104973B2 (en) 2011-09-21 2015-08-11 Qualcomm Technologies Inc. Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel
US8719199B2 (en) 2011-09-21 2014-05-06 Brain Corporation Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules
US9412064B2 (en) 2011-08-17 2016-08-09 Qualcomm Technologies Inc. Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update
EP2745204A4 (en) 2011-08-19 2015-01-07 Hospira Inc SYSTEMS AND METHOD FOR A GRAPHIC INTERFACE WITH A GRAPHICAL PRESENTATION OF MEDICAL DATA
US8620088B2 (en) 2011-08-31 2013-12-31 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
US9098811B2 (en) 2012-06-04 2015-08-04 Brain Corporation Spiking neuron network apparatus and methods
US9015092B2 (en) 2012-06-04 2015-04-21 Brain Corporation Dynamically reconfigurable stochastic learning apparatus and methods
US10210452B2 (en) 2011-09-21 2019-02-19 Qualcomm Incorporated High level neuromorphic network description apparatus and methods
US9104186B2 (en) 2012-06-04 2015-08-11 Brain Corporation Stochastic apparatus and methods for implementing generalized learning rules
US8712939B2 (en) 2011-09-21 2014-04-29 Brain Corporation Tag-based apparatus and methods for neural networks
US9156165B2 (en) 2011-09-21 2015-10-13 Brain Corporation Adaptive critic apparatus and methods
US9213937B2 (en) 2011-09-21 2015-12-15 Brain Corporation Apparatus and methods for gating analog and spiking signals in artificial neural networks
US9146546B2 (en) 2012-06-04 2015-09-29 Brain Corporation Systems and apparatus for implementing task-specific learning using spiking neurons
US9117176B2 (en) 2011-09-21 2015-08-25 Qualcomm Technologies Inc. Round-trip engineering apparatus and methods for neural networks
DE102011083375A1 (de) * 2011-09-26 2013-03-28 Robert Bosch Gmbh Verfahren zur Übermittlung von Routendaten für die Verkehrstelematik
BR112014007145A2 (pt) 2011-09-30 2017-04-11 Hospira Inc controlador de taxa de fluxo intravenoso
EP2786307A1 (en) * 2011-11-29 2014-10-08 Layar B.V. Dynamically configuring an image processing function
WO2013090709A1 (en) 2011-12-16 2013-06-20 Hospira, Inc. System for monitoring and delivering medication to a patient and method of using the same to minimize the risks associated with automated therapy
TWI588778B (zh) * 2012-01-17 2017-06-21 國立臺灣科技大學 動作辨識方法
US9373023B2 (en) * 2012-02-22 2016-06-21 Sri International Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor
KR20130098675A (ko) * 2012-02-28 2013-09-05 삼성전자주식회사 얼굴 검출 처리 회로 및 이를 포함하는 촬상 장치
AU2013239778B2 (en) 2012-03-30 2017-09-28 Icu Medical, Inc. Air detection system and method for detecting air in a pump of an infusion system
US9129221B2 (en) 2012-05-07 2015-09-08 Brain Corporation Spiking neural network feedback apparatus and methods
US9224090B2 (en) 2012-05-07 2015-12-29 Brain Corporation Sensory input processing apparatus in a spiking neural network
US9412041B1 (en) 2012-06-29 2016-08-09 Brain Corporation Retinal apparatus and methods
US9256215B2 (en) 2012-07-27 2016-02-09 Brain Corporation Apparatus and methods for generalized state-dependent learning in spiking neuron networks
US9256823B2 (en) 2012-07-27 2016-02-09 Qualcomm Technologies Inc. Apparatus and methods for efficient updates in spiking neuron network
CA2880156C (en) 2012-07-31 2020-10-13 Hospira, Inc. Patient care system for critical medications
US9440352B2 (en) 2012-08-31 2016-09-13 Qualcomm Technologies Inc. Apparatus and methods for robotic learning
US9186793B1 (en) 2012-08-31 2015-11-17 Brain Corporation Apparatus and methods for controlling attention of a robot
US9189730B1 (en) 2012-09-20 2015-11-17 Brain Corporation Modulated stochasticity spiking neuron network controller apparatus and methods
US8793205B1 (en) 2012-09-20 2014-07-29 Brain Corporation Robotic learning and evolution apparatus
US9311594B1 (en) 2012-09-20 2016-04-12 Brain Corporation Spiking neuron network apparatus and methods for encoding of sensory data
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US9082079B1 (en) 2012-10-22 2015-07-14 Brain Corporation Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields
US9111226B2 (en) 2012-10-25 2015-08-18 Brain Corporation Modulated plasticity apparatus and methods for spiking neuron network
US9183493B2 (en) 2012-10-25 2015-11-10 Brain Corporation Adaptive plasticity apparatus and methods for spiking neuron network
US9218563B2 (en) 2012-10-25 2015-12-22 Brain Corporation Spiking neuron sensory processing apparatus and methods for saliency detection
US9275326B2 (en) 2012-11-30 2016-03-01 Brain Corporation Rate stabilization through plasticity in spiking neuron network
US9123127B2 (en) 2012-12-10 2015-09-01 Brain Corporation Contrast enhancement spiking neuron network sensory processing apparatus and methods
US9195934B1 (en) 2013-01-31 2015-11-24 Brain Corporation Spiking neuron classifier apparatus and methods using conditionally independent subsets
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9262671B2 (en) 2013-03-15 2016-02-16 Nito Inc. Systems, methods, and software for detecting an object in an image
US8996177B2 (en) 2013-03-15 2015-03-31 Brain Corporation Robotic training apparatus and methods
US9008840B1 (en) 2013-04-19 2015-04-14 Brain Corporation Apparatus and methods for reinforcement-guided supervised learning
EP2999940A4 (en) 2013-05-22 2017-11-15 Neurala Inc. Methods and apparatus for early sensory integration and robust acquisition of real world knowledge
EP3000030A4 (en) 2013-05-22 2017-07-05 Neurala Inc. Methods and apparatus for iterative nonspecific distributed runtime architecture and its application to cloud intelligence
US10046112B2 (en) 2013-05-24 2018-08-14 Icu Medical, Inc. Multi-sensor infusion system for detecting air or an occlusion in the infusion system
EP3003442B1 (en) 2013-05-29 2020-12-30 ICU Medical, Inc. Infusion system and method of use which prevents over-saturation of an analog-to-digital converter
EP3003441B1 (en) 2013-05-29 2020-12-02 ICU Medical, Inc. Infusion system which utilizes one or more sensors and additional information to make an air determination regarding the infusion system
US9242372B2 (en) 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9314924B1 (en) * 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
US9436909B2 (en) 2013-06-19 2016-09-06 Brain Corporation Increased dynamic range artificial neuron network apparatus and methods
US9239985B2 (en) 2013-06-19 2016-01-19 Brain Corporation Apparatus and methods for processing inputs in an artificial neuron network
WO2014205231A1 (en) * 2013-06-19 2014-12-24 The Regents Of The University Of Michigan Deep learning framework for generic object detection
US9552546B1 (en) 2013-07-30 2017-01-24 Brain Corporation Apparatus and methods for efficacy balancing in a spiking neuron network
US9296101B2 (en) 2013-09-27 2016-03-29 Brain Corporation Robotic control arbitration apparatus and methods
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9489623B1 (en) 2013-10-15 2016-11-08 Brain Corporation Apparatus and methods for backward propagation of errors in a spiking neuron network
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
US9463571B2 (en) 2013-11-01 2016-10-11 Brian Corporation Apparatus and methods for online training of robots
US9248569B2 (en) 2013-11-22 2016-02-02 Brain Corporation Discrepancy detection apparatus and methods for machine learning
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
ES2776363T3 (es) 2014-02-28 2020-07-30 Icu Medical Inc Sistema de infusión y método que utiliza detección óptica de aire en línea de doble longitud de onda
US9364950B2 (en) 2014-03-13 2016-06-14 Brain Corporation Trainable modular robotic methods
US9987743B2 (en) 2014-03-13 2018-06-05 Brain Corporation Trainable modular robotic apparatus and methods
US9533413B2 (en) 2014-03-13 2017-01-03 Brain Corporation Trainable modular robotic apparatus and methods
US9626566B2 (en) 2014-03-19 2017-04-18 Neurala, Inc. Methods and apparatus for autonomous robotic control
EP3120300A4 (en) * 2014-03-19 2017-11-22 Neurala Inc. Methods and apparatus for autonomous robotic control
US9630317B2 (en) 2014-04-03 2017-04-25 Brain Corporation Learning apparatus and methods for control of robotic devices via spoofing
US9613308B2 (en) 2014-04-03 2017-04-04 Brain Corporation Spoofing remote control apparatus and methods
US9346167B2 (en) 2014-04-29 2016-05-24 Brain Corporation Trainable convolutional network apparatus and methods for operating a robotic vehicle
US10194163B2 (en) * 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
CA2947045C (en) 2014-05-29 2022-10-18 Hospira, Inc. Infusion system and pump with configurable closed loop delivery rate catch-up
EP2960906A1 (en) 2014-06-26 2015-12-30 Thomson Licensing Method for processing a video scene and corresponding device
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US9579790B2 (en) 2014-09-17 2017-02-28 Brain Corporation Apparatus and methods for removal of learned behaviors in robots
US9849588B2 (en) 2014-09-17 2017-12-26 Brain Corporation Apparatus and methods for remotely controlling robotic devices
US9860077B2 (en) 2014-09-17 2018-01-02 Brain Corporation Home animation apparatus and methods
US9821470B2 (en) 2014-09-17 2017-11-21 Brain Corporation Apparatus and methods for context determination using real time sensor data
US10055850B2 (en) 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
US9881349B1 (en) 2014-10-24 2018-01-30 Gopro, Inc. Apparatus and methods for computerized object identification
DE102014222972A1 (de) * 2014-11-11 2016-05-12 Osram Gmbh Verfahren zur Bildverarbeitung, Präsenzdetektor und Beleuchtungssystem
US9426946B2 (en) 2014-12-02 2016-08-30 Brain Corporation Computerized learning landscaping apparatus and methods
US11344668B2 (en) 2014-12-19 2022-05-31 Icu Medical, Inc. Infusion system with concurrent TPN/insulin infusion
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
US10850024B2 (en) 2015-03-02 2020-12-01 Icu Medical, Inc. Infusion system, device, and method having advanced infusion features
US9840003B2 (en) 2015-06-24 2017-12-12 Brain Corporation Apparatus and methods for safe navigation of robotic devices
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
JP6041331B1 (ja) * 2016-02-26 2016-12-07 国立大学法人山口大学 情報処理装置と情報処理プログラム並びに情報処理方法
US10295972B2 (en) 2016-04-29 2019-05-21 Brain Corporation Systems and methods to operate controllable devices with gestures and/or noises
EP3454922B1 (en) 2016-05-13 2022-04-06 ICU Medical, Inc. Infusion pump system with common line auto flush
EP3468635B1 (en) 2016-06-10 2024-09-25 ICU Medical, Inc. Acoustic flow sensor for continuous medication flow measurements and feedback control of infusion
KR20180068578A (ko) 2016-12-14 2018-06-22 삼성전자주식회사 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
IL250253B (en) 2017-01-24 2021-10-31 Arbe Robotics Ltd A method for separating targets and echoes from noise, in radar signals
DE102017211038A1 (de) * 2017-06-29 2019-01-03 Robert Bosch Gmbh Verfahren zum Einstellen einer Kamera
IL255982A (en) 2017-11-29 2018-01-31 Arbe Robotics Ltd Detection, mitigation and prevention of mutual interference between fixed water radars in vehicles
US10089055B1 (en) 2017-12-27 2018-10-02 Icu Medical, Inc. Synchronized display of screen content on networked devices
IL259190A (en) 2018-05-07 2018-06-28 Arbe Robotics Ltd System and method for frequency hopping MIMO FMCW imaging radar
IL260694A (en) * 2018-07-19 2019-01-31 Arbe Robotics Ltd Method and device for two-stage signal processing in a radar system
IL260696A (en) 2018-07-19 2019-01-31 Arbe Robotics Ltd Method and device for structured self-testing of radio frequencies in a radar system
IL260695A (en) 2018-07-19 2019-01-31 Arbe Robotics Ltd Method and device for eliminating waiting times in a radar system
IL261636A (en) 2018-09-05 2018-10-31 Arbe Robotics Ltd Deflected MIMO antenna array for vehicle imaging radars
KR20210024862A (ko) * 2019-08-26 2021-03-08 삼성전자주식회사 계층적인 피라미드를 이용하여 객체를 검출하는 객체 검출 시스템 및 이의 객체 검출 방법
US11278671B2 (en) 2019-12-04 2022-03-22 Icu Medical, Inc. Infusion pump with safety sequence keypad
IL271269A (en) 2019-12-09 2021-06-30 Arbe Robotics Ltd Radom for a planar antenna for car radar
US11399591B2 (en) 2020-03-16 2022-08-02 Robert Lyden Article of footwear, method of making the same, and method of conducting retail and internet business
US11711638B2 (en) 2020-06-29 2023-07-25 The Nielsen Company (Us), Llc Audience monitoring systems and related methods
WO2022020184A1 (en) 2020-07-21 2022-01-27 Icu Medical, Inc. Fluid transfer devices and methods of use
US11135360B1 (en) 2020-12-07 2021-10-05 Icu Medical, Inc. Concurrent infusion with common line auto flush
US11823476B2 (en) 2021-05-25 2023-11-21 Bank Of America Corporation Contextual analysis for digital image processing
US11860704B2 (en) 2021-08-16 2024-01-02 The Nielsen Company (Us), Llc Methods and apparatus to determine user presence
US11758223B2 (en) 2021-12-23 2023-09-12 The Nielsen Company (Us), Llc Apparatus, systems, and methods for user presence detection for audience monitoring
US12088882B2 (en) 2022-08-26 2024-09-10 The Nielsen Company (Us), Llc Systems, apparatus, and related methods to estimate audience exposure based on engagement level

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1255144A (en) * 1916-06-28 1918-02-05 John B Ekeley Process of obtaining tungstates.
US3373097A (en) * 1965-02-16 1968-03-12 Interior Usa Method for separation of a metalcontaining halide phase from a gangue-containing silicate phase and electrolysis of halide phase to obtain the metal
US3932594A (en) * 1973-12-28 1976-01-13 Union Carbide Corporation Process for the preparation of fine grain metal carbide powders
US3947833A (en) * 1974-11-20 1976-03-30 The United States Of America As Represented By The Secretary Of The Navy Automatic target detection system
US3970841A (en) * 1974-11-25 1976-07-20 Green James E Method and apparatus for dual resolution analysis of a scene
US4175860A (en) * 1977-05-31 1979-11-27 Rush-Presbyterian-St. Luke's Medical Center Dual resolution method and apparatus for use in automated classification of pap smear and other samples
US4385322A (en) * 1978-09-01 1983-05-24 View Engineering, Inc. Pattern recognition apparatus and method
US4620318A (en) * 1983-04-18 1986-10-28 Eye-D Development Ii Ltd. Fovea-centered eye fundus scanner
DE3486194T2 (de) * 1983-06-03 1993-11-18 Fondazione Pro Juventute Don C Modular ausbaufähiges System zur Echtzeit-Verarbeitung einer TV-Anzeige, besonders brauchbar zur Koordinatenerfassung von Objekten von bekannter Form und Verfahren zur Benutzung dieses Systems bei Röntgenaufnahmen.
GB8518803D0 (en) * 1985-07-25 1985-08-29 Rca Corp Locating target patterns within images
US4834963A (en) * 1986-12-16 1989-05-30 Kennametal Inc. Macrocrystalline tungsten monocarbide powder and process for producing
US4858000A (en) * 1988-09-14 1989-08-15 A. C. Nielsen Company Image recognition audience measurement system and method

Also Published As

Publication number Publication date
DE69032326T2 (de) 1998-09-10
EP0499627A1 (en) 1992-08-26
DE69032326D1 (de) 1998-06-25
WO1991006921A1 (en) 1991-05-16
JPH05501770A (ja) 1993-04-02
US5063603A (en) 1991-11-05
EP0499627B1 (en) 1998-05-20
ES2116284T3 (es) 1998-07-16
EP0499627A4 (en) 1994-07-20

Similar Documents

Publication Publication Date Title
JP3178719B2 (ja) 動的物体認識方法及びその画像処理システム
US9196043B2 (en) Image processing apparatus and method
EP2467805B1 (en) Method and system for image analysis
KR101441333B1 (ko) 인체 부분 검출 장치 및 그 방법
US5845009A (en) Object tracking system using statistical modeling and geometric relationship
US4975960A (en) Electronic facial tracking and detection system and method and apparatus for automated speech recognition
US7181047B2 (en) Methods and apparatus for identifying and localizing an area of relative movement in a scene
JP2007504562A (ja) 1つの画像から虹彩認証を行う方法および装置
JPH11288459A (ja) 顔のような領域を検出する方法および装置、ならびに観察者トラッキングディスプレイ
KR100326203B1 (ko) 피부색 및 움직임 자동 추적에 의한 얼굴 촬영/인식방법과 그장치
EP1105842B1 (en) Image processing apparatus
CN101398896B (zh) 用于成像设备的提取有强识别力的颜色特征的设备和方法
US20030052971A1 (en) Intelligent quad display through cooperative distributed vision
JP3459950B2 (ja) 顔検出及び顔追跡方法並びにその装置
JPH05297152A (ja) 物体認識装置
JPH05300516A (ja) 動画処理装置
JP4264599B2 (ja) 画像処理装置および画像処理方法
JPH07140222A (ja) 目標捕捉方式
JP2002262232A (ja) 磁気記録装置

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090413

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees