JP3178719B2 - 動的物体認識方法及びその画像処理システム - Google Patents
動的物体認識方法及びその画像処理システムInfo
- Publication number
- JP3178719B2 JP3178719B2 JP50078491A JP50078491A JP3178719B2 JP 3178719 B2 JP3178719 B2 JP 3178719B2 JP 50078491 A JP50078491 A JP 50078491A JP 50078491 A JP50078491 A JP 50078491A JP 3178719 B2 JP3178719 B2 JP 3178719B2
- Authority
- JP
- Japan
- Prior art keywords
- probability
- frame
- predetermined
- resolution
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000012545 processing Methods 0.000 title claims description 15
- 230000004044 response Effects 0.000 claims description 18
- 230000008859 change Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 4
- 238000003672 processing method Methods 0.000 claims description 3
- 238000004458 analytical method Methods 0.000 claims 3
- 230000007423 decrease Effects 0.000 claims 1
- 230000003247 decreasing effect Effects 0.000 claims 1
- 241000282414 Homo sapiens Species 0.000 description 27
- 238000006243 chemical reaction Methods 0.000 description 25
- 238000003384 imaging method Methods 0.000 description 16
- 230000009471 action Effects 0.000 description 10
- 230000000875 corresponding effect Effects 0.000 description 9
- 210000003128 head Anatomy 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 6
- 230000002596 correlated effect Effects 0.000 description 5
- 238000013144 data compression Methods 0.000 description 5
- 241000282412 Homo Species 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000001131 transforming effect Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001276 controlling effect Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 241000894007 species Species 0.000 description 2
- LTUFGCFAPCJOFQ-UHFFFAOYSA-N 2h-pyran-3-carboxamide Chemical compound NC(=O)C1=CC=COC1 LTUFGCFAPCJOFQ-UHFFFAOYSA-N 0.000 description 1
- HUPNQNOWXCVQSW-UHFFFAOYSA-N 2h-pyran-4-carboxamide Chemical compound NC(=O)C1=CCOC=C1 HUPNQNOWXCVQSW-UHFFFAOYSA-N 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000012567 pattern recognition method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/248—Character recognition characterised by the processing or recognition method involving plural approaches, e.g. verification by template match; Resolving confusion among similar patterns, e.g. "O" versus "Q"
- G06V30/2504—Coarse or fine approaches, e.g. resolution of ambiguities or multiscale approaches
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
【発明の詳細な説明】 発明の背景 本発明は、比較的高解像度の画像データフレームの時
系列中に図式表示された所定クラスの物体を認識するた
めの動的画像処理技術に関する。
系列中に図式表示された所定クラスの物体を認識するた
めの動的画像処理技術に関する。
画像データ中に図式表示された物体のパターン形状を
認識するための技術が当該技術分野で周知である。ま
た、予め選択された角方位を持つ移動物体と静止物体と
を区別し、又は他の所定の興味ある特徴をもつ物体を区
別する技術も、当業界では周知である。
認識するための技術が当該技術分野で周知である。ま
た、予め選択された角方位を持つ移動物体と静止物体と
を区別し、又は他の所定の興味ある特徴をもつ物体を区
別する技術も、当業界では周知である。
これら技術の例としては、米国特許第4,692,806号
(発明者:アンダーソン他;登録日:1987年9月8日)
及び米国特許第4,385,322号(発明者:ヒュバッチ他;
登録日1983年5月24日)に開示されている。
(発明者:アンダーソン他;登録日:1987年9月8日)
及び米国特許第4,385,322号(発明者:ヒュバッチ他;
登録日1983年5月24日)に開示されている。
アンダーソン特許には、第1所定ピクセル数から成る
元々広視野且つ高解像度の画像を処理して、第1所定数
よりも小さい第2所定ピクセル数の広視野低解像度画像
を派生させる画像データ圧縮技術が示されている。この
派生した低解像度画像中の検出された興味ある特徴の位
置に基づき、第2所定ピクセル数のみを含む可動ウィン
ドウを用い、検出された興味ある特徴を含む元の高解像
度画像の狭視野部の位置を得ることができる。アンダー
ソン特許では、いわゆるマルチ解像度ピラミッドプロセ
ッサ技術を採用して、画像データ圧縮を行っている。
元々広視野且つ高解像度の画像を処理して、第1所定数
よりも小さい第2所定ピクセル数の広視野低解像度画像
を派生させる画像データ圧縮技術が示されている。この
派生した低解像度画像中の検出された興味ある特徴の位
置に基づき、第2所定ピクセル数のみを含む可動ウィン
ドウを用い、検出された興味ある特徴を含む元の高解像
度画像の狭視野部の位置を得ることができる。アンダー
ソン特許では、いわゆるマルチ解像度ピラミッドプロセ
ッサ技術を採用して、画像データ圧縮を行っている。
アンダーソン特許のデータ圧縮技術は、連続した比較
的高解像度の画像データフレームに対して時系列的に繰
り返し行われるが、この各圧縮作用中における目的特徴
の検出は、相互に変わるところはない(即ち、各繰り返
し作用中、目的特徴は、一つ前の繰り返し作用上で検出
されるか否かにかかわらず、検出又は非検出される)。
的高解像度の画像データフレームに対して時系列的に繰
り返し行われるが、この各圧縮作用中における目的特徴
の検出は、相互に変わるところはない(即ち、各繰り返
し作用中、目的特徴は、一つ前の繰り返し作用上で検出
されるか否かにかかわらず、検出又は非検出される)。
ヒュバッチ特許には、データ圧縮技術を用いたパター
ン認識方法が開示されている。まず基準シーンがファイ
ン(細)フォーマットで記録保持され、次いでコース
(粗)フォーマットで記録保持される。記憶された基準
シーンの粗情報は、広視野対象シーンからの粗情報とリ
アルタイムで比較され、合致パーセントを示す相関番号
(確率)を用いて対象シーンと基準シーンとの最高合致
位置が定められる。粗合致部位近傍に存在する対象シー
ンの狭視野領域のみが、基準シーンの記憶された細情報
と比較される。最適合致位置は、対象シーンと基準シー
ンの細記憶情報との合致の最大相関番号(確率)に従っ
て正確に決定される。ヒュバッチ特許では、記憶された
粗及び細基準情報は固定されたままであることに留意さ
れたい。
ン認識方法が開示されている。まず基準シーンがファイ
ン(細)フォーマットで記録保持され、次いでコース
(粗)フォーマットで記録保持される。記憶された基準
シーンの粗情報は、広視野対象シーンからの粗情報とリ
アルタイムで比較され、合致パーセントを示す相関番号
(確率)を用いて対象シーンと基準シーンとの最高合致
位置が定められる。粗合致部位近傍に存在する対象シー
ンの狭視野領域のみが、基準シーンの記憶された細情報
と比較される。最適合致位置は、対象シーンと基準シー
ンの細記憶情報との合致の最大相関番号(確率)に従っ
て正確に決定される。ヒュバッチ特許では、記憶された
粗及び細基準情報は固定されたままであることに留意さ
れたい。
今、認識されるべき物体が3次元可動物体である場合
を考える。この物体は、連続した画像データフレームの
時系列中に図式表示される。各画像データフレームは、
3次元物体の2次元投写により構成される。このような
場合、各フレーム中における2次元投写の大きさ及び形
状は、3次元物体の投写方向に対する垂直方向への距
離、及び当該フレームにおける3次元物体の投写の角方
向により変化する。もし3次元物体が移動すれば、その
図式表示の大きさ及び形状がフレーム毎に塩化する。こ
のように、3次元移動物体に関して単一フレームから得
られる情報は、完全とは程遠いものとなる。しかし、単
一フレームから得た情報に時系列上の全ての前フレーム
から得られた情報を累積付加してゆくことにより、その
ような3次元可動物体を選択的に高精度で照合認識する
に十分な情報を収集することができる。本発明に係る動
的画像処理方法は、この種の認識における問題を効率よ
く解決することを意図して為されたものである。
を考える。この物体は、連続した画像データフレームの
時系列中に図式表示される。各画像データフレームは、
3次元物体の2次元投写により構成される。このような
場合、各フレーム中における2次元投写の大きさ及び形
状は、3次元物体の投写方向に対する垂直方向への距
離、及び当該フレームにおける3次元物体の投写の角方
向により変化する。もし3次元物体が移動すれば、その
図式表示の大きさ及び形状がフレーム毎に塩化する。こ
のように、3次元移動物体に関して単一フレームから得
られる情報は、完全とは程遠いものとなる。しかし、単
一フレームから得た情報に時系列上の全ての前フレーム
から得られた情報を累積付加してゆくことにより、その
ような3次元可動物体を選択的に高精度で照合認識する
に十分な情報を収集することができる。本発明に係る動
的画像処理方法は、この種の認識における問題を効率よ
く解決することを意図して為されたものである。
発明の要約 具体的に言えば、本発明に係る動的に画像を処理する
方法では、所定クラスの物体が認識される。所定クラス
の物体の全ては、既知の一群の包括的属性を有し、この
一群の包括的属性が、全体として、所定クラスの物体と
それ以外のクラスの物体とを区別する。この方法では、
本画像処理を制御すると共に、一組の決定基準を特定す
るための手段に応答を示す。この方法では、また、この
一群の包括的属性に関する限定された数の個別特徴を初
期に規定している記憶データに応答を示す。所定クラス
の物体が一又は複数の連続画像データフレームのシーケ
ンス中にグラフィカルに表示されている場合、任意の初
期記憶された特徴は、当該シーケンス中に存在する可能
性がある。この方法は、次の各ステップを含む。
方法では、所定クラスの物体が認識される。所定クラス
の物体の全ては、既知の一群の包括的属性を有し、この
一群の包括的属性が、全体として、所定クラスの物体と
それ以外のクラスの物体とを区別する。この方法では、
本画像処理を制御すると共に、一組の決定基準を特定す
るための手段に応答を示す。この方法では、また、この
一群の包括的属性に関する限定された数の個別特徴を初
期に規定している記憶データに応答を示す。所定クラス
の物体が一又は複数の連続画像データフレームのシーケ
ンス中にグラフィカルに表示されている場合、任意の初
期記憶された特徴は、当該シーケンス中に存在する可能
性がある。この方法は、次の各ステップを含む。
先ず、相対的に高解像度であり時系列の連続した画像
データフレームが、この高解像度フレームの解像度より
も低い解像度を示す少なくとも一レベルから成るマルチ
解像度ピラミッドプロセッサにおいて解析される。格納
されたプログラムによる制御下で、且つ記憶データによ
って初期に規定された個別特徴のうち少なくとも第1の
特徴に応じて、第1の確率に関する決定基準に従って第
1の決定が行われる。この第1の確率では、時系列上の
相対的に初期に発生する一又は複数のフレームのシーケ
ンス中におけるマルチ解像度ピラミッドプロセッサの低
い方の解像度の任意のレベルは、所定クラスの物体の固
定特徴のうち少なくとも第1の特徴を、その画像データ
の部分として含んでいる。この第1の確率が第1の所定
閾値と少なくとも等しい場合、シーケンスの最初の方で
の発生フレーム内における画像データの当該部分の少な
くとも相対位置を決定するデータは、記憶データに追加
され、これによって記憶データが増大されることにな
る。
データフレームが、この高解像度フレームの解像度より
も低い解像度を示す少なくとも一レベルから成るマルチ
解像度ピラミッドプロセッサにおいて解析される。格納
されたプログラムによる制御下で、且つ記憶データによ
って初期に規定された個別特徴のうち少なくとも第1の
特徴に応じて、第1の確率に関する決定基準に従って第
1の決定が行われる。この第1の確率では、時系列上の
相対的に初期に発生する一又は複数のフレームのシーケ
ンス中におけるマルチ解像度ピラミッドプロセッサの低
い方の解像度の任意のレベルは、所定クラスの物体の固
定特徴のうち少なくとも第1の特徴を、その画像データ
の部分として含んでいる。この第1の確率が第1の所定
閾値と少なくとも等しい場合、シーケンスの最初の方で
の発生フレーム内における画像データの当該部分の少な
くとも相対位置を決定するデータは、記憶データに追加
され、これによって記憶データが増大されることにな
る。
その後、格納プログラムによる制御下で、且つ増大さ
れた記憶データに応じて、第2の確率に関する決定基準
に従って第2の決定が行われる。この第2の確率は、時
系列上の相対的に後に発生する一又は複数のフレームの
シーケンスのマルチ解像度ピラミッドプロセッサのレベ
ルのうちの何れかによって、少なくとも個別特徴のうち
の第2の特徴を第1の特徴に加えて画像データ中の上記
部分が更に含むことが照合される確率である。第2の確
率が第2の所定閾値以上であるならば、画像データの上
記部分は、所定クラスの物体のグラフィカル表示である
と認識される。しかしながら、第2の所定閾値よりもか
なり小さい第3の所定閾値よりも、第2の確率が小さい
場合には、画像データの上記部分は、所定クラスの物体
のグラフィカル表示でないと認識される。第2の確率が
第2および第3の所定の閾値の間の範囲内にある場合に
は、前記照合ステップにより規定される更なるデータが
記憶データに追加され、これによって記憶データが一層
増大されることとなる。更に、もし第2の確率がこの範
囲にあるならば、照合ステップ及びこれに応じた記憶デ
ータの蓄積は、時系列上の一又は複数のフレームのもっ
と後に発生するシーケンスに対して再帰的にくり返され
る。これは、そのような繰り返しステップが第2の閾値
より上昇するか、或いは第3の閾値より小さく降下する
まで続けられる。
れた記憶データに応じて、第2の確率に関する決定基準
に従って第2の決定が行われる。この第2の確率は、時
系列上の相対的に後に発生する一又は複数のフレームの
シーケンスのマルチ解像度ピラミッドプロセッサのレベ
ルのうちの何れかによって、少なくとも個別特徴のうち
の第2の特徴を第1の特徴に加えて画像データ中の上記
部分が更に含むことが照合される確率である。第2の確
率が第2の所定閾値以上であるならば、画像データの上
記部分は、所定クラスの物体のグラフィカル表示である
と認識される。しかしながら、第2の所定閾値よりもか
なり小さい第3の所定閾値よりも、第2の確率が小さい
場合には、画像データの上記部分は、所定クラスの物体
のグラフィカル表示でないと認識される。第2の確率が
第2および第3の所定の閾値の間の範囲内にある場合に
は、前記照合ステップにより規定される更なるデータが
記憶データに追加され、これによって記憶データが一層
増大されることとなる。更に、もし第2の確率がこの範
囲にあるならば、照合ステップ及びこれに応じた記憶デ
ータの蓄積は、時系列上の一又は複数のフレームのもっ
と後に発生するシーケンスに対して再帰的にくり返され
る。これは、そのような繰り返しステップが第2の閾値
より上昇するか、或いは第3の閾値より小さく降下する
まで続けられる。
図面の簡単な説明 図1は、本発明の原理を描いた機能図; 図2は、図1中の撮像手段の特定の構成例を用いた本
発明の一例を示す図; 図3は、図1のプリプロセッサの例を示す図; 図4は、図1の物体認識手段及び記憶データの例を示
す図である。
発明の一例を示す図; 図3は、図1のプリプロセッサの例を示す図; 図4は、図1の物体認識手段及び記憶データの例を示
す図である。
好適な実施例の説明 人間の観察者は、複雑なシーン(場面)に存在する所
定クラスの物体(例:他の人間)を認識するのに困難を
覚えることはない。事実、観察者が何百もの個体を知っ
ていたとしても、観察シーン中に存在する任意の一個体
を認識することに困難はない。
定クラスの物体(例:他の人間)を認識するのに困難を
覚えることはない。事実、観察者が何百もの個体を知っ
ていたとしても、観察シーン中に存在する任意の一個体
を認識することに困難はない。
全ての人間は、一群の既知の包括的属性(以下、包括
的特徴ともいう)を備えており、これらの包括的属性
は、全体として、人間を人間以外の他の物体から識別す
る作用を果たす。しかしながら、これは、主として、一
個体を他個体から識別する顔相上の特徴における差に基
づく。
的特徴ともいう)を備えており、これらの包括的属性
は、全体として、人間を人間以外の他の物体から識別す
る作用を果たす。しかしながら、これは、主として、一
個体を他個体から識別する顔相上の特徴における差に基
づく。
図1に示した本発明に係る動的画像処理方法は、その
全てが一群の既知の包括的特徴をもつ所定クラスの物体
を認識するという人間の能力を模倣したものである。こ
れらの属性は、全体として、この所定クラスの物体をそ
れ以外のクラスの物体から識別する作用を果たす。更
に、本発明の動的画像処理では、所定クラスに属する予
め選択された複数のメンバー中からの識別を行なうこと
も可能である。予め選択されたメンバーの各々は、少な
くとも一つのサブグループの既知の包括的特徴の各々に
おける既知の種属性(以下、種ともいう)の特有の組を
もつということによって、個々に規定されている。
全てが一群の既知の包括的特徴をもつ所定クラスの物体
を認識するという人間の能力を模倣したものである。こ
れらの属性は、全体として、この所定クラスの物体をそ
れ以外のクラスの物体から識別する作用を果たす。更
に、本発明の動的画像処理では、所定クラスに属する予
め選択された複数のメンバー中からの識別を行なうこと
も可能である。予め選択されたメンバーの各々は、少な
くとも一つのサブグループの既知の包括的特徴の各々に
おける既知の種属性(以下、種ともいう)の特有の組を
もつということによって、個々に規定されている。
図1には、視野102を有する撮像手段100が示されてい
る。撮像手段100は、外部照射器にて照射される視野102
内の物体から反射した輻射線を受ける構造を備える。或
いは、撮像手段100は、視野102内で物体を輻射線で照射
するための手段及び物体からの反射エコーを受ける手段
を含む構成とすることもできる(これらのエコー(反射
波)は、物体距離情報を提供することもできる)。更
に、撮像手段100は、電磁、超音波及び/又はあらゆる
他の種類の波−エネルギースペクトルの所定波長の任意
の部分の輻射に応答を示すことができる。視野102内に
は、所定クラス104に属する2個の可動物体が配置され
ている(図1では可動の立方体として示す)。両物体
は、立方体の全ての包括的属性を備えているが、具体的
には、上側の立方体の面は「+」が記され、下側の立方
体の面には「0」が記されているという点で両者は相違
する。更に、視野102内には、所定クラス104以外の種々
の静止物体106が複数存在する。
る。撮像手段100は、外部照射器にて照射される視野102
内の物体から反射した輻射線を受ける構造を備える。或
いは、撮像手段100は、視野102内で物体を輻射線で照射
するための手段及び物体からの反射エコーを受ける手段
を含む構成とすることもできる(これらのエコー(反射
波)は、物体距離情報を提供することもできる)。更
に、撮像手段100は、電磁、超音波及び/又はあらゆる
他の種類の波−エネルギースペクトルの所定波長の任意
の部分の輻射に応答を示すことができる。視野102内に
は、所定クラス104に属する2個の可動物体が配置され
ている(図1では可動の立方体として示す)。両物体
は、立方体の全ての包括的属性を備えているが、具体的
には、上側の立方体の面は「+」が記され、下側の立方
体の面には「0」が記されているという点で両者は相違
する。更に、視野102内には、所定クラス104以外の種々
の静止物体106が複数存在する。
撮像手段100は、各3次元立方体104の2次元投射像を
生成する。立方体104は可動であるので、各立方体の投
写された形状及び大きさは、いずれの時間においても、
撮像手段100からの立方体の方向及び距離に従って変化
する。
生成する。立方体104は可動であるので、各立方体の投
写された形状及び大きさは、いずれの時間においても、
撮像手段100からの立方体の方向及び距離に従って変化
する。
撮像手段100の出力は、時系列上に連続した相対的に
高解像度の画像データフレームを含む。各フレームは、
クラス104に属する各立方体及び物体106の2次元投写を
アナログ形式でグラフィカルに表現する。この表現は、
時系列上に当該フレーム発生時点における立方体及び物
体が存在する空間位置における2次元投影像を表す。ア
ナログ/デジタル(A/D)コンバータ108は、プリプロセ
ッサ110、マルチ解像度ピラミッドプロセッサ112、物体
認識手段114、記憶プログラム116、及び記憶データ118
を備えるデジタルプロセッサによる処理に供するため
に、連続した各フレームにおける画像データをデジタル
形式に変換する。
高解像度の画像データフレームを含む。各フレームは、
クラス104に属する各立方体及び物体106の2次元投写を
アナログ形式でグラフィカルに表現する。この表現は、
時系列上に当該フレーム発生時点における立方体及び物
体が存在する空間位置における2次元投影像を表す。ア
ナログ/デジタル(A/D)コンバータ108は、プリプロセ
ッサ110、マルチ解像度ピラミッドプロセッサ112、物体
認識手段114、記憶プログラム116、及び記憶データ118
を備えるデジタルプロセッサによる処理に供するため
に、連続した各フレームにおける画像データをデジタル
形式に変換する。
図1において、デジタルプロセッサは、相互に接続さ
れた機能ブロックのシステムとして示されている。その
システムでは、各ブロックがサブシステムに対応してい
る。実際には、デジタルプロセッサシステムは、ソフト
ウェア(即ち、プログラムされたコンピュータシステ
ム)及び/又はハードウェア(即ち、ハード配線された
素子)中に組み込まれることができる。プリプロセッサ
(以下、前プロセッサともいう)110のサブシステムの
詳細例は図3に示され、移体認識手段114及び記憶デー
タ118の詳細例は図4に示されている。両図に関しては
後述する。
れた機能ブロックのシステムとして示されている。その
システムでは、各ブロックがサブシステムに対応してい
る。実際には、デジタルプロセッサシステムは、ソフト
ウェア(即ち、プログラムされたコンピュータシステ
ム)及び/又はハードウェア(即ち、ハード配線された
素子)中に組み込まれることができる。プリプロセッサ
(以下、前プロセッサともいう)110のサブシステムの
詳細例は図3に示され、移体認識手段114及び記憶デー
タ118の詳細例は図4に示されている。両図に関しては
後述する。
記憶プログラム116は、制御入力をプリプロセッサ11
0、マルチ解像度ピラミッドプロセッサ112、物体認識手
段114及び記憶データ118へ提供して、該入力に従ってこ
れらサブシステムの動作シーケンスを制御する。この動
作シーケンスは、物体認識手段114から記憶プログラム1
16へフィードバックされた情報に従って修正される。制
御情報はまた、撮像手段100、プリプロセッサ110及びマ
ルチ解像度ピラミッドプロセッサ112の各々を介して物
体認識手段114からフィードバックされる。加えて、物
体認識手段114は、記憶データ118へ増大されたデータ蓄
積を提供する。
0、マルチ解像度ピラミッドプロセッサ112、物体認識手
段114及び記憶データ118へ提供して、該入力に従ってこ
れらサブシステムの動作シーケンスを制御する。この動
作シーケンスは、物体認識手段114から記憶プログラム1
16へフィードバックされた情報に従って修正される。制
御情報はまた、撮像手段100、プリプロセッサ110及びマ
ルチ解像度ピラミッドプロセッサ112の各々を介して物
体認識手段114からフィードバックされる。加えて、物
体認識手段114は、記憶データ118へ増大されたデータ蓄
積を提供する。
デジタル形式の画像データは、信号入力としてプリプ
ロセッサ110へ供給される。プリプロセッサ110は、物体
認識手段114及び記憶プログラム116から加えられる制御
情報に従って、入力として加えられる画像データを変更
すると共に、この変更された画像データをマルチ解像度
ピラミッドプロセッサ112に対する入力として与える。
ロセッサ110へ供給される。プリプロセッサ110は、物体
認識手段114及び記憶プログラム116から加えられる制御
情報に従って、入力として加えられる画像データを変更
すると共に、この変更された画像データをマルチ解像度
ピラミッドプロセッサ112に対する入力として与える。
マルチ解像度ピラミッドプロセッサ112は、上記のア
ンダーソン特許に教示された機能の対応を実行可能であ
って、米国特許第4,703,514号(登録日:1087年10月27
日;発明者:バン・デア・バル;発明の名称「リアルタ
イムマルチ解像度信号処理装置のプログラム構造」)の
開示内容に従って構成されることができる。
ンダーソン特許に教示された機能の対応を実行可能であ
って、米国特許第4,703,514号(登録日:1087年10月27
日;発明者:バン・デア・バル;発明の名称「リアルタ
イムマルチ解像度信号処理装置のプログラム構造」)の
開示内容に従って構成されることができる。
ピラミッドプロセッサ112からの出力データは、第1
の信号入力として物体認識手段114へ供給される。加え
て、物体認識手段114は、プリプロセッサ110から直接に
第2の信号入力情報を受ける。また、情報は撮像手段10
0からフィードバックされ、物体認識手段114への入力と
なる。更に、格納プログラム116による制御下で、格納
データ118は、選択された格納データを物体認識手段114
への入力として供給する。
の信号入力として物体認識手段114へ供給される。加え
て、物体認識手段114は、プリプロセッサ110から直接に
第2の信号入力情報を受ける。また、情報は撮像手段10
0からフィードバックされ、物体認識手段114への入力と
なる。更に、格納プログラム116による制御下で、格納
データ118は、選択された格納データを物体認識手段114
への入力として供給する。
物体認識プログラム114からの出力情報は、出力使用
手段120へ入力として供給される。図1にはまた、オプ
ションであるが、撮像手段100からの画像出力を表示す
るための(破線で示した)表示モニタ122が配置されて
いる。表示モニタ122は、また、出力使用手段120から受
けた情報を表示することができる(例:画像中の認識さ
れた物体を確認するために役立つキャプション及び他の
標識)。
手段120へ入力として供給される。図1にはまた、オプ
ションであるが、撮像手段100からの画像出力を表示す
るための(破線で示した)表示モニタ122が配置されて
いる。表示モニタ122は、また、出力使用手段120から受
けた情報を表示することができる(例:画像中の認識さ
れた物体を確認するために役立つキャプション及び他の
標識)。
図1は、本発明システムの全般的な構成を示す。本発
明をよりよく理解できるように、具体的な図示例(図
2)について以下説明する。図2において、認識手段10
0は、カラーテレビカメラ200a及び距離測定手段200bを
備える。カメラ200a及び距離測定手段200b双方の視野
は、ドア通路203を有する部屋201の内部にある。ジョン
204a、ビル204b及びメアリー204cの3人のうち誰かは、
あるとき、部屋201内に居ないかもしれない。そして、
エンドテーブル206a、ソファー206b及び振動ファン208
から成る3個の物品は、図2に示すようにずっと部屋20
1内に置かれている。図2に示した状態時では、ジョン2
04aは、テレビカメラ200a及び距離測定手段200bから成
る撮像手段に比較的近くであって部屋102内の位置に起
立している。ソファ206b上に座ったビル204bは、部屋10
2内の撮像手段100から比較的離れた場所に位置してい
る。そして、メアリー204cは、矢印205で示すようにド
ア通路203から部屋201を出たばかりである。
明をよりよく理解できるように、具体的な図示例(図
2)について以下説明する。図2において、認識手段10
0は、カラーテレビカメラ200a及び距離測定手段200bを
備える。カメラ200a及び距離測定手段200b双方の視野
は、ドア通路203を有する部屋201の内部にある。ジョン
204a、ビル204b及びメアリー204cの3人のうち誰かは、
あるとき、部屋201内に居ないかもしれない。そして、
エンドテーブル206a、ソファー206b及び振動ファン208
から成る3個の物品は、図2に示すようにずっと部屋20
1内に置かれている。図2に示した状態時では、ジョン2
04aは、テレビカメラ200a及び距離測定手段200bから成
る撮像手段に比較的近くであって部屋102内の位置に起
立している。ソファ206b上に座ったビル204bは、部屋10
2内の撮像手段100から比較的離れた場所に位置してい
る。そして、メアリー204cは、矢印205で示すようにド
ア通路203から部屋201を出たばかりである。
図2に示した実施例の場合に、本発明の目的は、
(1)部屋201内にいる任意の人間を全体的に認識する
こと;(2)次いで、全体的に認識された任意の人間が
ジョン204aであるか、ビル204bであるか、或いはメアリ
ー204cであるか、具体的に認識すること;(3)及びそ
の後、具体的に認識された各人の部屋201内における位
置と追跡すること、の3点である。
(1)部屋201内にいる任意の人間を全体的に認識する
こと;(2)次いで、全体的に認識された任意の人間が
ジョン204aであるか、ビル204bであるか、或いはメアリ
ー204cであるか、具体的に認識すること;(3)及びそ
の後、具体的に認識された各人の部屋201内における位
置と追跡すること、の3点である。
図示上の事情から、プリプロセッサ110は図3に示す
形態を採用しており、また物体認識手段114及び記憶デ
ータ118は図4に示すように構成されている。明瞭化の
ため、図3及び4において、記憶プログラム116とプリ
プロセッサ110、物体認識手段114及び記憶データ118と
の個々の接続関係は図示を省略した。しかし、各サブシ
ステムのシーケンスは記憶プログラム116により制御さ
れていることが理解されなければならない。
形態を採用しており、また物体認識手段114及び記憶デ
ータ118は図4に示すように構成されている。明瞭化の
ため、図3及び4において、記憶プログラム116とプリ
プロセッサ110、物体認識手段114及び記憶データ118と
の個々の接続関係は図示を省略した。しかし、各サブシ
ステムのシーケンスは記憶プログラム116により制御さ
れていることが理解されなければならない。
図3に示すように、プリプロセッサ110はカラーフィ
ルタ、フレーム及び距離メモリ300、画像方向変換手段3
02、そして移動物体手段304を備える。図4に示すよう
に、物体認識手段114は、大きさ調整手段400、テンプレ
ート方向変換手段401、指向パターン形状相関手段402、
確率決定手段404、フレッシュトーン検出器406、ゲート
408、ウィンドウ制御手段410及びゲート412を備える。
更に図4に示すように、記憶データ118は、初期記憶さ
れたマルチ視野マルチ解像度テンプレート118a、静止物
体の記憶位置118b、及び後に記憶された認識増大データ
118cを備える。
ルタ、フレーム及び距離メモリ300、画像方向変換手段3
02、そして移動物体手段304を備える。図4に示すよう
に、物体認識手段114は、大きさ調整手段400、テンプレ
ート方向変換手段401、指向パターン形状相関手段402、
確率決定手段404、フレッシュトーン検出器406、ゲート
408、ウィンドウ制御手段410及びゲート412を備える。
更に図4に示すように、記憶データ118は、初期記憶さ
れたマルチ視野マルチ解像度テンプレート118a、静止物
体の記憶位置118b、及び後に記憶された認識増大データ
118cを備える。
初期的に記憶されたテンプレート118aは、ジョン204
a、ビル204b及びメアリー204cの各人の顔全体、頭部の
左及右側面またはその部分をいくつかの異なる解像度で
規定している予め記憶された画像データを含む。低解像
度のテンプレートは、特定個人の頭全体又は顔全体を包
含することができるが、高解像度のテンプレートは、各
人の顔の比較的高情報部のみに限定される。例えば、高
解像度テンプレートは、各人の顔を横切る水平ストリッ
プを含む。このストリップ(細長い領域)はその人の
耳、眼、及び鼻梁を示す(即ち、特定個人と他の個人と
を認識するために使用されることができる高識別情報を
含む)。加えて、好ましくは低解像度のみにおいて、テ
ンプレート118aは、人体形状、包括的な(構成員全てに
当てはまる)頭部、又は人間の各部の形状を他の物体の
形状から図形的に識別する他のパターン形状からなる一
又は複数のテンプレートを含む。
a、ビル204b及びメアリー204cの各人の顔全体、頭部の
左及右側面またはその部分をいくつかの異なる解像度で
規定している予め記憶された画像データを含む。低解像
度のテンプレートは、特定個人の頭全体又は顔全体を包
含することができるが、高解像度のテンプレートは、各
人の顔の比較的高情報部のみに限定される。例えば、高
解像度テンプレートは、各人の顔を横切る水平ストリッ
プを含む。このストリップ(細長い領域)はその人の
耳、眼、及び鼻梁を示す(即ち、特定個人と他の個人と
を認識するために使用されることができる高識別情報を
含む)。加えて、好ましくは低解像度のみにおいて、テ
ンプレート118aは、人体形状、包括的な(構成員全てに
当てはまる)頭部、又は人間の各部の形状を他の物体の
形状から図形的に識別する他のパターン形状からなる一
又は複数のテンプレートを含む。
図3に戻って、カラーテレビカメラ200aからのリアル
タイム出力に対応するA/Dコンバータ108からの入力の部
分は、デジタル形式で、まずブロック300のカラーフィ
ルタ部によってカラーフィルタリングを受けて、クロミ
ナンス(I,Q)部から輝度(Y)部を分離する(カラー
テレビカメラ200aからの出力は、標準NTSC形式であると
想定している)。テレビカメラ200aからの出力の分離さ
れた輝度部及びクロミナンス部は、デジタル形式で直接
ブロック300に(赤、緑及び青の別個の信号として、或
いはL,I,Qの別個の信号として)供給される場合には、
ブロック300のカラーフィルタ部は省略されることがで
きる。いずれにせよ、輝度及びクロミナンス情報の一又
は複数の連続フレームは、ブロック300のフレームメモ
リ部内に一時的に記憶される。
タイム出力に対応するA/Dコンバータ108からの入力の部
分は、デジタル形式で、まずブロック300のカラーフィ
ルタ部によってカラーフィルタリングを受けて、クロミ
ナンス(I,Q)部から輝度(Y)部を分離する(カラー
テレビカメラ200aからの出力は、標準NTSC形式であると
想定している)。テレビカメラ200aからの出力の分離さ
れた輝度部及びクロミナンス部は、デジタル形式で直接
ブロック300に(赤、緑及び青の別個の信号として、或
いはL,I,Qの別個の信号として)供給される場合には、
ブロック300のカラーフィルタ部は省略されることがで
きる。いずれにせよ、輝度及びクロミナンス情報の一又
は複数の連続フレームは、ブロック300のフレームメモ
リ部内に一時的に記憶される。
距離測定手段200b及びカラーテレビカメラ200aは、同
じ視野102に対して水平及び垂直方向に走査される。た
だし、フレームレートは必ずしも同一でなくてよい。距
離測定手段200bは、赤外パルスの送信とそのエコーの受
信との間の時間インターバルを測定することによって作
用を果たす。距離は、レーダーと同様に、このインター
バルの長さによって定められることとなる。距離測定手
段200bのために可視光線ではなく赤外線を用いる理由
は、距離測定手段200bの感度に対して部屋201内の環境
光の強度変化が影響を及ぼすのを回避するためである。
いずれにしても、距離測定手段200bからのデジタル形式
の出力情報は、ブロック300の距離メモリ部内へ一時的
に記憶されることとなる。
じ視野102に対して水平及び垂直方向に走査される。た
だし、フレームレートは必ずしも同一でなくてよい。距
離測定手段200bは、赤外パルスの送信とそのエコーの受
信との間の時間インターバルを測定することによって作
用を果たす。距離は、レーダーと同様に、このインター
バルの長さによって定められることとなる。距離測定手
段200bのために可視光線ではなく赤外線を用いる理由
は、距離測定手段200bの感度に対して部屋201内の環境
光の強度変化が影響を及ぼすのを回避するためである。
いずれにしても、距離測定手段200bからのデジタル形式
の出力情報は、ブロック300の距離メモリ部内へ一時的
に記憶されることとなる。
或いはまた、パターンマッチング処理によって大きさ
及び距離情報を得ることも可能である。このパターンマ
ッチング処理は、記憶されたテンプレート又は現在の画
像の大きさを調整することによって、両者間の最適マッ
チングを得るものである。
及び距離情報を得ることも可能である。このパターンマ
ッチング処理は、記憶されたテンプレート又は現在の画
像の大きさを調整することによって、両者間の最適マッ
チングを得るものである。
テレビ情報及び距離情報に対するサンプルレートが同
一であるとすると、距離メモリは、テレビフレームメモ
リの各テレビピクセル記憶位置に対応する個々の距離記
憶位置を有することとなる。従って、テレビフレームメ
モリ及び対応する距離メモリの双方を同期して読み出す
期間中、水平(X)及び垂直(Y)のピクセル座標は、
フレームメモリの読み出されたアドレスから求められ
る。また、各読み出されたピクセルに対する距離(Z)
座標は、当該ピクセルの距離メモリ内位置に記憶されて
いる情報から得られる。このように、ブロック300から
の各出力の一つは、図3に示すごとく、読み出された連
続の各ピクセルのX,Y、及びZピクセル座標である。更
に、クロミナンス(基準色)情報がブロック300内に標
準IQ形式で記憶されていると仮定すれば、ブロック300
のテレビフレームメモリの読み出し結果によって、ブロ
ック300からカラー出力が導き出されることになる。こ
のカラー出力より、連続的に読み出された各ピクセルの
対応するIQ値が得られる。
一であるとすると、距離メモリは、テレビフレームメモ
リの各テレビピクセル記憶位置に対応する個々の距離記
憶位置を有することとなる。従って、テレビフレームメ
モリ及び対応する距離メモリの双方を同期して読み出す
期間中、水平(X)及び垂直(Y)のピクセル座標は、
フレームメモリの読み出されたアドレスから求められ
る。また、各読み出されたピクセルに対する距離(Z)
座標は、当該ピクセルの距離メモリ内位置に記憶されて
いる情報から得られる。このように、ブロック300から
の各出力の一つは、図3に示すごとく、読み出された連
続の各ピクセルのX,Y、及びZピクセル座標である。更
に、クロミナンス(基準色)情報がブロック300内に標
準IQ形式で記憶されていると仮定すれば、ブロック300
のテレビフレームメモリの読み出し結果によって、ブロ
ック300からカラー出力が導き出されることになる。こ
のカラー出力より、連続的に読み出された各ピクセルの
対応するIQ値が得られる。
静止物体から移動物体を分離するための単純で周知の
技術は、テレビ画像情報の連続して発生する2個のフレ
ームの対応ピクセルを差演算し、静止物体のピクセルを
実質的に除去することである、これにより、差フレーム
のピクセルは、移動物体のみに対応することとなる。こ
の差フレームのピクセルを現在フレームのピクセルから
差し引けば、その結果生じるフレームは静止物体のみを
含む。移動移体手段304にこの単純な周知の方法を適用
することはできるが、これが本発明の目的に対する移動
物体手段304の最適な適用方法ではない。本発明の目的
に対しては、人間は、人間とそれ以外の物体とを識別す
る特徴として、移動物体であるという事実を利用するこ
とが望ましい。エンドテーブル206a及びソファー206bと
同様に振動ファン208も部屋201内における永久背景物体
であり、振動ファン208は移動物体でもある。本発明の
観点からすれば、その内部では移動しているにもかかわ
らず、振動ファン208といった移動背景物体を静止物体
であるとみなす移動物体手段304を備えることが望まし
い。従って、このような移動物体手段304が移動前景物
体と全ての背景物体(静止していると考えられる)とを
識別することとなる。
技術は、テレビ画像情報の連続して発生する2個のフレ
ームの対応ピクセルを差演算し、静止物体のピクセルを
実質的に除去することである、これにより、差フレーム
のピクセルは、移動物体のみに対応することとなる。こ
の差フレームのピクセルを現在フレームのピクセルから
差し引けば、その結果生じるフレームは静止物体のみを
含む。移動移体手段304にこの単純な周知の方法を適用
することはできるが、これが本発明の目的に対する移動
物体手段304の最適な適用方法ではない。本発明の目的
に対しては、人間は、人間とそれ以外の物体とを識別す
る特徴として、移動物体であるという事実を利用するこ
とが望ましい。エンドテーブル206a及びソファー206bと
同様に振動ファン208も部屋201内における永久背景物体
であり、振動ファン208は移動物体でもある。本発明の
観点からすれば、その内部では移動しているにもかかわ
らず、振動ファン208といった移動背景物体を静止物体
であるとみなす移動物体手段304を備えることが望まし
い。従って、このような移動物体手段304が移動前景物
体と全ての背景物体(静止していると考えられる)とを
識別することとなる。
上述のように、静止物体の配置は、記憶データ118の
セクション118bに格納されている。システムの予備動作
として、記憶データ118のセクション118b内に保持され
るデータを得るために、カラーテレビカメラ200a及び距
離測定手段200bは、全3名の人間ジョン204a、ビル204
b、及びメアリー204cの誰もが部屋201内にいない状態で
動作するようにしてもよい。これにより、この予備動作
中に部屋201内に存在する永久静止背景物体のみの画像
を導出することができる。この予備動作によって得られ
た画像は、この目的のために移動物体手段304を用いる
ことにより、記憶データ118の静止物体118bセクション
の記憶位置へ保持されるために転送される。
セクション118bに格納されている。システムの予備動作
として、記憶データ118のセクション118b内に保持され
るデータを得るために、カラーテレビカメラ200a及び距
離測定手段200bは、全3名の人間ジョン204a、ビル204
b、及びメアリー204cの誰もが部屋201内にいない状態で
動作するようにしてもよい。これにより、この予備動作
中に部屋201内に存在する永久静止背景物体のみの画像
を導出することができる。この予備動作によって得られ
た画像は、この目的のために移動物体手段304を用いる
ことにより、記憶データ118の静止物体118bセクション
の記憶位置へ保持されるために転送される。
移動物体手段304のより望ましい実現物としては、記
憶データ118のセクション118bに記憶されるために移動
物体手段304から転送された静止物体情報が移動物体手
段304自体によっても使用できるようにすることが考え
られる。システムの動作中、移動(前景)物体を得るた
めに現フレームのピクセルから背景のピクセルを差し引
くことによって背景を除去することは、前景から背景を
差し引くことになり、こうして前景画像が歪むこととな
る。あまり簡単ではないが優れた移動物体手段304の実
現法では、まず条件差演算を実行することによってこの
歪を回避する。この差演算では、背景中の一ピクセルと
現画像の対応ピクセルとが十分に近接した値である場合
にのみ、後者から前者が差し引かれる。もし両ピクセル
の値が近接していないならば、現画像の対応ピクセル自
体が使用される。しかも、もし両者の値が近接している
ならば、その結果として差演算が行われて、当該ピクセ
ルの代わりに0値が仮に使用される。仮にピクセルの仮
の値が0であるならば、該ピクセルの値に対する評価
は、その周囲の与えられた領域にわたって該ピクセルを
包囲するピクセルの重み付け平均値に基づいて演算され
る。もし、重み付け平均が所定の閾値より大きければ、
現画像の対応ピクセル値は代入され、それ以外の場合に
は該ピクセルに対して0という仮の値が使用される。こ
のような優れた移動物体手段の利点は、前景ピクセルの
ピクセル値が背景ピクセルのピクセル値に近接している
ときに生じる偽の差演算(これによって穴だらけで引き
続く処理に不適切な前景画像となる)、並びに歪および
ノイズを最小限に抑制できるということである。
憶データ118のセクション118bに記憶されるために移動
物体手段304から転送された静止物体情報が移動物体手
段304自体によっても使用できるようにすることが考え
られる。システムの動作中、移動(前景)物体を得るた
めに現フレームのピクセルから背景のピクセルを差し引
くことによって背景を除去することは、前景から背景を
差し引くことになり、こうして前景画像が歪むこととな
る。あまり簡単ではないが優れた移動物体手段304の実
現法では、まず条件差演算を実行することによってこの
歪を回避する。この差演算では、背景中の一ピクセルと
現画像の対応ピクセルとが十分に近接した値である場合
にのみ、後者から前者が差し引かれる。もし両ピクセル
の値が近接していないならば、現画像の対応ピクセル自
体が使用される。しかも、もし両者の値が近接している
ならば、その結果として差演算が行われて、当該ピクセ
ルの代わりに0値が仮に使用される。仮にピクセルの仮
の値が0であるならば、該ピクセルの値に対する評価
は、その周囲の与えられた領域にわたって該ピクセルを
包囲するピクセルの重み付け平均値に基づいて演算され
る。もし、重み付け平均が所定の閾値より大きければ、
現画像の対応ピクセル値は代入され、それ以外の場合に
は該ピクセルに対して0という仮の値が使用される。こ
のような優れた移動物体手段の利点は、前景ピクセルの
ピクセル値が背景ピクセルのピクセル値に近接している
ときに生じる偽の差演算(これによって穴だらけで引き
続く処理に不適切な前景画像となる)、並びに歪および
ノイズを最小限に抑制できるということである。
その特別な構成にかかわらず、移動物体手段304は、
物体認識手段114により使用される移動する(前景)物
体を表すそれらのピクセルを示す出力を供給する。更
に、移動物体の情報は、記憶保持されるためにブロック
300へ戻される、つまり、直接あるいは、望まれる場合
には、ブロック300内で更に記憶された後に、マルチ解
像度ピラミッドプロセッサ112へ転送される。
物体認識手段114により使用される移動する(前景)物
体を表すそれらのピクセルを示す出力を供給する。更
に、移動物体の情報は、記憶保持されるためにブロック
300へ戻される、つまり、直接あるいは、望まれる場合
には、ブロック300内で更に記憶された後に、マルチ解
像度ピラミッドプロセッサ112へ転送される。
画像方向変換手段302は、標準の方向変換アルゴリズ
ムを用いて画像データを回転させる。この回転は、一又
は複数の軸の周りに、調整可能な作用点のいずれかの側
の所定の小角で該軸に関して行われる(即ち、画像は作
用点に関して両方向に移動される)。物体認識手段114
のブロック402は、変換手段302へ制御入力をフィードバ
ックし、この制御入力に従って各軸に対する作用点の値
を調整する。そのフレームメモリ内に記憶される前又は
後にカラーテレビカメラ200aからブロック300により受
信された画像データは、ブロック302に供給されてその
向き(指向)が変換される。変換された画像データは、
ブロック300へ戻されてそのフレームメモリ内に記憶さ
れる。更に、ブロック302は、物体認識手段114のテンプ
レート方向変換手段401に接続される。
ムを用いて画像データを回転させる。この回転は、一又
は複数の軸の周りに、調整可能な作用点のいずれかの側
の所定の小角で該軸に関して行われる(即ち、画像は作
用点に関して両方向に移動される)。物体認識手段114
のブロック402は、変換手段302へ制御入力をフィードバ
ックし、この制御入力に従って各軸に対する作用点の値
を調整する。そのフレームメモリ内に記憶される前又は
後にカラーテレビカメラ200aからブロック300により受
信された画像データは、ブロック302に供給されてその
向き(指向)が変換される。変換された画像データは、
ブロック300へ戻されてそのフレームメモリ内に記憶さ
れる。更に、ブロック302は、物体認識手段114のテンプ
レート方向変換手段401に接続される。
好ましくは、画像方向変換手段302及び移動物体手段3
04による修正の後にブロック300内に記憶された画像デ
ータは、ブロック300のフレームメモリから読み出され
て、マルチ解像度ピラミッドプロセッサ112への入力と
して供給される。
04による修正の後にブロック300内に記憶された画像デ
ータは、ブロック300のフレームメモリから読み出され
て、マルチ解像度ピラミッドプロセッサ112への入力と
して供給される。
図4には、物体認識手段114及び記憶データ118の図示
例が示されている。図4に示すように、色情報(例:I情
報及びQ情報)がプリプロセッサ110からフレッシュト
ーン検出器406への第1の入力として供給され、X及び
Yピクセル座標は、プリプロセッサ110からフレッシュ
トーン検出器406への第2の入力として供給される。フ
レッシュトーン検出器406は、もし存在するならば、色
においてフレッシュトーン(肌の色)である画像色差
(クロミナンス)の部分のX及びYピクセル座標を出力
として導出する。好適には、フレッシュトーン検出器40
6は、Qの値に対するIの値をグラフで計算すると共
に、また適用色を規定するI及びQの各値が矩形内にお
さまる場合にのみ、フレッシュトーン出力を導出する。
この矩形内では、Iの値は比較的小さい所定の正の値と
比較的大きな所定の正の値との間に存在する。また、Q
の値は、比較的小さい所定の絶対値以下の値である。検
出器406から出力されたフレッシュトーンX,Yピクセル座
標は、いずれも、3入力のうちの一として、確実決定手
段404及びゲート408へ供給される。
例が示されている。図4に示すように、色情報(例:I情
報及びQ情報)がプリプロセッサ110からフレッシュト
ーン検出器406への第1の入力として供給され、X及び
Yピクセル座標は、プリプロセッサ110からフレッシュ
トーン検出器406への第2の入力として供給される。フ
レッシュトーン検出器406は、もし存在するならば、色
においてフレッシュトーン(肌の色)である画像色差
(クロミナンス)の部分のX及びYピクセル座標を出力
として導出する。好適には、フレッシュトーン検出器40
6は、Qの値に対するIの値をグラフで計算すると共
に、また適用色を規定するI及びQの各値が矩形内にお
さまる場合にのみ、フレッシュトーン出力を導出する。
この矩形内では、Iの値は比較的小さい所定の正の値と
比較的大きな所定の正の値との間に存在する。また、Q
の値は、比較的小さい所定の絶対値以下の値である。検
出器406から出力されたフレッシュトーンX,Yピクセル座
標は、いずれも、3入力のうちの一として、確実決定手
段404及びゲート408へ供給される。
プリプロセッサ110から供給される共に動画像データ
のX及びYピクセル座標を定める移動物体情報は、確率
決定手段404及びゲート408双方へ第2の信号入力として
直接に供給される。
のX及びYピクセル座標を定める移動物体情報は、確率
決定手段404及びゲート408双方へ第2の信号入力として
直接に供給される。
全体的には上記の画像方向変換手段302と類似したテ
ンプレート方向変換手段401は、記憶データ118のセクシ
ョン118aから3入力(それぞれL,C及びRと命名され
た)の内の一又は複数からの任意の組合せを同時に受信
可能である。加えて、プリプロセッサ110の変換302から
制御入力が変換手段401へ供給され、また相関手段402か
らの相関値出力からも制御入力が変換手段401へ供給さ
れる。変換手段401からの出力は、記憶データ118から大
きさ調整手段400を介して3入力の内の第1の入力とし
て相関手段402へ供給される。記憶データ118からの第2
及び第3の入力は、記憶データ118のセクション118b及
び118cから相関手段402へ直接に供給される。更に、Z
ピクセル座標は、大きさ調整手段400へ制御入力として
供給され、X及びYピクセル座標は相関手段402へ入力
として供給される。相関手段402は、マルチ解像度ピラ
ミッドプロセッサ112の出力から追加の入力を受ける。
ンプレート方向変換手段401は、記憶データ118のセクシ
ョン118aから3入力(それぞれL,C及びRと命名され
た)の内の一又は複数からの任意の組合せを同時に受信
可能である。加えて、プリプロセッサ110の変換302から
制御入力が変換手段401へ供給され、また相関手段402か
らの相関値出力からも制御入力が変換手段401へ供給さ
れる。変換手段401からの出力は、記憶データ118から大
きさ調整手段400を介して3入力の内の第1の入力とし
て相関手段402へ供給される。記憶データ118からの第2
及び第3の入力は、記憶データ118のセクション118b及
び118cから相関手段402へ直接に供給される。更に、Z
ピクセル座標は、大きさ調整手段400へ制御入力として
供給され、X及びYピクセル座標は相関手段402へ入力
として供給される。相関手段402は、マルチ解像度ピラ
ミッドプロセッサ112の出力から追加の入力を受ける。
相関手段402の基本機能は、高識別特性を以って、マ
ルチ解像度ピラミッドプロセッサ112からの画像データ
と記憶データ118のセクション118aからのテンプレート
画像データとの相関を求めることである。相関されたパ
ターン形状が指向される(向き付けされる)という事実
によって、相関の精度が増大する。更に、記憶データ11
8であるセクション118bからの静止物体のピクセル位置
を利用することにより、相関手段402がピラミッドプロ
セッサ112から供給される画像データで静止物体の存在
を考慮する必要がなくなる。また、相関手段402は、画
像情報を利用することもできる。この画像情報は、必ず
しもマルチ解像度ピラミッドプロセッサ112から供給さ
れる現在の入力中に存在しているのではなく、記憶デー
タ118のセクション118c中に記憶された本発明の物体認
識システムの初期動作からも利用される。相関手段のよ
り詳細な動作に関しては後述する。いずれにしても、相
関手段は、その時点における現在の演算された相関値を
表す第1の出力を導出する。この第1の出力は、確率決
定手段404への3入力の内の第3の入力として供給さ
れ、また上述のように、各変換手段302及び401へフィー
ドバックされる。また、相関手段402は、第2の出力を
ゲート408へ3つの信号入力のうちの第3の入力として
供給する。相関手段402からのこの第2の入力は、画像
領域のX及びYピクセル座標から成る。これらのピクセ
ル座標は、その後、相関手段402へ供給される大きさ調
整された現在のテンプレートに対応する。このテンプレ
ートは、マルチ解像度ピラミッドプロセッサ112からの
画像データの相関がとられる際の基準パターン形状とし
て働く。
ルチ解像度ピラミッドプロセッサ112からの画像データ
と記憶データ118のセクション118aからのテンプレート
画像データとの相関を求めることである。相関されたパ
ターン形状が指向される(向き付けされる)という事実
によって、相関の精度が増大する。更に、記憶データ11
8であるセクション118bからの静止物体のピクセル位置
を利用することにより、相関手段402がピラミッドプロ
セッサ112から供給される画像データで静止物体の存在
を考慮する必要がなくなる。また、相関手段402は、画
像情報を利用することもできる。この画像情報は、必ず
しもマルチ解像度ピラミッドプロセッサ112から供給さ
れる現在の入力中に存在しているのではなく、記憶デー
タ118のセクション118c中に記憶された本発明の物体認
識システムの初期動作からも利用される。相関手段のよ
り詳細な動作に関しては後述する。いずれにしても、相
関手段は、その時点における現在の演算された相関値を
表す第1の出力を導出する。この第1の出力は、確率決
定手段404への3入力の内の第3の入力として供給さ
れ、また上述のように、各変換手段302及び401へフィー
ドバックされる。また、相関手段402は、第2の出力を
ゲート408へ3つの信号入力のうちの第3の入力として
供給する。相関手段402からのこの第2の入力は、画像
領域のX及びYピクセル座標から成る。これらのピクセ
ル座標は、その後、相関手段402へ供給される大きさ調
整された現在のテンプレートに対応する。このテンプレ
ートは、マルチ解像度ピラミッドプロセッサ112からの
画像データの相関がとられる際の基準パターン形状とし
て働く。
確率決定手段404は、格納プログラム116から現在供給
されている決定基準に従って制御される。これらの決定
基準に従って、手段104は、各相関値、フレッシュトー
ン、及び自身への移動入力に対して所定の重み付けを付
与する。3入力の重み付け値から演算された確率が記憶
プログラム116からの現在の決定基準により定められた
所定閾値より小さい状態である限り、確率決定手段404
から「使用可能(エネイブル)」出力が導出されること
はない。しかし、もし演算された確率がこの閾値を超え
ているが(まだ、現在の決定基準により定められる高閾
値よりは低い状態である)場合、確率決定手段404は、
「使用可能1(エネイブル1)」出力を導出する。確率
決定手段404は、上記の高閾値を越えて上昇する演算さ
れた確率に応じて、「使用可能2(エネイブル2)」出
力を導出する。
されている決定基準に従って制御される。これらの決定
基準に従って、手段104は、各相関値、フレッシュトー
ン、及び自身への移動入力に対して所定の重み付けを付
与する。3入力の重み付け値から演算された確率が記憶
プログラム116からの現在の決定基準により定められた
所定閾値より小さい状態である限り、確率決定手段404
から「使用可能(エネイブル)」出力が導出されること
はない。しかし、もし演算された確率がこの閾値を超え
ているが(まだ、現在の決定基準により定められる高閾
値よりは低い状態である)場合、確率決定手段404は、
「使用可能1(エネイブル1)」出力を導出する。確率
決定手段404は、上記の高閾値を越えて上昇する演算さ
れた確率に応じて、「使用可能2(エネイブル2)」出
力を導出する。
「使用可能1」出力は、ゲート408へ制御入力として
供給される。この制御入力に応答して、ゲート408は、
現在の相関X,Yピクセル座標、現在のフレッシュトーン
X,Yピクセル座標、及び現在の移動ピクセルX,Y座標を記
憶データ118のセクション118cへの第1、第2及び第3
の入力として、そこへ記憶させるための供給する。ま
た、相関X及びYピクセル座標は、(好適にはアンダー
ソン特許の開示内容に従って作用する)ウィンドウ制御
手段410への入力として供給され、ウィンドウ制御手段4
10からの出力は、ピラミッドプロセッサ112へ制御入力
としてフィードバックされる。更に、確率決定手段404
からの使用可能1及び使用可能2のそれぞれの出力の所
定閾値と高閾値との間の範囲内における確率を計算する
手段404に応答して、該確率決定手段404は、記憶プログ
ラム116がシステム動作の新たなサイクルを開始すべき
ことを表示するために制御信号を記憶プログラム116へ
フィードバックする。
供給される。この制御入力に応答して、ゲート408は、
現在の相関X,Yピクセル座標、現在のフレッシュトーン
X,Yピクセル座標、及び現在の移動ピクセルX,Y座標を記
憶データ118のセクション118cへの第1、第2及び第3
の入力として、そこへ記憶させるための供給する。ま
た、相関X及びYピクセル座標は、(好適にはアンダー
ソン特許の開示内容に従って作用する)ウィンドウ制御
手段410への入力として供給され、ウィンドウ制御手段4
10からの出力は、ピラミッドプロセッサ112へ制御入力
としてフィードバックされる。更に、確率決定手段404
からの使用可能1及び使用可能2のそれぞれの出力の所
定閾値と高閾値との間の範囲内における確率を計算する
手段404に応答して、該確率決定手段404は、記憶プログ
ラム116がシステム動作の新たなサイクルを開始すべき
ことを表示するために制御信号を記憶プログラム116へ
フィードバックする。
「使用可能2」出力の発生は、例えばジョン204a又は
ビル204bといった撮像されたシーン中の対象物が、記憶
データ118のセクション118a上に初期的に記憶されてい
る一又は複数の特定テンプレート中に描かれた物体であ
るとして認識されたという事実を示している。「使用可
能2」出力は、ゲート412へ制御入力として供給され
る。これに応答して、ゲート412は、記憶データ118から
信号を出力使用手段120へ供給する。この(グラフィッ
クデータ及び/又は英数字データを含む)信号は、その
画像中において認識された物体と位置(即ち、認識され
たピクセル座標)の確認のために役立つ。出力利用手段
120は、転送された照合信号に応答を示し或る所定の機
能を実行するための手段を含む。図示例において、出力
使用手段120は、中央ロケーションへ、受信時間と共に
その内部に格納される情報を記録又は転送することがで
き、及び/又は特定の認識された物体の表示画像に非常
に近接した位置において表示モニタ122上に表示される
識別キャプションを提供する。
ビル204bといった撮像されたシーン中の対象物が、記憶
データ118のセクション118a上に初期的に記憶されてい
る一又は複数の特定テンプレート中に描かれた物体であ
るとして認識されたという事実を示している。「使用可
能2」出力は、ゲート412へ制御入力として供給され
る。これに応答して、ゲート412は、記憶データ118から
信号を出力使用手段120へ供給する。この(グラフィッ
クデータ及び/又は英数字データを含む)信号は、その
画像中において認識された物体と位置(即ち、認識され
たピクセル座標)の確認のために役立つ。出力利用手段
120は、転送された照合信号に応答を示し或る所定の機
能を実行するための手段を含む。図示例において、出力
使用手段120は、中央ロケーションへ、受信時間と共に
その内部に格納される情報を記録又は転送することがで
き、及び/又は特定の認識された物体の表示画像に非常
に近接した位置において表示モニタ122上に表示される
識別キャプションを提供する。
図示上の都合から、本実施例の動作説明においては、
ジョン204a、ビル204b及びメアリー204cをそれぞれ描い
たテンプレートを含み記憶データ118のセクション118a
中に初期記憶されたマルチ視野マルチ解像度テンプレー
トが導出され、その後に、以下に記す方法でセクション
118a中に組織化されたデータベースとして記憶される。
ジョン204a、ビル204b及びメアリー204cをそれぞれ描い
たテンプレートを含み記憶データ118のセクション118a
中に初期記憶されたマルチ視野マルチ解像度テンプレー
トが導出され、その後に、以下に記す方法でセクション
118a中に組織化されたデータベースとして記憶される。
3名の各個人の各々に対する画像の一セットは、記憶
データ118のセクション118a中に記憶されたテンプレー
トを導出するために使用されるトレーニングフェイズに
おいて撮像される。各セットは、各正面(即ち全顔
面)、左横顔及び右横側のサブセットを含む。各サブセ
ットは、当該個人が伴う本質的な種々の具体的な表情を
含むことができる。しかし、トレーニングフェイズ中に
は、いくつかの可変パラメータは固定された状態におか
れる。これらの拘束条件としては、均一光照射、カメラ
からの距離の固定、及び予め与えられた正面、左横顔及
び右横顔の各位置から頭部を回転または傾斜させないこ
とが含まれる。トレーニングフェイズの画像の各々は変
形されて、ラプラシアンピラミッド、つまりバンドパス
ピラミッドになる。このピラミッドは、256×256のピク
セル解像度をもつレベル1から、わずか16×16の解像度
であるレベル5から構築されている。そして、頭部及び
顔面の輪郭をとり囲む16×16のレベル5画像のうちの一
つの8×8セクションは、記憶データ118のセクション1
18aの初期記憶データベース中に含まれるべき図像とし
て保存される。次に、3個の8×8セクションは、32×
32のレベル4のピラミッド画像から取られることができ
る。これらは、頭頂部、顔面中央部、及びあご領域をカ
バーする。これらもまた、初期記憶データベース中に含
まれることができる。最後に、64×64のレベル3ピラミ
ッド画像の5個の8×8セクションが初期記憶データベ
ース中に含まれる。これらの後者のピラミッド画像は、
両目、鼻、及び口の左右端の各領域をカバーすることが
できる。このようにして、全9個の図像が、各人(即
ち、ジョン、ビル及びメアリー)が伴う元の256×256ピ
クセル解像度のサブセット画像の各々に対するトレーニ
ングセットを構成することとなる。
データ118のセクション118a中に記憶されたテンプレー
トを導出するために使用されるトレーニングフェイズに
おいて撮像される。各セットは、各正面(即ち全顔
面)、左横顔及び右横側のサブセットを含む。各サブセ
ットは、当該個人が伴う本質的な種々の具体的な表情を
含むことができる。しかし、トレーニングフェイズ中に
は、いくつかの可変パラメータは固定された状態におか
れる。これらの拘束条件としては、均一光照射、カメラ
からの距離の固定、及び予め与えられた正面、左横顔及
び右横顔の各位置から頭部を回転または傾斜させないこ
とが含まれる。トレーニングフェイズの画像の各々は変
形されて、ラプラシアンピラミッド、つまりバンドパス
ピラミッドになる。このピラミッドは、256×256のピク
セル解像度をもつレベル1から、わずか16×16の解像度
であるレベル5から構築されている。そして、頭部及び
顔面の輪郭をとり囲む16×16のレベル5画像のうちの一
つの8×8セクションは、記憶データ118のセクション1
18aの初期記憶データベース中に含まれるべき図像とし
て保存される。次に、3個の8×8セクションは、32×
32のレベル4のピラミッド画像から取られることができ
る。これらは、頭頂部、顔面中央部、及びあご領域をカ
バーする。これらもまた、初期記憶データベース中に含
まれることができる。最後に、64×64のレベル3ピラミ
ッド画像の5個の8×8セクションが初期記憶データベ
ース中に含まれる。これらの後者のピラミッド画像は、
両目、鼻、及び口の左右端の各領域をカバーすることが
できる。このようにして、全9個の図像が、各人(即
ち、ジョン、ビル及びメアリー)が伴う元の256×256ピ
クセル解像度のサブセット画像の各々に対するトレーニ
ングセットを構成することとなる。
また、各図像に関連してデータベースには、各図像が
取り出された特定レベルのピラミッド画像中における水
平及び垂直オフセット位置を定めるデータが格納され
る。
取り出された特定レベルのピラミッド画像中における水
平及び垂直オフセット位置を定めるデータが格納され
る。
上記の初期的に記憶された図像テンプレートに加え
て、記憶データ118のセクション118aは、一般的な人間
の形状を規定するテンプレートをも含む。このような包
括的テンプレートは、ピラミッド画像のレベル5または
それ以上の画像でなければならず、一又は複数の位置
(例えば、立位、座位)における普遍化された人間の頂
部における頭部の普遍的形状を示すにとどまる。
て、記憶データ118のセクション118aは、一般的な人間
の形状を規定するテンプレートをも含む。このような包
括的テンプレートは、ピラミッド画像のレベル5または
それ以上の画像でなければならず、一又は複数の位置
(例えば、立位、座位)における普遍化された人間の頂
部における頭部の普遍的形状を示すにとどまる。
上記システムの第2の予備動作(既述)は、部屋201
内における静止(背景)物体(例:エンドテーブル206
a、ソファー206b及び振動ファン208)の位置を記憶デー
タ118のセクション118b内に記憶することである。
内における静止(背景)物体(例:エンドテーブル206
a、ソファー206b及び振動ファン208)の位置を記憶デー
タ118のセクション118b内に記憶することである。
フレッシュトーンは、各人から成る撮像された物体及
び他種の撮像された物体を識別するための周知の包括的
属性である。本システムにより使用されるフレッシュト
ーン検出器406により対象の一特徴としてフレッシュト
ーンを検出することは、関連する全ての個人のこの包括
的属性に関している。
び他種の撮像された物体を識別するための周知の包括的
属性である。本システムにより使用されるフレッシュト
ーン検出器406により対象の一特徴としてフレッシュト
ーンを検出することは、関連する全ての個人のこの包括
的属性に関している。
人間の他の包括的属性は、動くということである。も
ちろん、常に動き続ける必要はない。更に、対象物体が
全て人間というわけではない。しかし、移動物体手段30
4からの移動物体出力は、システムによって、関連する
全ての個人の包括的属性に関連している別の対象の一特
徴として使用される。
ちろん、常に動き続ける必要はない。更に、対象物体が
全て人間というわけではない。しかし、移動物体手段30
4からの移動物体出力は、システムによって、関連する
全ての個人の包括的属性に関連している別の対象の一特
徴として使用される。
人間の更に他の識別性をもつ包括的属性は、人体のパ
ターン形状である。記憶データ118のセクション118a中
に初期記憶された上述の包括的テンプレートは、この人
間の包括的属性に関する対象の特徴である。
ターン形状である。記憶データ118のセクション118a中
に初期記憶された上述の包括的テンプレートは、この人
間の包括的属性に関する対象の特徴である。
ブロック300のフレーム及び距離メモリは、カメラ200
a及び距離測定手段200bの連続フレームの各々に対する
アドレシングに従って読み出されると、これと同時にシ
ステムはこれら3個の対象の特徴のいずれかが存在する
ことを調査する。移動(前景)物体の対象特徴又はフレ
ッシュトーンの対象特徴の各読み出しフレームのX及び
Y座標の決定は、直接に行われる。しかし、読み出しフ
レームの識別ピクセルを人体パターン形状に属するもの
として取り扱うことは、一層複雑性を増す。まず、人間
の2次元画像パターン形状は、カメラ200aに対する3次
元の人間の指向(向き)に依存する。次に、この2次元
で撮像されたパターンの大きさは、カメラ200aから人間
までの距離と、その時に存在する視野102の大きさ(こ
れらは、カメラ200aにズーム機能が付いている場合には
調整可能)の双方に依存して変化するということであ
る。本実施例においては、視野102は固定されているも
のとする。しかし、上述したような、大きさ調整手段40
0は、供給される距離測定されたZピクセル座標に従っ
て、画像データの大きさにおけるあらゆる相違を補償す
ることができる。このことは、記憶データ118のセクシ
ョン118a内に初期記憶されることが必要なテンプレート
数が大幅に減少されることを意味する。
a及び距離測定手段200bの連続フレームの各々に対する
アドレシングに従って読み出されると、これと同時にシ
ステムはこれら3個の対象の特徴のいずれかが存在する
ことを調査する。移動(前景)物体の対象特徴又はフレ
ッシュトーンの対象特徴の各読み出しフレームのX及び
Y座標の決定は、直接に行われる。しかし、読み出しフ
レームの識別ピクセルを人体パターン形状に属するもの
として取り扱うことは、一層複雑性を増す。まず、人間
の2次元画像パターン形状は、カメラ200aに対する3次
元の人間の指向(向き)に依存する。次に、この2次元
で撮像されたパターンの大きさは、カメラ200aから人間
までの距離と、その時に存在する視野102の大きさ(こ
れらは、カメラ200aにズーム機能が付いている場合には
調整可能)の双方に依存して変化するということであ
る。本実施例においては、視野102は固定されているも
のとする。しかし、上述したような、大きさ調整手段40
0は、供給される距離測定されたZピクセル座標に従っ
て、画像データの大きさにおけるあらゆる相違を補償す
ることができる。このことは、記憶データ118のセクシ
ョン118a内に初期記憶されることが必要なテンプレート
数が大幅に減少されることを意味する。
包括的な物体の認識の場合には、テンプレート変換手
段401は使用されない。しかし、(それぞれ立姿及び座
姿の一般的な人間の)2個の包括的テンプレートが連続
フレーム中において順次に作用され、もしある場合に
は、この2個のテンプレートのうちのどちらが高い相関
値を与えるかを決定する。この後、高い方の相関値を示
すテンプレートのみが考慮されることとなる。
段401は使用されない。しかし、(それぞれ立姿及び座
姿の一般的な人間の)2個の包括的テンプレートが連続
フレーム中において順次に作用され、もしある場合に
は、この2個のテンプレートのうちのどちらが高い相関
値を与えるかを決定する。この後、高い方の相関値を示
すテンプレートのみが考慮されることとなる。
相関値を決定することは、数個のフレームを読み出す
ことを伴う。フレーム毎に、画像方向(オリエンテーシ
ョン)変換手段302が、初期のゼロ作用点に関して前後
に移動される。相関手段402は、指向パターン形状の相
関を求めるので、2個の変動位置の一方に関して導出さ
れた相関値は、通常他方の相関値よりもはるかに高くな
る。これに応答して、変換手段302の作用点は、高い方
の相関値により示される方向へゼロから徐々にオフセッ
トされる。この処理は、特定オフセット点の各相関値が
ほぼ互いに等しくなるまで続けられる。このようにし
て、一般的な人間形状の画像パターンの傾斜が補償され
ることとなる。
ことを伴う。フレーム毎に、画像方向(オリエンテーシ
ョン)変換手段302が、初期のゼロ作用点に関して前後
に移動される。相関手段402は、指向パターン形状の相
関を求めるので、2個の変動位置の一方に関して導出さ
れた相関値は、通常他方の相関値よりもはるかに高くな
る。これに応答して、変換手段302の作用点は、高い方
の相関値により示される方向へゼロから徐々にオフセッ
トされる。この処理は、特定オフセット点の各相関値が
ほぼ互いに等しくなるまで続けられる。このようにし
て、一般的な人間形状の画像パターンの傾斜が補償され
ることとなる。
あるいは、例えば単純相関、規格化相関、平均自乗誤
差及び絶対誤差を含む当該技術分野において周知の他の
技術は、与えられたパターンと記憶パターンとの間の一
致性を決定するために使用することができる。
差及び絶対誤差を含む当該技術分野において周知の他の
技術は、与えられたパターンと記憶パターンとの間の一
致性を決定するために使用することができる。
上述のように、マルチ解像度ピラミッドプロセッサ11
2及び適用相関手段402からの初期入力は、一般的な人間
を認識する場合には低解像度(即ち、ピラミッドプロセ
ッサの高レベル)となる。初期においては、フレームの
全領域が考慮される。しかし、上記アンダーソン特許に
教示されている中心化技術に従って、ウィンドウ制御手
段410は、与えられた相関値を達成する相関手段402の出
力に応答して、ピラミッドプロセッサ112からの出力を
次段の低(解像度は高くなる)ピラミッドプロセッサレ
ベルに切り替えると共に、ピラミッドプロセッサ112か
ら出力された画像フレームの領域を、上記の達成された
相関値を提供する相関パターン形状の近隣の局部ウィン
ドウ領域のみに限定する。
2及び適用相関手段402からの初期入力は、一般的な人間
を認識する場合には低解像度(即ち、ピラミッドプロセ
ッサの高レベル)となる。初期においては、フレームの
全領域が考慮される。しかし、上記アンダーソン特許に
教示されている中心化技術に従って、ウィンドウ制御手
段410は、与えられた相関値を達成する相関手段402の出
力に応答して、ピラミッドプロセッサ112からの出力を
次段の低(解像度は高くなる)ピラミッドプロセッサレ
ベルに切り替えると共に、ピラミッドプロセッサ112か
ら出力された画像フレームの領域を、上記の達成された
相関値を提供する相関パターン形状の近隣の局部ウィン
ドウ領域のみに限定する。
相関手段402は、記憶データ118の各セクション118bお
よび118cからの各入力を用いてその動作を変更する。こ
れにより、静止(背景)物体位置がパターン形状相関に
及ぼす寄与が無視され、また相関手段402により導出さ
れた相関値の重み付けが、それに供給され既に得られた
記憶された認識増大情報に従って増大される。
よび118cからの各入力を用いてその動作を変更する。こ
れにより、静止(背景)物体位置がパターン形状相関に
及ぼす寄与が無視され、また相関手段402により導出さ
れた相関値の重み付けが、それに供給され既に得られた
記憶された認識増大情報に従って増大される。
システム動作の初期を想定すると、図2におけるジョ
ン及びビルは、部屋201内の図示された位置にいる。ジ
ョンはカメラから離れた位置で静止して立っており、一
方、ビルはカメラに向かって静止して座った状態にあ
る。更に、ジョンの場合には、マルチ解像度ピラミッド
プロセッサ112からのジョンの低解像度画像と、立姿で
の包括的な人間テンプレートとの間の相違は、(確率決
定手段404へのフレッシュトーン及び移動物体入力は、
ジョンに対しては無視可能であるが)確率決定手段404
からの「使用可能1(エネイブル1)」出力を発生する
に十分であり、またこの相関値はウィンドウ制御手段41
0によってマルチ解像度ピラミッドプロセッサ112を次の
段階の高いピラミッドプロセッサレベルに切り替えさせ
るのに十分であると仮定する。ビルの場合には、フレッ
シュトーン入力に対して、確率決定手段404により決定
される確率は、(確率決定手段404への相関値及び移動
物体入力はビルの場合には無視可能であるが)「使用可
能1(エネイブル1)」出力を発生するのに十分である
と仮定する。ビルの場合に低相関値となる理由は、彼が
ソファーに座った状態にあるから、(カメラからの距離
は実質的にビルと同じ)ソファーの画像と組み合わされ
たマルチ解像度ピラミッドプロセッサ112からのビルの
画像を低解像度にすると、座姿の人間の包括的なパター
ン形状とは著しく相違する組み合わされたパターン形状
となる。(また、このパターン形状は、この低解像度で
は、相関手段402へ供給される静止物体情報の記憶位置
を用いては効果的に修正できない)。
ン及びビルは、部屋201内の図示された位置にいる。ジ
ョンはカメラから離れた位置で静止して立っており、一
方、ビルはカメラに向かって静止して座った状態にあ
る。更に、ジョンの場合には、マルチ解像度ピラミッド
プロセッサ112からのジョンの低解像度画像と、立姿で
の包括的な人間テンプレートとの間の相違は、(確率決
定手段404へのフレッシュトーン及び移動物体入力は、
ジョンに対しては無視可能であるが)確率決定手段404
からの「使用可能1(エネイブル1)」出力を発生する
に十分であり、またこの相関値はウィンドウ制御手段41
0によってマルチ解像度ピラミッドプロセッサ112を次の
段階の高いピラミッドプロセッサレベルに切り替えさせ
るのに十分であると仮定する。ビルの場合には、フレッ
シュトーン入力に対して、確率決定手段404により決定
される確率は、(確率決定手段404への相関値及び移動
物体入力はビルの場合には無視可能であるが)「使用可
能1(エネイブル1)」出力を発生するのに十分である
と仮定する。ビルの場合に低相関値となる理由は、彼が
ソファーに座った状態にあるから、(カメラからの距離
は実質的にビルと同じ)ソファーの画像と組み合わされ
たマルチ解像度ピラミッドプロセッサ112からのビルの
画像を低解像度にすると、座姿の人間の包括的なパター
ン形状とは著しく相違する組み合わされたパターン形状
となる。(また、このパターン形状は、この低解像度で
は、相関手段402へ供給される静止物体情報の記憶位置
を用いては効果的に修正できない)。
手段404からの「使用可能1(エネイブル1)」出力
はゲート408を開き、記憶データ118のセクション118cに
おける蓄積が増大された認識データに、ジョン及びビル
の各位置のピクセル座標を送出する。従って、システム
動作の次サイクルにおいては、相関値は、これらの各位
置において一層大きく重み付けされることとなる。更
に、ジョンの場合には、ジョンの位置近傍の局在ウィン
ドウ内のみにおける高解像度画像の、立姿の人間の包括
的な形状パターンに対する相関が計算されることとな
る。これからは、高解像度に対して高相関値が得られ、
(従ってより高精度の)ジョン位置の決定になる。更
に、システム動作の第1サイクルと第2サイクルとの間
において、ジョンは、(1)移動物体情報が、現在、確
率決定手段への入力として存在することとなり、また
(2)フレッシュトーンが撮像される状態になるよう
に、その位置を変えることができた。これによって、ジ
ョンの画像が少なくとも人間の包括的な画像であること
をシステムが結論として推定する点まで、確率が増大す
る。これに応答して、確率決定手段404は信号を記憶プ
ログラム116へ戻す。この信号により記憶プログラム116
は、人間のこの包括的なパターン形状(この時は、実際
にはジョンの画像)により示される特定の人を、もし存
在するならば、システムの動作シーケンスをその後のサ
イクル中において決定するために必要な方式で制御す
る。
はゲート408を開き、記憶データ118のセクション118cに
おける蓄積が増大された認識データに、ジョン及びビル
の各位置のピクセル座標を送出する。従って、システム
動作の次サイクルにおいては、相関値は、これらの各位
置において一層大きく重み付けされることとなる。更
に、ジョンの場合には、ジョンの位置近傍の局在ウィン
ドウ内のみにおける高解像度画像の、立姿の人間の包括
的な形状パターンに対する相関が計算されることとな
る。これからは、高解像度に対して高相関値が得られ、
(従ってより高精度の)ジョン位置の決定になる。更
に、システム動作の第1サイクルと第2サイクルとの間
において、ジョンは、(1)移動物体情報が、現在、確
率決定手段への入力として存在することとなり、また
(2)フレッシュトーンが撮像される状態になるよう
に、その位置を変えることができた。これによって、ジ
ョンの画像が少なくとも人間の包括的な画像であること
をシステムが結論として推定する点まで、確率が増大す
る。これに応答して、確率決定手段404は信号を記憶プ
ログラム116へ戻す。この信号により記憶プログラム116
は、人間のこの包括的なパターン形状(この時は、実際
にはジョンの画像)により示される特定の人を、もし存
在するならば、システムの動作シーケンスをその後のサ
イクル中において決定するために必要な方式で制御す
る。
ビルの場合には、システム動作の第2サイクルでは、
ビルの撮像された頭部近傍において、高相関値となり、
または、相関があるX及びYピクセルが得られる。これ
は、システム動作の第1サイクル中に記憶データ118の
セクション118c内にフレッシュトーンX及びYピクセル
座標が記憶されていることによる。システム動作の第2
サイクル中に得られた相関値は、システム動作の第3サ
イクル中に使用される次段のより低い(高解像度)ピラ
ミッドプロセッサレベルへ、マルチ解像度プロセッサ11
2からの出力を、ウィンドウ制御手段410によって切り替
えさせるのに十分な程度に高い。更に、この高解像度に
おいては、相関されている画像パターン形状上のソファ
ー206bの影響は、記憶データ118のセクション118bから
相関手段402に供給される静止物体情報により確実に除
去できる。従って、フレッシュトーン情報と共に、シス
テム動作の第3サイクルにより得られた相関値は、人間
の包括的な画像としてビルの画像を認識し得る十分に高
い確率を提供する。
ビルの撮像された頭部近傍において、高相関値となり、
または、相関があるX及びYピクセルが得られる。これ
は、システム動作の第1サイクル中に記憶データ118の
セクション118c内にフレッシュトーンX及びYピクセル
座標が記憶されていることによる。システム動作の第2
サイクル中に得られた相関値は、システム動作の第3サ
イクル中に使用される次段のより低い(高解像度)ピラ
ミッドプロセッサレベルへ、マルチ解像度プロセッサ11
2からの出力を、ウィンドウ制御手段410によって切り替
えさせるのに十分な程度に高い。更に、この高解像度に
おいては、相関されている画像パターン形状上のソファ
ー206bの影響は、記憶データ118のセクション118bから
相関手段402に供給される静止物体情報により確実に除
去できる。従って、フレッシュトーン情報と共に、シス
テム動作の第3サイクルにより得られた相関値は、人間
の包括的な画像としてビルの画像を認識し得る十分に高
い確率を提供する。
「使用可能1(エネイブル1)」出力が手段404から
導出されるシステム動作の連続した各サイクル中に、追
加の増大情報が記憶データ118のセクション118c中に記
憶されるために送出され、これがシステム動作の次のサ
イクル中に使用される。更に、その属の構成物に当ては
まる一般的な特徴を持つ包括的な人間が画像の確定され
た位置に存在することを示す確率が任意のサイクル中に
手段404により達成されていることに応答して、手段404
は信号を記憶プログラム116へ戻す。これにより、シス
テムは、次の動作サイクル中に、もし存在するならば、
個々のうちのどの特定の一人がそのような包括的人間に
よって表されるかという決定を開始する。
導出されるシステム動作の連続した各サイクル中に、追
加の増大情報が記憶データ118のセクション118c中に記
憶されるために送出され、これがシステム動作の次のサ
イクル中に使用される。更に、その属の構成物に当ては
まる一般的な特徴を持つ包括的な人間が画像の確定され
た位置に存在することを示す確率が任意のサイクル中に
手段404により達成されていることに応答して、手段404
は信号を記憶プログラム116へ戻す。これにより、シス
テムは、次の動作サイクル中に、もし存在するならば、
個々のうちのどの特定の一人がそのような包括的人間に
よって表されるかという決定を開始する。
含まれる各人のうちの任意の一人の同一性を決定する
に際し、当該個人に対する全顔面(C)、左横顔(L)
及び右横顔(R)の上記の初期記憶テンプレートが、記
憶データ118のセクション118aから変換手段401へ各入力
として供給される。変換手段401は、上記の変換手段302
の場合と同様に作用する。すなわち、その3入力へ供給
された(C)、(L)及び(R)のテンプレートデータ
の混合の変換を現在の作用点の左右で前後に移動させ
る。そして、その3入力の混合変換の最大相関値が生成
される方向に、各連続フレーム間の作用点を常に変化さ
せる。この変化作用は、作用点が、左側移動と右側移動
とがほぼ等しい相関値を生成する場所に到達するまで続
けられる。加えて、変換手段302の作用点を示す変換手
段302からの信号は、変換手段401へ入力として供給され
ることができる。これにより、変換手段302により補償
されている画像の傾斜量に従って、変換手段401の混合
変換が高精細度で調整される。これらの全ての情報によ
り、変換手段401は合成テンプレート(例:3/4左顔面テ
ンプレート)出力を導出することができる。この出力
は、大きさ調整手段400へ入力として送出される。大き
さ調整手段400は、当該個人の頭部の2次元画像を大幅
に補償する。これは、3次元空間内における該個人の頭
部の姿勢(向き)の現在の変化によって行われる。
に際し、当該個人に対する全顔面(C)、左横顔(L)
及び右横顔(R)の上記の初期記憶テンプレートが、記
憶データ118のセクション118aから変換手段401へ各入力
として供給される。変換手段401は、上記の変換手段302
の場合と同様に作用する。すなわち、その3入力へ供給
された(C)、(L)及び(R)のテンプレートデータ
の混合の変換を現在の作用点の左右で前後に移動させ
る。そして、その3入力の混合変換の最大相関値が生成
される方向に、各連続フレーム間の作用点を常に変化さ
せる。この変化作用は、作用点が、左側移動と右側移動
とがほぼ等しい相関値を生成する場所に到達するまで続
けられる。加えて、変換手段302の作用点を示す変換手
段302からの信号は、変換手段401へ入力として供給され
ることができる。これにより、変換手段302により補償
されている画像の傾斜量に従って、変換手段401の混合
変換が高精細度で調整される。これらの全ての情報によ
り、変換手段401は合成テンプレート(例:3/4左顔面テ
ンプレート)出力を導出することができる。この出力
は、大きさ調整手段400へ入力として送出される。大き
さ調整手段400は、当該個人の頭部の2次元画像を大幅
に補償する。これは、3次元空間内における該個人の頭
部の姿勢(向き)の現在の変化によって行われる。
撮像された包括的人間の位置が認識された後、相関手
段402は、その特定の包括的に認識された人間によっ
て、もし存在するならば、どの個人(ジョン、ビル又は
メアリー)が表わされるかを具体的に認識する目的のた
めに、上述した初期記憶されマルチ視野及びマルチ解像
度をもちデータベースを構成する図像テンプレートを利
用する。この具体的認識処理の初期において、セクショ
ン118c内に既に記憶されている増大データは、その包括
的に認識された人間の位置を含む16×16の画像ピクセル
ウィンドウを供給する。
段402は、その特定の包括的に認識された人間によっ
て、もし存在するならば、どの個人(ジョン、ビル又は
メアリー)が表わされるかを具体的に認識する目的のた
めに、上述した初期記憶されマルチ視野及びマルチ解像
度をもちデータベースを構成する図像テンプレートを利
用する。この具体的認識処理の初期において、セクショ
ン118c内に既に記憶されている増大データは、その包括
的に認識された人間の位置を含む16×16の画像ピクセル
ウィンドウを供給する。
引き続く具体的認識の処理は、図示上の都合から、相
関手段402自体は、この特定個人に関する相関値増分を
順次に全体的に導出するために使用される一時記憶手段
を含む(しかしながら、この目的のために、具体的認識
処理において記憶データ118のセクション118cを使用す
ることを理解されるべきである)。具体的には、ピラミ
ッドプロセッサ112からの16×16画像ウィンドウ、レベ
ル5は、各人毎にデータベース中の初期記憶レベル5図
像と比較される。そして、その結果得られる規格化され
た(−1.0〜+1、0の間で変わり得る)相関値は、各
人毎に別個に一時記憶される。各人に対する同様の比較
処理は、データベース中の3個のレベル4図像の各々に
対して、レベル4解像度で行われ、次いで、データベー
ス中の5個のレベル3図像の各々に対してレベル3解像
度で行われる。
関手段402自体は、この特定個人に関する相関値増分を
順次に全体的に導出するために使用される一時記憶手段
を含む(しかしながら、この目的のために、具体的認識
処理において記憶データ118のセクション118cを使用す
ることを理解されるべきである)。具体的には、ピラミ
ッドプロセッサ112からの16×16画像ウィンドウ、レベ
ル5は、各人毎にデータベース中の初期記憶レベル5図
像と比較される。そして、その結果得られる規格化され
た(−1.0〜+1、0の間で変わり得る)相関値は、各
人毎に別個に一時記憶される。各人に対する同様の比較
処理は、データベース中の3個のレベル4図像の各々に
対して、レベル4解像度で行われ、次いで、データベー
ス中の5個のレベル3図像の各々に対してレベル3解像
度で行われる。
上述のように、データベース中に記憶された各図像に
関連して、該図像の特定レベルピラミッドの撮られた画
像中における水平及び垂直オフセット位置を規定するデ
ータが格納されている。従って、各人に対して、データ
ベース中の3個のレベル4解像度の図像の各々、及び5
個のレベル3解像度の図像の各々が既知であり、またこ
れらはセクション118a中の記憶情報の一部分となる。こ
れらレベル4及びレベル3解像度比較の各々及びその各
オフセットは、各人に関するレベル4及びレベル3解像
度の各比較において15×15のセル画像ウィンドウの位置
を規定する際に考慮される。これは、図像が存在しそう
にない領域を不必要に調査することを防止することによ
って、システム速度を向上させるため役割を果たす。
関連して、該図像の特定レベルピラミッドの撮られた画
像中における水平及び垂直オフセット位置を規定するデ
ータが格納されている。従って、各人に対して、データ
ベース中の3個のレベル4解像度の図像の各々、及び5
個のレベル3解像度の図像の各々が既知であり、またこ
れらはセクション118a中の記憶情報の一部分となる。こ
れらレベル4及びレベル3解像度比較の各々及びその各
オフセットは、各人に関するレベル4及びレベル3解像
度の各比較において15×15のセル画像ウィンドウの位置
を規定する際に考慮される。これは、図像が存在しそう
にない領域を不必要に調査することを防止することによ
って、システム速度を向上させるため役割を果たす。
高解像度において図像の数が増大する理由は、高解像
度図像はより大きな可変性を有しており、これによりト
レーニングフェイズ中における刻々の撮像された人間の
表情の微妙な変化の影響を一層受けやすいからである。
図像数が多いことにより、高い周波数の特徴における小
さな変化を理由として特定のトレーニングセットが考慮
されない可能性が減少される。いずれにしても、各人に
対する3個のレベル4図像の内の一つが規格化された最
大の相関値を示し、この一の図像が、格納されているレ
ベル5の規格化された相関値に追加される規格化相関値
を有することになる。同様に、5個のレベル3図像の規
格化された最大の相関値は、規格化されたレベル5相関
値と規格化された最大のレベル4相関値との総和に追加
される。このようにして、各人に対して、−3.0〜+
3、0の範囲内で変化する規格化された相関値の総和が
存在する。これがどのような値であっても、確率決定手
段404へ供給される。そして、もしその値が第2の閾値
と少なくとも等しいならば、確率決定手段404は、ゲー
ト412を開く「使用可能2(エネイブル2)」出力を導
出する。これに応答して、ゲート412は、3人(すなわ
ちジョン、ビル又はメアリー)の内の具体的に認識され
た一人の同一性及びピクセル位置を出力使用手段120へ
送出する。もし最高相関値が閾値より小さいならば、構
成物に特有なものとして包括的に認識された人間は、該
3名の内の誰でもないということになる。
度図像はより大きな可変性を有しており、これによりト
レーニングフェイズ中における刻々の撮像された人間の
表情の微妙な変化の影響を一層受けやすいからである。
図像数が多いことにより、高い周波数の特徴における小
さな変化を理由として特定のトレーニングセットが考慮
されない可能性が減少される。いずれにしても、各人に
対する3個のレベル4図像の内の一つが規格化された最
大の相関値を示し、この一の図像が、格納されているレ
ベル5の規格化された相関値に追加される規格化相関値
を有することになる。同様に、5個のレベル3図像の規
格化された最大の相関値は、規格化されたレベル5相関
値と規格化された最大のレベル4相関値との総和に追加
される。このようにして、各人に対して、−3.0〜+
3、0の範囲内で変化する規格化された相関値の総和が
存在する。これがどのような値であっても、確率決定手
段404へ供給される。そして、もしその値が第2の閾値
と少なくとも等しいならば、確率決定手段404は、ゲー
ト412を開く「使用可能2(エネイブル2)」出力を導
出する。これに応答して、ゲート412は、3人(すなわ
ちジョン、ビル又はメアリー)の内の具体的に認識され
た一人の同一性及びピクセル位置を出力使用手段120へ
送出する。もし最高相関値が閾値より小さいならば、構
成物に特有なものとして包括的に認識された人間は、該
3名の内の誰でもないということになる。
以上の説明は、3名の内の誰も予め具体的に認識され
なかったことを仮定している。もし3名の内の第3番目
の人間が具体的に認識されたならば、システムは確率決
定手段404へ供給された移動物体(前景)情報を全面的
に利用して、具体的に認識された当該個人の位置と、記
憶データ118(連続的に更新されている)のセクション1
18c内に格納されている具体的に認識された当該個人の
位置(すなわち、認識されたピクセル座標)とを連続的
に追跡するよう動作する。したがって、もしメアリー
が、以前、具体的に認識されておりその後(図2中の矢
印205により示されるように)ドア通路203から部屋201
を出たと仮定するならば、メアリーの画像が突然消え去
ったことは、システム動作の追跡モードで認識されるこ
ととなる。
なかったことを仮定している。もし3名の内の第3番目
の人間が具体的に認識されたならば、システムは確率決
定手段404へ供給された移動物体(前景)情報を全面的
に利用して、具体的に認識された当該個人の位置と、記
憶データ118(連続的に更新されている)のセクション1
18c内に格納されている具体的に認識された当該個人の
位置(すなわち、認識されたピクセル座標)とを連続的
に追跡するよう動作する。したがって、もしメアリー
が、以前、具体的に認識されておりその後(図2中の矢
印205により示されるように)ドア通路203から部屋201
を出たと仮定するならば、メアリーの画像が突然消え去
ったことは、システム動作の追跡モードで認識されるこ
ととなる。
更に、各人の内の一人がシステムによって既に具体的
に認識されている場合、包括的に認識された他の撮像化
人間を具体的に認識する試みに際して当該人間のデータ
ベース図像を考慮することは、システムのための目的に
は十分ではない。従って、具体的認識の上記処理は、現
在の画像において既に具体的に認識された全人間の以前
に記憶された図像を考慮対象から排除することによっ
て、第2の人間に対してはスピードアップすることがで
きる。
に認識されている場合、包括的に認識された他の撮像化
人間を具体的に認識する試みに際して当該人間のデータ
ベース図像を考慮することは、システムのための目的に
は十分ではない。従って、具体的認識の上記処理は、現
在の画像において既に具体的に認識された全人間の以前
に記憶された図像を考慮対象から排除することによっ
て、第2の人間に対してはスピードアップすることがで
きる。
端的に言えば、本発明に係る物体認識のための動的画
像処理技術は、先に詳述した図示例のみにその使用を限
定されることはない(すなわち、(1)部屋内における
包括的な人間の存在を認識すること、及び(2)包括的
に認識された人間が既知の人間群の中の特定一個人であ
るかどうかを認識すること、のみには限定されない)。
本発明を適用することによって極めて大きな利点が得ら
れる他の例としては、監視テレビカメラ、ロボットシス
テム及び目標追跡システム等の複合自動制御システムが
挙げられる。或いはまた、製造に使用される機械的な視
覚において、自動組み立て又は分類されるべき種々の所
定部品の各々を個別に認識するためなどにも、本発明は
極めて適している。
像処理技術は、先に詳述した図示例のみにその使用を限
定されることはない(すなわち、(1)部屋内における
包括的な人間の存在を認識すること、及び(2)包括的
に認識された人間が既知の人間群の中の特定一個人であ
るかどうかを認識すること、のみには限定されない)。
本発明を適用することによって極めて大きな利点が得ら
れる他の例としては、監視テレビカメラ、ロボットシス
テム及び目標追跡システム等の複合自動制御システムが
挙げられる。或いはまた、製造に使用される機械的な視
覚において、自動組み立て又は分類されるべき種々の所
定部品の各々を個別に認識するためなどにも、本発明は
極めて適している。
図1に戻って、上述以外の本発明の他の特徴を示す。
これらの特徴は、本発明の図示例及び本発明の他の動作
例の両方にも使用可能である。例えば、物体認識手段11
4により導出された情報は、撮像手段100の視野の方向性
及び/又はズーミングの制御のために使用することがで
きる。この場合、撮像手段100は、物体認識手段114にサ
ーボ情報へ戻す。更に、出力使用手段120は、物体認識
手段114から供給された物体認識情報を記録するための
記録機器を後日の使用に供するための装備することもで
きる。つまり、このような情報は、物体認識情報が収集
された位置から離隔した位置へ出力利用手段120によっ
て遠隔計測で伝達されることも可能である。
これらの特徴は、本発明の図示例及び本発明の他の動作
例の両方にも使用可能である。例えば、物体認識手段11
4により導出された情報は、撮像手段100の視野の方向性
及び/又はズーミングの制御のために使用することがで
きる。この場合、撮像手段100は、物体認識手段114にサ
ーボ情報へ戻す。更に、出力使用手段120は、物体認識
手段114から供給された物体認識情報を記録するための
記録機器を後日の使用に供するための装備することもで
きる。つまり、このような情報は、物体認識情報が収集
された位置から離隔した位置へ出力利用手段120によっ
て遠隔計測で伝達されることも可能である。
図1に広範に示した本発明の実施例は、その最も効率
的な実施態様と考えることができる。まず、開示された
実施例においては、新規画像情報は、リアルタイムで継
続的に収集され、物体認識処理が発生する。次に、マル
チ解像度ピラミッドプロセッサは、動きが制御可能な可
動ウィンドウを組み込み、このウィンドウは考慮必要性
が最小と考えられる画像データを効率よく減少するよう
に使用される。
的な実施態様と考えることができる。まず、開示された
実施例においては、新規画像情報は、リアルタイムで継
続的に収集され、物体認識処理が発生する。次に、マル
チ解像度ピラミッドプロセッサは、動きが制御可能な可
動ウィンドウを組み込み、このウィンドウは考慮必要性
が最小と考えられる画像データを効率よく減少するよう
に使用される。
リアルタイムで得られているような画像データに関す
る処理以外には、多数の連続フレームから成る画像デー
タの全ブロックを記録することも可能であり、これは、
物体認識の目的のために、この画像データブロック内に
おける画像データを動的処理する前に行われる。更にま
た、データ減縮はマルチ解像度ピラミッドプロセッサに
よって実行される必要はない。理由は、物体認識のため
に使用され得る他のデータ圧縮技術が本技術分野に存在
するからである。
る処理以外には、多数の連続フレームから成る画像デー
タの全ブロックを記録することも可能であり、これは、
物体認識の目的のために、この画像データブロック内に
おける画像データを動的処理する前に行われる。更にま
た、データ減縮はマルチ解像度ピラミッドプロセッサに
よって実行される必要はない。理由は、物体認識のため
に使用され得る他のデータ圧縮技術が本技術分野に存在
するからである。
図1において、現実の3次元物体を撮像する撮影手段
は、画像データを得るために使用されている。しかし、
このような画像データを他の手段で得ることも可能であ
る。一例として、コンピュータで生成したり、あるいは
アニメ漫画技術にて得ることが可能である。
は、画像データを得るために使用されている。しかし、
このような画像データを他の手段で得ることも可能であ
る。一例として、コンピュータで生成したり、あるいは
アニメ漫画技術にて得ることが可能である。
以上詳述した本発明に係る物体認識システムの動作の
図示は、確率決定手段404により使用される対象の特徴
として、(1)色(すなわち、フレッシュトーン)、
(2)パターン形状、及び(3)前景物体の移動、を用
いる。これら色、パターン形状、又は移動物体情報に代
えてまたはこれらに加えて、対象の他の特徴も、物体認
識のための識別要素として使用されることができるを理
解すべきである。
図示は、確率決定手段404により使用される対象の特徴
として、(1)色(すなわち、フレッシュトーン)、
(2)パターン形状、及び(3)前景物体の移動、を用
いる。これら色、パターン形状、又は移動物体情報に代
えてまたはこれらに加えて、対象の他の特徴も、物体認
識のための識別要素として使用されることができるを理
解すべきである。
フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G06T 7/00 - 7/60
Claims (8)
- 【請求項1】時系列に連続した第1の解像度の画像デー
タフレームにグラフィカル表示された所定クラスの物体
を認識するための動的な画像処理の方法であって、 該方法は、(A)前記画像処理を制御すると共に一組の
決定基準の特定を行うための記憶プログラムと、(B)
記憶データとによって実現されるものであり; 前記所定クラスの物体は、全て、既知の一群の包括的属
性をもち、前記一群の包括的属性によって、全体とし
て、前記所定クラスに属する物体はそれ以外の物体から
区別され; 前記記憶データによって、前記一群の包括的属性に関連
した限定された数の個別特徴が初期的に規定されてお
り、初期的に記憶された前記個別特徴の少なくとも1つ
は、前記所定クラスの物体が画像データの一又は複数の
連続したフレームのシーケンス中にグラフィカル表示さ
れている場合に、当該シーケンス中に存在しており; 時系列に連続した第1の解像度の画像データフレーム
は、一又は複数の第1のフレームと、該第1のフレーム
の後に発生する一又は複数の第2のフレームとを含み、 前記方法は: a)前記記憶プログラムによる制御の下で、且つ前記記
憶データにより初期的に規定される前記個別特徴のうち
の少なくとも第1の個別特徴に応じて、第1の確率に関
する第1の決定を前記決定基準に従って行なうステップ
であって、前記時系列の前記第1のフレームは、前記第
1の確率で、前記画像データの部分として、前記所定ク
ラスの物体の前記個別特徴のうちの少なくとも前記第1
の個別特徴を含み; b)前記第1の確率が第1の所定閾値以上であることに
応じて、前記時系列の前記第1のフレーム内における前
記部分の少なくとも相対位置を規定するデータを前記記
憶データに追加し、これによって前記記憶データを増加
させるステップ; c)前記記憶プログラムによる制御の下で、且つ前記増
加された記憶データに応じて、前記第1の個別特徴に加
えて前記個別特徴のうちの少なくとも第2の個別特徴を
前記部分に含むことが前記第2のフレームによって照合
される、という第2の確率に関する第2の決定を決定基
準に従って行なうステップ; d)前記第2の確率が第2の所定閾値よりも大きいこと
に応じて、前記部分を前記所定クラスの物体がグラフィ
カル表示されたものであると認識するステップ; e)前記第2の所定閾値よりも小さい第3の所定閾値よ
り前記第2の確率が小さいことに応じて、前記所定クラ
スの物体のグラフィカル表示ではないものとして前記部
分を認識するステップ; f)前記第2の確率が前記第2の所定閾値と第3の所定
閾値との間の範囲内に存在することに応じて、前記ステ
ップc)の照合における前記部分の少なくとも相対位置
を規定する更なるデータを前記記憶データへ追加し、こ
れによって前記記憶データを更に増加させるステップを
備え; g)前記第2の確率が前記範囲内にある場合、前記第2
のフレームの後に発生する前記時系列の一又は複数のフ
レームのシーケンスに対して前記ステップc)からf)
を、このような繰り返しステップd)により決定される
確率が前記第2の所定閾値を越えるか又は前記第3の所
定閾値よりも小さくなるまで、再帰的に繰り返すステッ
プと、 を備える方法。 - 【請求項2】前記ステップa)に先立って、前記連続し
た第1の解像度の画像データフレームの各々を解析し
て、前記第1の解像度のフレームの解像度よりも低い第
2の解像度を示す少なくとも一レベルから成るマルチ解
像度ピラミッドにする解析ステップを含み、 前記ステップa)において、前記第1の確率は、前記時
系列の前記第1のフレームのシーケンスの該マルチ解像
度ピラミッドのうちの任意の第2の解像度レベルが、前
記所定クラスの物体の前記個別特徴のうちの少なくとも
前記第1の個別特徴を前記画像データの部分として含
む、という確率であり; 前記ステップc)において、前記第2の確率は、前記時
系列の前記第2のフレームのシーケンスのマルチ解像度
ピラミッドのうちの任意のレベルにより、前記第1の個
別特徴に加えて前記個別特徴のうちの少なくとも第2の
個別特徴を前記部分に含むことが照合される、という確
率である、請求項1に記載の方法。 - 【請求項3】前記所定クラスの物体は予め選択された複
数のメンバーより成り、前記所定クラスの予め選択され
た該メンバーの各々は、既知の具体的属性からなる固有
グループを各メンバーが有することにより個々に規定さ
れ、前記固有グループは、全体として、既知のメンバー
を前記所定クラスの他のメンバーから区別するものであ
り、該固有グループは、前記既知の包括的属性の少なく
とも各サブグループであり、 前記サブグループの前記包括的属性夫々である各具体的
属性に関して、前記記憶データは、前記連続したフレー
ムの特定のピラミッドレベルにおける当該包括的属性で
ある具体的属性のグラフィカル表示に関連する別個の具
体的特徴を含み、 前記方法は、 h)前記記憶プログラムによる制御の下で、且つ前記所
定クラスの物体のグラフィカル表示として前記部分が認
識されることに応じて、特定のピラミッドレベルにおけ
る前記サブグループの前記包括的属性のうちの第1の所
定属性である異なる具体的属性の各々に関連した個別の
記憶された具体的特徴の各々を前記部分と順次に比較し
て、前記比較された具体的特徴のどれが前記部分に対応
するかを所定閾値の確率よりも大きい最も大きい確率で
決定するステップ; i)特定のピラミッドレベルにおいて前記サブグループ
の前記包括的属性のうちそれぞれ別の所定属性である異
なる具体的属性に関連する個別の記憶された具体的特徴
毎に、前記ステップh)を繰り返し、これによって、前
記部分によりグラフィカル表示された既知の具体的属性
の固有グループと、該固有グループによって規定される
該予め選択された個別のメンバーと、を決定するステッ
プを更に備える含む請求項2に記載の方法。 - 【請求項4】時系列に連続した第1の解像度の画像デー
タフレームにグラフィカル表示された所定クラスの物体
を動的に認識するための画像処理システムであって、前
記所定クラスの各物体は、全て、前記所定クラスの物体
をそれ以外の物体から全体として区別する既知の包括的
属性の第1の群をもち、前記所定クラスの既知メンバー
の各々は、前記所定クラスの既知メンバーを他のメンバ
ーから全体として区別する既知の具体的特徴の第2の群
を持ち; 時系列に連続した第1の解像度の画像データフレーム
は、一又は複数の第1のフレームと、前記第1のフレー
ムの後に発生する一又は複数の第2のフレームとを含
み、 前記システムは: 前記画像処理を制御するための記憶プログラムを格納す
ると共に、一組の決定基準を特定するための第1の手段
を備え; 一組の初期データを含むデータを記憶する第2の手段を
備え、前記初期データにより、包括的属性の少なくとも
前記第1の群に関連する限定された数の個別特徴が規定
され、初期的に記憶された少なくとも一つの前記個別特
徴は、前記所定クラスの物体が一又は複数の連続する画
像データフレームのシーケンスにグラフィカル表示され
る場合に、当該シーケンスに存在しており; 前記第1の手段及び第2の手段に結合された第3の手段
を備え、該第3の手段は、 (1)前記時系列の前記第1のフレームが、前記所定ク
ラスの物体の前記個別特徴のうちの少なくとも前記第1
の個別特徴を前記画像データの部分として含む、という
第1の確率に関する第1の決定を前記決定基準に従って
行い; (2)第1の所定閾値以上の前記第1の確率に応じて、
前記時系列の前記第1のフレーム内における前記部分の
少なくとも相対位置を規定する追加データを前記第2の
手段に記憶し、これにより該第2の手段に記憶されたデ
ータを増加させ; (3)前記第1の個別特徴に加えて前記個別特徴のうち
の少なくとも第2の個別特徴を前記部分に含むことが前
記時系列の前記第2のフレームにより照合される、とい
う第2の確率に関する決定を前記決定基準に従って行な
い; (4)第2の所定閾値を越えた前記第2の確率に応じ
て、前記所定クラスの物体のグラフィカル表示であると
前記部分を認識し; (5)前記第2の所定閾値よりも小さい第3の所定閾値
より小さい前記第2の確率に応じて、前記所定クラスの
物体のグラフィカル表示ではないと前記部分を認識し; (6)前記第2の所定閾値と第3の所定閾値との間の範
囲内に存在する前記第2の確率に応じて、前記第2の決
定により定められた更なる追加データを前記第2の手段
に記憶し、それによって前記第2の手段に記憶データを
増加させ; (7)前記第2の確率が前記範囲内に存在する場合、前
記第2のフレームの後に発生する前記時系列の一又は複
数のフレームのシーケンスに対して追加の決定を、最終
の追加の決定により規定される確率が前記第2の所定閾
値を越えて増大するか、又は前記第3の所定閾値より小
さく減少するまで再帰的に行う、システム。 - 【請求項5】請求項4に記載のシステムにおいて、更
に、 前記連続した第1の解像度の画像データフレームの各々
を解析して、前記第1の解像度フレームのレベルよりも
低い第2の解像度を示す少なくとも一つのレベルより成
るマルチ解像度ピラミッドにするための解析手段を更に
含み、 前記第3の手段は、前記第1の手段、第2の手段、及び
解析手段に結合されて、 (1)前記時系列の前記第1のフレームのシーケンスの
該マルチ解像度ピラミッドの任意の第2の解像度レベル
が、前記所定クラスの物体の前記個別特徴のうちの少な
くとも前記第1の個別特徴をその画像データの部分とし
て含む、という第1の確率に関する第1の決定を前記決
定基準に従って行ない; (2)第1の所定閾値以上の前記第1の確率に応じて、
前記時系列の前記第1のフレームにおける前記部分の少
なくとも相対位置を規定する追加データを前記第2の手
段に記憶し、それによって前記第2の手段に記憶された
データを増加し、 (3)前記第1の個別特徴に加えて前記個別特徴のうち
の少なくとも第2の個別特徴を前記部分に含むことが、
前記第2のフレームのシーケンスの該マルチ解像度ピラ
ミッドのうちの任意のレベルにより照合される、という
第2の確率に関する決定を前記決定基準に従って行な
い; (4)前記第2の閾値より大きい前記第2の確率に応じ
て、前記所定クラスの物体のグラフィカル表示であると
して前記部分を認識し; (5)前記第2の所定閾値よりも小さい第3の所定閾値
より小さい前記第2の確率に応じて、所定クラスの物体
のグラフィカル表示ではないとして前記部分を認識し、 (6)前記第2の所定閾値と第3の所定閾値との間の範
囲内に存在する前記第2の確率に応じて、前記第2の決
定により規定される更なる追加データを前記第2の手段
に記憶し、それによって該第2の手段に記憶データを更
に増加させ、 (7)前記第2の確率が前記範囲内にある場合、前記第
2のフレームの後に発生する前記時系列の一又は複数の
フレームのシーケンスに対する追加の決定を、最終の追
加の決定により定められる確率が前記第2の所定閾値を
越えて増大するか又は前記第3の所定閾値以下に減少す
るまで、再帰的に行なう、 システム。 - 【請求項6】前記所定クラスの物体の前記グラフィカル
表示は、可動物体の2次元表示を含み、それによって前
記可動物体のフレームにおける前記2次元表示の位置は
フレーム毎に変化し得るものであり、前記システムは、 前記連続した画像データフレームに応答を示し、移動す
る物体のグラフィカル表示を規定するピクセルからなる
フレームにおいてピクセル位置を導き出すための移動対
象物手段、を含み、 前記第3の手段は、前記移動対象物手段に結合されて、
前記確率の決定を行う際に追加特徴として前記移動物体
の各ピクセル位置を採用すると共に、前記範囲内にある
と決定される確率に応じて、前記移動する物体のピクセ
ル位置を追加データとして前記第2の手段に記憶する、
請求項4に記載のシステム。 - 【請求項7】前記所定クラスの物体の前記グラフィカル
表示は、所定の色相特性を有する物体の2次元表示を含
み;前記システムは、 前記連続した画像データフレームに応答を示し、前記所
定の色相特性を有する物体のグラフィカル表示を規定す
るピクセルからなるフレームにおいて各ピクセル位置を
導き出すための色検出手段、を更に含み; 前記第3の手段は、前記色検出手段に結合されて、前記
所定の色相特性をもつ前記物体の各ピクセル位置を前記
確率決定を行う際に追加特徴として採用すると共に、前
記範囲内にあると決定された確率に応じて、前記移動す
る物体のピクセル位置を前記第2の手段に追加データと
して記憶する、請求項4に記載のシステム。 - 【請求項8】前記第2の手段に記憶された該初期データ
により規定される該特徴中には、前記所定クラスの前記
物体の2次元グラフィカル表示に関連づけられた所定の
パターン形状があり、前記第3の手段は、 連続した各画像データフレームを構成する該ピクセルに
より規定されるパターン形状を所定の解像度において前
記所定のパターン形状の各々に対して相関をとると共
に、これにより得られた相関値を前記確率決定を行う際
に採用するためのマッチング手段と、 前記範囲内にあると決定された確率に応じて、相関ピク
セル位置を前記第2の手段に記憶するための手段と、を
含む請求項4に記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US432,013 | 1989-11-06 | ||
US07/432,013 US5063603A (en) | 1989-11-06 | 1989-11-06 | Dynamic method for recognizing objects and image processing system therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH05501770A JPH05501770A (ja) | 1993-04-02 |
JP3178719B2 true JP3178719B2 (ja) | 2001-06-25 |
Family
ID=23714384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP50078491A Expired - Fee Related JP3178719B2 (ja) | 1989-11-06 | 1990-11-05 | 動的物体認識方法及びその画像処理システム |
Country Status (6)
Country | Link |
---|---|
US (1) | US5063603A (ja) |
EP (1) | EP0499627B1 (ja) |
JP (1) | JP3178719B2 (ja) |
DE (1) | DE69032326T2 (ja) |
ES (1) | ES2116284T3 (ja) |
WO (1) | WO1991006921A1 (ja) |
Families Citing this family (309)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5159647A (en) * | 1991-03-04 | 1992-10-27 | David Sarnoff Research Center, Inc. | Fast and efficient search method for graphical data |
GB9119964D0 (en) * | 1991-09-18 | 1991-10-30 | Sarnoff David Res Center | Pattern-key video insertion |
US6400996B1 (en) | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US8352400B2 (en) | 1991-12-23 | 2013-01-08 | Hoffberg Steven M | Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore |
US5903454A (en) | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US6418424B1 (en) | 1991-12-23 | 2002-07-09 | Steven M. Hoffberg | Ergonomic man-machine interface incorporating adaptive pattern recognition based control system |
US10361802B1 (en) | 1999-02-01 | 2019-07-23 | Blanding Hovenweep, Llc | Adaptive pattern recognition based control system and method |
US6850252B1 (en) | 1999-10-05 | 2005-02-01 | Steven M. Hoffberg | Intelligent electronic appliance system and method |
US5699442A (en) * | 1992-04-10 | 1997-12-16 | Andrew Welch | System for detecting the location of a reflective object within a video field |
US5680481A (en) * | 1992-05-26 | 1997-10-21 | Ricoh Corporation | Facial feature extraction method and apparatus for a neural network acoustic and visual speech recognition system |
US5309522A (en) * | 1992-06-30 | 1994-05-03 | Environmental Research Institute Of Michigan | Stereoscopic determination of terrain elevation |
US5432864A (en) * | 1992-10-05 | 1995-07-11 | Daozheng Lu | Identification card verification system |
US5835641A (en) * | 1992-10-14 | 1998-11-10 | Mitsubishi Denki Kabushiki Kaisha | Image pick-up apparatus for detecting and enlarging registered objects |
US5550928A (en) * | 1992-12-15 | 1996-08-27 | A.C. Nielsen Company | Audience measurement system and method |
US6822563B2 (en) | 1997-09-22 | 2004-11-23 | Donnelly Corporation | Vehicle imaging system with accessory control |
US5877897A (en) | 1993-02-26 | 1999-03-02 | Donnelly Corporation | Automatic rearview mirror, vehicle lighting control and vehicle interior monitoring system using a photosensor array |
DE69434657T2 (de) * | 1993-06-04 | 2007-02-15 | Sarnoff Corp. | System und Verfahren zur elektronischen Bildstabilisierung |
CA2129206C (en) * | 1993-08-10 | 1998-07-14 | Mark Thurman | Integration of tv video with ir tracker features |
US5561753A (en) * | 1993-12-02 | 1996-10-01 | International Business Machines Corporation | Method and system for relocating selectable graphical objects in a graphical user interface environment |
EP0664642B1 (en) | 1994-01-20 | 2002-07-24 | Omron Corporation | Image processing device for identifying an input image, and copier including same |
US5572596A (en) * | 1994-09-02 | 1996-11-05 | David Sarnoff Research Center, Inc. | Automated, non-invasive iris recognition system and method |
US6714665B1 (en) * | 1994-09-02 | 2004-03-30 | Sarnoff Corporation | Fully automated iris recognition system utilizing wide and narrow fields of view |
US5578823A (en) * | 1994-12-16 | 1996-11-26 | Hitachi, Ltd. | Transmission electron microscope and method of observing element distribution by using the same |
US5627915A (en) * | 1995-01-31 | 1997-05-06 | Princeton Video Image, Inc. | Pattern recognition system employing unlike templates to detect objects having distinctive features in a video field |
US6891563B2 (en) | 1996-05-22 | 2005-05-10 | Donnelly Corporation | Vehicular vision system |
US5649021A (en) * | 1995-06-07 | 1997-07-15 | David Sarnoff Research Center, Inc. | Method and system for object detection for instrument control |
US5892554A (en) * | 1995-11-28 | 1999-04-06 | Princeton Video Image, Inc. | System and method for inserting static and dynamic images into a live video broadcast |
US5912700A (en) * | 1996-01-10 | 1999-06-15 | Fox Sports Productions, Inc. | System for enhancing the television presentation of an object at a sporting event |
US5842194A (en) * | 1995-07-28 | 1998-11-24 | Mitsubishi Denki Kabushiki Kaisha | Method of recognizing images of faces or general images using fuzzy combination of multiple resolutions |
US6985172B1 (en) * | 1995-12-01 | 2006-01-10 | Southwest Research Institute | Model-based incident detection system with motion classification |
EP0865637A4 (en) * | 1995-12-04 | 1999-08-18 | Sarnoff David Res Center | DETECTION SYSTEM WITH A WIDE AND NARROW FIELD OF VIEW AND METHOD |
JPH09212648A (ja) * | 1996-01-31 | 1997-08-15 | Toshiba Corp | 動画像処理方法 |
US7655894B2 (en) | 1996-03-25 | 2010-02-02 | Donnelly Corporation | Vehicular image sensing system |
US6289107B1 (en) * | 1996-05-23 | 2001-09-11 | Nike, Inc. | Apparatus and method of measuring human extremities using peripheral illumination techniques |
US5917553A (en) * | 1996-10-22 | 1999-06-29 | Fox Sports Productions Inc. | Method and apparatus for enhancing the broadcast of a live event |
US5930410A (en) * | 1997-01-13 | 1999-07-27 | Hewlett-Packard Company | Method and apparatus for obtaining multiple views from one scan window |
US6542260B1 (en) * | 1997-01-13 | 2003-04-01 | Hewlett-Packard Company | Multiple image scanner |
US5953077A (en) * | 1997-01-17 | 1999-09-14 | Fox Sports Productions, Inc. | System for displaying an object that is not visible to a camera |
US6252632B1 (en) | 1997-01-17 | 2001-06-26 | Fox Sports Productions, Inc. | System for enhancing a video presentation |
US6160907A (en) * | 1997-04-07 | 2000-12-12 | Synapix, Inc. | Iterative three-dimensional process for creating finished media content |
US6084590A (en) * | 1997-04-07 | 2000-07-04 | Synapix, Inc. | Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage |
US6124864A (en) * | 1997-04-07 | 2000-09-26 | Synapix, Inc. | Adaptive modeling and segmentation of visual image streams |
US6760061B1 (en) * | 1997-04-14 | 2004-07-06 | Nestor Traffic Systems, Inc. | Traffic sensor |
US6151403A (en) * | 1997-08-29 | 2000-11-21 | Eastman Kodak Company | Method for automatic detection of human eyes in digital images |
JP3584458B2 (ja) | 1997-10-31 | 2004-11-04 | ソニー株式会社 | パターン認識装置およびパターン認識方法 |
WO1999023600A1 (en) * | 1997-11-04 | 1999-05-14 | The Trustees Of Columbia University In The City Of New York | Video signal face region detection |
US6002782A (en) * | 1997-11-12 | 1999-12-14 | Unisys Corporation | System and method for recognizing a 3-D object by generating a 2-D image of the object from a transformed 3-D model |
US6697103B1 (en) * | 1998-03-19 | 2004-02-24 | Dennis Sunga Fernandez | Integrated network for monitoring remote objects |
US6266053B1 (en) | 1998-04-03 | 2001-07-24 | Synapix, Inc. | Time inheritance scene graph for representation of media content |
US6297825B1 (en) | 1998-04-06 | 2001-10-02 | Synapix, Inc. | Temporal smoothing of scene analysis data for image sequence generation |
US6249285B1 (en) | 1998-04-06 | 2001-06-19 | Synapix, Inc. | Computer assisted mark-up and parameterization for scene analysis |
US6229550B1 (en) | 1998-09-04 | 2001-05-08 | Sportvision, Inc. | Blending a graphic |
US6266100B1 (en) | 1998-09-04 | 2001-07-24 | Sportvision, Inc. | System for enhancing a video presentation of a live event |
WO2000031706A1 (en) * | 1998-11-23 | 2000-06-02 | Nestor, Inc. | Traffic light collision avoidance system |
US6754663B1 (en) | 1998-11-23 | 2004-06-22 | Nestor, Inc. | Video-file based citation generation system for traffic light violations |
US7062073B1 (en) | 1999-01-19 | 2006-06-13 | Tumey David M | Animated toy utilizing artificial intelligence and facial image recognition |
US7966078B2 (en) | 1999-02-01 | 2011-06-21 | Steven Hoffberg | Network media appliance system and method |
EP1190571A1 (en) * | 1999-04-08 | 2002-03-27 | New York University | Extremely high resolution foveated display |
US6466275B1 (en) | 1999-04-16 | 2002-10-15 | Sportvision, Inc. | Enhancing a video of an event at a remote location using data acquired at the event |
US6393137B1 (en) * | 1999-06-17 | 2002-05-21 | Raytheon Company | Multi-resolution object classification method employing kinematic features and system therefor |
GB2352859A (en) * | 1999-07-31 | 2001-02-07 | Ibm | Automatic zone monitoring using two or more cameras |
US6766058B1 (en) * | 1999-08-04 | 2004-07-20 | Electro Scientific Industries | Pattern recognition using multiple templates |
DE19962201A1 (de) * | 1999-09-06 | 2001-03-15 | Holger Lausch | Verfahren und Anordnung zur Erfassung und Analyse des Rezeptionsverhaltens von Personen |
JP3679953B2 (ja) * | 1999-09-14 | 2005-08-03 | 富士通株式会社 | 生体情報を用いた個人認証システム |
US7020351B1 (en) | 1999-10-08 | 2006-03-28 | Sarnoff Corporation | Method and apparatus for enhancing and indexing video and audio signals |
WO2001028238A2 (en) * | 1999-10-08 | 2001-04-19 | Sarnoff Corporation | Method and apparatus for enhancing and indexing video and audio signals |
US6731790B1 (en) * | 1999-10-19 | 2004-05-04 | Agfa-Gevaert | Method of enhancing color images |
US7075556B1 (en) | 1999-10-21 | 2006-07-11 | Sportvision, Inc. | Telestrator system |
US6909438B1 (en) | 2000-02-04 | 2005-06-21 | Sportvision, Inc. | Video compositor |
US7107235B2 (en) * | 2000-03-10 | 2006-09-12 | Lyden Robert M | Method of conducting business including making and selling a custom article of footwear |
US7752775B2 (en) | 2000-03-10 | 2010-07-13 | Lyden Robert M | Footwear with removable lasting board and cleats |
JP4374759B2 (ja) * | 2000-10-13 | 2009-12-02 | オムロン株式会社 | 画像比較システムおよび画像比較装置 |
US7095444B1 (en) * | 2000-11-06 | 2006-08-22 | Sri International | Method and apparatus for generating, distributing and reconstructing deconstructed video |
EP1346295A4 (en) | 2000-11-15 | 2005-01-12 | Mark Frigon | METHOD AND DEVICE FOR OBTAINING INFORMATION ON THE PRESENCE OF AT LEAST ONE OBJECT IN AN IMAGE |
JP4106874B2 (ja) * | 2001-02-05 | 2008-06-25 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
US20020169735A1 (en) * | 2001-03-07 | 2002-11-14 | David Kil | Automatic mapping from data to preprocessing algorithms |
US20020129342A1 (en) * | 2001-03-07 | 2002-09-12 | David Kil | Data mining apparatus and method with user interface based ground-truth tool and user algorithms |
US6603882B2 (en) * | 2001-04-12 | 2003-08-05 | Seho Oh | Automatic template generation and searching method |
US20030076981A1 (en) * | 2001-10-18 | 2003-04-24 | Smith Gregory Hugh | Method for operating a pre-crash sensing system in a vehicle having a counter-measure system |
US6775605B2 (en) | 2001-11-29 | 2004-08-10 | Ford Global Technologies, Llc | Remote sensing based pre-crash threat assessment system |
US6819991B2 (en) * | 2001-11-29 | 2004-11-16 | Ford Global Technologies, Llc | Vehicle sensing based pre-crash threat assessment system |
US7158870B2 (en) | 2002-01-24 | 2007-01-02 | Ford Global Technologies, Llc | Post collision restraints control module |
US6831572B2 (en) | 2002-01-29 | 2004-12-14 | Ford Global Technologies, Llc | Rear collision warning system |
US6721659B2 (en) | 2002-02-01 | 2004-04-13 | Ford Global Technologies, Llc | Collision warning and safety countermeasure system |
US6519519B1 (en) | 2002-02-01 | 2003-02-11 | Ford Global Technologies, Inc. | Passive countermeasure methods |
US6498972B1 (en) | 2002-02-13 | 2002-12-24 | Ford Global Technologies, Inc. | Method for operating a pre-crash sensing system in a vehicle having a countermeasure system |
US7009500B2 (en) | 2002-02-13 | 2006-03-07 | Ford Global Technologies, Llc | Method for operating a pre-crash sensing system in a vehicle having a countermeasure system using stereo cameras |
US7221796B2 (en) * | 2002-03-08 | 2007-05-22 | Nec Corporation | Character input device, character input method and character input program |
US9569746B2 (en) | 2002-03-14 | 2017-02-14 | Nike, Inc. | Custom fit sale of footwear |
EP1504276B1 (en) | 2002-05-03 | 2012-08-08 | Donnelly Corporation | Object detection system for vehicle |
WO2004044829A1 (en) | 2002-11-08 | 2004-05-27 | Data Flow / Alaska, Inc. | System for uniquely identifying subjects from a target population |
AU2002362145A1 (en) | 2002-12-11 | 2004-06-30 | Nielsen Media Research, Inc. | Detecting a composition of an audience |
US7203338B2 (en) * | 2002-12-11 | 2007-04-10 | Nielsen Media Research, Inc. | Methods and apparatus to count people appearing in an image |
US7396574B2 (en) * | 2003-05-28 | 2008-07-08 | Robert C. Bogert | Self-inflating cushion and footwear including same |
US8363951B2 (en) | 2007-03-05 | 2013-01-29 | DigitalOptics Corporation Europe Limited | Face recognition training method and apparatus |
US7844076B2 (en) | 2003-06-26 | 2010-11-30 | Fotonation Vision Limited | Digital image processing using face detection and skin tone information |
US9129381B2 (en) | 2003-06-26 | 2015-09-08 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US7565030B2 (en) | 2003-06-26 | 2009-07-21 | Fotonation Vision Limited | Detecting orientation of digital images using face detection information |
US7792335B2 (en) | 2006-02-24 | 2010-09-07 | Fotonation Vision Limited | Method and apparatus for selective disqualification of digital images |
US8553949B2 (en) | 2004-01-22 | 2013-10-08 | DigitalOptics Corporation Europe Limited | Classification and organization of consumer digital images using workflow, and face detection and recognition |
US7269292B2 (en) | 2003-06-26 | 2007-09-11 | Fotonation Vision Limited | Digital image adjustable compression and resolution using face detection information |
US8330831B2 (en) | 2003-08-05 | 2012-12-11 | DigitalOptics Corporation Europe Limited | Method of gathering visual meta data using a reference image |
US8498452B2 (en) | 2003-06-26 | 2013-07-30 | DigitalOptics Corporation Europe Limited | Digital image processing using face detection information |
US8494286B2 (en) | 2008-02-05 | 2013-07-23 | DigitalOptics Corporation Europe Limited | Face detection in mid-shot digital images |
US9692964B2 (en) | 2003-06-26 | 2017-06-27 | Fotonation Limited | Modification of post-viewing parameters for digital images using image region or feature information |
US8896725B2 (en) | 2007-06-21 | 2014-11-25 | Fotonation Limited | Image capture device with contemporaneous reference image capture mechanism |
US7574016B2 (en) | 2003-06-26 | 2009-08-11 | Fotonation Vision Limited | Digital image processing using face detection information |
US8682097B2 (en) | 2006-02-14 | 2014-03-25 | DigitalOptics Corporation Europe Limited | Digital image enhancement with reference images |
US8155397B2 (en) | 2007-09-26 | 2012-04-10 | DigitalOptics Corporation Europe Limited | Face tracking in a camera processor |
US7620218B2 (en) | 2006-08-11 | 2009-11-17 | Fotonation Ireland Limited | Real-time face tracking with reference images |
US7792970B2 (en) | 2005-06-17 | 2010-09-07 | Fotonation Vision Limited | Method for establishing a paired connection between media devices |
US8593542B2 (en) | 2005-12-27 | 2013-11-26 | DigitalOptics Corporation Europe Limited | Foreground/background separation using reference images |
US7471846B2 (en) | 2003-06-26 | 2008-12-30 | Fotonation Vision Limited | Perfecting the effect of flash within an image acquisition devices using face detection |
US8948468B2 (en) | 2003-06-26 | 2015-02-03 | Fotonation Limited | Modification of viewing parameters for digital images using face detection information |
US8989453B2 (en) | 2003-06-26 | 2015-03-24 | Fotonation Limited | Digital image processing using face detection information |
US7616233B2 (en) | 2003-06-26 | 2009-11-10 | Fotonation Vision Limited | Perfecting of digital image capture parameters within acquisition devices using face detection |
US7440593B1 (en) * | 2003-06-26 | 2008-10-21 | Fotonation Vision Limited | Method of improving orientation and color balance of digital images using face detection information |
US20050071242A1 (en) * | 2003-09-30 | 2005-03-31 | Nike International Ltd. | Method and system for custom-manufacturing footwear |
US7564994B1 (en) * | 2004-01-22 | 2009-07-21 | Fotonation Vision Limited | Classification system for consumer digital images using automatic workflow and face detection and recognition |
US7526103B2 (en) | 2004-04-15 | 2009-04-28 | Donnelly Corporation | Imaging system for vehicle |
WO2006083278A2 (en) * | 2004-05-26 | 2006-08-10 | Bae Systems Information And Electronic Systems Integration, Inc. | Method for transitioning from a missile warning system to a fine tracking system in a countermeasures system |
SE528068C2 (sv) | 2004-08-19 | 2006-08-22 | Jan Erik Solem Med Jsolutions | Igenkänning av 3D föremål |
US7881496B2 (en) | 2004-09-30 | 2011-02-01 | Donnelly Corporation | Vision system for vehicle |
US8320641B2 (en) | 2004-10-28 | 2012-11-27 | DigitalOptics Corporation Europe Limited | Method and apparatus for red-eye detection using preview or other reference images |
US7620241B2 (en) * | 2004-11-30 | 2009-11-17 | Hewlett-Packard Development Company, L.P. | Artifact reduction in a digital video |
US7796827B2 (en) * | 2004-11-30 | 2010-09-14 | Hewlett-Packard Development Company, L.P. | Face enhancement in a digital video |
US20060114994A1 (en) * | 2004-12-01 | 2006-06-01 | Silverstein D Amnon | Noise reduction in a digital video |
US7643088B2 (en) * | 2004-12-01 | 2010-01-05 | Hewlett-Packard Development Company, L.P. | Artifact reduction in a digital video |
US8503800B2 (en) | 2007-03-05 | 2013-08-06 | DigitalOptics Corporation Europe Limited | Illumination detection using classifier chains |
US7715597B2 (en) | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
US7315631B1 (en) | 2006-08-11 | 2008-01-01 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US8488023B2 (en) | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
WO2006081634A2 (en) * | 2005-02-04 | 2006-08-10 | Barco N.V. | Method and device for image and video transmission over low-bandwidth and high-latency transmission channels |
US7450778B2 (en) * | 2005-03-17 | 2008-11-11 | Hewlett-Packard Development Company, L.P. | Artifact reduction in a digital video |
US7440608B2 (en) * | 2005-05-31 | 2008-10-21 | Hewlett-Packard Development Company, L.P. | Method and system for detecting image defects |
US11632498B1 (en) | 2005-06-03 | 2023-04-18 | Craig P. Mowry | Multi-dimensional imaging system and method |
US10341558B2 (en) * | 2005-06-03 | 2019-07-02 | Craig P. Mowry | System and apparatus for increasing quality and efficiency of film capture and methods of use thereof |
US7599527B2 (en) * | 2005-09-28 | 2009-10-06 | Facedouble, Inc. | Digital image search system and method |
US8311294B2 (en) | 2009-09-08 | 2012-11-13 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US7587070B2 (en) * | 2005-09-28 | 2009-09-08 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US8369570B2 (en) | 2005-09-28 | 2013-02-05 | Facedouble, Inc. | Method and system for tagging an image of an individual in a plurality of photos |
US8600174B2 (en) * | 2005-09-28 | 2013-12-03 | Facedouble, Inc. | Method and system for attaching a metatag to a digital image |
US7450740B2 (en) | 2005-09-28 | 2008-11-11 | Facedouble, Inc. | Image classification and information retrieval over wireless digital networks and the internet |
US7804983B2 (en) * | 2006-02-24 | 2010-09-28 | Fotonation Vision Limited | Digital image acquisition control and correction method and apparatus |
JP2007257078A (ja) * | 2006-03-20 | 2007-10-04 | Fujitsu Ltd | 画像検索装置 |
US7965875B2 (en) | 2006-06-12 | 2011-06-21 | Tessera Technologies Ireland Limited | Advances in extending the AAM techniques from grayscale to color images |
JP4764273B2 (ja) * | 2006-06-30 | 2011-08-31 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム、記憶媒体 |
US7515740B2 (en) | 2006-08-02 | 2009-04-07 | Fotonation Vision Limited | Face recognition with combined PCA-based datasets |
US7403643B2 (en) | 2006-08-11 | 2008-07-22 | Fotonation Vision Limited | Real-time face tracking in a digital image acquisition device |
US7916897B2 (en) | 2006-08-11 | 2011-03-29 | Tessera Technologies Ireland Limited | Face tracking for controlling imaging parameters |
WO2008024639A2 (en) | 2006-08-11 | 2008-02-28 | Donnelly Corporation | Automatic headlamp control system |
US8648867B2 (en) | 2006-09-25 | 2014-02-11 | Neurala Llc | Graphic processor based accelerator system and method |
US8055067B2 (en) | 2007-01-18 | 2011-11-08 | DigitalOptics Corporation Europe Limited | Color segmentation |
EP2115662B1 (en) | 2007-02-28 | 2010-06-23 | Fotonation Vision Limited | Separating directional lighting variability in statistical face modelling based on texture space decomposition |
EP2123008A4 (en) | 2007-03-05 | 2011-03-16 | Tessera Tech Ireland Ltd | FACIAL CATEGORIZATION AND NOTE SYSTEM FOR A MOBILE PHONE CONTACT LIST |
KR101247147B1 (ko) | 2007-03-05 | 2013-03-29 | 디지털옵틱스 코포레이션 유럽 리미티드 | 디지털 영상 획득 장치에서의 얼굴 탐색 및 검출 |
US8335345B2 (en) | 2007-03-05 | 2012-12-18 | Sportvision, Inc. | Tracking an object with multiple asynchronous cameras |
WO2008131823A1 (en) * | 2007-04-30 | 2008-11-06 | Fotonation Vision Limited | Method and apparatus for automatically controlling the decisive moment for an image acquisition device |
US7916971B2 (en) | 2007-05-24 | 2011-03-29 | Tessera Technologies Ireland Limited | Image processing method and apparatus |
US8517990B2 (en) | 2007-12-18 | 2013-08-27 | Hospira, Inc. | User interface improvements for medical devices |
US8750578B2 (en) | 2008-01-29 | 2014-06-10 | DigitalOptics Corporation Europe Limited | Detecting facial expressions in digital images |
US7855737B2 (en) | 2008-03-26 | 2010-12-21 | Fotonation Ireland Limited | Method of making a digital camera image of a scene including the camera user |
US8311281B2 (en) * | 2008-04-09 | 2012-11-13 | Nec Corporation | Object detection apparatus |
JP5547730B2 (ja) | 2008-07-30 | 2014-07-16 | デジタルオプティックス・コーポレイション・ヨーロッパ・リミテッド | 顔検知を用いた顔及び肌の自動美化 |
US8411963B2 (en) | 2008-08-08 | 2013-04-02 | The Nielsen Company (U.S.), Llc | Methods and apparatus to count persons in a monitored environment |
WO2010063463A2 (en) | 2008-12-05 | 2010-06-10 | Fotonation Ireland Limited | Face recognition using face tracker classifier data |
US8379917B2 (en) | 2009-10-02 | 2013-02-19 | DigitalOptics Corporation Europe Limited | Face recognition performance using additional image features |
US8884741B2 (en) | 2010-02-24 | 2014-11-11 | Sportvision, Inc. | Tracking system |
US9122994B2 (en) * | 2010-03-26 | 2015-09-01 | Brain Corporation | Apparatus and methods for temporally proximate object recognition |
US9405975B2 (en) | 2010-03-26 | 2016-08-02 | Brain Corporation | Apparatus and methods for pulse-code invariant object recognition |
US9311593B2 (en) | 2010-03-26 | 2016-04-12 | Brain Corporation | Apparatus and methods for polychronous encoding and multiplexing in neuronal prosthetic devices |
US8467623B2 (en) | 2010-03-26 | 2013-06-18 | Brain Corporation | Invariant pulse latency coding systems and methods systems and methods |
KR20110111106A (ko) * | 2010-04-02 | 2011-10-10 | 삼성테크윈 주식회사 | 객체추적 및 로이터링 장치 및 방법 |
US8369617B2 (en) * | 2010-04-12 | 2013-02-05 | Nokia Corporation | Cross device image recognition improvement |
US9906838B2 (en) | 2010-07-12 | 2018-02-27 | Time Warner Cable Enterprises Llc | Apparatus and methods for content delivery and message exchange across multiple content delivery networks |
US9152915B1 (en) | 2010-08-26 | 2015-10-06 | Brain Corporation | Apparatus and methods for encoding vector into pulse-code output |
US9015093B1 (en) | 2010-10-26 | 2015-04-21 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US8775341B1 (en) | 2010-10-26 | 2014-07-08 | Michael Lamport Commons | Intelligent control with hierarchical stacked neural networks |
US20120114181A1 (en) * | 2010-11-01 | 2012-05-10 | Borthwick James R | Vehicle pose estimation and load profiling |
US9147156B2 (en) | 2011-09-21 | 2015-09-29 | Qualcomm Technologies Inc. | Apparatus and methods for synaptic update in a pulse-coded network |
US9070039B2 (en) | 2013-02-01 | 2015-06-30 | Brian Corporation | Temporal winner takes all spiking neuron network sensory processing apparatus and methods |
US8990133B1 (en) | 2012-12-20 | 2015-03-24 | Brain Corporation | Apparatus and methods for state-dependent learning in spiking neuron networks |
US9047568B1 (en) | 2012-09-20 | 2015-06-02 | Brain Corporation | Apparatus and methods for encoding of sensory data using artificial spiking neurons |
US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
US9215383B2 (en) | 2011-08-05 | 2015-12-15 | Sportsvision, Inc. | System for enhancing video from a mobile camera |
US8725662B2 (en) | 2011-09-21 | 2014-05-13 | Brain Corporation | Apparatus and method for partial evaluation of synaptic updates based on system events |
US9460387B2 (en) | 2011-09-21 | 2016-10-04 | Qualcomm Technologies Inc. | Apparatus and methods for implementing event-based updates in neuron networks |
US8725658B2 (en) | 2011-09-21 | 2014-05-13 | Brain Corporation | Elementary network description for efficient memory management in neuromorphic systems |
US9104973B2 (en) | 2011-09-21 | 2015-08-11 | Qualcomm Technologies Inc. | Elementary network description for neuromorphic systems with plurality of doublets wherein doublet events rules are executed in parallel |
US8719199B2 (en) | 2011-09-21 | 2014-05-06 | Brain Corporation | Systems and methods for providing a neural network having an elementary network description for efficient implementation of event-triggered plasticity rules |
US9412064B2 (en) | 2011-08-17 | 2016-08-09 | Qualcomm Technologies Inc. | Event-based communication in spiking neuron networks communicating a neural activity payload with an efficacy update |
EP2745204A4 (en) | 2011-08-19 | 2015-01-07 | Hospira Inc | SYSTEMS AND METHOD FOR A GRAPHIC INTERFACE WITH A GRAPHICAL PRESENTATION OF MEDICAL DATA |
US8620088B2 (en) | 2011-08-31 | 2013-12-31 | The Nielsen Company (Us), Llc | Methods and apparatus to count people in images |
US9098811B2 (en) | 2012-06-04 | 2015-08-04 | Brain Corporation | Spiking neuron network apparatus and methods |
US9015092B2 (en) | 2012-06-04 | 2015-04-21 | Brain Corporation | Dynamically reconfigurable stochastic learning apparatus and methods |
US10210452B2 (en) | 2011-09-21 | 2019-02-19 | Qualcomm Incorporated | High level neuromorphic network description apparatus and methods |
US9104186B2 (en) | 2012-06-04 | 2015-08-11 | Brain Corporation | Stochastic apparatus and methods for implementing generalized learning rules |
US8712939B2 (en) | 2011-09-21 | 2014-04-29 | Brain Corporation | Tag-based apparatus and methods for neural networks |
US9156165B2 (en) | 2011-09-21 | 2015-10-13 | Brain Corporation | Adaptive critic apparatus and methods |
US9213937B2 (en) | 2011-09-21 | 2015-12-15 | Brain Corporation | Apparatus and methods for gating analog and spiking signals in artificial neural networks |
US9146546B2 (en) | 2012-06-04 | 2015-09-29 | Brain Corporation | Systems and apparatus for implementing task-specific learning using spiking neurons |
US9117176B2 (en) | 2011-09-21 | 2015-08-25 | Qualcomm Technologies Inc. | Round-trip engineering apparatus and methods for neural networks |
DE102011083375A1 (de) * | 2011-09-26 | 2013-03-28 | Robert Bosch Gmbh | Verfahren zur Übermittlung von Routendaten für die Verkehrstelematik |
BR112014007145A2 (pt) | 2011-09-30 | 2017-04-11 | Hospira Inc | controlador de taxa de fluxo intravenoso |
EP2786307A1 (en) * | 2011-11-29 | 2014-10-08 | Layar B.V. | Dynamically configuring an image processing function |
WO2013090709A1 (en) | 2011-12-16 | 2013-06-20 | Hospira, Inc. | System for monitoring and delivering medication to a patient and method of using the same to minimize the risks associated with automated therapy |
TWI588778B (zh) * | 2012-01-17 | 2017-06-21 | 國立臺灣科技大學 | 動作辨識方法 |
US9373023B2 (en) * | 2012-02-22 | 2016-06-21 | Sri International | Method and apparatus for robustly collecting facial, ocular, and iris images using a single sensor |
KR20130098675A (ko) * | 2012-02-28 | 2013-09-05 | 삼성전자주식회사 | 얼굴 검출 처리 회로 및 이를 포함하는 촬상 장치 |
AU2013239778B2 (en) | 2012-03-30 | 2017-09-28 | Icu Medical, Inc. | Air detection system and method for detecting air in a pump of an infusion system |
US9129221B2 (en) | 2012-05-07 | 2015-09-08 | Brain Corporation | Spiking neural network feedback apparatus and methods |
US9224090B2 (en) | 2012-05-07 | 2015-12-29 | Brain Corporation | Sensory input processing apparatus in a spiking neural network |
US9412041B1 (en) | 2012-06-29 | 2016-08-09 | Brain Corporation | Retinal apparatus and methods |
US9256215B2 (en) | 2012-07-27 | 2016-02-09 | Brain Corporation | Apparatus and methods for generalized state-dependent learning in spiking neuron networks |
US9256823B2 (en) | 2012-07-27 | 2016-02-09 | Qualcomm Technologies Inc. | Apparatus and methods for efficient updates in spiking neuron network |
CA2880156C (en) | 2012-07-31 | 2020-10-13 | Hospira, Inc. | Patient care system for critical medications |
US9440352B2 (en) | 2012-08-31 | 2016-09-13 | Qualcomm Technologies Inc. | Apparatus and methods for robotic learning |
US9186793B1 (en) | 2012-08-31 | 2015-11-17 | Brain Corporation | Apparatus and methods for controlling attention of a robot |
US9189730B1 (en) | 2012-09-20 | 2015-11-17 | Brain Corporation | Modulated stochasticity spiking neuron network controller apparatus and methods |
US8793205B1 (en) | 2012-09-20 | 2014-07-29 | Brain Corporation | Robotic learning and evolution apparatus |
US9311594B1 (en) | 2012-09-20 | 2016-04-12 | Brain Corporation | Spiking neuron network apparatus and methods for encoding of sensory data |
US9367798B2 (en) | 2012-09-20 | 2016-06-14 | Brain Corporation | Spiking neuron network adaptive control apparatus and methods |
US9082079B1 (en) | 2012-10-22 | 2015-07-14 | Brain Corporation | Proportional-integral-derivative controller effecting expansion kernels comprising a plurality of spiking neurons associated with a plurality of receptive fields |
US9111226B2 (en) | 2012-10-25 | 2015-08-18 | Brain Corporation | Modulated plasticity apparatus and methods for spiking neuron network |
US9183493B2 (en) | 2012-10-25 | 2015-11-10 | Brain Corporation | Adaptive plasticity apparatus and methods for spiking neuron network |
US9218563B2 (en) | 2012-10-25 | 2015-12-22 | Brain Corporation | Spiking neuron sensory processing apparatus and methods for saliency detection |
US9275326B2 (en) | 2012-11-30 | 2016-03-01 | Brain Corporation | Rate stabilization through plasticity in spiking neuron network |
US9123127B2 (en) | 2012-12-10 | 2015-09-01 | Brain Corporation | Contrast enhancement spiking neuron network sensory processing apparatus and methods |
US9195934B1 (en) | 2013-01-31 | 2015-11-24 | Brain Corporation | Spiking neuron classifier apparatus and methods using conditionally independent subsets |
US9177245B2 (en) | 2013-02-08 | 2015-11-03 | Qualcomm Technologies Inc. | Spiking network apparatus and method with bimodal spike-timing dependent plasticity |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US9262671B2 (en) | 2013-03-15 | 2016-02-16 | Nito Inc. | Systems, methods, and software for detecting an object in an image |
US8996177B2 (en) | 2013-03-15 | 2015-03-31 | Brain Corporation | Robotic training apparatus and methods |
US9008840B1 (en) | 2013-04-19 | 2015-04-14 | Brain Corporation | Apparatus and methods for reinforcement-guided supervised learning |
EP2999940A4 (en) | 2013-05-22 | 2017-11-15 | Neurala Inc. | Methods and apparatus for early sensory integration and robust acquisition of real world knowledge |
EP3000030A4 (en) | 2013-05-22 | 2017-07-05 | Neurala Inc. | Methods and apparatus for iterative nonspecific distributed runtime architecture and its application to cloud intelligence |
US10046112B2 (en) | 2013-05-24 | 2018-08-14 | Icu Medical, Inc. | Multi-sensor infusion system for detecting air or an occlusion in the infusion system |
EP3003442B1 (en) | 2013-05-29 | 2020-12-30 | ICU Medical, Inc. | Infusion system and method of use which prevents over-saturation of an analog-to-digital converter |
EP3003441B1 (en) | 2013-05-29 | 2020-12-02 | ICU Medical, Inc. | Infusion system which utilizes one or more sensors and additional information to make an air determination regarding the infusion system |
US9242372B2 (en) | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
US9314924B1 (en) * | 2013-06-14 | 2016-04-19 | Brain Corporation | Predictive robotic controller apparatus and methods |
US9436909B2 (en) | 2013-06-19 | 2016-09-06 | Brain Corporation | Increased dynamic range artificial neuron network apparatus and methods |
US9239985B2 (en) | 2013-06-19 | 2016-01-19 | Brain Corporation | Apparatus and methods for processing inputs in an artificial neuron network |
WO2014205231A1 (en) * | 2013-06-19 | 2014-12-24 | The Regents Of The University Of Michigan | Deep learning framework for generic object detection |
US9552546B1 (en) | 2013-07-30 | 2017-01-24 | Brain Corporation | Apparatus and methods for efficacy balancing in a spiking neuron network |
US9296101B2 (en) | 2013-09-27 | 2016-03-29 | Brain Corporation | Robotic control arbitration apparatus and methods |
US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
US9489623B1 (en) | 2013-10-15 | 2016-11-08 | Brain Corporation | Apparatus and methods for backward propagation of errors in a spiking neuron network |
US9597797B2 (en) | 2013-11-01 | 2017-03-21 | Brain Corporation | Apparatus and methods for haptic training of robots |
US9463571B2 (en) | 2013-11-01 | 2016-10-11 | Brian Corporation | Apparatus and methods for online training of robots |
US9248569B2 (en) | 2013-11-22 | 2016-02-02 | Brain Corporation | Discrepancy detection apparatus and methods for machine learning |
US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
ES2776363T3 (es) | 2014-02-28 | 2020-07-30 | Icu Medical Inc | Sistema de infusión y método que utiliza detección óptica de aire en línea de doble longitud de onda |
US9364950B2 (en) | 2014-03-13 | 2016-06-14 | Brain Corporation | Trainable modular robotic methods |
US9987743B2 (en) | 2014-03-13 | 2018-06-05 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9533413B2 (en) | 2014-03-13 | 2017-01-03 | Brain Corporation | Trainable modular robotic apparatus and methods |
US9626566B2 (en) | 2014-03-19 | 2017-04-18 | Neurala, Inc. | Methods and apparatus for autonomous robotic control |
EP3120300A4 (en) * | 2014-03-19 | 2017-11-22 | Neurala Inc. | Methods and apparatus for autonomous robotic control |
US9630317B2 (en) | 2014-04-03 | 2017-04-25 | Brain Corporation | Learning apparatus and methods for control of robotic devices via spoofing |
US9613308B2 (en) | 2014-04-03 | 2017-04-04 | Brain Corporation | Spoofing remote control apparatus and methods |
US9346167B2 (en) | 2014-04-29 | 2016-05-24 | Brain Corporation | Trainable convolutional network apparatus and methods for operating a robotic vehicle |
US10194163B2 (en) * | 2014-05-22 | 2019-01-29 | Brain Corporation | Apparatus and methods for real time estimation of differential motion in live video |
US9939253B2 (en) | 2014-05-22 | 2018-04-10 | Brain Corporation | Apparatus and methods for distance estimation using multiple image sensors |
US9713982B2 (en) | 2014-05-22 | 2017-07-25 | Brain Corporation | Apparatus and methods for robotic operation using video imagery |
CA2947045C (en) | 2014-05-29 | 2022-10-18 | Hospira, Inc. | Infusion system and pump with configurable closed loop delivery rate catch-up |
EP2960906A1 (en) | 2014-06-26 | 2015-12-30 | Thomson Licensing | Method for processing a video scene and corresponding device |
US9848112B2 (en) | 2014-07-01 | 2017-12-19 | Brain Corporation | Optical detection apparatus and methods |
US10057593B2 (en) | 2014-07-08 | 2018-08-21 | Brain Corporation | Apparatus and methods for distance estimation using stereo imagery |
US9579790B2 (en) | 2014-09-17 | 2017-02-28 | Brain Corporation | Apparatus and methods for removal of learned behaviors in robots |
US9849588B2 (en) | 2014-09-17 | 2017-12-26 | Brain Corporation | Apparatus and methods for remotely controlling robotic devices |
US9860077B2 (en) | 2014-09-17 | 2018-01-02 | Brain Corporation | Home animation apparatus and methods |
US9821470B2 (en) | 2014-09-17 | 2017-11-21 | Brain Corporation | Apparatus and methods for context determination using real time sensor data |
US10055850B2 (en) | 2014-09-19 | 2018-08-21 | Brain Corporation | Salient features tracking apparatus and methods using visual initialization |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
US9881349B1 (en) | 2014-10-24 | 2018-01-30 | Gopro, Inc. | Apparatus and methods for computerized object identification |
DE102014222972A1 (de) * | 2014-11-11 | 2016-05-12 | Osram Gmbh | Verfahren zur Bildverarbeitung, Präsenzdetektor und Beleuchtungssystem |
US9426946B2 (en) | 2014-12-02 | 2016-08-30 | Brain Corporation | Computerized learning landscaping apparatus and methods |
US11344668B2 (en) | 2014-12-19 | 2022-05-31 | Icu Medical, Inc. | Infusion system with concurrent TPN/insulin infusion |
US9717387B1 (en) | 2015-02-26 | 2017-08-01 | Brain Corporation | Apparatus and methods for programming and training of robotic household appliances |
US10850024B2 (en) | 2015-03-02 | 2020-12-01 | Icu Medical, Inc. | Infusion system, device, and method having advanced infusion features |
US9840003B2 (en) | 2015-06-24 | 2017-12-12 | Brain Corporation | Apparatus and methods for safe navigation of robotic devices |
US10197664B2 (en) | 2015-07-20 | 2019-02-05 | Brain Corporation | Apparatus and methods for detection of objects using broadband signals |
JP6041331B1 (ja) * | 2016-02-26 | 2016-12-07 | 国立大学法人山口大学 | 情報処理装置と情報処理プログラム並びに情報処理方法 |
US10295972B2 (en) | 2016-04-29 | 2019-05-21 | Brain Corporation | Systems and methods to operate controllable devices with gestures and/or noises |
EP3454922B1 (en) | 2016-05-13 | 2022-04-06 | ICU Medical, Inc. | Infusion pump system with common line auto flush |
EP3468635B1 (en) | 2016-06-10 | 2024-09-25 | ICU Medical, Inc. | Acoustic flow sensor for continuous medication flow measurements and feedback control of infusion |
KR20180068578A (ko) | 2016-12-14 | 2018-06-22 | 삼성전자주식회사 | 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법 |
IL250253B (en) | 2017-01-24 | 2021-10-31 | Arbe Robotics Ltd | A method for separating targets and echoes from noise, in radar signals |
DE102017211038A1 (de) * | 2017-06-29 | 2019-01-03 | Robert Bosch Gmbh | Verfahren zum Einstellen einer Kamera |
IL255982A (en) | 2017-11-29 | 2018-01-31 | Arbe Robotics Ltd | Detection, mitigation and prevention of mutual interference between fixed water radars in vehicles |
US10089055B1 (en) | 2017-12-27 | 2018-10-02 | Icu Medical, Inc. | Synchronized display of screen content on networked devices |
IL259190A (en) | 2018-05-07 | 2018-06-28 | Arbe Robotics Ltd | System and method for frequency hopping MIMO FMCW imaging radar |
IL260694A (en) * | 2018-07-19 | 2019-01-31 | Arbe Robotics Ltd | Method and device for two-stage signal processing in a radar system |
IL260696A (en) | 2018-07-19 | 2019-01-31 | Arbe Robotics Ltd | Method and device for structured self-testing of radio frequencies in a radar system |
IL260695A (en) | 2018-07-19 | 2019-01-31 | Arbe Robotics Ltd | Method and device for eliminating waiting times in a radar system |
IL261636A (en) | 2018-09-05 | 2018-10-31 | Arbe Robotics Ltd | Deflected MIMO antenna array for vehicle imaging radars |
KR20210024862A (ko) * | 2019-08-26 | 2021-03-08 | 삼성전자주식회사 | 계층적인 피라미드를 이용하여 객체를 검출하는 객체 검출 시스템 및 이의 객체 검출 방법 |
US11278671B2 (en) | 2019-12-04 | 2022-03-22 | Icu Medical, Inc. | Infusion pump with safety sequence keypad |
IL271269A (en) | 2019-12-09 | 2021-06-30 | Arbe Robotics Ltd | Radom for a planar antenna for car radar |
US11399591B2 (en) | 2020-03-16 | 2022-08-02 | Robert Lyden | Article of footwear, method of making the same, and method of conducting retail and internet business |
US11711638B2 (en) | 2020-06-29 | 2023-07-25 | The Nielsen Company (Us), Llc | Audience monitoring systems and related methods |
WO2022020184A1 (en) | 2020-07-21 | 2022-01-27 | Icu Medical, Inc. | Fluid transfer devices and methods of use |
US11135360B1 (en) | 2020-12-07 | 2021-10-05 | Icu Medical, Inc. | Concurrent infusion with common line auto flush |
US11823476B2 (en) | 2021-05-25 | 2023-11-21 | Bank Of America Corporation | Contextual analysis for digital image processing |
US11860704B2 (en) | 2021-08-16 | 2024-01-02 | The Nielsen Company (Us), Llc | Methods and apparatus to determine user presence |
US11758223B2 (en) | 2021-12-23 | 2023-09-12 | The Nielsen Company (Us), Llc | Apparatus, systems, and methods for user presence detection for audience monitoring |
US12088882B2 (en) | 2022-08-26 | 2024-09-10 | The Nielsen Company (Us), Llc | Systems, apparatus, and related methods to estimate audience exposure based on engagement level |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US1255144A (en) * | 1916-06-28 | 1918-02-05 | John B Ekeley | Process of obtaining tungstates. |
US3373097A (en) * | 1965-02-16 | 1968-03-12 | Interior Usa | Method for separation of a metalcontaining halide phase from a gangue-containing silicate phase and electrolysis of halide phase to obtain the metal |
US3932594A (en) * | 1973-12-28 | 1976-01-13 | Union Carbide Corporation | Process for the preparation of fine grain metal carbide powders |
US3947833A (en) * | 1974-11-20 | 1976-03-30 | The United States Of America As Represented By The Secretary Of The Navy | Automatic target detection system |
US3970841A (en) * | 1974-11-25 | 1976-07-20 | Green James E | Method and apparatus for dual resolution analysis of a scene |
US4175860A (en) * | 1977-05-31 | 1979-11-27 | Rush-Presbyterian-St. Luke's Medical Center | Dual resolution method and apparatus for use in automated classification of pap smear and other samples |
US4385322A (en) * | 1978-09-01 | 1983-05-24 | View Engineering, Inc. | Pattern recognition apparatus and method |
US4620318A (en) * | 1983-04-18 | 1986-10-28 | Eye-D Development Ii Ltd. | Fovea-centered eye fundus scanner |
DE3486194T2 (de) * | 1983-06-03 | 1993-11-18 | Fondazione Pro Juventute Don C | Modular ausbaufähiges System zur Echtzeit-Verarbeitung einer TV-Anzeige, besonders brauchbar zur Koordinatenerfassung von Objekten von bekannter Form und Verfahren zur Benutzung dieses Systems bei Röntgenaufnahmen. |
GB8518803D0 (en) * | 1985-07-25 | 1985-08-29 | Rca Corp | Locating target patterns within images |
US4834963A (en) * | 1986-12-16 | 1989-05-30 | Kennametal Inc. | Macrocrystalline tungsten monocarbide powder and process for producing |
US4858000A (en) * | 1988-09-14 | 1989-08-15 | A. C. Nielsen Company | Image recognition audience measurement system and method |
-
1989
- 1989-11-06 US US07/432,013 patent/US5063603A/en not_active Expired - Lifetime
-
1990
- 1990-11-05 JP JP50078491A patent/JP3178719B2/ja not_active Expired - Fee Related
- 1990-11-05 WO PCT/US1990/006236 patent/WO1991006921A1/en active IP Right Grant
- 1990-11-05 DE DE69032326T patent/DE69032326T2/de not_active Expired - Fee Related
- 1990-11-05 ES ES91900556T patent/ES2116284T3/es not_active Expired - Lifetime
- 1990-11-05 EP EP91900556A patent/EP0499627B1/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE69032326T2 (de) | 1998-09-10 |
EP0499627A1 (en) | 1992-08-26 |
DE69032326D1 (de) | 1998-06-25 |
WO1991006921A1 (en) | 1991-05-16 |
JPH05501770A (ja) | 1993-04-02 |
US5063603A (en) | 1991-11-05 |
EP0499627B1 (en) | 1998-05-20 |
ES2116284T3 (es) | 1998-07-16 |
EP0499627A4 (en) | 1994-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3178719B2 (ja) | 動的物体認識方法及びその画像処理システム | |
US9196043B2 (en) | Image processing apparatus and method | |
EP2467805B1 (en) | Method and system for image analysis | |
KR101441333B1 (ko) | 인체 부분 검출 장치 및 그 방법 | |
US5845009A (en) | Object tracking system using statistical modeling and geometric relationship | |
US4975960A (en) | Electronic facial tracking and detection system and method and apparatus for automated speech recognition | |
US7181047B2 (en) | Methods and apparatus for identifying and localizing an area of relative movement in a scene | |
JP2007504562A (ja) | 1つの画像から虹彩認証を行う方法および装置 | |
JPH11288459A (ja) | 顔のような領域を検出する方法および装置、ならびに観察者トラッキングディスプレイ | |
KR100326203B1 (ko) | 피부색 및 움직임 자동 추적에 의한 얼굴 촬영/인식방법과 그장치 | |
EP1105842B1 (en) | Image processing apparatus | |
CN101398896B (zh) | 用于成像设备的提取有强识别力的颜色特征的设备和方法 | |
US20030052971A1 (en) | Intelligent quad display through cooperative distributed vision | |
JP3459950B2 (ja) | 顔検出及び顔追跡方法並びにその装置 | |
JPH05297152A (ja) | 物体認識装置 | |
JPH05300516A (ja) | 動画処理装置 | |
JP4264599B2 (ja) | 画像処理装置および画像処理方法 | |
JPH07140222A (ja) | 目標捕捉方式 | |
JP2002262232A (ja) | 磁気記録装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090413 Year of fee payment: 8 |
|
LAPS | Cancellation because of no payment of annual fees |