JP2809659B2 - ビデオ画像処理 - Google Patents
ビデオ画像処理Info
- Publication number
- JP2809659B2 JP2809659B2 JP63503708A JP50370888A JP2809659B2 JP 2809659 B2 JP2809659 B2 JP 2809659B2 JP 63503708 A JP63503708 A JP 63503708A JP 50370888 A JP50370888 A JP 50370888A JP 2809659 B2 JP2809659 B2 JP 2809659B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- coder
- vector
- array
- head
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000001914 filtration Methods 0.000 claims abstract 3
- 239000013598 vector Substances 0.000 claims description 37
- 238000000034 method Methods 0.000 claims description 27
- 230000033001 locomotion Effects 0.000 claims description 14
- 230000005484 gravity Effects 0.000 claims description 7
- 238000010191 image analysis Methods 0.000 claims description 6
- 238000013139 quantization Methods 0.000 claims description 4
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000003491 array Methods 0.000 claims description 3
- 230000000007 visual effect Effects 0.000 claims description 3
- 230000001747 exhibiting effect Effects 0.000 claims 2
- 239000011248 coating agent Substances 0.000 claims 1
- 238000000576 coating method Methods 0.000 claims 1
- 239000002131 composite material Substances 0.000 abstract description 3
- 230000005540 biological transmission Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 3
- PICXIOQBANWBIZ-UHFFFAOYSA-N zinc;1-oxidopyridine-2-thione Chemical class [Zn+2].[O-]N1C=CC=CC1=S.[O-]N1C=CC=CC1=S PICXIOQBANWBIZ-UHFFFAOYSA-N 0.000 description 3
- 230000003628 erosive effect Effects 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T9/00—Image coding
- G06T9/008—Vector quantisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/167—Detection; Localisation; Normalisation using comparisons between temporally consecutive images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/94—Vector quantisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/20—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Closed-Circuit Television Systems (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
- Color Television Systems (AREA)
Description
【発明の詳細な説明】 本発明は、ビデオ画像の解析および処理に関する。
ビデオ画像(動き画像に加えてファクシミリ画像のよ
うなフリーズされた画像を含むと理解されるであろう)
は、一般に関心のある少なくとも一つの対象物および関
心の少ない「背景」(そしてそれ故重要度の低い)を含
むであろう。
うなフリーズされた画像を含むと理解されるであろう)
は、一般に関心のある少なくとも一つの対象物および関
心の少ない「背景」(そしてそれ故重要度の低い)を含
むであろう。
画像を解析すること、例えば関心のある特定の対象物
の有無あるいは位置を検出すること、は、種々のアプリ
ケーションにおいてしばしば望まれる。
の有無あるいは位置を検出すること、は、種々のアプリ
ケーションにおいてしばしば望まれる。
画像伝送装置において、もしもそのシーンの重要な部
分、すなわち関心のある対象物、に関するデータが重要
でない(すなわち背景)部分よりも相対的に多くのビッ
トを用いてコード化されれば、改善された画質が達成さ
れるであろう。例えば、ビデオ電話システムにおいて、
典型的な画像は背景に対する頭部および肩部を具備し、
該頭部の顔領域が視覚的に最も重要であり、そこで、頭
部を他の部分よりも高いレートで更新して、なめらかな
頭部の動作の印象が伝えられるようにするため、肩部お
よび背景から該頭部領域を識別できるようにすることが
望まれる。頭部および肩部のシーン内で頭部を配置でき
るようにすれば、ビデオデータの空間的配置を変更し
て、視覚的な重要度をデータ内のブロックに付随させる
ことができるようにするために用いることができる。
分、すなわち関心のある対象物、に関するデータが重要
でない(すなわち背景)部分よりも相対的に多くのビッ
トを用いてコード化されれば、改善された画質が達成さ
れるであろう。例えば、ビデオ電話システムにおいて、
典型的な画像は背景に対する頭部および肩部を具備し、
該頭部の顔領域が視覚的に最も重要であり、そこで、頭
部を他の部分よりも高いレートで更新して、なめらかな
頭部の動作の印象が伝えられるようにするため、肩部お
よび背景から該頭部領域を識別できるようにすることが
望まれる。頭部および肩部のシーン内で頭部を配置でき
るようにすれば、ビデオデータの空間的配置を変更し
て、視覚的な重要度をデータ内のブロックに付随させる
ことができるようにするために用いることができる。
また、対象物の位置が時間と共に正確に追跡されれ
ば、その動きを予想することが可能となり、それによっ
て「動き補償」DPCMが可能となる。
ば、その動きを予想することが可能となり、それによっ
て「動き補償」DPCMが可能となる。
画像の異なる領域を識別する一つの方法は、ナガオに
より提案された方法(M.ナガオ、「画像認識とデータ構
造」、グラフィックランゲージ、ネイクおよびローセン
フィールド編、1972(M.Nagao−“Picture recognition
and data structure",Graphic Languages−ed Nake an
d Rossenfield,1972))を用いることである。この方法
は、ビデオ電話タイプのシステムにおいて背景に対する
頭部および肩部の画像に用いられている。髭のない被写
体の時には頭部の両側の決定にしばしば成功するが、そ
の他の場合は非常に成功しにくい。したがって、この方
法は、領域識別方法の根本原理として充分に信頼できる
とは思われない。
より提案された方法(M.ナガオ、「画像認識とデータ構
造」、グラフィックランゲージ、ネイクおよびローセン
フィールド編、1972(M.Nagao−“Picture recognition
and data structure",Graphic Languages−ed Nake an
d Rossenfield,1972))を用いることである。この方法
は、ビデオ電話タイプのシステムにおいて背景に対する
頭部および肩部の画像に用いられている。髭のない被写
体の時には頭部の両側の決定にしばしば成功するが、そ
の他の場合は非常に成功しにくい。したがって、この方
法は、領域識別方法の根本原理として充分に信頼できる
とは思われない。
在来のコーダ、例えば個別コサイン変換コーダ、は、
シーン内のデータをコード化するのに「シーン内容」情
報を用いないので、シーンの各部分は、あたかも他の部
分と同じ視覚的重要度を有しているかのように処理され
る。
シーン内のデータをコード化するのに「シーン内容」情
報を用いないので、シーンの各部分は、あたかも他の部
分と同じ視覚的重要度を有しているかのように処理され
る。
他の画像解析のアプリケーションは多種多様である
(例えば自動化された製造システム)。
(例えば自動化された製造システム)。
ベクトル量子化(VQ)を用いて伝送のためにビデオ画
像をコード化することも知られている。VQコーディング
においては、画像は初期的に画像フレームに対応するデ
ィジタルデータのアレイにより表わされる。アレイポイ
ントのブロック(「サブアレイ」)は、コード一覧表か
らのベクトルと比較され、「最小2乗法」差分基準を用
いて最もマッチするベクトルが選択される。そして、こ
のベクトルを示すコードは、サブアレイを表わすために
伝送される。受信端においては、同一のコード一覧表か
ら指示されたベクトルが選択されて、表示される。
像をコード化することも知られている。VQコーディング
においては、画像は初期的に画像フレームに対応するデ
ィジタルデータのアレイにより表わされる。アレイポイ
ントのブロック(「サブアレイ」)は、コード一覧表か
らのベクトルと比較され、「最小2乗法」差分基準を用
いて最もマッチするベクトルが選択される。そして、こ
のベクトルを示すコードは、サブアレイを表わすために
伝送される。受信端においては、同一のコード一覧表か
ら指示されたベクトルが選択されて、表示される。
しかしながら、本発明の基礎をなす原理は、(例えば
対象物位置)識別法としてVQを用いることである。本発
明の種々の観点の広がりは、添付された請求の範囲にお
いて定義される。
対象物位置)識別法としてVQを用いることである。本発
明の種々の観点の広がりは、添付された請求の範囲にお
いて定義される。
ベクトル量子化(VQ)された時、ビデオ画像の異なる
領域は、当該エントリがどの領域を表わすかを示す付随
フラグを有するVQコード一覧表において異なって提供さ
れる各エントリにて処理される。ビデオ電話における例
では、2個の異なるフラグエントリ、一方は頭部用そし
て他方はシーンの残部用、が必要とされる。
領域は、当該エントリがどの領域を表わすかを示す付随
フラグを有するVQコード一覧表において異なって提供さ
れる各エントリにて処理される。ビデオ電話における例
では、2個の異なるフラグエントリ、一方は頭部用そし
て他方はシーンの残部用、が必要とされる。
さて、以下の添付図面を参照して、背景シーンに対す
る頭部および肩部における頭部の識別に関する非限定的
な例により本発明の実施例が説明される。
る頭部および肩部における頭部の識別に関する非限定的
な例により本発明の実施例が説明される。
第1図は、本発明を実施するコーダの部分の動作の初
段を示すブロック図である。
段を示すブロック図である。
第2a〜2g図は、コード一覧表を検索するのに用いられ
るトレーニングシーケンスにおける各段階を模式的に示
す。
るトレーニングシーケンスにおける各段階を模式的に示
す。
第3図は、本発明を実施するコーダの動作を示すブロ
ック図である。
ック図である。
第4a図は、解析されるべきフレームを模式的に示す。
第4b図は、第4a図のベクトル量子化に用いられるサブ
アレイブロックを示す。
アレイブロックを示す。
第4c図は、第4b図のベクトル量子化された画像に対応
するフラグの状態を示す。
するフラグの状態を示す。
第4d図は、本発明による第4a図のフレームの解析結果
を模式的に示す。
を模式的に示す。
第5図は、本発明を実施するコーダを模式的に示す。
本発明の動作を可能とするため、「頭部」であるとフ
ラグされたベクトルを含む複合コード一覧表を提供して
おく必要がある。望ましくは、その他は「背景」とフラ
グされる。平均または与えられた話者のいずれにも「標
準の」コード一覧表を検索させることが可能であるが、
識別の柔軟性および一層の正確さを可能とするために、
このコード一覧表は、初期「トレーニング」シーケンス
の最初に検索される。以下、そのようなシーケンスをイ
ンプリメントするための望ましい方法が説明される。
ラグされたベクトルを含む複合コード一覧表を提供して
おく必要がある。望ましくは、その他は「背景」とフラ
グされる。平均または与えられた話者のいずれにも「標
準の」コード一覧表を検索させることが可能であるが、
識別の柔軟性および一層の正確さを可能とするために、
このコード一覧表は、初期「トレーニング」シーケンス
の最初に検索される。以下、そのようなシーケンスをイ
ンプリメントするための望ましい方法が説明される。
コード一覧表の「頭部」および「背景」部分を生成す
るために、いくつかの「頭部のみ」データおよび「背景
のみ」データをあいまいでなく得る必要があり、生の
(crude)初期頭部検出アルゴリズムが必要とされる。
るために、いくつかの「頭部のみ」データおよび「背景
のみ」データをあいまいでなく得る必要があり、生の
(crude)初期頭部検出アルゴリズムが必要とされる。
第1図および第2図を参照するに、頭部を検出するた
めに、頭部および肩部の画像のいくらかの隣接するフレ
ームを表わすディジタルデータが、例えば格納1におい
て、取込まれる。これらのフレームの1つが第2a図に示
される。このデータは、極端に正確である必要はなく、
むしろ典型的であるほうがよい。
めに、頭部および肩部の画像のいくらかの隣接するフレ
ームを表わすディジタルデータが、例えば格納1におい
て、取込まれる。これらのフレームの1つが第2a図に示
される。このデータは、極端に正確である必要はなく、
むしろ典型的であるほうがよい。
データシーケンス内の主な動き領域は、頭部領域に直
接的に関連しているという仮定のもとに、フレーム差分
2が各隣接するフレーム対を示すデータに施される。こ
の処理は、例えば、画像領域全体にわたるランダムノイ
ズと共に動き領域を示す各隣接対について1セットの差
分データを生ずる。
接的に関連しているという仮定のもとに、フレーム差分
2が各隣接するフレーム対を示すデータに施される。こ
の処理は、例えば、画像領域全体にわたるランダムノイ
ズと共に動き領域を示す各隣接対について1セットの差
分データを生ずる。
差分データの各セットで表わされる全ての画素(ペル
(pels))について、強度(インテンシティ)の与えら
れたスレショールド値を超える各ペルは、最大強度(25
5)にセットされ、且つ該スレショールド未満の各ペル
は、最小強度(0)にセットされる。このスレショール
ド3は、多量のランダムノイズと動き領域のいくらかを
除去する。
(pels))について、強度(インテンシティ)の与えら
れたスレショールド値を超える各ペルは、最大強度(25
5)にセットされ、且つ該スレショールド未満の各ペル
は、最小強度(0)にセットされる。このスレショール
ド3は、多量のランダムノイズと動き領域のいくらかを
除去する。
次に、動き領域の少量のみを侵食するが、残ったラン
ダムノイズの大部分を非常に効果的に除去するメディア
ンフィルタ4が、各差分データのセットに施される。
ダムノイズの大部分を非常に効果的に除去するメディア
ンフィルタ4が、各差分データのセットに施される。
この段階における各セットのデータにより表わされる
画像は、背景対頭部のコントラストが非常に高く、且つ
隣接するフレーム間の頭部の動きが1ペル以上でない限
り、めったに頭部の明確な輪郭を提供しない。しばし
ば、第2b図に示されるように、頭部の一側および頂部の
みが描出される。
画像は、背景対頭部のコントラストが非常に高く、且つ
隣接するフレーム間の頭部の動きが1ペル以上でない限
り、めったに頭部の明確な輪郭を提供しない。しばし
ば、第2b図に示されるように、頭部の一側および頂部の
みが描出される。
概して、動き領域は、頭部領域の周囲の領域に集中
(クラスタ)されるが、画像の他の領域の動きに起因す
るいくらかの隔離されたクラスタが生ずる。該隔離され
たクラスタのいくらかを除去するためにクラスタ処理5
が用いられ、1つは該データにより表わされる画像のコ
ラムにおける動態「ペル」の数を示し、1つは該データ
により表わされる画像のロウにおける動態「ペル」の数
を示す、2つの直交するヒストグラムが生成される。1
次のモーメントが計算されて、第2c図に示されるよう
に、画像の「重心」が決定される。そして、動き領域の
与えられたパーセンテージがその内部に含まれるような
寸法に、上記座標上に中心が位置される方形が生成され
る(第2d図参照)。この方形の外部に位置するペルは、
ゼロ強度にセットされる(第2e図)。方形を適切に選択
すれば、この処理により隔離されたクラスタは除去され
る。
(クラスタ)されるが、画像の他の領域の動きに起因す
るいくらかの隔離されたクラスタが生ずる。該隔離され
たクラスタのいくらかを除去するためにクラスタ処理5
が用いられ、1つは該データにより表わされる画像のコ
ラムにおける動態「ペル」の数を示し、1つは該データ
により表わされる画像のロウにおける動態「ペル」の数
を示す、2つの直交するヒストグラムが生成される。1
次のモーメントが計算されて、第2c図に示されるよう
に、画像の「重心」が決定される。そして、動き領域の
与えられたパーセンテージがその内部に含まれるような
寸法に、上記座標上に中心が位置される方形が生成され
る(第2d図参照)。この方形の外部に位置するペルは、
ゼロ強度にセットされる(第2e図)。方形を適切に選択
すれば、この処理により隔離されたクラスタは除去され
る。
妥当でない方形の発生を低減するため方形の選択には
制約が課せられる。あるフレームと次のフレームとの間
の頭部の非常に小さな動きは非常に小さな方形を生成す
るから、あるセットのデータから次への方形のサイズの
変化のレートは次のように制限される。方形の境界線の
各々は、直前のデータのセットにおける対応する境界か
ら小さな距離内に位置するように制約され、且つ方形の
サイズの変化の最大のレートは、フレーム差分エネルギ
(例えば、差分データの2乗)に結付けられ、したがっ
て、該差分エネルギが小さいならば該変化は小さく保持
され、差分エネルギが大きければ変化のレートもより大
きくなる。
制約が課せられる。あるフレームと次のフレームとの間
の頭部の非常に小さな動きは非常に小さな方形を生成す
るから、あるセットのデータから次への方形のサイズの
変化のレートは次のように制限される。方形の境界線の
各々は、直前のデータのセットにおける対応する境界か
ら小さな距離内に位置するように制約され、且つ方形の
サイズの変化の最大のレートは、フレーム差分エネルギ
(例えば、差分データの2乗)に結付けられ、したがっ
て、該差分エネルギが小さいならば該変化は小さく保持
され、差分エネルギが大きければ変化のレートもより大
きくなる。
もし必要ならば、方形−該方形が用いられる理由は定
義するのに大変少ないビット数しか必要としないからで
ある−は、第1図の6において、そして第2f図に示され
るように、全ての残りの非ゼロペルを取囲むべくデータ
の周囲に配置できる最小の方形となるように減縮され
る。この方形は、頭部の近似的なモデルを表わすと仮定
される。
義するのに大変少ないビット数しか必要としないからで
ある−は、第1図の6において、そして第2f図に示され
るように、全ての残りの非ゼロペルを取囲むべくデータ
の周囲に配置できる最小の方形となるように減縮され
る。この方形は、頭部の近似的なモデルを表わすと仮定
される。
そして、第1図の7において、最終方形の周囲に、第
2g図に示されるように、境界が生成される。この境界
は、以後いかなるデータをも取出さない排他ゾーンを定
義する。このことは、原画像の各フレームに該境界を適
用したとき、該境界の内側のデータは、排他的に頭部デ
ータとなり、該境界の外側のデータは、排他的に背景デ
ータとなることを確約する。
2g図に示されるように、境界が生成される。この境界
は、以後いかなるデータをも取出さない排他ゾーンを定
義する。このことは、原画像の各フレームに該境界を適
用したとき、該境界の内側のデータは、排他的に頭部デ
ータとなり、該境界の外側のデータは、排他的に背景デ
ータとなることを確約する。
もしも、5フレームのデータが格納1に初期的に取込
まれたならば、隣接する4対のフレームが解析され、4
セットのデータが結果として得られる。7に4つの境界
がセットされた後、頭部領域データおよび背景領域デー
タが原画像の最初の4フレームからそれぞれ抽出され、
各領域についてのVQコード一覧表8、例えば9ビット背
景コード一覧表および10ビット頭部コード一覧表8(す
なわち、コード一覧表はそれぞれ全体で2の9乗および
2の10乗のエントリを含む)を生成するためにリンド−
ブーゾ−グレイ(Linde−Buso−Grey)アルゴリズムが
施される。2つのコード一覧表は1つのコード一覧表を
形成するために組合わされ、その各エントリはその起源
を示す付随フラグを有する。
まれたならば、隣接する4対のフレームが解析され、4
セットのデータが結果として得られる。7に4つの境界
がセットされた後、頭部領域データおよび背景領域デー
タが原画像の最初の4フレームからそれぞれ抽出され、
各領域についてのVQコード一覧表8、例えば9ビット背
景コード一覧表および10ビット頭部コード一覧表8(す
なわち、コード一覧表はそれぞれ全体で2の9乗および
2の10乗のエントリを含む)を生成するためにリンド−
ブーゾ−グレイ(Linde−Buso−Grey)アルゴリズムが
施される。2つのコード一覧表は1つのコード一覧表を
形成するために組合わされ、その各エントリはその起源
を示す付随フラグを有する。
さて、第3図および第4a〜4d図を参照するに、上述の
トレーニングシーケンスが完了した後に、複合コード一
覧表が後続の画像フレームにおける頭部の配置に使用さ
れる。該VQコーダは、10でコード化される各ブロックの
セルを除き、伝送コーディングとしてVQを用いた従来の
システムにおけるのと同様に動作し、生成されるコード
は、各フレームについて頭部位置がわかるように、該ブ
ロックが「頭部」であるか「背景」であるかを示すフラ
グ(例えば第1のディジット)を含んでいる。
トレーニングシーケンスが完了した後に、複合コード一
覧表が後続の画像フレームにおける頭部の配置に使用さ
れる。該VQコーダは、10でコード化される各ブロックの
セルを除き、伝送コーディングとしてVQを用いた従来の
システムにおけるのと同様に動作し、生成されるコード
は、各フレームについて頭部位置がわかるように、該ブ
ロックが「頭部」であるか「背景」であるかを示すフラ
グ(例えば第1のディジット)を含んでいる。
もちろん、上述したようにコーダにおいてコード一覧
表が抽出されるとき、VQは(このコード一覧表が、ベク
トルの指示を伝送することによりデコーダに最初に知ら
されない限り)伝送コードとして使用され得ないことは
わかるであろう。
表が抽出されるとき、VQは(このコード一覧表が、ベク
トルの指示を伝送することによりデコーダに最初に知ら
されない限り)伝送コードとして使用され得ないことは
わかるであろう。
該量子化処理は、本質的に近似的であるので、時に
は、画像の頭部の部分からのブロックがコード一覧表の
「背景」部分からのベクトルに最も良くマッチし、ある
いはその逆となることもわかるであろう。該頭部の実際
の識別は、通常、(例えば、上述したように)浸食およ
びクラスタリング11、12を用い、分離された「頭部」ブ
ロックを無視すること、あるいは、実際の頭部として
「頭部」ブロックのうち最も大きい集団を有する領域を
指示することを含む。
は、画像の頭部の部分からのブロックがコード一覧表の
「背景」部分からのベクトルに最も良くマッチし、ある
いはその逆となることもわかるであろう。該頭部の実際
の識別は、通常、(例えば、上述したように)浸食およ
びクラスタリング11、12を用い、分離された「頭部」ブ
ロックを無視すること、あるいは、実際の頭部として
「頭部」ブロックのうち最も大きい集団を有する領域を
指示することを含む。
他の方法は、隔離された「頭部」ブロックの検出、ブ
ロックと「頭部」ベクトルとの間およびブロックと最も
良くマッチする「背景」ベクトルとの間の誤差の計測、
そしてもしも2つの値が同一(すなわち、該ブロックが
「頭部」か「背景」かということについてのあいまいさ
がある)であるならば、該ブロックを代りに「背景」に
再フラグすることを含む。
ロックと「頭部」ベクトルとの間およびブロックと最も
良くマッチする「背景」ベクトルとの間の誤差の計測、
そしてもしも2つの値が同一(すなわち、該ブロックが
「頭部」か「背景」かということについてのあいまいさ
がある)であるならば、該ブロックを代りに「背景」に
再フラグすることを含む。
もしも、頭部ブロックが散乱され過ぎているならば、
コード一覧表は頭部を特徴付けるのに不十分であるかも
知れない。この場合、コード一覧表を再生成するのに再
トレーニングシーケンスが適用されてもよい。
コード一覧表は頭部を特徴付けるのに不十分であるかも
知れない。この場合、コード一覧表を再生成するのに再
トレーニングシーケンスが適用されてもよい。
この再トレーニングシーケンスは、上述したようなシ
ーケンスよりさらに単純であるか、(単純な再定義より
もむしろ)コード一覧表の改良で良いかも知れない。例
えば、各ベクトルの発生の「正常」(すなわち、頭部領
域に集中された)に対する「不正」(すなわち散乱され
た)の数の計数値は保持され、あまりにしばしば不正に
生ずるコード一覧表ベクトルからの除去により散乱は低
減され得る。
ーケンスよりさらに単純であるか、(単純な再定義より
もむしろ)コード一覧表の改良で良いかも知れない。例
えば、各ベクトルの発生の「正常」(すなわち、頭部領
域に集中された)に対する「不正」(すなわち散乱され
た)の数の計数値は保持され、あまりにしばしば不正に
生ずるコード一覧表ベクトルからの除去により散乱は低
減され得る。
あるいは、これに代えて、「頭部」ブロックの最大の
集団を配置することにより導かれる近似的な頭部配置
が、上述と同様な方法により、新たな「頭部」コード一
覧表を生成するための領域として、使用されるかも知れ
ない。
集団を配置することにより導かれる近似的な頭部配置
が、上述と同様な方法により、新たな「頭部」コード一
覧表を生成するための領域として、使用されるかも知れ
ない。
これら後者の、各再トレーニングシーケンスからVQコ
ーダが「学習」する、アプローチは、精度の点で望まし
い。
ーダが「学習」する、アプローチは、精度の点で望まし
い。
第5図は本発明を実施する(例えばビデオ電話用の)
ビデオエンコード装置のブロック図を示す。ビデオ信号
は入力20からフレーム格納21に供給され、所望のサブア
レイのペルがさらなる処理のために受容し得るように、
個々の画素値がそれぞれの格納位置に記憶される。サブ
アレイのサイズは例えば8×8である。装置の最初の、
トレーニング、フェイズにおいて、制御ユニット−例え
ばマイクロプロセッサシステムにより適切にプログラム
される−は、上述のコード一覧表生成方法が実行され、
ベクトル(およびフラグ)がVQコード一覧表格納23に格
納される。VQ処理は、8×8サブアレイを格納されたベ
クトル、すなわち、そのようなパターンの可能性のある
最大数(2の64乗)よりも確実に少ない多数の8×8パ
ターンの、最も近いものとのマッチングを含む。
ビデオエンコード装置のブロック図を示す。ビデオ信号
は入力20からフレーム格納21に供給され、所望のサブア
レイのペルがさらなる処理のために受容し得るように、
個々の画素値がそれぞれの格納位置に記憶される。サブ
アレイのサイズは例えば8×8である。装置の最初の、
トレーニング、フェイズにおいて、制御ユニット−例え
ばマイクロプロセッサシステムにより適切にプログラム
される−は、上述のコード一覧表生成方法が実行され、
ベクトル(およびフラグ)がVQコード一覧表格納23に格
納される。VQ処理は、8×8サブアレイを格納されたベ
クトル、すなわち、そのようなパターンの可能性のある
最大数(2の64乗)よりも確実に少ない多数の8×8パ
ターンの、最も近いものとのマッチングを含む。
該装置のコーディングフェイズにおいては、フレーム
格納21から連続するサブアレイを受け、そしてこれらの
おのおのをコード一覧表格納の全てのベクトルと比較す
るVQ制御ロジック24によりマッチングが実行される。比
較の最も単純な形態は、2者の間の2乗平均差分の計算
であり、最も低い結果を与えるベクトルが最も良くマッ
チすると見なされる。VQ制御ロジックの出力は、そのよ
うに識別されたベクトルとフラグとの組合わせによるシ
ーケンスである。
格納21から連続するサブアレイを受け、そしてこれらの
おのおのをコード一覧表格納の全てのベクトルと比較す
るVQ制御ロジック24によりマッチングが実行される。比
較の最も単純な形態は、2者の間の2乗平均差分の計算
であり、最も低い結果を与えるベクトルが最も良くマッ
チすると見なされる。VQ制御ロジックの出力は、そのよ
うに識別されたベクトルとフラグとの組合わせによるシ
ーケンスである。
この例における実際のロジックは、フレーム内差分コ
ーダ25により実行される。該フレーム内差分コーダ25で
は、(差分器26において)(在来の方法で)フレーム格
納21と先行フレーム予測器27とからのペルの間のフレー
ム内差分が行われる。そのようなシステムで従来設けら
れていたように、量子化器28および出力バッファ29(デ
ータ発生の通常でないレートを一定のレートで動作する
伝送リンクとマッチング処理するための)が示されてい
る。(図示されていない)受信機は、フレーム格納内の
再構成画像を更新するために差分情報を用いる。VQ制御
ロジック24からのフラグ出力は、(もしも、必要ならば
侵食/クラスタ回路30を介して)差分コーダ25に接続さ
れる。フラグが、「頭部」情報が処理されていることを
示すときは、コーダは通常に動作する。しかしながら、
「背景」が指示されたときには、差分情報の発生がより
頻繁でなく(例えば1つおきのフレームにのみ)行われ
る。この動作は、フラグが「背景」を指示した時に、1
つおきのフレームにおいてコーディングループを遮断す
るスイッチ31により示されている。
ーダ25により実行される。該フレーム内差分コーダ25で
は、(差分器26において)(在来の方法で)フレーム格
納21と先行フレーム予測器27とからのペルの間のフレー
ム内差分が行われる。そのようなシステムで従来設けら
れていたように、量子化器28および出力バッファ29(デ
ータ発生の通常でないレートを一定のレートで動作する
伝送リンクとマッチング処理するための)が示されてい
る。(図示されていない)受信機は、フレーム格納内の
再構成画像を更新するために差分情報を用いる。VQ制御
ロジック24からのフラグ出力は、(もしも、必要ならば
侵食/クラスタ回路30を介して)差分コーダ25に接続さ
れる。フラグが、「頭部」情報が処理されていることを
示すときは、コーダは通常に動作する。しかしながら、
「背景」が指示されたときには、差分情報の発生がより
頻繁でなく(例えば1つおきのフレームにのみ)行われ
る。この動作は、フラグが「背景」を指示した時に、1
つおきのフレームにおいてコーディングループを遮断す
るスイッチ31により示されている。
上述によれば、本発明の方法を用いることにより、い
かに視覚的に特徴的な対象物または対象物群も正確に検
出され、認識され、あるいは位置確認される。
かに視覚的に特徴的な対象物または対象物群も正確に検
出され、認識され、あるいは位置確認される。
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.6,DB名) H04N 7/24 - 7/68 H04N 1/41 - 1/419 G06T 7/00 - 9/40
Claims (23)
- 【請求項1】a)ベクトル比較を使用して、画像のアレ
イを仮想的に分割して得られた、実質的に同一の形状を
有する2次元の複数のサブアレイの各々を、対象物に関
連したベクトルのサブセットを有するベクトルのコード
ブックセットからのベクトルと比較するステップであっ
て、前記サブセットの各ベクトルは、前記対象物に関連
していることを示すフラグを有するステップと、 b)実質的に同一であるときには、前記画像アレイのそ
のサブアレイを対象物に対応すると標識するステップ
と、 を具備する画像アレイを処理する方法。 - 【請求項2】上記セットは背景に対応する要素を有する
第2のサブセットも含み、且つ各ベクトルは、該ベクト
ルが対象物または背景のいずれに関連するかを示す付随
フラグを有し、各サブアレイは該フラグにより対象物に
対応するかあるいは背景に対応するかが標識される請求
の範囲1の方法。 - 【請求項3】画像内で対象物に対応すると標識されたサ
ブアレイの最大の集団を見つけることにより、対象物の
位置が識別される請求の範囲1または2の方法。 - 【請求項4】上記セットは、複数の異なる対象物の各々
に関連する要素を含む請求の範囲1〜3のいずれか1項
の複数の異なる対象物を検出する方法。 - 【請求項5】請求の範囲1〜4のいずれか1項の方法を
採用した、ビデオ画像内の人間の頭部を検出する方法。 - 【請求項6】a)請求の範囲1〜5のいずれか1項の方
法を用いて、視覚的に重要な対象物に対応するビデオ画
像領域を識別するステップと、 b)該領域のためにコーティングデータの空間的配置を
変更するステップと を具備し、それによって視覚的重要性の度合が画像の当
該領域に帰せられるようにビデオ画像信号をエンコード
する方法。 - 【請求項7】ビデオ画像信号は、対象物に対応する領域
を他の領域よりも高い割合で更新するようにエンコード
される請求の範囲6のビデオ画像信号をエンコードする
方法。 - 【請求項8】a)少なくとも対象物の一部に対応する画
像領域を識別するステップと、 b)時間的に分離された一対の画像フレーム間の相違を
解析することにより対象物に対応する画像領域が識別さ
れ、それによって対象物が検出される、該画像領域を表
わす画像データからベクトルを生成するステップと を具備し、請求の範囲1〜5のいずれか1項の動態対象
物を識別する方法に用いられるベクトルのセットを生成
する方法。 - 【請求項9】画像領域のサブアレイ群をコード一覧表か
らのベクトル群と比較し且つそれから各サブアレイにつ
いて最も良く似たベクトルを選定する、該コード一覧表
は対象物に関連するベクトルのサブセットと、背景に関
連するベクトルのサブセットとを具備し、これらベクト
ルは各々それがどのサブセットに属するかを示す付随フ
ラグを有し、それによってサブアレイとして選定された
ベクトルのフラグにより対象物を識別し得る、ように構
成されたベクトル量子化手段を具備する画像内で背景に
対して対象物を識別するための画像解析装置。 - 【請求項10】対象物に対応するとフラグ付けされた上
記サブアレイにより与えられた部分を囲む境界の位置を
決定し、それによって該画像解析装置が対象物の空間的
な広がりを識別し得るようにするためのクラスタ手段を
さらに具備する請求の範囲9の画像解析装置。 - 【請求項11】請求の範囲1〜5のいずれか1項の対象
物を識別する方法を採用した画像解析装置。 - 【請求項12】a)画像内の対象物を識別するように構
成された請求の範囲9〜11のいずれか1項の画像解析装
置と、 b)ビデオエンコードデータを上記対象物に対応する画
像領域に選択的に配置するように構成されたエンコーダ
と を具備するビデオ画像信号をエンコードするためのコー
ダ。 - 【請求項13】上記エンコーダは量子化されていない画
像をエンコードするように構成された請求の範囲12のコ
ーダ。 - 【請求項14】上記コーダは個別コサイン変換エンコー
ダである請求の範囲12のコーダ。 - 【請求項15】c)時間的に分割された画像フレーム間
で識別された対象物の位置の動きを検出し、それから次
の画像フレームにおける上記対象物の位置を予測するよ
うに構成され、それによって上記エンコーダが動き補償
DPCMエンコーダとなるような動き解析手段 をさらに具備する請求の範囲12のコーダ。 - 【請求項16】請求の範囲6または7のエンコード方法
を採用するように構成されたコーダ。 - 【請求項17】対象物にまたは背景に対応する画像の領
域を識別し、それによって各ベクトルが上記領域から抽
出されたデータから生成されるようにするための識別手
段をさらに具備する上記コード一覧表の上記サブセット
のベクトルを生成するように初期的に構成された請求の
範囲12〜16のいずれか1項のコーダ。 - 【請求項18】識別手段は、対象物に対応する画像の領
域を識別するため一対の時間的に分離された画像フレー
ムの間の相違を解析するように構成された請求の範囲17
のコーダ。 - 【請求項19】識別手段は、 a)概念的な2次元フィールド内の画像アレイエレメン
トの一対のフレームから、該2フレームにおける対応す
る位置の画像の輝度レベルの間の差異がスレショールド
の上か下かを示す該フィールド内の各位置の値を生成す
るための手段と、 b)上記スレショールド以上の差異を示すアレイエレメ
ントの上記フィールド内の重心を決定し、且つそれらア
レイエレメントの与えられた広がりを取り囲む重心周囲
の境界の位置を決定し、それによってそのように決定さ
れた境界内に存在する全ての画素が対象物に対応する画
像の領域に属すると識別されるようにするためのクラス
タ手段と を具備する請求の範囲18のコーダ。 - 【請求項20】該手段は、重心の決定に先立ち概念的な
2次元フィールド内の該アレイエレメントをメディアン
フィルタリングするためのフィルタリング手段をさらに
具備する請求の範囲19のコーダ。 - 【請求項21】上記重心周囲の境界は、有限数の厚みエ
レメントからなる請求の範囲19または20のコーダ。 - 【請求項22】上記重心周囲の境界は、方形状である請
求の範囲19,20または21のいずれか1項のコーダ。 - 【請求項23】方形状の境界は中心が重心に位置し且つ
方形の各側辺が、可能ならば、スレショールド以上の差
異を示すアレイエレメントの少なくとも一つに接するま
で内方に移動されてなる請求の範囲22のコーダ。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB8710737 | 1987-05-06 | ||
GB878710737A GB8710737D0 (en) | 1987-05-06 | 1987-05-06 | Video image encoding |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH02500079A JPH02500079A (ja) | 1990-01-11 |
JP2809659B2 true JP2809659B2 (ja) | 1998-10-15 |
Family
ID=10616913
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP63503708A Expired - Lifetime JP2809659B2 (ja) | 1987-05-06 | 1988-05-06 | ビデオ画像処理 |
Country Status (8)
Country | Link |
---|---|
US (1) | US5086480A (ja) |
EP (1) | EP0313612B1 (ja) |
JP (1) | JP2809659B2 (ja) |
AT (1) | ATE81930T1 (ja) |
CA (1) | CA1308486C (ja) |
GB (1) | GB8710737D0 (ja) |
HK (1) | HK129196A (ja) |
WO (1) | WO1988009101A1 (ja) |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4951140A (en) * | 1988-02-22 | 1990-08-21 | Kabushiki Kaisha Toshiba | Image encoding apparatus |
JP2921936B2 (ja) * | 1990-07-13 | 1999-07-19 | 株式会社東芝 | 画像監視装置 |
JPH0771288B2 (ja) * | 1990-08-24 | 1995-07-31 | 神田通信工業株式会社 | 自動視野調整方法及び装置 |
US5148477A (en) * | 1990-08-24 | 1992-09-15 | Board Of Regents Of The University Of Oklahoma | Method and apparatus for detecting and quantifying motion of a body part |
DE4028191A1 (de) * | 1990-09-05 | 1992-03-12 | Philips Patentverwaltung | Schaltungsanordnung zum erkennen eines menschlichen gesichtes |
EP0476603B1 (en) * | 1990-09-20 | 1997-06-18 | Nec Corporation | Method and apparatus for coding moving image signal |
US5243418A (en) * | 1990-11-27 | 1993-09-07 | Kabushiki Kaisha Toshiba | Display monitoring system for detecting and tracking an intruder in a monitor area |
US5218648A (en) * | 1990-12-17 | 1993-06-08 | Hughes Aircraft Company | Constellation matching system and method |
JPH04334188A (ja) * | 1991-05-08 | 1992-11-20 | Nec Corp | 動画像信号の符号化方式 |
JP3513160B2 (ja) * | 1991-12-06 | 2004-03-31 | キヤノン株式会社 | 動画像信号符号化装置及びその方法 |
FR2693291A1 (fr) * | 1992-07-01 | 1994-01-07 | Philips Electronique Lab | Sous-ensemble de décodage d'images codées transmises dans un canal à très bas débit et/ou stockées avec un taux de compression de données élevé. |
FR2689994A1 (fr) * | 1992-04-14 | 1993-10-15 | Philips Electronique Lab | Dispositif de codage d'images avec rafraîchissement des données à coder. |
US5420638A (en) * | 1992-04-14 | 1995-05-30 | U.S. Philips Corporation | Subassembly for coding images with refresh correction of the data to be coded, and subassembly for decording signals representing these images and previously coded by means of a subassembly of the former kind |
FR2690031A1 (fr) * | 1992-04-14 | 1993-10-15 | Philips Electronique Lab | Dispositif de segmentation d'images. |
US7788008B2 (en) * | 1995-06-07 | 2010-08-31 | Automotive Technologies International, Inc. | Eye monitoring system and method for vehicular occupants |
EP0648400A1 (en) * | 1992-06-29 | 1995-04-19 | BRITISH TELECOMMUNICATIONS public limited company | Coding and decoding video signals |
US5386482A (en) * | 1992-07-16 | 1995-01-31 | Scan-Optics, Inc. | Address block location method and apparatus |
US5835641A (en) * | 1992-10-14 | 1998-11-10 | Mitsubishi Denki Kabushiki Kaisha | Image pick-up apparatus for detecting and enlarging registered objects |
JP3133517B2 (ja) * | 1992-10-15 | 2001-02-13 | シャープ株式会社 | 画像領域検出装置、該画像検出装置を用いた画像符号化装置 |
WO1994017636A1 (en) * | 1993-01-29 | 1994-08-04 | Bell Communications Research, Inc. | Automatic tracking camera control system |
GB9308952D0 (en) * | 1993-04-30 | 1993-06-16 | Philips Electronics Uk Ltd | Tracking objects in video sequences |
CA2119327A1 (en) * | 1993-07-19 | 1995-01-20 | David Crawford Gibbon | Method and means for detecting people in image sequences |
US7859551B2 (en) * | 1993-10-15 | 2010-12-28 | Bulman Richard L | Object customization and presentation system |
US5623587A (en) * | 1993-10-15 | 1997-04-22 | Kideo Productions, Inc. | Method and apparatus for producing an electronic image |
GB2283876B (en) * | 1993-11-09 | 1998-06-24 | Matsushita Electric Ind Co Ltd | Encoding and decoding code sequences and frames |
US5512939A (en) * | 1994-04-06 | 1996-04-30 | At&T Corp. | Low bit rate audio-visual communication system having integrated perceptual speech and video coding |
US5557298A (en) * | 1994-05-26 | 1996-09-17 | Hughes Aircraft Company | Method for specifying a video window's boundary coordinates to partition a video signal and compress its components |
CA2145914A1 (en) * | 1994-05-27 | 1995-11-28 | Alexandros Eleftheriadis | Model-assisted coding of video sequences at low bit rates |
US6707484B1 (en) | 1994-07-28 | 2004-03-16 | Semiconductor Energy Laboratory Co., Ltd. | Information processing system |
JP3167865B2 (ja) * | 1994-07-28 | 2001-05-21 | 株式会社半導体エネルギー研究所 | 情報処理装置 |
EP1098527A1 (en) * | 1994-11-04 | 2001-05-09 | Matsushita Electric Industrial Co., Ltd. | Picture coding apparatus and decoding apparatus |
ZA959492B (en) * | 1994-12-21 | 1996-07-10 | Eastman Kodak Co | Method and apparatus for the formation of standardised image templates |
ZA959491B (en) * | 1994-12-21 | 1996-06-29 | Eastman Kodak Co | Method for compressing and decompressing standardized portait images |
US5610995A (en) * | 1995-06-06 | 1997-03-11 | United Parcel Service Of America, Inc. | Method and apparatus for compressing images containing optical symbols |
US5812787A (en) * | 1995-06-30 | 1998-09-22 | Intel Corporation | Video coding scheme with foreground/background separation |
US6307962B1 (en) * | 1995-09-01 | 2001-10-23 | The University Of Rochester | Document data compression system which automatically segments documents and generates compressed smart documents therefrom |
US5889891A (en) * | 1995-11-21 | 1999-03-30 | Regents Of The University Of California | Universal codebook vector quantization with constrained storage |
US5764803A (en) * | 1996-04-03 | 1998-06-09 | Lucent Technologies Inc. | Motion-adaptive modelling of scene content for very low bit rate model-assisted coding of video sequences |
US6078619A (en) * | 1996-09-12 | 2000-06-20 | University Of Bath | Object-oriented video system |
DE69713779T2 (de) * | 1996-09-12 | 2002-10-17 | University Of Bath, Bath | Objektorientiertes videosystem |
AU722393B2 (en) * | 1996-11-07 | 2000-08-03 | Broderbund Software, Inc. | System for adaptive animation compression |
KR100251051B1 (ko) * | 1997-07-14 | 2000-04-15 | 윤종용 | 임의 형상 부호화 방법 |
US6173069B1 (en) * | 1998-01-09 | 2001-01-09 | Sharp Laboratories Of America, Inc. | Method for adapting quantization in video coding using face detection and visual eccentricity weighting |
JP3765923B2 (ja) | 1998-02-26 | 2006-04-12 | シャープ株式会社 | ハードウェア合成方法およびハードウェア合成装置並びにハードウェア合成プログラムを記録した記録媒体 |
DE69907672T2 (de) * | 1998-06-05 | 2004-04-08 | Innomedia Pte Ltd. | Verfahren und vorrichtung zur extraktion des hintergrunds zwecks verringerung der anzahl codierter blöcke bei der videokodierung |
US6404900B1 (en) * | 1998-06-22 | 2002-06-11 | Sharp Laboratories Of America, Inc. | Method for robust human face tracking in presence of multiple persons |
WO2000016243A1 (en) * | 1998-09-10 | 2000-03-23 | Mate - Media Access Technologies Ltd. | Method of face indexing for efficient browsing and searching ofp eople in video |
US6549652B1 (en) | 1998-09-11 | 2003-04-15 | Cirrus Logic, Inc. | Method and apparatus for reducing noise during lossy transformation processes |
US6310974B1 (en) | 1998-10-01 | 2001-10-30 | Sharewave, Inc. | Method and apparatus for digital data compression |
US7158681B2 (en) * | 1998-10-01 | 2007-01-02 | Cirrus Logic, Inc. | Feedback scheme for video compression system |
JP2000293687A (ja) * | 1999-02-02 | 2000-10-20 | Minolta Co Ltd | 3次元形状データ処理装置および3次元形状データ処理方法 |
US7005985B1 (en) * | 1999-07-20 | 2006-02-28 | Axcess, Inc. | Radio frequency identification system and method |
EP1109409A3 (en) * | 1999-12-17 | 2011-11-30 | Canon Kabushiki Kaisha | Digital signal coding with division into tiles |
US6940545B1 (en) * | 2000-02-28 | 2005-09-06 | Eastman Kodak Company | Face detecting camera and method |
US7768546B1 (en) | 2000-05-12 | 2010-08-03 | Axcess International, Inc. | Integrated security system and method |
EP1250005A1 (en) * | 2001-04-12 | 2002-10-16 | BRITISH TELECOMMUNICATIONS public limited company | Video communication with feedback of the caller's position relative to the camera |
US7257268B2 (en) * | 2003-02-28 | 2007-08-14 | Aperio Technologies, Inc. | Systems and methods for image pattern recognition |
US7136506B2 (en) * | 2003-03-03 | 2006-11-14 | Lockheed Martin Corporation | Correlation based in frame video tracker |
US7379559B2 (en) * | 2003-05-28 | 2008-05-27 | Trw Automotive U.S. Llc | Method and apparatus for determining an occupant's head location in an actuatable occupant restraining system |
KR100543706B1 (ko) * | 2003-11-28 | 2006-01-20 | 삼성전자주식회사 | 비젼기반 사람 검출방법 및 장치 |
US20050175243A1 (en) * | 2004-02-05 | 2005-08-11 | Trw Automotive U.S. Llc | Method and apparatus for classifying image data using classifier grid models |
US7471832B2 (en) * | 2004-02-24 | 2008-12-30 | Trw Automotive U.S. Llc | Method and apparatus for arbitrating outputs from multiple pattern recognition classifiers |
US20050196015A1 (en) * | 2004-03-02 | 2005-09-08 | Trw Automotive U.S. Llc | Method and apparatus for tracking head candidate locations in an actuatable occupant restraining system |
US7841120B2 (en) | 2004-03-22 | 2010-11-30 | Wilcox Industries Corp. | Hand grip apparatus for firearm |
WO2007103254A2 (en) * | 2006-03-02 | 2007-09-13 | Axcess International Inc. | System and method for determining location, directionality, and velocity of rfid tags |
US20070285241A1 (en) * | 2006-03-20 | 2007-12-13 | Axcess International Inc. | Multi-Tag Tracking Systems and Methods |
WO2007133690A2 (en) * | 2006-05-11 | 2007-11-22 | Axcess International Inc. | Radio frequency identification (rfid) tag antenna design |
US8638194B2 (en) * | 2008-07-25 | 2014-01-28 | Axcess International, Inc. | Multiple radio frequency identification (RFID) tag wireless wide area network (WWAN) protocol |
CN103004228A (zh) * | 2010-07-26 | 2013-03-27 | 皇家飞利浦电子股份有限公司 | 获取关键词用于搜索 |
US8364865B2 (en) | 2010-09-28 | 2013-01-29 | Microsoft Corporation | Data simulation using host data storage chain |
CN104484418B (zh) * | 2014-12-17 | 2017-10-31 | 中国科学技术大学 | 一种基于双分辨率的特征量化方法及系统 |
US10997395B2 (en) * | 2017-08-14 | 2021-05-04 | Amazon Technologies, Inc. | Selective identity recognition utilizing object tracking |
US11675428B2 (en) * | 2018-03-29 | 2023-06-13 | Tobii Ab | Determining a gaze direction using depth information |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
SE365325B (ja) * | 1971-11-04 | 1974-03-18 | Rothfjell R | |
US3761613A (en) * | 1972-06-20 | 1973-09-25 | Bell Telephone Labor Inc | Dual mode video encoder |
GB1545117A (en) * | 1976-05-25 | 1979-05-02 | Nat Res Dev | Comparison apparatus eg for use in character recognition |
SE422714B (sv) * | 1979-01-16 | 1982-03-22 | Ibm Svenska Ab | Anordning med styrdator for optisk teckenlosning, vilken styrdator bl a bereknar startpunkter for identifiering av ett tecken |
JPS5923467B2 (ja) * | 1979-04-16 | 1984-06-02 | 株式会社日立製作所 | 位置検出方法 |
US4700401A (en) * | 1983-02-28 | 1987-10-13 | Dest Corporation | Method and apparatus for character recognition employing a dead-band correlator |
FR2551290B1 (fr) * | 1983-08-30 | 1985-10-11 | Thomson Csf | Procede et dispositif de detection de points en mouvement dans une image de television pour systemes de television numerique a compression de debit a rafraichissement conditionnel |
JPS60152904A (ja) * | 1984-01-20 | 1985-08-12 | Nippon Denso Co Ltd | 車両運転者位置認識装置 |
GB8528143D0 (en) * | 1985-11-14 | 1985-12-18 | British Telecomm | Image encoding & synthesis |
-
1987
- 1987-05-06 GB GB878710737A patent/GB8710737D0/en active Pending
-
1988
- 1988-05-06 WO PCT/GB1988/000357 patent/WO1988009101A1/en active IP Right Grant
- 1988-05-06 CA CA000566156A patent/CA1308486C/en not_active Expired - Lifetime
- 1988-05-06 AT AT88903903T patent/ATE81930T1/de not_active IP Right Cessation
- 1988-05-06 EP EP88903903A patent/EP0313612B1/en not_active Expired - Lifetime
- 1988-05-06 JP JP63503708A patent/JP2809659B2/ja not_active Expired - Lifetime
-
1990
- 1990-10-05 US US07/594,670 patent/US5086480A/en not_active Expired - Lifetime
-
1996
- 1996-07-18 HK HK129196A patent/HK129196A/xx not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
HK129196A (en) | 1996-07-26 |
ATE81930T1 (de) | 1992-11-15 |
CA1308486C (en) | 1992-10-06 |
EP0313612A1 (en) | 1989-05-03 |
EP0313612B1 (en) | 1992-10-28 |
JPH02500079A (ja) | 1990-01-11 |
WO1988009101A1 (en) | 1988-11-17 |
GB8710737D0 (en) | 1987-06-10 |
US5086480A (en) | 1992-02-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2809659B2 (ja) | ビデオ画像処理 | |
KR101942808B1 (ko) | 객체 이미지 인식 dcnn 기반 cctv 영상분석장치 | |
CN110225341B (zh) | 一种任务驱动的码流结构化图像编码方法 | |
KR102194499B1 (ko) | 객체 이미지 인식 dcnn 기반 cctv 영상분석장치 및 그 장치의 구동방법 | |
US10728570B2 (en) | Apparatus and methods for real time estimation of differential motion in live video | |
CN104954791B (zh) | 矿井无线分布式视频编码中的关键帧实时选取方法 | |
KR0178231B1 (ko) | 계층적인 움직임 추정 기법을 이용하는 움직임 벡터 검출 방법 및 장치 | |
JP2020508010A (ja) | 画像処理およびビデオ圧縮方法 | |
CN114363623A (zh) | 图像处理方法、装置、介质及电子设备 | |
JPH07222145A (ja) | 画像符号化装置 | |
JP2006506726A (ja) | テンプレート予測を用いた画像のセグメント化 | |
US20130279598A1 (en) | Method and Apparatus For Video Compression of Stationary Scenes | |
CN112104869B (zh) | 一种视频大数据存储及转码优化系统 | |
dos Santos et al. | CV-C3D: action recognition on compressed videos with convolutional 3d networks | |
CN116233479B (zh) | 基于数据处理的直播信息内容审核系统及方法 | |
CN1488224A (zh) | 事件的特征提取和检测以及视频序列中活动的时间变化 | |
Pokrajac et al. | Spatiotemporal blocks-based moving objects identification and tracking | |
US20110129012A1 (en) | Video Data Compression | |
CN114359333A (zh) | 运动目标提取方法、装置、计算机设备和存储介质 | |
KR100453222B1 (ko) | 카메라 움직임 판별 장치 및 방법 | |
Ouyang et al. | The comparison and analysis of extracting video key frame | |
KR19980036073A (ko) | 움직임 벡터 검출 방법 및 장치 | |
CN108024113B (zh) | 一种目标占比自适应的压缩域小目标跟踪方法 | |
JP3175914B2 (ja) | 画像符号化方法および画像符号化装置 | |
JP2916057B2 (ja) | 動画像の顔領域抽出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070731 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080731 Year of fee payment: 10 |
|
EXPY | Cancellation because of completion of term | ||
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080731 Year of fee payment: 10 |