JP6026007B2 - ビデオモーション推定モジュールを用いた加速対象検出フィルタ - Google Patents
ビデオモーション推定モジュールを用いた加速対象検出フィルタ Download PDFInfo
- Publication number
- JP6026007B2 JP6026007B2 JP2015545630A JP2015545630A JP6026007B2 JP 6026007 B2 JP6026007 B2 JP 6026007B2 JP 2015545630 A JP2015545630 A JP 2015545630A JP 2015545630 A JP2015545630 A JP 2015545630A JP 6026007 B2 JP6026007 B2 JP 6026007B2
- Authority
- JP
- Japan
- Prior art keywords
- region
- vector
- target candidate
- processing unit
- stage
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7747—Organisation of the process, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/955—Hardware or software architectures specially adapted for image or video understanding using specific electronic processors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
- G06F2218/16—Classification; Matching by matching signal segments
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Description
Y = SUM { weight(i) × ABS [ curr block(i) - ref block(i) ] } (1)
ただし、Yは計算結果であってよく、SUMはiについての総和関数であってよく、iはカウンタ変数(例えば、カウンタ変数iは、評価されるピクセルの総数であるnを用いて、1からnまで走ってよい)であってよく、ABSは絶対値関数であってよく、weightは加重項であってよく、curr blockは現在のブロックであってよく、ref blockは参照ブロックであってよい。理解されるように、動きベクトルおよび複数のビデオコーディングコンテキストにおいて、そのような計算は、現在のブロックと参照ブロックとの間の加重差の程度を提供してよい。加重項が用いられない場合(すなわち、1の値が与えられる場合)、計算は、複数のブロックの類似の程度(すなわち、curr blockがref blockにどれだけ類似するかの程度)を提供する。加重項は、これに関連して、異なる重要性(複数可)を、画像またはビデオの複数のフレームの異なるエリアまたは複数の領域に導入してよい。
Claims (28)
- 対象検出のコンピュータ実装方法であって、
入力画像を受信する段階と、
前記入力画像の領域を決定する段階と、
前記領域を対象候補領域として分類する、または前記領域をリジェクトするために、グラフィクス処理ユニットのビデオモーション推定モジュールを介して、線形分類器を前記入力画像の前記領域に適用する段階と、
前記領域が対象候補領域として分類されると、前記領域をカスケードフィルタステージ対象候補領域として分類する、または前記領域をリジェクトするために、前記領域をカスケードフィルタモジュールに転送し、前記領域を前記カスケードフィルタモジュールを介して処理する段階と、
前記領域がカスケードフィルタステージ対象候補領域として分類されると、マージされた領域を形成するために、前記領域を、カスケードフィルタステージ対象候補領域として分類される第2の領域とマージする段階と、
前記マージされた領域上で対象認識を実行する段階と、
を備える方法。 - 前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して前記線形分類器を前記領域に適用する段階は、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定する段階と、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定する段階と、
前記結果値を閾値と比較する段階と、
を含む、請求項1に記載の方法。 - 前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して前記線形分類器を前記領域に適用する段階は、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定する段階であり、前記基準ベクトルは、ゼロ値パッチ、対象の平均、またはランダムな代表対象のうちの少なくとも1つを表す、段階と、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定する段階と、
前記結果値を閾値と比較する段階と、
を含む、請求項1に記載の方法。 - 前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して前記線形分類器を前記領域に適用する段階は、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定する段階と、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定する段階であり、前記重みベクトルは、事前訓練された重みベクトル、標準偏差の逆数で事前訓練された重みベクトル、線形判別で事前訓練された重みベクトル、またはサポートベクトルマシンで事前訓練された重みベクトルのうちの少なくとも1つを含む、段階と、
前記結果値を閾値と比較する段階と、
を含む、請求項1に記載の方法。 - 前記カスケードフィルタモジュールは、7ステージカスケードフィルタを有し、前記カスケードフィルタは、ブーストカスケードフィルタ、Viola−Jonesカスケードフィルタ、または特徴型分類を実装するViola−Jonesカスケードフィルタのうちの少なくとも1つを有する、請求項1に記載の方法。
- 前記対象認識を実行する段階は、前記領域内の対象を識別する段階を含む、請求項1に記載の方法。
- 前記対象認識を実行する段階は、前記領域内の対象を識別する段階を含み、前記対象は、顔、目、ランドマーク、書き込まれた文字、人間、または自動車のうちの少なくとも1つを有する、請求項1に記載の方法。
- 対象検出のコンピュータ実装方法であって、
入力画像を受信する段階と、
前記入力画像の領域を決定する段階と、
前記領域を対象候補領域として分類する、または前記領域をリジェクトするために、グラフィクス処理ユニットのビデオモーション推定モジュールを介して、線形分類器を前記入力画像の前記領域に適用する段階と、
前記領域が対象候補領域として分類されると、前記領域を第2ステージ対象候補領域として分類する、または前記領域をリジェクトするために、前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して、第2線形分類器を前記領域に適用する段階と、
前記領域が第2ステージ対象候補領域として分類されると、前記領域を第3ステージ対象候補領域として分類する、または前記領域をリジェクトするために、前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して、第3線形分類器を前記領域に適用する段階と、
前記領域が第3ステージ対象候補領域として分類されると、前記領域をカスケードフィルタステージ対象候補領域として分類する、または前記領域をリジェクトするために、前記領域をカスケードフィルタモジュールに転送し、前記領域を前記カスケードフィルタモジュールを介して処理する段階と、
前記領域がカスケードフィルタステージ対象候補領域として分類されると、マージされた領域を形成するために、前記領域を、カスケードフィルタステージ対象候補領域として分類される第2の領域とマージする段階と、
前記マージされた領域が形成されると、前記マージされた領域上で対象認識を実行する段階と、
をさらに備える方法。 - 前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して前記線形分類器を前記領域に適用する段階は、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定する段階であり、前記基準ベクトルは、ゼロ値パッチ、対象の平均、またはランダムな代表対象のうちの少なくとも1つを表す、段階と、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定する段階であり、前記重みベクトルは、事前訓練された重みベクトル、標準偏差の逆数で事前訓練された重みベクトル、線形判別で事前訓練された重みベクトル、またはサポートベクトルマシンで事前訓練された重みベクトルのうちの少なくとも1つを含む、段階と、
前記結果値を閾値と比較する段階と、
を含む、請求項8に記載の方法。 - 前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して、ビデオの動きベクトルの推定を決定する段階をさらに備える、請求項1又は8に記載の方法。
- 前記入力画像は、画像ファイルまたはビデオフレームのうちの少なくとも一方を含む、請求項1又は8に記載の方法。
- 対象検出のコンピュータ実装方法であって、
入力画像を受信する段階と、
前記入力画像の領域を決定する段階と、
前記領域を対象候補領域として分類する、または前記領域をリジェクトするために、グラフィクス処理ユニットのビデオモーション推定モジュールを介して、線形分類器を前記入力画像の前記領域に適用する段階と、
前記領域が対象候補領域として分類されると、前記領域を第2ステージ対象候補領域として分類する、または前記領域をリジェクトするために、前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して、第2線形分類器を前記領域に適用する段階と、
前記領域が第2ステージ対象候補領域として分類されると、前記領域を第3ステージ対象候補領域として分類する、または前記領域をリジェクトするために、前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して、第3線形分類器を前記領域に適用する段階と、
前記領域が第3ステージ対象候補領域として分類されると、前記領域をカスケードフィルタステージ対象候補領域として分類する、または前記領域をリジェクトするために、前記領域をカスケードフィルタモジュールに転送し、前記領域を前記カスケードフィルタモジュールを介して処理する段階であり、前記カスケードフィルタモジュールは、7ステージカスケードフィルタを有し、前記カスケードフィルタは、ブーストカスケードフィルタ、Viola−Jonesカスケードフィルタ、または特徴型分類を実装するViola−Jonesカスケードフィルタのうちの少なくとも1つを有する、段階と、
前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して、ビデオの動きベクトルの推定を決定する段階と、
前記領域がカスケードフィルタステージ対象候補領域として分類されると、マージされた領域を形成するために、前記領域を、カスケードフィルタステージ対象候補領域として分類される第2の領域とマージする段階と、
前記領域がカスケードフィルタ対象候補領域として分類されると、前記領域上で対象認識を実行する段階であり、前記対象認識を実行する段階は、前記領域内の対象を識別する段階を含み、前記対象は、顔、目、ランドマーク、書き込まれた文字、人間、または自動車のうちの少なくとも1つを有する、段階と、
前記マージされた領域が形成されると、前記マージされた領域上で対象認識を実行する段階と、をさらに備え、
前記グラフィクス処理ユニットの前記ビデオモーション推定モジュールを介して前記線形分類器を前記領域に適用する段階は、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定する段階であり、前記基準ベクトルは、ゼロ値パッチ、対象の平均、またはランダムな代表対象のうちの少なくとも1つを表す、段階と、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定する段階であり、前記重みベクトルは、事前訓練された重みベクトル、標準偏差の逆数で事前訓練された重みベクトル、線形判別で事前訓練された重みベクトル、またはサポートベクトルマシンで事前訓練された重みベクトルのうちの少なくとも1つを含む、段階と、
前記結果値を閾値と比較する段階と、を含み、
前記入力画像は、画像ファイルまたはビデオフレームのうちの少なくとも一方を含み、
前記カスケードフィルタモジュールは、前記グラフィクス処理ユニットまたは中央処理ユニットのうちの少なくとも一方を介して実装され、
前記1または複数の対象認識候補領域上で前記対象認識を実行する段階は、前記グラフィクス処理ユニットまたは前記中央処理ユニットのうちの少なくとも一方を介して前記対象認識を実行する段階を含む方法。 - コンピュータ上の対象検出のシステムであって、
入力画像の領域を決定し、前記入力画像の前記領域に線形分類器を適用して、前記領域を対象候補領域として分類する、または前記領域をリジェクトするビデオモーション推定モジュールを含むグラフィクス処理ユニットと、
前記グラフィクス処理ユニットに通信可能に結合される1または複数のプロセッサと、
前記1または複数のプロセッサに通信可能に結合される1または複数のメモリ記憶装置と、
前記領域をカスケードフィルタステージ対象候補領域として分類する、または前記領域をリジェクトするカスケードフィルタモジュールと、
前記領域を、カスケードフィルタステージ対象候補領域として分類される第2の領域とマージし、前記マージされた領域上で対象認識を実行する対象認識モジュールと、
を備えるシステム。 - 前記ビデオモーション推定モジュールは、前記線形分類器を前記領域に適用して、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定し、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定し、
前記結果値を閾値と比較することにより、前記領域を対象候補領域として分類する、または前記領域をリジェクトする、請求項13に記載のシステム。 - 前記ビデオモーション推定モジュールは、前記線形分類器を前記領域に適用して、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定し、前記基準ベクトルは、ゼロ値パッチ、対象の平均、またはランダムな代表対象のうちの少なくとも1つを表し、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定し、前記重みベクトルは、事前訓練された重みベクトル、標準偏差の逆数で事前訓練された重みベクトル、線形判別で事前訓練された重みベクトル、またはサポートベクトルマシンで事前訓練された重みベクトルのうちの少なくとも1つを含み、
前記結果値を閾値と比較することにより、前記領域を対象候補領域として分類する、または前記領域をリジェクトする、請求項13に記載のシステム。 - 前記ビデオモーション推定モジュールは、さらに、
前記領域が対象候補領域として分類されると、第2線形分類器を前記領域に適用して、前記領域を第2ステージ対象候補領域として分類する、または前記領域をリジェクトし、
前記領域が第2ステージ対象候補領域として分類されると、第3線形分類器を前記領域に適用して、前記領域を第3ステージ対象候補領域として分類する、または前記領域をリジェクトする、
請求項13に記載のシステム。 - 前記ビデオモーション推定モジュールは、さらに、
前記領域が対象候補領域として分類されると、第2線形分類器を前記領域に適用して、前記領域を第2ステージ対象候補領域として分類する、または前記領域をリジェクトし、
前記領域が第2ステージ対象候補領域として分類されると、第3線形分類器を前記領域に適用して、前記領域を第3ステージ対象候補領域として分類する、または前記領域をリジェクトし、
前記ビデオモーション推定モジュールは、前記線形分類器を前記領域に適用して、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定し、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定し、
前記結果値を閾値と比較することにより、前記領域を対象候補領域として分類する、または前記領域をリジェクトする、請求項13に記載のシステム。 - 前記カスケードフィルタモジュールは、7ステージカスケードフィルタを有し、前記カスケードフィルタは、ブーストカスケードフィルタ、Viola−Jonesカスケードフィルタ、または特徴型分類を実装するViola−Jonesカスケードフィルタのうちの少なくとも1つを有する、請求項13に記載のシステム。
- 前記対象認識モジュールは、前記領域内の対象を識別し、前記対象は、顔、目、ランドマーク、書き込まれた文字、人間、または自動車のうちの少なくとも1つを有する、請求項13に記載のシステム。
- 前記ビデオモーション推定モジュールは、さらに、
前記領域が対象候補領域として分類されると、第2線形分類器を前記領域に適用して、前記領域を第2ステージ対象候補領域として分類する、または前記領域をリジェクトし、
前記領域が第2ステージ対象候補領域として分類されると、第3線形分類器を前記領域に適用して、前記領域を第3ステージ対象候補領域として分類する、または前記領域をリジェクトする、
請求項13に記載のシステム。 - 前記対象認識モジュールは、前記領域内の対象を識別し、前記対象は、顔、目、ランドマーク、書き込まれた文字、人間、または自動車のうちの少なくとも1つを有し、
前記ビデオモーション推定モジュールは、さらに、
前記領域が対象候補領域として分類されると、第2線形分類器を前記領域に適用して、前記領域を第2ステージ対象候補領域として分類する、または前記領域をリジェクトし、
前記領域が第2ステージ対象候補領域として分類されると、第3線形分類器を前記領域に適用して、前記領域を第3ステージ対象候補領域として分類する、または前記領域をリジェクトする、
請求項13に記載のシステム。 - 前記ビデオモーション推定モジュールは、さらに、ビデオの動きベクトルを推定する、請求項13に記載のシステム。
- 前記カスケードフィルタモジュールは、前記グラフィクス処理ユニットまたは前記1または複数のプロセッサのうちの少なくとも一方を介して実装される、請求項13に記載のシステム。
- 前記カスケードフィルタモジュールは、前記グラフィクス処理ユニットまたは前記1または複数のプロセッサのうちの少なくとも一方を介して実装され、前記対象認識モジュールは、前記グラフィクス処理ユニットまたは前記1または複数のプロセッサのうちの少なくとも一方を介して実装される、
請求項13に記載のシステム。 - 前記グラフィクス処理ユニット、前記1または複数のプロセッサ、および前記1または複数のメモリ記憶装置は、システムオンチップを有する、請求項13に記載のシステム。
- 前記カスケードフィルタモジュールは、7ステージカスケードフィルタを有し、前記カスケードフィルタは、ブーストカスケードフィルタ、Viola−Jonesカスケードフィルタ、または特徴型分類を実装するViola−Jonesカスケードフィルタのうちの少なくとも1つを有し、
前記対象認識モジュールは、前記領域内の対象を識別し、前記対象は、顔、目、ランドマーク、書き込まれた文字、人間、または自動車のうちの少なくとも1つを有し、
前記ビデオモーション推定モジュールは、前記線形分類器を前記領域に適用して、
前記領域を表わすベクトルと基準ベクトルとの間の絶対値の差に基づいて、絶対値の差ベクトルを決定し、前記基準ベクトルは、ゼロ値パッチ、対象の平均、またはランダムな代表対象のうちの少なくとも1つを表し、
前記絶対値の差ベクトルと重みベクトルとのドット積に基づいて結果値を決定し、前記重みベクトルは、事前訓練された重みベクトル、標準偏差の逆数で事前訓練された重みベクトル、線形判別で事前訓練された重みベクトル、またはサポートベクトルマシンで事前訓練された重みベクトルのうちの少なくとも1つを含み、
前記結果値を閾値と比較することにより、前記領域を対象候補領域として分類し、または前記領域をリジェクトし、
前記ビデオモーション推定モジュールは、さらに、
前記領域が対象候補領域として分類されると、第2線形分類器を前記領域に適用して、前記領域を第2ステージ対象候補領域として分類する、または前記領域をリジェクトし、
前記領域が第2ステージ対象候補領域として分類されると、第3線形分類器を前記領域に適用して、前記領域を第3ステージ対象候補領域として分類する、または前記領域をリジェクトし、
前記ビデオモーション推定モジュールは、さらに、ビデオの動きベクトルを推定し、
前記カスケードフィルタモジュールは、前記グラフィクス処理ユニットまたは前記1または複数のプロセッサのうちの少なくとも一方を介して実装され、
前記対象認識モジュールは、前記グラフィクス処理ユニットまたは前記1または複数のプロセッサのうちの少なくとも一方を介して実装され、
前記グラフィクス処理ユニット、前記1または複数のプロセッサ、および前記1または複数のメモリ記憶装置は、システムオンチップを有し、
前記入力画像は、画像ファイルまたはビデオフレームのうちの少なくとも一方を含む、
請求項13に記載のシステム。 - コンピュータに、請求項1から12のいずれか一項に記載の方法を実行させるプログラム。
- 請求項1から12のいずれか一項に記載の方法を実行する手段を備える装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2012/087017 WO2014094275A1 (en) | 2012-12-20 | 2012-12-20 | Accelerated object detection filter using a video motion estimation module |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015536517A JP2015536517A (ja) | 2015-12-21 |
JP6026007B2 true JP6026007B2 (ja) | 2016-11-16 |
Family
ID=50977564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015545630A Expired - Fee Related JP6026007B2 (ja) | 2012-12-20 | 2012-12-20 | ビデオモーション推定モジュールを用いた加速対象検出フィルタ |
Country Status (6)
Country | Link |
---|---|
US (1) | US9141855B2 (ja) |
EP (1) | EP2936383A4 (ja) |
JP (1) | JP6026007B2 (ja) |
CN (1) | CN104781828B (ja) |
TW (1) | TWI541762B (ja) |
WO (1) | WO2014094275A1 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5981023B2 (ja) * | 2013-01-06 | 2016-08-31 | インテル コーポレイション | タッチ・データの分散前処理及びディスプレイ領域制御のための方法、装置、及びシステム |
CN105303163B (zh) * | 2015-09-22 | 2019-03-01 | 深圳市华尊科技股份有限公司 | 一种目标检测的方法及检测装置 |
US10275684B2 (en) * | 2015-11-04 | 2019-04-30 | Samsung Electronics Co., Ltd. | Authentication method and apparatus, and method and apparatus for training a recognizer |
US10152630B2 (en) | 2016-08-09 | 2018-12-11 | Qualcomm Incorporated | Methods and systems of performing blob filtering in video analytics |
US11190335B2 (en) * | 2018-01-23 | 2021-11-30 | Intel Corporation | Method and apparatus for performing non-unique data pattern detection and alignment in a receiver implemented on a field programmable gate array |
JP6977624B2 (ja) * | 2018-03-07 | 2021-12-08 | オムロン株式会社 | 物体検出装置、物体検出方法、およびプログラム |
US10796157B2 (en) * | 2018-03-13 | 2020-10-06 | Mediatek Inc. | Hierarchical object detection and selection |
CN108958474A (zh) * | 2018-05-29 | 2018-12-07 | 西北工业大学 | 一种基于误差权重的动作识别多传感信息融合方法 |
US11373063B2 (en) * | 2018-12-10 | 2022-06-28 | International Business Machines Corporation | System and method for staged ensemble classification |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61145599A (ja) * | 1984-12-19 | 1986-07-03 | 日本電気株式会社 | 連続音声認識装置 |
US6167390A (en) * | 1993-12-08 | 2000-12-26 | 3M Innovative Properties Company | Facet classification neural network |
US7508990B2 (en) * | 2004-07-30 | 2009-03-24 | Euclid Discoveries, Llc | Apparatus and method for processing video data |
US7555149B2 (en) * | 2005-10-25 | 2009-06-30 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for segmenting videos using face detection |
US9319708B2 (en) * | 2006-06-16 | 2016-04-19 | Via Technologies, Inc. | Systems and methods of improved motion estimation using a graphics processing unit |
JP4933186B2 (ja) * | 2006-07-26 | 2012-05-16 | キヤノン株式会社 | 画像処理装置、画像処理方法、プログラム及び記憶媒体 |
US7899253B2 (en) * | 2006-09-08 | 2011-03-01 | Mitsubishi Electric Research Laboratories, Inc. | Detecting moving objects in video by classifying on riemannian manifolds |
US7908233B2 (en) * | 2007-06-29 | 2011-03-15 | International Business Machines Corporation | Method and apparatus for implementing digital video modeling to generate an expected behavior model |
CN101340578A (zh) * | 2007-07-03 | 2009-01-07 | 株式会社日立制作所 | 运动矢量估计装置、编码器及摄像机 |
JP2010204947A (ja) * | 2009-03-03 | 2010-09-16 | Toshiba Corp | オブジェクト検出装置、オブジェクト検出方法、及び、プログラム |
US8559672B2 (en) * | 2009-06-01 | 2013-10-15 | Hewlett-Packard Development Company, L.P. | Determining detection certainty in a cascade classifier |
CN101877058B (zh) * | 2010-02-10 | 2012-07-25 | 杭州海康威视软件有限公司 | 人流量统计的方法及系统 |
CN102375993A (zh) * | 2010-08-23 | 2012-03-14 | 索尼公司 | 目标检测方法和设备 |
US8737747B2 (en) * | 2011-02-14 | 2014-05-27 | Xerox Corporation | Method for automated tire detection and recognition |
CN102819751A (zh) * | 2012-08-21 | 2012-12-12 | 长沙纳特微视网络科技有限公司 | 一种基于动作识别的人机互动方法及装置 |
-
2012
- 2012-12-20 WO PCT/CN2012/087017 patent/WO2014094275A1/en active Application Filing
- 2012-12-20 US US13/977,506 patent/US9141855B2/en not_active Expired - Fee Related
- 2012-12-20 EP EP12890586.6A patent/EP2936383A4/en not_active Ceased
- 2012-12-20 CN CN201280077195.9A patent/CN104781828B/zh not_active Expired - Fee Related
- 2012-12-20 JP JP2015545630A patent/JP6026007B2/ja not_active Expired - Fee Related
-
2013
- 2013-12-03 TW TW102144197A patent/TWI541762B/zh not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
US9141855B2 (en) | 2015-09-22 |
US20140348434A1 (en) | 2014-11-27 |
TW201432623A (zh) | 2014-08-16 |
CN104781828A (zh) | 2015-07-15 |
EP2936383A1 (en) | 2015-10-28 |
WO2014094275A1 (en) | 2014-06-26 |
JP2015536517A (ja) | 2015-12-21 |
TWI541762B (zh) | 2016-07-11 |
EP2936383A4 (en) | 2016-08-24 |
CN104781828B (zh) | 2020-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6026007B2 (ja) | ビデオモーション推定モジュールを用いた加速対象検出フィルタ | |
US9342749B2 (en) | Hardware convolution pre-filter to accelerate object detection | |
US11538164B2 (en) | Coupled multi-task fully convolutional networks using multi-scale contextual information and hierarchical hyper-features for semantic image segmentation | |
US9972322B2 (en) | Speaker recognition using adaptive thresholding | |
US9860553B2 (en) | Local change detection in video | |
US10685262B2 (en) | Object recognition based on boosting binary convolutional neural network features | |
US20240112035A1 (en) | 3d object recognition using 3d convolutional neural network with depth based multi-scale filters | |
US10430694B2 (en) | Fast and accurate skin detection using online discriminative modeling | |
TWI617996B (zh) | 使用方向性濾波之物件檢測技術 | |
US9292927B2 (en) | Adaptive support windows for stereoscopic image correlation | |
JP2015507219A (ja) | 搭乗者の聴覚視覚入力の乗り物ベースの決定 | |
CN108701355B (zh) | Gpu优化和在线基于单高斯的皮肤似然估计 | |
WO2020124360A1 (en) | Bidirectional pairing architecture for object detection in video | |
US20140226865A1 (en) | Object detection using motion estimation | |
WO2013147756A1 (en) | Content aware selective adjusting of motion estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160810 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160913 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6026007 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |