JP4429370B2 - ポーズによるヒト検出 - Google Patents
ポーズによるヒト検出 Download PDFInfo
- Publication number
- JP4429370B2 JP4429370B2 JP2008538028A JP2008538028A JP4429370B2 JP 4429370 B2 JP4429370 B2 JP 4429370B2 JP 2008538028 A JP2008538028 A JP 2008538028A JP 2008538028 A JP2008538028 A JP 2008538028A JP 4429370 B2 JP4429370 B2 JP 4429370B2
- Authority
- JP
- Japan
- Prior art keywords
- test image
- training
- human
- descriptor
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
Description
LDAは、テキスト解析コンテクストに導入されるが、オブジェクトクラスの認識問題にも適用され、かかる事項は、Fergus, R., et al., "Learning Object Categories From Google's Image Search", Proc. ICCV, pages 1816-1823, 2005; and Sivic, J., et al., "Discovering object Categories in Image Collections, Proc. ICCV, pages 734-741, 2003 に記載されており、これらの文献は、参照によって本明細書に一体的に組み込まれるものとする。
標準的なLDAモデルは、Nの分布を備えておらず、そのため、以下の説明中では省略可能である。コーパスD={w1,w2,・・・,wM}は、M個のドキュメントの集合である。LDAモデルは、トピックと呼ばれるK個の潜在的変数のセットを導入する。ドキュメント内の各ワードは、トピックの一つによって生成されるものと仮定される。
が、モデルパラメータに基づいて、
Sopt(I,Inew)=P(w(Inew)|w(I),α,β)optsimilarity
すなわち、トレーニング画像I及びモデルパラメータα,βが与えられたテスト画像Inewの事後確率として最適に計算される。別の実施形態においては、異なる解法が利用可能である。学習ステップにおける各トレーニングドキュメントIに関して、事後のトピックの比率
が、式(3)のように計算される。続いて、InewとIとの間のマッチングスコアSが、二つのベクトル
間のドット積によって求められる。
Claims (23)
- 教師なしトレーニング段階及び半教師付きトレーニング段階の少なくとも一つにおいて導出される確率モデルであって、トレーニング画像のセットの統計データをモデル化する確率モデルを受信するステップと、
テスト画像を表すテスト画像記述子のセットを生成するステップと、
前記確率モデルのパラメータによって特徴付けられる尤度関数を前記テスト画像記述子に対して適用し、前記テスト画像がヒトを含む尤度を決定するステップと、
前記決定された、前記テスト画像がヒトを含む尤度を記憶するステップと、
前記確率モデルのパラメータによって特徴付けられる分類関数を前記テスト画像記述子に対して適用し、前記テスト画像内で検出されたヒトの体のポーズを分類するステップと、
を含み、これらの前記ステップをコンピュータを用いて実行する
ことを特徴とするヒト検出及びポーズ分類の方法。 - 前記トレーニング段階は、前記トレーニング画像のセット内のヒトのポーズが分類されていない教師なしトレーニング段階を含む
ことを特徴とする請求項1に記載の方法。 - 前記トレーニング段階は、前記トレーニング画像のセット内のヒトのポーズの少なくとも一つが手作業で分類され、前記トレーニング画像のセット内のヒトのポーズの少なくとも一つが分類されていない半教師付きトレーニング段階を含む
ことを特徴とする請求項1に記載の方法。 - トレーニング画像のセットからトレーニング画像を受信するステップと、
前記トレーニング画像を、少なくとも一つのピクセルを有する、少なくとも一つのセルに分割するステップと、
前記少なくとも一つのセルのそれぞれに関して、特徴のヒストグラムとして前記セルを表す記述子を生成するステップと、
前記トレーニング画像のセットからの画像特徴の離散的分布の合計を含む確率モデルであって、前記トレーニング画像のセットの統計データをモデル化する確率モデルを生成するステップと、
前記トレーニング画像のセットから導出された前記確率モデルのパラメータによって特徴付けられる尤度関数をテスト画像に対して適用し、前記テスト画像内にヒトが存在するか否かを検出するステップと、
前記確率モデルのパラメータによって特徴付けられる分類関数を前記テスト画像に対して適用し、前記テスト画像内で検出されたヒトのポーズを分類するステップと、
を含み、これらの前記ステップをコンピュータを用いて実行する
ことを特徴とするヒト検出及びポーズ分類の方法。 - 前記確率モデルを生成するステップは、
ヒトの画像を有するポジティブトレーニング画像のセットの統計データをモデル化するモデルパラメータの第一のセットを計算するステップと、
背景シーンの画像を有するネガティブトレーニング画像のセットの統計データをモデル化するモデルパラメータの第二のセットを計算するステップと、
を含むことを特徴とする請求項4に記載の方法。 - 前記記述子は、有向勾配のヒストグラムを備えている
ことを特徴とする請求項4に記載の方法。 - 前記記述子を生成するステップは、
前記セル内の各ピクセルに関する勾配を計算するステップと、
前記勾配の向きに基づいて各勾配を定量化して一つ又は複数のビンにして、セルヒストグラムを生成するステップと、
前記セルの少なくとも一つを、重なり合うセルからなるブロックの少なくとも一つにグループ化するステップと、
明るさとコントラストの変化とに関して前記ブロックの少なくとも一つについての前記セルヒストグラムを正規化するステップと、
を含み、
前記記述子は、前記ブロックの少なくとも一つについての前記正規化されたセルヒストグラムを含むこと、
を特徴とする請求項4に記載の方法。 - 前記確率モデルを生成するステップは、潜在的ディリクレ割当法(LDA)を前記トレーニング画像に適用するステップを含む
ことを特徴とする請求項4に記載の方法。 - 前記確率モデルを生成するステップは、ギブスサンプリング、ラオ−ブラックウェルサンプリング、平均場及び変分推論の少なくとも一つに基づいてモデルパラメータを学習するステップを含む
ことを特徴とする請求項4に記載の方法。 - 教師なしトレーニング段階及び半教師付きトレーニング段階の少なくとも一つにおいて導出される確率モデルであって、トレーニング画像のセットの統計データをモデル化する確率モデルを受信するステップと、
テスト画像を受信するステップと、
前記トレーニング段階において用いられるトレーニング画像記述子に基づいているテスト画像記述子によって前記テスト画像を表すステップと、
前記確率モデルのパラメータによって特徴付けられる尤度関数を前記テスト画像記述子に対して適用し、前記テスト画像がヒトを含む尤度を表す比率を計算するステップと、
前記比率と所定の閾値とを比較するステップと、
前記比率が前記閾値よりも大きい場合にヒト検出信号を出力するステップと、
前記確率モデルのパラメータによって特徴付けられる分類関数を前記テスト画像記述子に対して適用し、前記テスト画像内で検出されたヒトの体のポーズを分類するステップと、
を含み、これらの前記ステップをコンピュータを用いて実行する
ことを特徴とするヒト検出及びポーズ分類の方法。 - 教師なしトレーニング段階及び半教師付きトレーニング段階の少なくとも一つにおいて導出される確率モデルであって、トレーニング画像のセットの統計データをモデル化する確率モデルを受信する受信手段と、
テスト画像を表すテスト画像記述子のセットを生成する生成手段と、
前記確率モデルのパラメータによって特徴付けられる尤度関数を前記テスト画像記述子に対して適用し、前記テスト画像がヒトを含む尤度を決定する決定手段と、
前記決定された、前記テスト画像がヒトを含む尤度を記憶する記憶手段と、
前記確率モデルのパラメータによって特徴付けられる分類関数を前記テスト画像記述子に対して適用し、前記テスト画像内で検出されたヒトの体のポーズを分類する分類手段と、
を備えることを特徴とするヒト検出及びポーズ分類のシステム。 - 前記トレーニング段階は、前記トレーニング画像のセット内のヒトのポーズが分類されていない教師なしトレーニング段階を含む
ことを特徴とする請求項11に記載のシステム。 - 前記トレーニング段階は、前記トレーニング画像のセット内のヒトのポーズの少なくとも一つが手作業で分類され、前記トレーニング画像のセット内のヒトのポーズの少なくとも一つが分類されていない半教師付きトレーニング段階を含む
ことを特徴とする請求項11に記載のシステム。 - トレーニング画像のセットからトレーニング画像を受信するトレーニング画像受信手段と、
前記トレーニング画像を、少なくとも一つのピクセルを有する、少なくとも一つのセルに分割する画像分割手段と、
前記少なくとも一つのセルのそれぞれに関して、特徴のヒストグラムとして前記セルを表す記述子を生成する記述子生成手段と、
前記トレーニング画像のセットからの画像特徴の離散的分布の合計を含む確率モデルであって、前記トレーニング画像のセットの統計データをモデル化する確率モデルを生成するモデル生成手段と、
前記トレーニング画像のセットから導出された前記確率モデルのパラメータによって特徴付けられる尤度関数をテスト画像に対して適用し、前記テスト画像内にヒトが存在するか否かを検出する検出手段と、
前記確率モデルのパラメータによって特徴付けられる分類関数を前記テスト画像に対して適用し、前記テスト画像内で検出されたヒトのポーズを分類する分類手段と、
を備える、
ことを特徴とするヒト検出及びポーズ分類のシステム。 - 前記確率モデルを生成するモデル生成手段は、
ヒトの画像を有するポジティブトレーニング画像のセットの統計データをモデル化するモデルパラメータの第一のセットを計算する第一パラメータ計算手段と、
背景シーンの画像を有するネガティブトレーニング画像のセットの統計データをモデル化するモデルパラメータの第二のセットを計算する第二パラメータ計算手段と、
を備えることを特徴とする請求項14に記載のシステム。 - 前記記述子は、有向勾配のヒストグラムを備えている
ことを特徴とする請求項14に記載のシステム。 - 前記記述子を生成する記述子生成手段は、
前記セル内の各ピクセルに関する勾配を計算する勾配計算手段と、
前記勾配の向きに基づいて各勾配を定量化して一つ又は複数のビンにして、セルヒストグラムを生成する量子化手段と、
前記セルの少なくとも一つを、重なり合うセルからなるブロックの少なくとも一つにグループ化するセルグループ化手段と、
明るさとコントラストの変化とに関して前記ブロックの少なくとも一つについての前記セルヒストグラムを正規化する正規化手段と、
を備え、
前記記述子は、前記ブロックの少なくとも一つについての前記正規化されたセルヒストグラムを含むこと、
を特徴とする請求項14に記載のシステム。 - 前記確率モデルを生成する前記モデル生成手段は、潜在的ディリクレ割当法(LDA)を前記トレーニング画像に適用する潜在的ディリクレ割当法手段を備える
ことを特徴とする請求項14に記載のシステム。 - 前記確率モデルを生成するモデル生成手段は、ギブスサンプリング、ラオ−ブラックウェルサンプリング、平均場及び変分推論の少なくとも一つに基づいてモデルパラメータを学習するパラメータ学習手段を備える
ことを特徴とする請求項14に記載のシステム。 - 教師なしトレーニング段階及び半教師付きトレーニング段階の少なくとも一つにおいて導出される確率モデルであって、トレーニング画像のセットの統計データをモデル化する確率モデルを受信するモデル受信手段と、
テスト画像を受信するテスト画像受信手段と、
前記トレーニング段階において用いられるトレーニング画像記述子に基づいているテスト画像記述子によって前記テスト画像を表すテスト画像記述子手段と、
前記確率モデルのパラメータによって特徴付けられる尤度関数を前記テスト画像記述子に対して適用し、前記テスト画像がヒトを含む尤度を表す比率を計算する比率計算手段と、
前記比率と所定の閾値とを比較する比率比較手段と、
前記比率が前記閾値よりも大きい場合にヒト検出信号を出力する信号出力手段と、
前記確率モデルのパラメータによって特徴付けられる分類関数を前記テスト画像記述子に対して適用し、前記テスト画像内で検出されたヒトの体のポーズを分類する分類手段と、
を備えることを特徴とするヒト検出及びポーズ分類のシステム。 - ヒト検出及びポーズ分類のコンピュータ実行可能なコードを記録するコンピュータ読取可能な記録媒体であって、
前記コンピュータ実行可能なコードは、
教師なしトレーニング段階及び半教師付きトレーニング段階の少なくとも一つにおいて導出される確率モデルであって、トレーニング画像のセットの統計データをモデル化する確率モデルを受信するステップと、
テスト画像を表すテスト画像記述子のセットを生成するステップと、
前記確率モデルのパラメータによって特徴付けられる尤度関数を前記テスト画像記述子に対して適用し、前記テスト画像がヒトを含む尤度を決定するステップと、
前記決定された、前記テスト画像がヒトを含む尤度を記憶するステップと、
前記確率モデルのパラメータによって特徴付けられる分類関数を前記テスト画像記述子に対して適用し、前記テスト画像内で検出されたヒトの体のポーズを分類するステップと、
を実行することを特徴とするコンピュータ読取可能な記録媒体。 - 前記トレーニング段階は、前記トレーニング画像のセット内のヒトのポーズが分類されていない教師なしトレーニング段階を含む
ことを特徴とする請求項21に記載のコンピュータ読取可能な記録媒体。 - 前記トレーニング段階は、前記トレーニング画像のセット内のヒトのポーズの少なくとも一つが手作業で分類され、前記トレーニング画像のセット内のヒトのポーズの少なくとも一つが分類されていない半教師付きトレーニング段階を含む
ことを特徴とする請求項22に記載のコンピュータ読取可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US73140005P | 2005-10-28 | 2005-10-28 | |
US11/553,388 US7519201B2 (en) | 2005-10-28 | 2006-10-26 | Detecting humans via their pose |
PCT/US2006/042089 WO2007053470A2 (en) | 2005-10-28 | 2006-10-27 | Detecting humans via their pose |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009514110A JP2009514110A (ja) | 2009-04-02 |
JP2009514110A5 JP2009514110A5 (ja) | 2009-08-20 |
JP4429370B2 true JP4429370B2 (ja) | 2010-03-10 |
Family
ID=37996352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008538028A Expired - Fee Related JP4429370B2 (ja) | 2005-10-28 | 2006-10-27 | ポーズによるヒト検出 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7519201B2 (ja) |
JP (1) | JP4429370B2 (ja) |
WO (1) | WO2007053470A2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11113569B2 (en) | 2018-08-24 | 2021-09-07 | Kabushiki Kaisha Toshiba | Information processing device, information processing method, and computer program product |
US11593621B2 (en) | 2018-11-29 | 2023-02-28 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and computer program product |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7853072B2 (en) * | 2006-07-20 | 2010-12-14 | Sarnoff Corporation | System and method for detecting still objects in images |
US7822750B2 (en) * | 2007-01-17 | 2010-10-26 | Aptima, Inc | Method and system to compare data entities |
US7986828B2 (en) * | 2007-10-10 | 2011-07-26 | Honeywell International Inc. | People detection in video and image data |
WO2010008802A1 (en) * | 2008-06-23 | 2010-01-21 | Nikon Corporation | Device and method for detecting whether an image is blurred |
JP5581574B2 (ja) * | 2008-07-09 | 2014-09-03 | 富士ゼロックス株式会社 | 画像処理装置及び画像処理プログラム |
JP2010092199A (ja) * | 2008-10-07 | 2010-04-22 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
US9104984B2 (en) * | 2008-11-13 | 2015-08-11 | Sony Corporation | Method and device relating to information management |
JP4742193B2 (ja) | 2009-04-28 | 2011-08-10 | Necソフト株式会社 | 年齢推定装置、年齢推定方法及びプログラム |
US8213680B2 (en) | 2010-03-19 | 2012-07-03 | Microsoft Corporation | Proxy training data for human body tracking |
CN101976345B (zh) * | 2010-09-30 | 2013-02-06 | 哈尔滨工程大学 | 一种噪声条件下图像尺度不变模式识别方法 |
US8861870B2 (en) | 2011-02-25 | 2014-10-14 | Microsoft Corporation | Image labeling with global parameters |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US8760395B2 (en) | 2011-05-31 | 2014-06-24 | Microsoft Corporation | Gesture recognition techniques |
US9251439B2 (en) | 2011-08-18 | 2016-02-02 | Nikon Corporation | Image sharpness classification system |
US8635637B2 (en) | 2011-12-02 | 2014-01-21 | Microsoft Corporation | User interface presenting an animated avatar performing a media reaction |
US9100685B2 (en) | 2011-12-09 | 2015-08-04 | Microsoft Technology Licensing, Llc | Determining audience state or interest using passive sensor data |
US9336456B2 (en) | 2012-01-25 | 2016-05-10 | Bruno Delean | Systems, methods and computer program products for identifying objects in video data |
US20130198690A1 (en) * | 2012-02-01 | 2013-08-01 | Microsoft Corporation | Visual indication of graphical user interface relationship |
CA2775700C (en) | 2012-05-04 | 2013-07-23 | Microsoft Corporation | Determining a future portion of a currently presented media program |
KR101407070B1 (ko) | 2012-09-28 | 2014-06-12 | 한국전자통신연구원 | 영상기반 사람 검출을 위한 특징 추출 방법 및 장치 |
WO2014056537A1 (en) | 2012-10-11 | 2014-04-17 | Longsand Limited | Using a probabilistic model for detecting an object in visual data |
US8867786B2 (en) | 2012-10-31 | 2014-10-21 | Microsoft Corporation | Scenario-specific body-part tracking |
CN103064941B (zh) * | 2012-12-25 | 2016-12-28 | 深圳先进技术研究院 | 图像检索方法和装置 |
JP6074272B2 (ja) * | 2013-01-17 | 2017-02-01 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
US9092665B2 (en) * | 2013-01-30 | 2015-07-28 | Aquifi, Inc | Systems and methods for initializing motion tracking of human hands |
US11373439B1 (en) * | 2013-03-14 | 2022-06-28 | Telos Corporation | Touchless fingerprint matching systems and methods |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9239943B2 (en) | 2014-05-29 | 2016-01-19 | Datalogic ADC, Inc. | Object recognition for exception handling in automatic machine-readable symbol reader systems |
JP6365035B2 (ja) * | 2014-07-10 | 2018-08-01 | 株式会社デンソー | 交通オブジェクト検出装置 |
US9380312B2 (en) | 2014-07-14 | 2016-06-28 | Apple Inc. | Encoding blocks in video frames containing text using histograms of gradients |
US9396404B2 (en) | 2014-08-04 | 2016-07-19 | Datalogic ADC, Inc. | Robust industrial optical character recognition |
US9798948B2 (en) | 2015-07-31 | 2017-10-24 | Datalogic IP Tech, S.r.l. | Optical character recognition localization tool |
US9922452B2 (en) * | 2015-09-17 | 2018-03-20 | Samsung Electronics Co., Ltd. | Apparatus and method for adjusting brightness of image |
US10417524B2 (en) * | 2017-02-16 | 2019-09-17 | Mitsubishi Electric Research Laboratories, Inc. | Deep active learning method for civil infrastructure defect detection |
JP6897335B2 (ja) | 2017-05-31 | 2021-06-30 | 富士通株式会社 | 学習プログラム、学習方法および物体検知装置 |
CN110163046B (zh) * | 2018-06-19 | 2023-09-19 | 腾讯科技(深圳)有限公司 | 人体姿态识别方法、装置、服务器及存储介质 |
US11386636B2 (en) | 2019-04-04 | 2022-07-12 | Datalogic Usa, Inc. | Image preprocessing for optical character recognition |
KR102194282B1 (ko) * | 2019-05-17 | 2020-12-23 | 네이버 주식회사 | 포즈 유사도 판별 모델 생성방법 및 포즈 유사도 판별 모델 생성장치 |
CN113159080A (zh) * | 2020-01-22 | 2021-07-23 | 株式会社东芝 | 信息处理装置、信息处理方法以及存储介质 |
CN113743488B (zh) * | 2021-08-24 | 2023-09-19 | 江门职业技术学院 | 基于平行车联网的车辆监控方法、装置、设备及存储介质 |
CN117115363B (zh) * | 2023-10-24 | 2024-03-26 | 清华大学 | 人体胸部平面估计方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030058111A1 (en) * | 2001-09-27 | 2003-03-27 | Koninklijke Philips Electronics N.V. | Computer vision based elderly care monitoring system |
US7130446B2 (en) | 2001-12-03 | 2006-10-31 | Microsoft Corporation | Automatic detection and tracking of multiple individuals using multiple cues |
US7366645B2 (en) | 2002-05-06 | 2008-04-29 | Jezekiel Ben-Arie | Method of recognition of human motion, vector sequences and speech |
US7194114B2 (en) * | 2002-10-07 | 2007-03-20 | Carnegie Mellon University | Object finder for two-dimensional images, and system for determining a set of sub-classifiers composing an object finder |
US7542592B2 (en) | 2004-03-29 | 2009-06-02 | Siemesn Corporate Research, Inc. | Systems and methods for face detection and recognition using infrared imaging |
-
2006
- 2006-10-26 US US11/553,388 patent/US7519201B2/en active Active
- 2006-10-27 JP JP2008538028A patent/JP4429370B2/ja not_active Expired - Fee Related
- 2006-10-27 WO PCT/US2006/042089 patent/WO2007053470A2/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11113569B2 (en) | 2018-08-24 | 2021-09-07 | Kabushiki Kaisha Toshiba | Information processing device, information processing method, and computer program product |
US11593621B2 (en) | 2018-11-29 | 2023-02-28 | Kabushiki Kaisha Toshiba | Information processing apparatus, information processing method, and computer program product |
Also Published As
Publication number | Publication date |
---|---|
JP2009514110A (ja) | 2009-04-02 |
WO2007053470A3 (en) | 2008-11-27 |
US7519201B2 (en) | 2009-04-14 |
WO2007053470A2 (en) | 2007-05-10 |
US20070098254A1 (en) | 2007-05-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4429370B2 (ja) | ポーズによるヒト検出 | |
Sharma et al. | Hand gesture recognition using image processing and feature extraction techniques | |
Kalsum et al. | Emotion recognition from facial expressions using hybrid feature descriptors | |
Mansanet et al. | Local deep neural networks for gender recognition | |
Huang et al. | An efficient method for traffic sign recognition based on extreme learning machine | |
Satpathy et al. | LBP-based edge-texture features for object recognition | |
Wu et al. | Cluster boosted tree classifier for multi-view, multi-pose object detection | |
Trefný et al. | Extended set of local binary patterns for rapid object detection | |
Mita et al. | Discriminative feature co-occurrence selection for object detection | |
Cai et al. | HOG-assisted deep feature learning for pedestrian gender recognition | |
Feng et al. | Detect faces efficiently: A survey and evaluations | |
Arandjelovic | Crowd detection from still images | |
Das et al. | Automated Indian sign language recognition system by fusing deep and handcrafted feature | |
Soltanpour et al. | Weighted extreme sparse classifier and local derivative pattern for 3D face recognition | |
Wang et al. | Video object matching across multiple non-overlapping camera views based on multi-feature fusion and incremental learning | |
El-Sayed et al. | Classification of vehicles’ types using histogram oriented gradients: comparative study and modification | |
Wang et al. | Robust object representation by boosting-like deep learning architecture | |
Sumalakshmi et al. | Fused deep learning based Facial Expression Recognition of students in online learning mode | |
Khosravi et al. | Recognition of Persian/Arabic handwritten words using a combination of convolutional neural networks and autoencoder (AECNN) | |
Dong et al. | A supervised dictionary learning and discriminative weighting model for action recognition | |
Acevedo et al. | Facial expression recognition based on static and dynamic approaches | |
Mahdi et al. | 3D facial matching by spiral convolutional metric learning and a biometric fusion-net of demographic properties | |
Adeyanju et al. | Development of an american sign language recognition system using canny edge and histogram of oriented gradient | |
Akilan | Video foreground localization from traditional methods to deep learning | |
Suzuki et al. | Illumination-invariant face identification using edge-based feature vectors in pseudo-2D Hidden Markov Models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090702 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090702 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20090702 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20090806 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090825 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091215 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121225 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121225 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131225 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |