JP2012226745A - 奥行き画像内の物体を検出する方法およびシステム - Google Patents

奥行き画像内の物体を検出する方法およびシステム Download PDF

Info

Publication number
JP2012226745A
JP2012226745A JP2012089906A JP2012089906A JP2012226745A JP 2012226745 A JP2012226745 A JP 2012226745A JP 2012089906 A JP2012089906 A JP 2012089906A JP 2012089906 A JP2012089906 A JP 2012089906A JP 2012226745 A JP2012226745 A JP 2012226745A
Authority
JP
Japan
Prior art keywords
depth
detection window
pixel
size
depth value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012089906A
Other languages
English (en)
Other versions
JP5726125B2 (ja
Inventor
J Jones Michael
マイケル・ジェイ・ジョーンズ
Oncel Tuzel
オンセル・チュゼル
Si Weiguang
ウェイグアング・シ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Research Laboratories Inc
Original Assignee
Mitsubishi Electric Research Laboratories Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Research Laboratories Inc filed Critical Mitsubishi Electric Research Laboratories Inc
Publication of JP2012226745A publication Critical patent/JP2012226745A/ja
Application granted granted Critical
Publication of JP5726125B2 publication Critical patent/JP5726125B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects

Abstract

【課題】画像内の物体を検出するスキャンウィンドウ手法であって、計算効率が良い方法で、奥行き画像内の物体を検出する方法を提供する。
【解決手段】奥行き画像内の物体を検出する方法が、奥行き画像内の領域を覆う検出ウィンドウを決定することを含み、該検出ウィンドウのロケーションは、奥行き画像内の候補ピクセルのロケーションに基づき、検出ウィンドウのサイズは、候補ピクセルの奥行き値および物体のサイズに基づいている。検出ウィンドウ内の前景領域が、候補ピクセルの奥行き値および物体のサイズに基づいてセグメント化される。特徴ベクトルが、前景領域内のピクセルの奥行き値に基づいて求められ、特徴ベクトルが分類されて、物体が検出される。
【選択図】図1

Description

本発明は、包括的には、画像内の物体の検出に関し、より詳細には、奥行き画像内の物体の検出に関する。
物体検出は、デジタル画像およびデジタルビデオにおけるある特定の分類の意味論的物体(人間、建物、または車等)のインスタンスの検出を取り扱うコンピュータービジョンおよび画像処理の用途に関連している。物体検出は、画像検索およびビデオ監視を含むコンピュータービジョンの多くの分野において用途を有する。しかしながら、従来の物体検出方法は、いくつかの問題を有する。
例えば、ほとんどの従来の監視システムの主な欠点は、可視光カメラに依存しているということである。物体を検出するほとんどの方法は、可視光画像または可視光ビデオを対象にしており、人工の光源を設けることなく、夜に機能することはない。一方、そのような解決法は、高価になる可能性があり、いくつかの監視用途には適用することができない。
また、画像内の物体を検出する従来の方法には、スキャンウィンドウ手法も含まれる。これらの方法では、分類器が、画像内で既知の一定サイズの全ての長方形パッチを「スキャン」する。分類器は、画像パッチを入力画像として取り込み、その画像パッチが物体を含むか否かに応じた2値結果を出力する。より大きなスケールで物体を検出するために、入力画像は、より小さな画像にスケールダウンされ、分類器は、そのスケールダウンされた画像上でスキャンされる。スケーリングは、サイズ変更された画像がパッチのサイズよりも小さくなるまで繰り返し行われる。しかしながら、スキャンウィンドウ手法は、計算が複雑である。
したがって、上記問題に対処することが当該技術分野で必要とされている。
本主題発明の目的は、奥行き画像または奥行きビデオ内の物体を検出する方法を提供することである。
本発明のさらなる目的は、人々または車等の特定の分類の物体を検出する方法を提供することである。
本発明のさらなる目的は、奥行き画像上で分類器をスキャンする必要がない方法を提供することである。
本発明のさらなる目的は、計算効率が良い方法で、奥行き画像内の物体を検出する方法およびシステムを提供することである。
奥行き画像の1つの利点は、奥行き画像を取得するのに光を必要としない場合があるということである。奥行き画像は、奥行きセンサーによって生成することができる。奥行きセンサーは、奥行き画像内のピクセルごとに、奥行きセンサーからそのピクセルに対応するシーン内の点までの距離の推定値を求める。奥行きセンサーを構築するのに用いられるさまざまな技術があり、技術のほとんどは、光を必要としない。これによって、監視用途のための通常のビデオカメラを上回る利点が奥行きセンサーにもたらされる。しかしながら、奥行きセンサーを用いることによって、奥行き画像内の各ピクセルにおける奥行き値を利用することができる新たな物体検出方法が必要となる。
本発明のいくつかの実施の形態は、奥行き画像内のある分類の物体の近似サイズを、その分類の通常の物体のサイズおよびピクセルの奥行き値に基づいて決定することができるという認識に基づいている。したがって、任意のピクセルについて、検出ウィンドウのサイズを決定することができ、分類器を、そのピクセルを取り囲む検出ウィンドウに適用するだけでよい。したがって、分類器のスキャンを回避することができ、その結果、本方法の効率性が改善される。
奥行き値の関数としての検出ウィンドウのサイズは、あらかじめ決定しておくこともできるし、または奥行きセンサーの動作中に計算することもできる。例えば、検出ウィンドウのさまざまなサイズをルックアップ値に記憶することができ、奥行き値をキーとして用いて、ルックアップテーブルから検索することができる。したがって、物体検出中の検出ウィンドウのサイズの計算を回避することができ、物体検出の効率性を改善することができる。また、検出ウィンドウのサイズは、分類器をトレーニングするのに用いられた姿勢に対応する物体のさまざまな姿勢について決定することができる。また、検出ウィンドウのサイズは、奥行きセンサーの解像度に基づいて決定することができ、さまざまな用途に再利用することができる。
さらに、検出ウィンドウ内の前景領域のセグメント化を、検出物体内のピクセルの奥行き値、および物体のサイズ、例えば、物体の奥行きに基づいて決定することができる。したがって、物体の検出は、この前景領域について行うことができ、前景領域は、分類器の効率性および正確度を改善するように正規化することができる。加えて、奥行き値を用いたセグメント化によって、特徴ベクトルを計算するのに用いることができる粗いシルエットが得られる。
その上、前景領域内のピクセルの数が、しきい値よりも少ない場合、前景領域を、物体を含まないものとして分類することができる。したがって、「見込みのある」領域にのみ分類器を適用することができ、これによって、本方法の効率性がさらに改善される。また、分類器は、該分類器への入力画像の1つのトレーニングサイズについてのみトレーニングすることができる。検出ウィンドウおよび/または前景領域は、物体検出のために、分類器のトレーニングサイズにサイズ変更することができる。
さらに、奥行き画像が、時系列の奥行き画像、例えば、奥行きビデオの一部分である場合、前景領域内のピクセルの奥行き値は、時間的に隣接する奥行き画像からの対応するピクセルの奥行き値を用いて変更することができる。例えば、検出ウィンドウごとに、奥行きデータの時間ボリュームを求めることができ、奥行きデータに基づいて特徴ベクトルを計算することができ、これによって、物体検出の信頼性をさらに改善することができる。
したがって、1つの実施の形態は、奥行き画像内の物体を検出する方法であって、前記奥行き画像内の領域を覆う検出ウィンドウを決定することであって、該検出ウィンドウのロケーションは、前記奥行き画像内の候補ピクセルのロケーションに基づき、前記検出ウィンドウのサイズは、前記候補ピクセルの奥行き値および前記物体のサイズに基づく、決定することと、前記候補ピクセルの前記奥行き値および前記物体の前記サイズに基づいて、前記検出ウィンドウ内の前景領域をセグメント化することと、前記前景領域内のピクセルの数がしきい値よりも少ない場合には、前記前景領域を、前記物体を含まないものとして分類することと、そうでない場合には、前記前景領域を、分類器のトレーニングサイズに基づいてサイズ変更することと、前記前景領域内の前記ピクセルの奥行き値に基づいて、特徴ベクトルを求めることと、前記特徴ベクトルを分類することであって、前記物体を検出する、分類することと、を含む奥行き画像内の物体を検出する方法を開示する。
別の実施の形態は、奥行き画像内の物体を検出する方法であって、候補ピクセルについて、検出ウィンドウのサイズを該候補ピクセルの奥行き値の関数として選択することと、前記奥行き画像内において前記候補ピクセルのロケーションを取り囲んで前記検出ウィンドウを配置することと、前記検出ウィンドウ内のピクセルの奥行き値と前記候補ピクセルの前記奥行き値との間の差が奥行きしきい値よりも大きい場合には、前記ピクセルの前記奥行き値をNULLに設定することであって、前記奥行きしきい値の値は、前記候補ピクセルの前記奥行き値および前記物体の奥行きの関数である、設定することと、非NULL値を有する前記検出ウィンドウ内の前記ピクセルの数がしきい値よりも少ない場合には、前記検出ウィンドウを、前記物体を含まないものとして分類することと、そうでない場合には、前記検出ウィンドウ内の前記ピクセルの非NULLの奥行き値から前記候補ピクセルの前記奥行き値を減算することと、分類器のトレーニングサイズに基づいて前記検出ウィンドウをサイズ変更することと、前記検出ウィンドウ内の前記ピクセルの奥行き値に基づいて特徴ベクトルを求めることと、前記特徴ベクトルを分類することであって、前記物体を検出する、分類することと、を含む奥行き画像内の物体を検出する方法を開示する。
さらに別の実施の形態は、奥行き画像内の物体を検出するシステムを開示する。このシステムは、前記奥行き画像を取得する奥行きセンサーと、奥行き値に基づいて検出ウィンドウのサイズを検索するルックアップテーブルを記憶するメモリと、入力画像内の前記物体を検出する分類器であって、該入力画像はトレーニングサイズを有する、分類器と、該システムの動作中に、前記入力画像が、候補ピクセルを取り囲んで配置された前記検出ウィンドウ内でセグメント化された前景領域を含むように、前記分類器への前記入力画像を決定し、前記分類器を実行して、該入力画像内の前記物体を検出するプロセッサであって、前記検出ウィンドウの前記サイズは、前記候補ピクセルの奥行き値を用いて前記ルックアップテーブルから選択される、プロセッサとを備える。
本発明のいくつかの実施の形態による奥行き画像内の物体を検出する方法のブロック図である。 本発明の1つの実施の形態による検出ウィンドウのサイズを決定する概略図である。 本発明のいくつかの実施の形態によって用いられるルックアップテーブルの3つの例を示す図である。 いくつかの実施の形態による検出ウィンドウの前景領域の例を示す図である。 本発明の1つの実施の形態による方法のフローチャートである。
図1は、奥行き画像115内の物体を検出する方法100のブロック図を示している。シーン105の奥行き画像は、奥行きセンサー110によって取得することができる。奥行きセンサーは、奥行き画像内の各ピクセルが奥行きセンサーとシーン内の対応する物体との間の距離を示す奥行き値を有するような奥行き画像を生成するように構成された任意のタイプのセンサーとすることができる。
例えば、赤外(IR)光等の光を物体に照射することができ、反射光を検知することによって飛行時間(TOF)が測定され、奥行きセンサーから物体の各部分までの距離(奥行き値)が測定される。奥行き画像116は、時系列の奥行き画像116、例えば、奥行きビデオの一部分とすることができる。方法100は、プロセッサ101を用いて実施することができる。
図2に示すように、奥行き画像内で検出される物体は、特定の分類の物体、例えば、人々または車に属する。本発明のいくつかの実施の形態は、奥行き画像の候補ピクセルごとに、物体を検出する検出ウィンドウのサイズを、候補ピクセルの奥行き値の関数として決定することができるという認識に基づいている。この理由は、物体のサイズが物体の分類からほぼ判明しているからであり、したがって、物体を含むことができる検出ウィンドウのサイズは、奥行きセンサーからの物体の距離に基づいて決定することができる。物体のサイズは、物体の長さ、物体の幅、および物体の奥行きを含むことができる。
例えば、シーン210および対応する奥行き画像220は、物体215、すなわち人、およびその物体の画像をそれぞれ含む。検出ウィンドウ225のサイズは、物体に関連付けられた候補ピクセルの奥行き値の関数235として決定することができる(230)。候補ピクセルは、例えば、順次、一組の候補ピクセルから選択されて解析される。いくつかの実施の形態では、一組の候補ピクセルは、奥行き画像の全てのピクセルを含む。代替的な実施の形態では、一組の候補ピクセルは、奥行き画像の前景ピクセルのみを含むように決定される。他の変形形態も可能である。
図3(A)〜図3(C)に示すように、本発明のいくつかの実施の形態は、検出ウィンドウのサイズを選択するのに、ルックアップテーブル310、320、および/または330等のルックアップテーブルを用いる。ルックアップテーブルは、プロセッサ101に動作可能に接続されたメモリ(図示せず)に記憶することができる。メモリは、奥行きセンサー110内とすることもできるし、または、例えば、イントラネットもしくはインターネットを通じてアクセスされるリモートメモリとすることもできる。
例えば、ルックアップテーブルは、ルックアップテーブル310を含むことができる。ルックアップテーブル310は、一組の奥行き値315および検出ウィンドウの一組の対応するサイズ316を提供することができ、それによって、候補ピクセルの奥行き値は、検出ウィンドウのサイズを選択するキーとして用いることができる。ルックアップテーブルは、メモリ317に記憶することができる。
検出ウィンドウは、あらゆる任意の形状、例えば、正方形、長方形、または円形とすることができる。例えば、検出ウィンドウのサイズは、検出ウィンドウの長さおよび検出ウィンドウの幅を含むことができ、ルックアップテーブル、例えば、ルックアップテーブル320の各行は、対応するデータ325を含むことができる。
いくつかの実施の形態では、検出ウィンドウの長さは、物体の長さに依存し、検出ウィンドウの幅は、物体の幅に依存する。1つの実施の形態では、検出ウィンドウの長さおよび幅は、物体の姿勢に依存する。姿勢は、物体の3Dの並進ロケーションおよび角度方向として規定することができる。
例えば、物体を検出する分類器を1つまたは複数の姿勢についてトレーニングすることができる。また、検出ウィンドウのサイズは、奥行きセンサーの解像度に依存する可能性がある。さまざまな実施の形態では、ルックアップテーブルは、奥行きセンサーの特定のタイプについてあらかじめ決定しておき、このタイプの奥行きセンサー間で共有することもできるし、または奥行きセンサーの動作中に決定することもできる。
図3(C)は、本発明の1つの実施の形態によるルックアップテーブル330の一例を示している。このルックアップテーブルは、ピクセルの奥行き値331の値と、奥行きセンサー(複数の場合もあり)の解像度335の値と、物体の姿勢(複数の場合もあり)336の値と、検出ウィンドウの対応するサイズの値とを含む。検出ウィンドウの対応するサイズの値は、検出ウィンドウの長さ332の値と、検出ウィンドウの幅333の値と、検出ウィンドウの奥行きしきい値334の値とを含むことができる。奥行きしきい値334は、物体の奥行きを表し、以下で説明するように、セグメント化に用いることができる。
図1を再び参照すると、検出ウィンドウのサイズが決定された後、検出ウィンドウは、奥行き画像において、奥行き画像内の候補ピクセルのロケーションに基づいて選択されたロケーションに配置される。例えば、1つの実施の形態では、検出ウィンドウは、候補ピクセルを中心とする。次に、検出ウィンドウ内の前景領域がセグメント化される。
前景画像のセグメント化130は、候補ピクセルの奥行き値および物体のサイズ、例えば、物体の奥行きに基づくことができる。例えば、1つの実施の形態は、検出ウィンドウ内のピクセルごとに、そのピクセルの奥行き値と候補ピクセルの奥行き値との間の差を求め、この差が、奥行き画像の解像度に基づいてスケーリングされた物体の奥行きよりも大きい場合には、そのピクセルの奥行き値をNULLに設定する。例えば、差は、候補ピクセルの奥行き値に基づいて、ルックアップテーブルから検索された奥行きしきい値と比較することができる。検出ウィンドウ内のピクセルについて、差が奥行きしきい値よりも大きい場合には、そのピクセルおよび候補ピクセルが、検出される物体に、ともに属する可能性はない。したがって、そのピクセルは、その候補ピクセルとともに解析されない。
1つの実施の形態では、前景領域は、該前景領域内の前景ピクセルの数、すなわち、検出ウィンドウ内の非NULLのピクセルの数をカウントすることによって予備的に分類することができる(135)。例えば、前景領域内のピクセルの数がしきい値よりも少ない場合、前景領域は、物体を含まないものとして分類される(140)。1つの実施の形態は、物体のサイズおよび奥行きセンサーの雑音統計量に基づいてしきい値を求める。
例えば、図4に示すように、候補ピクセル415を取り囲んで配置された検出ウィンドウ410の前景領域は、しきい値よりも多くの数のピクセル、すなわち、9つのピクセルを含む。同様に、候補ピクセル425を取り囲んで配置された検出ウィンドウ420の前景領域も、しきい値よりも多い可能性のある数のピクセル、すなわち、7つのピクセルを含む。他方、候補ピクセル435を取り囲んで配置された検出ウィンドウ430の前景領域は、1つのピクセルしか含まず、これは、しきい値よりも少ない可能性があり、したがって、この候補ピクセルの検出ウィンドウは物体を含まない。
したがって、前景領域は、物体を含む可能性があるだけの十分な数のピクセルを含み、いくつかの実施の形態は、各非NULLのピクセルの奥行き値を正規化して、候補ピクセルの距離値に対する依存を排除する。正規化によって、奥行き値は、相対的な奥行きに変えられ、相対的な奥行きは、奥行きセンサーからの物体の距離に対して不変である。例えば、1つの実施の形態は、ピクセルの奥行き値から候補ピクセルの奥行き値を減算する。別の実施の形態は、各非NULLのピクセルの奥行き値を1に設定する。
本発明のいくつかの実施の形態は、分類器のトレーニングサイズに基づいて、検出ウィンドウおよび/または前景画像をサイズ変更する(145)。分類器は、一般に、該分類器がトレーニングされるサイズ、すなわち、トレーニングサイズの入力画像のみを受け付ける。サイズ変更は、さまざまな方法を用いて行うことができる。例えば、1つの実施の形態は、双一次補間を用いて、検出ウィンドウを分類器のトレーニングサイズにスケーリングする。他の実施の形態は、例えば、サブサンプリングおよび双三次補間を用いる。
次に、検出ウィンドウの特徴ベクトル151が求められる(150)。特徴ベクトルは、検出ウィンドウを、物体を含む/含まない(160)ものとして分類する(155)分類器への入力として用いられる。特徴ベクトルは、例えば、Haar−like特徴、勾配ヒストグラム(HoG)、および/または局所2値パターン(LBP)を用いて求めることができる。分類器は、物体の結果/物体でない結果、例えば、0の値または1の値を出力する2値分類器とすることもできるし、検出ウィンドウが物体を含む確率、例えば、範囲[0,1]の実数を出力する確率分類器とすることもできる。分類器のタイプには、サポートベクターマシン(SVM)、ブースト決定木、ニューラルネットワーク、および最近傍分類器が含まれるが、これらに限定されるものではない。
分類器は、さまざまな機械学習技法のうちの1つを用いてトレーニングすることができる。奥行きセンサーが静止している場合、前景/背景セグメント化の改善にも、また、候補ピクセルの数の削減にも背景モデルを用いて分類器を適用することができる。背景モデルは、取得することもできるし、またはあらかじめ求めることもできる。代替的に、背景モデルは、奥行きセンサーの動作中にオンラインで求めることができる。例えば、前景物体が存在しない場合、ピクセルごとの値の変動がモデル化される。ピクセルの値は、ガウス分布またはガウス分布の和を用いてモデル化することができる。物体(人等)がシーンに入ってくると、その物体に対応するピクセルは、背景モデルからのそれらのピクセルの予想値と一致せず、したがって、前景物体の一部分と識別することができる。背景モデルは、一組の候補ピクセルを求めるのに用いることができる。さらに、背景に対応するピクセルの値は、セグメント化を改善するためにNULLに設定することができる。
いくつかの実施の形態では、奥行き画像は、時系列の奥行き画像、例えば、奥行きビデオの一部分である。1つの実施の形態は、前景領域内のピクセルの奥行き値を、時間的に隣接する奥行き画像からの対応するピクセルの奥行き値を用いて変更する。例えば、対応するピクセルの奥行き値を互いから減算することもできるし、または互いに加算することもできる。したがって、検出ウィンドウごとに、奥行きデータの時間ボリュームを求めることができ、奥行きデータに基づいて特徴ベクトルを計算することができ、これによって、物体検出の信頼性をさらに改善することができる。
例えば、奥行きデータの時間ボリューム{I}、t=t−ε,...,t+εを用いてマルチ画像記述子を求めることができる。ここで、tは、奥行き画像の時間または順序を表し、εは、時間ボリュームのサイズである。マルチ画像記述子は、時間を通じた物体の動き情報または外観の変化を表す。したがって、特徴ベクトルは、奥行き画像間の差および/またはモーションフローを用いることができる。
例えば、差は、奥行き画像間のピクセルごとの距離を符号化する。例えば、1に等しい時間ボリュームのサイズを用いると、特徴ベクトルは、差分画像{I−It−1}に対応する。同様に、モーションフロー特徴は、奥行きデータの時間ボリューム内の各ピクセルの3Dの動きを符号化する。フローベクトルF(x,y)は、時間t−1〜tの座標x、yを有するピクセルの動きを符号化する。フローベクトルは、例えば、奥行きデータの時間ボリューム上でオプティカルフロー法を用いて求めることができる。最終的なモーションフロー記述子は、奥行きデータの時間ボリューム内の全てのモーションフローベクトルによって与えられる。
図5は、本発明の1つの実施の形態による奥行き画像内の物体を検出する方法のフローチャートを示している。候補ピクセルの検出ウィンドウのサイズが、候補ピクセルの奥行き値の関数として選択され(510)、検出ウィンドウが、奥行き画像内において、候補ピクセルのロケーションを取り囲んで配置される(515)。検出ウィンドウ内のピクセルの奥行き値は、該ピクセルの奥行き値と候補ピクセルの奥行き値との間の差が奥行きしきい値よりも大きい場合、NULLに設定される(520)。奥行きしきい値の値は、候補ピクセルの奥行き値および物体の奥行きの関数である。
非NULL値を有する検出ウィンドウ内のピクセルの数がしきい値よりも少ない場合、検出ウィンドウは、物体を含まないものとして分類される(525)。
そうでない場合、候補ピクセルの奥行き値は、検出ウィンドウ内のピクセルの非NULLの奥行き値から減算され(530)、検出ウィンドウは、分類器のトレーニングサイズに基づいてサイズ変更される(535)。特徴ベクトルが、検出ウィンドウ内のピクセルの奥行き値に基づいて求められ(540)、特徴ベクトルは、分類されて(545)、物体が検出される。
本発明の上述した実施の形態は、数多くの方法のうちの任意のもので実施することができる。例えば、実施の形態は、ハードウェア、ソフトウェア、またはそれらの組み合わせを用いて実施することができる。ソフトウェアで実際される場合、ソフトウェアコードは、単一のコンピューター内に設けられているにせよ、複数のコンピューター間で分散されているにせよ、任意の適したプロセッサまたはプロセッサの集合体で実行することができる。そのようなプロセッサは、集積回路部品内に1つまたは複数のプロセッサを有する集積回路として実施することができる。ただし、プロセッサは、任意の適したフォーマットの回路機構を用いて実施することもできる。
また、本明細書で概略を述べたさまざまな方法またはプロセスは、種々のオペレーティングシステムまたはプラットフォームのうちの任意のものを用いる1つまたは複数のプロセッサで実行可能なソフトウェアとしてコード化することができる。加えて、そのようなソフトウェアは、複数の適したプログラミング言語および/またはプログラミングツールもしくはスクリプティングツールのうちのいずれかを用いて記述することができ、あるフレームワークまたは仮想マシンで実行される実行可能なマシン言語コードまたは中間コードとしてコンパイルすることもできる。通常、プログラムモジュールの機能は、さまざまな実施の形態において所望のとおりに結合または分散することができる。
また、本発明の実施の形態は、方法として実施することができ、その一例を提供してきた。その方法の一部分として実行される動作は、任意の適した方法で順序付けることができる。したがって、例示したものとは異なる順序で動作が実行される実施の形態を構築することができ、この順序は、例示の実施の形態では逐次動作として示されていても、いくつかの動作を同時に実行することを含むことができる。

Claims (20)

  1. 奥行き画像内の物体を検出する方法であって、
    前記奥行き画像内の領域を覆う検出ウィンドウを決定することであって、該検出ウィンドウのロケーションは、前記奥行き画像内の候補ピクセルのロケーションに基づき、前記検出ウィンドウのサイズは、前記候補ピクセルの奥行き値および前記物体のサイズに基づく、決定することと、
    前記候補ピクセルの前記奥行き値および前記物体の前記サイズに基づいて、前記検出ウィンドウ内の前景領域をセグメント化することと、
    前記前景領域内のピクセルの数がしきい値よりも少ない場合には、
    前記前景領域を、前記物体を含まないものとして分類することと、
    そうでない場合には、
    前記前景領域を、分類器のトレーニングサイズに基づいてサイズ変更することと、
    前記前景領域内の前記ピクセルの奥行き値に基づいて、特徴ベクトルを求めることと、
    前記特徴ベクトルを分類することであって、前記物体を検出する、分類することと
    を含む奥行き画像内の物体を検出する方法。
  2. 一組の候補ピクセルを選択することと、
    前記一組内の候補ピクセルごとに、前記検出ウィンドウを前記決定することと、前記セグメント化することと、前記サイズ変更することと、前記特徴ベクトルを前記求めることと、前記分類することとを繰り返すことと
    をさらに含む請求項1に記載の方法。
  3. 前記選択することは、
    前記奥行き画像内の前景ピクセルを決定することと、
    前記一組の候補ピクセル内の前記前景ピクセルを選択することと
    を含む請求項2に記載の方法。
  4. 前記セグメント化することは、
    前記検出ウィンドウ内の前記ピクセルごとに、該ピクセルの奥行き値と前記候補ピクセルの前記奥行き値との間の差を求めることと、
    前記差が、前記奥行き画像の解像度に基づいてスケーリングされた前記物体の奥行きよりも大きい場合には、前記ピクセルの前記奥行き値をNULLに設定することと
    を含む請求項1に記載の方法。
  5. 前記差が、前記奥行き画像の前記解像度に基づいてスケーリングされた前記物体の前記奥行き以下である場合には、前記ピクセルの前記奥行き値を1に設定すること
    をさらに含む請求項4に記載の方法。
  6. 前記差が、前記奥行き画像の前記解像度に基づいてスケーリングされた前記物体の前記奥行き以下である場合には、前記ピクセルの前記奥行き値を正規化すること
    をさらに含む請求項4に記載の方法。
  7. 前記正規化することは、
    前記ピクセルの前記奥行き値から前記候補ピクセルの前記奥行き値を減算すること
    を含む請求項6に記載の方法。
  8. 前記検出ウィンドウを前記決定することは、
    前記物体の長さに基づいて前記検出ウィンドウの長さを決定することと、
    前記物体の幅に基づいて前記検出ウィンドウの幅を決定することと
    を含む請求項1に記載の方法。
  9. 前記検出ウィンドウは、前記候補ピクセルの前記ロケーションを中心とする請求項1に記載の方法。
  10. 前記検出ウィンドウを前記決定することは、
    前記候補ピクセルの前記奥行き値をキーとして用いてルックアップテーブルから前記検出ウィンドウの前記サイズを選択すること
    を含む請求項1に記載の方法。
  11. 前記物体の前記サイズ、センサーからの奥行き値の範囲、および該センサーの解像度に基づいて前記ルックアップテーブルをポピュレートすること
    をさらに含む請求項10に記載の方法。
  12. 前記物体の姿勢に基づいて前記ルックアップテーブルを追加すること
    をさらに含む請求項11に記載の方法。
  13. 前記物体の前記サイズおよび奥行きセンサーの雑音統計量に基づいて前記しきい値を求めること
    をさらに含む請求項1に記載の方法。
  14. 時間的に隣接する奥行き画像からの対応するピクセルの奥行き値を用いて、前記前景領域内の前記ピクセルの前記奥行き値を変更すること
    をさらに含む請求項1に記載の方法。
  15. 前記物体の分類に基づいて前記物体の前記サイズを決定することであって、該サイズは、前記物体の長さ、該物体の幅、および該物体の奥行きを含む、決定すること
    をさらに含む請求項1に記載の方法。
  16. 前記物体の前記分類について前記分類器をトレーニングすること
    をさらに含む請求項15に記載の方法。
  17. 前記物体の前記分類は、人々および車両のうちの少なくとも一方を含む群から選択される請求項15に記載の方法。
  18. 奥行き画像内の物体を検出する方法であって、
    候補ピクセルについて、検出ウィンドウのサイズを該候補ピクセルの奥行き値の関数として選択することと、
    前記奥行き画像内において前記候補ピクセルのロケーションを取り囲んで前記検出ウィンドウを配置することと、
    前記検出ウィンドウ内のピクセルの奥行き値と前記候補ピクセルの前記奥行き値との間の差が奥行きしきい値よりも大きい場合には、前記ピクセルの前記奥行き値をNULLに設定することであって、前記奥行きしきい値の値は、前記候補ピクセルの前記奥行き値および前記物体の奥行きの関数である、設定することと、
    非NULL値を有する前記検出ウィンドウ内の前記ピクセルの数がしきい値よりも少ない場合には、
    前記検出ウィンドウを、前記物体を含まないものとして分類することと、
    そうでない場合には、
    前記検出ウィンドウ内の前記ピクセルの非NULLの奥行き値から前記候補ピクセルの前記奥行き値を減算することと、
    分類器のトレーニングサイズに基づいて前記検出ウィンドウをサイズ変更することと、
    前記検出ウィンドウ内の前記ピクセルの奥行き値に基づいて特徴ベクトルを求めることと、
    前記特徴ベクトルを分類することであって、前記物体を検出する、分類することと
    を含む奥行き画像内の物体を検出する方法。
  19. 奥行き画像内の物体を検出するシステムであって、
    前記奥行き画像を取得する奥行きセンサーと、
    奥行き値に基づいて検出ウィンドウのサイズを検索するルックアップテーブルを記憶するメモリと、
    入力画像内の前記物体を検出する分類器であって、該入力画像は、トレーニングサイズを有する、分類器と、
    該システムの動作中に、前記入力画像が、候補ピクセルを取り囲んで配置された前記検出ウィンドウ内でセグメント化された前景領域を含むように、前記分類器への前記入力画像を決定し、前記分類器を実行して、該入力画像内の前記物体を検出するプロセッサであって、前記検出ウィンドウの前記サイズは、前記候補ピクセルの奥行き値を用いて前記ルックアップテーブルから選択される、プロセッサと
    を備える奥行き画像内の物体を検出するシステム。
  20. 前記プロセッサは、前記前景領域内のピクセルの前記奥行き値を正規化し、前記トレーニングサイズに基づいて前記前景領域をサイズ変更するようにさらに構成される請求項19に記載のシステム。
JP2012089906A 2011-04-19 2012-04-11 奥行き画像内の物体を検出する方法およびシステム Active JP5726125B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/089,914 2011-04-19
US13/089,914 US8406470B2 (en) 2011-04-19 2011-04-19 Object detection in depth images

Publications (2)

Publication Number Publication Date
JP2012226745A true JP2012226745A (ja) 2012-11-15
JP5726125B2 JP5726125B2 (ja) 2015-05-27

Family

ID=47021363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012089906A Active JP5726125B2 (ja) 2011-04-19 2012-04-11 奥行き画像内の物体を検出する方法およびシステム

Country Status (2)

Country Link
US (1) US8406470B2 (ja)
JP (1) JP5726125B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229303A (ja) * 2013-05-20 2014-12-08 三菱電機株式会社 シーン内の物体を検出する方法
KR20150108577A (ko) * 2014-03-18 2015-09-30 에스케이플래닛 주식회사 식별을 위해 확장된 영역에 대한 특징을 수집하는 학습 장치 및 방법 및 컴퓨터 프로그램이 기록된 기록매체
JP2015215877A (ja) * 2014-05-08 2015-12-03 三菱電機株式会社 ステレオ画像の対において物体を検出する方法
US9721151B2 (en) 2013-07-16 2017-08-01 Samsung Electronics Co., Ltd. Method and apparatus for detecting interfacing region in depth image
JP2019531554A (ja) * 2016-10-07 2019-10-31 トヨタ モーター ヨーロッパ オブジェクトを認識及び位置特定するための電気デバイス、システム及び方法
JP2021531566A (ja) * 2018-12-14 2021-11-18 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co., Ltd 画像処理方法および装置、電子機器ならびに記憶媒体
JP2022504034A (ja) * 2018-10-11 2022-01-13 セノ メディカル インストルメンツ,インク. 病変特性を自動的に推定するための光音響画像分析の方法およびシステム

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11175375B2 (en) 2010-11-12 2021-11-16 Position Imaging, Inc. Position tracking system and method using radio signals and inertial sensing
WO2013058985A1 (en) 2011-10-17 2013-04-25 Kimmel Zebadiah M Method and apparatus for detecting deterioration of health status
US9817017B2 (en) * 2011-10-17 2017-11-14 Atlas5D, Inc. Method and apparatus for monitoring individuals while protecting their privacy
WO2013058978A1 (en) 2011-10-17 2013-04-25 Kimmel Zebadiah M Method and apparatus for sizing and fitting an individual for apparel, accessories, or prosthetics
US9072929B1 (en) * 2011-12-01 2015-07-07 Nebraska Global Investment Company, LLC Image capture system
US9129524B2 (en) * 2012-03-29 2015-09-08 Xerox Corporation Method of determining parking lot occupancy from digital camera images
US9443137B2 (en) * 2012-05-08 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts
US9367733B2 (en) 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
US10009579B2 (en) * 2012-11-21 2018-06-26 Pelco, Inc. Method and system for counting people using depth sensor
US9025811B1 (en) 2013-01-02 2015-05-05 Google Inc. Performing image similarity operations using semantic classification
US9329267B2 (en) * 2013-03-14 2016-05-03 Navico Holding As Method and system for automatically determining water-level offset, and adjusting a nautical chart for such offset
US9275437B2 (en) * 2013-03-14 2016-03-01 Algotec Systems Ltd. Method for efficient digital subtraction angiography
US9710695B2 (en) * 2013-03-15 2017-07-18 Sony Corporation Characterizing pathology images with statistical analysis of local neural network responses
US9639747B2 (en) * 2013-03-15 2017-05-02 Pelco, Inc. Online learning method for people detection and counting for retail stores
KR20150037366A (ko) * 2013-09-30 2015-04-08 삼성전자주식회사 깊이 영상의 노이즈를 저감하는 방법, 이를 이용한 영상 처리 장치 및 영상 생성 장치
TW201523298A (zh) * 2013-12-05 2015-06-16 Utechzone Co Ltd 圖像化計數方法及其電子裝置
US9600993B2 (en) 2014-01-27 2017-03-21 Atlas5D, Inc. Method and system for behavior detection
WO2015133699A1 (ko) * 2014-03-06 2015-09-11 에스케이플래닛 주식회사 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR102203000B1 (ko) * 2014-03-06 2021-01-14 에스케이플래닛 주식회사 객체 식별 장치, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR20150127503A (ko) * 2014-05-07 2015-11-17 에스케이플래닛 주식회사 객체 인식 서비스 제공 시스템 및 방법, 그리고 이를 위한 장치 및 컴퓨터 프로그램이 기록된 기록매체
US9552633B2 (en) * 2014-03-07 2017-01-24 Qualcomm Incorporated Depth aware enhancement for stereo video
US9842274B2 (en) 2014-03-28 2017-12-12 Xerox Corporation Extending data-driven detection to the prediction of object part locations
KR102210633B1 (ko) * 2014-07-09 2021-02-02 엘지전자 주식회사 가상 오브젝트의 뎁스와 연계된 인정범위를 가진 디스플레이 디바이스 및 그 제어 방법
JP6381368B2 (ja) * 2014-08-26 2018-08-29 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US10013756B2 (en) 2015-03-13 2018-07-03 Atlas5D, Inc. Methods and systems for measuring use of an assistive device for ambulation
US10148918B1 (en) 2015-04-06 2018-12-04 Position Imaging, Inc. Modular shelving systems for package tracking
US11416805B1 (en) 2015-04-06 2022-08-16 Position Imaging, Inc. Light-based guidance for package tracking systems
US10853757B1 (en) 2015-04-06 2020-12-01 Position Imaging, Inc. Video for real-time confirmation in package tracking systems
US11501244B1 (en) 2015-04-06 2022-11-15 Position Imaging, Inc. Package tracking systems and methods
US10643101B2 (en) * 2015-07-09 2020-05-05 Texas Instruments Incorporated Window grouping and tracking for fast object detection
KR102316799B1 (ko) 2015-10-23 2021-10-25 삼성에스디에스 주식회사 객체 및 상황 인지 방법 및 시스템
TW201719572A (zh) * 2015-11-19 2017-06-01 國立交通大學 三維模型分析及搜尋方法
US10371816B2 (en) 2015-12-30 2019-08-06 Aurora Borealis Dakota L.L.C. Updating contour maps for bodies of water
US9904867B2 (en) 2016-01-29 2018-02-27 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
US10917627B2 (en) * 2016-06-03 2021-02-09 Utku Buyuksahin System and a method for capturing and generating 3D image
CN108780575B (zh) * 2016-06-30 2022-04-01 微软技术许可有限责任公司 用于检测突起对象的显著点的方法和装置
WO2018026838A1 (en) 2016-08-02 2018-02-08 Atlas5D, Inc. Systems and methods to identify persons and/or identify and quantify pain, fatigue, mood, and intent with protection of privacy
CN109154499A (zh) * 2016-08-18 2019-01-04 深圳市大疆创新科技有限公司 用于增强立体显示的系统和方法
US11436553B2 (en) 2016-09-08 2022-09-06 Position Imaging, Inc. System and method of object tracking using weight confirmation
US10853698B2 (en) * 2016-11-09 2020-12-01 Konica Minolta Laboratory U.S.A., Inc. System and method of using multi-frame image features for object detection
US10634506B2 (en) 2016-12-12 2020-04-28 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10455364B2 (en) 2016-12-12 2019-10-22 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US10634503B2 (en) 2016-12-12 2020-04-28 Position Imaging, Inc. System and method of personalized navigation inside a business enterprise
US11120392B2 (en) 2017-01-06 2021-09-14 Position Imaging, Inc. System and method of calibrating a directional light source relative to a camera's field of view
WO2019069369A1 (ja) * 2017-10-03 2019-04-11 富士通株式会社 姿勢認識システム、画像補正プログラムおよび画像補正方法
KR20200074050A (ko) * 2017-10-18 2020-06-24 소니 세미컨덕터 솔루션즈 가부시키가이샤 식별 장치 및 전자기기
US10916026B2 (en) * 2018-05-16 2021-02-09 Toyota Research Institute, Inc. Systems and methods of determining stereo depth of an object using object class information
CN109033972A (zh) * 2018-06-27 2018-12-18 上海数迹智能科技有限公司 一种目标检测方法、装置、设备及存储介质
CA3111595A1 (en) 2018-09-21 2020-03-26 Position Imaging, Inc. Machine-learning-assisted self-improving object-identification system and method
WO2020146861A1 (en) 2019-01-11 2020-07-16 Position Imaging, Inc. Computer-vision-based object tracking and guidance module
WO2020194650A1 (ja) * 2019-03-28 2020-10-01 日本電気株式会社 異物検出装置、異物検出方法、およびプログラム
CN110288646A (zh) * 2019-06-21 2019-09-27 北京邮电大学 一种基于图像的人体尺寸计算方法及装置
US11416998B2 (en) * 2019-07-30 2022-08-16 Microsoft Technology Licensing, Llc Pixel classification to reduce depth-estimation error
EP3809314A1 (en) 2019-10-15 2021-04-21 Bentley Systems, Incorporated 3d object detection from calibrated 2d images background
US11048976B2 (en) * 2019-11-11 2021-06-29 Midea Group Co., Ltd. Method and system for controlling machines based on object recognition
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
JP2023119326A (ja) * 2022-02-16 2023-08-28 Tvs Regza株式会社 映像解析装置および映像解析方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273494A (ja) * 2000-03-27 2001-10-05 Honda Motor Co Ltd 物体認識装置
JP2008236276A (ja) * 2007-03-20 2008-10-02 Hitachi Ltd カメラ装置
JP2009037622A (ja) * 2007-08-03 2009-02-19 Harman Becker Automotive Systems Gmbh 画像を評価するための方法および装置
JP2009282979A (ja) * 2008-05-20 2009-12-03 Ricoh Co Ltd 画像処理装置及び画像処理方法
WO2010140613A1 (ja) * 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置
JP2011065652A (ja) * 2004-05-14 2011-03-31 Honda Motor Co Ltd サインに基づくマンマシンインタラクション

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5161204A (en) * 1990-06-04 1992-11-03 Neuristics, Inc. Apparatus for generating a feature matrix based on normalized out-class and in-class variation matrices
DE19831413C2 (de) * 1998-07-14 2002-03-07 Daimler Chrysler Ag Bildverarbeitungsverfahren und Vorrichtungen zur Erkennung von Objekten im Verkehr
US6266442B1 (en) * 1998-10-23 2001-07-24 Facet Technology Corp. Method and apparatus for identifying objects depicted in a videostream
JP4697500B2 (ja) * 1999-08-09 2011-06-08 ソニー株式会社 送信装置および送信方法、受信装置および受信方法、並びに記録媒体
US7043474B2 (en) * 2002-04-15 2006-05-09 International Business Machines Corporation System and method for measuring image similarity based on semantic meaning
US7257236B2 (en) * 2002-05-22 2007-08-14 A4Vision Methods and systems for detecting and recognizing objects in a controlled wide area
US7200266B2 (en) * 2002-08-27 2007-04-03 Princeton University Method and apparatus for automated video activity analysis
US7330566B2 (en) * 2003-05-15 2008-02-12 Microsoft Corporation Video-based gait recognition
US7526101B2 (en) * 2005-01-24 2009-04-28 Mitsubishi Electric Research Laboratories, Inc. Tracking objects in videos with adaptive classifiers
US20060170769A1 (en) * 2005-01-31 2006-08-03 Jianpeng Zhou Human and object recognition in digital video
US7474775B2 (en) * 2005-03-31 2009-01-06 University Of Iowa Research Foundation Automatic detection of red lesions in digital color fundus photographs
US7418113B2 (en) * 2005-04-01 2008-08-26 Porikli Fatih M Tracking objects in low frame rate videos
US7945099B2 (en) * 2005-05-09 2011-05-17 Like.Com System and method for use of images with recognition analysis
US7542610B2 (en) * 2005-05-09 2009-06-02 Like.Com System and method for use of images with recognition analysis
US7657100B2 (en) * 2005-05-09 2010-02-02 Like.Com System and method for enabling image recognition and searching of images
US8462987B2 (en) * 2009-06-23 2013-06-11 Ut-Battelle, Llc Detecting multiple moving objects in crowded environments with coherent motion regions
TW201140502A (en) * 2010-05-13 2011-11-16 Hon Hai Prec Ind Co Ltd System and method for monitoring objects
TW201140470A (en) * 2010-05-13 2011-11-16 Hon Hai Prec Ind Co Ltd System and method for monitoring objects and key persons of the objects

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001273494A (ja) * 2000-03-27 2001-10-05 Honda Motor Co Ltd 物体認識装置
JP2011065652A (ja) * 2004-05-14 2011-03-31 Honda Motor Co Ltd サインに基づくマンマシンインタラクション
JP2008236276A (ja) * 2007-03-20 2008-10-02 Hitachi Ltd カメラ装置
JP2009037622A (ja) * 2007-08-03 2009-02-19 Harman Becker Automotive Systems Gmbh 画像を評価するための方法および装置
JP2009282979A (ja) * 2008-05-20 2009-12-03 Ricoh Co Ltd 画像処理装置及び画像処理方法
WO2010140613A1 (ja) * 2009-06-03 2010-12-09 学校法人中部大学 物体検出装置

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014229303A (ja) * 2013-05-20 2014-12-08 三菱電機株式会社 シーン内の物体を検出する方法
US9721151B2 (en) 2013-07-16 2017-08-01 Samsung Electronics Co., Ltd. Method and apparatus for detecting interfacing region in depth image
KR20150108577A (ko) * 2014-03-18 2015-09-30 에스케이플래닛 주식회사 식별을 위해 확장된 영역에 대한 특징을 수집하는 학습 장치 및 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR102224936B1 (ko) * 2014-03-18 2021-03-08 에스케이플래닛 주식회사 식별을 위해 확장된 영역에 대한 특징을 수집하는 학습 장치 및 방법 및 컴퓨터 프로그램이 기록된 기록매체
JP2015215877A (ja) * 2014-05-08 2015-12-03 三菱電機株式会社 ステレオ画像の対において物体を検出する方法
JP2019531554A (ja) * 2016-10-07 2019-10-31 トヨタ モーター ヨーロッパ オブジェクトを認識及び位置特定するための電気デバイス、システム及び方法
JP2022504034A (ja) * 2018-10-11 2022-01-13 セノ メディカル インストルメンツ,インク. 病変特性を自動的に推定するための光音響画像分析の方法およびシステム
JP7430714B2 (ja) 2018-10-11 2024-02-13 セノ メディカル インストルメンツ,インク. 病変特性を自動的に推定するための光音響画像分析の方法およびシステム
JP2021531566A (ja) * 2018-12-14 2021-11-18 シェンチェン センスタイム テクノロジー カンパニー リミテッドShenzhen Sensetime Technology Co., Ltd 画像処理方法および装置、電子機器ならびに記憶媒体
JP7072119B2 (ja) 2018-12-14 2022-05-19 シェンチェン センスタイム テクノロジー カンパニー リミテッド 画像処理方法および装置、電子機器ならびに記憶媒体

Also Published As

Publication number Publication date
US20120269384A1 (en) 2012-10-25
JP5726125B2 (ja) 2015-05-27
US8406470B2 (en) 2013-03-26

Similar Documents

Publication Publication Date Title
JP5726125B2 (ja) 奥行き画像内の物体を検出する方法およびシステム
US10990191B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
Lin et al. Shape-based human detection and segmentation via hierarchical part-template matching
Matsushita et al. Illumination normalization with time-dependent intrinsic images for video surveillance
US7912253B2 (en) Object recognition method and apparatus therefor
US7831087B2 (en) Method for visual-based recognition of an object
JP6305171B2 (ja) シーン内の物体を検出する方法
García-Martín et al. Robust real time moving people detection in surveillance scenarios
JP2017102622A (ja) 画像処理装置、画像処理方法及びプログラム
CN109919128B (zh) 控制指令的获取方法、装置及电子设备
Loutas et al. Probabilistic multiple face detection and tracking using entropy measures
WO2017170875A1 (ja) 画像認識装置、及び画像認識プログラム
Huang et al. Multi‐class obstacle detection and classification using stereovision and improved active contour models
JP5755516B2 (ja) 物体形状推定装置
KR101035291B1 (ko) 관절모델db을 이용한 포즈인식 시스템
US20230410561A1 (en) Method and apparatus for distinguishing different configuration states of an object based on an image representation of the object
Palmer et al. Scale proportionate histograms of oriented gradients for object detection in co-registered visual and range data
JP2005176339A (ja) 動画像処理方法、動画像処理装置、動画像処理プログラム及びそのプログラムを記録した記録媒体
Chen et al. A bio-inspired event-based size and position invariant human posture recognition algorithm
Carvajal-González et al. Feature selection by relevance analysis for abandoned object classification
Katz et al. Multiple camera-based chamfer matching for pedestrian detection
Saisan et al. Modeling of pedestrian motion for recognition
Priya et al. A novel approach to detect pedestrian from still images using random subspace method
Arnoud Faster than the fastest: using calibrated cameras to improve the fastest pedestrian detector in the west
Aly et al. Partially Occluded Pedestrian Classification using Three Stage Cascaded Classifier

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150202

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20150202

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20150219

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150331

R150 Certificate of patent or registration of utility model

Ref document number: 5726125

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250