JP3894782B2 - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP3894782B2
JP3894782B2 JP2001376000A JP2001376000A JP3894782B2 JP 3894782 B2 JP3894782 B2 JP 3894782B2 JP 2001376000 A JP2001376000 A JP 2001376000A JP 2001376000 A JP2001376000 A JP 2001376000A JP 3894782 B2 JP3894782 B2 JP 3894782B2
Authority
JP
Japan
Prior art keywords
image
distance
target object
input image
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001376000A
Other languages
English (en)
Other versions
JP2003178303A (ja
Inventor
章 内海
信二 鉄谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2001376000A priority Critical patent/JP3894782B2/ja
Priority to US10/050,966 priority patent/US7110023B2/en
Publication of JP2003178303A publication Critical patent/JP2003178303A/ja
Application granted granted Critical
Publication of JP3894782B2 publication Critical patent/JP3894782B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は物体認識装置に関し、特に画像の中から対象とする対象画像を認識する物体認識装置に関する。
【0002】
【従来の技術】
物体認識はコンピュータビジョンにおける最も基本的な処理のひとつであり、たとえばランドマークの検出はロボットの誘導に重要であり、各種追跡システムの安定性は目標の検出精度に大きく依存している。近年、画像を用いた人の動作認識追跡についての研究が盛んに行われているが、そこでも安定した目標検出は不可欠であるといえる。
【0003】
【発明が解決しようとする課題】
しかしながら、たとえば従来提案されてきた人物追跡システムでは、計算コストを抑えるため、環境に対して強い仮定をおくことで検出処理を簡略化したものが多かった。そのような方法としてよく利用されるものに背景差分(フレーム間差分)による動物体の抽出がある。しかし、背景差分を利用するにはカメラ位置と背景の両方が固定されている必要があり、また追跡目標以外の物体移動は許されない。これらの点は、システムをより一般的な環境で動作させようとした場合に大きな制約となる。
【0004】
他の認識方法として、色情報の利用がある。たとえば、肌領域はほぼ一様な色をもつことから、顔や手の検出に色情報を使う提案もなされている。しかしながら色情報は照明などの環境の変化に対して不安定であり、また画面サイズが小さい場合にも領域検出は困難になる。
【0005】
それゆえに、この発明の主たる目的は、対象物体を動領域あるいは特定の色領域として抽出するのではなく、物体自身の見え方の特徴に基づいて物体を認識する物体認識装置を提供することである。
【0006】
【課題を解決するための手段】
この発明は、画像の中から対象とする対象画像を認識する物体認識装置であって、対象画像の背景に存在する背景画像と対象画像内の各領域の対応する画素値分布を抽出する画素値分布抽出手段と、画素値分布抽出手段によって抽出された各領域の画素値分布の違いに基づいて対象画像を認識処理する認識処理手段とを備えたことを特徴とする。
【0007】
このように抽出された各領域の画素値分布の違いという物体自身の見え方の特徴に基づいて対象画像を認識処理することにより、物体が不特定の画素値をもつ場合であっても、正しく認識処理を行うことができる。
【0008】
また、画素値分布抽出手段は、背景画像と対象画像のそれぞれをいくつかの領域に分割して異なるブロック間の距離を計算し、各ブロック間距離値の集合である距離マップを求め、各距離マップ内から抜き出した要素を所定次元の距離ベクトルの分布で表し、該背景画像と該対象画像のそれぞれにおける距離値ベクトルの分布を判別する判別軸を求めることを特徴とする。
【0009】
また、画素値分布抽出手段は、求めた判別軸から寄与の小さい要素を取り除き、判別軸を再度計算して次元数を削減することを特徴とする。
【0010】
また、認識処理手段は、入力画像内の各部分について距離値ベクトルを計算し、計算した距離値ベクトルと画像分布抽出手段によって求められた判別別軸とに基づいて計算した値が所定のしきい値以上であれば対象画像の検出されたことを判別することを特徴とする。
【0011】
さらに、認識処理手段は、入力画像内のすべての可能なブロックについて画素値の平均ベクトルと共分散行列を計算した後、次元数を減らして距離値ベクトルを計算することを特徴とする。
【0012】
さらに、入力画像から解像度の異なる複数種類の画像を生成し、解像度の異なる画像に対して認識処理を行う。
【0013】
【発明の実施の形態】
まず、この発明の実施形態について説明する前に、この発明の概念について説明する。人物のように様々なテクスチャを持つ物体では、物体各部に特定の画素値を仮定することはできないため、この発明では画素値そのものではなく、画素値分布の変化に着目して物体認識を行う。すなわち、着衣の変化による色/テクスチャの違いなど、物体の画素値の多様性に対して共通な特徴を抽出し、これらの特徴を用いて物体認識を行う。
【0014】
対象物体の色/明るさが一定であれば画素値は物体に関する重要な情報を与える。しかし、ある種の物体に関しては特定の画素値を持つことを期待できない。たとえば、人物像は頭部、胴体、足、腕などのいくつかの部位からなり、その一部は衣服によって覆われている。着衣の種類は半袖であるかあるいは長袖であるかなどほぼ無限にあると考えられるため、それらすべての色・模様を予めモデルとして持つことは不可能である。
【0015】
逆に、各部位の幾何学的な位置関係は人物像間で類似している。つまり、頭部,胴体,足などの部位間の相対的な位置,各部位の形状は服装の異なる人物像間でも共通となり得る。そこで、この発明では、対象物体の幾何学的構造をそのような画素値の違いとして抽出し、対象物体の見え方の統計的なモデルをまず構築し、そのモデルと入力されたモデルとを比較し、スコアを計算し、スコアがしきい値を越えたとき人物が検出されたものと判断する。
【0016】
図1はこの発明の一実施形態における物体認識装置のブロック図である。図1において、カメラ1は背景画像や人物画像を撮像し、その画像信号を認識装置2に与える。認識装置2はA/D変換器21とCPU22とメモリ23と出力装置24とを含み、カメラ1からの画像信号はA/D変換器21によってデジタル信号に変換されてCPU22に与えられる。CPU22はメモリ23に記憶されている後述の図2および図14に基づくフローチャートに基づくプログラム処理を行い、その結果を出力装置24に出力する。
【0017】
図2はこの発明の一実施形態の物体認識処理におけるモデル作成の手順を示すフローチャートであり、図3はモデル作成のためのブロック分割を説明するための図であり、図4は分割されたブロックの距離マップの計算を説明するための図である。
【0018】
次に、図1ないし図4を参照して、この発明の一実施形態におけるモデルを作成する動作について説明する。図1に示したカメラ1によって人物画像を撮像し、その画像をA/D変換器21でデジタル信号に変換してメモリ23に記憶させ、続いてカメラ1によって背景画像を撮像し、デジタル信号に変換してメモリ23に記憶する。CPU22はステップ (図示ではSPと略称する)SP1において、人物画像の距離マップを計算し、ステップSP2において背景画像の距離マップを計算する。
【0019】
ここで、人物画像を図3(a)に示すようにいくつかの領域(ブロック)に分割し、すべての異なる2ブロック間の距離を計算し、図3(b)に示す各ブロック間について計算した距離値の集合を、上記「距離マップ」と呼ぶことにする。
【0020】
距離マップの計算では、種々のものが考えられるが、この実施形態では計算の簡便さからマハラノビス汎距離を利用する。より具体的に説明すると、図3(a)に示すように入力された画像の画像サイズをm×nとする。ここで、各画素xs,t(1<s<m,1<t<n)はk次元ベクトルとして第(1)式のように記述できる。
【0021】
s,t=[y1,y2…yk]´…(1)
たとえば、濃淡画像であれば白黒2値で記述できるのでk=1であり、カラー画像であればRGBで記述するのでk=3になる。
【0022】
次に、入力画像を図3(b)に示すように小ブロックに分割する。各ブロックはp×q画素からなるものとし、水平方向にM,垂直方向にN個のブロックが得られるものとする。図3(b)では各ブロックに1…MNの通し番号をつけて区別し、各ブロックをX1…XMNと呼ぶ。
【0023】
続いて、各ブロックXlについてブロック内の画素の平均ベクトルxlおよび共分散行列Σlを第(2)式および第(3)式に基づいて計算する。
【0024】
【数1】
Figure 0003894782
【0025】
最後に、各ブロック間のマハラノビス汎距離を計算し図4に示す距離マップDを計算する。ここで、
【0026】
【数2】
Figure 0003894782
【0027】
図4は図3(b)に示した分割されたブロックX1…XMNを距離d1,1,d1,2,…,dNM,NMの行列式の距離マップとして示したものであり、対角線(左上−右下)に対して対称となる。
【0028】
図5は実際の入力画像の一例を示す図であり、図6は図5の入力画像における距離マップの一例を示す図である。
【0029】
図5に示した入力人物画像は60×90画素からなり、この入力画像を5×5画素のブロックに分割すると、図6に示すような228×228の大きさの距離マップとなる。この図6においても、距離マップは対角線(左上−右下)に対して対称となっている。この図6はカメラ1で撮像された画像のうち距離の近いところは似たような色や模様を有している可能性が大きく、離れていくと異なる色や模様を有している可能性が高いことから、距離が近い部分は黒く写っており、距離が離れるに従って白くなるパターンを示している。
【0030】
また、人物が写っていると、人物の形の周囲は背景と人物との明確な区別があるのでその部分は明るくなり、人物の形内は服であれば同じ色や模様を有していることが多いので、その部分は黒くなる可能性が高くなる。これにより背景の分布と人物の分布の差となって現われる。
【0031】
上述の距離マップをもとに対象物体(人物)画像と背景画像とを判別するためのモデルを構築する。図7は図5に示した人物画像の距離マップの一例を示す図であり、図8は背景画像の距離マップの一例を示す図である。
【0032】
図7および図8に示した例は、各画像内で人物がほぼ同じ位置,大きさに現われる必要があるので人物画像として背景画像に別途撮像した人のみの画像を合成したものを利用している。
【0033】
次に、人物(obj)および背景(bck)のそれぞれの画素について、第(5)式〜第(8)式によりマップ内の各要素に関する平均(dobj(i,j),dbck(i,j))・分散(σ2 obj(i,j),σ2 bck(i,j))を求める。
【0034】
【数3】
Figure 0003894782
【0035】
図9は上述のようにして求められた人物画像の平均距離マップの一例を示す図であり、図10は背景画像の平均距離マップの一例を示す図である。
【0036】
図10を参照すれば明らかなように、背景画像に対する距離値はマップ内で左上から右下に向かう対角線に近い要素では小さく、対角線から離れるに従い大きな値を持つことが分かる。これは、画像上で近い位置にある2つのブロックは似通った画素分布を持つので黒く示されており、2ブロックが互いに遠く離れるほど異なる画素分布を持つので白く示されている。
【0037】
なお、図10で縦方向および横方向に繰り返しパターンが見られるのは、本来縦横の2次元(N×M)に配置されているブロックを図4のX1…XM,Nのように一次元に並び替えたことに対応している。
【0038】
一方、図9に示す人物画像に対する距離マップの平均についても図10に示した背景と同様の傾向はあるものの、人の写っている領域に関連する中央部で背景画像とは異なっていることが分かる。
【0039】
ところで、距離マップはそのすべての要素を後述の認識処理に利用すると、数万次元という膨大な次元数になってしまい、学習・認識の両面で不都合を生じる。そのため、図2に示すステップSP3〜ステップSP9の処理により次元数の削減が行なわれる。すなわち、ステップSP3において距離マップを各要素ごとに比較し、第(9)式に基づいて両者の差分が求められる。
【0040】
【数4】
Figure 0003894782
【0041】
図11は第(9)式に基づく比較結果を示しており、明るい部分は人物画像と背景画像で距離マップ上の差が大きい要素を表しており、両者の識別に有効となる。そこで、値の大きい順にr個の要素(ur,1,vr,1),(ur,2,vr,2),…,(ur,r,vr,r)が選択される。たとえば、全体の約7.5%にあたる2000個の要素が選択される。
【0042】
次に、ステップSP4において、距離マップDk内からr個の要素を抜き出したものをr次元距離値ベクトルD´rk=[dk(ur,1,uv,1)…dk(ur,r,jr,r)]´で表す。
【0043】
続いて、ステップSP5において、人物画像についての距離ベクトルD´obj r,1,…,D´obj r,Kおよび背景画像についての距離ベクトルD´bck r,1,…,D´bck r,Kの分布をr次元正規分布で表現し、ステップSP6において、線形判別法により両者を判別する判別軸を求める。
【0044】
それぞれの距離値ベクトルの平均および共分散行列をそれぞれD´obj r,ΣD´obj(人物画像)およびD´bck r,ΣD´bck(背景画像)で表すとすると、r次元での判別軸Arは第(10)式によって得られる。
【0045】
【数5】
Figure 0003894782
【0046】
ステップSP7において、このようにして得られた判別軸から寄与の小さい要素を取り除き、ステップSP8において判別軸を再度計算することを繰り返しながらステップSP9において順次次元数を削減する。
【0047】
図12および図13は選択された要素を示す図である。
この図12および図13に示した例は、50個の要素(50次元)を元の画像空間に投影して表示したものであり1組のみハイライト表示されている。各要素は元の画像空間の2ブロックに相当するため、それらを図12に示すように中央に近いものと、図13に示すように遠いものに分けて表示されている。
【0048】
次に、上述のごとく作成されたモデルを用いて認識処理する動作について説明する。認識処理では、選択された要素に対応する判別軸により認識処理を行う。
【0049】
図14はこの発明の一実施形態の物体認識処理における認識処理の手順を示すフローチャートであり、図15は認識処理の流れを示し、図16は多重解像度画像による認識動作を示す図である。
【0050】
認識処理においては、入力画像の中で任意のサイズで写っている人物を認識することにある。このために、図14に示すステップSP11において、検査対象画像を準備する。この検査対象画像はカメラで対象となる画像が撮像され、デジタル化されてメモリに記憶される。しかし、人物が写る大きさはカメラと人物との距離によって変わるので、大きく写ることもあれば、小さく写ることもある。
【0051】
そこで、ステップSP12において、入力画像に基づいて図16に示すように数段階、たとえば3段階の解像度を持った画像が予め作成される。図16に示した例では、(a),(b)および(c)の順に解像度が粗くなっており、それぞれの解像度の画像にはたとえば大きさの異なる3つの人物画像が含まれている。ステップSP13において大きさの異なる人物画像からいずれかの検査対象解像度画像を選択する。
【0052】
そして、たとえば入力画像が図15に示すように320×240の画素を有しているものとすると、計算コストを抑えるために、ステップSP14において入力画像のすべての可能なブロックについて画素値の平均ベクトルxおよび共分散行列Σを計算する。計算式は前述の第(2)式および第(3)式が用いられる。その後、ステップSP15において検査対象領域を選択し、ステップSP16において画像内の各部分について距離ベクトルD´rを計算する。ステップSP17において前述の第(10)式で求められた判別軸Arと距離ベクトルD´rとに基づいてスコアを計算し、ステップSP18において、次式に基づいて、スコアArD´rがしきい値を越えたか否かを判別する。
【0053】
rD´r>しきい値 (11)
ステップSP20において全ての領域を検査したか否かを判別し、検査していない領域があればステップSP15に戻り、上述のステップSP15〜ステップSP20の動作を繰り返す。
【0054】
全ての領域を検査していればステップSP21において、全ての解像度画像を検査したか否かを判別する。検査していない解像度画像があればステップSP13に戻り、ステップSP13〜ステップSP21の動作を繰り返す。これらの一連の動作によりステップSP18において、スコアがしきい値を越えていることを判別すれば、ステップSP19において、人物が検出されたものと判別する。
【0055】
上述の方法を用いて、人物画像および背景画像として各4000枚(合計8000枚)の画像を用意し、実験を行った。まず、既に説明したように半分の4000枚(人物画像・背景画像各2000枚)の画像を使ってこの発明による認識率を評価した。その認識結果を次に示す。
【0056】
Figure 0003894782
次元数は認識に用いた距離マップ中の要素数を示しており、ここでは50要素による正答率が最も高く90%以上となったほか、10要素のみによる実験でも83%の正答率が得られた。
【0057】
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
【0058】
【発明の効果】
以上のように、この発明によれば、抽出された各領域の画素値分布の違いという物体自身の見え方の特徴に基づいて対象画像を認識処理することにより、物体が不特定の画素値をもつ場合であっても、正しく認識処理を行うことができる。すなわち、たとえば服装の異なる人物像など物体のもつ画素値が大きく異なる場合であっても、少数のモデルにより効率よく認識処理を行うことができる。
【0059】
しかも、この発明では固定した背景を仮定しないため、手持ちカメラのようにカメラが移動する場合や背景や照明が動的に変化する場合にも動作することが期待できる。
【図面の簡単な説明】
【図1】 この発明の一実施形態における物体認識装置のブロック図である。
【図2】 この発明の一実施形態における物体認識処理におけるモデル作成の手順を示すフローチャートである。
【図3】 モデル作成のためのブロック分割を説明するための図である。
【図4】 分割されたブロックの距離マップの計算を説明するための図である。
【図5】 入力画像の一例を示す図である。
【図6】 距離マップの一例を示す図である。
【図7】 人物画像の距離マップの一例を示す図である。
【図8】 背景画像の距離マップの一例を示す図である。
【図9】 人物画像の平均距離マップの一例を示す図である。
【図10】 背景画像の平均距離マップの一例を示す図である。
【図11】 平均距離マップ間の差を示す図である。
【図12】 選択された要素のうちの中央に近い例を示す図である。
【図13】 選択された要素のうちの遠い例を示す図である。
【図14】 この発明の一実施形態の物体認識処理における認識処理の手順を示すフローチャートである。
【図15】 認識処理の流れを示す図である。
【図16】 多重解像度画像による認識動作を示す図である。
【符号の説明】
1 カメラ、2 認識装置、21 A/D変換器、22 CPU、23 メモリ、24 出力装置。

Claims (6)

  1. 入力画像の中から対象とする対象物体画像を認識する物体認識装置であって、
    前記対象物体画像を含む画像と含まない画像のそれぞれの画像において、それぞれの画像を複数のブロック領域に分割し、互いに異なるブロック領域間の距離を計算して各ブロック領域間の距離値の集合である距離マップをそれぞれ求める画素値分布抽出手段と、
    前記入力画像について前記複数のブロック領域に分割された各前記ブロック領域についての距離マップを計算し、前記対象物体画像を含む画像と含まない画像の前記画素値分布抽出手段によってそれぞれ求められた距離マップとの比較に基づいて前記入力画像の中から前記対象物体画像を認識処理する認識処理手段とを備えたことを特徴とする、物体認識装置。
  2. 前記画素値分布抽出手段は、前記対象物体画像を含む画像と含まない画像のそれぞれ求められた距離マップの差分に基づいて、前記距離マップ内から抜き出した差分値の大きい要素を所定次元の距離ベクトルの分布でそれぞれ表し、前記対象物体画像を含む画像と含まない画像の距離値ベクトルの分布を判別する判別軸を求めることを特徴とする、請求項1に記載の物体認識装置。
  3. 前記画素値分布抽出手段は、前記求めた判別軸から前記距離マップ内の寄与の小さい要素をさらに取り除き、判別軸を再度計算して、次元数を削減することを特徴とする、請求項に記載の物体認識装置。
  4. 前記認識処理手段は、入力画像内の各部分について距離値ベクトルを計算し、計算した距離値ベクトルと前記画素値分布抽出手段によって求められた判別とに基づいて計算した値が所定のしきい値以上であれば前記対象物体画像が検出されたことを判別することを特徴とする、請求項に記載の物体認識装置。
  5. 前記認識処理手段は、前記入力画像内の各前記ブロック領域において、画素値の平均ベクトルと共分散行列を計算した後、次元数を減らして前記距離値ベクトルを計算することを特徴とする、請求項4に記載の物体認識装置。
  6. 前記認識処理手段は、前記入力画像から解像度の異なる複数種類の画像を生成し、前記複数種類の前記解像度の異なる画像の各々の中から前記対象物体画像を認識処理することを特徴とする、請求項に記載の物体認識装置。
JP2001376000A 2001-12-10 2001-12-10 物体認識装置 Expired - Fee Related JP3894782B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001376000A JP3894782B2 (ja) 2001-12-10 2001-12-10 物体認識装置
US10/050,966 US7110023B2 (en) 2001-12-10 2002-01-22 Method and apparatus for target object extraction from an image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001376000A JP3894782B2 (ja) 2001-12-10 2001-12-10 物体認識装置

Publications (2)

Publication Number Publication Date
JP2003178303A JP2003178303A (ja) 2003-06-27
JP3894782B2 true JP3894782B2 (ja) 2007-03-22

Family

ID=19184282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001376000A Expired - Fee Related JP3894782B2 (ja) 2001-12-10 2001-12-10 物体認識装置

Country Status (2)

Country Link
US (1) US7110023B2 (ja)
JP (1) JP3894782B2 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4084991B2 (ja) * 2002-11-29 2008-04-30 富士通株式会社 映像入力装置
JP2005128956A (ja) * 2003-10-27 2005-05-19 Pentax Corp 被写体判定プログラム及びデジタルカメラ
JP4605445B2 (ja) * 2004-08-24 2011-01-05 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4433948B2 (ja) * 2004-09-02 2010-03-17 株式会社セガ 背景画像取得プログラム、ビデオゲーム装置、背景画像取得方法、および、プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2006034135A2 (en) 2004-09-17 2006-03-30 Proximex Adaptive multi-modal integrated biometric identification detection and surveillance system
US20060210159A1 (en) * 2005-03-15 2006-09-21 Yea-Shuan Huang Foreground extraction approach by using color and local structure information
US7136524B1 (en) * 2005-09-16 2006-11-14 Proximex Corporation Robust perceptual color identification
US7720289B2 (en) * 2005-12-14 2010-05-18 Mitsubishi Electric Research Laboratories, Inc. Method for constructing covariance matrices from data features
US7620204B2 (en) * 2006-02-09 2009-11-17 Mitsubishi Electric Research Laboratories, Inc. Method for tracking objects in videos using covariance matrices
JP4905931B2 (ja) * 2006-07-04 2012-03-28 富士フイルム株式会社 人体領域抽出方法および装置並びにプログラム
KR101323735B1 (ko) * 2007-01-17 2013-10-30 삼성전자주식회사 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체
US9544563B1 (en) 2007-03-23 2017-01-10 Proximex Corporation Multi-video navigation system
US7777783B1 (en) 2007-03-23 2010-08-17 Proximex Corporation Multi-video navigation
JP4994174B2 (ja) * 2007-09-28 2012-08-08 東芝情報システム株式会社 データ処理装置及びデータ処理方法
US8447100B2 (en) * 2007-10-10 2013-05-21 Samsung Electronics Co., Ltd. Detecting apparatus of human component and method thereof
US8854481B2 (en) * 2012-05-17 2014-10-07 Honeywell International Inc. Image stabilization devices, methods, and systems
US20170147885A1 (en) * 2013-11-11 2017-05-25 Osram Sylvania Inc. Heat-Based Human Presence Detection and Tracking
CN106462962B (zh) * 2014-06-03 2020-08-04 住友重机械工业株式会社 施工机械用人检测系统以及挖土机
CN109781008B (zh) * 2018-12-30 2021-05-25 北京猎户星空科技有限公司 一种距离测量方法、装置、设备及介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0695008B2 (ja) * 1987-12-11 1994-11-24 株式会社東芝 監視装置
US6185314B1 (en) * 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US6295367B1 (en) * 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6141433A (en) * 1997-06-19 2000-10-31 Ncr Corporation System and method for segmenting image regions from a scene likely to represent particular objects in the scene
US6542621B1 (en) * 1998-08-31 2003-04-01 Texas Instruments Incorporated Method of dealing with occlusion when tracking multiple objects and people in video sequences
US6731799B1 (en) * 2000-06-01 2004-05-04 University Of Washington Object segmentation with background extraction and moving boundary techniques
US6760465B2 (en) * 2001-03-30 2004-07-06 Intel Corporation Mechanism for tracking colored objects in a video sequence

Also Published As

Publication number Publication date
US20030107653A1 (en) 2003-06-12
JP2003178303A (ja) 2003-06-27
US7110023B2 (en) 2006-09-19

Similar Documents

Publication Publication Date Title
JP3894782B2 (ja) 物体認識装置
JP6560480B2 (ja) 画像処理システム、画像処理方法、及びプログラム
CN108717531B (zh) 基于Faster R-CNN的人体姿态估计方法
JP5837508B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP5873442B2 (ja) 物体検出装置および物体検出方法
JP4217664B2 (ja) 画像処理方法、画像処理装置
US7672503B2 (en) Direction-recognizing apparatus, direction-recognizing method, direction-recognizing system, and robot apparatus
JP5812599B2 (ja) 情報処理方法及びその装置
CN111931764B (zh) 一种目标检测方法、目标检测框架及相关设备
CN107953329B (zh) 物体识别和姿态估计方法、装置及机械臂抓取系统
KR100930994B1 (ko) 3차원 영상 모델 생성 방법 및 장치, 이를 이용한 영상인식 방법 및 장치 그리고 상기 방법들을 수행하는프로그램이 기록된 기록 매체
JP2019125057A (ja) 画像処理装置及びその方法、プログラム
CN108564120B (zh) 基于深度神经网络的特征点提取方法
JP2010512581A (ja) 多次元ブースト回帰を経た外観及び動作を使用する高速人間姿勢推定
JP2003331316A (ja) 3次元カリカチュアの生成装置及びその方法
WO2013145615A1 (ja) 部位推定装置、部位推定方法、および部位推定プログラム
JPWO2006049147A1 (ja) 三次元形状推定システム及び画像生成システム
JP2005242567A (ja) 動作評価装置及び方法
CN110263605A (zh) 基于二维人体姿态估计的行人服饰颜色识别方法及装置
WO2024001095A1 (zh) 面部表情识别方法、终端设备及存储介质
JP2015184054A (ja) 同定装置、方法及びプログラム
JP2005351814A (ja) 検出装置および検出方法
CN115862074B (zh) 人体指向确定、屏幕控制方法、装置及相关设备
JP3940690B2 (ja) 画像処理装置及びその方法
CN111428609A (zh) 一种基于深度学习的人体姿态识别方法及系统

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061212

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees