JP2002197463A - 挙動検出装置および挙動検出システム - Google Patents

挙動検出装置および挙動検出システム

Info

Publication number
JP2002197463A
JP2002197463A JP2000395080A JP2000395080A JP2002197463A JP 2002197463 A JP2002197463 A JP 2002197463A JP 2000395080 A JP2000395080 A JP 2000395080A JP 2000395080 A JP2000395080 A JP 2000395080A JP 2002197463 A JP2002197463 A JP 2002197463A
Authority
JP
Japan
Prior art keywords
real world
person
behavior
image
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000395080A
Other languages
English (en)
Inventor
Tsuyoshi Megata
強司 目片
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2000395080A priority Critical patent/JP2002197463A/ja
Publication of JP2002197463A publication Critical patent/JP2002197463A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

(57)【要約】 【課題】 対象物の挙動検出において、静止・移動の判
定や姿勢判定を精度良く実行可能にする。 【解決手段】 人体候補領域抽出手段20は、画像から
挙動検出の対象となる人の領域を抽出する。頭頂部画像
座標抽出手段30は抽出された人体領域から頭頂部の画
像座標を抽出し、座標変換手段40は身長データを用い
て画像座標を実世界座標に変換する。距離算出手段80
は、一の時刻の頭頂部の実世界座標と、保持手段70に
保持された所定時間過去の頭頂部の実世界座標との間の
距離を求め、求めた距離と所定の閾値とを比較して、人
が移動状態か静止状態かを判定する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、監視等の目的で、
カメラで取得した画像から、その画像に撮された対象物
の位置や姿勢を検出する挙動検出技術に属するものであ
る。
【0002】
【従来の技術】図20は従来の挙動検出装置の構成の一
例を示す図である(大石他、「動画像中の人物像のリア
ルタイムアニメーション化」,電子情報通信学会技術報
告書,PRMU98−264(1999−03)参
照)。
【0003】図20において、901は検出対象領域が
画像に入るように、天井付近の高い位置に設置されたカ
メラの映像を入力する画像入力手段、902は人体候補
領域抽出手段、903は足元検出手段、904は足元の
画像座標を実世界座標に変換する座標変換手段、905
は画像上の頭頂部座標検出手段、906は頭・胴体・脚
候補領域抽出手段、907は形状による姿勢判断手段、
908は追跡・統合手段、909は記録手段、910は
表示手段である。
【0004】図20の従来の挙動検出装置において、画
像入力手段901によって取得された映像から、人体候
補領域抽出手段902によって空間的な近さや色などを
用いて人体候補領域を抽出する。足元検出手段903は
取得された画像中の人体候補領域の下端の左右方向中央
を、足元位置と同定する。ここで、検出対象領域の実世
界座標軸として、カメラから下ろした垂線をZw軸と
し、床面との交点を原点とし、床面上にXw、Yw軸を
とる。カメラの画像上の座標系を横方向u、縦方向vと
とる。座標変換手段40は予め取得していた実世界座標
上のカメラの高さ、俯角、画角、カメラのレンズの焦点
距離などと、画像上での足元座標(uf,vf)および
足元の高さh(この場合h=0)から、足元実世界座標
(xwf,ywf)を求める。この具体的方法や変換に
必要な数式は、例えば、松山他「コンピュータービジョ
ン」(新技術コミュニケーションズ刊)第3章に記載さ
れている数式を変形することによって、容易に得ること
ができる。
【0005】次に、画像上の頭頂部座標推定手段905
において、足元の実世界座標と予め設定された身長から
頭頂部の実世界座標を生成し、起立時に頭頂部が存在べ
きカメラ画像上の座標(uh,vh)を推定する。頭・
胴体・脚候補領域抽出手段906は、空間的な近さや色
などを用いて人体候補領域を頭部、胴体、脚の3つの領
域に分割する。
【0006】形状による姿勢判定手段907は、抽出さ
れた人体領域候補の形状とフレーム間の足元画像座標の
移動とに応じて、以下のような姿勢認識の判定を行う。
【0007】 a)人が移動している場合:「歩行」と判断 b)頭・胴体・脚候補領域の抽出がうまくいかなかった
場合 以下の2条件のうち一方が満たされた場合:「座ってい
る」または「横たわっている」と判断 b−1)「立っている」と仮定した場合のカメラ画像上
でのv軸方向の推定長さ/画像上の人体候補領域のv軸
方向の長さ< 閾値1 b−2)人体候補領域のv軸方向の長さ/人体候補領域
のu軸方向の長さ<閾値2 c)頭・胴体・脚候補領域の抽出がうまくいった場合 c−1)次の条件のうち一つが成り立つとき、「座って
いる」と判断、 1)検出脚領域の長さ/標準モデルの脚の長さ < 閾
値3 2)脚の長さ/脚の幅 < 閾値4 c−2)次の条件が同時に成立するとき、「横たわって
いる」と判断 1)検出された頭の領域の面積/標準モデルの頭の面積
< 閾値4 2)検出された胴体の領域の面積/標準モデルの胴体の
面積 < 閾値5 3)検出された脚の領域の面積/標準モデルの脚の面積
< 閾値6 ここで、「標準モデル」とは直立時の各部分を矩形近似
したときの、面積、寸法のことである。
【0008】判定結果に基づき、各時刻におけるフレー
ムの分析結果を追跡・統合手段908で統合し、位置座
標と姿勢の追跡記録を記録手段909に出力する。結果
は表示手段910に表示される。
【0009】
【発明が解決しようとする課題】ところが、従来の挙動
検出装置では、以下のような問題がある。
【0010】まず、従来では、画像から抽出した人体候
補領域の足元の画像座標を検出し、これから人体の実世
界座標を計算して、移動軌跡を算出したり歩行判定を行
ったりしている。しかしながら、人の足元は、家具など
によって隠蔽される場合が多く、このため足元の移動に
よって静止、移動を検出することは困難である。
【0011】また、従来では、人の姿勢判定が必ずしも
精度良く行われるとは限らない。
【0012】図21は人体がカメラに正対して「寝」
「座」「立」の姿勢をとった場合の模式図である。91
1はカメラであり、912は画像平面を模式的に表した
ものである。図21から分かるように、人体の位置がカ
メラ911から遠い場合(a)と近い場合(b)とで
は、「寝」「座」「立」の各姿勢における画像上の長さ
の大小関係が逆転してしまう。すなわち、図21(a)
の場合には、画像上の長さが最大となるのは「立」であ
るが、図21(b)の場合には、「寝」のときに画像上
の長さが最大となる。このため、上述した判定条件b−
1)のように、実際に映った画像上の長さと「立ってい
る」と仮定したときの画像上長さとの比を閾値と比較し
て判定する場合には、対象範囲全域にわたって閾値を固
定すると所望の検出精度は得られず、したがって、姿勢
判定を行う範囲を限定する必要が生じる。
【0013】あるいは、上述した判定条件b−2)は、
人体領域の縦横比を用いて姿勢判定を行うものである
が、背景差分等を用いる場合には横方向に生じる影の影
響によって人体候補領域の幅が実際の人体の幅に比べて
広くなる可能性があり、一定の閾値によって判定するこ
とは困難である。また、体の幅と厚みには2倍程度の差
があるため、人体候補領域のu軸方向の長さは、その人
が仰向けに寝るか、横向きに寝るかによっても変化し、
b−2)の左辺の値は、人体の向きによって変動する。
【0014】したがって、条件b−1),b−2)によ
る判定では、例えば、実際には立っているのに「座」ま
たは「寝」と判定される場合もあり得ることになり、精
度の高い姿勢判定がきわめて困難である。
【0015】さらに、従来では、人体が常に対象範囲内
に存在することを前提としているので、例えば、部屋の
窓ガラスなどを通じて別の人のシルエットが画像に一時
的に写ったような場合に、移動軌跡に誤りが生じるおそ
れがあった。
【0016】前記の問題に鑑み、本発明は、挙動検出と
して、足元が家具等によって隠蔽されたような場合で
も、静止、移動の判定や移動軌跡の算出を精度良く実行
可能にすることを課題とする。
【0017】また、本発明は、挙動検出として、カメラ
からの距離、体の向きや影の影響等を受けることなく、
精度の高い姿勢判定を実行可能にすることを課題とす
る。
【0018】また、本発明は、挙動検出として、たとえ
窓の外を通過する別の人が画像に映ったとしても、対象
物の移動軌跡を正確に算出可能にすることを課題とす
る。
【0019】
【課題を解決するための手段】前記の課題を解決するた
めに、請求項1の発明が講じた解決手段は、挙動検出装
置として、画像から挙動検出の対象となる物の領域を抽
出し、抽出した領域から前記対象物の特定部位が存在す
る実世界座標を算出する第1の手段と、前記第1の手段
によって算出された実世界座標を少なくとも所定時間保
持する第2の手段と、前記第1の手段によって算出され
た一の時刻における前記特定部位の実世界座標と、前記
第2の手段に保持された前記一の時刻よりも前記所定時
間だけ前の時刻における前記特定部位の実世界座標との
間の距離を求め、求めた距離と所定の閾値とを比較する
ことによって前記対象物が移動状態か静止状態かを判定
する第3の手段とを備えたものである。
【0020】請求項1の発明によると、対象物の特定部
位の,一の時刻における実世界座標と所定時間だけ前の
時刻における実世界座標との間の距離、すなわち、対象
物の特定部位の所定時間における移動距離によって、対
象物が移動状態か静止状態かが判定される。このため、
家具などによって足元が隠蔽されたような状況であって
も、その影響を受けることなく、対象物の静止、移動の
判定を精度良く行うことができる。
【0021】請求項2の発明では、前記請求項1の挙動
検出装置における対象物は、人であり、前記特定部位
は、前記人の頭頂部であるものとする。
【0022】請求項3の発明では、前記請求項1の挙動
検出装置における所定時間は、2秒以上の時間であるも
のとする。
【0023】請求項4の発明では、前記請求項1の挙動
検出装置における第3の手段は、前記所定の閾値とし
て、移動状態から静止状態への移行を判定するための第
1の閾値と静止状態から移動状態への移行を判定するた
めの第2の閾値とを用いるものとし、前記第2の閾値は
前記第1の閾値よりも大きいものとする。
【0024】また、請求項5の発明が講じた解決手段
は、挙動検出装置として、画像から挙動検出の対象とな
る物の領域を抽出し、抽出した領域の主軸の傾きを求め
る第1の手段と、前記第1の手段によって求められた主
軸傾きと所定の閾値とを比較することによって、前記対
象物が「寝」状態であるか否かを判定する第2の手段と
を備えたものである。
【0025】請求項5の発明によると、抽出した対象物
領域の主軸傾きと所定の閾値との比較によって、「寝」
状態か否かの判定が判定される。したがって、カメラか
らの距離、体の向きや影の影響等を受けることなく、精
度の高い姿勢判定を実現することができる。
【0026】請求項6の発明では、前記請求項5の挙動
検出装置において、前記領域の実世界上の位置を推定
し、前記所定の閾値をこの推定位置に応じて決定するも
のとする。
【0027】請求項7の発明では、前記請求項5の挙動
検出装置において、前記所定の閾値を前記領域の画像上
の位置に応じて決定するものとする。
【0028】請求項8の発明では、前記請求項5の挙動
検出装置における第1の手段は、一のフレーム画像にお
ける前記主軸傾きの値として、当該フレーム画像および
その時間的近傍のフレーム画像についてそれぞれ求めた
複数の主軸傾きの値の代表値を用いるものとする。
【0029】請求項9の発明では、前記請求項5の挙動
検出装置における第1の手段は、一のフレーム画像にお
いて前記領域が消失したとき、その前のフレーム画像に
おける前記主軸傾きの値を当該フレーム画像の主軸傾き
の値として用いるものとする。
【0030】また、請求項10の発明が講じた解決手段
は、挙動検出装置として、画像から挙動検出の対象とな
る人の領域を抽出する第1の手段と、前記第1の手段に
よって抽出された領域の頭部に相当する部分の画像座標
からその部分と当該画像を撮影したカメラとの間の第1
の水平距離を求める第2の手段と、前記領域の足元に相
当する部分の画像座標からその部分と前記カメラとの間
の第2の水平距離を求める第3の手段と、前記第1の水
平距離と前記第2の水平距離とを大小比較し、その比較
結果に基づき前記人物の姿勢を判定する第4の手段とを
備えたものである。
【0031】請求項10の発明によると、頭部とカメラ
との間の第1の水平距離と、足元部とカメラとの間の第
2の水平距離との大小比較によって、姿勢の判定を行
う。すなわち、頭部の推定位置がその人の姿勢に応じて
変わることを利用して、姿勢を判定するので、精度の高
い姿勢判定が可能になる。
【0032】請求項11の発明では、前記請求項10の
挙動検出装置における第2の手段は、前記人が立ったと
きの頭頂高近傍の高さを仮定して頭部部分の画像座標を
実世界座標に変換し、得られた実世界座標を用いて前記
第1の水平距離を求めるものとする。
【0033】請求項12の発明では、前記請求項10の
挙動検出装置における第2の手段は、前記人が座ったと
きの頭頂高近傍の高さを仮定して頭部部分の画像座標を
実世界座標に変換し、得られた実世界座標を用いて前記
第1の水平距離を求めるものとする。
【0034】請求項13の発明では、前記請求項10の
挙動検出装置における第3の手段は、床面の高さを仮定
して足元部分の画像座標を実世界座標に変換し、得られ
た実世界座標を用いて前記第2の水平距離を求めるもの
とする。
【0035】また、請求項14の発明が講じた解決手段
は、人の挙動を検出するシステムとして、請求項5記載
の挙動検出装置と同一の構成からなる第1の挙動検出部
と、請求項10記載の挙動検出装置と同一の構成を含む
第2の挙動検出部とを備え、前記第1の挙動検出部が、
前記人は「寝」状態であると判定したときは、前記人は
「寝」状態であると判定する一方、前記第1の挙動検出
部が、前記人は「寝以外」状態であると判定したとき
は、前記第2の挙動検出部の判定結果を最終的な判定結
果とするものである。
【0036】また、請求項15の発明が講じた解決手段
は、人の挙動を検出するシステムとして、請求項1記載
の挙動検出装置と同一の構成からなる第1の挙動検出部
と、少なくとも「寝」状態か「寝以外」状態かの姿勢判
定を行う第2の挙動検出部とを備え、前記第1の挙動検
出部が、前記人は移動状態であると判定し、かつ、前記
第2の挙動検出部が、前記人は「寝以外」状態であると
判定したとき、前記人は「歩行」状態であると判定する
ものである。
【0037】また、請求項16の発明が講じた解決手段
は、人の挙動を検出するシステムとして、画像から前記
人の人体領域を抽出する第1の手段と、前記人体領域を
基にして前記人の姿勢判定を行う第2の手段と、前記人
体領域の画像座標から、前記第2の手段の姿勢判定結果
に応じて前記人の実世界座標を求める第3の手段とを備
え、前記第3の手段は、前記人が姿勢を変えたとき、姿
勢変化の開始から終了までの移動軌跡がなめらかになる
ように実世界座標を求めるものである。
【0038】請求項17の発明では、前記請求項16の
挙動検出システムにおける第3の手段は、前記人体領域
の画像座標から各姿勢に応じてそれぞれ生成された実世
界座標候補から、前記第2の手段の姿勢判定結果に応じ
て一の実世界座標候補を選択し、一のフレームについて
選択した実世界座標候補とその前のフレームの実世界座
標とを重み付け加算することによって、前記一のフレー
ムの実世界座標を求めるものであり、かつ、前記第2の
手段の姿勢判定結果が変化したとき、実世界座標を求め
る際における実世界座標候補の重みを、姿勢判定結果が
変化しない定常時よりも小さくするものとする。
【0039】請求項18の発明では、前記請求項16の
挙動検出システムにおける第3の手段は、前記第2の手
段の姿勢判定結果に応じて前記人の高さを推定し、前記
人体領域の画像座標を推定した高さに基づいて実世界座
標に変換するものであり、かつ、前記第2の手段の姿勢
判定結果が一の姿勢から他の姿勢に変化したとき、前記
人の高さの推定値を、前記一の姿勢における推定値から
前記他の姿勢における推定値に徐々に変化させるものと
する。
【0040】また、請求項19の発明が講じた解決手段
は、挙動検出装置として、画像から挙動検出の対象とな
る物が占める領域を抽出し、抽出した領域から前記対象
物の特定部位が存在する実世界座標を算出する第1の手
段と、前記第1の手段によって算出された実世界座標を
用いて前記対象物の移動軌跡を求める第2の手段とを備
え、前記第2の手段は、前記実世界座標が所定の範囲内
にあるか否かを判定し、前記所定の範囲内にない実世界
座標を前記対象物の移動軌跡を求めるための実世界座標
から外すものである。
【0041】請求項19の発明によると、所定の範囲内
にない実世界座標は、対象物の移動軌跡を求めるための
実世界座標から外されるので、例えば、撮影した部屋領
域の外に検出された実世界座標を移動軌跡の算出から除
外することができるので、窓の外を通過する別の人が画
像に映ったような場合でも、対象物の移動軌跡を正確に
算出することができる。
【0042】
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照して説明する。
【0043】(第1の実施形態)図1は本発明の第1の
実施形態に係る挙動検出装置の構成を示すブロック図で
ある。図1において、10は例えば天井付近の高い位置
に設置されたカメラ1の映像を入力する画像入力手段、
20は人体候補領域抽出手段であって、入力画像を蓄積
して背景を生成し、差分処理によって非背景領域と背景
領域とを2値分別した差分画像を生成する差分処理部2
1、抽出された非背景領域をひと固まり毎にまとめるラ
ベリング処理部22、およびラベリングされた各領域の
面積、形状等からノイズ領域等を除外する抽出領域フィ
ルタ部23を備えている。
【0044】30はラベリングされた領域の中で画像上
最も高い点の座標を特定部位としての頭頂部の座標とし
て検出する頭頂部画像座標抽出手段、40は頭頂部画像
座標を実世界座標に変換する座標変換手段、50は身長
データベース(DB)である。また、60は追跡・統合
手段、70は実世界座標を所定時間としての3秒間保持
する第2の手段としての実世界座標保持手段、80は現
フレームにおける頭頂部の実世界座標と3秒前のフレー
ムにおける頭頂部の実世界座標との水平距離を算出する
距離算出手段、90は閾値判定手段である。
【0045】ここで、検出対象領域の実世界座標軸とし
て、床面上にXw,Yw軸をとり、高さ方向にZw軸を
とる。手段20,30,40および50によって第1の
手段が構成されており、80および90によって第3の
手段が構成されている。
【0046】図1のように構成された挙動検出装置にお
いて、画像入力手段10によって取得された画像から、
差分処理部21、ラベリング処理部22および抽出領域
フィルタ部23によって、人体候補領域が抽出される。
頭頂部画像座標抽出手段30は、抽出された人体候補領
域のうち画像座標上最も高い位置にある点の座標を頭頂
部座標として抽出する。
【0047】座標変換手段40は、予め取得した実世界
上のカメラ1の高さ、俯角、画角、レンズの焦点距離な
どと、頭頂部画像座標抽出手段30によって抽出された
画像上の頭頂部座標(uh,vh)、および身長DB5
0から読み出した身長すなわち頭頂部の実世界上の高さ
とから、座標変換によって、頭頂部の実世界座標(xw
f,ywf)を求める。ここでの変換に要する数式は、
例えば松山他「コンピュータービジョン」(新技術コミ
ュニケーションズ刊)第3章に記載された数式を変形す
ることによって得ることができる。なお、身長DB50
からの身長データの読み出しは、一連の処理の中で少な
くとも一度行えばよい。
【0048】追跡・統合手段60は、連続するフレーム
間で同一人と推定できる人体候補領域同士の関連付けを
行う。実世界座標保持手段70は、過去3秒間にわたり
各フレームで算出された人体候補領域の実世界座標を保
持する。距離算出手段80は、追跡・統合手段60によ
って関連付けられた人体候補領域について、現在のフレ
ームの実世界座標とその3秒前の実世界座標との間の水
平距離を計算する。閾値判定手段90は、距離算出手段
80によって求められた距離と所定の閾値とを比較し、
その距離が閾値よりも大きいときは、その人は移動状態
であると判定する一方、閾値よりも小さいときはその人
は静止状態であると判定する。閾値は、例えば1000
mmに設定する。
【0049】図2は図1の挙動検出装置における閾値判
定手段90の構成例を示すブロック図である。図2に示
す閾値判定手段90は、所定の閾値として、移動状態か
ら静止状態への移行を判定するための第1の閾値Aと、
静止状態から移動状態への移行を判定するための第2の
閾値Bとを用いる。
【0050】図3はある画像シーケンスにおける人の移
動距離の算出結果の一例を示す図である。同図中、
(a)は人物A、(b)は人物Bのものであり、縦軸は
所定時間(ここでは3秒間)の移動量(mm)、横軸は
フレーム番号である。実線は移動量の時間変化を示し、
矢印は静止期間を示す。フレーム間隔は0.1秒であ
る。
【0051】図3(a)の場合には、閾値を単に100
0mm程度に設定することによって、移動状態と静止状
態とをおおよそ判定することができる。しかしながら、
細かく見ると、移動状態のときであっても移動量が50
0mm程度まで低下する場合がある。これは、人の移動
速度が一定ではないためである。このような場合、閾値
を1000mmに設定すると誤判定が起こる可能性があ
り、誤判定を未然に防ぐためには、閾値をさらに低く設
定する必要がある。一方、図3(b)の場合には、静止
期間である250フレームから350フレームまでの間
において、大きな移動量が検出されるときもあり、最大
で800mm程度の移動量が検出されている。これは、
座った状態で上体を揺らしたために生じた頭頂部の微動
によるものであり、特に座った直後に起こりやすい。
【0052】そこでここでは、閾値にヒステリシスを設
けて、対象が「移動」状態のときは、閾値を比較的低い
閾値A(ここでは200mm)に設定する一方、「静
止」状態のときは、比較的高い閾値B(ここでは100
0mm)に設定する。これにより、静止状態における頭
部の微動に起因する誤判定は閾値Bが高いために生じる
ことはなく、かつ、移動状態から静止状態への変化は閾
値Aが低いので確実に検出することができる。
【0053】図3に2つの閾値を設定した場合の検出結
果を一点鎖線によって示している。図3から、人物Aお
よび人物Bの両方について、静止状態と移動状態の判定
が精度良く行われていることが分かる。なお、判定結果
は、実際の状態に対して1〜2.8秒遅延する。この遅
延は、判定に3秒前のフレームからの移動量を用いてい
るために生じる。また、「移動→静止」の方が「静止→
移動」よりも遅延が大きいのは、閾値にヒステリシスを
持たせているためである。実際にこの判定結果を用いる
場合には、このような遅延を考慮に入れる必要がある。
【0054】以上のように本実施形態によると、所定時
間における頭頂部の移動距離によって人の静止・移動を
判定するので、家具などによって足元が隠蔽された状況
であっても、その影響を受けることなく、対象が移動状
態か静止状態かを判定することができる。また、頭頂部
は足元部に比べて着座時でも細かな動きをするが、所定
時間における移動距離によって評価すれば、座った状態
において上体のみを動かす状態と、歩行や寝転がるよう
な移動とを識別することができる。さらに、移動状態か
ら静止状態への移行を判定するための閾値Aと、静止状
態から移動状態への移行を判定するための閾値Bを用
い、閾値Bを閾値Aに比べて大きな値に設定することに
よって、より正確に判定を行うことが可能である。もち
ろん、1個の閾値を用いてもかまわない。
【0055】なお、本実施形態では、単に1つの閾値を
設定する場合には、その値を1000mmとし、2種類
の閾値を設定する場合には、その値を200mmおよび
1000mmとしたが、これ以外の値でもよいことはい
うまでもない。
【0056】また、本実施形態では、人体候補領域の特
定部位として頭頂部を用いたが、箇所が特定できる部位
であれば、頭頂部以外の例えば両肩や腰などを特定部位
として用いてもかまわない。また、人以外でも、例えば
動物やロボットなどを検出対象とした場合でも、本実施
形態と同様に実施することができる。
【0057】また、移動量を求めるための所定時間は、
ここでは3秒としたが、これ以外の時間であってもかま
わない。ただし、時間があまり短すぎると、人間の挙動
特性からみて判定が困難になることが分かっており、2
秒以上の時間であることが好ましい。また、実世界座標
保持手段70における保持時間は、移動量を求める所定
時間よりも長い時間であればよい。
【0058】さらに、人体候補領域の抽出は、差分処
理、ラベリング処理およびフィルタリング以外の手法を
用いてもよい。また、人体候補領域の特定部位の算出
は、特定部位の画像座標を実世界座標に変換する代わり
に、足元の点を用いて算出したりステレオ視を用いた手
法によって行ってもかまわない。
【0059】(第2の実施形態)図4は本発明の第2の
実施形態に係る挙動検出装置の構成を示すブロック図で
ある。図4では、図1と共通の構成要素には図1と同一
の符号を付しており、ここではその詳細な説明は省略す
る。図4において、110は人体候補領域抽出手段20
によって抽出された人体候補領域について、主軸の傾き
としての主軸角を求める主軸角計算手段、120は主軸
角計算手段110によって求められた主軸角と所定の閾
値との大小比較を行う閾値判定手段である。人体候補領
域抽出手段20および主軸角計算手段110によって第
1の手段が構成されており、閾値判定手段120によっ
て第2の手段が構成されている。
【0060】図4の構成において、画像入力手段10に
よって取得された映像から、第1の実施形態と同様に、
人体候補領域抽出手段20によって人体候補領域が抽出
される。そして、主軸角計算手段110によって、人体
領域の主軸が画像u軸に対してなす角度θ(0≦θ≦9
0°)が算出される。閾値判定手段120は、算出され
た主軸角θと所定の閾値とを大小比較し、主軸角θが閾
値よりも小さいときは、対象となる人は寝ている
(「寝」状態)と判定する一方、主軸角θが閾値よりも
大きいときは、寝ていない(「寝以外」状態)と判定す
る。
【0061】図5はカメラ1によって取得した画像の一
例である。カメラ1は水平画角110度の広角のカメラ
であり、10畳程度の広さの部屋の一角に設置されてい
る。同図中、(a)は人が寝ている状態、(b)は座っ
ている状態、(c)〜(e)は立っている状態である。
図5から分かるように、人体領域の主軸傾きを所定の閾
値と大小比較することによって、「寝」状態か「寝以
外」状態かを容易に判定することができる。また図5
(c),(e)の場合、カメラを挟む部屋の2辺近辺を
歩く人体像は、画像のゆがみによって、傾いて映ってい
る。したがって、閾値としては、図5(c),(e)の
状態における主軸角よりも小さな値を設定する方がよ
い。例えば50°〜60°程度が好ましい。
【0062】図6は本実施形態の他の例に係る挙動検出
装置の構成を示すブロック図である。図6では、図4の
構成に加えて、図1と共通の頭頂部画像座標抽出手段3
0および座標変換手段40と、座標変換手段40から出
力された実世界座標に依存して閾値を決定する閾値決定
手段130とが設けられている。
【0063】すなわち、図6の構成では、閾値決定手段
130は、座標変換手段40から出力された人体候補領
域が存在する実世界座標に応じて、閾値を決定する。そ
して閾値判定手段120は、閾値決定手段130から出
力された閾値と主軸角計算手段110から出力された主
軸角θとを大小比較し、「寝」「寝以外」の判定を行
う。
【0064】図5から明らかなように、広角レンズを用
いたカメラを部屋の片隅の天井付近においた場合には、
カメラを挟む部屋の2辺の近傍領域では、人が直立して
いても人体領域の主軸が傾く。よって、人体候補領域の
実世界上の位置に応じて「寝」「寝以外」の判定閾値を
変えることによって、より細やかな判定が可能になる。
例えば、部屋の2辺近傍では閾値は50°とし、それ以
外の領域では閾値を70°とすればよい。
【0065】なお、人体候補領域の実世界座標に応じて
閾値を決定する代わりに、人体候補領域の画像上の位置
に応じて閾値を決定してもよい。
【0066】図7は本実施形態の他の例に係る挙動検出
装置の構成を示すブロック図である。図7では、図4と
共通の構成要素には図4と同一の符号を付している。図
7において、210は時間的に隣接するフレーム間で人
体候補領域を関連付けるフレーム間追跡手段、220は
フレーム間追跡が不能であったとき人体候補領域が消失
したと判定する消失検出手段、230は主軸角計算手段
110から出力された主軸角を保持する保持手段、24
0a,240bは消失検出手段220の出力によって切
替制御される第1および第2のスイッチ、250は過去
5フレームの主軸角θの最大値を代表値として抽出する
最大値抽出手段である。手段20,110,210,2
20,230,240a,240bおよび250によっ
て、第1の手段が構成されている。
【0067】図7の構成において、フレーム間追跡手段
210は、人体候補領域抽出手段20によって抽出され
た人体候補領域を、時間的に隣接するフレーム間で関連
付ける。消失検出手段220は、フレーム間追跡手段2
10においてフレーム間追跡がうまくいかなかったと
き、人体候補領域が消失したと判定する。第1および第
2のスイッチ240a,240bは、消失検出手段22
0によって人体候補領域の消失が検出された場合は端子
B側にセットされ、これ以外の場合は端子A側にセット
される。すなわち、人体候補領域が消失した場合には、
保持手段230が保持していた,消失が検出される直前
のフレームの主軸角が最大値抽出手段250に出力され
る。最大値抽出手段250は過去5フレームの主軸角θ
のうち最大値を抽出する。閾値判定手段120は、最大
値抽出手段250から出力された主軸角の最大値と所定
の閾値とを比較し、「寝」「寝以外」を判定する。
【0068】例えば差分を用いて人体候補領域を抽出す
る場合には、人が長時間静止したとき、人体領域が消失
する場合がある。このような場合でも、図7の構成によ
ると、消失直前のフレームの主軸角に基づいて姿勢判定
が行われるので、姿勢判定が確実に実行可能となる。
【0069】また、差分を用いて人体候補領域を抽出す
る場合には、人が移動や動作中のとき、人体領域がしば
しば部分的に欠落し、このため主軸角を安定して求める
ことが困難な場合がある。このような場合でも、図7の
構成によると、過去5フレームの最大の主軸角θをその
フレームの主軸角として用いるので、安定した姿勢判定
が実行可能となる。すなわち、人体領域の消失や部分的
な欠落によって影響を受けることなく、安定した姿勢判
定が可能となる。
【0070】なおここでは、過去5フレームの主軸角の
最大値を代表値として用いるものとしたが、最大値を求
めるためのフレーム数は5以外であってもよいし、ま
た、最大値を求める際に当該フレームの後続フレームを
用いてもかまわない。また、最大値の代わりに、中間値
などを代表値として用いてもよい。
【0071】なお、人以外でも、例えば動物やロボット
などを検出対象とした場合でも、本実施形態と同様に実
施することができる。
【0072】(第3の実施形態)図8は本発明の第3の
実施形態に係る挙動検出装置の構成を示すブロック図で
ある。図8では、図1と共通の構成要素について、図1
と同一の符号を付している。
【0073】図8の構成において、310は頭頂部画像
座標抽出手段30によって抽出された頭頂部の画像座標
を、立状態における頭頂高さデータ300を用いて実世
界座標に変換する第1の座標変換手段、320はカメラ
1から頭頂部までの実世界上の距離を第1の水平距離と
して算出する第1の水平距離計算手段である。また、3
30は人体候補領域から足元の画像座標を抽出する手段
である。足元の画像座標の抽出は、人体候補領域の外接
矩形の下端中央点を足元とみなして利用するなどによっ
て実現できる。340は足元部の画像座標を、床面の高
さを用いて実世界座標に変換する第2の座標変換手段、
350はカメラ1から足元部までの実世界上の距離を第
2の水平距離として算出する第2の水平距離計算手段、
360は第1および第2の水平距離計算手段320,3
50の算出結果を基にして姿勢判定を行う手段である。
人体候補領域抽出手段20によって第1の手段が構成さ
れており、手段30,310および320によって第2
の手段が構成されており、手段330,340,350
によって第3の手段が構成されており、姿勢判定手段3
60によって第4の手段が構成されている。
【0074】図9は人体の姿勢とカメラからの見え方と
の関連を示す図である。図9を参照しながら、図8の構
成の動作を説明する。
【0075】図9において、(a)は人が直立している
場合の側方から見た図、(b),(c)はそれぞれ、人
が寝ている場合の上方および側方から見た図である。h
cはカメラの高さ、hrは実際の人体の身長、hmは座
標変換のために用いる人体候補領域の頭頂部の推定高
さ、hbは人が寝ているときの床面からの高さ、rはカ
メラから人体までの実際の距離、△ruは人が立ってい
る場合の位置推定の誤差、△rdは人が寝ている場合の
位置推定の誤差である。誤差Δruが生じるのは、hr
とhmとが等しくないからである。
【0076】図9から、下の式を得ることができる。
【数1】
【数2】
【数3】
【0077】図10および図11は、上式から求めた誤
差ΔruおよびΔrdと実際の距離rとの関係を表すグ
ラフである。図10では、hr=160(cm)、φ=
0(°)、hb=0(cm)とし、図11では、hr=
160(cm)、φ=45(°)、hb=60(cm)
とし、hmに様々な値を与えている。
【0078】まず、図10(a)および図11(a)か
ら分かるように、hmをhr(=160)よりも小さい
値に設定すれば、人が立っている場合の誤差△ruはい
かなる距離rにおいても正の値になり、その値は距離r
とともに増加する。一方、図10(b)および図11
(b)から分かるように、人が寝ている場合の誤差△r
dはhmの値にかかわらず、距離rに応じて減少し、距
離rが1mを越えるあたりから負の値になる。
【0079】すなわち、頭頂高hmを実際の身長hrよ
りも低めに設定すると、頭頂部の推定位置は、人が立っ
ている場合には、足元部の位置よりも遠くなる一方、人
が寝ている場合には、足元部の位置よりも近くなる。
【0080】本実施形態は、このような関係を利用する
ものであり、姿勢判定部360は、頭頂高hmを仮定し
て推定した,カメラから頭頂部までの第1の水平距離
と、カメラから実際の人体候補領域の足元部までの第2
の水平距離とを大小比較し、第1の水平距離の方が大き
いときは、人が立っていると判定する一方、第2の水平
距離の方が大きいときは、人が立っていないと判定す
る。これにより、精度の高い姿勢判定が可能になる。
【0081】なお本実施形態では、hmとして身長近傍
の値を仮定したが、この代わりに、座った状態における
頭頂高近傍の数値を用いれば、本実施形態と同様の判定
手法によって、第1の水平距離が第2の水平距離よりも
ある閾値以上小さくなった場合に寝ていると判定するこ
とによって、人が寝ているか寝ていないかを判定するこ
とができる。さらには、身長近傍の値と、座った状態の
頭頂高近傍の値の2種類の値をhmとして用いて、それ
ぞれの判定結果を組み合わせることによって、「寝」
「座」「立」の姿勢判定が可能になる。
【0082】また、図10や図11のデータから、カメ
ラから足元部までの第2の水平距離に基づき、人が立っ
ている場合と寝ている場合とでそれぞれ予想される頭頂
部までの距離を求め、カメラから頭頂部までの第1の水
平距離が、予想した距離のいずれの方に近いかによって
姿勢判定を行ってもよい。あるいは、図10または図1
1においてΔruとΔrdの大小関係が逆転する,rが
極めて小さい場合(例えばr<1m)において、第1の
水平距離と第2の水平距離との大小関係の姿勢判定のた
めの条件を逆転させて、近距離でも正しく判定できるよ
うにしてもよい。この手法を用いると、例えばカメラか
ら1m以内に人がいるような場合であっても、正しい姿
勢判定が可能になる。
【0083】(第4の実施形態)図12は本発明の第4
の実施形態に係る挙動検出システムの構成を示すブロッ
ク図である。図12において、410は図4に示すよう
な構成からなり、人体候補領域の主軸角に基づき姿勢判
定を行う第1の挙動検出部、421,422はそれぞれ
図8に示すような構成からなる姿勢判定を行う挙動検出
部、425は挙動検出部421,422の姿勢判定結果
を統合する手段である。挙動検出部421,422およ
び統合手段425によって、第2の挙動検出部420が
構成されている。450は第1の挙動検出部410およ
び第2の挙動検出部420の判定結果から、総合的に姿
勢判定を行う総合判断部である。
【0084】第1の挙動検出部410は、第2の実施形
態で示したように「寝」「寝以外」の姿勢判定を行う。
一方、第3の実施形態で示したように、挙動検出装置4
21は、頭頂高hmを座った状態の頭頂高近傍の値に設
定して「寝」「寝以外」の判定を行い、挙動検出装置4
22は、頭頂高hmを身長近傍の値に設定して「立」
「立以外」の判定を行う。統合手段425は挙動検出装
置421,422の判定結果を統合し、「寝」「座」
「立」の3姿勢のうちのいずれかを出力する。
【0085】図9(b)において、角度φが45°以上
のときは、人体はその位置にかかわらず直立時と異なる
主軸角を有するため、第1の挙動検出部410の判定結
果は信頼性がきわめて高い。一方、角度φが45°以下
のときは、図10および図11に示すように、第2の挙
動検出部420の判定結果の信頼性は高い。そこで、総
合判断部450は、第1の挙動検出部410が「寝」と
判定したときは、第2の挙動検出部420の判定結果に
かかわらず「寝」と判定する一方、第1の挙動検出部4
10が「寝以外」と判定したときは、第2の挙動検出部
420の判定結果をそのまま最終的な判定結果として出
力する。
【0086】以上のように本実施形態によると、第2お
よび第3の実施形態に係る姿勢判定を統合して利用する
ことによって、人体の向きにかかわらず、3姿勢「寝」
「座」「立」の判定を信頼性高く実行可能な挙動検出シ
ステムを実現することができる。
【0087】(第5の実施形態)図13は本発明の第5
の実施形態に係る挙動検出システムの構成を示すブロッ
ク図である。510は図1に示すような構成からなり、
移動か静止かを判断する第1の挙動検出部、520は図
12に示すような構成からなる「寝」「座」「立」の判
定が可能な第2の挙動検出部、530は第1の挙動検出
部510および第2の挙動検出部520の判定結果か
ら、総合的に姿勢判定を行う総合判定部である。
【0088】第1の挙動検出部510は、第1の実施形
態で示したように「静止」「移動」の判定を行う。一
方、第2の挙動検出部520は、第4の実施形態で示し
たように、「寝」「座」「立」の3姿勢の判定を行う。
【0089】ここで、人が静止状態のときは、第2の挙
動検出部520の姿勢判定結果はまず信頼できるものと
考えられる。これに対して、人が移動状態のときは、歩
いて移動したり、寝ころびながらごろごろと移動したり
することは十分に考え得るが、座った状態のまま移動す
ることはまずあり得ない。そこで、人が移動状態であ
り、かつ、第2の挙動検出部520の判定結果が「寝」
以外のときは、「歩行」と判断する。第2の挙動検出部
520の判定結果が「寝」のときは、寝ながらごろごろ
と移動しているものとして「寝」と判定する。
【0090】すなわち、総合判断部530は、第1の挙
動検出部510が「静止」と判定したときは、第2の挙
動検出部520の判定結果をそのまま最終的な判定結果
として出力する。一方、第1の挙動検出部510が「移
動」と判定した場合は、第2の挙動検出部520が
「寝」と判定したときは「寝」を出力し、第2の挙動検
出部520が「寝」以外の判定をしたときは「歩行」を
出力する。
【0091】以上のように本実施形態によると、第1の
実施形態に係る移動・静止判定と姿勢判定とを統合して
利用することによって、信頼性の高い挙動検出システム
を実現することができる。
【0092】なお、第2の挙動検出部520は、図12
の構成に限られるものではなく、少なくとも「寝」「寝
以外」の判定が可能であればよく、例えば図8に示すよ
うな構成を用いてもかまわない。
【0093】(第6の実施形態)図14は本発明の第6
の実施形態に係る挙動検出システムの構成を示すブロッ
ク図である。図14では、図1および図8と共通の構成
要素には図1または図8と同一の符号を付している。
【0094】図14において、610は静止・移動判定
手段であり、図1に示す実世界座標保持手段70、距離
算出手段80および閾値判定手段90によって実現され
る。すなわち、手段20,30,40,60および静止
・移動判定手段610によって第1の実施形態に係る挙
動検出装置が構成される。620は主軸角計算手段、6
30は座った状態の頭頂高を用いて人体候補領域の実世
界座標を推定する着座前提座標変換手段である。640
は座標変換手段40によって身長を基準に求められた実
世界座標S1(「立」の場合の実世界座標)、着座前提
座標変換手段630によって座った状態の頭頂高を基準
に求められた実世界座標S2(「座」の場合の実世界座
標)、および座標変換手段340によって足元を基準に
求められた実世界座標S3から姿勢を判定する手段であ
る。この姿勢判定手段640は、図12に示す統合手段
425および総合判定部450を用いて実現できる。
【0095】650は人体候補領域の画像上の重心座標
を求める手段、660は画像上の重心座標を高さ0を基
準にして実世界座標に変換し、「寝」の場合の実世界座
標S4として出力する座標変換手段である。670は、
「立」「座」「寝」の場合に対応してそれぞれ計算され
た3個の実世界座標S1,S2およびS4のうちのいず
れか1つを、姿勢判定手段640による姿勢判定の結果
に応じて、実世界座標(Xw,Yw)として選択する実
世界座標選択手段である。
【0096】680は軌跡平滑化のために実世界座標
(Xw,Yw)をそれぞれ平滑化する積分手段、690
は積分手段680における平滑化処理に用いる時定数τ
を生成する手段、695は時定数τをリセットする手段
である。時定数生成手段690は、時定数τを初期値
(ここでは0)から徐々に一定期間増加させ、所定値に
達した後はこれを保持する。リセット手段695は、姿
勢判定手段640による姿勢判定結果がある状態から他
の状態に変化したとき、例えば「立」から「座」に変化
したとき、時定数τを0にリセットする。
【0097】人体候補領域抽出手段20によって第1の
手段が構成され、手段30,40,60,330,34
0,610,620,630,640によって第2の手
段が構成され、手段40,630,660,670,6
80,690,695によって第3の手段が構成されて
いる。
【0098】図14の構成において、人体候補領域抽出
手段20によって画像から人体候補領域が抽出され、こ
の人体候補領域から、頭頂部画像座標抽出手段30、足
元部画像座標抽出手段330および重心画像座標抽出手
段650によって、頭頂部、足元部および人体候補領域
の重心の画像上の座標がそれぞれ抽出される。そして、
頭頂部の画像座標から、座標変換手段40および着座前
提座標変換手段630によって「立」および「座」の場
合の実世界座標S1,S2がそれぞれ推定され、足元部
の画像座標から、座標変換手段340によって足元の実
世界座標S3が推定され、さらに、重心の画像座標か
ら、座標変換手段660によって「寝」の場合の実世界
座標S4が推定される。また、主軸角計算手段620に
よって人体候補領域の主軸角も計算される。
【0099】一方、追跡統合手段60によってフレーム
間の人体候補領域の関連付けが行われ、静止・移動判定
手段610が、頭頂部の実世界座標に基づき、対象とな
る人が静止状態か移動状態かを判定する。
【0100】姿勢判定手段640は、身長に基づき求め
た頭頂部の実世界座標S1、座った状態の頭頂高に基づ
き求めた頭頂部の実世界座標S2、足元の実世界座標S
3、人体候補領域の主軸角、および静止・移動の判定結
果から、第4および第5の実施の形態で説明したのと同
様に、「立」「座」「寝」の姿勢判定を行う。実世界座
標選択手段670は、姿勢判定手段640の姿勢判定結
果に基づいて、判定結果が「立」のときは実世界座標S
1を選択し、判定結果が「座」のときは実世界座標S2
を選択し、判定結果が「寝」のときは、重心の画像座標
から求められた「寝」の場合の実世界座標S4を選択
し、実世界座標(Xw,Yw)として出力する。
【0101】積分手段680は、下式によって出力座標
(Xout、Yout)を算出する。下式において、T
はフレーム間隔である。
【数4】
【数5】
【0102】姿勢判定手段640による姿勢判定結果が
ある状態から別の状態に変わったとき、リセット手段6
95は時定数τを初期値0にリセットする。時定数τ
は、リセットされた後、初期値から徐々に増加する。
【0103】ここで、姿勢判定結果が変化したときに時
定数τをリセットすることによる効果について、図15
および図16を用いて説明する。
【0104】図15は着座動作を含む画像シーケンスの
例であり、図16は図15の画像シーケンスについて人
の移動軌跡を求めた結果を示す図である。図16におい
て、(a)〜(d)は時定数τを一定にしたもの、
(e)〜(h)は姿勢変化時に時定数τのリセットを行
うものである。フレーム間隔は0.1sであり、通常の
時定数τは0.3sに設定している。この場合、歩行時
の移動軌跡の実際の位置に対する遅延は、実用的には無
視できるレベルになる。また、(e)〜(h)の場合に
は、リセット後の時定数τ(t)は次式で与える。
【0105】 τ(t)=τ(t−T)+1/100・0.3 ただし、maxτ(t)=0.3 図15から分かるように、画像内に映った人は、フレー
ム250で座り始めて、フレーム270で座り終わって
いる。姿勢判定手段640は、フレーム250の前まで
は「立」状態と判定していたが、フレーム250で
「座」状態と判定し、その後フレーム270まで「座」
状態と判定する。実世界座標選択手段670は、フレー
ム250からフレーム270までの間、「座」の場合の
実世界座標S2を実世界座標(Xw,Yw)として出力
する。図16では、座ってからの移動軌跡を黒い実線で
示している。
【0106】まず、時定数τ一定の場合を考える。この
場合、座り始めの際の実際の頭頂部高さは、ほぼ身長に
近く、「座」の場合の実世界座標S2を求めるために仮
定した座った状態の頭頂高とは大きく異なる。このた
め、図16(b)に示すように、人体の位置は、実際の
人体の位置に比べてカメラから遠い方向に離れた位置に
推定される。やがて、その人が座り終わる頃には、実際
の頭頂部の高さは座った状態の頭頂高とほぼ一致するよ
うになり、人体の位置は本来の座標に収束する。このよ
うに、時定数を実用的な値に設定し、かつ、常に一定に
した場合には、姿勢が変わったとき人体の移動軌跡にオ
ーバーシュートが起こる。
【0107】一方、時定数τのリセットを行う場合に
は、このようなオーバーシュートは回避される。すなわ
ち、姿勢判定手段640の判定結果が「立」から「座」
に変わったときすなわちフレーム250において、時定
数τは0にリセットされる。このため、座り始めの際の
実際の頭頂部高さが座った状態の頭頂高と大きく異なる
フレームでは、時定数τの値は小さくなるので、新しい
フレームでの実世界座標(Xw、Yw)の寄与度が低く
なる。したがって、図16(f)に示すように、人体の
位置は、実際の人体の位置にほぼ正確に推定される。そ
の後は、実際の頭頂部の高さは座った状態の頭頂高とほ
ぼ一致するようになり、人体の位置は本来の座標に収束
する。この結果、姿勢変化の開始から終了までの移動軌
跡がなめらかになる。
【0108】このように、時定数を一定とすると、姿勢
変動中は頭頂部の高さや重心の高さが、想定している高
さと異なるため、実際の位置とは大きく離れた位置に人
体の位置を推定してしまうが、本実施形態のように、姿
勢変化時に、時定数をリセットして新フレームの位置座
標の寄与度を一時的に低くすることによって、歩行時や
座った後などの定常状態における人体位置の推定精度を
下げることなく、姿勢変動時の人体位置の推定誤差を低
減することができる。
【0109】なお、時定数の時間変化パターンは、本実
施形態で示したものに限られるものではなく、時定数
が、姿勢変動時には小さくなり、時間経過後は大きくな
るようなものであればよい。
【0110】なお、上述した例では、「立」「座」
「寝」の全ての姿勢について実世界座標を求めた後に、
姿勢判定結果に基づき、いずれかの実世界座標を選択し
たが、姿勢判定結果に基づいて特定した「立」「座」
「寝」のいずれかの姿勢についての頭頂部高さを仮定し
た後に、画像座標から実世界座標を求めてもかまわな
い。
【0111】図17は本実施形態の他の例に係る挙動検
出システムの構成を示すブロック図である。図17で
は、図14と共通の構成要素については同一の符号を付
しており、ここではその詳細な説明は省略する。図17
において、710は姿勢判定手段の姿勢判定結果に基づ
き、人体の頭頂部の高さを推定する頭頂高さ推定手段、
720は頭頂高さ推定手段710によって推定された頭
頂部の高さを用いて、画像座標を実世界座標に変換する
座標変換手段である。手段710,720によって第3
の手段が構成されている。
【0112】図17の構成において、姿勢判定手段64
0によって姿勢が判定されるまでの動作は、図14に示
す構成と同様である。頭頂高さ推定手段710は、姿勢
判定手段640による姿勢判定結果に基づいて人体の頭
頂部の高さを推定する。例えば、直立したときの頭頂高
が170cm、着座時の頭頂高が125cm、寝たとき
の体の厚みが20cmである人体を対象にした場合、頭
頂高さ推定手段710は、長時間「立」状態のときは1
70cm、「座」状態のときは125cm、「寝」状態
のときは20cmを出力する。また、「立」から「座」
のように姿勢が変化するときは、頭頂部の高さの推定値
として、元の姿勢における高さから新たな姿勢における
高さまで、徐々に変化させながら出力する。通常、人が
自然な動作で立った状態から座るまでに必要な時間は
0.5秒から2秒程度であるので、姿勢変化時には、2
秒程度の時間をもって頭頂部高さを新たな姿勢における
高さに漸近させる。この漸近の方法としては、線形補間
や、上述したような時定数の時間的変動を用いればよ
い。
【0113】座標変換手段720は、姿勢判定結果が
「立」「座」またはその中間の場合には、頭頂部画像座
標抽出手段30から出力された頭頂部の画像座標を、頭
頂部高さ推定手段710から出力された頭頂部高さを用
いて、実世界座標に変換する。一方、「寝」の場合に
は、重心画像座標抽出手段650から出力された重心の
画像座標を、頭頂部高さ推定手段710から出力された
体の厚みデータを用いて、実世界座標に変換する。他の
姿勢から「寝」状態になった場合やその逆方向の状態遷
移の場合には、人体候補領域の画像上での「寝」状態に
おける位置基準となる重心の実世界座標と、その他の位
置基準となる頭頂部の実世界座標の間をなめらかに補間
するとよい。
【0114】このように、姿勢判定結果に応じて、実世
界座標を求める座標変換に用いる代表点の高さを推定
し、かつ、姿勢変化時にはこの高さをなめらかに変化さ
せることによって、姿勢変化時の人体位置の推定誤差を
低減することができる。
【0115】(第7の実施形態)図18は本発明の第7
の実施形態に係る挙動検出装置の構成を示すブロック図
である。図18では、図1と共通の構成要素には図1と
同一の符号を付しており、ここではその詳細な説明は省
略する。図18において、810は座標変換手段40か
ら出力された実世界座標と所定の閾値との大小比較を行
う閾値判定手段、820は閾値判定手段810によって
切り換え制御される切換スイッチである。
【0116】図18の構成において、人体候補領域の実
世界座標が所定の範囲内にあるときは、切換スイッチ8
20はA側に切り替えられ、実世界座標は、追跡・統合
手段60における追跡統合の対象となる。一方、実世界
座標が所定の範囲外にあるときは、切り換えスイッチ8
20はB側に切り替えられ、その実世界座標は追跡統合
の対象外となる。
【0117】図19は本実施形態の効果を説明するため
の図であり、同図中、(a)〜(c)は窓WDが付いた
部屋内を人M1が移動した場合の画像シーケンスであ
り、(d)〜(f)は(a)〜(c)の各画像において
検出した人M1の実世界座標である。(d)〜(f)に
おいて、○は本実施形態によって得られた実世界座標、
△は本実施形態を用いない場合の実世界座標である。
【0118】窓WDの向こう側は人が通行可能となって
おり、M2は窓WDの外側を通行する人のシルエットで
ある。(c)では人M1とシルエットM2とは別個の人
体領域として抽出されるが、(b)では人体M1とシル
エットM2は重なっており、一個の領域として抽出され
る。
【0119】このような場合、本実施形態を用いない場
合には、(b)で求めた人M1とシルエットM2が一体
となった領域の実世界座標が、その前後のフレームの人
M1の実世界座標と関連づけられるので、△で示したよ
うな、人M1があたかも部屋の外に出てしまったような
移動軌跡を描く。これに対して、本実施形態では、所定
の範囲として部屋領域を設定することによって、(b)
で検出した実世界座標は部屋の外側にあるため、この実
世界座標は追跡統合の対象から除外される。したがっ
て、(a)と(c)での人M1の実世界座標のみが統合
されることになり、正しい軌跡を描くことができる。
【0120】以上のように本実施形態によると、推定し
た実世界座標が所定の範囲外にあるときは、その実世界
座標を追跡統合の対象外とすることによって、窓に映る
人のシルエットなどの影響を排除することができる。
【0121】なお、上記各実施形態では、挙動検出装置
または挙動検出システムとして説明したが、本発明に係
る機能は、ハードウエアとして実現してもよいし、ソフ
トウエアで実現可能な部分に関してはソフトウエアのア
ルゴリズムとして実現してもよい。また、挙動検出装置
を実現するためのプログラムをコンピュータ読みとり可
能な記録媒体に記録して、この記録媒体に記録したプロ
グラムをコンピュータに実行させることによって本発明
を実施することも可能である。
【0122】
【発明の効果】以上のように本発明によると、挙動検出
において、足元が家具などで隠蔽された場合でも、静
止、移動の判定や正しい移動軌跡の算出が可能となる。
また、カメラからの距離や体の向きや影の影響などを受
けることなく、精度の高い姿勢判定が可能になる。ま
た、カメラの視野の中に窓などがあり、窓の外を通過す
るシルエットが画像に映ったとしても、正しい移動軌跡
を得ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態に係る挙動検出装置の
構成を示すブロック図である。
【図2】図1の構成における閾値判定手段の構成例を示
すブロック図である。
【図3】本発明の第1の実施形態に係る閾値判定の効果
を説明するための図であり、ある画像シーケンスにおけ
る人の移動距離の算出結果の一例を示す図である。
【図4】本発明の第2の実施形態に係る挙動検出装置の
構成を示すブロック図である。
【図5】カメラによって取得した画像の一例である。
【図6】本発明の第2の実施形態の他の例に係る挙動検
出装置の構成を示すブロック図である。
【図7】本発明の第2の実施形態の他の例に係る挙動検
出装置の構成を示すブロック図である。
【図8】本発明の第3の実施形態に係る挙動検出装置の
構成を示すブロック図である。
【図9】人体の姿勢とカメラからの見え方との関連を示
す図である。
【図10】本発明の第3の実施形態を説明するための図
であり、誤差△ru,△rdと実際の距離rとの関係を
表すグラフである。
【図11】本発明の第3の実施形態を説明するための図
であり、誤差△ru,△rdと実際の距離rとの関係を
表すグラフである。
【図12】本発明の第4の実施形態に係る挙動検出シス
テムの構成を示すブロック図である。
【図13】本発明の第5の実施形態に係る挙動検出シス
テムの構成を示すブロック図である。
【図14】本発明の第6の実施形態に係る挙動検出シス
テムの構成を示すブロック図である。
【図15】本発明の第6の実施形態を説明するための図
であり、着座動作を含む画像シーケンスの一例である。
【図16】図15の画像シーケンスにおいて求めた人の
移動軌跡である。
【図17】本発明の第6の実施形態の他の例に係る挙動
検出システムの構成を示すブロック図である。
【図18】本発明の第7の実施形態に係る挙動検出装置
の構成を示すブロック図である。
【図19】本発明の第7の実施形態の効果を説明するた
めの図であり、(a)〜(c)は画像シーケンスの例、
(d)〜(f)は(a)〜(c)の各画像において検出
した人の実世界座標である。
【図20】従来の挙動検出装置の構成を示すブロック図
である。
【図21】人体の姿勢とカメラからの見え方の関係図で
ある。
【符号の説明】 10 画像入力手段 20 人体候補領域抽出手段 30 頭頂部画像座標抽出手段 40 座標変換手段 70 実世界座標保持手段(第2の手段) 80 距離算出手段 90 閾値判定手段 110 主軸角計算手段(第1の手段) 120 閾値判定手段(第2の手段) 130 閾値決定手段 210 フレーム間追跡手段 220 消失検出手段 230 保持手段 240a,240b 切り換えスイッチ 250 最大値抽出手段 310 座標変換手段 320 水平距離計算手段 330 足元画像座標抽出手段 340 座標変換手段 350 水平距離計算手段 360 姿勢判定手段(第4の手段) 410 第1の挙動検出部 420 第2の挙動検出部 450 総合判断部 510 第1の挙動検出部 520 第2の挙動検出部 530 総合判断部 610 静止・移動判定手段 620 主軸角計算手段 630 着座前提座標変換手段 640 姿勢判定手段 650 重心画像座標抽出手段 660 座標変換手段 670 実世界座標選択手段 680 積分手段 690 時定数生成手段 695 リセット手段 710 頭頂高さ推定手段 720 画像座標実世界座標変換手段 810 範囲判定手段 820 切換スイッチ
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 2F065 AA03 AA04 AA09 AA17 AA37 BB05 CC16 FF04 FF09 JJ03 JJ19 JJ26 QQ00 QQ04 QQ25 QQ26 QQ28 QQ33 QQ34 5B057 AA19 BA02 DA08 DA12 DA16 DB02 DB09 DC08 DC09 DC14 DC33 5C054 FC01 FC12 FC15 FD03 HA18 5L096 AA06 BA02 CA04 EA26 FA66 FA67 GA08 GA34 GA51 GA55 HA04

Claims (19)

    【特許請求の範囲】
  1. 【請求項1】 画像から、挙動検出の対象となる物の領
    域を抽出し、抽出した領域から、前記対象物の特定部位
    が存在する実世界座標を算出する第1の手段と、 前記第1の手段によって算出された実世界座標を、少な
    くとも所定時間、保持する第2の手段と、 前記第1の手段によって算出された,一の時刻における
    前記特定部位の実世界座標と、前記第2の手段に保持さ
    れた,前記一の時刻よりも前記所定時間だけ前の時刻に
    おける前記特定部位の実世界座標との間の距離を求め、
    求めた距離と所定の閾値とを比較することによって、前
    記対象物が移動状態か静止状態かを判定する第3の手段
    とを備えたことを特徴とする挙動検出装置。
  2. 【請求項2】 請求項1記載の挙動検出装置において、 前記対象物は、人であり、 前記特定部位は、前記人の頭頂部であることを特徴とす
    る挙動検出装置。
  3. 【請求項3】 請求項1記載の挙動検出装置において、 前記所定時間は、2秒以上の時間であることを特徴とす
    る挙動検出装置。
  4. 【請求項4】 請求項1記載の挙動検出装置において、 前記第3の手段は、 前記所定の閾値として、移動状態から静止状態への移行
    を判定するための第1の閾値と、静止状態から移動状態
    への移行を判定するための第2の閾値とを用いるもので
    あり、 前記第2の閾値は、前記第1の閾値よりも大きいことを
    特徴とする挙動検出装置。
  5. 【請求項5】 画像から、挙動検出の対象となる物の領
    域を抽出し、抽出した領域の主軸の傾きを求める第1の
    手段と、 前記第1の手段によって求められた主軸傾きと所定の閾
    値とを比較することによって、前記対象物が「寝」状態
    であるか否かを判定する第2の手段とを備えたことを特
    徴とする挙動検出装置。
  6. 【請求項6】 請求項5記載の挙動検出装置において、 前記領域の実世界上の位置を推定し、前記所定の閾値
    を、この推定位置に応じて決定することを特徴とする挙
    動検出装置。
  7. 【請求項7】 請求項5記載の挙動検出装置において、 前記所定の閾値を、前記領域の画像上の位置に応じて決
    定することを特徴とする挙動検出装置。
  8. 【請求項8】 請求項5記載の挙動検出装置において、 前記第1の手段は、 一のフレーム画像における前記主軸傾きの値として、当
    該フレーム画像およびその時間的近傍のフレーム画像に
    ついてそれぞれ求めた複数の主軸傾きの値の代表値を、
    用いるものであることを特徴とする挙動検出装置。
  9. 【請求項9】 請求項5記載の挙動検出装置において、 前記第1の手段は、 一のフレーム画像において前記領域が消失したとき、そ
    の前のフレーム画像における前記主軸傾きの値を、当該
    フレーム画像の主軸傾きの値として用いるものであるこ
    とを特徴とする挙動検出装置。
  10. 【請求項10】 画像から、挙動検出の対象となる人の
    領域を抽出する第1の手段と、 前記第1の手段によって抽出された領域の,頭部に相当
    する部分の画像座標から、その部分と当該画像を撮影し
    たカメラとの間の第1の水平距離を求める第2の手段
    と、 前記領域の,足元に相当する部分の画像座標から、その
    部分と前記カメラとの間の第2の水平距離を求める第3
    の手段と、 前記第1の水平距離と前記第2の水平距離とを大小比較
    し、その比較結果に基づき、前記人物の姿勢を判定する
    第4の手段とを備えたことを特徴とする挙動検出装置。
  11. 【請求項11】 請求項10記載の挙動検出装置におい
    て、 前記第2の手段は、 前記人が立ったときの頭頂高近傍の高さを仮定して、頭
    部部分の画像座標を実世界座標に変換し、得られた実世
    界座標を用いて、前記第1の水平距離を求めるものであ
    ることを特徴とする挙動検出装置。
  12. 【請求項12】 請求項10記載の挙動検出装置におい
    て、 前記第2の手段は、 前記人が座ったときの頭頂高近傍の高さを仮定して、頭
    部部分の画像座標を実世界座標に変換し、得られた実世
    界座標を用いて、前記第1の水平距離を求めるものであ
    ることを特徴とする挙動検出装置。
  13. 【請求項13】 請求項10記載の挙動検出装置におい
    て、 前記第3の手段は、 床面の高さを仮定して、足元部分の画像座標を実世界座
    標に変換し、得られた実世界座標を用いて、前記第2の
    水平距離を求めるものであることを特徴とする挙動検出
    装置。
  14. 【請求項14】 人の挙動を検出するシステムであっ
    て、 請求項5記載の挙動検出装置と同一の構成からなる第1
    の挙動検出部と、 請求項10記載の挙動検出装置と同一の構成を含む第2
    の挙動検出部とを備え、 前記第1の挙動検出部が、前記人は「寝」状態であると
    判定したときは、前記人は「寝」状態であると判定する
    一方、前記第1の挙動検出部が、前記人は「寝以外」状
    態であると判定したときは、前記第2の挙動検出部の判
    定結果を最終的な判定結果とすることを特徴とする挙動
    検出システム。
  15. 【請求項15】 人の挙動を検出するシステムであっ
    て、 請求項1記載の挙動検出装置と同一の構成からなる第1
    の挙動検出部と、 少なくとも「寝」状態か「寝以外」状態かの姿勢判定を
    行う第2の挙動検出部とを備え、 前記第1の挙動検出部が、前記人は移動状態であると判
    定し、かつ、前記第2の挙動検出部が、前記人は「寝以
    外」状態であると判定したとき、前記人は「歩行」状態
    であると判定することを特徴とする挙動検出システム。
  16. 【請求項16】 人の挙動を検出するシステムであっ
    て、 画像から、前記人の人体領域を抽出する第1の手段と、 前記人体領域を基にして、前記人の姿勢判定を行う第2
    の手段と、 前記人体領域の画像座標から、前記第2の手段の姿勢判
    定結果に応じて、前記人の実世界座標を求める第3の手
    段とを備え、 前記第3の手段は、 前記人が姿勢を変えたとき、姿勢変化の開始から終了ま
    での移動軌跡がなめらかになるように、実世界座標を求
    めるものであることを特徴とする挙動検出システム。
  17. 【請求項17】 請求項16記載の挙動検出システムに
    おいて、 前記第3の手段は、 前記人体領域の画像座標から各姿勢に応じてそれぞれ生
    成された実世界座標候補から、前記第2の手段の姿勢判
    定結果に応じて、一の実世界座標候補を選択し、 一のフレームについて選択した実世界座標候補と、その
    前のフレームの実世界座標とを重み付け加算することに
    よって、前記一のフレームの実世界座標を求めるもので
    あり、かつ、 前記第2の手段の姿勢判定結果が変化したとき、実世界
    座標を求める際における実世界座標候補の重みを、姿勢
    判定結果が変化しない定常時よりも小さくするものであ
    ることを特徴とする挙動検出システム。
  18. 【請求項18】 請求項16記載の挙動検出システムに
    おいて、 前記第3の手段は、 前記第2の手段の姿勢判定結果に応じて、前記人の高さ
    を推定し、 前記人体領域の画像座標を、推定した高さに基づいて、
    実世界座標に変換するものであり、かつ、 前記第2の手段の姿勢判定結果が、一の姿勢から他の姿
    勢に変化したとき、前記人の高さの推定値を、前記一の
    姿勢における推定値から前記他の姿勢における推定値
    に、徐々に変化させるものであることを特徴とする挙動
    検出システム。
  19. 【請求項19】 画像から、挙動検出の対象となる物が
    占める領域を抽出し、抽出した領域から、前記対象物の
    特定部位が存在する実世界座標を算出する第1の手段
    と、 前記第1の手段によって算出された実世界座標を用い
    て、前記対象物の移動軌跡を求める第2の手段とを備
    え、 前記第2の手段は、 前記実世界座標が所定の範囲内にあるか否かを判定し、
    前記所定の範囲内にない実世界座標を、前記対象物の移
    動軌跡を求めるための実世界座標から外すものであるこ
    とを特徴とする挙動検出装置。
JP2000395080A 2000-12-26 2000-12-26 挙動検出装置および挙動検出システム Pending JP2002197463A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000395080A JP2002197463A (ja) 2000-12-26 2000-12-26 挙動検出装置および挙動検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000395080A JP2002197463A (ja) 2000-12-26 2000-12-26 挙動検出装置および挙動検出システム

Publications (1)

Publication Number Publication Date
JP2002197463A true JP2002197463A (ja) 2002-07-12

Family

ID=18860600

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000395080A Pending JP2002197463A (ja) 2000-12-26 2000-12-26 挙動検出装置および挙動検出システム

Country Status (1)

Country Link
JP (1) JP2002197463A (ja)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004012142A1 (ja) * 2002-07-26 2004-02-05 Mitsubishi Denki Kabushiki Kaisha 画像処理装置
JP2006209334A (ja) * 2005-01-26 2006-08-10 Advanced Telecommunication Research Institute International 位置検出装置、位置検出方法及び位置検出プログラム
JP2006236184A (ja) * 2005-02-28 2006-09-07 Nec Engineering Ltd 画像処理による人体検知方法
JP2007142781A (ja) * 2005-11-18 2007-06-07 Nippon Seiki Co Ltd 全方位撮像装置
JP2008042423A (ja) * 2006-08-04 2008-02-21 Hitachi Ltd 画像監視装置
JP2008160462A (ja) * 2006-12-22 2008-07-10 Matsushita Electric Works Ltd 撮像装置
JP2008165705A (ja) * 2007-01-05 2008-07-17 Matsushita Electric Ind Co Ltd 画像処理装置及び画像処理方法
WO2008152862A1 (ja) * 2007-06-12 2008-12-18 Mitsubishi Electric Corporation 空間認識装置及び空気調和機
JP2010206286A (ja) * 2009-02-27 2010-09-16 Toshiba Teli Corp 画像処理装置および背景画像検知処理プログラム
KR20110101620A (ko) * 2010-03-09 2011-09-16 삼성전자주식회사 피사체 영역 및 움직임 검출 장치 및 방법
WO2012029518A1 (ja) * 2010-08-31 2012-03-08 オムロン株式会社 挙動解析装置
JP2012208850A (ja) * 2011-03-30 2012-10-25 Secom Co Ltd 異常検知装置
JP2012212236A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 放置人物検出装置
WO2013011644A1 (ja) * 2011-07-15 2013-01-24 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JP2015187856A (ja) * 2014-03-14 2015-10-29 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
JP2016040519A (ja) * 2015-12-28 2016-03-24 日立アプライアンス株式会社 空気調和機
KR20160045556A (ko) 2014-10-17 2016-04-27 오므론 가부시키가이샤 에어리어 정보 추정 장치, 에어리어 정보 추정 방법, 및 공기 조화 장치
US10026019B2 (en) 2014-03-11 2018-07-17 Mitsubishi Electric Corporation Person detecting device and person detecting method
JP2019152490A (ja) * 2018-03-01 2019-09-12 清水建設株式会社 位置検出システム及び位置検出方法
JP2020082231A (ja) * 2018-11-19 2020-06-04 Dmg森精機株式会社 測定方法
WO2020235527A1 (ja) * 2019-05-21 2020-11-26 株式会社Preferred Networks データ処理装置、画像配信システム、画像解析方法及び画像解析プログラム
JP2020201674A (ja) * 2019-06-07 2020-12-17 キヤノン株式会社 映像解析装置及びその制御方法及びプログラム
CN113256691A (zh) * 2021-05-11 2021-08-13 广州织点智能科技有限公司 一种目标跟踪方法、装置、设备和存储介质
US11226408B2 (en) 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
US11308315B2 (en) 2017-09-27 2022-04-19 Nec Corporation Information processing apparatus, control method, and program
JP7391150B1 (ja) 2022-08-02 2023-12-04 三菱電機株式会社 同定装置、同定方法及び同定プログラム

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7142694B2 (en) 2002-07-26 2006-11-28 Mitsubishi Denki Kabushiki Kaisha Image processing apparatus
CN1321394C (zh) * 2002-07-26 2007-06-13 三菱电机株式会社 图像处理装置
WO2004012142A1 (ja) * 2002-07-26 2004-02-05 Mitsubishi Denki Kabushiki Kaisha 画像処理装置
JP4674316B2 (ja) * 2005-01-26 2011-04-20 株式会社国際電気通信基礎技術研究所 位置検出装置、位置検出方法及び位置検出プログラム
JP2006209334A (ja) * 2005-01-26 2006-08-10 Advanced Telecommunication Research Institute International 位置検出装置、位置検出方法及び位置検出プログラム
JP2006236184A (ja) * 2005-02-28 2006-09-07 Nec Engineering Ltd 画像処理による人体検知方法
JP2007142781A (ja) * 2005-11-18 2007-06-07 Nippon Seiki Co Ltd 全方位撮像装置
JP2008042423A (ja) * 2006-08-04 2008-02-21 Hitachi Ltd 画像監視装置
JP2008160462A (ja) * 2006-12-22 2008-07-10 Matsushita Electric Works Ltd 撮像装置
JP2008165705A (ja) * 2007-01-05 2008-07-17 Matsushita Electric Ind Co Ltd 画像処理装置及び画像処理方法
WO2008152862A1 (ja) * 2007-06-12 2008-12-18 Mitsubishi Electric Corporation 空間認識装置及び空気調和機
JP2010206286A (ja) * 2009-02-27 2010-09-16 Toshiba Teli Corp 画像処理装置および背景画像検知処理プログラム
KR20110101620A (ko) * 2010-03-09 2011-09-16 삼성전자주식회사 피사체 영역 및 움직임 검출 장치 및 방법
KR101652116B1 (ko) 2010-03-09 2016-08-29 삼성전자주식회사 피사체 영역 및 움직임 검출 장치 및 방법
US8965050B2 (en) 2010-08-31 2015-02-24 Omron Corporation Behavior analysis device
JPWO2012029518A1 (ja) * 2010-08-31 2013-10-28 オムロン株式会社 挙動解析装置
JP5559335B2 (ja) * 2010-08-31 2014-07-23 オムロン株式会社 挙動解析装置
WO2012029518A1 (ja) * 2010-08-31 2012-03-08 オムロン株式会社 挙動解析装置
JP2012208850A (ja) * 2011-03-30 2012-10-25 Secom Co Ltd 異常検知装置
JP2012212236A (ja) * 2011-03-30 2012-11-01 Secom Co Ltd 放置人物検出装置
US9412010B2 (en) 2011-07-15 2016-08-09 Panasonic Corporation Posture estimation device, posture estimation method, and posture estimation program
WO2013011644A1 (ja) * 2011-07-15 2013-01-24 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
JPWO2013011644A1 (ja) * 2011-07-15 2015-02-23 パナソニック株式会社 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム
US10026019B2 (en) 2014-03-11 2018-07-17 Mitsubishi Electric Corporation Person detecting device and person detecting method
JP2015187856A (ja) * 2014-03-14 2015-10-29 本田技研工業株式会社 動作推定装置、ロボット、及び動作推定方法
US9715627B2 (en) 2014-10-17 2017-07-25 Omron Corporation Area information estimating device, area information estimating method, and air conditioning apparatus
KR20160045556A (ko) 2014-10-17 2016-04-27 오므론 가부시키가이샤 에어리어 정보 추정 장치, 에어리어 정보 추정 방법, 및 공기 조화 장치
EP3029604A2 (en) 2014-10-17 2016-06-08 Omron Corporation Area information estimating device, area information estimating method, and air conditioning apparatus
JP2016040519A (ja) * 2015-12-28 2016-03-24 日立アプライアンス株式会社 空気調和機
US11308315B2 (en) 2017-09-27 2022-04-19 Nec Corporation Information processing apparatus, control method, and program
US11715227B2 (en) * 2017-09-27 2023-08-01 Nec Corporation Information processing apparatus, control method, and program
US20220198817A1 (en) * 2017-09-27 2022-06-23 Nec Corporation Information processing apparatus, control method, and program
JP2019152490A (ja) * 2018-03-01 2019-09-12 清水建設株式会社 位置検出システム及び位置検出方法
JP7107697B2 (ja) 2018-03-01 2022-07-27 清水建設株式会社 位置検出システム及び位置検出方法
US11226408B2 (en) 2018-07-03 2022-01-18 Panasonic Intellectual Property Management Co., Ltd. Sensor, estimating device, estimating method, and recording medium
JP2020082231A (ja) * 2018-11-19 2020-06-04 Dmg森精機株式会社 測定方法
WO2020235527A1 (ja) * 2019-05-21 2020-11-26 株式会社Preferred Networks データ処理装置、画像配信システム、画像解析方法及び画像解析プログラム
JP2020201674A (ja) * 2019-06-07 2020-12-17 キヤノン株式会社 映像解析装置及びその制御方法及びプログラム
CN113256691A (zh) * 2021-05-11 2021-08-13 广州织点智能科技有限公司 一种目标跟踪方法、装置、设备和存储介质
JP7391150B1 (ja) 2022-08-02 2023-12-04 三菱電機株式会社 同定装置、同定方法及び同定プログラム

Similar Documents

Publication Publication Date Title
JP2002197463A (ja) 挙動検出装置および挙動検出システム
CN105283129B (zh) 信息处理装置、信息处理方法
KR101738569B1 (ko) 제스쳐 인식 방법 및 시스템
EP2893479B1 (en) System and method for deriving accurate body size measures from a sequence of 2d images
US7039219B2 (en) System and method providing improved head motion estimations for animation
US8781217B2 (en) Analysis of three-dimensional scenes with a surface model
JP4874450B2 (ja) オプション選択に基づくジェスチャー方法及び装置
US6807290B2 (en) Rapid computer modeling of faces for animation
US8879787B2 (en) Information processing device and information processing method
JP5528151B2 (ja) 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
JP4473754B2 (ja) 仮想試着装置
JP2004054376A (ja) グループ属性推定方法及びグループ属性推定装置
JP2009009413A (ja) 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム
CN111243230B (zh) 基于两台深度相机的人体跌倒检测装置和方法
Fossati et al. From canonical poses to 3D motion capture using a single camera
JP2019045967A (ja) 姿勢推定装置、方法、及びプログラム
US20170103255A1 (en) Real-time feedback system for a user during 3d scanning
JP2001092978A (ja) 人物像の姿勢推定装置および人物像の姿勢推定プログラムを記録した記録媒体
JP7041046B2 (ja) グループ推定装置及びグループ推定方法
JPH11283040A (ja) 操作制御装置および動作解析プログラムを記録したコンピュ―タ読み取り可能な記録媒体
WO2024029411A1 (ja) 作業特徴量表示装置、作業特徴量表示方法、及び作業特徴量表示プログラム
JP2011209856A (ja) オブジェクト判定装置
JP2000030064A (ja) 3次元座標検出方法
JP2024010264A (ja) 情報処理システム、情報処理装置、情報処理方法、物品の製造方法、プログラム、及び記録媒体
CN116092128A (zh) 一种基于机器视觉的单目实时人体跌倒检测方法及系统