JP5877135B2 - 画像認識装置及びエレベータ装置 - Google Patents

画像認識装置及びエレベータ装置 Download PDF

Info

Publication number
JP5877135B2
JP5877135B2 JP2012161373A JP2012161373A JP5877135B2 JP 5877135 B2 JP5877135 B2 JP 5877135B2 JP 2012161373 A JP2012161373 A JP 2012161373A JP 2012161373 A JP2012161373 A JP 2012161373A JP 5877135 B2 JP5877135 B2 JP 5877135B2
Authority
JP
Japan
Prior art keywords
person
unit
motion
distance image
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012161373A
Other languages
English (en)
Other versions
JP2014021816A (ja
Inventor
竜 弓場
竜 弓場
三好 雅則
雅則 三好
山口 伸一朗
伸一朗 山口
酒井 亮一
亮一 酒井
拓也 國貞
拓也 國貞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Building Systems Co Ltd
Original Assignee
Hitachi Ltd
Hitachi Building Systems Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Building Systems Co Ltd filed Critical Hitachi Ltd
Priority to JP2012161373A priority Critical patent/JP5877135B2/ja
Priority to CN201310305951.5A priority patent/CN103577827B/zh
Publication of JP2014021816A publication Critical patent/JP2014021816A/ja
Application granted granted Critical
Publication of JP5877135B2 publication Critical patent/JP5877135B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は画像中の人物の動作を認識して人物の挙動を把握する画像認識装置及びこの画像認識装置を備えたエレベータ装置に関するものである。
例えば、エレベータ装置の乗りかごに搭乗している乗客の安全を確保するために、従来では乗りかご内に設置した監視カメラの撮影画像を監視員が目視により監視して乗りかご内の安全を確認していた。しかしながら、監視員によって常時撮影画像を目視することは監視員にとってかなりの身体的な負担となり、この負担を軽減することが要請されている。
そして、この身体的負担を軽減するために最近では監視エリアのカメラ画像中の人物の挙動を把握する監視システムが普及しつつある。監視システムの代表的な機能として、カメラ画像中の人物の動作を画像認識で把握して事故の発生や事故に至るような人物の異常挙動を検知することが求められている。
このような監視システムとしては、距離画像センサで取得した距離画像を使った画像認識技術を適用することが有効である。距離画像センサとは、カメラ画像と同様の2次元の撮像を取得すると共に、各画素における距離値を計測するセンサである。距離画像センサの距離値は、外光や影の影響を受けにくいので、カメラ画像を使うよりも人物の動作をより精度良く認識できる長所を有している。
例えば、特開2010−67079号公報(特許文献1)では、店舗内の棚の上から斜め下に向けて取り付けた距離画像センサによって、人物が棚から物品を取り出す挙動を認識する技術が開示されている。
特開2010−67079号公報
ところで、この特許文献1に記載の技術を用いて監視エリア全体の人物の挙動を把握しようとすると次のような不具合を生じる。
つまり、この距離画像センサは視野角が狭いために、人物の身体の一部が距離画像センサの視野角の外にはみ出ていると画像認識が困難になるという課題がある。
この理由は、身体の一部が視野角からはみ出た場合では視野角の外の身体から人物の動作特徴量が計算できないからである。このため、全身が視野角の内部に納まった人物の動作特徴量と身体の一部が視野角の外にはみ出た人物の動作特徴量が乖離するので、両者が同じ動作を行っても同一の動作と認識することが困難である。一般的に距離画像センサの光学系は距離値を計測する機構を有する分だけ、監視カメラと比べて視野角が狭いためにこの課題は顕著である。
また、監視エリアが広くなると、人物がさまざまな方向を向いて種々の動作を行なうために、人物の方向によって動作特徴量がばらついてしまい動作認識の精度が低下するという課題もある。
特許文献1に記載の技術では、距離画像センサを取り付けた棚の方向を向いて動作をすることを前提としていたのでこのような課題は発生しなかったが、広い視野角内の人物の動作を対象としようとするとこれらの課題の影響は大きくなる。
本発明の主たる目的は、距離画像センサによって撮像された視野角内の人物の動作を高い精度で認識することができる画像認識装置及びこの画像認識装置を備えたエレベータ装置を提供することにある。
本発明の第1の特徴は、身体の一部が視野角からはみ出た距離画像からはみ出し状態の動作特徴量を抽出すると共に、このはみ出し状態の動作特徴量と視野角からの身体のはみ出し量とから身体が視野角からはみ出さない状態の動作特徴量を推定する、ところにある。
本発明の第2の特徴は、はみ出し部分を取り除くフィルタ部により、例えば人物を複数の領域に分割し、分割された各領域が距離画像の視野角からはみ出る割合を求め、はみ出る割合の多い領域の特徴量の評価を行なわない、或いは特徴量を小さく評価して、人物の動作特徴量を推定する、ところにある。
本発明の第3の特徴は、周囲構造物を対象とした動作の場合に、人物の動作方向を予め定められた基準方向に揃えるように人物の座標変換を行ない、この座標変換された状態で人物の動作特徴量を推定する、ところにある。
本発明の第1の特徴によれば、距離画像の視野角から人物の身体の一部がはみ出たときでも人物の身体が距離画像の視野角からはみ出さない場合の動作特徴量に近づけることができ、画像認識の信頼性を向上することができる。
本発明の第2の特徴によれば、距離画像内に全身が存在する人物と身体の一部がはみ出した人物との何れに対しても、視野角に入る割合が多い領域の特徴量を使用しているので、両者の特徴量は近似しているため画像認識の信頼性が向上できるものである。
本発明の第3の特徴によれば、周囲構造物を対象とした動作の場合に、人物の動作方向を予め定められた基準方向に揃えることでほぼ近似した動作特徴量を抽出することができ、画像認識の信頼性を向上できるものである。
本発明の第1の実施形態における概略の構成図である。 第1の実施形態における機能ブロック図である。 第1の実施形態における距離画像中で動作する人物の一つの例を示す説明図である。 第1の実施形態における距離画像中で動作する人物の他の例を示す説明図である。 第1の実施形態におけるはみ出し量計算部の信号処理を説明する説明図である。 第1の実施形態における動作特徴量補正部の制御フローを示すフローチャート図である。 第1の実施形態における動作特徴量補正部の回帰推定パラメータのテーブル内容の一例を示した図である。 本発明の第2の実施形態における機能ブロック図である。 第2の実施形態における人物の領域をフィルタした一つの例を示す説明図である。 第2の実施形態における人物の領域をフィルタした他の例を示す説明図である。 第3の実施形態における機能ブロック図である。 第3の実施形態における仮想的な視点から見た距離画像の一つの例を示す説明図である。 第3の実施形態における仮想的な視点から見た距離画像の他の例を示す説明図である。 距離画像中の画素と対応点50の関係を説明する説明図である。
以下、本発明の実施形態について図面を用いて詳細に説明するが、本発明は以下の実施形態に限定されることなく、本発明の技術的な概念の中で種々の変形例や応用例をもその範囲に含むものである。
以下に示す第1の実施形態になる画像認識装置は、距離画像センサの視野角から人物の身体の一部がはみ出た場合でも、撮像された視野角内の人物の動作を高い精度で認識することができるようにしたものである。
図1において、参照番号51はエレベータ装置の乗りかごであり、参照番号52は乗りかご51内に取り付けた距離画像センサであり、参照番号53乗りかご51に設けたドアであり、参照番号54は乗りかご51の外側上部に載置した処理装置である。
乗りかご51には、原点O及び座標軸(X, Y, Z)を有する座標系59が定義されている。そして、座標系59の原点Oは距離画像センサ52の直下にあるように設定されている。また、距離画像センサ52は、俯角θ、方位角φ、ロール角ρ の設置角度で取り付けられている。尚、俯角θと方位角φは、カメラがZ軸方向を見るときに共に0°であり、このとき俯角θ、方位角φ、ロール角ρの回転軸はそれぞれX軸、Y軸、Z軸と一致する。
処理装置54は、本実施例になる画像認識処理を実行するのに必要な信号処理を行う計算装置であって、任意の計算機を適用できる。図1には、処理装置54を1台の計算機としたが、処理装置54は2つ以上の計算機から構成しても良い。また、距離画像センサ52等の内部に設けた処理装置を用いて処理装置54としても良い。このように、処理装置54は適用される製品の形態に応じて適切に設けられる。
距離画像センサ52は、内部に近赤外領域の光を出力する発光体を有し、近赤外光を発光してから、その近赤外光が視野角内の物体に反射してから戻ってくるまでの時間を計測することで、距離画像センサ52から物体までの距離を計測する。
距離画像センサ52は監視カメラと同様の画像の撮像面を有しており、撮像面中の各画素において距離計測を行うことで画素毎に距離値を取得する。このようにして画像中の各画素の距離値を計測した画像を以下では距離画像と呼ぶ。距離画像センサ52は、この距離画像を監視カメラと同程度の周期で取得する。
以上の説明で述べた距離画像の取得の方式はTime Of Flight方式と呼ばれる。距離画像センサ52はTime Of Flight方式以外にも、画像中の各画素の距離値を計測できる方式を適用できる。ステレオカメラやレーザレーダがその一例である。
次に、第1の実施形態になる画像認識装置の処理装置54の処理機能を図2に示す機能ブロックで説明する。
まず各機能ブロックの概要を説明すると、距離画像取得部2は距離画像センサ52から所定の時間間隔で距離画像を取得する。
人物抽出部3は距離画像取得部2の距離画像から乗りかご51内の人物に該当する部分を抽出する。
はみ出し量計算部4は人物抽出部3が抽出した人物の全身の中でどの部分が距離画像センサ52の画角外にはみ出ているかを計算する。この計算には幾何データ保持部1に保持された幾何データが使用される。この幾何データ保持部1には少なくとも距離画像センサ52の視野角、設置位置、設置角度が記憶されている。はみ出し量計算部4は、人物の身体が距離画像センサ52の視野角からはみ出してしまうはみ出し量を求める。
動作特徴量抽出部5は人物抽出部3によって抽出された人物画像から乗りかご51内の人物の動作特徴量を抽出する。
動作特徴量補正部6は人物抽出部3が抽出した人物の身体の一部が距離画像センサ52の画角外にはみ出ているときに、はみ出し量計算部4が計算したはみ出し量に応じて、動作特徴量抽出部5の動作特徴量を補正する。
この補正演算は距離画像センサ52の視野外に身体の一部がはみ出た人物の動作特徴量を、距離画像センサ52の視野内に身体が全て映っている人物の動作特徴量に近付けるものである。
動作認識部7は動作特徴量補正部6の動作特徴量から、人物の動作を類推する。より具体的には、動作認識部7は動作特徴量補正部6の動作特徴量から、乗り乗りかご51内の人物が事前にカテゴリを定義した動作の中でどの動作を行っているか認識するものである。
制御部8は動作認識部7が認識した動作に応じて、乗りかご51内の映像や距離画像の記録、乗りかご51内への警報の出力、乗りかご51の運行制御やドア53の開閉の少なくとも1つ以上の動作を実行するものである。
次に各機能ブロックの詳細を説明する。幾何データ保持部1は距離画像センサ52の視野角、設置位置、設置角度を記憶、保持している。これらの情報は作業員が距離画像センサ52の取付け時に処理装置54に入力しておくことで記憶、保持される。
或いは距離画像センサ52の設置後に距離画像センサ52で取得した距離画像を対象にして、監視カメラ用のキャリブレーションの方法を適用することで計算して記憶、保持することもできる。
更に、幾何データ保持部1内のデータと視野角が一致する距離画像センサ52を選択し、作業員が幾何データ保持部1内の設置位置と設置角度で距離画像センサ52を取り付けてもよい。
いずれにしても、幾何データ保持部1には上記したいずれかの方法で距離画像センサ52の視野角、設置位置、設置角度が記憶、保持されている。
距離画像取得部2は所定の時間間隔で距離画像センサ52から距離画像を取得する。図3に距離画像取得部2の取得した距離画像の例を示しており、この距離画像では人物が壁を蹴る異常な動作をしているものである。
図3において、参照番号151は距離画像、参照番号150は距離画像151中の各画素、参照番号130aは人物、参照番号154aはドア53がある側の壁である。図3には図示を略しているが、距離画像151は多くの画素150で格子状に分割されている。画素150はそれぞれ乗りかご51内における距離画像センサ52までの距離値を保持している。
ここで、画素150の距離値は、幾何データ保持部1の記憶内容(距離画像センサ52の視野角、設置位置、設置角度等)を参考にして座標系59の座標値に変換できる。この変換は2段階のステップを経て実行されるもので、順に距離画像センサ52を基準とした座標系への変換のステップ、このステップの後に座標系59への変換のステップが行われる。
以下、2つのステップを順に説明するが、まず距離画像センサ52を基準とした座標系への変換のステップを図14を用いて説明する。
図14において、参照番号69は距離画像センサ52を基準とした座標系であり、参照番号50は画素150の乗り乗りかご51内の対応点であり、i(u,v)は画素150の距離画像151上の座標であり、IS(XS,YS,ZS)は対応点50の座標系69の座標である。
座標系69の原点OSは距離画像センサ52の投影の中心であり、座標軸XS、YS、ZSは距離画像センサ52から見て左、上、奥にあたる。ここで、座標系69の座標ISの中で画素150の距離値はZSに等しい。距離画像センサ52の投影モデルをピンホールモデルで近似すると、ISの中で残るXS、YSは順に以下の式(1)と式(2)で計算できる。
Figure 0005877135
Figure 0005877135
式(1)及び式(2)の中でλは距離画像センサ52の焦点距離であって、幾何データ保持部1内に存在するデータを使用するものである。
次に、座標系59への変換のステップは、一般的な回転と平行移動の座標変換によって、以下の式(3)よって行うものである。
式(3)においてI(X, Y, Z)は対応点50の座標系59での座標値である。また、位置(XC,YC,ZC)は座標系59における距離画像センサ52の設置位置であり、角度(θ, φ, ρ)は図1の通り座標系59における設置角度であり、これらのデータは幾何データ保持部1内に存在するデータを使用する。
Figure 0005877135
次に、人物抽出部3は距離画像151から人物130aの部分を抽出する。この人物130aの抽出は、例えば、乗客(人物130a)がいない時に取得した乗りかご51内の背景だけの距離画像と、人物130aが撮影された距離画像151の各画素の距離を引き算して、距離が変化した部分を抽出することで実現できる。
つまり、乗りかご51内で人物130aは距離画像センサ52から見て、乗りかご51の壁や床やドアよりも手前にあるために、距離画像151中に人物130aが進入すると、人物130aの身体がある部分は乗りかご51の背景の距離画像よりも距離が短くなるため人物が抽出できるものである。
人物抽出部3はこの方法以外にも、距離画像151から人物130aを抽出できる他の方法を適用してもよい。例えば人物130aの形状のパターンをあらかじめ学習しておき、学習したパターンに適合する場所を人物130aとして抽出する方法を取っても良い。
動作特徴量抽出部5は距離画像取得部2の距離画像の時系列的な変化からカメラ画像と同様の動作特徴量を抽出する。本実施例ではこの動作特徴量の抽出には高次立体局所自己相関を適用している。この高次立体局所自己相関による動作特徴量の抽出方法は、例えば「南里卓也、大津展之、“複数人動画像からの異常動作検出”、“コンピュータビジョンとイメージメディア”、P.43−50、2005年10月」に示されている。
そして、この高次立体局所自己相関の抽出では、まず2時刻の距離画像151の各画素の距離値の変化量を求める。図3に示す距離画像151の場合、この変化量は距離画像151中で乗客130aが動いた部分で大きくなる。
特に、人物130aは壁154aを蹴っているので、脚部を中心に距離値の変化量が大きくなる。
更に、人物130aの身体の中で、脚部の動きにつれて副次的に動く部分での距離値の変化量は大きくなる。つまり、脚部が蹴る時にバランスを取るために振る腕や、壁154aを蹴った反動で揺れる上体がその一例である。
次に、高次立体局所自己相関の抽出では距離値の変化量が所定のしきい値を超えた部分を動作の2値画素として抽出し、更に続いて連続した3時刻における動作の2値画素から動作の成分を求める。
この高次立体局所自己相関での各々の動作の成分は、距離画像151中における動作している部分の動作の方向や、動作している部分の形状を反映する。ここで、動作の方向とは画像中において動く方向(右、右上、上、左上など)であり、動作している部分の形状とは、動作している部分の輪郭の向き(右、右上、上、左上など)である。
そして、動作特徴量は以下の式(4)のfで表すことができる。式(4)の中のNは動作特徴量の次元(見え方と動きのパターン)であって、高次立体局所自己相関では次元Nは251が一般的であるが、これに限らないものである。
Figure 0005877135
はみ出し量計算部4は人物抽出部3が抽出した人物130aが距離画像センサ52の視野角からどの程度はみ出しているかを示すはみ出し量を計算する。図4では、図3と異なって、人物130bはドア53とは反対側の方向を向いている。図4は人物の一部が距離画像センサ52の視野角からはみ出た例であって、人物130bの脚部の大半が距離画像センサ52の視野角から外れている。したがって、図3と異なって、距離画像センサ52は人物130bの全体像を把握することができない。
人物130bはドア53の反対側の壁154bを蹴っているが、脚部の大半が距離画像センサ2の視野角からはみ出ているために、距離画像151上において人物130bの脚部の動きは僅かしか映っていない。はみ出し量計算部4は人物130bの身体が定量的にどの程度はみ出ているかを計算する。
図5を用いてはみ出し量計算部4の演算処理を説明する。図5は乗りかご51内における人物A30と人物B30’の垂直断面を示している。
図5において、YCは距離画像センサ52の設置高さであり、θは距離画像センサ52の俯角であり、ωは距離画像センサ52の垂直方向の視野角であり、αは距離画像センサ52の視野の下限と鉛直方向が成す角度であり、L及びL’は人物A30及び人物B30’と距離画像センサ52の床面上の距離であり、Pは人物A30のはみ出し量であり、参照番号40は人物A30の中で距離画像センサ52の視野角からはみ出たはみ出し部分である。
尚、距離Lは人物30の重心点の座標値(X,Y,Z)の平面上における原点Oからの距離(X+Y1/2で計算する。
人物A30の重心点は以下のような方法で求めることができる。まず距離画像151中の人物A30の重心点及びその重心点の距離値を求め、次にこの重心点の距離値と幾何データ保持部1に記憶されている距離画像センサ52の設置位置と設置角度から重心点の座標系59での座標値(X,Y,Z)を計算することで求められる。
尚、人物A30の重心点は人物A30の代表点を求めた一例であって、人物A30から他の代表点を求めても良い。例えば人物A30の頭頂部を代表点として抽出する方法を取っても良いものである。
図5において、距離Lに応じて人物A30のはみ出し量Pは以下の式(5)で計算できる。ここで、式(5)中のmax(,)は最大値をとる関数である。
式(5)において、距離Lが大きいほどmax(,)関数の第2項は小さくなり、距離Lが所定の値より大きくなるとはみ出し量Pは0となる。式(5)でP=0のとき人物A30のはみ出しは無く、距離画像151内で人物A30の全身が映っている。例えば、図5において距離L’が大きい人物B30’のはみ出し量を計算すると0であってはみ出しは無いことがわかる。
Figure 0005877135
動作特徴量補正部6は図6のフローチャートを実行し、はみ出し量計算部4で計算したはみ出し量に応じて、距離画像センサ52の視野角からはみ出た人物の動作特徴量が距離画像センサ52の視野角に全身が入っている人物の動作特徴量に近づくように補正するものである。ここで、この補正の手法としては以下に説明する統計学的な推定方法を使用する。本実施例では回帰推定により補正を行なうようにしている。
図6のフローチャートにおいて、ステップ1(以下、ステップを“S”と省略して表記する)でははみ出し量が無いかを判定して、はみ出し量が無ければS4に進んで動作特徴量を補正しないという処理を実行する。この場合は人物B30’の全身が距離画像151に存在しているので、人物の全身像から動作特徴量を求めることができる。
S1ではみ出し量が有ると判定された場合はS2に進んで、人物A30の身体の一部が距離画像センサ52からはみ出た時の動作特徴量から人物A30の全身が距離画像センサ52の視野内に入っている場合の動作特徴量を回帰推定するために、はみ出し量の値に応じて回帰推定のパラメータ(回帰係数)を選択する。
ここで回帰推定とは、事前にサンプルを収集した2群の変数の目的変数と説明変数が与えられたときに、目的変数と説明変数の統計的な相関を利用して、説明変数の値に対して最小2乗の意味で統計的に最適な目的変数の値を計算する手法である。
回帰係数とは、この回帰推定に用いるパラメータである。一般に、説明変数をx=[x1,x2…xN]とし、目的変数をyとし、説明変数及び目的変数の平均値をμx =[μx1x2…μxN]、及びμyとし回帰係数a=[a1,a2…aN]としたとき、目的変数yの回帰推定値y’は式(6)で計算できる。
Figure 0005877135
S2では、図7に示すはみ出し量毎の回帰推定のパラメータのテーブルT1のデータを参照しながら、はみ出し量が無い時(人物の全身が映っている時)の動作特徴量を目的変数とし、はみ出し量が有る時の動作特徴量を説明変数として回帰推定を行う。S2でははみ出し量がPのとき、テーブルT1において、Pに最も近いはみ出し量Pkを選択する。このテーブルは一つの例であって、これ以外も多くの変数を取り扱うことができる。
S2で回帰係数の選択が完了するとS3に進んで、はみ出し量が無い時の動作特徴量の第j成分の回帰推定値fj’を以下の式(7)で演算する。尚、式(7)においてμfjは動作特徴量の第j成分の事前のサンプルの平均値であり、事前に計算しておく。動作特徴量補正部6では式(7)を全成分で演算することによって、はみ出し量が有る時の動作特徴量[x1,x2…xN]から、はみ出し量が無い時の動作特徴量の回帰推定値f’=[f1',f2'…fN']を演算することができる。
Figure 0005877135
動作特徴量補正部6はこの回帰推定値f’をもってはみ出し量を補正した補正動作特徴量として出力する。テーブルT1の回帰推定のパラメータは、事前に所定のはみ出し量[P1,P2…P]の人物A30、及びはみ出し量が無い人物B30’の夫々のサンプルの動作特徴量から計算しておくようになっている。
この回帰推定値f’には、以下の様な性質がある。今、図4の壁154bを蹴る人物130bのはみ出し量をPとして、動作特徴量補正部6が動作特徴量の回帰推定値f’を推定するケースを考える。
この場合、図3のはみ出し量が無い人物130aのように壁154aを蹴る動作、あるいは乗りかご51のいずれかの壁を蹴る動作の動作特徴量を含めたサンプルからテーブルT1の回帰推定のパラメータが適切に計算されていることを前提とする。
図3と図4を比べると、人物130bは脚部がほとんど映っていないために、人物130bの動作特徴量fbは脚部の動きが欠落している分だけ、人物130aの動作特徴量faよりも脚部の動きや形状を捉える成分の値が小さくなる。
ただし、人物130bには動作特徴量抽出部5の説明で述べた通り、脚部で壁154bを蹴ることに伴う腕の振りや上体の揺れの動作があるために、これらの動作ははみ出し量が無いときの動作特徴量の脚部で蹴る動きに応じた成分と相関を持って、式(7)においてはみ出し量が無い時の動作特徴量f’を推定することが可能となる。
動作認識部7は動作特徴量補正部6が出力した動作特徴量を入力として、事前に登録された動作特徴量に関連したカテゴリの中から最も適切な動作を類推して認識する。
これらのカテゴリには、図3のような壁を蹴る動作の他、乗りかご51内で想定される幾つかの動作を含めておく。この動作の例としては、壁を殴る動作、他の人物を襲う動作といった異常挙動や、乗りかご51を人物が通常に乗車するときの乗りかご51の中で歩く動作、髪を整える動作といった正常挙動が挙げられる。この動作特徴量に関連したカテゴリはこれ以外にも多くの動作を含ませることができる。
また、動作認識部7の認識処理の確からしさを高めるためにはニューラルネットワーク技術を適用することが有効である。事前にカテゴリ毎の動作特徴量の学習サンプルから、ニューラルネットワークの荷重係数を学習しておけば実現できるようになる。この学習に用いる動作特徴量ははみ出し量が無いものを適用する。
更に、動作認識部7の認識機能はニューラルネットワーク以外にも、複数のカテゴリを扱うことができる識別器を適用して実現できる。例えば、SVM(Support Vector Machine)や学習ベクトル量子化といった識別器を用いることによって動作認識部7での認識処理を実現できる。
制御部8は動作認識部7が認識した動作に応じて以下のような異常対応制御を実行するが、どのような制御を行なうかは事業者の要望に沿うように決定されれば良いものである。
例えば、制御部8は、動作認識部7によって人物の異常挙動を認識すると、図1において乗りかご51内の図示しない記録装置に向けて距離画像センサ52の距離画像、もしくは乗りかご51内の図示しないカメラの映像、すなわち、異常挙動を記録する制御、あるいは、図示しないスピーカやモニタといった警報装置に向けて警報を出力する制御、あるいは、乗りかご51の行先階の変更などの乗りかごの階床停止制御やドアの開閉を行うドア制御のうち、少なくとも一つ以上の制御を実行するとよいものである。
例えば、図3のような壁を蹴る動作といった異常挙動を動作認識部7が認識した時、制御部8に設けられた異常対応制御部は乗りかご51内の記録装置に向けて、その証拠となる距離画像もしくはカメラの映像を記録する。この時、どの様な異常挙動に対して記録を行ったかが容易にわかるように、距離画像もしくはカメラの映像に上述した動作のカテゴリを付加してもよい。
或いは、制御部8に設けられた異常対応制御部はスピーカやモニタに向けて、異常挙動している人物に向けてその挙動を制止するように警報を出力する、或いは、制御部8に設けられた異常対応制御部は乗りかご51を最寄りの階に停止させて開閉ドアを開け、異常挙動している人物に降車するように促してもよい。また、異常挙動を行なっている人物に対して周囲の乗客の安全を確保するため、中央管理センタに連絡して警備員を呼ぶような対応をしても良い。
以上に説明した第1の実施形態によれば、距離画像センサ52に身体の一部がはみ出た人物の動作であっても、高い精度で人物の動作を認識することが可能となる。また、その認識した動作を利用して、記録装置での記録、スピーカやモニタでの警報、乗りかご51の制御が可能となるものである。
第1の実施形態の説明では、人物の下部分が距離画像センサ52の視野角からはみ出るケースを例に挙げて説明したが、人物の上部分が距離画像センサ52の視野角からはみ出る場合も同様にして扱えるものである。
このとき、はみ出し量計算部4は人物の位置に応じて距離画像センサ52の上側の視野角の上限よりも上側にあるはみ出し量を計算する。また、動作特徴量補正部6には、事前に人物の上側のはみ出し量毎にテーブルT1と同様の回帰推定のパラメータのテーブルを用意しておき、はみ出し量計算部4が計算した上側のはみ出し量に応じて回帰推定のパラメータを選択する。人物の左側や右側がはみ出す場合も同様に扱えるものである。
第1の実施形態の説明では、動作特徴量補正部6は回帰推定を使って動作特徴量を補正したが、連続値を推定可能な他の統計的な推定方法を使っても良い。例えば、動作特徴量fの2次以上の項(f1 2,f2 2,f1f2等)を持った重回帰分析を適用することができる。また、ファジー推論を用いても良いものである。
動作特徴量補正部6に回帰推定以外の推定方法を適用する場合、適用した推定方法に応じて式(7)の補正式を変更する。また、適用した推定方法に応じてテーブルT1中のデータを変更しておくことが必要である。
第1の実施形態において、テーブルT1のデータを作成するためには、はみ出し量毎に人物が動作をしている距離画像151のサンプルを集めてから動作特徴量を抽出する必要がある。
距離画像151のサンプルは、動作認識部7のカテゴリをカバーするように多くのカテゴリの動作から抽出する必要がある。距離画像151のサンプルは、実際に人物を捉えた距離画像151を撮影する代わりに、コンピュータグラフィックスで合成した人物で代用しても良い。
コンピュータグラフィックスの人物は、実際の人物と同様の大きさを持ち、また同様の関節を持つものが望ましい。コンピュータグラフィックスの人物の動作は、その関節を制御することで作成することができる。
コンピュータグラフィックスの人物の距離画像は、幾何データ保持部1の視野角や設置角度や設置位置に応じた仮想の撮像系をコンピュータグラフィックスに設けて、コンピュータグラフィックスにおいてコンピュータグラフィックスの人物と仮想の撮像系の距離値を画素毎に計算することで求める。
この様にコンピュータグラフィックスを利用して距離画像151のサンプルを合成すると、実際に人物を捉えた距離画像151を撮影するよりも少ない工数で前記距離画像151のサンプルを収集できて効率化が図れる。
コンピュータグラフィックスの人物には、身長、体形、服装にバリエーションを持たせてもよく、距離画像151の人物等の身長、体形、服装が多様な場合も、その多様さをカバーするようにテーブルT1のデータを作成しておけば良いものである。
次に本発明の第2の実施形態になる画像認識装置について説明する、以下に示す第2の実施形態になる画像認識装置は、第1の実施形態と同様に距離画像センサの視野角から人物の身体の一部がはみ出た場合でも、撮像された視野角内の人物の動作を高い精度で認識することができるようにしたものである。
第2の実施形態において、全体的な画像認識装置の構成は図1に示したものと同様である。そして、第1の実施形態である図2に示す機能ブロックと異なるのは、はみ出し量計算部4と動作特徴量補正部6であり、その他の機能ブロックは同様の機能ブロックである。
先に説明した第1の実施形態に対して第2の実施形態では、はみ出し量計算部4と動作特徴量補正部6を人物領域フィルタ部9に置き換えている。この人物領域フィルタ部9の考え方は人物を複数の領域(例えば、頭、腕、胴、足等の部位領域や床面からの高さで複数に分割した高さ領域等)に分割し、分割された各領域が人物の動作、挙動に対応して距離画像151の視野角からはみ出る割合を求め、はみ出る割合の多い領域の特徴量の評価を行なわない、或いははみ出る割合の多い領域の特徴量を小さくする、といったフィルタ機能を付与したものである。
したがって、全身が存在する人物と身体の一部がはみ出した人物であっても視野角に入る割合が多い領域の特徴量を使用しているので、特徴量としては両者は近似しているため精度の高い認識が可能となり、画像認識の信頼性が向上できるものである。
このためには、この人物領域フィルタ部9は人物抽出部3が抽出した距離画像151の人物の部分の中で、乗りかご51内の人物がどこに居ても映る部分を抽出する。換言すれば、人物領域フィルタ部9は、人物抽出部3が抽出した距離画像中の人物から、人物が想定された範囲のどこに移動しても常に人物の身体が映る部分以外のはみ出し部分を取り除く。
この結果、動作特徴量抽出部5は人物の乗りかご51内の位置に拘わらず、動作特徴量が近似してくることで動作認識部7での動作の認識が容易となるものである。
人物領域フィルタ部9の処理を図9と図10を用いて説明する。図9及び図10において、人物131a及び人物131bはそれぞれ壁154a及び壁154bを殴る動作をしている。
参照番号141a及び参照番号141bは人物131a及び人物131bを構成する画素の中で、高さが所定値P以下の領域を示している。高さPは人物131a及び人物131bが乗りかご51内の移動想定範囲内で隈なく移動したときに、図2に示したはみ出し量計算部4で計算するはみ出し量が最も大きな値をとるときの高さである。
よって、乗りかご51内の移動想定範囲内で人物131a及び人物131bがどこに移動しても、人物131a及び人物131bの人物内の画素の中で高さPを超過する部分は常に距離画像151中に映っている。尚、人物131aから高さP以下の領域141aを抽出することは、人物131aの内部の画素を式(1)、式(2)及び式(3)によって座標系59の座標値に変換したときのY座標を参照することで可能である。人物131bから領域141bを抽出することも同様の手順で可能である。
図10において、人物131bの脚部の多くの領域は距離画像センサ52の視野角からはみ出しているために、人物131a及び人物131bが壁を殴る動作の中で、踏み込むような脚部の動きを伴った時の動作では、人物131a及び人物131bの全身から動作特徴量を抽出すると距離画像151中に映る脚部の範囲の違いによって動作特徴量が異なってしまうようになる。
一方で、実施例2の動作特徴量抽出部5では、人物領域フィルタ部9によって領域141a及び領域141bを除外した人物131a及び人物131bの画像から動作特徴量を抽出することによって、人物131a及び人物131bの見えている範囲がほぼ同様となって人物131a及び人物131bの動作特徴量が近似するようになるものである。
第2の実施形態によれば、全身が存在する人物と身体の一部がはみ出した人物との何れに対しても、視野角に入る割合が多い領域の特徴量を使用してので、人物の距離画像内の撮影位置に拘わらず特徴量としては近似しているため精度の高い認識が可能となり画像認識の信頼性が向上できるものである。
ここで、本実施例では人物領域フィルタ部9でフィルタされる領域を脚部としたが、これ以外に適宜フィルタされる領域を決めることができる。また、フィルタされる領域を複数としても差し支えないものである。
以下に示す第3の実施形態になる画像認識装置は、人物の方向によって動作特徴量がばらつく場合でも、撮像された視野角内の人物の動作を高い精度で認識することができるようにしたものである。
第3の実施形態において、全体的な画像認識装置の構成は図1に示したものと同様である。そして、第1の実施形態である図2に示す機能ブロックと異なるのは、幾何データ保持部1、はみ出し量計算部4、及び動作特徴量補正部6であり、その他の機能ブロックは同様の機能ブロックである。
第3の実施形態では、第1の実施形態で用いていた幾何データ保持部1、はみ出し量計算部4、及び動作特徴量補正部6の代わりに、新たに記憶情報を追加した幾何データ保持部11、周囲構造物認識部12、及び人物座標変換部13に置き換えたものである。
図11において、周囲構造物認識部12は距離画像センサ52の距離画像において人物の周辺の構造物(周囲構造物)を抽出する機能を備えている。
また、幾何データ保持部11は、第1の実施形態で使用した幾何データ保持部1のデータ(距離画像センサ52の視野角や設置角度や設置位置)に加えて、周囲構造物認識部12が参照する構造物に関するデータを記憶、保持している。
人物座標変換部13は人物抽出部3が抽出した距離画像151の人物130a及び130b等の動作が周囲構造物を対象とした動作である場合に、距離画像151上における人物の動作の方向が、人物の位置に寄らず予め定められた基準方向に揃うように、人物の距離画像の座標変換を行う機能を備えている。
つまり、乗りかごの壁を表す線分254a乃至線分254dのどの線分に対して、例えば人物が殴るといった動作を行なっているかを判断し、上方(望ましくは真上)から見た距離画像上における人物の動作の方向(この場合は人物が殴る対象となっている線分に向かう方向)を予め定められた基準方向(例えば距離画像上で上方向)に揃うように人物の距離画像を座標変換することで人物の動作方向を揃えるものである。
ここで、図12において人物231aは線分254aに対して殴る動作を行ない(動作方向は上方向)、図13において人物231bは線分254bに対して殴る動作を行なっている(動作方向は下方向)。もちろん、線分254c及び線分254dに対しても殴る動作を行なう場合がある。何れの場合も、動作方向が基準方向である上方向になるように座標変換を行って人物の動作方向を特定の基準方向にそろえるようにしてから特徴量を抽出することで、人物の動作方向による特徴量のばらつきを抑制できるようになる。
次に、幾何データ保持部11、周囲構造物認識部12、及び人物座標変換部13の詳細機能を説明する。
幾何データ保持部11の構造物のデータは、乗りかご51の壁に関する情報を保持している。乗りかご51内の四方に壁があること、各壁が床面に垂直であること、隣り合う各壁が直交することを情報として記憶、保持されている。
周囲構造物認識部12は、まず距離画像151の各画素の距離値を式(1)、及び式(2)によって、座標系59の座標値(X,Y,Z)に変換する。次に、この座標値を仮想的に真上から見た距離画像を合成する。
図12は乗りかご51を真上から見た距離画像の一例であって、参照番号251は真上から見た距離画像、参照番号254a,254b,254c,254dは距離画像の線分であり、乗りかご51の壁を表している。また、参照番号231aは線分254aの方向を向いて殴る動作をする人物である。
座標値を仮想的に真上から見た距離画像の距離値は、図14と同様に距離画像151の画素150の対応点50から仮想視点までの距離である。周囲構造物認識部12は、幾何データ保持部11の乗りかご51内の壁の条件(4方に壁があること、各壁が床面に垂直であること、隣り合う各壁が直交すること)、及び線分254a,254b,254c,254dが乗りかご51内の壁であることを認識する。尚、線分254a,254b,254c,254dは、距離画像251にハフ変換等による直線抽出アルゴリズムを適用して求めても良い。
人物座標変換部13は周囲構造部物認識部12が認識した周囲構造物のうち、どの周囲構造物が人物の動作の対象になっているか、および、真上から見た距離画像251上での人物の動作方向を判断し、人物の動作方向が基準方向に揃うように人物を座標変換することで、人物の動作の方向を揃える。
図12と図13の真上から見た距離画像251には、それぞれ壁(線分)254a及び254bに向かって殴る動作をする人物231a及び人物231bがいる。そして、人物がどの壁に対して殴る動作を行なっているかを相互の距離によって推定している。
図12においては、人物座標変換部13は人物231aには人物231aに最も近い線分254aを基準とした座標系201aを設定する。この場合は線分254aで表された壁に進入する方向をX’軸、このX’軸を−90°回転した方向をZ’軸とする座標系を設定する。
同様に、図13においても、人物座標変換部13は人物231bには人物231bに最も近い線分254bを基準とした座標系201bを設定する。この場合も線分254bで表された壁に進入する方向をX’軸、このX’軸を−90°回転した方向をZ’軸とする座標系を設定する。
人物座標変換部13は、人物231a及び231bを夫々座標系201a及び201bが乗りかご51の座標系200と一致するように回転座標変換を実行する。この場合、人物231aの回転量は0°であり、人物231bの回転量は180°となる。したがって、図13の場合は回転されて図12に近い距離画像となり、人物231bの動作方向は基準方向である上方向となる。
第3の実施形態の動作特徴量抽出部7では、人物座標変換部13が座標変換した後の距離画像の人物231a及び人物231bから、第1の実施形態と同様に動作特徴量を抽出する。
このように、第3の実施形態の画像認識装置では乗りかご51内において、乗りかご51内で壁を向いた人物の動作からほぼ近似した動作特徴量を抽出することが可能となる。この近似した動作特徴量は動作認識部7における画像認識の信頼性を向上する効果を奏することができる。
以上述べた第3の実施形態によれば、人物座標変換部13は仮想的に乗りかご51を真上から見た人物231a等を扱っていたが、これ以外にも真下や真横からなどの他の仮想的な視点から見た距離画像を用いても良いものである。
例えば、真横から見た仮想視点の場合、乗りかご51内の壁が右側(或いは左側)に来るように人物の座標値を座標変換する。このように仮想視点を真横にすると、横方向から見た動きが大きな動作(屈んだり、倒れたりする動作)の認識が容易になる。
また、第3の実施形態によれば、構造物を乗りかご51の内壁としたが、これは一例であって、例えば、距離画像センサ52を駐車場に設置し、構造物として自動車を認識する構成とし、この自動車を対象に動作する人物を座標変換することによって、自動車に乗り降りする人物の動作を認識したり、自動車の窓ガラスを割るような不審な人物の動作を認識するような応用も可能である。
以上に説明した第1の実施形態乃至第3に実施形態に代表される本発明の認識装置は典型的にはエレベータ装置の乗りかご内の人物の挙動を認識するのに利用される。
しかしながら、冒頭でも述べたように本発明は説明した実施形態に限定されることなく、本発明の技術的な概念の中で種々の変形例や応用例をもその範囲に含むものである。
例えば、距離画像センサを使って人物の動作を認識するシステム一般に広く適用できる。例えば、エレベータ・ホールの監視や、エスカレータ付近の事故の監視、また人物の動作を使って計算機に所定に指示を与えるジェスチャ入力装置等にも適用できるものである。
また、これらの実施例においては画像認識装置をエレベータ装置の乗りかごに搭載した制御装置内に構築したが、これの応用展開として画像認識装置を管理センタに設け、距離画像だけを管理センタに送って管理センタ内の制御装置で画像認識を行なうようにすることも可能である
1…幾何データ、2…距離画像取得部、3…人物抽出部、4…はみ出し量計算部、5…動作特徴量抽出部、6…動作特徴量補正部、7…動作認識部、8…制御部。

Claims (14)

  1. 人物を含めた距離画像を距離画像センサから取得する距離画像取得部と、前記距離画像から前記人物を抽出する人物抽出部と、前記人物の動作特徴量を抽出する動作特徴量抽出部と、前記人物の動作特徴量から前記人物の動作を類推する動作認識部を少なくとも備えた画像認識装置において、
    前記人物の身体が前記距離画像センサの視野角からはみ出してしまうはみ出し量を求めるはみ出し量計算部と、前記人物の身体が前記距離画像センサの視野角からはみ出した時の前記動作特徴量と前記はみ出し量に基づいて前記人物の全身の動作特徴量を推定する動作特徴量補正部とを備え、前記動作特徴量補正部の動作特徴量から前記動作認識部で前記人物の動作を類推することを特徴とする画像認識装置。
  2. 請求項1に記載の画像認識装置において、
    前記距離画像取得部は、前記距離画像センサの少なくとも視野角、設置位置、及び設置角度が記憶された幾何データ保持部からの情報に基づいて距離画像を演算することを特徴とする画像認識装置。
  3. 請求項1乃至請求項2のいずれか1項に記載の画像認識装置において、
    前記はみ出し量計算部は前記人物の上部、或いは下部が前記距離画像センサの視野角からはみ出した量を計算することを特徴とする画像認識装置。
  4. 請求項1乃至請求項3のいずれか1項に記載の画像認識装置において、
    前記動作特徴量補正部は、事前に収集したはみ出し量に応じて求めた統計的な最適値を記憶した記憶部を有し、この最適値を用いた統計的演算によって前記人物の全身の動作特徴量を推定することを特徴とする画像認識装置。
  5. 請求項4に記載の画像認識装置において、
    前記動作特徴量補正部による前記統計的演算は、はみ出し量が無い前記人物の全身が映っている時の動作特徴量を目的変数とし、はみ出し量が有る時の動作特徴量を説明変数とし、前記記憶部に記憶されたはみ出し量に応じた係数、前記目的変数、及び前記説明変数の統計的な相関によって最適な目的変数の値を計算する回帰推定によって前記人物の全身の動作特徴量を推定することを特徴とする画像認識装置。
  6. 請求項5に記載の画像認識装置において、
    前記動作特徴量補正部の動作特徴量の推定に使用される前記はみ出し量に応じた係数はコンピュータグラフィックスで作成した人物を用いて求められることを特徴とする画像認識装置。
  7. 請求項1乃至請求項6のいずれか1項に記載の画像認識装置において、
    前記動作認識部は、前記動作特徴量補正部の動作特徴量から少なくとも前記人物の異常挙動を認識することを特徴とする画像認識装置。
  8. 請求項7に記載の画像認識装置において、
    前記動作認識部は、前記人物の正常挙動と異常挙動を認識、判定するための認識情報が記憶されていることを特徴とする画像認識装置。
  9. 請求項1乃至請求項8のいずれか1項に記載の画像認識装置と、乗りかごと、前記乗りかご内に設置された前記距離画像センサとを備えたエレベータ装置において、
    前記動作認識部によって前記人物の異常挙動を認識すると、前記異常挙動を記録する制御、或いは警報を発する制御、或いは乗りかごのドア制御、或いは乗りかごの階床停止制御の少なくとも一つの制御を実行する制御部を備えたことを特徴とするエレベータ装置。
  10. 人物を含めた距離画像を距離画像センサから取得する距離画像取得部と、前記距離画像から前記人物を抽出する人物抽出部と、前記人物の動作特徴量を抽出する動作特徴量抽出部と、前記人物の動作特徴量から前記人物の動作を類推する動作認識部を少なくとも備えた画像認識装置において、
    前記人物抽出部が抽出した距離画像中の人物から、前記人物が想定された範囲のどこに移動しても常に前記人物の身体が映る部分以外のはみ出し部分を取り除く人物領域フィルタ部を設け、前記人物領域フィルタ部で得られた距離画像の前記人物から前記動作特徴量抽出部で前記人物の動作特徴量を抽出し、この動作特徴量から前記動作認識部で前記人物の動作を類推することを特徴とする画像認識装置。
  11. 請求項10に記載の画像認識装置において、
    前記距離画像取得部は、前記距離画像センサの少なくとも視野角、設置位置、及び設置角度が記憶された幾何データ保持部からの情報に基づいて距離画像を演算することを特徴とする画像認識装置。
  12. 請求項10乃至請求項11のいずれか1項に記載の画像認識装置において、
    前記人物領域フィルタ部は、はみ出し量が最も大きな値をとった時のはみ出し部分を取り除くことを特徴とする画像認識装置。
  13. 請求項10乃至請求項12のいずれか1項に記載の画像認識装置において、
    前記動作認識部は、前記人物の正常挙動と異常挙動を認識、判定するための認識情報が記憶されていることを特徴とする画像認識装置。
  14. 請求項10乃至請求項13のいずれか1項に記載の画像認識装置と、乗りかごと、前記乗りかご内に設置された前記距離画像センサとを備えたエレベータ装置において、
    前記動作認識部によって前記人物の異常挙動を認識すると、前記異常挙動を記録する制御、或いは警報を発する制御、或いは乗りかごのドア制御、或いは乗りかごの階床停止制御の少なくとも一つの制御を実行する制御部を備えたことを特徴とするエレベータ装置。
JP2012161373A 2012-07-20 2012-07-20 画像認識装置及びエレベータ装置 Active JP5877135B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012161373A JP5877135B2 (ja) 2012-07-20 2012-07-20 画像認識装置及びエレベータ装置
CN201310305951.5A CN103577827B (zh) 2012-07-20 2013-07-19 图像识别装置以及电梯装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012161373A JP5877135B2 (ja) 2012-07-20 2012-07-20 画像認識装置及びエレベータ装置

Publications (2)

Publication Number Publication Date
JP2014021816A JP2014021816A (ja) 2014-02-03
JP5877135B2 true JP5877135B2 (ja) 2016-03-02

Family

ID=50049576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012161373A Active JP5877135B2 (ja) 2012-07-20 2012-07-20 画像認識装置及びエレベータ装置

Country Status (2)

Country Link
JP (1) JP5877135B2 (ja)
CN (1) CN103577827B (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2015357147A1 (en) 2014-12-03 2017-06-29 Inventio Ag System and method for alternatively interacting with elevators
CN106144862B (zh) 2015-04-03 2020-04-10 奥的斯电梯公司 用于乘客运输门控制的基于深度传感器的乘客感测
CN106144797B (zh) 2015-04-03 2020-11-27 奥的斯电梯公司 用于乘客运输的通行列表产生
JP6480824B2 (ja) * 2015-07-27 2019-03-13 株式会社日立製作所 距離画像センサのパラメータ調整方法、パラメータ調整装置、およびエレベータシステム
CN105502110A (zh) * 2015-08-03 2016-04-20 陈思 拒绝危险人物乘坐的智能化电梯
CN117185080A (zh) * 2016-05-04 2023-12-08 通力股份公司 用于增强电梯定位的系统和方法
JP6713837B2 (ja) * 2016-05-31 2020-06-24 株式会社日立製作所 輸送機器制御システム、及び、輸送機器制御方法
JP6617081B2 (ja) * 2016-07-08 2019-12-04 株式会社日立製作所 エレベーターシステム及びかごドア制御方法
JP6769859B2 (ja) 2016-12-19 2020-10-14 株式会社日立エルジーデータストレージ 画像処理装置及び画像処理方法
CN106946109A (zh) * 2017-04-25 2017-07-14 中国计量大学 一种基于激光雷达扫描的电梯感应装置及方法
US11312594B2 (en) 2018-11-09 2022-04-26 Otis Elevator Company Conveyance system video analytics
CN114391156A (zh) * 2019-09-20 2022-04-22 索尼互动娱乐股份有限公司 信息处理设备、信息处理方法和程序
AT523031A1 (de) * 2019-10-14 2021-04-15 View Promotion Gmbh Verfahren zur überwachung einer aufzugskabine
JP7366820B2 (ja) * 2020-03-25 2023-10-23 株式会社日立製作所 行動認識サーバ、および、行動認識方法
CN111847166B (zh) * 2020-07-20 2023-01-13 日立楼宇技术(广州)有限公司 电梯保护方法、装置及系统

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7340077B2 (en) * 2002-02-15 2008-03-04 Canesta, Inc. Gesture recognition system using depth perceptive sensors
MXPA05009996A (es) * 2003-03-20 2005-11-17 Inventio Ag Vigilancia de area de elevador mediante sensor tridimensional.
JP4925120B2 (ja) * 2007-07-02 2012-04-25 独立行政法人産業技術総合研究所 物体認識装置および物体認識方法
JP2010067079A (ja) * 2008-09-11 2010-03-25 Dainippon Printing Co Ltd 行動解析システムおよび行動解析方法
JP2012518236A (ja) * 2009-02-17 2012-08-09 オーメック インタラクティブ,リミテッド ジェスチャー認識のための方法及びシステム

Also Published As

Publication number Publication date
CN103577827B (zh) 2016-12-28
CN103577827A (zh) 2014-02-12
JP2014021816A (ja) 2014-02-03

Similar Documents

Publication Publication Date Title
JP5877135B2 (ja) 画像認識装置及びエレベータ装置
JP5251800B2 (ja) 対象物追跡装置及びプログラム
Navarro-Serment et al. Pedestrian detection and tracking using three-dimensional ladar data
US9251598B2 (en) Vision-based multi-camera factory monitoring with dynamic integrity scoring
Zhang et al. A viewpoint-independent statistical method for fall detection
US20190347486A1 (en) Method and apparatus for detecting a garbage dumping action in real time on video surveillance system
US20150294143A1 (en) Vision based monitoring system for activity sequency validation
KR20110003146A (ko) 제스쳐 인식 장치, 이를 구비한 로봇 시스템 및 이를 이용한 제스쳐 인식 방법
JP2005538278A (ja) ステレオドアセンサ
WO2017183769A1 (ko) 이상 상황을 감지하는 장치 및 방법
JP5127531B2 (ja) 画像監視装置
KR20160011523A (ko) 3차원 영상 정보를 이용한 이상 행동 감시 장치 및 방법
JP5598751B2 (ja) 動作認識装置
JP6779410B2 (ja) 映像解析装置、映像解析方法、及びプログラム
JP5001930B2 (ja) 動作認識装置及び方法
US10496874B2 (en) Facial detection device, facial detection system provided with same, and facial detection method
JP2012059030A (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
EP2858037A1 (en) Moving object detector
JP2018156408A (ja) 画像認識撮像装置
WO2022014252A1 (ja) 情報処理装置および情報処理方法
Weinrich et al. Appearance-based 3D upper-body pose estimation and person re-identification on mobile robots
JP5482412B2 (ja) ロボット、位置推定方法及びプログラム
JP6737262B2 (ja) 異常状態検知装置、異常状態検知方法、及び、異常状態検知プログラム
JP6995714B2 (ja) 特定装置、特定方法及び特定プログラム
EP3610358B1 (en) Depth information based pose determination for mobile platforms, and associated systems and methods

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151110

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160125

R150 Certificate of patent or registration of utility model

Ref document number: 5877135

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150