JP2009143722A - Person tracking apparatus, person tracking method and person tracking program - Google Patents
Person tracking apparatus, person tracking method and person tracking program Download PDFInfo
- Publication number
- JP2009143722A JP2009143722A JP2007325910A JP2007325910A JP2009143722A JP 2009143722 A JP2009143722 A JP 2009143722A JP 2007325910 A JP2007325910 A JP 2007325910A JP 2007325910 A JP2007325910 A JP 2007325910A JP 2009143722 A JP2009143722 A JP 2009143722A
- Authority
- JP
- Japan
- Prior art keywords
- person
- dimensional position
- video
- movement trajectory
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Indicating And Signalling Devices For Elevators (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
この発明は、例えば、カメラにより撮影された映像に写っている個々の人物を検出して、個々の人物を追跡する人物追跡装置、人物追跡方法及び人物追跡プログラムに関するものである。 The present invention relates to, for example, a person tracking device, a person tracking method, and a person tracking program for detecting an individual person in an image captured by a camera and tracking the individual person.
例えば、高層ビルには非常に多数のエレベータが設置されており、早朝の通勤ラッシュ時や、お昼休みの混雑時などには、多数のエレベータをうまく連携させて、乗客を効率的に輸送しなければならない。
多数のエレベータの群管理を効率的に行うには、“誰がどの階で乗って、どの階で降りたか”という乗客の移動履歴を計測して、その移動履歴を群管理システムに提供する必要がある。
For example, there are a large number of elevators installed in high-rise buildings, and passengers must be transported efficiently by linking many elevators well during early morning commuting rush hours or during lunch breaks. I must.
In order to efficiently manage a large number of elevators, it is necessary to measure the movement history of passengers, such as “who got on which floor and which floor,” and provide the movement history to the group management system. is there.
従来より、カメラを用いることで、乗客の人数カウントや人物移動を計測する人物追跡装置が多数提案されている。
例えば、以下の特許文献1には、予め記憶している背景画像と、カメラから随時取り込む入力画像との差分の画像(背景差分画像)を求めることにより、エレベータ内の乗客を検出して、エレベータ内で乗客数を検知する手法が開示されている。
しかし、非常に混み合っているエレベータでは、約25cm四方に一人の乗客が存在し、乗客が重なり合う状況が発生するため、背景差分画像は一塊のシルエットになる。
このため、背景差分画像から個々の人物を分離することは極めて困難である。
2. Description of the Related Art Conventionally, many person tracking devices that measure the number of passengers and the movement of people by using a camera have been proposed.
For example, in
However, in a very crowded elevator, there is one passenger in a square of about 25 cm, and a situation occurs in which the passengers overlap, so the background differential image becomes a lump of silhouette.
For this reason, it is very difficult to separate individual persons from the background difference image.
また、以下の特許文献2には、エレベータのかご内の上部にカメラを設置し、予め記憶している頭部画像参照パターンとカメラの撮影画像とを対比することにより、エレベータ内の乗客を検出して、エレベータ内で乗客数を検知する手法が開示されている。
しかし、単純なパターンマッチングによる人物検出方法では、例えば、カメラから見て、ある人物が他の人物に隠れてしまっている場合など、遮蔽が生じている場合には、誤って人数をカウントしてしまうことがある。
また、エレベータのかご内に鏡が設置されている場合には、鏡に映っている人物を誤検出してしまうことがある。
Further, in
However, in the person detection method based on simple pattern matching, for example, when a person is hidden behind another person when viewed from the camera, the number of persons is counted incorrectly. It may end up.
In addition, when a mirror is installed in the elevator car, a person reflected in the mirror may be erroneously detected.
従来の人物追跡装置は以上のように構成されているので、エレベータが非常に混雑している状況などでは、エレベータ内の乗客を正確に検出することができないなどの課題があった。 Since the conventional person tracking device is configured as described above, there is a problem that the passengers in the elevator cannot be accurately detected in a situation where the elevator is very crowded.
この発明は上記のような課題を解決するためになされたもので、監視対象領域が非常に混雑している状況などでも、監視対象領域内の個々の人物を正確に検出することができる人物追跡装置、人物追跡方法及び人物追跡プログラムを得ることを目的とする。 The present invention has been made in order to solve the above-described problems, and is capable of accurately detecting individual persons in a monitoring target area even when the monitoring target area is very crowded. An object is to obtain a device, a person tracking method, and a person tracking program.
この発明に係る人物追跡装置は、複数の映像撮影手段により撮影された映像に写っている人物を検出する人物検出手段と、人物検出手段により検出された個々の人物をステレオ立体視して、個々の人物の3次元位置を推定する3次元位置推定手段とを設け、移動軌跡解析手段が3次元位置推定手段により推定された個々の人物の3次元位置の時間的変化を監視して、個々の人物の移動軌跡を解析するようにしたものである。 The person tracking device according to the present invention includes a person detection unit that detects a person in an image captured by a plurality of image capturing units, and a stereo stereoscopic view of each person detected by the person detection unit. 3D position estimation means for estimating the three-dimensional position of each person, and the movement trajectory analysis means monitors temporal changes in the three-dimensional position of each person estimated by the 3D position estimation means, The movement trajectory of the person is analyzed.
この発明によれば、複数の映像撮影手段により撮影された映像に写っている人物を検出する人物検出手段と、人物検出手段により検出された個々の人物をステレオ立体視して、個々の人物の3次元位置を推定する3次元位置推定手段とを設け、移動軌跡解析手段が3次元位置推定手段により推定された個々の人物の3次元位置の時間的変化を監視して、個々の人物の移動軌跡を解析するように構成したので、監視対象領域が非常に混雑している状況などでも、監視対象領域内の個々の人物を正確に検出することができるとともに、個々の人物を追跡することができる効果がある。 According to the present invention, the person detecting means for detecting a person shown in the images photographed by the plurality of image photographing means, and the individual person detected by the person detecting means are stereoscopically viewed in stereo, A three-dimensional position estimating means for estimating a three-dimensional position, and the movement trajectory analyzing means monitors the temporal change of the three-dimensional position of each person estimated by the three-dimensional position estimating means to move each person Since it is configured to analyze the trajectory, it is possible to accurately detect individual persons in the monitoring target area even when the monitoring target area is very crowded, and to track each person. There is an effect that can be done.
実施の形態1.
図1はこの発明の実施の形態1による人物追跡装置を示す構成図であり、図において、カメラ1はエレベータのかご内(監視対象領域)の上部に複数台設置されており、複数のカメラ1はかご内の映像を撮影して、その映像を映像取得部2に出力する。なお、カメラ1は映像撮影手段を構成している。
ただし、カメラ1の種類は特に問わず、一般的な監視カメラのほかに、可視カメラ、近赤外線領域まで撮影可能な高感度カメラ、熱源を撮影することが可能な遠赤外線カメラなどでもよい。また、距離計測が可能な赤外線距離センサや、レーザーレンジファインダなどで代用してもよい。
映像取得部2はカメラ1により撮影された映像を取得する映像入力インタフェースである。
FIG. 1 is a block diagram showing a person tracking apparatus according to
However, the type of the
The
カメラキャリブレーション部3はカメラパラメータ算出部4及び設置位置角度算出部5から構成されている。
カメラパラメータ算出部4は映像解析部6による人物の検出処理が開始される前に、複数のカメラ1により撮影されたキャリブレーションパターンの映像の歪み具合を解析して、複数のカメラ1のカメラパラメータ(レンズの歪み、焦点距離、光軸、画像中心(principal point)に関するパラメータ)を算出する処理を実施する。なお、カメラパラメータ算出部4はパラメータ算出手段を構成している。
設置位置角度算出部5は映像解析部6による人物の3次元位置の推定処理が開始される前に、複数のカメラ1により撮影されたキャリブレーションパターンの映像から、エレベータのかご内の基準点に対する複数のカメラ1の設置位置及び設置角度を算出する処理を実施する。なお、設置位置角度算出部5は設置位置角度算出手段を構成している。
The
The camera
The installation position
映像解析部6は映像補正部7、人物検出部8、3次元位置推定部9及び移動軌跡解析部10から構成されており、人物の検出処理や移動軌跡の解析処理などを実施する。
映像補正部7はカメラパラメータ算出部4により算出されたカメラパラメータを用いて、映像取得部2により取得された複数の映像の歪みを補正する処理を実施する。なお、映像補正部7は映像補正手段を構成している。
The
The
人物検出部8は映像取得部2により取得された複数の映像に写っている人物(例えば、人間の頭部、肩、胴体など)を検出する処理を実施する。なお、人物検出部8は人物検出手段を構成している。
3次元位置推定部9は設置位置角度算出部5により算出された複数のカメラ1の設置位置及び設置角度を利用して、人物検出部8により検出された個々の人物をステレオ立体視することにより、個々の人物の3次元位置を推定する処理を実施する。なお、3次元位置推定部9は3次元位置推定手段を構成している。
移動軌跡解析部10は3次元位置推定部9により推定された個々の人物の3次元位置の時間的変化を監視して、個々の人物の移動軌跡を解析するなど処理を実施する。なお、移動軌跡解析部10は移動軌跡解析手段を構成している。
The
The three-dimensional
The movement
図1の例では、人物追跡装置の構成要素である映像取得部2、カメラパラメータ算出部4、設置位置角度算出部5、映像補正部7、人物検出部8、3次元位置推定部9及び移動軌跡解析部10のそれぞれが専用のハードウェア(例えば、MPUを実装している半導体集積回路基板)で構成されているものを想定しているが、人物追跡装置がコンピュータで構成される場合、映像取得部2、カメラパラメータ算出部4、設置位置角度算出部5、映像補正部7、人物検出部8、3次元位置推定部9及び移動軌跡解析部10の処理内容を記述している人物追跡プログラムをコンピュータのメモリに格納し、コンピュータのCPUが当該メモリに格納されている人物追跡プログラムを実行するようにしてもよい。
図2はこの発明の実施の形態1による人物追跡方法の一部(人物追跡装置の前処理部分)を示すフローチャートであり、図3はこの発明の実施の形態1による人物追跡方法の一部(人物追跡装置の後処理部分)を示すフローチャートである。
In the example of FIG. 1, the
FIG. 2 is a flowchart showing a part of the person tracking method according to the first embodiment of the present invention (the pre-processing part of the person tracking apparatus), and FIG. 3 shows a part of the person tracking method according to the first embodiment of the present invention ( It is a flowchart which shows the post-processing part of a person tracking device.
次に動作について説明する。
最初に、カメラキャリブレーション部3が実施する前処理について説明する。
カメラキャリブレーション部3のカメラパラメータ算出部4がカメラパラメータ(レンズの歪み、焦点距離、光軸、画像中心(principal point)に関するパラメータ)を算出するに際して、個々のカメラ1がキャリブレーションパターンを撮影する(図2のステップST1)。
Next, the operation will be described.
First, preprocessing performed by the
When the camera
映像取得部2は、個々のカメラ1により撮影されたキャリブレーションパターンの映像を取得して、そのキャリブレーションパターンの映像をカメラキャリブレーション部3のカメラパラメータ算出部4に出力する。
キャリブレーションパターンとしては、例えば、大きさが既知の白黒のチェッカーフラグパターンなどが該当する(図4を参照)。
なお、キャリブレーションパターンは、10〜20通りの異なる角度からカメラ1により撮影される。
The
As the calibration pattern, for example, a black and white checker flag pattern having a known size is applicable (see FIG. 4).
The calibration pattern is taken by the
カメラキャリブレーション部3のカメラパラメータ算出部4は、映像取得部2からキャリブレーションパターンの映像を受けると、そのキャリブレーションパターンの映像の歪み具合を解析して、各カメラ1のカメラパラメータを算出する(ステップST2)。
カメラパラメータの算出方法は、公知の技術であるため詳細な説明を省略する。
When the camera
Since the camera parameter calculation method is a known technique, a detailed description thereof will be omitted.
次に、カメラキャリブレーション部3の設置位置角度算出部5が複数のカメラ1の設置位置及び設置角度を算出するに際して、複数のカメラ1がエレベータのかご内の上部に設置されたのち、複数のカメラ1が既知の大きさのカメラキャリブレーションパターンを同時に撮影する(ステップST3)。
例えば、図4に示すように、キャリブレーションパターンとしてチェッカーフラグパターンをかご内の床に敷いて、チェッカーフラグパターンが複数のカメラ1で同時に写るように撮影する。
Next, when the installation position
For example, as shown in FIG. 4, a checker flag pattern is laid on the floor in the car as a calibration pattern, and a plurality of
このとき、かご内の床に敷いているキャリブレーションパターンに対して、かご内の基準点(例えば、かごの入口)からの位置と角度をオフセットとして計測し、また、かごの内寸を計測しておくようにする。
図4の例では、キャリブレーションパターンとしてチェッカーフラグパターンをかご内の床に敷いているものを示しているが、これに限るものではなく、例えば、かご内の床に描かれた模様でもよい。この場合、床に描かれた模様の大きさを予め計測しておくようにする。
また、図5に示すように、キャリブレーションパターンとして、無人のかご内を撮影し、かご内の床と天井の四隅を選択したものでもよい。この場合、かごの内寸を計測しておくようにする。
At this time, with respect to the calibration pattern laid on the floor in the car, the position and angle from the reference point (for example, the car entrance) in the car are measured as an offset, and the inner dimensions of the car are measured. To keep.
In the example of FIG. 4, a calibration pattern in which a checker flag pattern is laid on the floor in the car is shown, but the invention is not limited to this, and for example, a pattern drawn on the floor in the car may be used. In this case, the size of the pattern drawn on the floor is measured in advance.
Further, as shown in FIG. 5, the calibration pattern may be obtained by photographing an unmanned car and selecting the four corners of the floor and ceiling in the car. In this case, measure the internal dimensions of the car.
カメラキャリブレーション部3の設置位置角度算出部5は、複数のカメラ1により撮影されたキャリブレーションパターンの映像と、カメラパラメータ算出部4により算出されたカメラパラメータを用いて、エレベータのかご内の基準点に対する複数のカメラ1の設置位置及び設置角度を算出する(ステップST4)。
具体的には、キャリブレーションパターンとして、例えば、白黒のチェッカーフラグパターンが用いられる場合、まず、複数のカメラ1により撮影されたチェッカーパターンに対するカメラ1の相対位置と相対角度を算出する。
次に、予め計測しているチェッカーパターンのオフセット(かご内の基準点であるかごの入口からの位置と角度)を複数のカメラ1の相対位置と相対角度に足し合わせることで、かご内の基準点に対する複数のカメラ1の設置位置と設置角度を求める。
The installation position
Specifically, for example, when a black and white checker flag pattern is used as the calibration pattern, first, a relative position and a relative angle of the
Next, by adding the offset of the checker pattern measured in advance (position and angle from the entrance of the car, which is the reference point in the car), to the relative position and relative angle of the plurality of
また、キャリブレーションパターンとして、例えば、かご内の床の四隅と天井の三隅が用いられる場合、予め計測しているかごの内寸から、かご内の基準点に対する複数のカメラ1の設置位置と設置角度を算出する。
この場合、かご内にカメラ1を設置するだけで、カメラ1の設置位置と設置角度を自動的に求めることが可能である。
In addition, for example, when the four corners of the floor in the car and the three corners of the ceiling are used as the calibration pattern, the installation position and the installation of the plurality of
In this case, it is possible to automatically obtain the installation position and installation angle of the
次に、映像解析部6が実施する後処理について説明する。
映像解析部6が人物の検出処理や移動軌跡の解析処理などを実施するに際して、複数のカメラ1が運行中のエレベータのかご内の映像を繰り返し撮影する。
映像取得部2は、複数のカメラ1により撮影されたかご内の映像を時々刻々と取得する(図3のステップST11)。
Next, post-processing performed by the
When the
The
映像解析部6の映像補正部7は、映像取得部2が複数のカメラ1により撮影された映像を取得する毎に、カメラパラメータ算出部4により算出されたカメラパラメータを用いて、複数の映像の歪みを補正し、歪みの無い映像である正規化画像を生成する(ステップST12)。
映像の歪みを補正する方法は、公知の技術であるため詳細な説明を省略する。
The
Since a method for correcting image distortion is a known technique, detailed description thereof is omitted.
映像解析部6の人物検出部8は、映像補正部7が複数のカメラ1により撮影された映像から正規化画像をそれぞれ生成すると、複数の正規化画像に存在している人間の頭部を検出し、頭部の画像座標と確信度を算出する(ステップST13)。
ここで、頭部の画像座標は、人間の頭部の領域を囲む矩形の中心座標のことである。
また、確信度は、人物検出部8の検出物が、どの程度、人間の頭部に近いかを表現する指標であり、確信度が高いほど、人間の頭部である確率が高く、確信度が低いほど、人間の頭部である確率が低いことを表している。
The
Here, the image coordinates of the head are center coordinates of a rectangle surrounding the human head region.
The certainty factor is an index that expresses how close the detected object of the
図6は人物検出部8による頭部の検出処理を示す説明図である。
図6の例では、かご内の天井に2台のカメラ1が設置されており、2台のカメラ1がかご内の乗客(人物)を撮影し、人物検出部8が2台のカメラ1の映像に係る正規化画像から乗客の頭部を検出している。頭部の検出結果には確信度が付随している。人物検出部8の検出結果には、図6に示すように、誤検出が存在していることがある。
乗客の頭部は、例えば、以下の非特許文献1に開示されている顔検出手法を利用して検出すればよい。
即ち、“Rectangle Feature”と呼ばれるハール基底状のパターンをAdaboostにより選択して多数の弱判別機を取得し、これら弱判別機の出力と適当な閾値をすべて加算した値を確信度として利用することができる。
In the example of FIG. 6, two
What is necessary is just to detect a passenger's head using the face detection method currently disclosed by the following
That is, a Haar basis pattern called “Rectangular Feature” is selected by Adaboost to obtain a large number of weak classifiers, and a value obtained by adding all the outputs of these weak classifiers and appropriate thresholds is used as a certainty factor. Can do.
また、人物検出部8は、例えば、以下の非特許文献2に開示されている道路標識検出方法を人間の頭部検出方法に応用して、その画像座標と確信度を算出するようにしてもよい。
映像解析部6の3次元位置推定部9は、人物検出部8が人物の頭部を検出すると、設置位置角度算出部5により算出された複数のカメラ1の設置位置及び設置角度を利用して、人物検出部8により検出された個々の人物の頭部をステレオ立体視することにより、個々の人物の3次元位置を推定する(ステップST14)。
即ち、3次元位置推定部9は、設置位置角度算出部5により算出された複数のカメラ1の設置位置及び設置角度を利用して、複数のカメラ1の中心と人物検出部8により検出された頭部を通る直線を求め、二つ以上の直線の交点又は近似的な交点を求めることで、人物の頭部の3次元位置を算出する。また、各直線に付随する確信度を加算して、その加算結果を頭部の3次元位置の確信度として出力する。
The three-dimensional
That is, the three-dimensional
ここで、図7は3次元位置推定部9による3次元位置の推定処理を示す説明図である。
図7の例では、3次元位置推定部9が設置位置角度算出部5により算出された2台のカメラ1の設置位置及び設置角度と、人物検出部8により算出された頭部の画像座標とを用いて、図中左側のカメラ1の中心から頭部に向かう直線V1と、図中右側のカメラ1の中心から頭部に向かう直線V2とを描いて、二つの直線V1,V2の交点を頭部の3次元位置として推定する。
Here, FIG. 7 is an explanatory diagram showing a three-dimensional position estimation process by the three-dimensional
In the example of FIG. 7, the installation position and installation angle of the two
また、3次元位置推定部9は、例えば、図中左側のカメラ1により撮影された映像に係る正規化画像から検出された頭部の確信度がconf1=200であり、図中右側のカメラ1により撮影された映像に係る正規化画像から検出された頭部の確信度がconf2=100である場合、これらの頭部の確信度を加算することにより、頭部の3次元位置の確信度confを算出する。
conf
=conf1+conf2
=200+100
=300
Further, the three-dimensional
conf
= Conf1 + conf2
= 200 + 100
= 300
図7では、人物検出部8により一人の頭部が検出されている例を示しているが、複数の人物の頭部が検出される場合、図8(A)に示すように、3次元位置推定部9が複数の直線の交点を求め、これらの交点を頭部の3次元位置として出力するようにする。なお、この段階では、誤って算出された頭部の3次元位置が含まれていることがある。
FIG. 7 shows an example in which one person's head is detected by the
図7の例では、直線V1と直線V2が交わるものを示しているが、実際には、頭部の検出誤差やキャリブレーション誤差が原因で、直線V1と直線V2が近づいているだけで、交わらないこともある。
このような場合には、二つの直線V1,V2の距離を求め、この距離が一定範囲以内(例えば15cm以内)であれば、二つの直線V1,V2が交わっているとみなして、その近似的な交点を求めるようにしてもよい。
以下、二つの直線V1,V2の距離と、その近似的な交点の算出法について説明する。
In the example of FIG. 7, the straight line V1 and the straight line V2 intersect. However, in actuality, the straight line V1 and the straight line V2 are merely brought close to each other due to head detection errors and calibration errors. Sometimes not.
In such a case, the distance between the two straight lines V1 and V2 is obtained, and if this distance is within a certain range (for example, within 15 cm), the two straight lines V1 and V2 are regarded as intersecting and approximated. You may make it ask | require a perfect intersection.
Hereinafter, the distance between the two straight lines V1 and V2 and a method of calculating an approximate intersection thereof will be described.
図9は近似的な交点の概念を示す説明図である。
ここでは説明の便宜上、二つの直線V1,V2上の点X1,X2の座標x1,x2が下記に示すように、パラメータ表示されるものとする。
x1=a1+t1*b1
x2=a2+t2*b2
ただし、a1,a2は原点から直線V1,V2までの3次元ベクトル、b1,b2は3次元の法線ベクトル、t1,t2はスカラーパラメータである。また、記号“*”は掛け算を意味するものとする。
このとき、ユークリッド距離d=||x1−x2||の最小値を二つの直線V1,V2の距離と定義して、ユークリッド距離dが最小になるようなパラメータt1,t2を求め、このときの点X1,X2の中間点を二つの直線V1,V2の近似的な交点と定義する。
FIG. 9 is an explanatory diagram showing the concept of an approximate intersection.
Here, for convenience of explanation, it is assumed that the coordinates x1, x2 of the points X1, X2 on the two straight lines V1, V2 are displayed as parameters as shown below.
x1 = a1 + t1 * b1
x2 = a2 + t2 * b2
Here, a1 and a2 are three-dimensional vectors from the origin to the straight lines V1 and V2, b1 and b2 are three-dimensional normal vectors, and t1 and t2 are scalar parameters. The symbol “*” means multiplication.
At this time, the minimum value of the Euclidean distance d = || x1−x2 || is defined as the distance between the two straight lines V1 and V2, and parameters t1 and t2 that minimize the Euclidean distance d are obtained. An intermediate point between points X1 and X2 is defined as an approximate intersection of two straight lines V1 and V2.
次に、ユークリッド距離dが最小になるようなパラメータt1,t2を求める方法について説明する。
ユークリッド距離dが最小になるための必要条件は、d2のt1とt2に関する変微分が0になることである。即ち、下式を満たすことである。
∂d2/∂t1=0
∂d2/∂t2=0
このことから、下式が得られる。
b1T*(a1+t1*b1−a2−t2*b2)=0
b2T*(a1+t1*b1−a2−t2*b2)=0
ただし、Tは転置記号である。
Next, a method for obtaining the parameters t1 and t2 that minimize the Euclidean distance d will be described.
A necessary condition for minimizing the Euclidean distance d is that the variable derivative of d 2 with respect to t1 and t2 is zero. That is, the following formula is satisfied.
∂d 2 / ∂t1 = 0
∂d 2 / ∂t2 = 0
From this, the following equation is obtained.
b1 T * (a1 + t1 * b1-a2-t2 * b2) = 0
b2 T * (a1 + t1 * b1-a2-t2 * b2) = 0
However, T is a transposed symbol.
上の二つの式をパラメータt1,t2について解くと次式が得られる。
この実施の形態1では、3次元位置推定部9が、複数のカメラ1の中心と人物検出部8により検出された頭部を通る直線を求め、二つ以上の直線の交点又は近似的な交点を求めることで、人物の頭部の3次元位置を算出するものについて示したが、図10に示すように、図中左側のカメラ1から見たとき、人物Bが人物Aに隠れてしまって、図中左側のカメラ1の映像に人物Bが写らない場合がある。
このような場合には、図中左側のカメラ1の中心から人物Bの頭部に向かう直線を描くことができず、人物Bの頭部において、二つ以上の直線の交点又は近似的な交点を求めることができない。
In the first embodiment, the three-dimensional
In such a case, it is not possible to draw a straight line from the center of the
そこで、このような場合には、確信度が高い頭部を通る直線(図10の例では、図中右側のカメラ1の中心から人物Bの頭部に向かう直線V)上の点のうち、床からの高さが人間の平均身長である点を求め、この点の位置を人物Bの頭部の3次元位置として算出するようにする。
これにより、人物が一つのカメラにしか写らないような場合でも、その人物の頭部の3次元位置を暫定的に求めることが可能となる。
Therefore, in such a case, among the points on a straight line passing through the head with high certainty (in the example of FIG. 10, a straight line V from the center of the
As a result, even when a person is captured by only one camera, the three-dimensional position of the person's head can be provisionally obtained.
3次元位置推定部9は、人物検出部8により検出された個々の人物の頭部の3次元位置を算出したのち、誤って算出した3次元位置を破棄するため、個々の人物の頭部の3次元位置をフィルタリングする(ステップST15)。
即ち、3次元位置推定部9は、人物検出部8が人物の頭部を誤検出することが原因で、頭部の3次元位置を誤って算出することがあるので、例えば、頭部の3次元位置が以下の条件(ア)〜(エ)に合致しない場合、その3次元位置の算出結果を破棄する。
条件(ア) 人物の身長が一定長(例えば、50cm)以上である
条件(イ) 人物が特定の領域内(例えば、かご内)に存在する
条件(ウ) 特定の範囲(例えば、25cm四方)には人物が一人しか存在できない
条件(エ) 頭部の確信度が一定値以上である
The three-dimensional
That is, the three-dimensional
Condition (a) The person's height is a certain length (for example, 50 cm) or more Condition (b) The person is present in a specific area (for example, in a cage) Condition (c) Specific range (for example, 25 cm square) There can only be one person in condition (d) The certainty of the head is above a certain value
条件(ア)により、低い位置にある誤検出の頭部の3次元位置を破棄することができる。
条件(イ)により、例えば、かご内に設置された鏡に映っている人物像について誤検出された頭部の3次元位置を破棄することができる。
条件(ウ)により、特定の領域内に存在する複数の頭部の3次元位置を一つにまとめて出力することが可能になる。
条件(エ)により、頭部である確率が低い物体の3次元位置を破棄することができる。
このような3次元位置のフィルタリングにより、図8(B)に示すような正しい3次元位置を算出することが可能になる。
According to the condition (a), the three-dimensional position of the erroneously detected head at a low position can be discarded.
According to the condition (A), for example, the three-dimensional position of the head erroneously detected with respect to the human image reflected in the mirror installed in the car can be discarded.
According to the condition (c), it is possible to collectively output the three-dimensional positions of a plurality of heads existing in a specific region.
According to the condition (d), the three-dimensional position of an object with a low probability of being a head can be discarded.
Such filtering of the three-dimensional position makes it possible to calculate a correct three-dimensional position as shown in FIG.
映像解析部6の移動軌跡解析部10は、3次元位置推定部9が個々の頭部の3次元位置を推定する毎に、個々の頭部の3次元位置の時間的変化を監視して、個々の頭部の3次元位置の移動軌跡を解析する(ステップST16)。
以下、移動軌跡解析部10による移動軌跡の解析処理を具体的に説明する。
図11は移動軌跡解析部10による移動軌跡の解析処理を示す説明図である。
Each time the 3D
Hereinafter, the movement locus analysis processing by the movement
FIG. 11 is an explanatory diagram showing a movement locus analysis process performed by the movement
例えば、図11(A)に示すように、3次元位置推定部9が時刻t−1において、頭部の3次元位置X1t-1とX2t-1を算出するものとする。
ただし、X1t-1は、移動軌跡解析部10が個々の人物を識別するために、移動軌跡解析部10によって“1”とラベル付けされた頭部の3次元位置であり、X2t-1は移動軌跡解析部10によって“2”とラベル付けされた頭部の3次元位置である。
また、3次元位置推定部9は、時刻tにおいて、未だラベル付けされていない3次元位置も算出する。
For example, as shown in FIG. 11A, it is assumed that the three-dimensional
However, X1 t-1 is the three-dimensional position of the head labeled “1” by the movement
In addition, the three-dimensional
移動軌跡解析部10は、3次元位置推定部9が、時刻tにおいて、2つの3次元位置を算出すると、時刻tにおける2つの3次元位置の中で、時刻t−1における3次元位置X1t-1に最近傍の3次元位置を探索して、その3次元位置に“1”のラベル付けを行うとともに、時刻t−1における3次元位置X2t-1に最近傍の3次元位置を探索して、その3次元位置に“2”のラベル付けを行う。
図11(B)の例では、時刻tにおける2つの3次元位置の中で、図中左側の3次元位置が時刻t−1における3次元位置X1t-1と最近傍であるため、図中左側の3次元位置に“1”のラベルを付けて、その3次元位置をX1tとする。
また、図中右側の3次元位置が時刻t−1における3次元位置X2t-1と最近傍であるため、図中右側の3次元位置に“2”のラベルを付けて、その3次元位置をX2tとする。
このように、時々刻々と最近傍に存在する頭部の3次元位置を探索し、同一のラベルを付けていくことにより、同一人物の頭部の3次元位置を時々刻々と追跡することができるようになる。
When the three-dimensional
In the example of FIG. 11B, among the two three-dimensional positions at time t, the three-dimensional position on the left side in the figure is closest to the three-dimensional position X1 t-1 at time t−1. A label “1” is attached to the left three-dimensional position, and the three-dimensional position is defined as X1 t .
Further, since the three-dimensional position on the right side in the figure is closest to the three-dimensional position X2 t-1 at time t-1, the label “2” is attached to the three-dimensional position on the right side in the figure, and the three-dimensional position. Is X2t .
In this way, the three-dimensional position of the head of the same person can be tracked from moment to moment by searching for the three-dimensional position of the head that is closest to the moment and attaching the same label. It becomes like this.
ただし、移動軌跡解析部10は、頭部の3次元位置を追跡する際、その頭部の3次元位置の確信度を時々刻々と累積して、その3次元位置の確信度を所定の閾値と比較し、確信度が閾値より低い3次元位置を破棄するようにする。
即ち、移動軌跡解析部10は、時刻t−1における3次元位置X1t-1の確信度がconf1t-1であり、時刻tにおける3次元位置X1tの確信度がconf1tであるとき、次式にしたがって時刻tにおける3次元位置X1tの確信度conf1tを更新する。
conf1t ← α*conf1t+β*conf1t-1+γ
ここで、α,β,γは確信度の更新程度を調整する適当なパラメータである。
However, when tracking the three-dimensional position of the head, the movement
That is, when the certainty factor of the three-dimensional position X1 t-1 at time t−1 is conf1 t−1 and the certainty factor of the three-dimensional position X1 t at time t is conf1 t , The certainty factor conf1 t of the three-dimensional position X1 t at time t is updated according to the following equation.
conf1 t ← α * conf1 t + β * conf1 t−1 + γ
Here, α, β, and γ are appropriate parameters for adjusting the degree of confidence update.
移動軌跡解析部10は、時刻tにおける3次元位置X1tの確信度conf1tを更新して、更新後の確信度conf1tがある一定の閾値未満であれば、該当の3次元位置X1tは頭部の3次元位置ではないとして、その3次元位置を破棄する。
例えば、人物検出部8が、時刻tにおいて、一度だけ頭部を誤検出したとき、例えば、α=0.5、β=0.5、γ=0と設定されていれば、その頭部の3次元位置の確信度が時間の経過と共に減衰していくので、確信度の閾値処理によって、その3次元位置を取り除くことが可能になる。
The movement
For example, when the
この実施の形態1では、移動軌跡解析部10が時々刻々と最近傍に存在する頭部の3次元位置を探索し、同一のラベルを付けていくことで、頭部の3次元位置の移動軌跡を解析するものについて示したが、頭部の3次元位置の確率分布を時々刻々と推定して、頭部の3次元位置の移動軌跡を解析するようにしてもよい。
即ち、移動軌跡解析部10は、例えば、次式にしたがって時々刻々と確率分布P(Xt|Yt)を求める。
In the first embodiment, the movement
That is, the movement
また、上式における尤度関数P(Yt|Xt)と状態遷移確率P(Xt|Xt-1)は次式で与えられる。
ここで、a,b,c,d,δは適当な定数である。また、fkはかごの3次元座標系からk番目のカメラ1の正規化画像の座標系への射影関数である。
上記の確率分布P(Xt|Yt)はカルマンフィルタや“Particle Filter”によって計算することができ、最終的に確率分布P(Xt|Yt)を最大化するXtを求めて、このXtを頭部の3次元位置の推定値とする。
また、ΠP(yt n,conft k,n|xt m)は推定した3次元位置xt mが頭部である確からしさであり、この値が一定の閾値よりも低いものを削除することで、頭部の誤検出を削減することができる。
Here, a, b, c, d, and δ are appropriate constants. F k is a projection function from the three-dimensional coordinate system of the car to the coordinate system of the normalized image of the k-
The above probability distribution P (X t | Y t) can be calculated by the Kalman filter Ya "Particle Filter", finally the probability distribution P | seeking X t to maximize the (X t Y t), this Let Xt be the estimated value of the three-dimensional position of the head.
Also, ΠP (y t n , conf t k, n | x t m ) is the probability that the estimated three-dimensional position x t m is the head, and those whose values are lower than a certain threshold are deleted. As a result, erroneous head detection can be reduced.
移動軌跡解析部10は、上記のようにして、人物の頭部の3次元位置の移動軌跡を解析すると、エレベータの停止階を示す停止階情報と個々の人物の移動軌跡とを照らし合わせて、“どの人物がどの階で乗って、どの階で降りたか”を示す個々の人物の移動履歴を求める(ステップST17)。
例えば、頭部の移動軌跡がエレベータの入口から開始していれば、該当の階から乗車していると判断し、また、移動軌跡がエレベータの出口で終了していれば、該当の階から降車していると判断する。
なお、停止階情報は、エレベータの制御機器から取得するようにしてもよいし、カメラ1により撮影された映像に写っているエレベータのコントローラの文字盤を認識して、画像処理によって停止階の情報を取得するようにしてもよい。
When the movement
For example, if the head movement trajectory starts from the elevator entrance, it is determined that the passenger is getting on the corresponding floor, and if the movement trajectory ends at the elevator exit, it gets off from the corresponding floor. Judge that you are doing.
The stop floor information may be obtained from the elevator control device, or the stop floor information is recognized by image processing by recognizing the dial of the elevator controller in the video taken by the
移動軌跡解析部10は、上記のようにして、個々の人物の移動履歴を求めると、その移動履歴を複数台のエレベータの運行を管理する群管理システムに与えるようにする。
これにより、群管理システムでは、常に最適なエレベータの群管理を実施することが可能になる。
When the movement
As a result, the group management system can always carry out optimum group management of the elevator.
以上で明らかなように、この実施の形態1によれば、複数のカメラ1により撮影された映像に写っている人物を検出する人物検出部8と、人物検出部8により検出された個々の人物をステレオ立体視して、個々の人物の3次元位置を推定する3次元位置推定部9とを設け、移動軌跡解析部10が3次元位置推定部9により推定された個々の人物の3次元位置の時間的変化を監視して、個々の人物の移動軌跡を解析するように構成したので、エレベータのかご内が非常に混雑している状況などでも、かご内の個々の人物を正確に検出することができるとともに、個々の人物を追跡することができる効果を奏する。
As is apparent from the above, according to the first embodiment, a
また、この実施の形態1によれば、個々の人物の3次元位置の推定結果が所定の検出条件に合致しない場合、その3次元位置の推定結果を破棄するように構成したので、誤検出された人物の3次元位置が除かれて、人物の検出精度や追跡精度を高めることができる効果を奏する。 Further, according to the first embodiment, when the estimation result of the three-dimensional position of each person does not match a predetermined detection condition, the estimation result of the three-dimensional position is discarded, so that it is erroneously detected. This eliminates the three-dimensional position of the person and improves the person detection accuracy and tracking accuracy.
さらに、この実施の形態1によれば、3次元位置推定部9により算出された3次元位置の確信度を所定の閾値と比較して、確信度が所定の閾値より低い3次元位置を除いて、個々の人物の移動軌跡を解析するように構成したので、誤検出された人物の3次元位置が除かれて、人物の検出精度や追跡精度を高めることができる効果を奏する。
Further, according to the first embodiment, the certainty factor of the three-dimensional position calculated by the three-dimensional
なお、この実施の形態1では、監視対象領域がエレベータのかご内であるものについて示したが、これに限るものではなく、例えば、電車の中を監視対象領域として、電車の混雑度などを計測するようにしてもよい。
また、セキュリティニーズの高い場所を監視対象領域として、人物の移動履歴を求めることにより、不審な行動を監視することも可能である。
あるいは、駅や店舗などで、人物の移動軌跡を解析することにより、マーケティングなどに利用することもできる。
In the first embodiment, the monitoring target area is in the elevator car. However, the present invention is not limited to this. For example, the congestion level of the train is measured using the train as the monitoring target area. You may make it do.
It is also possible to monitor suspicious behavior by obtaining a person's movement history using a place with high security needs as a monitoring target area.
Alternatively, it can be used for marketing or the like by analyzing the movement trajectory of a person at a station or a store.
また、エスカレータの踊り場を監視対象領域として、エスカレータの踊り場に存在する人物の数をカウントし、エスカレータの踊り場が混雑してくれば、例えば、エスカレータの運行を徐行や停止を行って、エスカレータで人物が将棋倒しになってしまうなどの事故を未然に回避することもできる。 In addition, with the escalator landing area as the monitoring area, count the number of people present on the escalator landing area. Accidents such as becoming a shogi defeat can also be avoided.
実施の形態2.
図12はこの発明の実施の形態2による人物追跡装置を示す構成図であり、図において、図1と同一符号は同一または相当部分を示すので説明を省略する。
感圧センサ11は監視対象領域であるエレベータのかご内の床に敷かれており、人物の体重によって圧力が掛かっている位置を示すセンサ信号を足跡解析部12に出力する。
足跡解析部12は感圧センサ11より出力されるセンサ信号から人物の足がある位置を特定する処理を実施する。
3次元位置推定部13は足跡解析部12により特定された人物の足がある位置を考慮して、個々の人物の3次元位置を推定する処理を実施する。なお、3次元位置推定部13は3次元位置推定手段を構成している。
FIG. 12 is a block diagram showing a person tracking apparatus according to
The pressure-
The
The three-dimensional
上記実施の形態1では、3次元位置推定部9が設置位置角度算出部5により算出された複数のカメラ1の設置位置及び設置角度を利用して、個々の人物の3次元位置を推定するものについて示したが、さらに、足跡解析部12により特定された人物の足がある位置を考慮して、個々の人物の3次元位置を推定するようにしてもよい。
具体的には、以下の通りである。
図13は3次元位置推定部13による3次元位置の推定処理を示す説明図である。
In the first embodiment, the three-dimensional
Specifically, it is as follows.
FIG. 13 is an explanatory diagram illustrating a three-dimensional position estimation process performed by the three-dimensional
感圧センサ11は、人物の体重によって圧力が掛かっている位置を示すセンサ信号を足跡解析部12に出力する。
足跡解析部12は、感圧センサ11より出力されるセンサ信号から人物の足がある位置を特定する。
The pressure-
The
3次元位置推定部13は、図1の3次元位置推定部9と同様に、複数のカメラ1の設置位置及び設置角度を利用して、複数のカメラ1の中心と人物検出部8により検出された頭部を通る直線を求めるとともに、足跡解析部12により特定された人物の足がある位置から天井に向う直線を求めることで、人物の頭部の3次元位置を算出する。また、各直線に付随する確信度を加算して、その加算結果を頭部の3次元位置の確信度として出力する。
図13の例では、図中左側のカメラ1の中心から頭部に向かう直線V1と、図中右側のカメラ1の中心から頭部に向かう直線V2と、足跡解析部12により特定された人物の足がある位置から天井に向う直線V3とを描いて、三つの直線V1,V2,V3の交点又は近似的な交点を頭部の3次元位置として推定する。
その他の処理内容は、上記実施の形態1と同様であるため説明を省略する。
Similar to the three-dimensional
In the example of FIG. 13, a straight line V1 from the center of the
Since other processing contents are the same as those in the first embodiment, description thereof is omitted.
以上で明らかなように、この実施の形態2によれば、足跡解析部12が感圧センサ11より出力されるセンサ信号から人物の足がある位置を特定し、3次元位置推定部13が足跡解析部12により特定された人物の足がある位置を考慮して、個々の人物の3次元位置を推定するように構成したので、上記実施の形態1よりも更に、3次元位置の推定精度を高めることができる効果を奏する。
As is apparent from the above, according to the second embodiment, the
1 カメラ(映像撮影手段)、2 映像取得部、3 カメラキャリブレーション部、4 カメラパラメータ算出部(パラメータ算出手段)、5 設置位置角度算出部(設置位置角度算出手段)、6 映像解析部、7 映像補正部(映像補正手段)、8 人物検出部(人物検出手段)、9,13 3次元位置推定部(3次元位置推定手段)、10 移動軌跡解析部(移動軌跡解析手段)、11 感圧センサ、12 足跡解析部。
DESCRIPTION OF
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007325910A JP2009143722A (en) | 2007-12-18 | 2007-12-18 | Person tracking apparatus, person tracking method and person tracking program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007325910A JP2009143722A (en) | 2007-12-18 | 2007-12-18 | Person tracking apparatus, person tracking method and person tracking program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009143722A true JP2009143722A (en) | 2009-07-02 |
Family
ID=40914807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007325910A Pending JP2009143722A (en) | 2007-12-18 | 2007-12-18 | Person tracking apparatus, person tracking method and person tracking program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009143722A (en) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011069796A (en) * | 2009-09-28 | 2011-04-07 | Saxa Inc | Method of calibrating camera and image processing apparatus |
JP2011146762A (en) * | 2010-01-12 | 2011-07-28 | Nippon Hoso Kyokai <Nhk> | Solid model generator |
JP2012212968A (en) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | Image monitoring apparatus |
JP2012212217A (en) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | Image monitoring device |
JP2013079854A (en) * | 2011-10-03 | 2013-05-02 | Topcon Corp | System and method for three-dimentional measurement |
JP2014144826A (en) * | 2013-01-28 | 2014-08-14 | Hitachi Ltd | Elevator monitor device and method |
JP2016166066A (en) * | 2015-03-10 | 2016-09-15 | 株式会社日立製作所 | Elevator system |
EP3075695A1 (en) * | 2015-04-03 | 2016-10-05 | Otis Elevator Company | Auto commissioning system and method |
EP3075693A1 (en) * | 2015-04-03 | 2016-10-05 | Otis Elevator Company | Traffic list generation for passenger conveyance |
CN106032232A (en) * | 2015-03-11 | 2016-10-19 | 上海三菱电梯有限公司 | An elevator car space occupying object identifying device and method |
JP2017016356A (en) * | 2015-06-30 | 2017-01-19 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2017026533A (en) * | 2015-07-27 | 2017-02-02 | 株式会社日立製作所 | Parameter adjustment method of range image sensor, parameter adjusting device, and elevator system |
JP2017054349A (en) * | 2015-09-10 | 2017-03-16 | 株式会社東芝 | Ticket examination monitoring system |
WO2017086058A1 (en) * | 2015-11-20 | 2017-05-26 | ソニー株式会社 | Image processing device, image processing method, and program |
US10063843B2 (en) | 2015-09-15 | 2018-08-28 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method for estimating three-dimensional position of object in image |
JP2018146363A (en) * | 2017-03-03 | 2018-09-20 | 三菱航空機株式会社 | Three-dimensional position measuring system and method |
US10241486B2 (en) | 2015-04-03 | 2019-03-26 | Otis Elevator Company | System and method for passenger conveyance control and security via recognized user operations |
US10479647B2 (en) | 2015-04-03 | 2019-11-19 | Otis Elevator Company | Depth sensor based sensing for special passenger conveyance loading conditions |
US10513415B2 (en) | 2015-04-03 | 2019-12-24 | Otis Elevator Company | Depth sensor based passenger sensing for passenger conveyance control |
US10513416B2 (en) | 2015-04-03 | 2019-12-24 | Otis Elevator Company | Depth sensor based passenger sensing for passenger conveyance door control |
WO2020026630A1 (en) * | 2018-08-03 | 2020-02-06 | Linne株式会社 | Image information display device |
JP2020026339A (en) * | 2018-08-10 | 2020-02-20 | 株式会社豊田中央研究所 | Calibration device of camera for measurement |
US10636153B2 (en) | 2016-11-22 | 2020-04-28 | Fujitsu Limited | Image processing system, image processing apparatus, and image processing method for object tracking |
JP2020068495A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Information processing apparatus, information processing method and program |
JP2020152545A (en) * | 2019-03-20 | 2020-09-24 | 東芝エレベータ株式会社 | Image processing device |
US10839532B2 (en) | 2017-11-13 | 2020-11-17 | Fujitsu Limited | Image processing method and information processing apparatus |
CN111960206A (en) * | 2019-05-20 | 2020-11-20 | 东芝电梯株式会社 | Image processing apparatus and marker |
CN112686173A (en) * | 2020-12-31 | 2021-04-20 | 深圳云天励飞技术股份有限公司 | Passenger flow counting method and device, electronic equipment and storage medium |
CN113671513A (en) * | 2020-05-14 | 2021-11-19 | 日立乐金光科技株式会社 | Distance measuring system and calibration method of distance measuring sensor |
CN113739331A (en) * | 2021-07-07 | 2021-12-03 | 青净光能科技股份有限公司 | Indoor active epidemic prevention monitoring system |
US11361466B2 (en) | 2018-11-30 | 2022-06-14 | Casio Computer Co., Ltd. | Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system |
WO2023062760A1 (en) * | 2021-10-13 | 2023-04-20 | 富士通株式会社 | Region detection program, device, and method |
JP7346308B2 (en) | 2017-07-27 | 2023-09-19 | ウエスチングハウス・エレクトリック・カンパニー・エルエルシー | Method for locating a remotely operated vehicle within a workspace and remote inspection system using such method |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61229788A (en) * | 1985-04-05 | 1986-10-14 | 三菱電機株式会社 | Driving device for elevator |
JPH08127476A (en) * | 1994-10-10 | 1996-05-21 | Lg Ind Syst Co Ltd | Method of detecting number of waiting passenger for elevator |
JPH1166319A (en) * | 1997-08-21 | 1999-03-09 | Omron Corp | Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person |
JP2003503292A (en) * | 1999-07-02 | 2003-01-28 | オーチス エレベータ カンパニー | Automatic registration and processing of destination floors for elevator calls |
JP2003329411A (en) * | 2002-05-14 | 2003-11-19 | Matsushita Electric Ind Co Ltd | Camera calibration device |
JP2004030408A (en) * | 2002-06-27 | 2004-01-29 | Mitsubishi Research Institute Inc | Three-dimensional image display apparatus and display method |
JP2005126184A (en) * | 2003-10-23 | 2005-05-19 | Mitsubishi Electric Corp | Control device of elevator |
JP2007033205A (en) * | 2005-07-26 | 2007-02-08 | Canon Inc | Device and method for measuring position or position attitude of a plurality of objects |
JP2007233523A (en) * | 2006-02-28 | 2007-09-13 | Hitachi Ltd | Person location estimation method using asynchronous camera image and system therefor |
JP2007264831A (en) * | 2006-03-27 | 2007-10-11 | Sanyo Electric Co Ltd | Operation support device |
-
2007
- 2007-12-18 JP JP2007325910A patent/JP2009143722A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61229788A (en) * | 1985-04-05 | 1986-10-14 | 三菱電機株式会社 | Driving device for elevator |
JPH08127476A (en) * | 1994-10-10 | 1996-05-21 | Lg Ind Syst Co Ltd | Method of detecting number of waiting passenger for elevator |
JPH1166319A (en) * | 1997-08-21 | 1999-03-09 | Omron Corp | Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person |
JP2003503292A (en) * | 1999-07-02 | 2003-01-28 | オーチス エレベータ カンパニー | Automatic registration and processing of destination floors for elevator calls |
JP2003329411A (en) * | 2002-05-14 | 2003-11-19 | Matsushita Electric Ind Co Ltd | Camera calibration device |
JP2004030408A (en) * | 2002-06-27 | 2004-01-29 | Mitsubishi Research Institute Inc | Three-dimensional image display apparatus and display method |
JP2005126184A (en) * | 2003-10-23 | 2005-05-19 | Mitsubishi Electric Corp | Control device of elevator |
JP2007033205A (en) * | 2005-07-26 | 2007-02-08 | Canon Inc | Device and method for measuring position or position attitude of a plurality of objects |
JP2007233523A (en) * | 2006-02-28 | 2007-09-13 | Hitachi Ltd | Person location estimation method using asynchronous camera image and system therefor |
JP2007264831A (en) * | 2006-03-27 | 2007-10-11 | Sanyo Electric Co Ltd | Operation support device |
Cited By (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011069796A (en) * | 2009-09-28 | 2011-04-07 | Saxa Inc | Method of calibrating camera and image processing apparatus |
JP2011146762A (en) * | 2010-01-12 | 2011-07-28 | Nippon Hoso Kyokai <Nhk> | Solid model generator |
JP2012212968A (en) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | Image monitoring apparatus |
JP2012212217A (en) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | Image monitoring device |
JP2013079854A (en) * | 2011-10-03 | 2013-05-02 | Topcon Corp | System and method for three-dimentional measurement |
JP2014144826A (en) * | 2013-01-28 | 2014-08-14 | Hitachi Ltd | Elevator monitor device and method |
JP2016166066A (en) * | 2015-03-10 | 2016-09-15 | 株式会社日立製作所 | Elevator system |
CN106032232A (en) * | 2015-03-11 | 2016-10-19 | 上海三菱电梯有限公司 | An elevator car space occupying object identifying device and method |
US10513415B2 (en) | 2015-04-03 | 2019-12-24 | Otis Elevator Company | Depth sensor based passenger sensing for passenger conveyance control |
US11836995B2 (en) | 2015-04-03 | 2023-12-05 | Otis Elevator Company | Traffic list generation for passenger conveyance |
US11232312B2 (en) | 2015-04-03 | 2022-01-25 | Otis Elevator Company | Traffic list generation for passenger conveyance |
EP3075693A1 (en) * | 2015-04-03 | 2016-10-05 | Otis Elevator Company | Traffic list generation for passenger conveyance |
EP3075695A1 (en) * | 2015-04-03 | 2016-10-05 | Otis Elevator Company | Auto commissioning system and method |
US10513416B2 (en) | 2015-04-03 | 2019-12-24 | Otis Elevator Company | Depth sensor based passenger sensing for passenger conveyance door control |
US10479647B2 (en) | 2015-04-03 | 2019-11-19 | Otis Elevator Company | Depth sensor based sensing for special passenger conveyance loading conditions |
US10241486B2 (en) | 2015-04-03 | 2019-03-26 | Otis Elevator Company | System and method for passenger conveyance control and security via recognized user operations |
JP2017016356A (en) * | 2015-06-30 | 2017-01-19 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP2017026533A (en) * | 2015-07-27 | 2017-02-02 | 株式会社日立製作所 | Parameter adjustment method of range image sensor, parameter adjusting device, and elevator system |
JP2017054349A (en) * | 2015-09-10 | 2017-03-16 | 株式会社東芝 | Ticket examination monitoring system |
US10063843B2 (en) | 2015-09-15 | 2018-08-28 | Canon Kabushiki Kaisha | Image processing apparatus and image processing method for estimating three-dimensional position of object in image |
WO2017086058A1 (en) * | 2015-11-20 | 2017-05-26 | ソニー株式会社 | Image processing device, image processing method, and program |
US10636153B2 (en) | 2016-11-22 | 2020-04-28 | Fujitsu Limited | Image processing system, image processing apparatus, and image processing method for object tracking |
JP2018146363A (en) * | 2017-03-03 | 2018-09-20 | 三菱航空機株式会社 | Three-dimensional position measuring system and method |
JP7346308B2 (en) | 2017-07-27 | 2023-09-19 | ウエスチングハウス・エレクトリック・カンパニー・エルエルシー | Method for locating a remotely operated vehicle within a workspace and remote inspection system using such method |
US10839532B2 (en) | 2017-11-13 | 2020-11-17 | Fujitsu Limited | Image processing method and information processing apparatus |
WO2020026630A1 (en) * | 2018-08-03 | 2020-02-06 | Linne株式会社 | Image information display device |
JP2020021429A (en) * | 2018-08-03 | 2020-02-06 | Linne株式会社 | Image information display device |
JP2020026339A (en) * | 2018-08-10 | 2020-02-20 | 株式会社豊田中央研究所 | Calibration device of camera for measurement |
JP7100532B2 (en) | 2018-08-10 | 2022-07-13 | 株式会社豊田中央研究所 | Calibration device for measuring cameras |
JP2020068495A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Information processing apparatus, information processing method and program |
JP7237520B2 (en) | 2018-10-26 | 2023-03-13 | キヤノン株式会社 | Information processing device, information processing method and program |
US11361466B2 (en) | 2018-11-30 | 2022-06-14 | Casio Computer Co., Ltd. | Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system |
US11816861B2 (en) | 2018-11-30 | 2023-11-14 | Casio Computer Co., Ltd. | Position information acquisition device, position information acquisition method, recording medium, and position information acquisition system |
JP2020152545A (en) * | 2019-03-20 | 2020-09-24 | 東芝エレベータ株式会社 | Image processing device |
CN111960206B (en) * | 2019-05-20 | 2022-02-01 | 东芝电梯株式会社 | Image processing apparatus and marker |
JP2020189713A (en) * | 2019-05-20 | 2020-11-26 | 東芝エレベータ株式会社 | Image processing device and marker |
CN111960206A (en) * | 2019-05-20 | 2020-11-20 | 东芝电梯株式会社 | Image processing apparatus and marker |
CN113671513A (en) * | 2020-05-14 | 2021-11-19 | 日立乐金光科技株式会社 | Distance measuring system and calibration method of distance measuring sensor |
CN113671513B (en) * | 2020-05-14 | 2024-02-23 | 日立乐金光科技株式会社 | Ranging system and calibration method of ranging sensor |
CN112686173A (en) * | 2020-12-31 | 2021-04-20 | 深圳云天励飞技术股份有限公司 | Passenger flow counting method and device, electronic equipment and storage medium |
CN112686173B (en) * | 2020-12-31 | 2024-05-03 | 深圳云天励飞技术股份有限公司 | Passenger flow counting method and device, electronic equipment and storage medium |
CN113739331A (en) * | 2021-07-07 | 2021-12-03 | 青净光能科技股份有限公司 | Indoor active epidemic prevention monitoring system |
WO2023062760A1 (en) * | 2021-10-13 | 2023-04-20 | 富士通株式会社 | Region detection program, device, and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009143722A (en) | Person tracking apparatus, person tracking method and person tracking program | |
JP2010063001A (en) | Person-tracking device and person-tracking program | |
US10417503B2 (en) | Image processing apparatus and image processing method | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
US10572736B2 (en) | Image processing apparatus, image processing system, method for image processing, and computer program | |
Hu et al. | Moving object detection and tracking from video captured by moving camera | |
KR101647370B1 (en) | road traffic information management system for g using camera and radar | |
US7729512B2 (en) | Stereo image processing to detect moving objects | |
US7965866B2 (en) | System and process for detecting, tracking and counting human objects of interest | |
KR101030559B1 (en) | Suspicious behavior detection system and method | |
US9213896B2 (en) | Method for detecting and tracking objects in image sequences of scenes acquired by a stationary camera | |
JP6555906B2 (en) | Information processing apparatus, information processing method, and program | |
US8995714B2 (en) | Information creation device for estimating object position and information creation method and program for estimating object position | |
KR101634355B1 (en) | Apparatus and Method for detecting a motion | |
JP2009110152A (en) | Congestion estimation device | |
KR101125233B1 (en) | Fusion technology-based security method and security system thereof | |
KR20170092662A (en) | Image processing method | |
CN111160220B (en) | Deep learning-based parcel detection method and device and storage medium | |
WO2019220589A1 (en) | Video analysis device, video analysis method, and program | |
Snidaro et al. | Automatic camera selection and fusion for outdoor surveillance under changing weather conditions | |
JPWO2008035411A1 (en) | Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program | |
JPH11257931A (en) | Object recognizing device | |
KR101290517B1 (en) | Photographing apparatus for tracking object and method thereof | |
KR20120116699A (en) | Moving object detecting apparatus and method using clustering | |
KR100844640B1 (en) | Method for object recognizing and distance measuring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100929 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121211 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130409 |