JP2007233523A - Person location estimation method using asynchronous camera image and system therefor - Google Patents
Person location estimation method using asynchronous camera image and system therefor Download PDFInfo
- Publication number
- JP2007233523A JP2007233523A JP2006051900A JP2006051900A JP2007233523A JP 2007233523 A JP2007233523 A JP 2007233523A JP 2006051900 A JP2006051900 A JP 2006051900A JP 2006051900 A JP2006051900 A JP 2006051900A JP 2007233523 A JP2007233523 A JP 2007233523A
- Authority
- JP
- Japan
- Prior art keywords
- person
- frame
- dimensional
- camera
- possibility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、非同期の複数のカメラ映像を利用し、人物の位置を推定する技術に関する。 The present invention relates to a technique for estimating the position of a person using a plurality of asynchronous camera videos.
近年の安全への意識の高まりや、カメラの低価格化などより、監視システムに対するニーズが高まってきている。また、監視目的だけでなく、カメラを用いて人物の位置情報などを収集することにより、顧客に対するサービスを向上させたり、売り上げ拡大を図りたいというニーズも増加してきている。 In recent years, there has been an increasing need for surveillance systems due to increased awareness of safety and lower prices for cameras. In addition to the purpose of monitoring, there is an increasing need to improve services for customers and expand sales by collecting position information of people using cameras.
このような目的のためには、広範囲の情報を取得する必要があるが、広い範囲の情報を取得するためには、1台のカメラだけでカバーすることは不可能であるとともに、3次元的な位置情報を得るためには、マルチカメラによる撮影が必要となる。複数台のカメラを用いて人物の位置情報を取得するには、一般的には、各カメラの同期を取ることが必要となるが、厳密な同期は困難であったり、システムが高価になってしまったりするという課題がある。 For such a purpose, it is necessary to acquire a wide range of information. However, in order to acquire a wide range of information, it is impossible to cover with only one camera, and three-dimensional In order to obtain accurate position information, it is necessary to shoot with a multi-camera. In order to acquire position information of people using multiple cameras, it is generally necessary to synchronize each camera. However, exact synchronization is difficult or the system becomes expensive. There is a problem of being fooled.
そこで、カメラの同期を不要とするため、複数のカメラを利用せずに、1台のカメラの画像から人物位置を推定する方法として、特許文献1のように、想定する人物の身長の可能性分布を利用し、1台のカメラから人物の3次元位置を推定するための技術が開示されている。
Therefore, as a method for estimating the position of a person from an image of one camera without using a plurality of cameras in order to eliminate the need for camera synchronization, the possibility of the assumed person's height as in
また、非特許文献1には、同期したカメラの画像を使わずに、2台のカメラに写った位置情報を補間することにより、幾何学的に3次元位置情報を求めるための技術が述べられている。
Non-Patent
まず、上記特許文献1記載の方法においては、特定の場所や時間においては身長の可能性分布の精度がある程度期待できるが、一般の環境においては精度が落ちてしまうことが考えられる。また、複数のカメラに写った人物の情報から、3次元位置を求めようとする場合、従来一般的である色や形状などの特徴情報を用いたマッチング方法では、同期撮影された2台のカメラを用いる必要があり、一つのカメラに写った人物と別のカメラに写った同じ人物を同定する際には、カメラの方向により写り方が異なる場合に、同一人物と認識することができないという課題が存在する。
First, in the method described in
また、前述のように、複数カメラで完全に同期をとった撮影をすることは、コストが高くなり、非同期の複数のカメラを利用したいが、上記の非特許文献1に記載の技術では、それぞれのカメラに写っているものは一つであり、対応関係が明らかとなっていることが前提であり、非同期カメラにおいて、同一の人物を決定することが難しいという課題がある。
In addition, as described above, it is costly to take a completely synchronized image with a plurality of cameras, and it is desired to use a plurality of asynchronous cameras. However, in the technique described in
本発明は、複数台の非同期カメラを用いて人物の3次元空間における位置を推定する技術を特徴とする。より詳細には、本発明は、各カメラで撮影されたフレーム画像とその撮影時刻をメモリに入力し、第1のカメラで撮影された連続する2フレーム分の画像を前フレームと後フレームとして特定し、第1のカメラとは別の第2のカメラで撮影され、前フレームと後フレームとの間の撮影時刻であって後フレームの撮影時刻に最も近い時刻に撮影されたフレーム画像を基準フレームとして特定し、前フレーム、後フレームおよび基準フレームの各画像から人物が映っている領域を推定し、推定された人物領域の各々から人物の頭頂部を推定し、前フレーム、後フレームおよび基準フレームの各頭頂部の位置情報を用いて人物の3次元的な頭頂部位置を推定し、その位置情報に基づいて床面上の人物位置を表示する。 The present invention is characterized by a technique for estimating the position of a person in a three-dimensional space using a plurality of asynchronous cameras. More specifically, the present invention inputs a frame image taken by each camera and its shooting time into a memory, and specifies two consecutive frames taken by the first camera as a front frame and a rear frame. A frame image taken by a second camera different from the first camera and taken at a time between the previous frame and the rear frame and closest to the rear frame is taken as a reference frame. The area in which the person is reflected is estimated from the images of the previous frame, the rear frame, and the reference frame, the head of the person is estimated from each of the estimated person areas, and the front frame, the rear frame, and the reference frame are estimated. Is used to estimate the three-dimensional top position of the person and display the position of the person on the floor based on the position information.
また本発明の1つの実施例によれば、撮影時刻の間隔の間に移動した人物の位置の差分から移動速度を求め、基準フレームの直前の基準フレームについて求められた3次元的な頭頂部位置および移動速度から求められた現在の基準フレームに対応する3次元的な頭頂部位置と、現在推定した3次元的な頭頂部位置との誤差を求め、その誤差を用いて現在の3次元的な頭頂部位置の近傍に人物が存在する可能性を求める。 Further, according to one embodiment of the present invention, the moving speed is obtained from the difference in the position of the person who has moved during the shooting time interval, and the three-dimensional top position determined for the reference frame immediately before the reference frame. And an error between the three-dimensional top position corresponding to the current reference frame obtained from the moving speed and the currently estimated three-dimensional top position, and using the error, the current three-dimensional position is calculated. The possibility that a person exists in the vicinity of the top position is obtained.
本発明により、複数台のカメラを用い、広範囲の撮影を行うような場合にも、安価な非同期カメラを使うことができ、低コストで人物位置を推定することができるという効果がある。また、本発明によれば、誤差はあるものの人物のおよその位置を推定して確認することができるという効果がある。さらに、頭頂部位置を利用することによって、足元の情報を用いる場合よりもテーブルや棚などの障害物で画像を取得できないことが少なくなるため、安定的に人物位置を求めることが可能となる。 According to the present invention, even when a wide range of shooting is performed using a plurality of cameras, an inexpensive asynchronous camera can be used, and the person position can be estimated at a low cost. In addition, according to the present invention, there is an effect that an approximate position of a person can be estimated and confirmed although there is an error. Furthermore, by using the position of the top of the head, since it is less likely that an image cannot be acquired with an obstacle such as a table or a shelf, compared to the case of using the information at the foot, it is possible to obtain the person position stably.
小売店などで顧客などの人物の位置情報を取得することを想定し、複数の非同期カメラを用いて建物内の人物位置を推定するための方法について、以下の実施例により実現方法を説明する。 Assuming that position information of a person such as a customer is acquired at a retail store or the like, a method for estimating the position of a person in a building using a plurality of asynchronous cameras will be described with reference to the following embodiments.
図1は、本発明を実現する1実施例のシステム構成図である。空間を撮影する複数のカメラとして有線カメラ1−1から有線カメラ1−mの有線カメラ群1が撮影した映像を、ネットワーク7を介して録画装置9に送り、録画装置9に蓄積する。また、カメラは無線カメラでもよく、無線カメラ3−1から無線カメラ3−nの無線カメラ群3が撮影した映像を、無線アクセスポイント5を介しネットワーク7を経由して録画装置9に送り、録画装置9に蓄積する。なお、無線アクセスポイント5は複数存在してもよい。画像処理装置11は、録画装置9に蓄積された撮影画像を利用して人物位置推定を行い、その結果を表示装置13に表示する。なお、録画装置9、画像処理装置11および表示装置13は、1台のコンピュータとして一体のものであってもよい。
FIG. 1 is a system configuration diagram of an embodiment for realizing the present invention. Images taken by the
画像処理装置11の内部構成について図2を用いてさらに説明する。画像処理装置11は、プロセッサおよびメモリを備えるコンピュータであり、画像メモリ15、カメラパラメータ記憶部17、制御部19および入出力部26を有する。画像メモリ15およびカメラパラメータ記憶部17は、メモリ上に設けられる。制御部19は、基準/参照カメラ選択部20、人物領域推定部21、頭頂部位置推定部22、3次元頭頂部位置推定部23、移動量推定部24および存在可能性推定部25の各プログラムを有する。制御部19は、メモリ上に格納されるこれらプログラムをプロセッサにより実行する。また制御部19のメモリは、これらプログラムへの入力データおよび処理結果を一時的に格納する。画像処理装置11は、録画装置9、表示装置13および入力装置27と接続する。入出力部26は、これらの装置と画像処理装置11のメモリとの間のデータの入出力を制御する。
The internal configuration of the
画像処理装置11は、入出力部26を介し、録画装置9に記録された画像データを取得し、画像メモリ15に記憶する。また、カメラパラメータ記憶部17は、事前に求められた各カメラの画角、画素数などの内部パラメータや、空間におけるカメラの位置などの外部パラメータを記憶する。画角とは、カメラが撮像可能な視野角であり、水平方向の画角および垂直方向の画角を含む。制御部19は、格納されるプログラムを実行することにより、録画装置9に蓄積された各フレーム画像とその撮影時刻を画像メモリ15に入力して一時保存し、カメラパラメータ記憶部17に記憶された情報などを用いてフレーム中の人物画像を解析し、3次元空間における人物位置の推定を行う。各フレーム画像には、その画像を撮影したカメラの識別子が付加されている。
The
続いて、図1の構成を用いて人物位置を推定する例について、図4のような3台のカメラで室内を撮影している環境を想定し、人物位置推定を行う方法について、図5を用いて説明する。図4は、室内を上から見たときのカメラ位置と撮影範囲を示した平面図である。カメラA(図中30A)、カメラB(図中30B)、カメラC(図中30C)により撮影されない空間が領域33、1台のカメラのみで撮影される空間が領域34、2台のカメラで撮影される空間が領域35、3台のカメラで撮影される空間が領域36である。各カメラの位置、方向、画角は事前に調べられているものとし、3台のカメラを組み合わせたときの撮影領域の重なりについての情報は事前に既知であるとする。また、撮影する空間の形状や大きさなどの情報も既知であるとする。ここで、室内を撮影することを想定する場合には、入口と出口付近の空間については、少なくとも2台以上のカメラで撮影するようにカメラを配置することが望ましい。
Next, with respect to an example in which the position of a person is estimated using the configuration of FIG. 1, assuming an environment in which the room is photographed with three cameras as shown in FIG. It explains using. FIG. 4 is a plan view showing the camera position and shooting range when the room is viewed from above. A space not photographed by camera A (30A in the figure), camera B (30B in the figure), and camera C (30C in the figure) is area 33, and a space photographed by only one camera is
カメラA〜CはWebカメラとして市販されているものを利用することを想定する。これらのカメラは同期をとることはできないが、外部から内部時計の時刻をセットすることが可能で、カメラA〜Cの内部時計は一致しているものとする。そして、各カメラで撮影された画像は、録画装置9に撮影時刻と共に記録される。また、このカメラは、撮影した画像を圧縮し、図1に示すように、撮影画像をネットワーク7を介して録画装置9へ送り、蓄積するが、撮影する対象により圧縮に必要な時間が異なるため、各カメラの各フレーム画像の撮影時刻は異なることを想定する。例えば、図5のように、カメラAのフレーム画像の撮影時刻は40、41、カメラBの撮影時刻は42、43、44、カメラCの撮影時刻は45、46のようになっているものとする。
Assume that the cameras A to C use commercially available web cameras. Although these cameras cannot be synchronized, the time of the internal clock can be set from the outside, and the internal clocks of the cameras A to C are assumed to be the same. And the image image | photographed with each camera is recorded on the
このような想定のもとに図3のフローチャートに沿って処理の流れを説明する。まず、制御部19は、入力装置27から入力された人物位置推定結果の表示を開始する命令をメモリに入力する(ステップS100)。制御部19は、表示終了命令が入力されるまで、以下の人物位置推定処理を繰り返し、終了命令が入力されれば処理を終了する(ステップS104)。基準/参照カメラ選択部20は、画像メモリ15に入力されたフレーム画像に対応するカメラの識別子を参照し、人物位置推定処理の最初に、録画装置9に連続して2フレーム分画像が記録されたカメラを参照カメラとする(ステップS105)。例えば図5のような場合に、撮影時刻t-τ1(図中42)の時点で表示開始命令が入力されたとすると、最初に2フレーム分の画像が録画装置9に蓄積されたカメラBを参照カメラとする。そして、基準/参照カメラ選択部20は、その2つのフレームを前後フレームとし、時刻t-τ1とt+τ2(図中43)との間で最も時刻t+τ2に近い時刻tに撮影したカメラを基準カメラとし、そのフレームを基準フレームとする(ステップS106)。例えば図5の場合には、カメラAが基準カメラとなり、時刻t(図中40)のフレームが基準フレームとなる。
Based on this assumption, the flow of processing will be described along the flowchart of FIG. First, the
次に、人物領域推定部21は、画像メモリ15中の基準フレーム画像および前後フレーム画像を参照し、これらの画像の中から人物が写っている領域を推定する(ステップS112)。推定の方法としては、人物の写っていないときの画像を背景として記憶しておき、背景差分により人物領域を推定すれば良いが、サーモセンサの情報を利用するなど、他の方法を用いてもよい。次に、頭頂部位置推定部22は、人物領域の中から、頭頂部位置を推定する(ステップS114)。頭頂部は人物領域中の最も高い位置として推定すればよい。
Next, the person
次に、3次元頭頂部位置推定部23は、各フレーム画像で推定された頭頂部位置から、3次元的な頭頂部位置を推定する(ステップS116)。その方法について図6を用いて説明する。カメラAの光学中心がC1、カメラBの光学中心がC2とし、時刻tに撮影したカメラAのフレーム画像51中に写った人物の頭頂部が点p、カメラBにより時刻t-τ1に撮影したフレーム画像52中に写った人物の頭頂部が点q、時刻t+τ2に撮影したフレーム画像53に写った人物の頭頂部が点rであるとする。図6では、各フレーム画像は、カメラの位置、方向、画角から、3次元空間における投影面として配置してある。このとき、撮影間隔がそれほど長くないことを想定すると、人物の頭頂部位置の高さはその間に変わらないと近似することが可能であり、カメラBの光学中心C2と点q、点rとからなる平面と、カメラAの光学中心C1と点pを結ぶ直線の交点Pを人物の3次元的な頭頂部位置であると推定することが可能である。ここで、推定された3次元位置から、人物の身長と床面上の人物位置(頭頂部位置からの垂線が床面と交わる位置)を求め、身長が事前に想定した人物らしい身長、例えば大人を想定すれば150〜200cmの範囲に入っているか、また、撮影空間の情報、すなわち、部屋の広さや、机、棚などから、人の存在し得ない領域であるかどうかの判定を行い、正しそうな結果であれば人物位置として採用し、正しくなさそうな結果であれば、採用しないとする。
Next, the three-dimensional head
カメラの位置と角度からカメラの光学中心を通る3次元の主軸の式を計算することができ、この主軸は、フレームの中心である原点(0,0)を通る3次元空間上の直線に一致するはずである。またフレームのX軸とフレーム終端の交点およびY軸とフレーム終端の交点が各々水平方向の画角を示す直線および垂直方向の画角を示す直線に対応する。従ってカメラAで撮影した2次元フレーム上の任意の点p(X,Y)に対応する3次元空間上の直線は、(X,Y)の比例配分に応じて光学中心C1を通る直線の式で表現される。同様にカメラBで撮影した2次元フレーム上の点q,rもそれぞれ光学中心C2を通る3次元空間上の2本の直線の式で表現される。光学中心C2とこれら2本の直線によって形成される3次元空間上の平面と、光学中心C1を通る上記の直線との交点がP(x,y,z)となる。 From the camera position and angle, it is possible to calculate a 3D principal axis formula that passes through the optical center of the camera, and this principal axis coincides with a straight line in the 3D space that passes through the origin (0,0) that is the center of the frame. Should do. Further, the intersection of the X axis and the end of the frame and the intersection of the Y axis and the end of the frame respectively correspond to a straight line indicating the horizontal field angle and a straight line indicating the vertical field angle. Therefore, the straight line in the three-dimensional space corresponding to an arbitrary point p (X, Y) on the two-dimensional frame photographed by the camera A is an equation of a straight line passing through the optical center C1 according to the proportional distribution of (X, Y). It is expressed by Similarly, the points q and r on the two-dimensional frame photographed by the camera B are also expressed by two straight lines on the three-dimensional space passing through the optical center C2. The intersection of the plane in the three-dimensional space formed by the optical center C2 and these two straight lines and the straight line passing through the optical center C1 is P (x, y, z).
3次元頭頂部位置推定部23は、カメラパラメータ記憶部17に格納されるカメラパラメータを用いて点p(X,Y)に対応する3次元空間上の直線の式を算出することができる。3次元頭頂部位置推定部23は、フレーム画像の画素数から点p,q,rの各々の2次元座標値を求め、カメラの位置、角度、画角の情報を用いて各2次元座標値から3つの直線の式を求め、C2を通る2本の直線の式から3次元空間上の平面の式を求め、C1を通る直線の式とこの平面の式とから点Pの座標値を求める。3次元頭頂部位置推定部23は、このようにして計算の途中結果をメモリに一時記憶しながら計算を進め、算出した点Pの座標値をメモリに一時保存する。
The three-dimensional head
もし人物が移動せず、2次元フレーム上の点q,rがほぼ同一位置にあれば、3次元空間上の直線は1本となるから、カメラAによる直線がカメラBによる直線と最接近したところの点を点Pの位置とすればよい。 If the person does not move and the points q and r on the two-dimensional frame are almost at the same position, the straight line in the three-dimensional space is one, so the straight line from the camera A is closest to the straight line from the camera B. The point may be the position of the point P.
そして、実施例1の場合にはS116からS120に移り、制御部19は、上記の方法により推定された床面上の人物位置を表示装置13に表示する(ステップS120)。人物位置表示終了命令がない場合にはステップS105へ戻り、時刻t以降で同一カメラで2フレームの画像が録画装置9に記録され、かつ、その2フレームの撮影間隔内に別のカメラの撮影フレームが存在する条件をチェックし、参照カメラを決定し、続いてステップS106により基準カメラと基準フレームを決定する。例えば図5の場合には、時刻41のフレーム画像を取得した時点でカメラAが参照カメラとなり、最も時刻41に近い時刻t+τ2(図中43)に撮影したカメラBが基準カメラとなり、そのフレームが基準フレームとなる。
In the case of the first embodiment, the process proceeds from S116 to S120, and the
実施例1によれば、同期していない複数のカメラを用いても、人物位置を推定することが可能であり、システムを安価に構築することが可能となる。 According to the first embodiment, the position of a person can be estimated even if a plurality of cameras that are not synchronized are used, and the system can be constructed at low cost.
実施例1の場合、人物の3次元的な頭頂部位置を推定することは可能であるが、この位置情報には様々な誤差が含まれている。例えば、カメラの光学中心位置、撮影時刻、画像中から推定された人物領域、頭頂部位置などに、それぞれ誤差が存在する。そこで、実施例2では図3のフローチャートにおいて、人物の移動速度を推定するステップ(S117)と、人物位置と移動速度と時間の関係を用いて、人物の空間的な存在可能性について推定するステップ(S118)を追加する。 In the case of the first embodiment, it is possible to estimate the three-dimensional top position of the person, but this position information includes various errors. For example, there are errors in the optical center position of the camera, the shooting time, the person area estimated from the image, the position of the top of the head, and the like. Therefore, in the second embodiment, in the flowchart of FIG. 3, the step of estimating the moving speed of the person (S117) and the step of estimating the spatial existence possibility of the person using the relationship between the person position, the moving speed, and the time. (S118) is added.
存在可能性の推定方法について図6を用いて説明する。まず、実施例1の方法により、時刻tにおける人物の3次元頭頂部位置Pが求まる。すると、人物の身長が求まり、前述のように、撮影間隔が十分短いとして身長が変わらないことを想定すると、時刻t-τ1, t+τ2における3次元頭頂部位置Q、Rについて、カメラBの光学中心C2とq、C2とrを結ぶそれぞれの直線上で、床面からの距離が身長に一致する点として求めることが可能である。この結果を利用し、撮影時刻の間隔が十分短いことから等速直線運動を仮定し、移動量推定部24は、QからPへの移動速度(移動方向と速さ)とPからRへの移動速度の平均として、点Pの移動速度を示すベクトルνpを求める(ステップS117)。νpは、速度のx成分とy成分をもち、z成分をもたない。求めた位置と移動速度は、次の時刻における人物の存在可能性推定が終了するまでメモリに記憶しておく。
A method of estimating the existence possibility will be described with reference to FIG. First, the three-dimensional top position P of the person at time t is obtained by the method of the first embodiment. Then, the height of the person is obtained, and as described above, assuming that the height does not change because the shooting interval is sufficiently short, the three-dimensional top positions Q and R at time t-τ1, t + τ2 It can be obtained as a point where the distance from the floor surface coincides with the height on each straight line connecting the optical centers C2 and q and C2 and r. Using this result, assuming that constant velocity linear motion is assumed because the interval between the photographing times is sufficiently short, the movement
次に、存在可能性推定部25は、ステップS118において人物の2次元空間的な存在可能性(存在確率)について推定する。前述のように推定された人物位置は点Pを中心として、2次元空間的に存在する可能性がガウス分布状になると仮定し、さらにガウス分布の分散σは前時刻の人物位置と移動速度から推定した位置との誤差に比例させるものとする。例えば、位置Pf(x,y)に人物が存在する可能性の評価値をF(Pf)、Pfの近傍空間をSとして、以下のように求める。
Next, the existence
存在可能性推定部25は、ステップS120において、人物の存在可能性F(Pf)を表示する。
In step S120, the existence
以上の方法により、誤差を含む人物位置情報について、空間的な存在可能性分布により、あいまい性を許容した表示を行うことが可能となる。 According to the above method, it is possible to display the human position information including the error by allowing the ambiguity by the spatial existence possibility distribution.
これまでの実施例では、カメラ画像に一人の人物が写っていることを想定していたため、人が少ない環境やカメラの画角が狭い環境の場合での利用にとどまるが、より一般的な環境に適応可能な複数の人物が写っている場合の別の実施例について図7,8,9を用いて説明する。 In the examples so far, it was assumed that a single person was captured in the camera image, so it is limited to use in environments where there are few people or where the angle of view of the camera is narrow. Another embodiment in the case where a plurality of persons who can be applied to is shown will be described with reference to FIGS.
図7のように、カメラAのフレーム画像51に二人の人物が写っており、それぞれの頭頂部位置がp1, p2であるとする。同様に、カメラAのフレーム画像52には人物の頭頂部q1,q2、フレーム画像53には人物の頭頂部r1,r2が写っているものとする。このとき、各人物像はどれとどれが同一人物であるかは分からないと想定すると、p1と同一の頭頂部位置である可能性は、(q1,r1), (q1,r2), (q2, r1), (q2,r2)の4通りが存在する。同様にp2と同一の頭頂部の可能性も4通り考えられる。
As shown in FIG. 7, it is assumed that two persons are shown in the
このとき、組み合わせの8通りの全パターンについて、二人の人物の3次元頭頂部位置P1,P2を求める。その結果求められた身長と床面上の位置を調べ、もっともらしい結果を採用する。例えば、図8のようにp1と対応する位置として、q1,r2を採用した場合に求められた人物の3次元頭頂部位置P1(1)は、想定する身長レンジより小さいため採用せず、図9のように、p1と対応する位置として、q1,r1を用いた場合の3次元頭頂部位置P1(2)が想定身長レンジ内かつ、想定空間内ということで採用するものとする。 At this time, the three-dimensional top positions P1 and P2 of two persons are obtained for all eight patterns of combinations. As a result, the height and the position on the floor are determined, and a plausible result is adopted. For example, as shown in FIG. 8, the three-dimensional top position P1 (1) of the person obtained when q1 and r2 are adopted as the positions corresponding to p1 is not adopted because it is smaller than the assumed height range. As shown in FIG. 9, the three-dimensional top position P1 (2) when q1 and r1 are used as the position corresponding to p1 is adopted within the assumed height range and the assumed space.
3次元頭頂部位置推定部23は、S116において、点p1,q1,r1の各々の2次元座標値を用いて上記のような処理によって3次元空間上の位置P1(1)を求める。同様にして他の3通りのパターンについても位置P1(2),P1(3),P1(4)を求める。3次元頭頂部位置推定部23は、位置P1(1)〜P1(4)について各々のz成分を身長として求め、これら身長の中で最も身長レンジに近い位置を点P1としてその座標値をメモリに保存する。3次元頭頂部位置推定部23は、同様に点P2についても3次元空間上の位置P2(1),P2(2),P2(3),P2(4)を求め、そのz成分が最も身長レンジに近い位置を点P2としてその座標値をメモリに保存する。
In S116, the three-dimensional top
なお想定する身長レンジ内かつ想定空間内の結果が複数存在する可能性が存在する。そのような場合には、撮影場所や時間の条件から撮影空間に存在しそうな人物を想定し、想定身長を分布として定義するものとする。例えば、ビジネス向け展示会であれば、大人の平均身長を最大とする分布を定義し、おもちゃ売り場であれば、子供の平均身長と親の平均身長をピークとする分布を定義するようにすればよい。そして、上記のように求められた人物の3次元頭頂部位置から求まる身長情報から、最も妥当な結果を人物位置として採用するようにすればよい。 There is a possibility that there are a plurality of results in the assumed height range and in the assumed space. In such a case, a person who is likely to exist in the shooting space is assumed from the shooting location and time conditions, and the assumed height is defined as a distribution. For example, if it is an exhibition for business, define a distribution that maximizes the average height of adults, and if it is a toy counter, define a distribution that peaks the average height of children and the average height of parents. Good. Then, the most appropriate result may be adopted as the person position from the height information obtained from the three-dimensional top position of the person obtained as described above.
以上のように、本実施例によれば、複数の人物がカメラ画像に写っていても、人物位置の推定を行うことが可能となる。 As described above, according to the present embodiment, it is possible to estimate a person position even if a plurality of persons are captured in a camera image.
実施例3では、画像に写る人物の数が増えると、調べなければならない組み合わせの数が指数的に増加してしまう。そこで、調べるべき組み合わせの数を減らす方法について、図7の例を用いて説明する。 In the third embodiment, when the number of persons appearing in the image increases, the number of combinations to be examined increases exponentially. Therefore, a method for reducing the number of combinations to be examined will be described using the example of FIG.
まず、参照カメラの前後フレーム画像において、頭頂部位置q1, q2, r1, r2を求める。次に、参照カメラの前フレーム52の画像中からq1を選択する。ここで、撮影空間の特性に応じ、人間の最大移動速度を想定し、例えば早足程度の1.7m/s程度を想定する。すると、撮影画像中で最も移動量が大きくなるのは人がカメラの投影面と平行に移動した場合となり、フレーム画像53との撮影間隔分だけのフレーム内での移動量Lを求めることができる。そこでフレーム画像53については、点q1を中心とした半径Lの範囲内に存在する頭頂部のみを対象として組み合わせを考えればよいこととなる。
First, the top position q1, q2, r1, r2 is obtained in the front and rear frame images of the reference camera. Next, q1 is selected from the images of the
3次元頭頂部位置推定部23は、フレーム画像53について、点q1から点r1,r2,…の各々までのフレーム上の距離を計算し、距離L内に存在する頭頂部位置ri,rj,…をすべて求める。フレーム画像52内の点q2など他の点についても同様に距離L内に存在する頭頂部位置rk,rl,…をすべて求める。そうすると、点p1と同一の頭頂部位置である可能性は、(q1,ri),(q1,rj),(q1,…),(q2,rk),(q2,rl),(q2,…),…の組合せのパターンとなる。3次元頭頂部位置推定部23は、この結果の人物の位置情報をメモリに一時保存し、実施例3を適用して3次元空間上の位置P1,P2,...を求め、その計算結果の座標値をメモリに保存する。
The three-dimensional head
本実施例を用いることにより、人物の3次元位置を推定する計算量を低減することが可能となり、推定までの時間を短縮することが可能となる。 By using this embodiment, it is possible to reduce the amount of calculation for estimating the three-dimensional position of a person, and it is possible to shorten the time until estimation.
次に、実施例2のように、前の時刻t'における複数の人物位置と速度が推定されている場合に時刻tにおける人物位置を推定する実施例について図10を用いて説明する。図10は、図3のステップS116、S117の部分について、本実施例に合わせて詳細化したものとなっている。 Next, as in the second embodiment, an embodiment in which a person position at time t is estimated when a plurality of person positions and speeds at the previous time t ′ are estimated will be described with reference to FIG. FIG. 10 shows details of steps S116 and S117 of FIG. 3 according to the present embodiment.
まず、実施例2のように、ステップS114では、基準カメラの基準フレーム画像と参照カメラの前後フレーム画像内のすべての人物の頭頂部位置を推定しておく。前の時刻t'において推定された人物数がm人のとき、3次元空間上で推定された位置をP'(1)〜P'(m)、速度ベクトルをνp’(1)〜νp’(m)とする。この結果を利用し、3次元頭頂部位置推定部23は、現在の時刻tにおける人物位置Pa(1)〜Pa(m)を、これまでと同様に等速直線運動を仮定して、以下の数3を用いて推定する(ステップS200)。
First, as in the second embodiment, in step S114, the positions of the tops of all persons in the base frame image of the base camera and the frame images before and after the reference camera are estimated. When the number of persons estimated at the previous time t ′ is m, the positions estimated in the three-dimensional space are P ′ (1) to P ′ (m), and the velocity vectors are ν p ′ (1) to ν. Let p ′ (m) . Using this result, the three-dimensional top
次に、3次元頭頂部位置推定部23は、実施例3と同様に、ステップS114でもとめた基準フレーム画像と前後フレーム画像内の頭頂部位置から、すべての組み合わせを想定して、3次元的な仮の頭頂部位置を算出する(ステップS202)。次に、3次元頭頂部位置推定部23は、想定する身長レンジと床面との関係により、妥当性を調べ、不適切な組み合わせは削除し、仮の3次元頭頂部位置P(1)〜P(n)を求める(ステップS204)。ここでnは、m個のPaのうち不適切な組合せを除いた残りの個数であり、m≧nである。
Next, as in the third embodiment, the three-dimensional top
次に、3次元頭頂部位置推定部23は、S200の人物位置の情報とS204の位置情報を用いて時刻tにおける人物位置を確定する(ステップS206)。ここでは、前の時刻t'から推定された人物位置Pa(1)〜Pa(m)と時刻tの情報から求められた仮の3次元頭頂部位置P(1)〜P(n)のm×n個のペアを作成し、各ペアについて2つの位置間の距離を求め、あらかじめ定めたしきい値以上のペアを除外する。続いて、残ったペアのうち、距離の最も近い組み合わせを採用し、そのときの時刻tにおける人物の仮の3次元頭頂部位置情報P(i);i=1〜nを人物位置として確定する。そして、確定したP(i)を仮の3次元頭頂部位置P(1)〜P(n)から削除する。そして残った仮の3次元頭頂部位置情報と前の時刻t'から推定された人物位置のペアから最も近い組み合わせを採用して3次元頭頂部位置情報として確定する処理を繰り返す。この処理は、まだ仮のままで確定していない3次元頭頂部位置P(i)か、前の時刻t'から推定された人物位置Pa(j)がなくなるまで繰り返す。
Next, the three-dimensional top
ここでもし、仮の3次元頭頂部位置が余ってしまった場合、時刻tに新たに撮影空間に人物が入ってきたと考え、仮の3次元頭頂部位置情報を確定する。また、もし前の時刻t'から推定された人物位置Pa(j)が余ってしまった場合には、Pa(j)が基準カメラの撮影範囲かを求め、撮影範囲であれば、前の時刻t'の時の推定が誤っていたものと考え、時刻tの人物位置としては登録しないこととする。撮影範囲外であれば、人物が基準カメラの撮影範囲外に移動したと考え、Pa(j)を時刻tの人物位置として登録する。 Here, if the provisional three-dimensional top position remains, it is considered that a person has newly entered the imaging space at time t, and provisional three-dimensional top position information is determined. Further, if the person position Pa (j) estimated from the previous time t ′ is left, it is determined whether Pa (j) is the shooting range of the reference camera. It is assumed that the estimation at t 'was incorrect, and the person position at time t is not registered. If it is outside the shooting range, it is considered that the person has moved out of the shooting range of the reference camera, and Pa (j) is registered as the person position at time t.
続いて、移動量推定部24は、S206で時刻tの人物位置として確定された各点について、実施例2と同様の方法により、時刻tにおける人物の移動速度を求める(ステップS208)。但し、Pa(j)を人物位置として登録した場合には、速度情報は時刻t'の情報を用いるものとする。また、新規に登録された人物位置については、速度0とする。
Subsequently, the movement
そして、図3のステップS118へと進み、実施例3と同様に人物位置の推定結果を表示する。 Then, the process proceeds to step S118 in FIG. 3, and the estimation result of the person position is displayed as in the third embodiment.
以上、本実施例によれば、基準カメラと参照カメラに複数の人物が写っていた場合の同一人物であるというマッチングを画像の色や形状から行わなくても、時間的な位置情報を利用することにより行うことが可能となり、実環境における位置情報の精度を向上させることが可能である。 As described above, according to the present embodiment, temporal position information is used even if matching is not performed based on the color or shape of an image when a plurality of persons are captured in the base camera and the reference camera. This makes it possible to improve the accuracy of position information in the actual environment.
次に、実施例5において仮の3次元頭頂部位置を求めるステップS202について、計算する組み合わせ数を、前の時刻t'の情報を用いて削減する実施例を示す。 Next, an embodiment in which the number of combinations to be calculated is reduced using information at the previous time t ′ in step S202 for obtaining a temporary three-dimensional top position in the fifth embodiment will be described.
実施例5のS200と同様に前の時刻t'において推定された人物数がm人、推定された位置をP'(1)〜P'(m)、速度ベクトルをνp’(1)〜νp’(m)とする。また、カメラの前フレーム画像の撮影時刻をs1, 後フレーム画像の撮影時刻をs2とする。すると、時刻t'の推定情報より、時刻s1における推定3次元頭頂部位置Qa(1)〜Qa(m), 時刻s2における推定3次元頭頂部位置Ra(1)〜Ra(m)を、以下の数4により求めることが可能である。 As in S200 of the fifth embodiment, the number of persons estimated at the previous time t ′ is m, the estimated positions are P ′ (1) to P ′ (m), and the velocity vector is ν p ′ (1) . Let ν p ′ (m) . Further, the shooting time of the front frame image of the camera is s1, and the shooting time of the rear frame image is s2. Then, from the estimated information at time t ′, the estimated three-dimensional head position Qa (1) to Qa (m) at time s1 and the estimated three-dimensional head position Ra (1) to Ra (m) at time s2 are as follows: It is possible to obtain by Equation (4).
次に、3次元頭頂部位置推定部23は、基準フレーム画像、前後フレーム画像内の頭頂部位置をすべて求める。基準フレーム画像内の頭頂部位置をp(1)〜p(a), 前フレーム画像内の頭頂部位置をq(1)〜q(b)、後フレーム画像内の頭頂部位置をr(1)〜r(c)とする。
Next, the three-dimensional head
そして、頭頂部位置p(1)からp(a)について、あらかじめ指定した半径L1の範囲内に、時刻t'の情報からの推定位置pa(1)〜pa(m)が存在するかを調べる。その範囲内に存在する位置がpa(u)であったとき(複数存在しても良い)、前フレーム画像については、qa(u)の周囲半径L2の中に存在する頭頂部位置q(複数でよい)と、後フレーム画像については、ra(u)の周囲半径L3の中に存在する頭頂部位置r(複数でよい)とを3次元位置を求める組み合わせとする。 Then, with regard to the top position p (1) to p (a), it is examined whether the estimated positions pa (1) to pa (m) from the information at time t ′ exist within the range of the radius L1 specified in advance. . When the position existing within the range is pa (u) (may be plural), for the previous frame image, the top position q (multiple existing within the peripheral radius L2 of qa (u) And the top frame position r (which may be plural) existing in the peripheral radius L3 of ra (u) is a combination for obtaining a three-dimensional position.
もし、頭頂部位置p(1)〜p(a)に対応するq,rの組み合わせが存在しない場合には、ステレオ視できる範囲に人物が存在しないと想定し、3次元頭頂部位置の計算には用いないものとする。 If there is no combination of q and r corresponding to the top position p (1) to p (a), it is assumed that there is no person within the stereo viewable range, and the three-dimensional top position is calculated. Shall not be used.
以上の本実施例により、画像に写った人物の数が多い場合には、組み合わせ計算を減らすことが可能となり、人物位置推定を高速化することが可能となる。 According to the present embodiment described above, when the number of persons captured in an image is large, it is possible to reduce the combination calculation, and it is possible to speed up the person position estimation.
ここでは、基準カメラと参照カメラの両方で撮影している撮影領域以外に人物が存在する場合の実施例について説明する。 Here, an embodiment will be described in the case where a person is present in a region other than the image capturing region where both the base camera and the reference camera are capturing images.
例えば図4のようなカメラ配置で部屋38を撮影している状況を想定する。そして、時刻t'の時点でカメラAとカメラBを用いて人物位置を求めた結果が存在するとする。次の時刻tの時点ではカメラBを基準カメラ、カメラCを参照カメラとして人物位置情報を求めるとする。すると、時刻tの時点ではカメラB,Cの撮影範囲内に存在する人物位置の情報しか得ることが出来ない。ここで、時刻t'における人物位置と速度の情報を用いることにより、カメラB,Cの撮影範囲外の人物位置推定を行うこととする。この際、人物は等速直線運動を行うことと推定する。また、空間的な制約も人物の移動の際に考慮し、移動不可能な領域との境界で反射運動を想定したり、境界領域との距離に応じて速度を落とすとともに、移動方向を移動不可能領域から離れる向きに変更するような想定をしたりしてもよい。
For example, assume a situation in which the
ここでは、これまでの実施例により推定された、人物の3次元頭頂部位置と空間的な存在可能性分布の表示方法の実施例について、図11a〜図11cを用いて説明する。 Here, an embodiment of a method for displaying a three-dimensional position of a person's 3D vertex and a spatial existence possibility distribution estimated by the above embodiments will be described with reference to FIGS. 11a to 11c.
図11aは、時刻t1における人物の存在可能性分布を表示した例で、左側は、撮影している空間(例えば部屋)の床面を格子状に区切ったブロック(図中60)として表示し、その上に、求められた人物の3次元頭頂部位置の垂線と床面が交わる点を中心として、人物の存在可能性分布を濃淡で表現(図中61)している。右の図は62の点線位置(ピーク位置)における人物の存在可能性分布のプロファイル63である。左側の存在可能性分布は、人物の存在可能性が高いほど濃く表示される。
FIG. 11a is an example in which a person's existence possibility distribution at time t1 is displayed, and the left side is displayed as a block (60 in the figure) obtained by dividing the floor surface of a space (for example, a room) in a grid pattern, In addition, the possibility distribution of the person is expressed in shades (61 in the figure) around the point where the perpendicular of the obtained three-dimensional top position of the person and the floor intersect. The figure on the right is a
同様に、図11bは時刻t2、図11cは時刻t3における人物の存在可能性分布(図中64、67)を示し、点線65、68における存在可能性分布プロファイルがそれぞれ66、69である。
Similarly, FIG. 11b shows the existence possibility distribution (64 and 67 in the figure) of the person at time t2 and FIG. 11c, and the existence possibility distribution profiles at
なお、存在可能性分布は、可能性に応じた色の違いで表現してもよく、可能性の高いものを赤、低いものを青と表現するなどしてもよい。 Note that the existence possibility distribution may be expressed by a difference in color according to the possibility, and a high possibility may be expressed as red, and a low possibility may be expressed as blue.
以上のような表示方法により、人物の移動の様子について、位置推定の誤差を含んだ表示が可能となる。 By the display method as described above, it is possible to display the movement of a person including a position estimation error.
次に、人物の3次元頭頂部位置と空間的な存在可能性分布の別の表示方法の実施例について、図12a〜図12cを用いて説明する。人物の3次元頭頂部位置と空間的な存在可能性分布については、図11と同じものを用いるとする。 Next, an example of another display method of the person's three-dimensional top position and the spatial existence possibility distribution will be described with reference to FIGS. 12a to 12c. It is assumed that the same three-dimensional top position and spatial existence possibility distribution of a person as those in FIG. 11 are used.
本実施例では、床面を格子状に区切った各ブロック内の存在可能性の評価値を積分した値に比例したブロックの輝度値として、存在可能性について表示する。例えば時刻t1においては、点線71の位置の存在可能性プロファイルは図12a右図のようになる。このときブロック70の輝度は、このブロック中の存在可能性評価値の積分値72に比例する値として表示させる。この図は、存在可能性が高いほど斜線の密度が大きくなるように表示している。同様に時刻t2については図12bのように、ブロック74、75の輝度値は、点線73における存在可能性プロファイルに示したブロック中の積分値76、77の値に比例させ、時刻t3のときには、図12cのように、ブロック78の輝度値は、点線79における存在可能性プロファイル中に示したブロック中の積分値80の値に比例させることにより表示する。
In the present embodiment, the existence possibility is displayed as the luminance value of the block in proportion to the value obtained by integrating the evaluation value of the existence possibility in each block obtained by dividing the floor surface in a grid pattern. For example, at time t1, the existence possibility profile at the position of the dotted
以上の本実施例によれば、注目する場所における人物の存在可能性を可視化することが可能であり、一つのブロック内に複数の人物が存在するような場合にも人数に応じた存在可能性を表示することが可能である。 According to the present embodiment described above, it is possible to visualize the possibility of existence of a person at a place of interest, and the possibility of existence according to the number of persons even when there are a plurality of persons in one block. Can be displayed.
さらに、人物の3次元頭頂部位置と空間的な存在可能性分布の別の表示方法の実施例について、図13a〜図13cを用いて説明する。人物の3次元頭頂部位置と空間的な存在可能性分布については、図11と同じものを用いるとする。 Furthermore, another embodiment of a method for displaying the three-dimensional top position of a person and the spatial existence possibility distribution will be described with reference to FIGS. 13a to 13c. It is assumed that the same three-dimensional top position and spatial existence possibility distribution of a person as those in FIG. 11 are used.
本実施例では、実施例9と同様に、床面を格子状に区切った各ブロック内の輝度として人物の存在可能性を表示するが、ブロック内の存在可能性評価値の最大値に比例した輝度として表示を行う。例えば、時刻t1の場合、図13aのように、点線82の存在可能性プロファイル上に示したようなブロック内の最大値83に比例するように、ブロック81の輝度を決定する。同様に、時刻t2では図13bのように、点線86における存在可能性プロファイル上にしめした87,88の値により、ブロック84、85の輝度を決定し、時刻t3においては、点線90における存在可能性プロファイル上に示した評価値91に比例するように、ブロック89の輝度値を決定する。
In the present embodiment, as in the ninth embodiment, the possibility of existence of a person is displayed as the luminance in each block obtained by dividing the floor surface in a grid pattern, which is proportional to the maximum value of the existence possibility evaluation value in the block. Display as luminance. For example, at time t1, as shown in FIG. 13a, the luminance of the
本実施例の実施例9と比べた利点は、人物が存在している可能性が最も高いブロックが常にはっきりと表示されることにある。例えば、図12を見てみると、時刻t1,t3における図12a,図12bの図ではどのブロックにいる可能性が高いかということがはっきりしているが、時刻t2における図12bの図では全体に輝度が低く表示され、ぼやけた表示となってしまっている。これに対し、本実施例では、図13に示したように、人物が存在していることがどの時刻においてもはっきり表示することが可能となっている。 The advantage of the present embodiment compared to the ninth embodiment is that the block that is most likely to have a person is always clearly displayed. For example, looking at FIG. 12, it is clear which block is likely to be present in the diagrams of FIGS. 12a and 12b at times t1 and t3, but the entire diagram is shown in FIG. 12b at time t2. The display is too low in brightness. On the other hand, in this embodiment, as shown in FIG. 13, it can be clearly displayed at any time that a person exists.
但し、本実施例を用いた場合には、一つのブロックに複数の人物が存在することを表現することが困難となるため、ブロックのサイズを一人の人間が存在する程度の小さな領域にするとよい。 However, when this embodiment is used, it is difficult to express that there are a plurality of persons in one block, so the block size should be small enough to have one person. .
次に、上記実施例により人物の空間的な存在可能性分布の表示結果を利用する実施例について図14、15を用いて説明する。 Next, an embodiment using the display result of a person's spatial possibility distribution according to the above embodiment will be described with reference to FIGS.
図14は、スーパーなどの室内を撮影空間と想定した場合の例である。実施例10の方法により作成した人物の空間的な存在可能性分布95を、空間の物理的な棚やテーブルなどの配置96に重ね合わせたものとして、店内人物存在可能性分布97として表示する。
FIG. 14 shows an example in which a room such as a supermarket is assumed to be a shooting space. The spatial
図15に店内人物存在可能性分布97の利用法を示す。店内人物存在可能性分布97を表示装置13に表示し、店のスタッフ100が時間的な変化を観察し、101に示すようなサービス創出に利用する。
FIG. 15 shows how to use the person
このような表示方法は、どの空間に、どの時刻にどのくらい人が存在したかということを直感的に把握できるとともに、自動的にデータを収集することが可能である。例えば、レジの手前の空間における人物の存在可能性を監視(自動的でも、人が監視してもよい)することにより、人の存在が多くなったときには、スタッフを配置し(図中103)、新しくレジを開けて、混雑を緩和する(図中104)ことも可能である。 Such a display method can intuitively grasp how many people exist in which space at which time, and can automatically collect data. For example, by monitoring the possibility of the presence of a person in the space in front of the cash register (either automatically or by a person), when the number of persons increases, a staff is arranged (103 in the figure). It is also possible to reduce the congestion by opening a new cash register (104 in the figure).
1:有線カメラ群、3:無線カメラ群、9:録画装置、11:画像処理装置、13:表示装置、30:カメラ
1: wired camera group, 3: wireless camera group, 9: recording device, 11: image processing device, 13: display device, 30: camera
Claims (15)
各カメラで撮影されたフレーム画像とその撮影時刻をメモリに入力するステップと、
第1のカメラで撮影された連続する2フレーム分の画像を前フレームと後フレームとして特定するステップと、
第1のカメラとは別の第2のカメラで撮影され、前記前フレームと前記後フレームとの間の撮影時刻であって前記後フレームの撮影時刻に最も近い時刻に撮影されたフレーム画像を基準フレームとして特定するステップと、
前記の前フレーム、後フレームおよび基準フレームの各画像から人物が映っている領域を推定するステップと、
推定された人物領域の各々から人物の頭頂部を推定するステップと、
前記前フレーム上の頭頂部に対応し前記第1のカメラの光学中心を通る3次元空間上の第1の直線および前記後フレーム上の頭頂部に対応し前記第1のカメラの光学中心を通る3次元空間上の第2の直線によって形成される3次元空間上の平面あるいは同一直線と、前記基準フレーム上の頭頂部に対応し前記第2のカメラの光学中心を通る3次元空間上の直線との交点あるいは最接近点を計算し、人物の3次元的な頭頂部位置を推定するステップと,
前記3次元的な頭頂部位置の情報に基づいて床面上の人物位置を表示するステップとを有することを特徴とする人物位置推定方法。 A method by an image processing apparatus for estimating a position of a person in a three-dimensional space using images taken by two or more asynchronous cameras of the same person,
Inputting a frame image captured by each camera and its shooting time into a memory;
Identifying two consecutive frames of images taken by the first camera as a previous frame and a subsequent frame;
A frame image taken by a second camera different from the first camera and taken at the time between the previous frame and the rear frame and closest to the time of the rear frame is used as a reference. Identifying as a frame,
Estimating a region in which a person is shown from the images of the previous frame, the rear frame, and the reference frame;
Estimating the head of the person from each of the estimated person regions;
A first straight line in a three-dimensional space corresponding to the top of the head on the front frame and passing through the optical center of the first camera and a top of the head on the back frame corresponding to the top of the head on the first frame. A plane in the three-dimensional space or the same straight line formed by the second straight line in the three-dimensional space, and a straight line in the three-dimensional space corresponding to the top of the head on the reference frame and passing through the optical center of the second camera Calculating the intersection or closest point of and estimating the 3D head position of the person;
And a step of displaying the position of the person on the floor based on the three-dimensional information on the position of the top of the head.
前記身長が変わらないとして前記第1の直線上の3次元的な第1の位置と、前記第2の直線上の3次元的な第2の位置とを求め、撮影時刻の間隔から前記基準フレームの撮影時刻における前記人物の移動速度を求めるステップと、
前記基準フレームの直前の基準フレームについて求められた3次元的な頭頂部位置および前記移動速度から求められた現在の前記基準フレームに対応する3次元的な頭頂部位置と、現在推定した前記3次元的な頭頂部位置との誤差を求めるステップと、
前記誤差を用いて現在の3次元的な頭頂部位置の近傍に人物が存在する可能性を求めるステップとを有することを特徴とする請求項1記載の人物位置推定方法。 And determining the height of the person from the three-dimensional top position;
Assuming that the height does not change, a three-dimensional first position on the first straight line and a three-dimensional second position on the second straight line are obtained, and the reference frame is obtained from an interval of photographing times. Obtaining a moving speed of the person at the shooting time of
The three-dimensional head position determined for the reference frame immediately before the reference frame and the three-dimensional head position corresponding to the current reference frame determined from the moving speed, and the currently estimated three-dimensional Determining an error from a typical top position;
2. The person position estimating method according to claim 1, further comprising a step of obtaining a possibility that a person exists in the vicinity of the current three-dimensional top position using the error.
前記基準フレーム上の1人の人物と、対応する前記前フレーム上のいずれかの人物および前記後フレーム上のいずれかの人物との各組み合わせの各々について前記3次元的な頭頂部位置を推定するステップと、
前記組合せの各々について前記3次元的な頭頂部位置から身長を求めるステップと、
前記身長が最も身長レンジに近い組合せの前記3次元的な頭頂部位置を前記基準フレーム上の人物の位置と推定するステップとを有することを特徴とする請求項1記載の人物位置推定方法。 When a plurality of persons are shown in each of the front frame, the rear frame, and the reference frame,
The three-dimensional top position is estimated for each combination of one person on the reference frame and any corresponding person on the previous frame and any person on the rear frame. Steps,
Obtaining height from the three-dimensional top position for each of the combinations;
The person position estimating method according to claim 1, further comprising: estimating the three-dimensional top position of the combination having the height closest to the height range as the position of the person on the reference frame.
前記前フレーム上の人物の撮影時刻間隔における最大移動可能距離を越える後フレーム上の人物をもつ前記組合せを3次元的な頭頂部位置の推定候補から除外するステップとを有することを特徴とする請求項3記載の人物位置推定方法。 Calculating the distance on the frame of the position of the top of any person on the front frame and the position of the top of any person on the back frame;
And a step of excluding the combination having a person on a rear frame exceeding a maximum movable distance in a photographing time interval of the person on the previous frame from a three-dimensional head position estimation candidate. Item 4. The person position estimation method according to Item 3.
前記身長が変わらないとして前記第1の直線上の3次元的な第1の位置と、前記第2の直線上の3次元的な第2の位置とを求め、撮影時刻の間隔から前記基準フレームの撮影時刻における前記人物の移動速度を求めるステップと、
前記基準フレームの直前の基準フレームについて求められた3次元的な頭頂部位置および前記移動速度から現在の前記基準フレームに対応する第2の3次元的な頭頂部位置を各人物について求めるステップと、
推定された前記3次元的な頭頂部位置のうち、前記第2の3次元的な頭頂部位置との距離が最小の位置を人物位置として確定するステップとを有することを特徴とする請求項3記載の人物位置推定方法。 Estimating the three-dimensional top position for each combination where the height falls within a predetermined height range; and
Assuming that the height does not change, a three-dimensional first position on the first straight line and a three-dimensional second position on the second straight line are obtained, and the reference frame is obtained from an interval of photographing times. Obtaining a moving speed of the person at the shooting time of
Obtaining for each person a second three-dimensional head position corresponding to the current reference frame from the three-dimensional head position determined for the reference frame immediately before the reference frame and the moving speed;
4. A step of determining a position having a minimum distance from the second three-dimensional top position among the estimated three-dimensional top positions as a person position. The person position estimation method described.
前記画像処理装置は、
前記録画装置に蓄積されたフレーム画像とその撮影時刻をメモリに入力する手段と、
第1のカメラで撮影された連続する2フレーム分の画像を前フレームと後フレームとして特定する手段と、
第1のカメラとは別の第2のカメラで撮影され、前記前フレームと前記後フレームとの間の撮影時刻であって前記後フレームの撮影時刻に最も近い時刻に撮影されたフレーム画像を基準フレームとして特定する手段と、
前記の前フレーム、後フレームおよび基準フレームの各画像から人物が映っている領域を推定する手段と、
推定された人物領域の各々から人物の頭頂部を推定する手段と、
前記前フレーム上の頭頂部に対応し前記第1のカメラの光学中心を通る3次元空間上の第1の直線および前記後フレーム上の頭頂部に対応し前記第1のカメラの光学中心を通る3次元空間上の第2の直線によって形成される3次元空間上の平面あるいは同一直線と、前記基準フレーム上の頭頂部に対応し前記第2のカメラの光学中心を通る3次元空間上の直線との交点あるいは最接近点を計算し、人物の3次元的な頭頂部位置を推定する手段と,
前記3次元的な頭頂部位置の情報に基づいて床面上の人物位置を表示する手段とを有することを特徴とする人物位置推定システム。 A group of cameras arranged so that the same person can be photographed by two or more asynchronous cameras, a frame image photographed by each camera and a recording device for recording the photographing time, and a person using the frame image An image processing apparatus for estimating a position in a dimensional space,
The image processing apparatus includes:
Means for inputting a frame image stored in the recording device and a photographing time thereof into a memory;
Means for specifying two consecutive frames of images taken by the first camera as a previous frame and a subsequent frame;
A frame image taken by a second camera different from the first camera and taken at the time between the previous frame and the rear frame and closest to the time of the rear frame is used as a reference. Means to identify as a frame;
Means for estimating a region in which a person is shown from the images of the front frame, the rear frame, and the reference frame;
Means for estimating the head of the person from each of the estimated person regions;
A first straight line in a three-dimensional space corresponding to the top of the head on the front frame and passing through the optical center of the first camera and a top of the head on the back frame corresponding to the top of the head on the first frame. A plane in the three-dimensional space or the same straight line formed by the second straight line in the three-dimensional space, and a straight line in the three-dimensional space corresponding to the top of the head on the reference frame and passing through the optical center of the second camera Means for calculating the intersection or closest point of the object and estimating the three-dimensional head position of the person,
And a means for displaying a person position on the floor based on the three-dimensional information on the position of the top of the head.
前記3次元的な頭頂部位置から前記人物の身長を求める手段と、
前記身長が変わらないとして前記第1の直線上の3次元的な第1の位置と、前記第2の直線上の3次元的な第2の位置とを求め、撮影時刻の間隔から前記基準フレームの撮影時刻における前記人物の移動速度を求める手段と、
前記基準フレームの直前の基準フレームについて求められた3次元的な頭頂部位置および前記移動速度から求められた現在の前記基準フレームに対応する3次元的な頭頂部位置と、現在推定した前記3次元的な頭頂部位置との誤差を求める手段と、
前記誤差を用いて現在の3次元的な頭頂部位置の近傍に人物が存在する可能性を求める手段とを有することを特徴とする請求項10記載の人物位置推定システム。 The image processing apparatus further includes:
Means for determining the height of the person from the three-dimensional top position;
Assuming that the height does not change, a three-dimensional first position on the first straight line and a three-dimensional second position on the second straight line are obtained, and the reference frame is obtained from an interval of photographing times. Means for determining the moving speed of the person at the shooting time;
The three-dimensional head position determined for the reference frame immediately before the reference frame and the three-dimensional head position corresponding to the current reference frame determined from the moving speed, and the currently estimated three-dimensional A means for obtaining an error from a typical top position;
11. The person position estimation system according to claim 10, further comprising means for determining a possibility that a person exists in the vicinity of the current three-dimensional top position using the error.
前記基準フレーム上の1人の人物と、対応する前記前フレーム上のいずれかの人物および前記後フレーム上のいずれかの人物との各組み合わせの各々について前記3次元的な頭頂部位置を推定する手段と、
前記組合せの各々について前記3次元的な頭頂部位置から身長を求める手段と、
前記身長が最も身長レンジに近い組合せの前記3次元的な頭頂部位置を前記基準フレーム上の人物の位置と推定する手段とを有することを特徴とする請求項10記載の人物位置推定システム。 In the case where a plurality of persons are captured in each of the front frame, the rear frame, and the reference frame, the image processing apparatus further includes:
The three-dimensional top position is estimated for each combination of one person on the reference frame and any corresponding person on the previous frame and any person on the rear frame. Means,
Means for determining height from the three-dimensional top position for each of the combinations;
11. The person position estimating system according to claim 10, further comprising means for estimating the position of the person on the reference frame with the three-dimensional top position of the combination having the height closest to the height range.
前記前フレーム上のいずれかの人物の頭頂部の位置と前記後フレーム上のいずれかの人物との頭頂部の位置のフレーム上の距離を計算する手段と、
前記前フレーム上の人物の撮影時刻間隔における最大移動可能距離を越える後フレーム上の人物をもつ前記組合せを3次元的な頭頂部位置の推定候補から除外する手段とを有することを特徴とする請求項12記載の人物位置推定システム。 The image processing apparatus further includes:
Means for calculating the distance on the frame of the position of the top of any person on the front frame and the position of the top of any person on the back frame;
And a means for excluding the combination having a person on a rear frame exceeding a maximum movable distance in a photographing time interval of the person on the previous frame from a three-dimensional top position estimation candidate. Item 13. The person position estimation system according to Item 12.
The image processing apparatus divides the floor surface into a plurality of blocks each having the same size when displaying the position of the person on the floor surface, and exists in each block of the possibility distribution in which the person exists. 12. The person position estimation system according to claim 11, wherein an evaluation value obtained by integrating the possibility is obtained, and the possibility of existence of a person in the block is displayed by shading according to the magnitude of the integrated evaluation value. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006051900A JP2007233523A (en) | 2006-02-28 | 2006-02-28 | Person location estimation method using asynchronous camera image and system therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006051900A JP2007233523A (en) | 2006-02-28 | 2006-02-28 | Person location estimation method using asynchronous camera image and system therefor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007233523A true JP2007233523A (en) | 2007-09-13 |
Family
ID=38554080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006051900A Withdrawn JP2007233523A (en) | 2006-02-28 | 2006-02-28 | Person location estimation method using asynchronous camera image and system therefor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007233523A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009143722A (en) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Corp | Person tracking apparatus, person tracking method and person tracking program |
JP2009223693A (en) * | 2008-03-17 | 2009-10-01 | Glory Ltd | Person counting device and person counting method |
JP2010199701A (en) * | 2009-02-23 | 2010-09-09 | Fujitsu Ltd | Image processing apparatus, image processing method, and image processing program |
JP2010206405A (en) * | 2009-03-02 | 2010-09-16 | Secom Co Ltd | Image monitoring device |
JP2012014281A (en) * | 2010-06-29 | 2012-01-19 | Canon Inc | Information processing device and operation method thereof |
JP2012159957A (en) * | 2011-01-31 | 2012-08-23 | Secom Co Ltd | Moving object tracking device |
JP2012216180A (en) * | 2011-03-30 | 2012-11-08 | Advanced Telecommunication Research Institute International | Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction |
JP2016162307A (en) * | 2015-03-03 | 2016-09-05 | 国立大学法人 和歌山大学 | Height estimation method and height estimation system |
JP2017103602A (en) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | Position detection device, and position detection method and program |
WO2019186677A1 (en) * | 2018-03-27 | 2019-10-03 | 株式会社日立製作所 | Robot position/posture estimation and 3d measurement device |
JPWO2018142496A1 (en) * | 2017-02-01 | 2019-11-07 | 株式会社日立製作所 | 3D measuring device |
JP2020068495A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Information processing apparatus, information processing method and program |
-
2006
- 2006-02-28 JP JP2006051900A patent/JP2007233523A/en not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009143722A (en) * | 2007-12-18 | 2009-07-02 | Mitsubishi Electric Corp | Person tracking apparatus, person tracking method and person tracking program |
JP2009223693A (en) * | 2008-03-17 | 2009-10-01 | Glory Ltd | Person counting device and person counting method |
JP2010199701A (en) * | 2009-02-23 | 2010-09-09 | Fujitsu Ltd | Image processing apparatus, image processing method, and image processing program |
JP2010206405A (en) * | 2009-03-02 | 2010-09-16 | Secom Co Ltd | Image monitoring device |
JP2012014281A (en) * | 2010-06-29 | 2012-01-19 | Canon Inc | Information processing device and operation method thereof |
JP2012159957A (en) * | 2011-01-31 | 2012-08-23 | Secom Co Ltd | Moving object tracking device |
JP2012216180A (en) * | 2011-03-30 | 2012-11-08 | Advanced Telecommunication Research Institute International | Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction |
JP2016162307A (en) * | 2015-03-03 | 2016-09-05 | 国立大学法人 和歌山大学 | Height estimation method and height estimation system |
JP2017103602A (en) * | 2015-12-01 | 2017-06-08 | キヤノン株式会社 | Position detection device, and position detection method and program |
JPWO2018142496A1 (en) * | 2017-02-01 | 2019-11-07 | 株式会社日立製作所 | 3D measuring device |
WO2019186677A1 (en) * | 2018-03-27 | 2019-10-03 | 株式会社日立製作所 | Robot position/posture estimation and 3d measurement device |
JP2020068495A (en) * | 2018-10-26 | 2020-04-30 | キヤノン株式会社 | Information processing apparatus, information processing method and program |
JP7237520B2 (en) | 2018-10-26 | 2023-03-13 | キヤノン株式会社 | Information processing device, information processing method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007233523A (en) | Person location estimation method using asynchronous camera image and system therefor | |
US10893251B2 (en) | Three-dimensional model generating device and three-dimensional model generating method | |
US10565449B2 (en) | Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium | |
Stauffer et al. | Automated multi-camera planar tracking correspondence modeling | |
EP2745171B1 (en) | Projector and control method thereof | |
US7825948B2 (en) | 3D video conferencing | |
CN107273846B (en) | Human body shape parameter determination method and device | |
US9615081B2 (en) | Method and multi-camera portable device for producing stereo images | |
JP2019075156A (en) | Method, circuit, device, and system for registering and tracking multifactorial image characteristic and code executable by related computer | |
JP6619927B2 (en) | Calibration device | |
KR102397343B1 (en) | Method and device for blurring a virtual object in a video | |
JP6749498B2 (en) | Imaging target tracking device and imaging target tracking method | |
JP2012057974A (en) | Photographing object size estimation device, photographic object size estimation method and program therefor | |
WO2022127181A1 (en) | Passenger flow monitoring method and apparatus, and electronic device and storage medium | |
TWI433049B (en) | Interactive service methods and systems for virtual glasses wearing | |
JP4193342B2 (en) | 3D data generator | |
US9525860B2 (en) | Enhancing a spatio-temporal resolution of a depth data stream | |
JP6622575B2 (en) | Control device, control method, and program | |
KR20160119597A (en) | Method for detecting human using plural depth camera and device | |
JP2005135339A (en) | Passers-by detection method and apparatus, and passers-by counter | |
EP2866446B1 (en) | Method and multi-camera portable device for producing stereo images | |
JP2004046464A (en) | Apparatus and method for estimating three-dimensional position of mobile object, program, and recording medium thereof | |
JP2002117403A (en) | Image processor and image processing method | |
JP2009210486A (en) | Depth data generating device, depth data generation method, and program thereof | |
JP4825350B2 (en) | Passing object counting device and counting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20081223 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20091110 |