JP2007233523A - Person location estimation method using asynchronous camera image and system therefor - Google Patents

Person location estimation method using asynchronous camera image and system therefor Download PDF

Info

Publication number
JP2007233523A
JP2007233523A JP2006051900A JP2006051900A JP2007233523A JP 2007233523 A JP2007233523 A JP 2007233523A JP 2006051900 A JP2006051900 A JP 2006051900A JP 2006051900 A JP2006051900 A JP 2006051900A JP 2007233523 A JP2007233523 A JP 2007233523A
Authority
JP
Japan
Prior art keywords
person
frame
dimensional
camera
possibility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006051900A
Other languages
Japanese (ja)
Inventor
Michio Oikawa
通雄 及川
Miho Kobayashi
美保 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2006051900A priority Critical patent/JP2007233523A/en
Publication of JP2007233523A publication Critical patent/JP2007233523A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To construct a system for estimating a location of a person in a space at a low cost by using an image photographed by a camera. <P>SOLUTION: The same person is photographed by two or more asynchronous cameras, and continuous adjacent frames photographed by a reference camera are selected, and a base camera and base frame photographed between the adjacent frames are selected, and the person region in each frame image is estimated, and the top of the head part of the person is estimated from each person region, and the three-dimensional top of the head position of the person is estimated by using the position information of each of the top of the head parts of the adjacent frames and the base frame. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、非同期の複数のカメラ映像を利用し、人物の位置を推定する技術に関する。   The present invention relates to a technique for estimating the position of a person using a plurality of asynchronous camera videos.

近年の安全への意識の高まりや、カメラの低価格化などより、監視システムに対するニーズが高まってきている。また、監視目的だけでなく、カメラを用いて人物の位置情報などを収集することにより、顧客に対するサービスを向上させたり、売り上げ拡大を図りたいというニーズも増加してきている。   In recent years, there has been an increasing need for surveillance systems due to increased awareness of safety and lower prices for cameras. In addition to the purpose of monitoring, there is an increasing need to improve services for customers and expand sales by collecting position information of people using cameras.

このような目的のためには、広範囲の情報を取得する必要があるが、広い範囲の情報を取得するためには、1台のカメラだけでカバーすることは不可能であるとともに、3次元的な位置情報を得るためには、マルチカメラによる撮影が必要となる。複数台のカメラを用いて人物の位置情報を取得するには、一般的には、各カメラの同期を取ることが必要となるが、厳密な同期は困難であったり、システムが高価になってしまったりするという課題がある。   For such a purpose, it is necessary to acquire a wide range of information. However, in order to acquire a wide range of information, it is impossible to cover with only one camera, and three-dimensional In order to obtain accurate position information, it is necessary to shoot with a multi-camera. In order to acquire position information of people using multiple cameras, it is generally necessary to synchronize each camera. However, exact synchronization is difficult or the system becomes expensive. There is a problem of being fooled.

そこで、カメラの同期を不要とするため、複数のカメラを利用せずに、1台のカメラの画像から人物位置を推定する方法として、特許文献1のように、想定する人物の身長の可能性分布を利用し、1台のカメラから人物の3次元位置を推定するための技術が開示されている。   Therefore, as a method for estimating the position of a person from an image of one camera without using a plurality of cameras in order to eliminate the need for camera synchronization, the possibility of the assumed person's height as in Patent Document 1 is assumed. A technique for estimating a three-dimensional position of a person from one camera using a distribution is disclosed.

また、非特許文献1には、同期したカメラの画像を使わずに、2台のカメラに写った位置情報を補間することにより、幾何学的に3次元位置情報を求めるための技術が述べられている。   Non-Patent Document 1 describes a technique for geometrically obtaining three-dimensional position information by interpolating position information captured by two cameras without using synchronized camera images. ing.

特開2004−302700号公報JP 2004-302700 A S. Shimizu, et al, “A Pseudo Stereo Vision Method for Unsynchronized Cameras”, ACCV2004, pp.363-368(2004).S. Shimizu, et al, “A Pseudo Stereo Vision Method for Unsynchronized Cameras”, ACCV2004, pp.363-368 (2004).

まず、上記特許文献1記載の方法においては、特定の場所や時間においては身長の可能性分布の精度がある程度期待できるが、一般の環境においては精度が落ちてしまうことが考えられる。また、複数のカメラに写った人物の情報から、3次元位置を求めようとする場合、従来一般的である色や形状などの特徴情報を用いたマッチング方法では、同期撮影された2台のカメラを用いる必要があり、一つのカメラに写った人物と別のカメラに写った同じ人物を同定する際には、カメラの方向により写り方が異なる場合に、同一人物と認識することができないという課題が存在する。   First, in the method described in Patent Document 1, the accuracy of the possibility distribution of height can be expected to some extent at a specific place and time, but it is considered that the accuracy is lowered in a general environment. In addition, when a three-dimensional position is to be obtained from information on a person captured by a plurality of cameras, two cameras that have been photographed synchronously are used in a conventional matching method using characteristic information such as color and shape. When identifying the same person in one camera and the same person in another camera, it is not possible to recognize that the person is the same person when the method of shooting differs depending on the camera direction. Exists.

また、前述のように、複数カメラで完全に同期をとった撮影をすることは、コストが高くなり、非同期の複数のカメラを利用したいが、上記の非特許文献1に記載の技術では、それぞれのカメラに写っているものは一つであり、対応関係が明らかとなっていることが前提であり、非同期カメラにおいて、同一の人物を決定することが難しいという課題がある。   In addition, as described above, it is costly to take a completely synchronized image with a plurality of cameras, and it is desired to use a plurality of asynchronous cameras. However, in the technique described in Non-Patent Document 1, There is one that is reflected in the camera, and it is premised that the correspondence is clear, and there is a problem that it is difficult to determine the same person in the asynchronous camera.

本発明は、複数台の非同期カメラを用いて人物の3次元空間における位置を推定する技術を特徴とする。より詳細には、本発明は、各カメラで撮影されたフレーム画像とその撮影時刻をメモリに入力し、第1のカメラで撮影された連続する2フレーム分の画像を前フレームと後フレームとして特定し、第1のカメラとは別の第2のカメラで撮影され、前フレームと後フレームとの間の撮影時刻であって後フレームの撮影時刻に最も近い時刻に撮影されたフレーム画像を基準フレームとして特定し、前フレーム、後フレームおよび基準フレームの各画像から人物が映っている領域を推定し、推定された人物領域の各々から人物の頭頂部を推定し、前フレーム、後フレームおよび基準フレームの各頭頂部の位置情報を用いて人物の3次元的な頭頂部位置を推定し、その位置情報に基づいて床面上の人物位置を表示する。   The present invention is characterized by a technique for estimating the position of a person in a three-dimensional space using a plurality of asynchronous cameras. More specifically, the present invention inputs a frame image taken by each camera and its shooting time into a memory, and specifies two consecutive frames taken by the first camera as a front frame and a rear frame. A frame image taken by a second camera different from the first camera and taken at a time between the previous frame and the rear frame and closest to the rear frame is taken as a reference frame. The area in which the person is reflected is estimated from the images of the previous frame, the rear frame, and the reference frame, the head of the person is estimated from each of the estimated person areas, and the front frame, the rear frame, and the reference frame are estimated. Is used to estimate the three-dimensional top position of the person and display the position of the person on the floor based on the position information.

また本発明の1つの実施例によれば、撮影時刻の間隔の間に移動した人物の位置の差分から移動速度を求め、基準フレームの直前の基準フレームについて求められた3次元的な頭頂部位置および移動速度から求められた現在の基準フレームに対応する3次元的な頭頂部位置と、現在推定した3次元的な頭頂部位置との誤差を求め、その誤差を用いて現在の3次元的な頭頂部位置の近傍に人物が存在する可能性を求める。   Further, according to one embodiment of the present invention, the moving speed is obtained from the difference in the position of the person who has moved during the shooting time interval, and the three-dimensional top position determined for the reference frame immediately before the reference frame. And an error between the three-dimensional top position corresponding to the current reference frame obtained from the moving speed and the currently estimated three-dimensional top position, and using the error, the current three-dimensional position is calculated. The possibility that a person exists in the vicinity of the top position is obtained.

本発明により、複数台のカメラを用い、広範囲の撮影を行うような場合にも、安価な非同期カメラを使うことができ、低コストで人物位置を推定することができるという効果がある。また、本発明によれば、誤差はあるものの人物のおよその位置を推定して確認することができるという効果がある。さらに、頭頂部位置を利用することによって、足元の情報を用いる場合よりもテーブルや棚などの障害物で画像を取得できないことが少なくなるため、安定的に人物位置を求めることが可能となる。   According to the present invention, even when a wide range of shooting is performed using a plurality of cameras, an inexpensive asynchronous camera can be used, and the person position can be estimated at a low cost. In addition, according to the present invention, there is an effect that an approximate position of a person can be estimated and confirmed although there is an error. Furthermore, by using the position of the top of the head, since it is less likely that an image cannot be acquired with an obstacle such as a table or a shelf, compared to the case of using the information at the foot, it is possible to obtain the person position stably.

小売店などで顧客などの人物の位置情報を取得することを想定し、複数の非同期カメラを用いて建物内の人物位置を推定するための方法について、以下の実施例により実現方法を説明する。   Assuming that position information of a person such as a customer is acquired at a retail store or the like, a method for estimating the position of a person in a building using a plurality of asynchronous cameras will be described with reference to the following embodiments.

図1は、本発明を実現する1実施例のシステム構成図である。空間を撮影する複数のカメラとして有線カメラ1−1から有線カメラ1−mの有線カメラ群1が撮影した映像を、ネットワーク7を介して録画装置9に送り、録画装置9に蓄積する。また、カメラは無線カメラでもよく、無線カメラ3−1から無線カメラ3−nの無線カメラ群3が撮影した映像を、無線アクセスポイント5を介しネットワーク7を経由して録画装置9に送り、録画装置9に蓄積する。なお、無線アクセスポイント5は複数存在してもよい。画像処理装置11は、録画装置9に蓄積された撮影画像を利用して人物位置推定を行い、その結果を表示装置13に表示する。なお、録画装置9、画像処理装置11および表示装置13は、1台のコンピュータとして一体のものであってもよい。   FIG. 1 is a system configuration diagram of an embodiment for realizing the present invention. Images taken by the wired camera group 1 of the wired camera 1-m from the wired camera 1-1 as a plurality of cameras that capture the space are sent to the recording device 9 via the network 7 and stored in the recording device 9. Also, the camera may be a wireless camera, and the video captured by the wireless camera group 3 of the wireless camera 3-n from the wireless camera 3-1 is sent to the recording device 9 via the network 7 via the wireless access point 5 for recording. Accumulate in device 9. A plurality of wireless access points 5 may exist. The image processing device 11 performs person position estimation using the captured image stored in the recording device 9 and displays the result on the display device 13. The recording device 9, the image processing device 11, and the display device 13 may be integrated as one computer.

画像処理装置11の内部構成について図2を用いてさらに説明する。画像処理装置11は、プロセッサおよびメモリを備えるコンピュータであり、画像メモリ15、カメラパラメータ記憶部17、制御部19および入出力部26を有する。画像メモリ15およびカメラパラメータ記憶部17は、メモリ上に設けられる。制御部19は、基準/参照カメラ選択部20、人物領域推定部21、頭頂部位置推定部22、3次元頭頂部位置推定部23、移動量推定部24および存在可能性推定部25の各プログラムを有する。制御部19は、メモリ上に格納されるこれらプログラムをプロセッサにより実行する。また制御部19のメモリは、これらプログラムへの入力データおよび処理結果を一時的に格納する。画像処理装置11は、録画装置9、表示装置13および入力装置27と接続する。入出力部26は、これらの装置と画像処理装置11のメモリとの間のデータの入出力を制御する。   The internal configuration of the image processing apparatus 11 will be further described with reference to FIG. The image processing apparatus 11 is a computer including a processor and a memory, and includes an image memory 15, a camera parameter storage unit 17, a control unit 19, and an input / output unit 26. The image memory 15 and the camera parameter storage unit 17 are provided on the memory. The control unit 19 includes programs for the reference / reference camera selection unit 20, the human region estimation unit 21, the top position estimation unit 22, the three-dimensional top position estimation unit 23, the movement amount estimation unit 24, and the existence possibility estimation unit 25. Have The control unit 19 executes these programs stored in the memory by the processor. The memory of the control unit 19 temporarily stores input data and processing results for these programs. The image processing device 11 is connected to the recording device 9, the display device 13 and the input device 27. The input / output unit 26 controls input / output of data between these devices and the memory of the image processing device 11.

画像処理装置11は、入出力部26を介し、録画装置9に記録された画像データを取得し、画像メモリ15に記憶する。また、カメラパラメータ記憶部17は、事前に求められた各カメラの画角、画素数などの内部パラメータや、空間におけるカメラの位置などの外部パラメータを記憶する。画角とは、カメラが撮像可能な視野角であり、水平方向の画角および垂直方向の画角を含む。制御部19は、格納されるプログラムを実行することにより、録画装置9に蓄積された各フレーム画像とその撮影時刻を画像メモリ15に入力して一時保存し、カメラパラメータ記憶部17に記憶された情報などを用いてフレーム中の人物画像を解析し、3次元空間における人物位置の推定を行う。各フレーム画像には、その画像を撮影したカメラの識別子が付加されている。   The image processing device 11 acquires the image data recorded in the recording device 9 via the input / output unit 26 and stores it in the image memory 15. The camera parameter storage unit 17 stores internal parameters such as the angle of view and the number of pixels obtained in advance and external parameters such as the position of the camera in space. The field angle is a viewing angle that can be captured by the camera, and includes a horizontal field angle and a vertical field angle. The control unit 19 executes the stored program to input each frame image accumulated in the recording device 9 and its shooting time into the image memory 15 to temporarily store the frame image and store it in the camera parameter storage unit 17. The person image in the frame is analyzed using information or the like, and the person position in the three-dimensional space is estimated. Each frame image is appended with the identifier of the camera that captured the image.

続いて、図1の構成を用いて人物位置を推定する例について、図4のような3台のカメラで室内を撮影している環境を想定し、人物位置推定を行う方法について、図5を用いて説明する。図4は、室内を上から見たときのカメラ位置と撮影範囲を示した平面図である。カメラA(図中30A)、カメラB(図中30B)、カメラC(図中30C)により撮影されない空間が領域33、1台のカメラのみで撮影される空間が領域34、2台のカメラで撮影される空間が領域35、3台のカメラで撮影される空間が領域36である。各カメラの位置、方向、画角は事前に調べられているものとし、3台のカメラを組み合わせたときの撮影領域の重なりについての情報は事前に既知であるとする。また、撮影する空間の形状や大きさなどの情報も既知であるとする。ここで、室内を撮影することを想定する場合には、入口と出口付近の空間については、少なくとも2台以上のカメラで撮影するようにカメラを配置することが望ましい。   Next, with respect to an example in which the position of a person is estimated using the configuration of FIG. 1, assuming an environment in which the room is photographed with three cameras as shown in FIG. It explains using. FIG. 4 is a plan view showing the camera position and shooting range when the room is viewed from above. A space not photographed by camera A (30A in the figure), camera B (30B in the figure), and camera C (30C in the figure) is area 33, and a space photographed by only one camera is area 34 and two cameras. A space to be photographed is a region 35, and a space photographed by three cameras is a region 36. It is assumed that the position, direction, and angle of view of each camera have been examined in advance, and information about the overlap of the shooting areas when three cameras are combined is known in advance. It is also assumed that information such as the shape and size of the space to be photographed is also known. Here, when it is assumed that the room is to be photographed, it is desirable to arrange the cameras so that the space near the entrance and the exit is photographed by at least two cameras.

カメラA〜CはWebカメラとして市販されているものを利用することを想定する。これらのカメラは同期をとることはできないが、外部から内部時計の時刻をセットすることが可能で、カメラA〜Cの内部時計は一致しているものとする。そして、各カメラで撮影された画像は、録画装置9に撮影時刻と共に記録される。また、このカメラは、撮影した画像を圧縮し、図1に示すように、撮影画像をネットワーク7を介して録画装置9へ送り、蓄積するが、撮影する対象により圧縮に必要な時間が異なるため、各カメラの各フレーム画像の撮影時刻は異なることを想定する。例えば、図5のように、カメラAのフレーム画像の撮影時刻は40、41、カメラBの撮影時刻は42、43、44、カメラCの撮影時刻は45、46のようになっているものとする。   Assume that the cameras A to C use commercially available web cameras. Although these cameras cannot be synchronized, the time of the internal clock can be set from the outside, and the internal clocks of the cameras A to C are assumed to be the same. And the image image | photographed with each camera is recorded on the video recording apparatus 9 with imaging | photography time. In addition, this camera compresses the captured image and sends the captured image to the recording device 9 via the network 7 and stores it as shown in FIG. 1, but the time required for compression differs depending on the subject to be captured. It is assumed that the shooting time of each frame image of each camera is different. For example, as shown in FIG. 5, the shooting time of the frame image of camera A is 40, 41, the shooting time of camera B is 42, 43, 44, and the shooting time of camera C is 45, 46. To do.

このような想定のもとに図3のフローチャートに沿って処理の流れを説明する。まず、制御部19は、入力装置27から入力された人物位置推定結果の表示を開始する命令をメモリに入力する(ステップS100)。制御部19は、表示終了命令が入力されるまで、以下の人物位置推定処理を繰り返し、終了命令が入力されれば処理を終了する(ステップS104)。基準/参照カメラ選択部20は、画像メモリ15に入力されたフレーム画像に対応するカメラの識別子を参照し、人物位置推定処理の最初に、録画装置9に連続して2フレーム分画像が記録されたカメラを参照カメラとする(ステップS105)。例えば図5のような場合に、撮影時刻t-τ1(図中42)の時点で表示開始命令が入力されたとすると、最初に2フレーム分の画像が録画装置9に蓄積されたカメラBを参照カメラとする。そして、基準/参照カメラ選択部20は、その2つのフレームを前後フレームとし、時刻t-τ1とt+τ2(図中43)との間で最も時刻t+τ2に近い時刻tに撮影したカメラを基準カメラとし、そのフレームを基準フレームとする(ステップS106)。例えば図5の場合には、カメラAが基準カメラとなり、時刻t(図中40)のフレームが基準フレームとなる。   Based on this assumption, the flow of processing will be described along the flowchart of FIG. First, the control part 19 inputs the command which starts the display of the person position estimation result input from the input device 27 to memory (step S100). The control unit 19 repeats the following person position estimation process until a display end command is input, and ends the process if an end command is input (step S104). The reference / reference camera selection unit 20 refers to the identifier of the camera corresponding to the frame image input to the image memory 15, and two frames of images are continuously recorded in the recording device 9 at the beginning of the person position estimation process. The selected camera is set as a reference camera (step S105). For example, in the case of FIG. 5, if a display start command is input at the time of shooting time t-τ1 (42 in the figure), refer to the camera B in which images for two frames are first stored in the recording device 9. A camera. Then, the reference / reference camera selection unit 20 uses the two frames as the preceding and following frames, and the camera is taken at time t closest to time t + τ2 between time t-τ1 and t + τ2 (43 in the figure). Is a reference camera, and that frame is a reference frame (step S106). For example, in the case of FIG. 5, the camera A is the reference camera, and the frame at time t (40 in the figure) is the reference frame.

次に、人物領域推定部21は、画像メモリ15中の基準フレーム画像および前後フレーム画像を参照し、これらの画像の中から人物が写っている領域を推定する(ステップS112)。推定の方法としては、人物の写っていないときの画像を背景として記憶しておき、背景差分により人物領域を推定すれば良いが、サーモセンサの情報を利用するなど、他の方法を用いてもよい。次に、頭頂部位置推定部22は、人物領域の中から、頭頂部位置を推定する(ステップS114)。頭頂部は人物領域中の最も高い位置として推定すればよい。   Next, the person area estimation unit 21 refers to the reference frame image and the previous and next frame images in the image memory 15, and estimates an area in which a person is captured from these images (step S112). As an estimation method, an image when a person is not captured may be stored as a background, and a person area may be estimated based on a background difference. However, other methods such as using thermosensor information may be used. Good. Next, the parietal position estimation unit 22 estimates the parietal position from the person area (step S114). The top of the head may be estimated as the highest position in the person area.

次に、3次元頭頂部位置推定部23は、各フレーム画像で推定された頭頂部位置から、3次元的な頭頂部位置を推定する(ステップS116)。その方法について図6を用いて説明する。カメラAの光学中心がC1、カメラBの光学中心がC2とし、時刻tに撮影したカメラAのフレーム画像51中に写った人物の頭頂部が点p、カメラBにより時刻t-τ1に撮影したフレーム画像52中に写った人物の頭頂部が点q、時刻t+τ2に撮影したフレーム画像53に写った人物の頭頂部が点rであるとする。図6では、各フレーム画像は、カメラの位置、方向、画角から、3次元空間における投影面として配置してある。このとき、撮影間隔がそれほど長くないことを想定すると、人物の頭頂部位置の高さはその間に変わらないと近似することが可能であり、カメラBの光学中心C2と点q、点rとからなる平面と、カメラAの光学中心C1と点pを結ぶ直線の交点Pを人物の3次元的な頭頂部位置であると推定することが可能である。ここで、推定された3次元位置から、人物の身長と床面上の人物位置(頭頂部位置からの垂線が床面と交わる位置)を求め、身長が事前に想定した人物らしい身長、例えば大人を想定すれば150〜200cmの範囲に入っているか、また、撮影空間の情報、すなわち、部屋の広さや、机、棚などから、人の存在し得ない領域であるかどうかの判定を行い、正しそうな結果であれば人物位置として採用し、正しくなさそうな結果であれば、採用しないとする。   Next, the three-dimensional head position estimation unit 23 estimates a three-dimensional head position from the head position estimated in each frame image (step S116). The method will be described with reference to FIG. The optical center of camera A is C1, the optical center of camera B is C2, and the head of the person in the frame image 51 of camera A taken at time t is taken at point p, and camera B takes the picture at time t-τ1. It is assumed that the top of the person shown in the frame image 52 is the point q and the top of the person shown in the frame image 53 taken at time t + τ2 is the point r. In FIG. 6, each frame image is arranged as a projection plane in a three-dimensional space from the position, direction, and angle of view of the camera. At this time, assuming that the shooting interval is not so long, it is possible to approximate that the height of the person's top position does not change in the meantime, and from the optical center C2 of the camera B, the point q, and the point r It is possible to estimate that the intersection P between the plane and the straight line connecting the optical center C1 of the camera A and the point p is the three-dimensional top position of the person. Here, from the estimated three-dimensional position, the height of the person and the position of the person on the floor (the position where the perpendicular from the top position intersects the floor) are obtained, and the height of the person assumed in advance is, for example, an adult If it is assumed that it is in the range of 150-200cm, it is judged whether it is an area where people can not exist from the information of the shooting space, that is, the size of the room, desk, shelf, etc. If the result seems to be correct, it is adopted as the position of the person, and if the result does not seem correct, it is not adopted.

カメラの位置と角度からカメラの光学中心を通る3次元の主軸の式を計算することができ、この主軸は、フレームの中心である原点(0,0)を通る3次元空間上の直線に一致するはずである。またフレームのX軸とフレーム終端の交点およびY軸とフレーム終端の交点が各々水平方向の画角を示す直線および垂直方向の画角を示す直線に対応する。従ってカメラAで撮影した2次元フレーム上の任意の点p(X,Y)に対応する3次元空間上の直線は、(X,Y)の比例配分に応じて光学中心C1を通る直線の式で表現される。同様にカメラBで撮影した2次元フレーム上の点q,rもそれぞれ光学中心C2を通る3次元空間上の2本の直線の式で表現される。光学中心C2とこれら2本の直線によって形成される3次元空間上の平面と、光学中心C1を通る上記の直線との交点がP(x,y,z)となる。   From the camera position and angle, it is possible to calculate a 3D principal axis formula that passes through the optical center of the camera, and this principal axis coincides with a straight line in the 3D space that passes through the origin (0,0) that is the center of the frame. Should do. Further, the intersection of the X axis and the end of the frame and the intersection of the Y axis and the end of the frame respectively correspond to a straight line indicating the horizontal field angle and a straight line indicating the vertical field angle. Therefore, the straight line in the three-dimensional space corresponding to an arbitrary point p (X, Y) on the two-dimensional frame photographed by the camera A is an equation of a straight line passing through the optical center C1 according to the proportional distribution of (X, Y). It is expressed by Similarly, the points q and r on the two-dimensional frame photographed by the camera B are also expressed by two straight lines on the three-dimensional space passing through the optical center C2. The intersection of the plane in the three-dimensional space formed by the optical center C2 and these two straight lines and the straight line passing through the optical center C1 is P (x, y, z).

3次元頭頂部位置推定部23は、カメラパラメータ記憶部17に格納されるカメラパラメータを用いて点p(X,Y)に対応する3次元空間上の直線の式を算出することができる。3次元頭頂部位置推定部23は、フレーム画像の画素数から点p,q,rの各々の2次元座標値を求め、カメラの位置、角度、画角の情報を用いて各2次元座標値から3つの直線の式を求め、C2を通る2本の直線の式から3次元空間上の平面の式を求め、C1を通る直線の式とこの平面の式とから点Pの座標値を求める。3次元頭頂部位置推定部23は、このようにして計算の途中結果をメモリに一時記憶しながら計算を進め、算出した点Pの座標値をメモリに一時保存する。   The three-dimensional head position estimation unit 23 can calculate a formula of a straight line in the three-dimensional space corresponding to the point p (X, Y) using the camera parameters stored in the camera parameter storage unit 17. The three-dimensional head position estimation unit 23 obtains two-dimensional coordinate values of each of the points p, q, and r from the number of pixels of the frame image, and uses each two-dimensional coordinate value using information on the camera position, angle, and angle of view. From the two straight line equations passing through C2, the three-dimensional space equation is obtained, and the coordinate value of the point P is obtained from the straight line equation passing through C1 and this plane equation. . The three-dimensional head position estimation unit 23 advances the calculation while temporarily storing the calculation result in the memory in this manner, and temporarily stores the calculated coordinate value of the point P in the memory.

もし人物が移動せず、2次元フレーム上の点q,rがほぼ同一位置にあれば、3次元空間上の直線は1本となるから、カメラAによる直線がカメラBによる直線と最接近したところの点を点Pの位置とすればよい。   If the person does not move and the points q and r on the two-dimensional frame are almost at the same position, the straight line in the three-dimensional space is one, so the straight line from the camera A is closest to the straight line from the camera B. The point may be the position of the point P.

そして、実施例1の場合にはS116からS120に移り、制御部19は、上記の方法により推定された床面上の人物位置を表示装置13に表示する(ステップS120)。人物位置表示終了命令がない場合にはステップS105へ戻り、時刻t以降で同一カメラで2フレームの画像が録画装置9に記録され、かつ、その2フレームの撮影間隔内に別のカメラの撮影フレームが存在する条件をチェックし、参照カメラを決定し、続いてステップS106により基準カメラと基準フレームを決定する。例えば図5の場合には、時刻41のフレーム画像を取得した時点でカメラAが参照カメラとなり、最も時刻41に近い時刻t+τ2(図中43)に撮影したカメラBが基準カメラとなり、そのフレームが基準フレームとなる。   In the case of the first embodiment, the process proceeds from S116 to S120, and the control unit 19 displays the position of the person on the floor estimated by the above method on the display device 13 (step S120). If there is no person position display end command, the process returns to step S105, and after the time t, two frames of images are recorded in the recording device 9 by the same camera, and the shooting frames of another camera are within the shooting interval of the two frames. Is checked, a reference camera is determined, and then a reference camera and a reference frame are determined in step S106. For example, in the case of FIG. 5, when the frame image at time 41 is acquired, camera A becomes the reference camera, and camera B photographed at time t + τ2 (43 in the figure) closest to time 41 becomes the reference camera. The frame becomes the reference frame.

実施例1によれば、同期していない複数のカメラを用いても、人物位置を推定することが可能であり、システムを安価に構築することが可能となる。   According to the first embodiment, the position of a person can be estimated even if a plurality of cameras that are not synchronized are used, and the system can be constructed at low cost.

実施例1の場合、人物の3次元的な頭頂部位置を推定することは可能であるが、この位置情報には様々な誤差が含まれている。例えば、カメラの光学中心位置、撮影時刻、画像中から推定された人物領域、頭頂部位置などに、それぞれ誤差が存在する。そこで、実施例2では図3のフローチャートにおいて、人物の移動速度を推定するステップ(S117)と、人物位置と移動速度と時間の関係を用いて、人物の空間的な存在可能性について推定するステップ(S118)を追加する。   In the case of the first embodiment, it is possible to estimate the three-dimensional top position of the person, but this position information includes various errors. For example, there are errors in the optical center position of the camera, the shooting time, the person area estimated from the image, the position of the top of the head, and the like. Therefore, in the second embodiment, in the flowchart of FIG. 3, the step of estimating the moving speed of the person (S117) and the step of estimating the spatial existence possibility of the person using the relationship between the person position, the moving speed, and the time. (S118) is added.

存在可能性の推定方法について図6を用いて説明する。まず、実施例1の方法により、時刻tにおける人物の3次元頭頂部位置Pが求まる。すると、人物の身長が求まり、前述のように、撮影間隔が十分短いとして身長が変わらないことを想定すると、時刻t-τ1, t+τ2における3次元頭頂部位置Q、Rについて、カメラBの光学中心C2とq、C2とrを結ぶそれぞれの直線上で、床面からの距離が身長に一致する点として求めることが可能である。この結果を利用し、撮影時刻の間隔が十分短いことから等速直線運動を仮定し、移動量推定部24は、QからPへの移動速度(移動方向と速さ)とPからRへの移動速度の平均として、点Pの移動速度を示すベクトルνを求める(ステップS117)。νは、速度のx成分とy成分をもち、z成分をもたない。求めた位置と移動速度は、次の時刻における人物の存在可能性推定が終了するまでメモリに記憶しておく。 A method of estimating the existence possibility will be described with reference to FIG. First, the three-dimensional top position P of the person at time t is obtained by the method of the first embodiment. Then, the height of the person is obtained, and as described above, assuming that the height does not change because the shooting interval is sufficiently short, the three-dimensional top positions Q and R at time t-τ1, t + τ2 It can be obtained as a point where the distance from the floor surface coincides with the height on each straight line connecting the optical centers C2 and q and C2 and r. Using this result, assuming that constant velocity linear motion is assumed because the interval between the photographing times is sufficiently short, the movement amount estimating unit 24 moves the movement speed (movement direction and speed) from Q to P and from P to R. As an average of the moving speeds, a vector ν p indicating the moving speed of the point P is obtained (step S117). ν p has an x component and a y component of velocity, and does not have a z component. The obtained position and movement speed are stored in the memory until the estimation of the presence possibility of the person at the next time is completed.

次に、存在可能性推定部25は、ステップS118において人物の2次元空間的な存在可能性(存在確率)について推定する。前述のように推定された人物位置は点Pを中心として、2次元空間的に存在する可能性がガウス分布状になると仮定し、さらにガウス分布の分散σは前時刻の人物位置と移動速度から推定した位置との誤差に比例させるものとする。例えば、位置P(x,y)に人物が存在する可能性の評価値をF(P)、Pの近傍空間をSとして、以下のように求める。 Next, the existence possibility estimation unit 25 estimates a person's two-dimensional spatial existence possibility (existence probability) in step S118. Assuming that the human position estimated as described above has a Gaussian distribution with the possibility that it exists in a two-dimensional space centered on the point P, the variance σ of the Gaussian distribution is calculated from the human position and the moving speed at the previous time. It shall be proportional to the error from the estimated position. For example, assuming that an evaluation value of the possibility that a person exists at the position P f (x, y) is F (P f ) and the neighborhood space of P f is S, the following is obtained.

Figure 2007233523
ここで点Pは、位置座標値のうちx成分とy成分のみをとるものとし、PとPとの差の絶対値の2乗は、PとP間の距離の2乗を表すものとする。また時刻tの直前のフレーム時刻t'における人物位置の位置P’と移動速度としてのベクトルνp’がメモリに記憶されている場合、数1におけるσは以下に示す数2のように求めるとし、P’とベクトルνp’が記憶されていない場合には、デフォルトのσとしてある範囲の値をとる所定値を用いるとする。
Figure 2007233523
Here the point P is assumed to take only the x and y components of the position coordinates, the square of the absolute value of the difference between P f and P is represents the square of the distance between P f and P And Further, when the position P ′ of the person position at the frame time t ′ immediately before the time t and the vector ν p ′ as the moving speed are stored in the memory, σ in Equation 1 is obtained as shown in Equation 2 below. , P ′ and vector ν p ′ are not stored, a predetermined value taking a certain range of values is used as the default σ.

Figure 2007233523
ここでAは比例定数であり、2つの‖は距離を算出することを示す。σは、点Pと前時刻の位置P’およびその移動速度から推定した位置との距離の差に比例することを示す。
Figure 2007233523
Here, A is a proportionality constant, and two wrinkles indicate that the distance is calculated. σ indicates that it is proportional to the difference in distance between the point P and the position P ′ at the previous time and the position estimated from the moving speed.

存在可能性推定部25は、ステップS120において、人物の存在可能性F(P)を表示する。 In step S120, the existence possibility estimation unit 25 displays a person's existence possibility F (P f ).

以上の方法により、誤差を含む人物位置情報について、空間的な存在可能性分布により、あいまい性を許容した表示を行うことが可能となる。   According to the above method, it is possible to display the human position information including the error by allowing the ambiguity by the spatial existence possibility distribution.

これまでの実施例では、カメラ画像に一人の人物が写っていることを想定していたため、人が少ない環境やカメラの画角が狭い環境の場合での利用にとどまるが、より一般的な環境に適応可能な複数の人物が写っている場合の別の実施例について図7,8,9を用いて説明する。   In the examples so far, it was assumed that a single person was captured in the camera image, so it is limited to use in environments where there are few people or where the angle of view of the camera is narrow. Another embodiment in the case where a plurality of persons who can be applied to is shown will be described with reference to FIGS.

図7のように、カメラAのフレーム画像51に二人の人物が写っており、それぞれの頭頂部位置がp1, p2であるとする。同様に、カメラAのフレーム画像52には人物の頭頂部q1,q2、フレーム画像53には人物の頭頂部r1,r2が写っているものとする。このとき、各人物像はどれとどれが同一人物であるかは分からないと想定すると、p1と同一の頭頂部位置である可能性は、(q1,r1), (q1,r2), (q2, r1), (q2,r2)の4通りが存在する。同様にp2と同一の頭頂部の可能性も4通り考えられる。   As shown in FIG. 7, it is assumed that two persons are shown in the frame image 51 of the camera A, and the positions of the tops of the heads are p1 and p2, respectively. Similarly, it is assumed that the frame image 52 of the camera A includes the head top portions q1 and q2 of the person, and the frame image 53 includes the head top portions r1 and r2 of the person. At this time, assuming that it is unknown which individual person is the same person, the possibility of the same top position as p1 is (q1, r1), (q1, r2), (q2 , r1), (q2, r2). Similarly, there are four possibilities for the same top as p2.

このとき、組み合わせの8通りの全パターンについて、二人の人物の3次元頭頂部位置P1,P2を求める。その結果求められた身長と床面上の位置を調べ、もっともらしい結果を採用する。例えば、図8のようにp1と対応する位置として、q1,r2を採用した場合に求められた人物の3次元頭頂部位置P1(1)は、想定する身長レンジより小さいため採用せず、図9のように、p1と対応する位置として、q1,r1を用いた場合の3次元頭頂部位置P1(2)が想定身長レンジ内かつ、想定空間内ということで採用するものとする。   At this time, the three-dimensional top positions P1 and P2 of two persons are obtained for all eight patterns of combinations. As a result, the height and the position on the floor are determined, and a plausible result is adopted. For example, as shown in FIG. 8, the three-dimensional top position P1 (1) of the person obtained when q1 and r2 are adopted as the positions corresponding to p1 is not adopted because it is smaller than the assumed height range. As shown in FIG. 9, the three-dimensional top position P1 (2) when q1 and r1 are used as the position corresponding to p1 is adopted within the assumed height range and the assumed space.

3次元頭頂部位置推定部23は、S116において、点p1,q1,r1の各々の2次元座標値を用いて上記のような処理によって3次元空間上の位置P1(1)を求める。同様にして他の3通りのパターンについても位置P1(2),P1(3),P1(4)を求める。3次元頭頂部位置推定部23は、位置P1(1)〜P1(4)について各々のz成分を身長として求め、これら身長の中で最も身長レンジに近い位置を点P1としてその座標値をメモリに保存する。3次元頭頂部位置推定部23は、同様に点P2についても3次元空間上の位置P2(1),P2(2),P2(3),P2(4)を求め、そのz成分が最も身長レンジに近い位置を点P2としてその座標値をメモリに保存する。   In S116, the three-dimensional top position estimating unit 23 obtains a position P1 (1) in the three-dimensional space by the above-described processing using the two-dimensional coordinate values of the points p1, q1, and r1. Similarly, the positions P1 (2), P1 (3), and P1 (4) are obtained for the other three patterns. The three-dimensional head position estimation unit 23 obtains each z component as the height for the positions P1 (1) to P1 (4), and stores the coordinate value as a point P1 at the position closest to the height range among these heights. Save to. Similarly, the three-dimensional top position estimating unit 23 obtains positions P2 (1), P2 (2), P2 (3), and P2 (4) in the three-dimensional space for the point P2, and the z component is the tallest. The coordinate value is stored in the memory with a position close to the range as a point P2.

なお想定する身長レンジ内かつ想定空間内の結果が複数存在する可能性が存在する。そのような場合には、撮影場所や時間の条件から撮影空間に存在しそうな人物を想定し、想定身長を分布として定義するものとする。例えば、ビジネス向け展示会であれば、大人の平均身長を最大とする分布を定義し、おもちゃ売り場であれば、子供の平均身長と親の平均身長をピークとする分布を定義するようにすればよい。そして、上記のように求められた人物の3次元頭頂部位置から求まる身長情報から、最も妥当な結果を人物位置として採用するようにすればよい。   There is a possibility that there are a plurality of results in the assumed height range and in the assumed space. In such a case, a person who is likely to exist in the shooting space is assumed from the shooting location and time conditions, and the assumed height is defined as a distribution. For example, if it is an exhibition for business, define a distribution that maximizes the average height of adults, and if it is a toy counter, define a distribution that peaks the average height of children and the average height of parents. Good. Then, the most appropriate result may be adopted as the person position from the height information obtained from the three-dimensional top position of the person obtained as described above.

以上のように、本実施例によれば、複数の人物がカメラ画像に写っていても、人物位置の推定を行うことが可能となる。   As described above, according to the present embodiment, it is possible to estimate a person position even if a plurality of persons are captured in a camera image.

実施例3では、画像に写る人物の数が増えると、調べなければならない組み合わせの数が指数的に増加してしまう。そこで、調べるべき組み合わせの数を減らす方法について、図7の例を用いて説明する。   In the third embodiment, when the number of persons appearing in the image increases, the number of combinations to be examined increases exponentially. Therefore, a method for reducing the number of combinations to be examined will be described using the example of FIG.

まず、参照カメラの前後フレーム画像において、頭頂部位置q1, q2, r1, r2を求める。次に、参照カメラの前フレーム52の画像中からq1を選択する。ここで、撮影空間の特性に応じ、人間の最大移動速度を想定し、例えば早足程度の1.7m/s程度を想定する。すると、撮影画像中で最も移動量が大きくなるのは人がカメラの投影面と平行に移動した場合となり、フレーム画像53との撮影間隔分だけのフレーム内での移動量Lを求めることができる。そこでフレーム画像53については、点q1を中心とした半径Lの範囲内に存在する頭頂部のみを対象として組み合わせを考えればよいこととなる。   First, the top position q1, q2, r1, r2 is obtained in the front and rear frame images of the reference camera. Next, q1 is selected from the images of the previous frame 52 of the reference camera. Here, the maximum moving speed of a person is assumed according to the characteristics of the shooting space, and for example, about 1.7 m / s, which is about a fast pace, is assumed. Then, the movement amount becomes the largest in the photographed image when the person moves in parallel with the projection plane of the camera, and the movement amount L within the frame corresponding to the photographing interval with the frame image 53 can be obtained. . Therefore, for the frame image 53, a combination may be considered only for the top of the head existing within the radius L with the point q1 as the center.

3次元頭頂部位置推定部23は、フレーム画像53について、点q1から点r1,r2,…の各々までのフレーム上の距離を計算し、距離L内に存在する頭頂部位置ri,rj,…をすべて求める。フレーム画像52内の点q2など他の点についても同様に距離L内に存在する頭頂部位置rk,rl,…をすべて求める。そうすると、点p1と同一の頭頂部位置である可能性は、(q1,ri),(q1,rj),(q1,…),(q2,rk),(q2,rl),(q2,…),…の組合せのパターンとなる。3次元頭頂部位置推定部23は、この結果の人物の位置情報をメモリに一時保存し、実施例3を適用して3次元空間上の位置P1,P2,...を求め、その計算結果の座標値をメモリに保存する。   The three-dimensional head position estimation unit 23 calculates the distance on the frame from the point q1 to each of the points r1, r2,... For the frame image 53, and the head position ri, rj,. Ask all. For other points such as the point q2 in the frame image 52, all the top position rk, rl,. Then, the possibility of the same top position as the point p1 is (q1, ri), (q1, rj), (q1, ...), (q2, rk), (q2, rl), (q2, ... ), ... combination pattern. The three-dimensional head position estimation unit 23 temporarily stores the position information of the person in the memory and applies the third embodiment to the positions P1, P2,. . . And the coordinate value of the calculation result is stored in the memory.

本実施例を用いることにより、人物の3次元位置を推定する計算量を低減することが可能となり、推定までの時間を短縮することが可能となる。   By using this embodiment, it is possible to reduce the amount of calculation for estimating the three-dimensional position of a person, and it is possible to shorten the time until estimation.

次に、実施例2のように、前の時刻t'における複数の人物位置と速度が推定されている場合に時刻tにおける人物位置を推定する実施例について図10を用いて説明する。図10は、図3のステップS116、S117の部分について、本実施例に合わせて詳細化したものとなっている。   Next, as in the second embodiment, an embodiment in which a person position at time t is estimated when a plurality of person positions and speeds at the previous time t ′ are estimated will be described with reference to FIG. FIG. 10 shows details of steps S116 and S117 of FIG. 3 according to the present embodiment.

まず、実施例2のように、ステップS114では、基準カメラの基準フレーム画像と参照カメラの前後フレーム画像内のすべての人物の頭頂部位置を推定しておく。前の時刻t'において推定された人物数がm人のとき、3次元空間上で推定された位置をP'(1)〜P'(m)、速度ベクトルをνp’(1)〜νp’(m)とする。この結果を利用し、3次元頭頂部位置推定部23は、現在の時刻tにおける人物位置Pa(1)〜Pa(m)を、これまでと同様に等速直線運動を仮定して、以下の数3を用いて推定する(ステップS200)。 First, as in the second embodiment, in step S114, the positions of the tops of all persons in the base frame image of the base camera and the frame images before and after the reference camera are estimated. When the number of persons estimated at the previous time t ′ is m, the positions estimated in the three-dimensional space are P ′ (1) to P ′ (m), and the velocity vectors are ν p ′ (1) to ν. Let p ′ (m) . Using this result, the three-dimensional top position estimating unit 23 assumes the human positions Pa (1) to Pa (m) at the current time t as follows, Estimation is performed using Equation 3 (step S200).

Figure 2007233523
ただし、Pa(k)およびP’(k)は、3次元空間の座標値のうち、x成分とy成分のみとるものとする。
Figure 2007233523
However, Pa (k) and P ′ (k) are assumed to be only the x component and the y component among the coordinate values in the three-dimensional space.

次に、3次元頭頂部位置推定部23は、実施例3と同様に、ステップS114でもとめた基準フレーム画像と前後フレーム画像内の頭頂部位置から、すべての組み合わせを想定して、3次元的な仮の頭頂部位置を算出する(ステップS202)。次に、3次元頭頂部位置推定部23は、想定する身長レンジと床面との関係により、妥当性を調べ、不適切な組み合わせは削除し、仮の3次元頭頂部位置P(1)〜P(n)を求める(ステップS204)。ここでnは、m個のPaのうち不適切な組合せを除いた残りの個数であり、m≧nである。   Next, as in the third embodiment, the three-dimensional top position estimation unit 23 assumes all combinations from the reference frame image and the top position in the front and rear frame images obtained in step S114. A temporary head position is calculated (step S202). Next, the three-dimensional parietal position estimation unit 23 checks the validity based on the relationship between the assumed height range and the floor surface, deletes inappropriate combinations, and provisional three-dimensional parietal position P (1) ˜ P (n) is obtained (step S204). Here, n is the remaining number excluding an inappropriate combination of m Pa, and m ≧ n.

次に、3次元頭頂部位置推定部23は、S200の人物位置の情報とS204の位置情報を用いて時刻tにおける人物位置を確定する(ステップS206)。ここでは、前の時刻t'から推定された人物位置Pa(1)〜Pa(m)と時刻tの情報から求められた仮の3次元頭頂部位置P(1)〜P(n)のm×n個のペアを作成し、各ペアについて2つの位置間の距離を求め、あらかじめ定めたしきい値以上のペアを除外する。続いて、残ったペアのうち、距離の最も近い組み合わせを採用し、そのときの時刻tにおける人物の仮の3次元頭頂部位置情報P(i);i=1〜nを人物位置として確定する。そして、確定したP(i)を仮の3次元頭頂部位置P(1)〜P(n)から削除する。そして残った仮の3次元頭頂部位置情報と前の時刻t'から推定された人物位置のペアから最も近い組み合わせを採用して3次元頭頂部位置情報として確定する処理を繰り返す。この処理は、まだ仮のままで確定していない3次元頭頂部位置P(i)か、前の時刻t'から推定された人物位置Pa(j)がなくなるまで繰り返す。   Next, the three-dimensional top position estimation unit 23 determines the person position at time t using the person position information in S200 and the position information in S204 (step S206). Here, m of the temporary three-dimensional top positions P (1) to P (n) obtained from the information of the person positions Pa (1) to Pa (m) estimated from the previous time t ′ and the time t. Xn pairs are created, the distance between two positions is obtained for each pair, and pairs that are equal to or greater than a predetermined threshold are excluded. Subsequently, among the remaining pairs, the combination having the closest distance is adopted, and the provisional three-dimensional top position information P (i) of the person at the time t at that time is determined as i = 1 to n as the person position. . Then, the determined P (i) is deleted from the temporary three-dimensional top position P (1) to P (n). The remaining temporary 3D top position information and the combination of the person positions estimated from the previous time t ′ are adopted, and the process of determining the 3D top position information is repeated. This process is repeated until there is no 3D head position P (i) that is still tentative and not yet determined, or the person position Pa (j) estimated from the previous time t ′.

ここでもし、仮の3次元頭頂部位置が余ってしまった場合、時刻tに新たに撮影空間に人物が入ってきたと考え、仮の3次元頭頂部位置情報を確定する。また、もし前の時刻t'から推定された人物位置Pa(j)が余ってしまった場合には、Pa(j)が基準カメラの撮影範囲かを求め、撮影範囲であれば、前の時刻t'の時の推定が誤っていたものと考え、時刻tの人物位置としては登録しないこととする。撮影範囲外であれば、人物が基準カメラの撮影範囲外に移動したと考え、Pa(j)を時刻tの人物位置として登録する。   Here, if the provisional three-dimensional top position remains, it is considered that a person has newly entered the imaging space at time t, and provisional three-dimensional top position information is determined. Further, if the person position Pa (j) estimated from the previous time t ′ is left, it is determined whether Pa (j) is the shooting range of the reference camera. It is assumed that the estimation at t 'was incorrect, and the person position at time t is not registered. If it is outside the shooting range, it is considered that the person has moved out of the shooting range of the reference camera, and Pa (j) is registered as the person position at time t.

続いて、移動量推定部24は、S206で時刻tの人物位置として確定された各点について、実施例2と同様の方法により、時刻tにおける人物の移動速度を求める(ステップS208)。但し、Pa(j)を人物位置として登録した場合には、速度情報は時刻t'の情報を用いるものとする。また、新規に登録された人物位置については、速度0とする。   Subsequently, the movement amount estimation unit 24 obtains the movement speed of the person at time t by using the same method as in the second embodiment for each point determined as the person position at time t in S206 (step S208). However, when Pa (j) is registered as a person position, the speed information uses information at time t ′. Also, the speed of the newly registered person position is assumed to be zero.

そして、図3のステップS118へと進み、実施例3と同様に人物位置の推定結果を表示する。   Then, the process proceeds to step S118 in FIG. 3, and the estimation result of the person position is displayed as in the third embodiment.

以上、本実施例によれば、基準カメラと参照カメラに複数の人物が写っていた場合の同一人物であるというマッチングを画像の色や形状から行わなくても、時間的な位置情報を利用することにより行うことが可能となり、実環境における位置情報の精度を向上させることが可能である。   As described above, according to the present embodiment, temporal position information is used even if matching is not performed based on the color or shape of an image when a plurality of persons are captured in the base camera and the reference camera. This makes it possible to improve the accuracy of position information in the actual environment.

次に、実施例5において仮の3次元頭頂部位置を求めるステップS202について、計算する組み合わせ数を、前の時刻t'の情報を用いて削減する実施例を示す。   Next, an embodiment in which the number of combinations to be calculated is reduced using information at the previous time t ′ in step S202 for obtaining a temporary three-dimensional top position in the fifth embodiment will be described.

実施例5のS200と同様に前の時刻t'において推定された人物数がm人、推定された位置をP'(1)〜P'(m)、速度ベクトルをνp’(1)〜νp’(m)とする。また、カメラの前フレーム画像の撮影時刻をs1, 後フレーム画像の撮影時刻をs2とする。すると、時刻t'の推定情報より、時刻s1における推定3次元頭頂部位置Qa(1)〜Qa(m), 時刻s2における推定3次元頭頂部位置Ra(1)〜Ra(m)を、以下の数4により求めることが可能である。 As in S200 of the fifth embodiment, the number of persons estimated at the previous time t ′ is m, the estimated positions are P ′ (1) to P ′ (m), and the velocity vector is ν p ′ (1) . Let ν p ′ (m) . Further, the shooting time of the front frame image of the camera is s1, and the shooting time of the rear frame image is s2. Then, from the estimated information at time t ′, the estimated three-dimensional head position Qa (1) to Qa (m) at time s1 and the estimated three-dimensional head position Ra (1) to Ra (m) at time s2 are as follows: It is possible to obtain by Equation (4).

Figure 2007233523
次に、3次元頭頂部位置推定部23は、推定3次元頭頂部位置Qa(1)〜Qa(m)を参照カメラで撮影したと想定して、カメラの位置、方向、画角の情報より、フレーム画像上に投影した位置qa(1)〜qa(m)を求める。同様に、3次元頭頂部位置推定部23は、Ra(1)〜Ra(m)の参照カメラ画像上での位置ra(1)〜ra(m)を求める。さらに同様に、3次元頭頂部位置推定部23は、数3により求められたPa(1)〜Pa(m)の基準フレーム画像上での時刻t'の情報からの推定位置pa(1)〜pa(m)を求める。
Figure 2007233523
Next, the three-dimensional head position estimation unit 23 assumes that the estimated three-dimensional head positions Qa (1) to Qa (m) are captured by the reference camera, and uses information on the position, direction, and angle of view of the camera. Then, the positions qa (1) to qa (m) projected on the frame image are obtained. Similarly, the three-dimensional vertex position estimation unit 23 obtains positions ra (1) to ra (m) on the reference camera image of Ra (1) to Ra (m). Further, similarly, the three-dimensional top position estimation unit 23 calculates the estimated positions pa (1) to Pa (1) to Pa (1) to Pa (m) from the information of the time t ′ on the reference frame images. Find pa (m).

次に、3次元頭頂部位置推定部23は、基準フレーム画像、前後フレーム画像内の頭頂部位置をすべて求める。基準フレーム画像内の頭頂部位置をp(1)〜p(a), 前フレーム画像内の頭頂部位置をq(1)〜q(b)、後フレーム画像内の頭頂部位置をr(1)〜r(c)とする。   Next, the three-dimensional head position estimation unit 23 obtains all head positions in the reference frame image and the preceding and following frame images. The top position in the reference frame image is p (1) -p (a), the top position in the previous frame image is q (1) -q (b), and the top position in the rear frame image is r (1 ) To r (c).

そして、頭頂部位置p(1)からp(a)について、あらかじめ指定した半径L1の範囲内に、時刻t'の情報からの推定位置pa(1)〜pa(m)が存在するかを調べる。その範囲内に存在する位置がpa(u)であったとき(複数存在しても良い)、前フレーム画像については、qa(u)の周囲半径L2の中に存在する頭頂部位置q(複数でよい)と、後フレーム画像については、ra(u)の周囲半径L3の中に存在する頭頂部位置r(複数でよい)とを3次元位置を求める組み合わせとする。   Then, with regard to the top position p (1) to p (a), it is examined whether the estimated positions pa (1) to pa (m) from the information at time t ′ exist within the range of the radius L1 specified in advance. . When the position existing within the range is pa (u) (may be plural), for the previous frame image, the top position q (multiple existing within the peripheral radius L2 of qa (u) And the top frame position r (which may be plural) existing in the peripheral radius L3 of ra (u) is a combination for obtaining a three-dimensional position.

もし、頭頂部位置p(1)〜p(a)に対応するq,rの組み合わせが存在しない場合には、ステレオ視できる範囲に人物が存在しないと想定し、3次元頭頂部位置の計算には用いないものとする。   If there is no combination of q and r corresponding to the top position p (1) to p (a), it is assumed that there is no person within the stereo viewable range, and the three-dimensional top position is calculated. Shall not be used.

以上の本実施例により、画像に写った人物の数が多い場合には、組み合わせ計算を減らすことが可能となり、人物位置推定を高速化することが可能となる。   According to the present embodiment described above, when the number of persons captured in an image is large, it is possible to reduce the combination calculation, and it is possible to speed up the person position estimation.

ここでは、基準カメラと参照カメラの両方で撮影している撮影領域以外に人物が存在する場合の実施例について説明する。   Here, an embodiment will be described in the case where a person is present in a region other than the image capturing region where both the base camera and the reference camera are capturing images.

例えば図4のようなカメラ配置で部屋38を撮影している状況を想定する。そして、時刻t'の時点でカメラAとカメラBを用いて人物位置を求めた結果が存在するとする。次の時刻tの時点ではカメラBを基準カメラ、カメラCを参照カメラとして人物位置情報を求めるとする。すると、時刻tの時点ではカメラB,Cの撮影範囲内に存在する人物位置の情報しか得ることが出来ない。ここで、時刻t'における人物位置と速度の情報を用いることにより、カメラB,Cの撮影範囲外の人物位置推定を行うこととする。この際、人物は等速直線運動を行うことと推定する。また、空間的な制約も人物の移動の際に考慮し、移動不可能な領域との境界で反射運動を想定したり、境界領域との距離に応じて速度を落とすとともに、移動方向を移動不可能領域から離れる向きに変更するような想定をしたりしてもよい。   For example, assume a situation in which the room 38 is photographed with the camera arrangement as shown in FIG. It is assumed that there is a result of obtaining the person position using the camera A and the camera B at the time t ′. At the next time t, it is assumed that the person position information is obtained with the camera B as the reference camera and the camera C as the reference camera. Then, at time t, it is possible to obtain only information on the position of a person existing within the shooting range of the cameras B and C. Here, it is assumed that the position of the person outside the shooting range of the cameras B and C is estimated by using the information of the person position and speed at the time t ′. At this time, it is estimated that the person performs a uniform linear motion. In addition, spatial constraints are taken into account when moving a person, reflecting motion is assumed at the boundary with a non-movable area, the speed is reduced according to the distance from the boundary area, and the moving direction is not moved. It may be assumed that the direction is changed away from the possible area.

ここでは、これまでの実施例により推定された、人物の3次元頭頂部位置と空間的な存在可能性分布の表示方法の実施例について、図11a〜図11cを用いて説明する。   Here, an embodiment of a method for displaying a three-dimensional position of a person's 3D vertex and a spatial existence possibility distribution estimated by the above embodiments will be described with reference to FIGS. 11a to 11c.

図11aは、時刻t1における人物の存在可能性分布を表示した例で、左側は、撮影している空間(例えば部屋)の床面を格子状に区切ったブロック(図中60)として表示し、その上に、求められた人物の3次元頭頂部位置の垂線と床面が交わる点を中心として、人物の存在可能性分布を濃淡で表現(図中61)している。右の図は62の点線位置(ピーク位置)における人物の存在可能性分布のプロファイル63である。左側の存在可能性分布は、人物の存在可能性が高いほど濃く表示される。   FIG. 11a is an example in which a person's existence possibility distribution at time t1 is displayed, and the left side is displayed as a block (60 in the figure) obtained by dividing the floor surface of a space (for example, a room) in a grid pattern, In addition, the possibility distribution of the person is expressed in shades (61 in the figure) around the point where the perpendicular of the obtained three-dimensional top position of the person and the floor intersect. The figure on the right is a profile 63 of a human existence possibility distribution at 62 dotted line positions (peak positions). The existence possibility distribution on the left side is displayed darker as the possibility of existence of a person increases.

同様に、図11bは時刻t2、図11cは時刻t3における人物の存在可能性分布(図中64、67)を示し、点線65、68における存在可能性分布プロファイルがそれぞれ66、69である。   Similarly, FIG. 11b shows the existence possibility distribution (64 and 67 in the figure) of the person at time t2 and FIG. 11c, and the existence possibility distribution profiles at dotted lines 65 and 68 are 66 and 69, respectively.

なお、存在可能性分布は、可能性に応じた色の違いで表現してもよく、可能性の高いものを赤、低いものを青と表現するなどしてもよい。   Note that the existence possibility distribution may be expressed by a difference in color according to the possibility, and a high possibility may be expressed as red, and a low possibility may be expressed as blue.

以上のような表示方法により、人物の移動の様子について、位置推定の誤差を含んだ表示が可能となる。   By the display method as described above, it is possible to display the movement of a person including a position estimation error.

次に、人物の3次元頭頂部位置と空間的な存在可能性分布の別の表示方法の実施例について、図12a〜図12cを用いて説明する。人物の3次元頭頂部位置と空間的な存在可能性分布については、図11と同じものを用いるとする。   Next, an example of another display method of the person's three-dimensional top position and the spatial existence possibility distribution will be described with reference to FIGS. 12a to 12c. It is assumed that the same three-dimensional top position and spatial existence possibility distribution of a person as those in FIG. 11 are used.

本実施例では、床面を格子状に区切った各ブロック内の存在可能性の評価値を積分した値に比例したブロックの輝度値として、存在可能性について表示する。例えば時刻t1においては、点線71の位置の存在可能性プロファイルは図12a右図のようになる。このときブロック70の輝度は、このブロック中の存在可能性評価値の積分値72に比例する値として表示させる。この図は、存在可能性が高いほど斜線の密度が大きくなるように表示している。同様に時刻t2については図12bのように、ブロック74、75の輝度値は、点線73における存在可能性プロファイルに示したブロック中の積分値76、77の値に比例させ、時刻t3のときには、図12cのように、ブロック78の輝度値は、点線79における存在可能性プロファイル中に示したブロック中の積分値80の値に比例させることにより表示する。   In the present embodiment, the existence possibility is displayed as the luminance value of the block in proportion to the value obtained by integrating the evaluation value of the existence possibility in each block obtained by dividing the floor surface in a grid pattern. For example, at time t1, the existence possibility profile at the position of the dotted line 71 is as shown in the right diagram of FIG. At this time, the luminance of the block 70 is displayed as a value proportional to the integral value 72 of the existence possibility evaluation value in this block. This figure is displayed so that the density of oblique lines increases as the possibility of existence increases. Similarly, at time t2, as shown in FIG. 12b, the luminance values of the blocks 74 and 75 are proportional to the integrated values 76 and 77 in the block shown in the existence possibility profile on the dotted line 73, and at time t3, As shown in FIG. 12 c, the luminance value of the block 78 is displayed by being proportional to the value of the integrated value 80 in the block shown in the existence possibility profile in the dotted line 79.

以上の本実施例によれば、注目する場所における人物の存在可能性を可視化することが可能であり、一つのブロック内に複数の人物が存在するような場合にも人数に応じた存在可能性を表示することが可能である。   According to the present embodiment described above, it is possible to visualize the possibility of existence of a person at a place of interest, and the possibility of existence according to the number of persons even when there are a plurality of persons in one block. Can be displayed.

さらに、人物の3次元頭頂部位置と空間的な存在可能性分布の別の表示方法の実施例について、図13a〜図13cを用いて説明する。人物の3次元頭頂部位置と空間的な存在可能性分布については、図11と同じものを用いるとする。   Furthermore, another embodiment of a method for displaying the three-dimensional top position of a person and the spatial existence possibility distribution will be described with reference to FIGS. 13a to 13c. It is assumed that the same three-dimensional top position and spatial existence possibility distribution of a person as those in FIG. 11 are used.

本実施例では、実施例9と同様に、床面を格子状に区切った各ブロック内の輝度として人物の存在可能性を表示するが、ブロック内の存在可能性評価値の最大値に比例した輝度として表示を行う。例えば、時刻t1の場合、図13aのように、点線82の存在可能性プロファイル上に示したようなブロック内の最大値83に比例するように、ブロック81の輝度を決定する。同様に、時刻t2では図13bのように、点線86における存在可能性プロファイル上にしめした87,88の値により、ブロック84、85の輝度を決定し、時刻t3においては、点線90における存在可能性プロファイル上に示した評価値91に比例するように、ブロック89の輝度値を決定する。   In the present embodiment, as in the ninth embodiment, the possibility of existence of a person is displayed as the luminance in each block obtained by dividing the floor surface in a grid pattern, which is proportional to the maximum value of the existence possibility evaluation value in the block. Display as luminance. For example, at time t1, as shown in FIG. 13a, the luminance of the block 81 is determined so as to be proportional to the maximum value 83 in the block as shown on the existence possibility profile of the dotted line 82. Similarly, at time t2, as shown in FIG. 13b, the brightness of the blocks 84 and 85 is determined by the values 87 and 88 shown on the existence possibility profile on the dotted line 86, and can exist on the dotted line 90 at time t3. The luminance value of the block 89 is determined so as to be proportional to the evaluation value 91 shown on the sex profile.

本実施例の実施例9と比べた利点は、人物が存在している可能性が最も高いブロックが常にはっきりと表示されることにある。例えば、図12を見てみると、時刻t1,t3における図12a,図12bの図ではどのブロックにいる可能性が高いかということがはっきりしているが、時刻t2における図12bの図では全体に輝度が低く表示され、ぼやけた表示となってしまっている。これに対し、本実施例では、図13に示したように、人物が存在していることがどの時刻においてもはっきり表示することが可能となっている。   The advantage of the present embodiment compared to the ninth embodiment is that the block that is most likely to have a person is always clearly displayed. For example, looking at FIG. 12, it is clear which block is likely to be present in the diagrams of FIGS. 12a and 12b at times t1 and t3, but the entire diagram is shown in FIG. 12b at time t2. The display is too low in brightness. On the other hand, in this embodiment, as shown in FIG. 13, it can be clearly displayed at any time that a person exists.

但し、本実施例を用いた場合には、一つのブロックに複数の人物が存在することを表現することが困難となるため、ブロックのサイズを一人の人間が存在する程度の小さな領域にするとよい。   However, when this embodiment is used, it is difficult to express that there are a plurality of persons in one block, so the block size should be small enough to have one person. .

次に、上記実施例により人物の空間的な存在可能性分布の表示結果を利用する実施例について図14、15を用いて説明する。   Next, an embodiment using the display result of a person's spatial possibility distribution according to the above embodiment will be described with reference to FIGS.

図14は、スーパーなどの室内を撮影空間と想定した場合の例である。実施例10の方法により作成した人物の空間的な存在可能性分布95を、空間の物理的な棚やテーブルなどの配置96に重ね合わせたものとして、店内人物存在可能性分布97として表示する。   FIG. 14 shows an example in which a room such as a supermarket is assumed to be a shooting space. The spatial presence possibility distribution 95 of the person created by the method of the tenth embodiment is displayed as a person presence possibility distribution 97 in the store as being superimposed on an arrangement 96 such as a physical shelf or table in the space.

図15に店内人物存在可能性分布97の利用法を示す。店内人物存在可能性分布97を表示装置13に表示し、店のスタッフ100が時間的な変化を観察し、101に示すようなサービス創出に利用する。   FIG. 15 shows how to use the person presence possibility distribution 97 in the store. The in-store person presence possibility distribution 97 is displayed on the display device 13, and the store staff 100 observes the temporal change and uses it for service creation as shown in 101.

このような表示方法は、どの空間に、どの時刻にどのくらい人が存在したかということを直感的に把握できるとともに、自動的にデータを収集することが可能である。例えば、レジの手前の空間における人物の存在可能性を監視(自動的でも、人が監視してもよい)することにより、人の存在が多くなったときには、スタッフを配置し(図中103)、新しくレジを開けて、混雑を緩和する(図中104)ことも可能である。   Such a display method can intuitively grasp how many people exist in which space at which time, and can automatically collect data. For example, by monitoring the possibility of the presence of a person in the space in front of the cash register (either automatically or by a person), when the number of persons increases, a staff is arranged (103 in the figure). It is also possible to reduce the congestion by opening a new cash register (104 in the figure).

本発明におけるシステムの構成例を示した図である。It is the figure which showed the structural example of the system in this invention. 画像処理装置の内部構成図である。It is an internal block diagram of an image processing apparatus. 画像処理装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of an image processing apparatus. 撮影空間とカメラの配置例を示した図である。It is the figure which showed the example of arrangement | positioning of imaging | photography space and a camera. カメラの撮影時刻の例を示した図である。It is the figure which showed the example of the imaging | photography time of a camera. 2台のカメラの撮影画像から人物の3次元頭頂部を求める方法を説明する図である。It is a figure explaining the method of calculating | requiring the three-dimensional top part of a person from the picked-up image of two cameras. カメラの撮影画像に複数の人物が写っている場合の位置関係を示す図である。It is a figure which shows the positional relationship when several persons are reflected in the picked-up image of a camera. 誤った人物の3次元頭頂部位置を推定してしまう例を示す図である。It is a figure which shows the example which estimates the 3D top position of an incorrect person. 正しく人物の3次元頭頂部位置を推定した例を示す図である。It is a figure which shows the example which estimated the person's three-dimensional top part position correctly. 図3のフローチャートの一部を詳細化した処理手順である。FIG. 4 is a processing procedure in which a part of the flowchart of FIG. 3 is detailed. 人物の存在可能性分布を表示した1例である。It is an example which displayed the possibility distribution of a person. 人物の存在可能性分布を表示した1例(続き)である。It is an example (continuation) which displayed the possibility distribution of a person. 人物の存在可能性分布を表示した1例(続き)である。It is an example (continuation) which displayed the possibility distribution of a person. 積分を利用し、床をブロック化して人物の存在可能性分布を表示した例である。This is an example in which the existence possibility distribution of a person is displayed by blocking the floor using integration. 積分を利用し、床をブロック化して人物の存在可能性分布を表示した例(続き)である。This is an example (continuation) in which integration is used to block the floor and display the possibility distribution of people. 積分を利用し、床をブロック化して人物の存在可能性分布を表示した例(続き)である。This is an example (continuation) in which integration is used to block the floor and display the possibility distribution of people. 最大値を利用し、床をブロック化して人物の存在可能性分布を表示する別の例である。This is another example in which the maximum value is used to block the floor and display the possibility distribution of persons. 最大値を利用し、床をブロック化して人物の存在可能性分布を表示する別の例(続き)である。This is another example (continuation) in which the maximum value is used to block the floor and display the possibility distribution of the person. 最大値を利用し、床をブロック化して人物の存在可能性分布を表示する別の例(続き)である。This is another example (continuation) in which the maximum value is used to block the floor and display the possibility distribution of the person. 店内の人物存在可能性分布を表示する例である。It is an example which displays the person presence possibility distribution in a shop. 表示された店内人物存在可能性分布を利用し、サービスを創出する例である。This is an example in which a service is created by using the displayed distribution of person presence possibility.

符号の説明Explanation of symbols

1:有線カメラ群、3:無線カメラ群、9:録画装置、11:画像処理装置、13:表示装置、30:カメラ
1: wired camera group, 3: wireless camera group, 9: recording device, 11: image processing device, 13: display device, 30: camera

Claims (15)

同一人物を2台以上の非同期カメラで撮影された画像を用いて人物の3次元空間における位置を推定する画像処理装置による方法であって、
各カメラで撮影されたフレーム画像とその撮影時刻をメモリに入力するステップと、
第1のカメラで撮影された連続する2フレーム分の画像を前フレームと後フレームとして特定するステップと、
第1のカメラとは別の第2のカメラで撮影され、前記前フレームと前記後フレームとの間の撮影時刻であって前記後フレームの撮影時刻に最も近い時刻に撮影されたフレーム画像を基準フレームとして特定するステップと、
前記の前フレーム、後フレームおよび基準フレームの各画像から人物が映っている領域を推定するステップと、
推定された人物領域の各々から人物の頭頂部を推定するステップと、
前記前フレーム上の頭頂部に対応し前記第1のカメラの光学中心を通る3次元空間上の第1の直線および前記後フレーム上の頭頂部に対応し前記第1のカメラの光学中心を通る3次元空間上の第2の直線によって形成される3次元空間上の平面あるいは同一直線と、前記基準フレーム上の頭頂部に対応し前記第2のカメラの光学中心を通る3次元空間上の直線との交点あるいは最接近点を計算し、人物の3次元的な頭頂部位置を推定するステップと,
前記3次元的な頭頂部位置の情報に基づいて床面上の人物位置を表示するステップとを有することを特徴とする人物位置推定方法。
A method by an image processing apparatus for estimating a position of a person in a three-dimensional space using images taken by two or more asynchronous cameras of the same person,
Inputting a frame image captured by each camera and its shooting time into a memory;
Identifying two consecutive frames of images taken by the first camera as a previous frame and a subsequent frame;
A frame image taken by a second camera different from the first camera and taken at the time between the previous frame and the rear frame and closest to the time of the rear frame is used as a reference. Identifying as a frame,
Estimating a region in which a person is shown from the images of the previous frame, the rear frame, and the reference frame;
Estimating the head of the person from each of the estimated person regions;
A first straight line in a three-dimensional space corresponding to the top of the head on the front frame and passing through the optical center of the first camera and a top of the head on the back frame corresponding to the top of the head on the first frame. A plane in the three-dimensional space or the same straight line formed by the second straight line in the three-dimensional space, and a straight line in the three-dimensional space corresponding to the top of the head on the reference frame and passing through the optical center of the second camera Calculating the intersection or closest point of and estimating the 3D head position of the person;
And a step of displaying the position of the person on the floor based on the three-dimensional information on the position of the top of the head.
さらに、前記3次元的な頭頂部位置から前記人物の身長を求めるステップと、
前記身長が変わらないとして前記第1の直線上の3次元的な第1の位置と、前記第2の直線上の3次元的な第2の位置とを求め、撮影時刻の間隔から前記基準フレームの撮影時刻における前記人物の移動速度を求めるステップと、
前記基準フレームの直前の基準フレームについて求められた3次元的な頭頂部位置および前記移動速度から求められた現在の前記基準フレームに対応する3次元的な頭頂部位置と、現在推定した前記3次元的な頭頂部位置との誤差を求めるステップと、
前記誤差を用いて現在の3次元的な頭頂部位置の近傍に人物が存在する可能性を求めるステップとを有することを特徴とする請求項1記載の人物位置推定方法。
And determining the height of the person from the three-dimensional top position;
Assuming that the height does not change, a three-dimensional first position on the first straight line and a three-dimensional second position on the second straight line are obtained, and the reference frame is obtained from an interval of photographing times. Obtaining a moving speed of the person at the shooting time of
The three-dimensional head position determined for the reference frame immediately before the reference frame and the three-dimensional head position corresponding to the current reference frame determined from the moving speed, and the currently estimated three-dimensional Determining an error from a typical top position;
2. The person position estimating method according to claim 1, further comprising a step of obtaining a possibility that a person exists in the vicinity of the current three-dimensional top position using the error.
前記の前フレーム、後フレームおよび基準フレームの各々に複数の人物が写っている場合に、
前記基準フレーム上の1人の人物と、対応する前記前フレーム上のいずれかの人物および前記後フレーム上のいずれかの人物との各組み合わせの各々について前記3次元的な頭頂部位置を推定するステップと、
前記組合せの各々について前記3次元的な頭頂部位置から身長を求めるステップと、
前記身長が最も身長レンジに近い組合せの前記3次元的な頭頂部位置を前記基準フレーム上の人物の位置と推定するステップとを有することを特徴とする請求項1記載の人物位置推定方法。
When a plurality of persons are shown in each of the front frame, the rear frame, and the reference frame,
The three-dimensional top position is estimated for each combination of one person on the reference frame and any corresponding person on the previous frame and any person on the rear frame. Steps,
Obtaining height from the three-dimensional top position for each of the combinations;
The person position estimating method according to claim 1, further comprising: estimating the three-dimensional top position of the combination having the height closest to the height range as the position of the person on the reference frame.
前記前フレーム上のいずれかの人物の頭頂部の位置と前記後フレーム上のいずれかの人物との頭頂部の位置のフレーム上の距離を計算するステップと、
前記前フレーム上の人物の撮影時刻間隔における最大移動可能距離を越える後フレーム上の人物をもつ前記組合せを3次元的な頭頂部位置の推定候補から除外するステップとを有することを特徴とする請求項3記載の人物位置推定方法。
Calculating the distance on the frame of the position of the top of any person on the front frame and the position of the top of any person on the back frame;
And a step of excluding the combination having a person on a rear frame exceeding a maximum movable distance in a photographing time interval of the person on the previous frame from a three-dimensional head position estimation candidate. Item 4. The person position estimation method according to Item 3.
前記身長が所定の身長レンジに入る組合せの各々について前記3次元的な頭頂部位置を推定し、さらに、
前記身長が変わらないとして前記第1の直線上の3次元的な第1の位置と、前記第2の直線上の3次元的な第2の位置とを求め、撮影時刻の間隔から前記基準フレームの撮影時刻における前記人物の移動速度を求めるステップと、
前記基準フレームの直前の基準フレームについて求められた3次元的な頭頂部位置および前記移動速度から現在の前記基準フレームに対応する第2の3次元的な頭頂部位置を各人物について求めるステップと、
推定された前記3次元的な頭頂部位置のうち、前記第2の3次元的な頭頂部位置との距離が最小の位置を人物位置として確定するステップとを有することを特徴とする請求項3記載の人物位置推定方法。
Estimating the three-dimensional top position for each combination where the height falls within a predetermined height range; and
Assuming that the height does not change, a three-dimensional first position on the first straight line and a three-dimensional second position on the second straight line are obtained, and the reference frame is obtained from an interval of photographing times. Obtaining a moving speed of the person at the shooting time of
Obtaining for each person a second three-dimensional head position corresponding to the current reference frame from the three-dimensional head position determined for the reference frame immediately before the reference frame and the moving speed;
4. A step of determining a position having a minimum distance from the second three-dimensional top position among the estimated three-dimensional top positions as a person position. The person position estimation method described.
前記床面上の人物位置の表示に際し、前記人物が存在する可能性の大きさに応じた濃淡により人物の存在可能性を表示することを特徴とする請求項2記載の人物位置推定方法。   3. The person position estimating method according to claim 2, wherein when the person position on the floor is displayed, the possibility of existence of the person is displayed by shading according to the magnitude of the possibility that the person exists. 前記床面上の人物位置の表示に際し、前記床面を各々が同一サイズの複数のブロックに分割し、前記人物が存在する可能性分布のうち、各ブロック内に存在する可能性を積分した評価値を求め、前記の積分した評価値の大きさに応じた濃淡により該ブロック内の人物の存在可能性を表示することを特徴とする請求項2記載の人物位置推定方法。   When displaying the position of a person on the floor, the floor is divided into a plurality of blocks each having the same size, and the possibility of being present in each block is integrated among the possibility distribution of the person 3. The person position estimating method according to claim 2, wherein a value is obtained, and the possibility of existence of a person in the block is displayed by shading according to the magnitude of the integrated evaluation value. 前記床面上の人物位置の表示に際し、前記床面を各々が同一サイズの複数のブロックに分割し、前記人物が存在する可能性分布のうち、各ブロック内に存在する最大の可能性を求め、前記最大の可能性に応じた濃淡により該ブロック内の人物の存在可能性を表示することを特徴とする請求項2記載の人物位置推定方法。   When displaying the position of a person on the floor, the floor is divided into a plurality of blocks each having the same size, and the maximum possibility of being present in each block is obtained from the possibility distribution of the person. 3. The person position estimation method according to claim 2, wherein the possibility of existence of a person in the block is displayed by shading according to the maximum possibility. 人物の空間的な存在可能性に応じて、撮影空間における人物に提供するサービスを変更することを特徴とする請求項2記載の人物位置推定の利用方法。   3. The method for using person position estimation according to claim 2, wherein a service provided to the person in the photographing space is changed according to the possibility of the person's spatial existence. 同一人物を2台以上の非同期カメラで撮影可能なように配置されたカメラ群と、各カメラで撮影されたフレーム画像とその撮影時刻を記録する録画装置と、前記フレーム画像を用いて人物の3次元空間における位置を推定する画像処理装置とを有するシステムであって、
前記画像処理装置は、
前記録画装置に蓄積されたフレーム画像とその撮影時刻をメモリに入力する手段と、
第1のカメラで撮影された連続する2フレーム分の画像を前フレームと後フレームとして特定する手段と、
第1のカメラとは別の第2のカメラで撮影され、前記前フレームと前記後フレームとの間の撮影時刻であって前記後フレームの撮影時刻に最も近い時刻に撮影されたフレーム画像を基準フレームとして特定する手段と、
前記の前フレーム、後フレームおよび基準フレームの各画像から人物が映っている領域を推定する手段と、
推定された人物領域の各々から人物の頭頂部を推定する手段と、
前記前フレーム上の頭頂部に対応し前記第1のカメラの光学中心を通る3次元空間上の第1の直線および前記後フレーム上の頭頂部に対応し前記第1のカメラの光学中心を通る3次元空間上の第2の直線によって形成される3次元空間上の平面あるいは同一直線と、前記基準フレーム上の頭頂部に対応し前記第2のカメラの光学中心を通る3次元空間上の直線との交点あるいは最接近点を計算し、人物の3次元的な頭頂部位置を推定する手段と,
前記3次元的な頭頂部位置の情報に基づいて床面上の人物位置を表示する手段とを有することを特徴とする人物位置推定システム。
A group of cameras arranged so that the same person can be photographed by two or more asynchronous cameras, a frame image photographed by each camera and a recording device for recording the photographing time, and a person using the frame image An image processing apparatus for estimating a position in a dimensional space,
The image processing apparatus includes:
Means for inputting a frame image stored in the recording device and a photographing time thereof into a memory;
Means for specifying two consecutive frames of images taken by the first camera as a previous frame and a subsequent frame;
A frame image taken by a second camera different from the first camera and taken at the time between the previous frame and the rear frame and closest to the time of the rear frame is used as a reference. Means to identify as a frame;
Means for estimating a region in which a person is shown from the images of the front frame, the rear frame, and the reference frame;
Means for estimating the head of the person from each of the estimated person regions;
A first straight line in a three-dimensional space corresponding to the top of the head on the front frame and passing through the optical center of the first camera and a top of the head on the back frame corresponding to the top of the head on the first frame. A plane in the three-dimensional space or the same straight line formed by the second straight line in the three-dimensional space, and a straight line in the three-dimensional space corresponding to the top of the head on the reference frame and passing through the optical center of the second camera Means for calculating the intersection or closest point of the object and estimating the three-dimensional head position of the person,
And a means for displaying a person position on the floor based on the three-dimensional information on the position of the top of the head.
前記画像処理装置は、さらに、
前記3次元的な頭頂部位置から前記人物の身長を求める手段と、
前記身長が変わらないとして前記第1の直線上の3次元的な第1の位置と、前記第2の直線上の3次元的な第2の位置とを求め、撮影時刻の間隔から前記基準フレームの撮影時刻における前記人物の移動速度を求める手段と、
前記基準フレームの直前の基準フレームについて求められた3次元的な頭頂部位置および前記移動速度から求められた現在の前記基準フレームに対応する3次元的な頭頂部位置と、現在推定した前記3次元的な頭頂部位置との誤差を求める手段と、
前記誤差を用いて現在の3次元的な頭頂部位置の近傍に人物が存在する可能性を求める手段とを有することを特徴とする請求項10記載の人物位置推定システム。
The image processing apparatus further includes:
Means for determining the height of the person from the three-dimensional top position;
Assuming that the height does not change, a three-dimensional first position on the first straight line and a three-dimensional second position on the second straight line are obtained, and the reference frame is obtained from an interval of photographing times. Means for determining the moving speed of the person at the shooting time;
The three-dimensional head position determined for the reference frame immediately before the reference frame and the three-dimensional head position corresponding to the current reference frame determined from the moving speed, and the currently estimated three-dimensional A means for obtaining an error from a typical top position;
11. The person position estimation system according to claim 10, further comprising means for determining a possibility that a person exists in the vicinity of the current three-dimensional top position using the error.
前記の前フレーム、後フレームおよび基準フレームの各々に複数の人物が写っている場合に、前記画像処理装置は、さらに、
前記基準フレーム上の1人の人物と、対応する前記前フレーム上のいずれかの人物および前記後フレーム上のいずれかの人物との各組み合わせの各々について前記3次元的な頭頂部位置を推定する手段と、
前記組合せの各々について前記3次元的な頭頂部位置から身長を求める手段と、
前記身長が最も身長レンジに近い組合せの前記3次元的な頭頂部位置を前記基準フレーム上の人物の位置と推定する手段とを有することを特徴とする請求項10記載の人物位置推定システム。
In the case where a plurality of persons are captured in each of the front frame, the rear frame, and the reference frame, the image processing apparatus further includes:
The three-dimensional top position is estimated for each combination of one person on the reference frame and any corresponding person on the previous frame and any person on the rear frame. Means,
Means for determining height from the three-dimensional top position for each of the combinations;
11. The person position estimating system according to claim 10, further comprising means for estimating the position of the person on the reference frame with the three-dimensional top position of the combination having the height closest to the height range.
前記画像処理装置は、さらに、
前記前フレーム上のいずれかの人物の頭頂部の位置と前記後フレーム上のいずれかの人物との頭頂部の位置のフレーム上の距離を計算する手段と、
前記前フレーム上の人物の撮影時刻間隔における最大移動可能距離を越える後フレーム上の人物をもつ前記組合せを3次元的な頭頂部位置の推定候補から除外する手段とを有することを特徴とする請求項12記載の人物位置推定システム。
The image processing apparatus further includes:
Means for calculating the distance on the frame of the position of the top of any person on the front frame and the position of the top of any person on the back frame;
And a means for excluding the combination having a person on a rear frame exceeding a maximum movable distance in a photographing time interval of the person on the previous frame from a three-dimensional top position estimation candidate. Item 13. The person position estimation system according to Item 12.
前記画像処理装置は、前記床面上の人物位置の表示に際し、前記人物が存在する可能性の大きさに応じた濃淡により人物の存在可能性を表示することを特徴とする請求項11記載の人物位置推定システム。   12. The image processing apparatus according to claim 11, wherein when the position of the person on the floor is displayed, the possibility of existence of the person is displayed by shading according to the magnitude of the possibility that the person exists. Human position estimation system. 前記画像処理装置は、前記床面上の人物位置の表示に際し、前記床面を各々が同一サイズの複数のブロックに分割し、前記人物が存在する可能性分布のうち、各ブロック内に存在する可能性を積分した評価値を求め、前記の積分した評価値の大きさに応じた濃淡により該ブロック内の人物の存在可能性を表示することを特徴とする請求項11記載の人物位置推定システム。
The image processing apparatus divides the floor surface into a plurality of blocks each having the same size when displaying the position of the person on the floor surface, and exists in each block of the possibility distribution in which the person exists. 12. The person position estimation system according to claim 11, wherein an evaluation value obtained by integrating the possibility is obtained, and the possibility of existence of a person in the block is displayed by shading according to the magnitude of the integrated evaluation value. .
JP2006051900A 2006-02-28 2006-02-28 Person location estimation method using asynchronous camera image and system therefor Withdrawn JP2007233523A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006051900A JP2007233523A (en) 2006-02-28 2006-02-28 Person location estimation method using asynchronous camera image and system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006051900A JP2007233523A (en) 2006-02-28 2006-02-28 Person location estimation method using asynchronous camera image and system therefor

Publications (1)

Publication Number Publication Date
JP2007233523A true JP2007233523A (en) 2007-09-13

Family

ID=38554080

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006051900A Withdrawn JP2007233523A (en) 2006-02-28 2006-02-28 Person location estimation method using asynchronous camera image and system therefor

Country Status (1)

Country Link
JP (1) JP2007233523A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009143722A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp Person tracking apparatus, person tracking method and person tracking program
JP2009223693A (en) * 2008-03-17 2009-10-01 Glory Ltd Person counting device and person counting method
JP2010199701A (en) * 2009-02-23 2010-09-09 Fujitsu Ltd Image processing apparatus, image processing method, and image processing program
JP2010206405A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2012014281A (en) * 2010-06-29 2012-01-19 Canon Inc Information processing device and operation method thereof
JP2012159957A (en) * 2011-01-31 2012-08-23 Secom Co Ltd Moving object tracking device
JP2012216180A (en) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction
JP2016162307A (en) * 2015-03-03 2016-09-05 国立大学法人 和歌山大学 Height estimation method and height estimation system
JP2017103602A (en) * 2015-12-01 2017-06-08 キヤノン株式会社 Position detection device, and position detection method and program
WO2019186677A1 (en) * 2018-03-27 2019-10-03 株式会社日立製作所 Robot position/posture estimation and 3d measurement device
JPWO2018142496A1 (en) * 2017-02-01 2019-11-07 株式会社日立製作所 3D measuring device
JP2020068495A (en) * 2018-10-26 2020-04-30 キヤノン株式会社 Information processing apparatus, information processing method and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009143722A (en) * 2007-12-18 2009-07-02 Mitsubishi Electric Corp Person tracking apparatus, person tracking method and person tracking program
JP2009223693A (en) * 2008-03-17 2009-10-01 Glory Ltd Person counting device and person counting method
JP2010199701A (en) * 2009-02-23 2010-09-09 Fujitsu Ltd Image processing apparatus, image processing method, and image processing program
JP2010206405A (en) * 2009-03-02 2010-09-16 Secom Co Ltd Image monitoring device
JP2012014281A (en) * 2010-06-29 2012-01-19 Canon Inc Information processing device and operation method thereof
JP2012159957A (en) * 2011-01-31 2012-08-23 Secom Co Ltd Moving object tracking device
JP2012216180A (en) * 2011-03-30 2012-11-08 Advanced Telecommunication Research Institute International Estimation device of visual line direction, method for estimating visual line direction, and program for causing computer to execute method for estimating visual line direction
JP2016162307A (en) * 2015-03-03 2016-09-05 国立大学法人 和歌山大学 Height estimation method and height estimation system
JP2017103602A (en) * 2015-12-01 2017-06-08 キヤノン株式会社 Position detection device, and position detection method and program
JPWO2018142496A1 (en) * 2017-02-01 2019-11-07 株式会社日立製作所 3D measuring device
WO2019186677A1 (en) * 2018-03-27 2019-10-03 株式会社日立製作所 Robot position/posture estimation and 3d measurement device
JP2020068495A (en) * 2018-10-26 2020-04-30 キヤノン株式会社 Information processing apparatus, information processing method and program
JP7237520B2 (en) 2018-10-26 2023-03-13 キヤノン株式会社 Information processing device, information processing method and program

Similar Documents

Publication Publication Date Title
JP2007233523A (en) Person location estimation method using asynchronous camera image and system therefor
US10893251B2 (en) Three-dimensional model generating device and three-dimensional model generating method
US10565449B2 (en) Image capturing apparatus, monitoring system, image processing apparatus, image capturing method, and non-transitory computer readable recording medium
Stauffer et al. Automated multi-camera planar tracking correspondence modeling
EP2745171B1 (en) Projector and control method thereof
US7825948B2 (en) 3D video conferencing
CN107273846B (en) Human body shape parameter determination method and device
US9615081B2 (en) Method and multi-camera portable device for producing stereo images
JP2019075156A (en) Method, circuit, device, and system for registering and tracking multifactorial image characteristic and code executable by related computer
JP6619927B2 (en) Calibration device
KR102397343B1 (en) Method and device for blurring a virtual object in a video
JP6749498B2 (en) Imaging target tracking device and imaging target tracking method
JP2012057974A (en) Photographing object size estimation device, photographic object size estimation method and program therefor
WO2022127181A1 (en) Passenger flow monitoring method and apparatus, and electronic device and storage medium
TWI433049B (en) Interactive service methods and systems for virtual glasses wearing
JP4193342B2 (en) 3D data generator
US9525860B2 (en) Enhancing a spatio-temporal resolution of a depth data stream
JP6622575B2 (en) Control device, control method, and program
KR20160119597A (en) Method for detecting human using plural depth camera and device
JP2005135339A (en) Passers-by detection method and apparatus, and passers-by counter
EP2866446B1 (en) Method and multi-camera portable device for producing stereo images
JP2004046464A (en) Apparatus and method for estimating three-dimensional position of mobile object, program, and recording medium thereof
JP2002117403A (en) Image processor and image processing method
JP2009210486A (en) Depth data generating device, depth data generation method, and program thereof
JP4825350B2 (en) Passing object counting device and counting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081223

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20091110