JP2023100805A - Imaging apparatus, imaging method, and imaging program - Google Patents
Imaging apparatus, imaging method, and imaging program Download PDFInfo
- Publication number
- JP2023100805A JP2023100805A JP2023075531A JP2023075531A JP2023100805A JP 2023100805 A JP2023100805 A JP 2023100805A JP 2023075531 A JP2023075531 A JP 2023075531A JP 2023075531 A JP2023075531 A JP 2023075531A JP 2023100805 A JP2023100805 A JP 2023100805A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- fixed
- image
- subject
- point imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 335
- 230000001360 synchronised effect Effects 0.000 claims description 10
- 230000006870 function Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 9
- 230000007423 decrease Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Television Signal Processing For Recording (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像装置、撮像方法及び撮像プログラムに関する。 The present invention relates to an imaging device, an imaging method, and an imaging program.
従来から、撮像装置を用いて動画を撮影することは一般的に行われている。そのような中で、撮像した動画のなから見たいシーンを選択するために、表示部に動画と共に、被写体の移動の軌跡を表示する技術がある(特許文献1参照)。特許文献1に記載された技術は、軌跡の1点を選択すると、その時に対応するシーンを表示するようになっている。
2. Description of the Related Art Conventionally, it has been common practice to shoot moving images using an imaging device. Under such circumstances, there is a technique for displaying the moving trajectory of a subject on a display unit together with a moving image in order to select a desired scene from captured moving images (see Patent Document 1). According to the technique described in
撮像装置を用いて動画を撮影する場合の用途には、一例として、監視カメラ等を配置して、道路等を移動する人等を撮影することが挙げられる。監視カメラは複数配されることが多く、異なる監視カメラで同一の被写体を撮影する場合もある。この場合、監視カメラで撮像された動画を見る者は、異なる複数の監視カメラで撮影する被写体が同一か否か判断できない可能性もある。 As an example of the application in which moving images are captured using an imaging device, a monitoring camera or the like is arranged to capture a person or the like moving on a road or the like. A plurality of surveillance cameras are often arranged, and there are cases where the same subject is photographed by different surveillance cameras. In this case, there is a possibility that the viewer of the moving image captured by the monitoring camera cannot determine whether or not the subject captured by the different monitoring cameras is the same.
本発明は、複数の撮像装置を用いて同一の被写体を撮像するのに好適な撮像装置、撮像方法及び撮像プログラムに関する。 The present invention relates to an imaging device, an imaging method, and an imaging program suitable for imaging the same subject using a plurality of imaging devices.
一態様の撮像装置は、時間的に連続して被写体を撮像して画像データを生成する複数の定点撮像部と、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識部と、認識部で認識した被写体の位置に関する位置情報を取得する取得部と、取得部で取得された位置情報に基づいて被写体の移動先を予測する予測部と、予測部で予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択部と、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得部で取得される位置情報とを対応付ける対応付け部と、対応付け部で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する表示部と、を備える。 An imaging device of one aspect includes a plurality of fixed-point imaging units that capture images of a subject continuously in time to generate image data, and a recognition unit that recognizes a subject from an image based on the image data generated by each of the fixed-point imaging units. an acquisition unit for acquiring position information about the position of the subject recognized by the recognition unit; a prediction unit for predicting the destination of the subject based on the position information acquired by the acquisition unit; and the destination predicted by the prediction unit. a selection unit that selects a fixed-point imaging unit that is closest to and causes the selected fixed-point imaging unit to capture an image of the subject; an image based on the image data captured by the fixed-point imaging unit; an associating unit that associates position information with location information; a plurality of images and location information associated by the associating unit are successively obtained in time series; and a display unit that displays
一態様の撮像装置では、対応付け部は、複数の定点撮像部それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部毎に異なる特徴を示す特徴情報を付し、表示部は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部毎に異なる特徴画像を付して表示することとしてもよい。 In one aspect of the imaging device, the associating unit associates the image based on the image data captured by each of the plurality of fixed-point imaging units with the position information, and captures the image data with respect to the correspondence information indicating the association. When displaying the image and the trajectory, the display unit adds the fixed-point imaging based on the feature information to the image based on the correspondence information and the trajectory based on the position information. It is also possible to attach and display a different characteristic image for each copy.
一態様の撮像装置は、定点撮像部で生成された画像データに基づく画像と、取得部で取得された位置情報とに対して同期する時刻情報を付す時刻情報付加部と、画像データ及び位置情報を記憶する記憶部と、を備え、表示部は、記憶部から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部で付加された時刻情報に基づいて同期するように表示することとしてもよい。 An imaging device according to one aspect includes a time information addition unit that adds time information synchronized with an image based on image data generated by a fixed-point imaging unit and position information acquired by an acquisition unit; and the display unit synchronizes the image based on the image data read from the storage unit and the trajectory based on the position information based on the time information added by the time information adding unit. may be displayed in
一態様の撮像装置では、取得部は、定点撮像部で撮像される画像内の位置と、被写体の実位置とを予め対応付けた結果に基づいて、認識部で新たな被写体が認識されと、位置情報を取得することとしてもよい。 In one aspect of the imaging device, the acquisition unit associates in advance a position in an image captured by the fixed-point imaging unit with the actual position of the subject, and when the recognition unit recognizes a new subject, It is good also as acquiring a positional information.
一態様の撮像装置では、取得部は、定点撮像部で撮像される画像内の位置と、その位置における定点撮像部からの距離とを対応付けた結果と、定点撮像部からの距離と、実空間上の位置とを対応付けた結果と、に基づいて、認識部で新たな被写体が認識されると、位置情報を取得することとしてもよい。 In one aspect of the imaging device, the acquisition unit associates a position in an image captured by the fixed-point imaging unit with a distance from the fixed-point imaging unit at that position, a distance from the fixed-point imaging unit, and an actual image. Position information may be acquired when a new subject is recognized by the recognition unit based on the result of associating it with the position in space.
一態様の撮像装置では、取得部は、被写体の高さと、定点撮像部の画角と、定点撮像部で撮像される画像の幅とを予め取得する第1取得部と、被写体が移動する場合、第1取得部で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部と、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部と、第1取得部で取得される画像の幅と、第2取得部で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部と、第4取得部で取得された実際の画像の幅と、第1取得部で取得された画角とに基づいて、定点撮像部から画像内の中心位置までの距離である第1距離を取得すると共に、地面から中心位置までの距離である第2距離を取得する第5取得部と、第5取得部で取得された第1距離及び第2距離に基づいて、地面と定点撮像部の撮像方向における中心線とのなす角を求める第6取得部と、第5取得部で取得された第1距離及び第2距離と、第6取得部で取得されたなす角とに基づいて、地面から定点撮像部までの高さを取得する第7取得部と、第7取得部で取得された地面から定点撮像部までの高さと、第6取得部で取得されたなす角とに基づいて、定点撮像部が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて画像位置情報を取得する第8取得部と、を備えることとしてもよい。 In one aspect of the imaging device, the acquisition unit includes a first acquisition unit that acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit, and the width of the image captured by the fixed-point imaging unit; , a second acquisition unit that acquires the number of pixels constituting image data per meter based on the height of the subject acquired by the first acquisition unit; a third acquisition unit that acquires the relationship between the coordinates and the number of pixels per meter of the subject acquired by the second acquisition unit; the width of the image acquired by the first acquisition unit; a fourth acquisition unit that acquires an actual image width at a predetermined position based on the number of pixels per meter, and the actual image width acquired by the fourth acquisition unit; a fifth acquisition unit that acquires a first distance, which is the distance from the fixed-point imaging unit to the center position in the image, and a second distance, which is the distance from the ground to the center position, based on the angle of view; Based on the first distance and the second distance obtained by the fifth obtaining unit, a sixth obtaining unit obtains the angle between the ground and the center line in the imaging direction of the fixed-point imaging unit; a seventh acquisition unit that acquires the height from the ground to the fixed-point imaging unit based on the first distance, the second distance, and the angle acquired by the sixth acquisition unit; Based on the height from the ground to the fixed-point imaging unit and the angle acquired by the sixth acquisition unit, the position from the imaging position where the fixed-point imaging unit is arranged to the subject is acquired, and further, a plurality of positions of the subject are acquired. and an eighth acquisition unit that acquires the image position information based on the acquisition.
一態様の撮像装置では、取得部は、第4取得部で取得された実際の画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する第9取得部を備えることとしてもよい。 In one aspect of the imaging device, the obtaining unit performs the width based on the width at the reference position in the Y-coordinate direction and the width at the predetermined position in the Y-coordinate direction, out of the width of the actual image obtained by the fourth obtaining unit. and a ninth acquisition unit that acquires the width ratio with respect to the Y coordinate.
一態様の撮像方法では、コンピュータが、複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識ステップと、認識ステップで認識した被写体の位置に関する位置情報を取得する取得ステップと、取得ステップで取得された位置情報に基づいて被写体の移動先を予測する予測ステップと、予測ステップで予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択ステップと、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得ステップで取得される位置情報とを対応付ける対応付けステップと、対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部に表示する表示ステップと、を実行する。 In one aspect of the imaging method, a computer performs a fixed-point imaging step in which a plurality of fixed-point imaging units successively images a subject in time to generate image data; a recognition step of recognizing a subject from the object; an obtaining step of obtaining position information about the position of the subject recognized in the recognizing step; a prediction step of predicting the destination of the subject based on the position information obtained in the obtaining step; selecting a fixed-point imaging unit closest to the destination predicted in the step and causing the selected fixed-point imaging unit to capture an image of the subject; a step of associating positional information obtained in the obtaining step with the positional information acquired in the obtaining step; and a display step of displaying the trajectory of the subject based on the information on the display unit.
一態様の撮像プログラムは、コンピュータに、複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識機能と、認識機能で認識した被写体の位置に関する位置情報を取得する取得機能と、取得機能で取得された位置情報に基づいて被写体の移動先を予測する予測機能と、予測機能で予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択機能と、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得機能で取得される位置情報とを対応付ける対応付け機能と、対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部に表示する表示機能と、を実現させる。 An image capturing program of one aspect provides a computer with a fixed point capturing function of capturing images of a subject continuously in time by a plurality of fixed point capturing units to generate image data, and an image based on the image data generated by each of the fixed point capturing units. a recognition function that recognizes a subject from a target, an acquisition function that acquires position information related to the position of the subject recognized by the recognition function, a prediction function that predicts the destination of the subject based on the position information acquired by the acquisition function, and a prediction A selection function that selects the fixed-point imaging unit closest to the destination predicted by the function and captures the subject with the selected fixed-point imaging unit, an image based on the image data captured by the fixed-point imaging unit, and a A function for associating location information obtained by an acquisition function with a corresponding image, and a plurality of images and location information associated by the associating function are acquired in succession in time, and the images and their locations are obtained in chronological order. and a display function for displaying the trajectory of an object based on information on a display unit.
一態様の撮像装置は、取得部によって被写体の位置情報を取得することに基づいて被写体の移動先を予測し、その移動先を撮像することができる最も近い定点撮像部を選択部によって選択するので、複数の定点撮像部を用いて同一の被写体を撮像するのに好適な撮像装置を提供することができる。
また、一態様の撮像方法及び撮像プログラムは、上述した一態様の撮像装置と同様の効果を奏することができる。
In the imaging device of one aspect, the destination of the subject is predicted based on the acquisition of the position information of the subject by the acquisition unit, and the selection unit selects the nearest fixed-point imaging unit capable of imaging the destination. , it is possible to provide an imaging apparatus suitable for imaging the same subject using a plurality of fixed-point imaging units.
Further, the imaging method and the imaging program of one aspect can achieve the same effect as the imaging apparatus of one aspect described above.
以下、本発明の一実施形態について説明する。
撮像装置は、異なる地点に配される複数の定点撮像部で被写体を撮像する。撮像装置は、予測部によって被写体の移動先を予測し、その被写体を撮像することができる最も近い定点撮像部によって被写体を撮像する。また、撮像装置は、取得部によって被写体の位置情報を取得することに基づいて、被写体の移動の軌跡を取得する。そして、撮像装置は、定点撮像部によって撮像される被写体の画像と、取得部によって取得される被写体の移動お軌跡とを、時間的に同期するように表示部に表示する。
An embodiment of the present invention will be described below.
An imaging device images a subject with a plurality of fixed-point imaging units arranged at different points. The imaging device predicts the destination of the subject by the prediction section, and captures the subject by the nearest fixed-point imaging section that can capture the subject. Further, the imaging device acquires the trajectory of the movement of the subject based on the acquisition of the position information of the subject by the acquisition unit. Then, the imaging device displays the image of the subject imaged by the fixed-point imaging section and the movement trajectory of the subject acquired by the acquisition section on the display section so as to be temporally synchronized.
以下、撮像装置の具体的な構成について説明する。
図1は、一実施形態に係る撮像装置について説明するためのブロック図である。
図2は、被写体の予測について説明するための図である。
図3は、画像と位置情報との対応付けについて説明するための図である。
図4は、表示部の表示画面について説明するための図である。
A specific configuration of the imaging apparatus will be described below.
FIG. 1 is a block diagram for explaining an imaging device according to one embodiment.
FIG. 2 is a diagram for explaining subject prediction.
FIG. 3 is a diagram for explaining the correspondence between images and position information.
FIG. 4 is a diagram for explaining the display screen of the display unit.
図1に示すように、撮像装置1は、定点撮像部11、認識部12、取得部13、予測部14、選択部15、対応付け部16及び表示部17を備える。
As shown in FIG. 1 , the
定点撮像部11は、複数あり、例えば、異なる地点それぞれに配される。撮像装置1では、定点撮像部11が配される位置に関する情報(位置情報)が予め取得されている。複数の定点撮像部11は、それぞれ異なる場所を撮像してもよく、1の定点撮像部11の撮像範囲が他の定点撮像部11の撮像範囲の一部となっていてもよい。
A plurality of fixed-
定点撮像部11は、時間的に連続して被写体を撮像して画像データを生成する。定点撮像部11は、動画を撮像することにより画像データを生成してもよく、所定時間毎に静止画を撮像することにより画像データを生成してもよい。定点撮像部11(後述する時刻情報付加部18)は、撮像した時刻(時刻情報)を、動画を構成するフレーム又は静止画に付してもよく、付さなくてもよい。定点撮像部11は、生成した画像データを、後述する認識部12に出力してもよく、記憶部19に記憶してもよい。定点撮像部11においてフレーム又は静止画に時刻情報を付されない場合、記憶部19(後述する時刻情報付加部18)は、画像データを記憶する際に、記憶時刻(時刻情報)をフレーム又は静止画に付してもよい。定点撮像部11において画像データが生成されると、その画像データはすぐに記憶部19に記憶される。このため、撮影した時刻と記憶時刻とはほぼ一致する。
なお、複数の定点撮像部11それぞれは、計時する時刻が同期するようにNTPサーバに接続されてもよい。又は、複数の定点撮像部11は、通信ネットワークに接続されていない環境の場合には、GPS(Global Positioning System)アンテナ付きのNTPサーバに接続されてもよい。
また、定点撮像部11は、撮像される画像内の明暗の変化が少なく、ホワイトバランスの変化が少ない撮像部であってもよい。
The fixed-
Note that each of the plurality of fixed-
In addition, the fixed-
認識部12は、定点撮像部11それぞれで撮像された画像データに基づく画像から被写体を認識する。認識部12は、例えば、予め被写体の特徴を学習しておき、その学習結果に基づいて画像データから被写体の特徴を抽出し、抽出した特徴から被写体を認識することとしてもよい。又は、認識部12は、例えば、パターンマッチングを利用することにより、画像データに基づいて被写体を認識することとしてもよい。認識部12は、一例として、被写体として、人、乗用車、トラック、オートバイ、自転車等を認識する。認識部12は、1の画像(動画、フレーム、静止画)から複数の被写体を認識することとしてもよい。
なお、認識部12は、定点撮像部11から画像データを入力してもよく、記憶部19から読み出した画像データを入力してもよい。
The
Note that the
取得部13は、認識部12で認識した被写体の位置に関する位置情報を取得する。定点撮像部11で得られる画像では、その画像内の位置が予め設定されている。
すなわち、取得部13では、画像内の位置と、その位置における定点撮像部11からの距離とが分かるように予め設定されている。取得部13では、取得される距離と、実際の空間上の位置座標(位置情報)とが対応付けられている。取得部13は、画像内の被写体の位置を特定することにより、定点撮像部11からの距離と、その距離に対応付けられた位置情報とに基づいて、被写体の位置情報を取得することができる。画像内の位置と、その位置における定点撮像部11からの距離とを対応付ける方法については、後述する。
The
That is, the
なお、上記の例に限定されず、取得部13は、定点撮像部11で撮像される画像内の位置と、実際の空間上の位置座標(位置情報)とを対応付ける測定作業を繰り返すことにより、得られた対応付けの関係(対応関係)を記憶することとしてもよい。この場合、取得部13は、定点撮像部11で画像が得られると、その対応関係に基づいて、画像上の位置から実際の空間の位置情報を取得することとしてもよい。
Note that the
取得部13は、定点撮像部11で得られる画像に被写体が記録される場合、すなわち、認識部12で被写体が認識された場合、画像内の被写体の位置と、その位置における定点撮像部11からの距離とに基づいて、被写体の位置情報(定点撮像部11から被写体までの距離)を取得する。
定点撮像部11は時間的に連続して又は所定時間毎に被写体を撮像するため、取得部13は、同一の被写体について複数の位置情報を取得することが可能である。定点撮像部11は、取得された位置情報を記憶部19に記憶することとしてもよい。
定点撮像部11(後述する時刻情報付加部18)は、取得された位置情報と、フレーム又は静止画に記録される時刻情報と位置情報とを対応付けることとしてもよい。この場合、定点撮像部11は、位置情報を、時刻情報と対応付けて記憶部19に記憶することとしてもよい。
When the subject is recorded in the image obtained by the fixed-
Since the fixed-
The fixed-point imaging unit 11 (time
予測部14は、取得部13で取得された位置情報に基づいて被写体の移動先を予測する。上述したように取得部13は同一の被写体について時系列に沿って複数の位置情報を取得することが可能なため、予測部14は、複数の位置情報に基づいて、被写体の移動先を予測する。すなわち、予測部14は、時間的に前後する複数の位置情報に基づいて、それぞれの位置におおける被写体の速度ベクトルを求める。定点撮像部11は、所定のフレームレートで動画を撮像し、又は、予め設定された時間毎に静止画を撮像する。このため、予測部14は、定点撮像部11で撮像される異なる2枚の画像の時間的な間隔が分かる。また、予測部14は、取得部13において画像内の被写体の位置情報が取得されるため、時間的に前後する2枚の画像から被写体の移動量が分かる。よって、予測部14は、複数の画像に基づいて、被写体の速度ベクトルを求める。予測部14は、求められた速度ベクトルと、被写体の位置情報に基づいて、被写体の将来の移動先を予測する。この場合、予測部14は、被写体の移動先の位置座標(位置情報)を取得することが可能である。
The
図2に例示するように、被写体T(乗用車)が道路を走行する場合、取得部13は、定点撮像部11で得られた画像に基づいて被写体Tの位置P1(位置情報)を複数取得する。予測部14は、取得部13によって取得された複数の位置情報に基づいて、被写体の将来の位置P2(位置情報)を予測する。
As illustrated in FIG. 2, when the subject T (passenger car) travels on the road, the
選択部15は、予測部14で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる。定点撮像部11の位置情報は予め取得されているため、選択部15は、予測部14で予測された被写体の移動先(位置情報)を撮像することができ、且つ、その移動先(位置情報)から最も近い定点撮像部11を選択し、選択した定点撮像部11でその被写体を撮像させる。
The
図2に例示する場合、2つの定点撮像部11a,11bが配される。選択部15は、予測部14で予測される被写体の将来の位置P2を撮像することができる、最も近い定点撮像部11bを選択する。選択部15は、定点撮像部11の位置情報を予め取得すると共に、定点撮像部11が撮像できる範囲の位置座標を予め取得しているため、複数の定点撮像部11の中から1の定点撮像部11を選択することができる。
In the case illustrated in FIG. 2, two fixed-
対応付け部16は、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得部13で取得される位置情報とを対応付ける。すなわち、対応付け部16は、定点撮像部11で得られる被写体の画像と、その画像に基づいて得られる被写体の位置情報とを対応付ける。この場合、対応付け部16は、画像が静止画の場合、その静止画と、その静止画から得られる被写体の位置情報とを対応付ける。又は、対応付け部16は、画像が動画の場合、所定の時間における動画(一例として、フレーム)と、その所定時間における動画(一例として、フレーム)から得られる被写体の位置情報とを対応付ける。図3に例示するように、対応付け部16は、1の画像(フレーム又は静止画)と、その1の画像から得られる被写体の位置情報とを対応付ける。対応付け部16は、全ての画像について、被写体の位置情報と対応付けることとしてもよい。
これにより、対応付け部16は、所定時間における画像と、その所定時間における被写体の位置情報とを対応付けることが可能である。対応付け部16は、時間的に連続して又は間欠的に画像と位置情報とを対応付けることにより、時系列に沿った画像と位置情報とを対応付けたデータを得ることが可能になる。
The associating
Thereby, the associating
表示部17は、対応付け部16で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する。
表示部17は、一例として、画像を表示する表示スクリーンと、被写体の軌跡を表示する表示スクリーンとを表示することとしてもよい。表示部17は、定点撮像部11で撮像される画像と、被写体の軌跡(位置情報)とをリアルタイムで表示することができる。又は、表示部17は、記憶部19に記憶される過去の画像と、その画像から得られる被写体の軌跡(位置情報)とを表示することができる。
The
As an example, the
表示部17は、定点撮像部11で撮像される被写体の画像と、取得部13で取得される被写体の位置情報に基づく被写体の軌跡とを表示する。表示部17は、被写体の画像と、被写体の位置(軌跡)とを時間的に同期させて表示する。
すなわち、表示部17は、被写体が写る動画又は被写体が写る静止画を時系列に沿って連続して表示すると共に、例えば、地図上に被写体の位置を表示する。表示部17は、地図上に被写体の位置を表示する場合、被写体の移動が分かるように、被写体の移動の軌跡を表示することとしてもよい。
The
That is, the
図4に例示するように、表示部17は、地図を表示して、その地図上に被写体の軌跡を表示する。また、表示部17は、複数の定点撮像部11が配される場合、それぞれの定点撮像部11で撮像される画像を表示する。この場合、対応付け部16によって、1の定点撮像部11で撮像される画像と、その画像に基づいて得られた被写体の位置(軌跡)とが対応付けられているため、表示部17は、その対応付けが分かるように表示する。図4に例示する場合、表示部17は、1の定点撮像部11cによって撮像された画像を表示する表示エリア、及び、軌跡の周囲に実線の囲みを加えて、対応付けが分かるようにしている。同様に、表示部17は、他の定点撮像部11dによって撮像された画像を表示する表示エリア、及び、軌跡の周囲に破線の囲みを加えて、対応付けが分かるようにしている。
As exemplified in FIG. 4, the
上述した撮像装置1では、対応付け部16は、複数の定点撮像部11それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部11毎に異なる特徴を示す特徴情報を付すこととしてもよい。この場合、表示部17は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部11毎に異なる特徴画像を付して表示することとしてもよい。
In the
対応付け部16は、被写体が写る画像と、その画像から取得される被写体の軌跡とを対応付け、その対応付けに対して特徴を付す。対応付け部16は、1の画像に複数の被写体が写り、その1の画像から取得される被写体の軌跡が複数ある場合にも、同一の特徴を付す。なお、対応付け部16は、1の画像に複数の被写体が記録される場合には、それぞれの被写体の軌跡を異なる形状、一例として、円形、三角形、四角形等の形状に設定することとしてもよい。
すなわち、対応付け部16は、画像を取得する定点撮像部11毎に異なる特徴を付す。特徴は、一例として、色、文字又は記号等である。具体的な一例としては、表示部17は、対応付け部16によって特徴情報として赤色の特徴が付された場合、1の定点撮像部11で撮像された画像を表示する表示スクリーンの周囲に赤色を付し、その表示スクリーンに表示される被写体の軌跡に赤色を付す。また、表示部17は、対応付け部16によって特徴情報として青色の特徴が付された場合、他の定点撮像部11で撮像された画像を表示する表示スクリーンの周囲に青色を付し、その表示スクリーンに表示される被写体の軌跡に青色を付す。これにより、対応付け部16は、図4に例示するような実線及び破線の区別よりも、視角的にわかりやすい対応付けを行うことができる。
The associating
That is, the associating
上述した撮像装置1は、時刻情報付加部18及び記憶部19を備えることとしてもよい。
時刻情報付加部18は、定点撮像部11で生成された画像データに基づく画像と、取得部13で取得された位置情報とに対して同期する時刻情報を付す。記憶部19は、画像データ及び位置情報を記憶する。この場合、表示部17は、記憶部19から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部18で付加された時刻情報に基づいて同期するように表示することとしてもよい。
The
The time
一例として、時刻情報付加部18は、定点撮像部11によって撮像された画像データに撮像時刻(時刻情報)を付す。この場合、時刻情報付加部18は、定点撮像部11の内部に配されてもよく、定点撮像部11の外部に配されてもよい。又は、時刻情報付加部18は、記憶部19に画像データを記憶する場合に、記憶時刻(時刻情報)を付す。この場合、時刻情報付加部18は、記憶部19の内部に配されてもよく、記憶部19の外部に配されてもよい。定点撮像部11によって生成された画像データを記憶部19に記憶する場合、画像データは、定点撮像部11で生成されるとすぐに記憶部19に記憶される。このため、記憶時刻と撮像時刻とはほぼ同時刻となる。
また、時刻情報付加部18は、取得部13によって位置情報が取得されると、その位置情報の取得に用いられた画像に付された時刻情報をその位置情報に対応付ける。
これにより、時刻情報付加部18は、画像と、その画像から得られる被写体の位置情報とを同期させることができる。表示部17は、時刻情報に基づいて、画像と、その画像に写る被写体の軌跡(位置情報)とを同期させて表示することができる。
As an example, the time
Further, when the position information is acquired by the
As a result, the time
次に、定点撮像部11で得られる画像内の位置と、その位置における定点撮像部11からの距離とを対応付ける方法について説明する。
図5は、画像位置情報を取得する場合の説明に用いるための図である。
図6は、定点撮像部で撮像される画像の一例について説明するための図である。
図7は、Y座標とピクセル数との関係を示すグラフである。図7の横軸はY座標を示し、縦軸は1m当たりのピクセル数を示す。ここで、定点撮像部で撮像される画像内における奥行方向がY座標であり、その画像の幅方向がX座標である。
図8は、画像位置情報の一例について説明するためのグラフである。図8の横軸はY座標を示し、縦軸は、定点撮像部が配される地面の位置から任意のY座標の位置までの距離を示す。
図9は、Y座標と画像の幅の比率との関係を示すグラフである。図9の横軸はY座標を示し、縦軸は画像の幅の比率を示す。
Next, a method of associating a position in an image obtained by the fixed-
FIG. 5 is a diagram for use in explaining the acquisition of image position information.
FIG. 6 is a diagram for explaining an example of an image captured by a fixed-point imaging unit.
FIG. 7 is a graph showing the relationship between the Y coordinate and the number of pixels. The horizontal axis of FIG. 7 indicates the Y coordinate, and the vertical axis indicates the number of pixels per meter. Here, the depth direction in the image captured by the fixed-point imaging unit is the Y coordinate, and the width direction of the image is the X coordinate.
FIG. 8 is a graph for explaining an example of image position information. The horizontal axis of FIG. 8 indicates the Y coordinate, and the vertical axis indicates the distance from the position of the ground where the fixed-point imaging section is arranged to an arbitrary Y coordinate position.
FIG. 9 is a graph showing the relationship between the Y coordinate and the width ratio of the image. The horizontal axis of FIG. 9 indicates the Y coordinate, and the vertical axis indicates the width ratio of the image.
具体的には、図1に示すように、取得部13は、第1取得部131、第2取得部132、第3取得部133、第4取得部134、第5取得部135、第6取得部136、第7取得部137、第8取得部138及び第9取得部139を備える。
Specifically, as shown in FIG. 1, the
第1取得部131は、被写体の高さ、定点撮像部11の画角及び定点撮像部11で撮像される画像幅を予め取得する。
画像内の位置情報(画像位置情報)を取得するために、まず、定点撮像部11の撮像範囲内で被写体110を移動させる。被写体110(図5参照)は、例えば、人などである。被写体110が人の場合、例えば、不図示の入力装置を用いて、人の身長(被写体の高さ)が入力される。第1取得部131は、入力された人の身長を取得する。
また、第1取得部131は、定点撮像部11が撮影する画角θ2を取得する。画角θ2は、例えば、不図示の入力装置を用いて入力される。第1取得部131は、入力された画角θ2を取得する。画角θ2は、定点撮像部11の撮像素子(図示せず)の平面サイズ、及び、定点撮像部11の撮像レンズ(図示せず)の焦点距離等によって定まる。
また、第1取得部131は、定点撮像部11で得られる画像の幅(一例として、ピクセル数)を取得する。画像の幅(画像幅)は、例えば、不図示の入力装置を用いて入力される。
The
In order to acquire position information (image position information) within an image, first, the subject 110 is moved within the imaging range of the fixed-
Also, the
The
第2取得部132は、第1取得部131で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する。
第2取得部132は、撮像範囲内で被写体(人)110を歩かせることにより、画像内の任意に位置において、定点撮像部11で撮像される画像内での1m当たりのピクセル数を取得する。すなわち、第2取得部132は、第1取得部131で取得された人の身長に基づいて画像100a内における1mの大きさ(長さ)を取得し、さらに取得した1mの大きさ当たりの画像のピクセル数を取得する。
図6に例示する場合、定点撮像部11に用いられる撮像素子(定点撮像部11で得られる画像)のサイズは、1280ピクセル×960ピクセルである。第2取得部132は、図6に例示する画像に被写体110(図6には図示せず)が記録される場合、被写体110の高さと、撮像素子(画像)のピクセル数とに基づいて、1mの大きさ当たりのピクセル数を取得する。
The
The
In the case illustrated in FIG. 6, the size of the imaging element (the image obtained by the fixed-point imaging section 11) used for the fixed-
第3取得部133は、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部132で取得される被写体の1m当たりのピクセル数との関係を取得する。
図6に例示する場合、画像の縦方向が実空間の奥行方向に対応し、その画像の縦方向の座標がY座標になる。また、図6に例示する場合、画像の横方向が実空間の幅方向に対応し、その画像の横方向の座標がX座標になる。そして、図6の左上のピクセルを原点の座標(0,0)とすると、右上のピクセルの座標が(1280,0)になる。図6の中心位置のピクセルの座標が(640,480)になる。図6の左下のピクセルの座標が(0,960)になり、右下のピクセルの座標が(1280,960)になる。
定点撮像部11は、上から下を見下ろすように撮像するため、図6に示す画面の上部側が定点撮像部11から離れた位置になり、画面の下部側が定点撮像部11に近い位置になる。したがって、図6に示す原点のY座標は、定点撮像部11から最も離れた位置となる。
The
In the case of FIG. 6, the vertical direction of the image corresponds to the depth direction of the real space, and the vertical coordinate of the image is the Y coordinate. Also, in the case of FIG. 6, the horizontal direction of the image corresponds to the width direction of the real space, and the horizontal coordinate of the image is the X coordinate. Assuming that the upper left pixel in FIG. 6 has coordinates (0, 0) of the origin, the coordinates of the upper right pixel are (1280, 0). The coordinates of the pixel at the center position in FIG. 6 are (640, 480). The coordinates of the lower left pixel in FIG. 6 are (0,960), and the coordinates of the lower right pixel are (1280,960).
Since the fixed-
定点撮像部11の撮像範囲内(座標(0,0)、座標(1280,0)、座標(1280,960)及び座標(0,960)で囲まれる範囲内)を、例えば、被写体(人)を縦横に歩かせることにより、第3取得部133は、複数のY座標の位置において1m当たりのピクセル数を取得する。
Within the imaging range of the fixed-point imaging unit 11 (within the range surrounded by coordinates (0, 0), coordinates (1280, 0), coordinates (1280, 960), and coordinates (0, 960)), for example, a subject (person) walks vertically and horizontally, the
図7に一例を示すように、第3取得部133によって取得されるY座標と1m当たりのピクセル数との関係は線形になる。ここで、図5に示すように、Y座標の数値は、定点撮像部11に近づくに従って大きくなる。すなわち、Y座標が大きくなるに従って(被写体が定点撮像部11に近づくに従って)、1m当たりのピクセル数は多くなる。換言すると、Y座標が小さくなるに従って(被写体が定点撮像部11から遠ざかるに従って)、1m当たりのピクセル数は少なくなる。
As an example is shown in FIG. 7, the relationship between the Y coordinate acquired by the
第4取得部134は、第1取得部131によって取得された画像の幅と、第2取得部132で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅wを取得する。
図5に例示するように、被写体110がいるY座標の位置(Y座標の方向の所定位置)における画像100aを考える。第4取得部134は、定点撮像部11で撮像される画像の幅方向のピクセル数(図6に例示する場合では1280ピクセル)は第1取得部131によって取得されるため、1m当たりのピクセル数に基づいて、そのY座標の所定位置における画像100aの幅wの実際の長さを取得する。
The fourth obtaining unit 134 obtains the actual width w of the image at the predetermined position based on the width of the image obtained by the first obtaining
As illustrated in FIG. 5, consider an
第5取得部135は、第4取得部134で取得された実際の画像の幅wと、第1取得部131で取得された画角θ2とに基づいて、定点撮像部11から画像100a内の中心位置Pcまでの距離である第1距離を取得すると共に、地面から中心位置Pcまでの距離である第2距離を取得する。
第5取得部135は、上述したY座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部11の画角θ2に基づいて、定点撮像部11から画像100aの中心位置Pcまでの実際の距離(第1距離L1)を取得する。また、第5取得部135は、画像のピクセル数、1m当たりのピクセル数、Y座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部11の画角に基づいて、画像100aの中心位置Pcから地面までの実際の距離(第2距離L2)を取得する。
Based on the width w of the actual image acquired by the fourth acquisition unit 134 and the angle of view θ2 acquired by the
The
第6取得部136は、第5取得部135で取得された第1距離L1及び第2距離L2に基づいて、定点撮像部11の撮像方向における中心線と地面とのなす角θを求める。すなわち、第6取得部136は、三角関数を利用することにより、第5取得部135で取得された第1距離L1及び第2距離L2に基づいて、地面と定点撮像部11とのなす角θを求める。
Based on the first distance L1 and the second distance L2 obtained by the fifth obtaining
第7取得部137は、第5取得部135で取得された第1距離L1及び第2距離L2と、第6取得部136で取得されたなす角θとに基づいて、地面から定点撮像部11までの高さHを取得する。すなわち、第7取得部137は、三角関数を利用することにより、第1距離L1、第2距離L2及びなす角θに基づいて、地面から定点撮像部11までの高さHを取得する。
Based on the first distance L1 and the second distance L2 obtained by the fifth obtaining
第8取得部138は、第7取得部137で取得された地面から定点撮像部11までの高さHと、第6取得部136で取得されたなす角θとに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて画像位置情報を取得する。
すなわち、第8取得部138は、地面から定点撮像部11までの高さHと、定点撮像部11と地面とのなす角θとに基づいて、定点撮像部11が配される地面位置P0からY座標の所定位置(画像100a)までの距離L3を取得する。第8取得部138は、その距離L3と、画像内の所定位置におけるY座標とを対応付けることにより、画像内の位置に関する情報(画像位置情報)を取得する。また、第8取得部138は、被写体110を定点撮像部11の撮像範囲内を移動させて、撮像範囲内の任意の位置における定点撮像部11が配される地面位置P0から被写体(人)110までの距離を取得することに基づいて、画像位置情報を取得する。第8取得部138は、画像位置情報を記憶部19に記憶する。
Based on the height H from the ground to the fixed-
In other words, the
画像位置情報は、定点撮像部11で撮像される画像内の任意のピクセルの位置(座標)が、定点撮像部11から何mの距離であるかを示す情報である。画像位置情報は、具体的な一例として、図6に示すピクセルの座標(640,480)は定点撮像部11から10mの距離がある、ピクセルの座標(640,720)は定点撮像部11から15mの距離がある、ピクセルの座標(640,840)は定点撮像部11から20mの距離があるという情報である。
The image position information is information indicating the distance in meters from the fixed-
図8に示すように、画像位置情報は、Y座標が大きくなるに従って、定点撮像部11が配される地面位置P0からの距離が近くなることを示す情報である。換言すると、画像位置情報は、Y座標が小さくなるに従って、定点撮像部11が配される地面位置P0からの距離が遠くなることを示す情報である。
As shown in FIG. 8, the image position information is information indicating that as the Y coordinate increases, the distance from the ground position P0 where the fixed-
ここで、第9取得部139は、第4取得部134で取得された複数の画像それぞれの実際の幅wのうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する。
すなわち、第4取得部134では、実際の画像の幅wを取得する。被写体110がいない位置(人が歩いていない位置に対応するY座標)においては、第4取得部134は、実際の画像の幅wを取得することができない。このため、第9取得部139は、第4取得部134でY座標の複数の位置で画像の幅wを取得した場合、その複数の位置での画像の幅wに基づいて、Y座標の任意の位置における画像の幅を算出する。例えば、第9取得部139は、第4取得部134で取得された複数の画像の幅のうち1つをY座標の基準位置の画像の幅(基準幅)と設定し、複数の画像の幅のうち基準幅を除く他の画像の幅と、基準幅との比率(幅比率)を求める。第9取得部139は、第4取得部134で取得された複数の画像それぞれに基づいて、基準幅との比率(幅比率)を求める。この幅比率をグラフに示すと、図9のようになる。
Here, the ninth obtaining unit 139 obtains the actual width w of each of the plurality of images obtained by the fourth obtaining unit 134 at the reference position in the Y coordinate direction and the width at the predetermined position in the Y coordinate direction Obtain the width ratio to the Y coordinate based on the width.
That is, the fourth acquisition unit 134 acquires the actual width w of the image. At a position where the subject 110 does not exist (the Y coordinate corresponding to the position where no person is walking), the fourth acquisition unit 134 cannot acquire the actual width w of the image. Therefore, when the fourth obtaining unit 134 obtains the width w of the image at a plurality of positions of the Y coordinate, the ninth obtaining unit 139 obtains an arbitrary width w of the Y coordinate based on the width w of the image at the plurality of positions. Calculate the width of the image at the position of . For example, the ninth obtaining unit 139 sets one of the widths of the plurality of images obtained by the fourth obtaining unit 134 as the width of the image at the reference position of the Y coordinate (reference width), and sets the width of the plurality of images. A ratio (width ratio) between the width of the image other than the reference width and the reference width is calculated. The ninth acquisition unit 139 obtains a ratio (width ratio) to the reference width based on each of the plurality of images acquired by the fourth acquisition unit 134 . A graph showing this width ratio is shown in FIG.
次に、一実施形態に係る撮像方法について説明する。
まず、画像データの取得方法について説明する。
図10は、一実施形態に係る撮像方法について説明するための第1のフローチャートである。
Next, an imaging method according to one embodiment will be described.
First, a method for acquiring image data will be described.
FIG. 10 is a first flowchart for explaining an imaging method according to one embodiment.
ステップST11において、定点撮像部11は、被写体を撮像して画像データを生成する。画像データで得られる画像は、例えば、動画又は静止画である。
In step ST11, the fixed-
ステップST12において、定点撮像部11(時刻情報付加部18)は、ステップST11で生成された画像に時刻情報を付す。時刻情報は、例えば、定点撮像部11で被写体を撮像する場合の撮像時刻、又は、記憶部19に画像データを記憶する場合の記憶時刻等である。撮像時刻と記憶時刻とは、ほぼ同じ時刻となる。
In step ST12, the fixed-point imaging section 11 (time information addition section 18) attaches time information to the image generated in step ST11. The time information is, for example, an imaging time when an object is imaged by the fixed-
ステップST13において、認識部12は、ステップST11で生成された画像データに基づく画像から被写体を認識する。認識部12は、例えば、予め学習された結果に基づいて被写体を認識し、又は、パターンマッチングを用いて被写体を認識する。
In step ST13, the
ステップST14において、取得部13は、ステップST13で認識された被写体の位置情報を取得する。認識部12は、画像内の被写体の位置と、定点撮像部11からその位置までの距離とが予め対応付けているため、ステップST11で生成された画像内の被写体の位置に基づいて、被写体の位置に関する情報(位置情報)を取得する。
In step ST14, the
ステップST15において、取得部13(時刻情報付加部18)は、ステップST14で取得された位置情報に、時刻情報を対応付ける。その時刻情報は、位置情報を取得した画像(画像データ)に付した時刻情報と同じ時刻となる。 In step ST15, the acquisition unit 13 (time information addition unit 18) associates time information with the position information acquired in step ST14. The time information is the same time as the time information attached to the image (image data) from which the position information is acquired.
ステップST16において、予測部14は、ステップST14で取得される位置情報等に基づいて、画像に写る被写体の移動先を予測する。
In step ST16, the
ステップST17において、選択部15は、ステップST16で予測された被写体の移動先を撮像することができる、最も近い定点撮像部11を選択する。
In step ST17, the
ステップST18において、定点撮像部11は、画像データの生成を終了するかを判断する。画像データの生成を終了しない場合(No)、処理はステップST11に戻り、ステップST17で選択された定点撮像部11が被写体を撮像して画像データを生成する。画像データの生成を終了する場合(Yes)、処理は、終了する。
In step ST18, the fixed-
次に、画像の表示方法について説明する。
図11は、一実施形態に係る撮像方法について説明するための第2のフローチャートである。
Next, an image display method will be described.
FIG. 11 is a second flowchart for explaining the imaging method according to one embodiment.
ステップST21において、対応付け部16は、画像データと位置情報とを取得する。例えば、対応付け部16は、ステップST12で時刻情報が付加された画像データと、ステップST15で時刻情報が対応付けられた被写体の位置情報とを取得する。なお、対応付け部16は、記憶部19に記憶される時刻情報が付加された画像データと、記憶部19に記憶される時刻情報が対応付けられた被写体の位置情報とを取得することとしてもよい。
In step ST21, the
ステップST22において、対応付け部16は、時刻情報に基づいて、画像データと被写体の位置情報とを対応付ける。この場合、対応付け部16は、画像データを取得した定点撮像部11毎に異なる特徴を付してもよい。すなわち、対応付け部16は、定点撮像部11毎に、画像データと位置情報とに特徴を付す。
In step ST22, the associating
ステップST23において、表示部17は、ステップST21で取得された画像データに基づく画像と、同じステップST21で取得された位置情報に基づく被写体の軌跡とを表示する。この場合、表示部17は、ステップST22で付された特徴と共に、画像と被写体の軌跡とを表示する。
In step ST23, the
本実施形態によれば、次の効果を奏する。
撮像装置1は、複数の定点撮像部11と、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識部12と、認識部12で認識した被写体の位置に関する位置情報を取得する取得部13と、取得部13で取得された位置情報に基づいて被写体の移動先を予測する予測部14と、予測部14で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択部15と、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得部13で取得される位置情報とを対応付ける対応付け部16と、対応付け部16で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する表示部17と、を備える。
撮像装置1は、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像装置1は、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適な装置である。
また、撮像装置1は、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
According to this embodiment, the following effects are obtained.
The
The
Further, since the
撮像装置1では、対応付け部16は、複数の定点撮像部11それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部11毎に異なる特徴を示す特徴情報を付し、表示部17は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部11毎に異なる特徴画像を付して表示することとしてもよい。
これにより、撮像装置1は、複数の定点撮像部11うちいずれの定点撮像部11で撮像された画像なのか、及び、どの定点撮像部11で撮像されたときの被写体の位置情報(軌跡)なのかを示すことができる。
In the
As a result, the
撮像装置1は、定点撮像部11で生成された画像データに基づく画像と、取得部13で取得された位置情報とに対して同期する時刻情報を付す時刻情報付加部18と、画像データ及び位置情報を記憶する記憶部19と、を備えることとしてもよい。この場合、表示部17は、記憶部19から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部18で付加された時刻情報に基づいて同期するように表示することとしてもよい。
これにより、撮像装置1は、時刻情報に基づいて、画像と、その画像に写る被写体の位置(軌跡)とを同期させることができる。
The
Thereby, the
撮像装置1では、取得部13は、定点撮像部11で撮像される画像内の位置と、被写体の実位置とを予め対応付けた結果に基づいて、認識部12で新たな被写体が認識されと、位置情報を取得することとしてもよい。
これにより、撮像装置1は、被写体の位置情報を取得することができる。
In the
Thereby, the
撮像装置1では、取得部13は、定点撮像部11で撮像される画像内の位置と、その位置における定点撮像部11からの距離とを対応付けた結果と、定点撮像部11からの距離と、実空間上の位置とを対応付けた結果と、に基づいて、認識部12で新たな被写体が認識されると、位置情報を取得することとしてもよい。
これにより、撮像装置1は、定点撮像部11からの被写体までの距離を取得することに基づいて、被写体の位置情報を取得することができる。
In the
Accordingly, the
撮像装置1では、取得部13は、被写体の高さと、定点撮像部11の画角と、定点撮像部11で撮像される実際の画像幅とを予め取得する第1取得部131と、被写体が移動する場合、第1取得部131で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部132と、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部132で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部133と、第1取得部131によって取得された画像の幅と、第2取得部132で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部134と、第4取得部134で取得された実際の画像の幅と、第1取得部131で取得された画角とに基づいて、定点撮像部11から画像内の中心位置までの距離である第1距離を取得すると共に、地面から中心位置までの距離である第2距離を取得する第5取得部135と、第5取得部135で取得された第1距離及び第2距離に基づいて、地面と定点撮像部11の撮像方向における中心線とのなす角を求める第6取得部136と、第5取得部135で取得された第1距離及び第2距離と、第6取得部136で取得されたなす角とに基づいて、地面から定点撮像部11までの高さを取得する第7取得部137と、第7取得部137で取得された地面から定点撮像部11までの高さと、第6取得部136で取得されたなす角とに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて、定点撮像部11からの距離を取得する第8取得部138と、を備えることとしてもよい。
これにより、撮像装置1は、第1~8取得部131~138それぞれが処理を行うことにより、被写体の高さと定点撮像部11の画角とに基づいて、定点撮像部11からの距離を取得することができる。
In the
As a result, the
撮像装置1では、取得部13は、第4取得部134で取得された実際の画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する第9取得部139を備えることとしてもよい。
撮像装置1は、第9取得部139が幅比率を取得することにより、被写体(一例として、人)が歩いていないY座標であっても、画像の幅を取得することができる、これにより、撮像装置1は、任意のY座標において定点撮像部11からの距離を取得することができる。
In the
The
撮像方法では、コンピュータが、複数の定点撮像部11により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識ステップと、認識ステップで認識した被写体の位置に関する位置情報を取得する取得ステップと、取得ステップで取得された位置情報に基づいて被写体の移動先を予測する予測ステップと、予測ステップで予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択ステップと、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得ステップで取得される位置情報とを対応付ける対応付けステップと、対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部17に表示する表示ステップと、を実行する。
撮像方法は、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像方法は、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適な方法である。
また、撮像方法は、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
In the imaging method, a computer performs a fixed-point imaging step in which a plurality of fixed-
The imaging method predicts the destination of the subject and images the subject by the same or different fixed-
In addition, since the imaging method associates the image with the position information, the two can be synchronized when displaying the image and the position information.
撮像プログラムは、コンピュータに、複数の定点撮像部11により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識機能と、認識機能で認識した被写体の位置に関する位置情報を取得する取得機能と、取得機能で取得された位置情報に基づいて被写体の移動先を予測する予測機能と、予測機能で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択機能と、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得機能で取得される位置情報とを対応付ける対応付け機能と、対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部17に表示する表示機能と、を実現させる。
撮像プログラムは、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像プログラムは、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適なプログラムである。
また、撮像プログラムは、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
The imaging program provides a computer with a fixed-point imaging function for generating image data by continuously imaging a subject with a plurality of fixed-
The imaging program predicts the destination of the subject and images the subject with the same or different fixed-
In addition, since the imaging program associates the image with the position information, it is possible to synchronize the two when displaying the image and the position information.
1 撮像装置
11 定点撮像部
12 認識部
13 取得部
131 第1取得部
132 第2取得部
133 第3取得部
134 第4取得部
135 第5取得部
136 第7取得部
138 第8取得部
139 第9取得部
14 予測部
15 選択部
16 対応付け部
17 表示部
18 時刻情報付加部
19 記憶部
1
Claims (9)
前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識部と、
前記認識部で認識した前記被写体の位置に関する位置情報を取得する取得部と、
前記取得部で取得された前記位置情報に基づいて前記被写体の移動先を予測する予測部と、
前記予測部で予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択部と、
前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得部で取得される前記位置情報とを対応付ける対応付け部と、
前記対応付け部で対応付けた画像と前記位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示する表示部と、
を備える撮像装置。 a plurality of fixed-point imaging units that capture images of a subject continuously in time and generate image data;
a recognition unit that recognizes the subject from an image based on image data generated by each of the fixed-point imaging units;
an acquisition unit that acquires position information about the position of the subject recognized by the recognition unit;
a prediction unit that predicts a destination of the subject based on the position information acquired by the acquisition unit;
a selection unit that selects the fixed-point imaging unit closest to the destination predicted by the prediction unit and causes the selected fixed-point imaging unit to image the subject;
an associating unit that associates an image based on image data captured by the fixed-point imaging unit with the position information acquired by the acquisition unit based on the image;
a display unit that acquires a plurality of the images associated by the associating unit and the position information consecutively in time, and displays the images and the trajectory of the subject based on the position information in chronological order;
An imaging device comprising:
前記表示部は、画像及び軌跡を表示する場合、前記対応情報に基づいた画像と前記位置情報に基づく軌跡とに、前記特徴情報に基づいて前記定点撮像部毎に異なる特徴画像を付して表示する
請求項1に記載の撮像装置。 The associating unit associates an image based on image data captured by each of the plurality of fixed-point imaging units with position information, and the fixed-point imaging unit captures image data with respect to correspondence information indicating the association. Attach feature information indicating different features for each
When displaying the image and the trajectory, the display unit displays the image based on the correspondence information and the trajectory based on the position information with a different characteristic image for each fixed-point imaging unit based on the characteristic information. The imaging device according to claim 1.
画像データ及び前記位置情報を記憶する記憶部と、を備え、
前記表示部は、前記記憶部から読み出された画像データに基づく画像及び前記位置情報に基づく軌跡を、前記時刻情報付加部で付加された前記時刻情報に基づいて同期するように表示する
請求項1又は2に記載の撮像装置。 a time information addition unit that adds time information synchronized with the image based on the image data generated by the fixed point imaging unit and the position information acquired by the acquisition unit;
a storage unit that stores the image data and the position information,
The display unit displays an image based on the image data read from the storage unit and a trajectory based on the position information so as to be synchronized based on the time information added by the time information addition unit. 3. The imaging device according to 1 or 2.
前記定点撮像部で撮像される画像内の位置と、被写体の実位置とを予め対応付けた結果に基づいて、前記認識部で新たな被写体が認識されと、位置情報を取得する
請求項1~3のいずれか1項に記載の撮像装置。 The acquisition unit
Position information is acquired when a new object is recognized by the recognition unit based on a result of previously associating a position within an image captured by the fixed-point imaging unit with an actual position of the object. 4. The imaging device according to any one of 3.
前記定点撮像部で撮像される画像内の位置と、その位置における前記定点撮像部からの距離とを対応付けた結果と、
前記定点撮像部からの距離と、実空間上の位置とを対応付けた結果と、
に基づいて、前記認識部で新たな被写体が認識されると、位置情報を取得する
請求項4に記載の撮像装置。 The acquisition unit
a result of associating a position in an image captured by the fixed-point imaging unit with a distance from the fixed-point imaging unit at that position;
a result of associating the distance from the fixed-point imaging unit with a position in real space;
5. The imaging apparatus according to claim 4, wherein position information is acquired when a new subject is recognized by the recognition unit based on.
被写体の高さと、前記定点撮像部の画角と、前記定点撮像部で撮像される画像の幅とを予め取得する第1取得部と、
被写体が移動する場合、前記第1取得部で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部と、
画像データに基づく画像の奥行方向の座標となるY座標と、前記第2取得部で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部と、
前記第1取得部で取得される画像の幅と、前記第2取得部で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部と、
前記第4取得部で取得された実際の画像の幅と、前記第1取得部で取得された画角とに基づいて、前記定点撮像部から画像内の中心位置までの距離である第1距離を取得すると共に、地面から前記中心位置までの距離である第2距離を取得する第5取得部と、
前記第5取得部で取得された前記第1距離及び前記第2距離に基づいて、地面と前記定点撮像部の撮像方向における中心線とのなす角を求める第6取得部と、
前記第5取得部で取得された前記第1距離及び前記第2距離と、前記第6取得部で取得された前記なす角とに基づいて、地面から前記定点撮像部までの高さを取得する第7取得部と、
前記第7取得部で取得された地面から前記定点撮像部までの高さと、前記第6取得部で取得された前記なす角とに基づいて、前記定点撮像部が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて、前記定点撮像部からの距離を取得する第8取得部と、
を備える請求項5に記載の撮像装置。 The acquisition unit
a first acquisition unit that acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit, and the width of the image captured by the fixed-point imaging unit;
a second obtaining unit that obtains the number of pixels constituting image data per meter based on the height of the subject obtained by the first obtaining unit when the subject moves;
a third acquiring unit for acquiring a relationship between a Y coordinate, which is a coordinate in the depth direction of an image based on image data, and the number of pixels per meter of the subject acquired by the second acquiring unit;
a fourth obtaining unit that obtains an actual image width at a predetermined position based on the width of the image obtained by the first obtaining unit and the number of pixels per meter obtained by the second obtaining unit;
A first distance, which is the distance from the fixed-point imaging unit to the center position in the image, based on the width of the actual image acquired by the fourth acquisition unit and the angle of view acquired by the first acquisition unit. and a fifth acquisition unit that acquires a second distance that is the distance from the ground to the center position;
a sixth obtaining unit that obtains an angle between the ground and a center line in the imaging direction of the fixed-point imaging unit based on the first distance and the second distance that are obtained by the fifth obtaining unit;
acquiring a height from the ground to the fixed point imaging unit based on the first distance and the second distance acquired by the fifth acquisition unit and the angle acquired by the sixth acquisition unit; a seventh acquisition unit;
Based on the height from the ground to the fixed-point imaging unit acquired by the seventh acquisition unit and the angle acquired by the sixth acquisition unit, from the imaging position where the fixed-point imaging unit is arranged to the subject an eighth acquisition unit that acquires the position of the subject and further acquires the distance from the fixed point imaging unit based on acquiring a plurality of the positions of the subject;
The imaging device according to claim 5, comprising:
請求項6に記載の撮像装置。 Based on the width at a reference position in the Y-coordinate direction and the width at a predetermined position in the Y-coordinate direction, among the widths of the actual image acquired by the fourth acquisition unit, the acquisition unit acquires the 7. The imaging apparatus according to claim 6, further comprising a ninth acquisition unit that acquires a width ratio with respect to the Y coordinate.
複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、
前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識ステップと、
前記認識ステップで認識した前記被写体の位置に関する位置情報を取得する取得ステップと、
前記取得ステップで取得された位置情報に基づいて前記被写体の移動先を予測する予測ステップと、
前記予測ステップで予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択ステップと、
前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得ステップで取得される位置情報とを対応付ける対応付けステップと、
前記対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示部に表示する表示ステップと、
を実行する撮像方法。 the computer
a fixed-point imaging step in which a plurality of fixed-point imaging units capture images of a subject continuously in time to generate image data;
a recognition step of recognizing the subject from an image based on image data generated by each of the fixed-point imaging units;
an acquisition step of acquiring position information about the position of the subject recognized in the recognition step;
a prediction step of predicting a destination of the subject based on the position information acquired in the acquisition step;
a selection step of selecting the fixed-point imaging unit closest to the destination predicted in the prediction step and causing the selected fixed-point imaging unit to image the subject;
an associating step of associating an image based on image data captured by the fixed-point imaging unit with position information obtained in the obtaining step based on the image;
A display step of acquiring a plurality of images and location information associated in the association step successively in time, and displaying the images and the trajectory of the subject based on the location information in chronological order on a display unit. and,
An imaging method that performs
複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、
前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識機能と、
前記認識機能で認識した前記被写体の位置に関する位置情報を取得する取得機能と、
前記取得機能で取得された位置情報に基づいて前記被写体の移動先を予測する予測機能と、
前記予測機能で予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択機能と、
前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得機能で取得される位置情報とを対応付ける対応付け機能と、
前記対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示部に表示する表示機能と、
を実現させる撮像プログラム。 to the computer,
a fixed-point imaging function for generating image data by capturing images of a subject continuously in time by a plurality of fixed-point imaging units;
a recognition function for recognizing the subject from an image based on image data generated by each of the fixed-point imaging units;
an acquisition function for acquiring position information about the position of the subject recognized by the recognition function;
a prediction function for predicting a destination of the subject based on the position information acquired by the acquisition function;
a selection function that selects the fixed-point imaging unit closest to the destination predicted by the prediction function and causes the selected fixed-point imaging unit to image the subject;
an associating function that associates an image based on image data captured by the fixed-point imaging unit with position information acquired by the acquisition function based on the image;
A display function that acquires a plurality of images and location information associated by the association function successively in time, and displays the images and the trajectory of the subject based on the location information in chronological order on the display unit. and,
An imaging program that realizes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023075531A JP2023100805A (en) | 2019-02-12 | 2023-05-01 | Imaging apparatus, imaging method, and imaging program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019023059A JP7274298B2 (en) | 2019-02-12 | 2019-02-12 | IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM |
JP2023075531A JP2023100805A (en) | 2019-02-12 | 2023-05-01 | Imaging apparatus, imaging method, and imaging program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019023059A Division JP7274298B2 (en) | 2019-02-12 | 2019-02-12 | IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023100805A true JP2023100805A (en) | 2023-07-19 |
Family
ID=72263691
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019023059A Active JP7274298B2 (en) | 2019-02-12 | 2019-02-12 | IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM |
JP2023075531A Pending JP2023100805A (en) | 2019-02-12 | 2023-05-01 | Imaging apparatus, imaging method, and imaging program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019023059A Active JP7274298B2 (en) | 2019-02-12 | 2019-02-12 | IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7274298B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210128736A (en) | 2020-04-17 | 2021-10-27 | 삼성전자주식회사 | Electronic device including multi-cameras and shooting method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4195991B2 (en) * | 2003-06-18 | 2008-12-17 | パナソニック株式会社 | Surveillance video monitoring system, surveillance video generation method, and surveillance video monitoring server |
JP6225039B2 (en) * | 2014-01-31 | 2017-11-01 | 株式会社日立製作所 | Image search system, image search apparatus, and image search method |
-
2019
- 2019-02-12 JP JP2019023059A patent/JP7274298B2/en active Active
-
2023
- 2023-05-01 JP JP2023075531A patent/JP2023100805A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2020136703A (en) | 2020-08-31 |
JP7274298B2 (en) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7480823B2 (en) | Information processing device, information processing method, and program | |
CN104106260B (en) | Control based on geographical map | |
JP4195991B2 (en) | Surveillance video monitoring system, surveillance video generation method, and surveillance video monitoring server | |
US7522186B2 (en) | Method and apparatus for providing immersive surveillance | |
KR101695249B1 (en) | Method and system for presenting security image | |
JP2010504711A (en) | Video surveillance system and method for tracking moving objects in a geospatial model | |
KR101045323B1 (en) | Realtime image control system using multiple view point camera and control method therefor | |
US9576335B2 (en) | Method, device, and computer program for reducing the resolution of an input image | |
JP2011254289A (en) | Moving body locus display device, and moving body locus display program | |
JP2023100805A (en) | Imaging apparatus, imaging method, and imaging program | |
WO2012081319A1 (en) | Video monitoring apparatus | |
KR101700651B1 (en) | Apparatus for tracking object using common route date based on position information | |
JP7107596B2 (en) | Station monitoring system and station monitoring method | |
CN117014716A (en) | Target tracking method and electronic equipment | |
KR102030736B1 (en) | Apparatus for analyzing Multi-Distributed Video Data | |
KR101670247B1 (en) | System for magnifying-moving object using one click of cctv real-time image and method therefor | |
KR101996907B1 (en) | Apparatus for tracking object | |
KR20170012717A (en) | Method and apparatus for generating location information based on video image | |
JPWO2020039898A1 (en) | Station monitoring equipment, station monitoring methods and programs | |
KR102081517B1 (en) | Intelligent integration control system and intelligent integration control method for linkage tracing of goal target | |
KR101462269B1 (en) | part of picture storing method for high definition camera | |
EP4087236A1 (en) | Video surveillance system with vantage point transformation | |
WO2023131327A1 (en) | Video synthesis method, apparatus and system | |
JP2003179930A (en) | Method and apparatus for extracting dynamic object | |
CN117692755A (en) | Moving target tracking shooting method, device, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230529 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230529 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240531 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240611 |