JP2023100805A - Imaging apparatus, imaging method, and imaging program - Google Patents

Imaging apparatus, imaging method, and imaging program Download PDF

Info

Publication number
JP2023100805A
JP2023100805A JP2023075531A JP2023075531A JP2023100805A JP 2023100805 A JP2023100805 A JP 2023100805A JP 2023075531 A JP2023075531 A JP 2023075531A JP 2023075531 A JP2023075531 A JP 2023075531A JP 2023100805 A JP2023100805 A JP 2023100805A
Authority
JP
Japan
Prior art keywords
unit
fixed
image
subject
point imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023075531A
Other languages
Japanese (ja)
Inventor
崇泰 八尋
Takayasu Yahiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Core Corp
Original Assignee
Core Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Core Corp filed Critical Core Corp
Priority to JP2023075531A priority Critical patent/JP2023100805A/en
Publication of JP2023100805A publication Critical patent/JP2023100805A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an imaging apparatus which is preferable for imaging the same subject by using a plurality of imaging apparatuses, an imaging method, and an imaging program.SOLUTION: An imaging apparatus comprises: a plurality of fixed-point imaging parts that generates image data by continuously imaging a subject in time-variant; a recognition part that recognizes the subject from an image on the basis of image data generated by each fixed-point imaging part; an acquisition part that acquires position information related to a position of the subject to be recognized by the recognition part; a prediction part that predicts a movement destination of the subject on the basis of the position information to be acquired by the acquisition part; a selection part that selects the fixed-point imaging part nearest to the movement destination to be predicted by the prediction part to make the subject imaging by the fixed-point imaging part selected; a correspondence part that corresponds the image on the basis of the image data imaged by each fixed-point imaging part and the position information acquired by the acquisition part on the basis of the image; and a display part that continuously acquires a plurality of images to be corresponded by the correspondence part and the position information in time-variant to display the image and a locus of the subject on the basis of the position information.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、撮像方法及び撮像プログラムに関する。 The present invention relates to an imaging device, an imaging method, and an imaging program.

従来から、撮像装置を用いて動画を撮影することは一般的に行われている。そのような中で、撮像した動画のなから見たいシーンを選択するために、表示部に動画と共に、被写体の移動の軌跡を表示する技術がある(特許文献1参照)。特許文献1に記載された技術は、軌跡の1点を選択すると、その時に対応するシーンを表示するようになっている。 2. Description of the Related Art Conventionally, it has been common practice to shoot moving images using an imaging device. Under such circumstances, there is a technique for displaying the moving trajectory of a subject on a display unit together with a moving image in order to select a desired scene from captured moving images (see Patent Document 1). According to the technique described in Patent Document 1, when one point on the trajectory is selected, the scene corresponding to that time is displayed.

特開2014-132748号公報JP 2014-132748 A

撮像装置を用いて動画を撮影する場合の用途には、一例として、監視カメラ等を配置して、道路等を移動する人等を撮影することが挙げられる。監視カメラは複数配されることが多く、異なる監視カメラで同一の被写体を撮影する場合もある。この場合、監視カメラで撮像された動画を見る者は、異なる複数の監視カメラで撮影する被写体が同一か否か判断できない可能性もある。 As an example of the application in which moving images are captured using an imaging device, a monitoring camera or the like is arranged to capture a person or the like moving on a road or the like. A plurality of surveillance cameras are often arranged, and there are cases where the same subject is photographed by different surveillance cameras. In this case, there is a possibility that the viewer of the moving image captured by the monitoring camera cannot determine whether or not the subject captured by the different monitoring cameras is the same.

本発明は、複数の撮像装置を用いて同一の被写体を撮像するのに好適な撮像装置、撮像方法及び撮像プログラムに関する。 The present invention relates to an imaging device, an imaging method, and an imaging program suitable for imaging the same subject using a plurality of imaging devices.

一態様の撮像装置は、時間的に連続して被写体を撮像して画像データを生成する複数の定点撮像部と、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識部と、認識部で認識した被写体の位置に関する位置情報を取得する取得部と、取得部で取得された位置情報に基づいて被写体の移動先を予測する予測部と、予測部で予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択部と、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得部で取得される位置情報とを対応付ける対応付け部と、対応付け部で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する表示部と、を備える。 An imaging device of one aspect includes a plurality of fixed-point imaging units that capture images of a subject continuously in time to generate image data, and a recognition unit that recognizes a subject from an image based on the image data generated by each of the fixed-point imaging units. an acquisition unit for acquiring position information about the position of the subject recognized by the recognition unit; a prediction unit for predicting the destination of the subject based on the position information acquired by the acquisition unit; and the destination predicted by the prediction unit. a selection unit that selects a fixed-point imaging unit that is closest to and causes the selected fixed-point imaging unit to capture an image of the subject; an image based on the image data captured by the fixed-point imaging unit; an associating unit that associates position information with location information; a plurality of images and location information associated by the associating unit are successively obtained in time series; and a display unit that displays

一態様の撮像装置では、対応付け部は、複数の定点撮像部それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部毎に異なる特徴を示す特徴情報を付し、表示部は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部毎に異なる特徴画像を付して表示することとしてもよい。 In one aspect of the imaging device, the associating unit associates the image based on the image data captured by each of the plurality of fixed-point imaging units with the position information, and captures the image data with respect to the correspondence information indicating the association. When displaying the image and the trajectory, the display unit adds the fixed-point imaging based on the feature information to the image based on the correspondence information and the trajectory based on the position information. It is also possible to attach and display a different characteristic image for each copy.

一態様の撮像装置は、定点撮像部で生成された画像データに基づく画像と、取得部で取得された位置情報とに対して同期する時刻情報を付す時刻情報付加部と、画像データ及び位置情報を記憶する記憶部と、を備え、表示部は、記憶部から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部で付加された時刻情報に基づいて同期するように表示することとしてもよい。 An imaging device according to one aspect includes a time information addition unit that adds time information synchronized with an image based on image data generated by a fixed-point imaging unit and position information acquired by an acquisition unit; and the display unit synchronizes the image based on the image data read from the storage unit and the trajectory based on the position information based on the time information added by the time information adding unit. may be displayed in

一態様の撮像装置では、取得部は、定点撮像部で撮像される画像内の位置と、被写体の実位置とを予め対応付けた結果に基づいて、認識部で新たな被写体が認識されと、位置情報を取得することとしてもよい。 In one aspect of the imaging device, the acquisition unit associates in advance a position in an image captured by the fixed-point imaging unit with the actual position of the subject, and when the recognition unit recognizes a new subject, It is good also as acquiring a positional information.

一態様の撮像装置では、取得部は、定点撮像部で撮像される画像内の位置と、その位置における定点撮像部からの距離とを対応付けた結果と、定点撮像部からの距離と、実空間上の位置とを対応付けた結果と、に基づいて、認識部で新たな被写体が認識されると、位置情報を取得することとしてもよい。 In one aspect of the imaging device, the acquisition unit associates a position in an image captured by the fixed-point imaging unit with a distance from the fixed-point imaging unit at that position, a distance from the fixed-point imaging unit, and an actual image. Position information may be acquired when a new subject is recognized by the recognition unit based on the result of associating it with the position in space.

一態様の撮像装置では、取得部は、被写体の高さと、定点撮像部の画角と、定点撮像部で撮像される画像の幅とを予め取得する第1取得部と、被写体が移動する場合、第1取得部で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部と、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部と、第1取得部で取得される画像の幅と、第2取得部で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部と、第4取得部で取得された実際の画像の幅と、第1取得部で取得された画角とに基づいて、定点撮像部から画像内の中心位置までの距離である第1距離を取得すると共に、地面から中心位置までの距離である第2距離を取得する第5取得部と、第5取得部で取得された第1距離及び第2距離に基づいて、地面と定点撮像部の撮像方向における中心線とのなす角を求める第6取得部と、第5取得部で取得された第1距離及び第2距離と、第6取得部で取得されたなす角とに基づいて、地面から定点撮像部までの高さを取得する第7取得部と、第7取得部で取得された地面から定点撮像部までの高さと、第6取得部で取得されたなす角とに基づいて、定点撮像部が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて画像位置情報を取得する第8取得部と、を備えることとしてもよい。 In one aspect of the imaging device, the acquisition unit includes a first acquisition unit that acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit, and the width of the image captured by the fixed-point imaging unit; , a second acquisition unit that acquires the number of pixels constituting image data per meter based on the height of the subject acquired by the first acquisition unit; a third acquisition unit that acquires the relationship between the coordinates and the number of pixels per meter of the subject acquired by the second acquisition unit; the width of the image acquired by the first acquisition unit; a fourth acquisition unit that acquires an actual image width at a predetermined position based on the number of pixels per meter, and the actual image width acquired by the fourth acquisition unit; a fifth acquisition unit that acquires a first distance, which is the distance from the fixed-point imaging unit to the center position in the image, and a second distance, which is the distance from the ground to the center position, based on the angle of view; Based on the first distance and the second distance obtained by the fifth obtaining unit, a sixth obtaining unit obtains the angle between the ground and the center line in the imaging direction of the fixed-point imaging unit; a seventh acquisition unit that acquires the height from the ground to the fixed-point imaging unit based on the first distance, the second distance, and the angle acquired by the sixth acquisition unit; Based on the height from the ground to the fixed-point imaging unit and the angle acquired by the sixth acquisition unit, the position from the imaging position where the fixed-point imaging unit is arranged to the subject is acquired, and further, a plurality of positions of the subject are acquired. and an eighth acquisition unit that acquires the image position information based on the acquisition.

一態様の撮像装置では、取得部は、第4取得部で取得された実際の画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する第9取得部を備えることとしてもよい。 In one aspect of the imaging device, the obtaining unit performs the width based on the width at the reference position in the Y-coordinate direction and the width at the predetermined position in the Y-coordinate direction, out of the width of the actual image obtained by the fourth obtaining unit. and a ninth acquisition unit that acquires the width ratio with respect to the Y coordinate.

一態様の撮像方法では、コンピュータが、複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識ステップと、認識ステップで認識した被写体の位置に関する位置情報を取得する取得ステップと、取得ステップで取得された位置情報に基づいて被写体の移動先を予測する予測ステップと、予測ステップで予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択ステップと、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得ステップで取得される位置情報とを対応付ける対応付けステップと、対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部に表示する表示ステップと、を実行する。 In one aspect of the imaging method, a computer performs a fixed-point imaging step in which a plurality of fixed-point imaging units successively images a subject in time to generate image data; a recognition step of recognizing a subject from the object; an obtaining step of obtaining position information about the position of the subject recognized in the recognizing step; a prediction step of predicting the destination of the subject based on the position information obtained in the obtaining step; selecting a fixed-point imaging unit closest to the destination predicted in the step and causing the selected fixed-point imaging unit to capture an image of the subject; a step of associating positional information obtained in the obtaining step with the positional information acquired in the obtaining step; and a display step of displaying the trajectory of the subject based on the information on the display unit.

一態様の撮像プログラムは、コンピュータに、複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、定点撮像部それぞれで生成された画像データに基づく画像から被写体を認識する認識機能と、認識機能で認識した被写体の位置に関する位置情報を取得する取得機能と、取得機能で取得された位置情報に基づいて被写体の移動先を予測する予測機能と、予測機能で予測された移動先に最も近い定点撮像部を選択して、選択した定点撮像部で被写体を撮像させる選択機能と、定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて取得機能で取得される位置情報とを対応付ける対応付け機能と、対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部に表示する表示機能と、を実現させる。 An image capturing program of one aspect provides a computer with a fixed point capturing function of capturing images of a subject continuously in time by a plurality of fixed point capturing units to generate image data, and an image based on the image data generated by each of the fixed point capturing units. a recognition function that recognizes a subject from a target, an acquisition function that acquires position information related to the position of the subject recognized by the recognition function, a prediction function that predicts the destination of the subject based on the position information acquired by the acquisition function, and a prediction A selection function that selects the fixed-point imaging unit closest to the destination predicted by the function and captures the subject with the selected fixed-point imaging unit, an image based on the image data captured by the fixed-point imaging unit, and a A function for associating location information obtained by an acquisition function with a corresponding image, and a plurality of images and location information associated by the associating function are acquired in succession in time, and the images and their locations are obtained in chronological order. and a display function for displaying the trajectory of an object based on information on a display unit.

一態様の撮像装置は、取得部によって被写体の位置情報を取得することに基づいて被写体の移動先を予測し、その移動先を撮像することができる最も近い定点撮像部を選択部によって選択するので、複数の定点撮像部を用いて同一の被写体を撮像するのに好適な撮像装置を提供することができる。
また、一態様の撮像方法及び撮像プログラムは、上述した一態様の撮像装置と同様の効果を奏することができる。
In the imaging device of one aspect, the destination of the subject is predicted based on the acquisition of the position information of the subject by the acquisition unit, and the selection unit selects the nearest fixed-point imaging unit capable of imaging the destination. , it is possible to provide an imaging apparatus suitable for imaging the same subject using a plurality of fixed-point imaging units.
Further, the imaging method and the imaging program of one aspect can achieve the same effect as the imaging apparatus of one aspect described above.

一実施形態に係る撮像装置について説明するためのブロック図である。1 is a block diagram for explaining an imaging device according to an embodiment; FIG. 被写体の予測について説明するための図である。FIG. 10 is a diagram for explaining prediction of a subject; FIG. 画像と位置情報との対応付けについて説明するための図である。FIG. 4 is a diagram for explaining association between an image and position information; FIG. 表示部の表示画面について説明するための図である。FIG. 3 is a diagram for explaining a display screen of a display unit; FIG. 画像位置情報を取得する場合の説明に用いるための図である。FIG. 10 is a diagram for use in explaining a case of acquiring image position information; 定点撮像部で撮像される画像の一例について説明するための図である。FIG. 4 is a diagram for explaining an example of an image captured by a fixed-point imaging section; FIG. Y座標とピクセル数との関係を示すグラフである。It is a graph which shows the relationship between a Y-coordinate and the number of pixels. 画像位置情報の一例について説明するためのグラフである。7 is a graph for explaining an example of image position information; Y座標と画像の幅の比率との関係を示すグラフである。4 is a graph showing the relationship between the Y coordinate and the width ratio of an image; 一実施形態に係る撮像方法について説明するための第1のフローチャートである。4 is a first flowchart for explaining an imaging method according to one embodiment; 一実施形態に係る撮像方法について説明するための第2のフローチャートである。4 is a second flow chart for explaining an imaging method according to one embodiment;

以下、本発明の一実施形態について説明する。
撮像装置は、異なる地点に配される複数の定点撮像部で被写体を撮像する。撮像装置は、予測部によって被写体の移動先を予測し、その被写体を撮像することができる最も近い定点撮像部によって被写体を撮像する。また、撮像装置は、取得部によって被写体の位置情報を取得することに基づいて、被写体の移動の軌跡を取得する。そして、撮像装置は、定点撮像部によって撮像される被写体の画像と、取得部によって取得される被写体の移動お軌跡とを、時間的に同期するように表示部に表示する。
An embodiment of the present invention will be described below.
An imaging device images a subject with a plurality of fixed-point imaging units arranged at different points. The imaging device predicts the destination of the subject by the prediction section, and captures the subject by the nearest fixed-point imaging section that can capture the subject. Further, the imaging device acquires the trajectory of the movement of the subject based on the acquisition of the position information of the subject by the acquisition unit. Then, the imaging device displays the image of the subject imaged by the fixed-point imaging section and the movement trajectory of the subject acquired by the acquisition section on the display section so as to be temporally synchronized.

以下、撮像装置の具体的な構成について説明する。
図1は、一実施形態に係る撮像装置について説明するためのブロック図である。
図2は、被写体の予測について説明するための図である。
図3は、画像と位置情報との対応付けについて説明するための図である。
図4は、表示部の表示画面について説明するための図である。
A specific configuration of the imaging apparatus will be described below.
FIG. 1 is a block diagram for explaining an imaging device according to one embodiment.
FIG. 2 is a diagram for explaining subject prediction.
FIG. 3 is a diagram for explaining the correspondence between images and position information.
FIG. 4 is a diagram for explaining the display screen of the display unit.

図1に示すように、撮像装置1は、定点撮像部11、認識部12、取得部13、予測部14、選択部15、対応付け部16及び表示部17を備える。 As shown in FIG. 1 , the imaging device 1 includes a fixed-point imaging unit 11 , a recognition unit 12 , an acquisition unit 13 , a prediction unit 14 , a selection unit 15 , an association unit 16 and a display unit 17 .

定点撮像部11は、複数あり、例えば、異なる地点それぞれに配される。撮像装置1では、定点撮像部11が配される位置に関する情報(位置情報)が予め取得されている。複数の定点撮像部11は、それぞれ異なる場所を撮像してもよく、1の定点撮像部11の撮像範囲が他の定点撮像部11の撮像範囲の一部となっていてもよい。 A plurality of fixed-point imaging units 11 are provided, for example, at different locations. In the imaging device 1, information (positional information) regarding the position where the fixed-point imaging section 11 is arranged is obtained in advance. A plurality of fixed-point imaging units 11 may capture images of different locations, and the imaging range of one fixed-point imaging unit 11 may be part of the imaging range of another fixed-point imaging unit 11 .

定点撮像部11は、時間的に連続して被写体を撮像して画像データを生成する。定点撮像部11は、動画を撮像することにより画像データを生成してもよく、所定時間毎に静止画を撮像することにより画像データを生成してもよい。定点撮像部11(後述する時刻情報付加部18)は、撮像した時刻(時刻情報)を、動画を構成するフレーム又は静止画に付してもよく、付さなくてもよい。定点撮像部11は、生成した画像データを、後述する認識部12に出力してもよく、記憶部19に記憶してもよい。定点撮像部11においてフレーム又は静止画に時刻情報を付されない場合、記憶部19(後述する時刻情報付加部18)は、画像データを記憶する際に、記憶時刻(時刻情報)をフレーム又は静止画に付してもよい。定点撮像部11において画像データが生成されると、その画像データはすぐに記憶部19に記憶される。このため、撮影した時刻と記憶時刻とはほぼ一致する。
なお、複数の定点撮像部11それぞれは、計時する時刻が同期するようにNTPサーバに接続されてもよい。又は、複数の定点撮像部11は、通信ネットワークに接続されていない環境の場合には、GPS(Global Positioning System)アンテナ付きのNTPサーバに接続されてもよい。
また、定点撮像部11は、撮像される画像内の明暗の変化が少なく、ホワイトバランスの変化が少ない撮像部であってもよい。
The fixed-point imaging unit 11 continuously images a subject in time to generate image data. The fixed-point imaging unit 11 may generate image data by capturing moving images, or may generate image data by capturing still images at predetermined time intervals. The fixed-point imaging unit 11 (time information adding unit 18 described later) may or may not attach the imaging time (time information) to the frames or still images that make up the moving image. The fixed-point imaging unit 11 may output the generated image data to the recognition unit 12 described later, or may store it in the storage unit 19 . If time information is not attached to a frame or still image in the fixed-point imaging unit 11, the storage unit 19 (time information addition unit 18 described later) adds the storage time (time information) to the frame or still image when storing the image data. may be attached to When image data is generated in the fixed-point imaging section 11, the image data is immediately stored in the storage section 19. FIG. Therefore, the photographing time and the stored time almost match.
Note that each of the plurality of fixed-point imaging units 11 may be connected to an NTP server so that the clock times are synchronized. Alternatively, the plurality of fixed-point imaging units 11 may be connected to an NTP server with a GPS (Global Positioning System) antenna in an environment not connected to a communication network.
In addition, the fixed-point imaging section 11 may be an imaging section in which there is little change in brightness in the captured image and little change in white balance.

認識部12は、定点撮像部11それぞれで撮像された画像データに基づく画像から被写体を認識する。認識部12は、例えば、予め被写体の特徴を学習しておき、その学習結果に基づいて画像データから被写体の特徴を抽出し、抽出した特徴から被写体を認識することとしてもよい。又は、認識部12は、例えば、パターンマッチングを利用することにより、画像データに基づいて被写体を認識することとしてもよい。認識部12は、一例として、被写体として、人、乗用車、トラック、オートバイ、自転車等を認識する。認識部12は、1の画像(動画、フレーム、静止画)から複数の被写体を認識することとしてもよい。
なお、認識部12は、定点撮像部11から画像データを入力してもよく、記憶部19から読み出した画像データを入力してもよい。
The recognition unit 12 recognizes a subject from an image based on image data captured by each fixed-point imaging unit 11 . For example, the recognition unit 12 may learn the features of the subject in advance, extract the features of the subject from the image data based on the learning result, and recognize the subject from the extracted features. Alternatively, the recognition unit 12 may recognize the subject based on the image data by using pattern matching, for example. For example, the recognizing unit 12 recognizes a person, a passenger car, a truck, a motorcycle, a bicycle, etc. as a subject. The recognition unit 12 may recognize a plurality of subjects from one image (moving image, frame, still image).
Note that the recognition unit 12 may receive image data from the fixed-point imaging unit 11 or may receive image data read from the storage unit 19 .

取得部13は、認識部12で認識した被写体の位置に関する位置情報を取得する。定点撮像部11で得られる画像では、その画像内の位置が予め設定されている。
すなわち、取得部13では、画像内の位置と、その位置における定点撮像部11からの距離とが分かるように予め設定されている。取得部13では、取得される距離と、実際の空間上の位置座標(位置情報)とが対応付けられている。取得部13は、画像内の被写体の位置を特定することにより、定点撮像部11からの距離と、その距離に対応付けられた位置情報とに基づいて、被写体の位置情報を取得することができる。画像内の位置と、その位置における定点撮像部11からの距離とを対応付ける方法については、後述する。
The acquisition unit 13 acquires position information regarding the position of the subject recognized by the recognition unit 12 . In the image obtained by the fixed-point imaging section 11, the position within the image is set in advance.
That is, the acquisition unit 13 is set in advance so that the position in the image and the distance from the fixed-point imaging unit 11 at that position can be known. The acquisition unit 13 associates the acquired distance with the actual spatial positional coordinates (positional information). By specifying the position of the subject in the image, the acquisition section 13 can acquire the position information of the subject based on the distance from the fixed-point imaging section 11 and the position information associated with the distance. . A method of associating the position in the image with the distance from the fixed-point imaging unit 11 at that position will be described later.

なお、上記の例に限定されず、取得部13は、定点撮像部11で撮像される画像内の位置と、実際の空間上の位置座標(位置情報)とを対応付ける測定作業を繰り返すことにより、得られた対応付けの関係(対応関係)を記憶することとしてもよい。この場合、取得部13は、定点撮像部11で画像が得られると、その対応関係に基づいて、画像上の位置から実際の空間の位置情報を取得することとしてもよい。 Note that the acquisition unit 13 is not limited to the above example, and the acquisition unit 13 repeats the measurement work that associates the position in the image captured by the fixed-point imaging unit 11 with the actual spatial position coordinates (position information). The obtained correspondence relationship (correspondence relationship) may be stored. In this case, when an image is obtained by the fixed-point imaging section 11, the obtaining section 13 may obtain the actual spatial position information from the position on the image based on the corresponding relationship.

取得部13は、定点撮像部11で得られる画像に被写体が記録される場合、すなわち、認識部12で被写体が認識された場合、画像内の被写体の位置と、その位置における定点撮像部11からの距離とに基づいて、被写体の位置情報(定点撮像部11から被写体までの距離)を取得する。
定点撮像部11は時間的に連続して又は所定時間毎に被写体を撮像するため、取得部13は、同一の被写体について複数の位置情報を取得することが可能である。定点撮像部11は、取得された位置情報を記憶部19に記憶することとしてもよい。
定点撮像部11(後述する時刻情報付加部18)は、取得された位置情報と、フレーム又は静止画に記録される時刻情報と位置情報とを対応付けることとしてもよい。この場合、定点撮像部11は、位置情報を、時刻情報と対応付けて記憶部19に記憶することとしてもよい。
When the subject is recorded in the image obtained by the fixed-point imaging section 11, that is, when the recognition section 12 recognizes the subject, the obtaining section 13 obtains the position of the subject in the image and the position from the fixed-point imaging section 11 at that position. The position information of the subject (the distance from the fixed-point imaging unit 11 to the subject) is acquired based on the distance of .
Since the fixed-point imaging unit 11 images the subject continuously or at predetermined time intervals, the acquisition unit 13 can acquire a plurality of pieces of position information for the same subject. The fixed-point imaging section 11 may store the acquired position information in the storage section 19 .
The fixed-point imaging unit 11 (time information addition unit 18 described later) may associate the acquired position information with the time information and position information recorded in the frame or still image. In this case, the fixed point imaging section 11 may store the position information in the storage section 19 in association with the time information.

予測部14は、取得部13で取得された位置情報に基づいて被写体の移動先を予測する。上述したように取得部13は同一の被写体について時系列に沿って複数の位置情報を取得することが可能なため、予測部14は、複数の位置情報に基づいて、被写体の移動先を予測する。すなわち、予測部14は、時間的に前後する複数の位置情報に基づいて、それぞれの位置におおける被写体の速度ベクトルを求める。定点撮像部11は、所定のフレームレートで動画を撮像し、又は、予め設定された時間毎に静止画を撮像する。このため、予測部14は、定点撮像部11で撮像される異なる2枚の画像の時間的な間隔が分かる。また、予測部14は、取得部13において画像内の被写体の位置情報が取得されるため、時間的に前後する2枚の画像から被写体の移動量が分かる。よって、予測部14は、複数の画像に基づいて、被写体の速度ベクトルを求める。予測部14は、求められた速度ベクトルと、被写体の位置情報に基づいて、被写体の将来の移動先を予測する。この場合、予測部14は、被写体の移動先の位置座標(位置情報)を取得することが可能である。 The prediction unit 14 predicts the destination of the subject based on the position information acquired by the acquisition unit 13 . As described above, the acquisition unit 13 can acquire a plurality of pieces of position information about the same subject in time series, so the prediction unit 14 predicts the destination of the subject based on the plurality of pieces of position information. . That is, the prediction unit 14 obtains the velocity vector of the subject at each position based on a plurality of pieces of position information that precede or follow each other in time. The fixed-point imaging unit 11 captures moving images at a predetermined frame rate, or captures still images at preset time intervals. Therefore, the prediction unit 14 can know the temporal interval between two different images captured by the fixed-point imaging unit 11 . In addition, since the acquisition unit 13 acquires the position information of the subject in the image, the prediction unit 14 can know the amount of movement of the subject from the two temporally consecutive images. Therefore, the prediction unit 14 obtains the velocity vector of the subject based on the multiple images. The prediction unit 14 predicts the future destination of the subject based on the determined velocity vector and the position information of the subject. In this case, the prediction unit 14 can acquire the position coordinates (position information) of the movement destination of the subject.

図2に例示するように、被写体T(乗用車)が道路を走行する場合、取得部13は、定点撮像部11で得られた画像に基づいて被写体Tの位置P1(位置情報)を複数取得する。予測部14は、取得部13によって取得された複数の位置情報に基づいて、被写体の将来の位置P2(位置情報)を予測する。 As illustrated in FIG. 2, when the subject T (passenger car) travels on the road, the acquisition unit 13 acquires a plurality of positions P1 (position information) of the subject T based on the image obtained by the fixed-point imaging unit 11. . The prediction unit 14 predicts the future position P2 (position information) of the subject based on the multiple pieces of position information acquired by the acquisition unit 13 .

選択部15は、予測部14で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる。定点撮像部11の位置情報は予め取得されているため、選択部15は、予測部14で予測された被写体の移動先(位置情報)を撮像することができ、且つ、その移動先(位置情報)から最も近い定点撮像部11を選択し、選択した定点撮像部11でその被写体を撮像させる。 The selection unit 15 selects the fixed-point imaging unit 11 closest to the destination predicted by the prediction unit 14 and causes the selected fixed-point imaging unit 11 to pick up an image of the subject. Since the position information of the fixed-point imaging unit 11 is acquired in advance, the selection unit 15 can capture an image of the destination (position information) of the subject predicted by the prediction unit 14, and the destination (position information) can be captured. ), and the selected fixed-point imaging unit 11 is caused to image the subject.

図2に例示する場合、2つの定点撮像部11a,11bが配される。選択部15は、予測部14で予測される被写体の将来の位置P2を撮像することができる、最も近い定点撮像部11bを選択する。選択部15は、定点撮像部11の位置情報を予め取得すると共に、定点撮像部11が撮像できる範囲の位置座標を予め取得しているため、複数の定点撮像部11の中から1の定点撮像部11を選択することができる。 In the case illustrated in FIG. 2, two fixed-point imaging units 11a and 11b are arranged. The selection unit 15 selects the nearest fixed-point imaging unit 11b capable of imaging the future position P2 of the subject predicted by the prediction unit 14. FIG. Since the selection unit 15 obtains in advance the position information of the fixed-point imaging unit 11 and also obtains in advance the position coordinates of the range that the fixed-point imaging unit 11 can image, the selection unit 15 selects one fixed-point imaging from among the plurality of fixed-point imaging units 11. Part 11 can be selected.

対応付け部16は、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得部13で取得される位置情報とを対応付ける。すなわち、対応付け部16は、定点撮像部11で得られる被写体の画像と、その画像に基づいて得られる被写体の位置情報とを対応付ける。この場合、対応付け部16は、画像が静止画の場合、その静止画と、その静止画から得られる被写体の位置情報とを対応付ける。又は、対応付け部16は、画像が動画の場合、所定の時間における動画(一例として、フレーム)と、その所定時間における動画(一例として、フレーム)から得られる被写体の位置情報とを対応付ける。図3に例示するように、対応付け部16は、1の画像(フレーム又は静止画)と、その1の画像から得られる被写体の位置情報とを対応付ける。対応付け部16は、全ての画像について、被写体の位置情報と対応付けることとしてもよい。
これにより、対応付け部16は、所定時間における画像と、その所定時間における被写体の位置情報とを対応付けることが可能である。対応付け部16は、時間的に連続して又は間欠的に画像と位置情報とを対応付けることにより、時系列に沿った画像と位置情報とを対応付けたデータを得ることが可能になる。
The associating unit 16 associates an image based on image data captured by the fixed-point imaging unit 11 with position information acquired by the acquiring unit 13 based on the image. That is, the associating unit 16 associates the subject image obtained by the fixed-point imaging unit 11 with the subject position information obtained based on the image. In this case, when the image is a still image, the associating unit 16 associates the still image with the subject position information obtained from the still image. Alternatively, when the image is a moving image, the associating unit 16 associates a moving image (frame as an example) at a predetermined time with subject position information obtained from the moving image (frame as an example) at the predetermined time. As illustrated in FIG. 3, the associating unit 16 associates one image (frame or still image) with subject position information obtained from the one image. The associating unit 16 may associate all images with subject position information.
Thereby, the associating unit 16 can associate the image at the predetermined time with the position information of the subject at the predetermined time. The associating unit 16 associates the images with the positional information continuously or intermittently in terms of time, thereby obtaining data in which the images and the positional information are associated in chronological order.

表示部17は、対応付け部16で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する。
表示部17は、一例として、画像を表示する表示スクリーンと、被写体の軌跡を表示する表示スクリーンとを表示することとしてもよい。表示部17は、定点撮像部11で撮像される画像と、被写体の軌跡(位置情報)とをリアルタイムで表示することができる。又は、表示部17は、記憶部19に記憶される過去の画像と、その画像から得られる被写体の軌跡(位置情報)とを表示することができる。
The display unit 17 temporally continuously acquires a plurality of images and position information associated by the association unit 16, and displays the images and the trajectory of the subject based on the position information in chronological order.
As an example, the display unit 17 may display a display screen that displays an image and a display screen that displays the trajectory of the subject. The display unit 17 can display the image captured by the fixed-point imaging unit 11 and the trajectory (positional information) of the subject in real time. Alternatively, the display unit 17 can display past images stored in the storage unit 19 and the trajectory (positional information) of the subject obtained from the images.

表示部17は、定点撮像部11で撮像される被写体の画像と、取得部13で取得される被写体の位置情報に基づく被写体の軌跡とを表示する。表示部17は、被写体の画像と、被写体の位置(軌跡)とを時間的に同期させて表示する。
すなわち、表示部17は、被写体が写る動画又は被写体が写る静止画を時系列に沿って連続して表示すると共に、例えば、地図上に被写体の位置を表示する。表示部17は、地図上に被写体の位置を表示する場合、被写体の移動が分かるように、被写体の移動の軌跡を表示することとしてもよい。
The display unit 17 displays the image of the subject captured by the fixed-point imaging unit 11 and the trajectory of the subject based on the positional information of the subject obtained by the acquisition unit 13 . The display unit 17 temporally synchronizes and displays the image of the subject and the position (trajectory) of the subject.
That is, the display unit 17 continuously displays a moving image of the subject or a still image of the subject in chronological order, and also displays the position of the subject on a map, for example. When displaying the position of the subject on the map, the display unit 17 may display the trajectory of the movement of the subject so that the movement of the subject can be understood.

図4に例示するように、表示部17は、地図を表示して、その地図上に被写体の軌跡を表示する。また、表示部17は、複数の定点撮像部11が配される場合、それぞれの定点撮像部11で撮像される画像を表示する。この場合、対応付け部16によって、1の定点撮像部11で撮像される画像と、その画像に基づいて得られた被写体の位置(軌跡)とが対応付けられているため、表示部17は、その対応付けが分かるように表示する。図4に例示する場合、表示部17は、1の定点撮像部11cによって撮像された画像を表示する表示エリア、及び、軌跡の周囲に実線の囲みを加えて、対応付けが分かるようにしている。同様に、表示部17は、他の定点撮像部11dによって撮像された画像を表示する表示エリア、及び、軌跡の周囲に破線の囲みを加えて、対応付けが分かるようにしている。 As exemplified in FIG. 4, the display unit 17 displays a map and displays the trajectory of the subject on the map. In addition, when a plurality of fixed-point imaging units 11 are arranged, the display unit 17 displays an image picked up by each fixed-point imaging unit 11 . In this case, the associating unit 16 associates the image captured by one fixed-point imaging unit 11 with the position (trajectory) of the subject obtained based on the image. Display so that the correspondence can be understood. In the example shown in FIG. 4, the display unit 17 adds a display area for displaying an image captured by one fixed-point imaging unit 11c and a solid-line enclosure around the trajectory so that the correspondence can be understood. . Similarly, the display unit 17 adds a display area for displaying the image captured by the other fixed-point image capturing unit 11d and a broken-line enclosure around the trajectory so that the correspondence can be understood.

上述した撮像装置1では、対応付け部16は、複数の定点撮像部11それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部11毎に異なる特徴を示す特徴情報を付すこととしてもよい。この場合、表示部17は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部11毎に異なる特徴画像を付して表示することとしてもよい。 In the imaging apparatus 1 described above, the associating unit 16 associates images based on image data captured by each of the plurality of fixed-point imaging units 11 with position information. It is also possible to attach feature information indicating different features to each fixed-point imaging unit 11 that has captured the . In this case, when displaying the image and the trajectory, the display unit 17 displays the image based on the correspondence information and the trajectory based on the position information with a different characteristic image for each fixed-point imaging unit 11 based on the characteristic information. It is also possible to

対応付け部16は、被写体が写る画像と、その画像から取得される被写体の軌跡とを対応付け、その対応付けに対して特徴を付す。対応付け部16は、1の画像に複数の被写体が写り、その1の画像から取得される被写体の軌跡が複数ある場合にも、同一の特徴を付す。なお、対応付け部16は、1の画像に複数の被写体が記録される場合には、それぞれの被写体の軌跡を異なる形状、一例として、円形、三角形、四角形等の形状に設定することとしてもよい。
すなわち、対応付け部16は、画像を取得する定点撮像部11毎に異なる特徴を付す。特徴は、一例として、色、文字又は記号等である。具体的な一例としては、表示部17は、対応付け部16によって特徴情報として赤色の特徴が付された場合、1の定点撮像部11で撮像された画像を表示する表示スクリーンの周囲に赤色を付し、その表示スクリーンに表示される被写体の軌跡に赤色を付す。また、表示部17は、対応付け部16によって特徴情報として青色の特徴が付された場合、他の定点撮像部11で撮像された画像を表示する表示スクリーンの周囲に青色を付し、その表示スクリーンに表示される被写体の軌跡に青色を付す。これにより、対応付け部16は、図4に例示するような実線及び破線の区別よりも、視角的にわかりやすい対応付けを行うことができる。
The associating unit 16 associates an image showing a subject with the trajectory of the subject obtained from the image, and adds features to the association. The associating unit 16 assigns the same feature even when a plurality of subjects appear in one image and there are a plurality of trajectories of the subjects acquired from the one image. Note that when a plurality of subjects are recorded in one image, the associating unit 16 may set the trajectory of each subject to a different shape, for example, a circle, triangle, square, or the like. .
That is, the associating unit 16 attaches different features to each fixed-point imaging unit 11 that acquires an image. A feature is, for example, a color, a character, a symbol, or the like. As a specific example, when the association unit 16 assigns a red feature as the feature information, the display unit 17 displays red around the display screen that displays the image captured by the fixed-point imaging unit 11. , and the trajectory of the subject displayed on the display screen is colored red. Further, when the association unit 16 assigns a blue feature as the feature information, the display unit 17 assigns blue around the display screen that displays the image captured by the other fixed-point imaging unit 11, and displays the image. Add blue to the trajectory of the subject displayed on the screen. As a result, the association unit 16 can make associations that are easier to understand visually than distinguishing solid lines and dashed lines as illustrated in FIG. 4 .

上述した撮像装置1は、時刻情報付加部18及び記憶部19を備えることとしてもよい。
時刻情報付加部18は、定点撮像部11で生成された画像データに基づく画像と、取得部13で取得された位置情報とに対して同期する時刻情報を付す。記憶部19は、画像データ及び位置情報を記憶する。この場合、表示部17は、記憶部19から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部18で付加された時刻情報に基づいて同期するように表示することとしてもよい。
The imaging device 1 described above may include the time information adding section 18 and the storage section 19 .
The time information addition unit 18 adds synchronized time information to the image based on the image data generated by the fixed point imaging unit 11 and the position information acquired by the acquisition unit 13 . The storage unit 19 stores image data and position information. In this case, the display unit 17 displays the image based on the image data read from the storage unit 19 and the trajectory based on the position information so as to be synchronized based on the time information added by the time information adding unit 18. may be

一例として、時刻情報付加部18は、定点撮像部11によって撮像された画像データに撮像時刻(時刻情報)を付す。この場合、時刻情報付加部18は、定点撮像部11の内部に配されてもよく、定点撮像部11の外部に配されてもよい。又は、時刻情報付加部18は、記憶部19に画像データを記憶する場合に、記憶時刻(時刻情報)を付す。この場合、時刻情報付加部18は、記憶部19の内部に配されてもよく、記憶部19の外部に配されてもよい。定点撮像部11によって生成された画像データを記憶部19に記憶する場合、画像データは、定点撮像部11で生成されるとすぐに記憶部19に記憶される。このため、記憶時刻と撮像時刻とはほぼ同時刻となる。
また、時刻情報付加部18は、取得部13によって位置情報が取得されると、その位置情報の取得に用いられた画像に付された時刻情報をその位置情報に対応付ける。
これにより、時刻情報付加部18は、画像と、その画像から得られる被写体の位置情報とを同期させることができる。表示部17は、時刻情報に基づいて、画像と、その画像に写る被写体の軌跡(位置情報)とを同期させて表示することができる。
As an example, the time information adding unit 18 attaches the imaging time (time information) to the image data captured by the fixed-point imaging unit 11 . In this case, the time information adding section 18 may be arranged inside the fixed-point imaging section 11 or may be arranged outside the fixed-point imaging section 11 . Alternatively, when the image data is stored in the storage unit 19, the time information addition unit 18 attaches the storage time (time information). In this case, the time information addition unit 18 may be arranged inside the storage unit 19 or outside the storage unit 19 . When the image data generated by the fixed-point imaging section 11 is stored in the storage section 19 , the image data is stored in the storage section 19 as soon as it is generated by the fixed-point imaging section 11 . Therefore, the storage time and the imaging time are almost the same time.
Further, when the position information is acquired by the acquisition unit 13, the time information adding unit 18 associates the time information attached to the image used for acquiring the position information with the position information.
As a result, the time information adding section 18 can synchronize the image with the subject's position information obtained from the image. The display unit 17 can synchronize and display an image and the trajectory (positional information) of the subject appearing in the image based on the time information.

次に、定点撮像部11で得られる画像内の位置と、その位置における定点撮像部11からの距離とを対応付ける方法について説明する。
図5は、画像位置情報を取得する場合の説明に用いるための図である。
図6は、定点撮像部で撮像される画像の一例について説明するための図である。
図7は、Y座標とピクセル数との関係を示すグラフである。図7の横軸はY座標を示し、縦軸は1m当たりのピクセル数を示す。ここで、定点撮像部で撮像される画像内における奥行方向がY座標であり、その画像の幅方向がX座標である。
図8は、画像位置情報の一例について説明するためのグラフである。図8の横軸はY座標を示し、縦軸は、定点撮像部が配される地面の位置から任意のY座標の位置までの距離を示す。
図9は、Y座標と画像の幅の比率との関係を示すグラフである。図9の横軸はY座標を示し、縦軸は画像の幅の比率を示す。
Next, a method of associating a position in an image obtained by the fixed-point imaging section 11 with a distance from the fixed-point imaging section 11 at that position will be described.
FIG. 5 is a diagram for use in explaining the acquisition of image position information.
FIG. 6 is a diagram for explaining an example of an image captured by a fixed-point imaging unit.
FIG. 7 is a graph showing the relationship between the Y coordinate and the number of pixels. The horizontal axis of FIG. 7 indicates the Y coordinate, and the vertical axis indicates the number of pixels per meter. Here, the depth direction in the image captured by the fixed-point imaging unit is the Y coordinate, and the width direction of the image is the X coordinate.
FIG. 8 is a graph for explaining an example of image position information. The horizontal axis of FIG. 8 indicates the Y coordinate, and the vertical axis indicates the distance from the position of the ground where the fixed-point imaging section is arranged to an arbitrary Y coordinate position.
FIG. 9 is a graph showing the relationship between the Y coordinate and the width ratio of the image. The horizontal axis of FIG. 9 indicates the Y coordinate, and the vertical axis indicates the width ratio of the image.

具体的には、図1に示すように、取得部13は、第1取得部131、第2取得部132、第3取得部133、第4取得部134、第5取得部135、第6取得部136、第7取得部137、第8取得部138及び第9取得部139を備える。 Specifically, as shown in FIG. 1, the acquisition unit 13 includes a first acquisition unit 131, a second acquisition unit 132, a third acquisition unit 133, a fourth acquisition unit 134, a fifth acquisition unit 135, a sixth acquisition unit It includes a unit 136 , a seventh acquisition unit 137 , an eighth acquisition unit 138 and a ninth acquisition unit 139 .

第1取得部131は、被写体の高さ、定点撮像部11の画角及び定点撮像部11で撮像される画像幅を予め取得する。
画像内の位置情報(画像位置情報)を取得するために、まず、定点撮像部11の撮像範囲内で被写体110を移動させる。被写体110(図5参照)は、例えば、人などである。被写体110が人の場合、例えば、不図示の入力装置を用いて、人の身長(被写体の高さ)が入力される。第1取得部131は、入力された人の身長を取得する。
また、第1取得部131は、定点撮像部11が撮影する画角θ2を取得する。画角θ2は、例えば、不図示の入力装置を用いて入力される。第1取得部131は、入力された画角θ2を取得する。画角θ2は、定点撮像部11の撮像素子(図示せず)の平面サイズ、及び、定点撮像部11の撮像レンズ(図示せず)の焦点距離等によって定まる。
また、第1取得部131は、定点撮像部11で得られる画像の幅(一例として、ピクセル数)を取得する。画像の幅(画像幅)は、例えば、不図示の入力装置を用いて入力される。
The first acquisition unit 131 acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit 11 , and the width of the image captured by the fixed-point imaging unit 11 .
In order to acquire position information (image position information) within an image, first, the subject 110 is moved within the imaging range of the fixed-point imaging section 11 . A subject 110 (see FIG. 5) is, for example, a person. When the subject 110 is a person, for example, the height of the person (the height of the subject) is input using an input device (not shown). The first acquisition unit 131 acquires the input height of the person.
Also, the first acquisition unit 131 acquires the angle of view θ2 captured by the fixed-point imaging unit 11 . The angle of view θ2 is input using, for example, an input device (not shown). The first acquisition unit 131 acquires the input angle of view θ2. The angle of view θ2 is determined by the planar size of the imaging element (not shown) of the fixed-point imaging section 11, the focal length of the imaging lens (not shown) of the fixed-point imaging section 11, and the like.
The first acquisition unit 131 also acquires the width of the image obtained by the fixed-point imaging unit 11 (for example, the number of pixels). The width of the image (image width) is input using, for example, an input device (not shown).

第2取得部132は、第1取得部131で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する。
第2取得部132は、撮像範囲内で被写体(人)110を歩かせることにより、画像内の任意に位置において、定点撮像部11で撮像される画像内での1m当たりのピクセル数を取得する。すなわち、第2取得部132は、第1取得部131で取得された人の身長に基づいて画像100a内における1mの大きさ(長さ)を取得し、さらに取得した1mの大きさ当たりの画像のピクセル数を取得する。
図6に例示する場合、定点撮像部11に用いられる撮像素子(定点撮像部11で得られる画像)のサイズは、1280ピクセル×960ピクセルである。第2取得部132は、図6に例示する画像に被写体110(図6には図示せず)が記録される場合、被写体110の高さと、撮像素子(画像)のピクセル数とに基づいて、1mの大きさ当たりのピクセル数を取得する。
The second acquisition unit 132 acquires the number of pixels forming the image data per 1 m based on the height of the subject acquired by the first acquisition unit 131 .
The second acquisition unit 132 acquires the number of pixels per 1 m in the image captured by the fixed-point imaging unit 11 at any position in the image by making the subject (person) 110 walk within the imaging range. . That is, the second acquisition unit 132 acquires the size (length) of 1 m in the image 100a based on the height of the person acquired by the first acquisition unit 131, and further acquires the image per size of 1 m. Get the number of pixels in the .
In the case illustrated in FIG. 6, the size of the imaging element (the image obtained by the fixed-point imaging section 11) used for the fixed-point imaging section 11 is 1280 pixels×960 pixels. When the subject 110 (not shown in FIG. 6) is recorded in the image illustrated in FIG. 6, the second acquisition unit 132, based on the height of the subject 110 and the number of pixels of the imaging device (image), Get the number of pixels per meter size.

第3取得部133は、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部132で取得される被写体の1m当たりのピクセル数との関係を取得する。
図6に例示する場合、画像の縦方向が実空間の奥行方向に対応し、その画像の縦方向の座標がY座標になる。また、図6に例示する場合、画像の横方向が実空間の幅方向に対応し、その画像の横方向の座標がX座標になる。そして、図6の左上のピクセルを原点の座標(0,0)とすると、右上のピクセルの座標が(1280,0)になる。図6の中心位置のピクセルの座標が(640,480)になる。図6の左下のピクセルの座標が(0,960)になり、右下のピクセルの座標が(1280,960)になる。
定点撮像部11は、上から下を見下ろすように撮像するため、図6に示す画面の上部側が定点撮像部11から離れた位置になり、画面の下部側が定点撮像部11に近い位置になる。したがって、図6に示す原点のY座標は、定点撮像部11から最も離れた位置となる。
The third acquisition unit 133 acquires the relationship between the Y coordinate, which is the coordinate in the depth direction of the image based on the image data, and the number of pixels per meter of the object acquired by the second acquisition unit 132 .
In the case of FIG. 6, the vertical direction of the image corresponds to the depth direction of the real space, and the vertical coordinate of the image is the Y coordinate. Also, in the case of FIG. 6, the horizontal direction of the image corresponds to the width direction of the real space, and the horizontal coordinate of the image is the X coordinate. Assuming that the upper left pixel in FIG. 6 has coordinates (0, 0) of the origin, the coordinates of the upper right pixel are (1280, 0). The coordinates of the pixel at the center position in FIG. 6 are (640, 480). The coordinates of the lower left pixel in FIG. 6 are (0,960), and the coordinates of the lower right pixel are (1280,960).
Since the fixed-point imaging unit 11 takes an image looking down from above, the upper side of the screen shown in FIG. Therefore, the Y coordinate of the origin shown in FIG.

定点撮像部11の撮像範囲内(座標(0,0)、座標(1280,0)、座標(1280,960)及び座標(0,960)で囲まれる範囲内)を、例えば、被写体(人)を縦横に歩かせることにより、第3取得部133は、複数のY座標の位置において1m当たりのピクセル数を取得する。 Within the imaging range of the fixed-point imaging unit 11 (within the range surrounded by coordinates (0, 0), coordinates (1280, 0), coordinates (1280, 960), and coordinates (0, 960)), for example, a subject (person) walks vertically and horizontally, the third acquisition unit 133 acquires the number of pixels per meter at a plurality of Y-coordinate positions.

図7に一例を示すように、第3取得部133によって取得されるY座標と1m当たりのピクセル数との関係は線形になる。ここで、図5に示すように、Y座標の数値は、定点撮像部11に近づくに従って大きくなる。すなわち、Y座標が大きくなるに従って(被写体が定点撮像部11に近づくに従って)、1m当たりのピクセル数は多くなる。換言すると、Y座標が小さくなるに従って(被写体が定点撮像部11から遠ざかるに従って)、1m当たりのピクセル数は少なくなる。 As an example is shown in FIG. 7, the relationship between the Y coordinate acquired by the third acquisition unit 133 and the number of pixels per meter is linear. Here, as shown in FIG. 5, the numerical value of the Y coordinate increases as the fixed-point imaging section 11 is approached. That is, as the Y coordinate increases (as the subject approaches the fixed-point imaging section 11), the number of pixels per meter increases. In other words, as the Y coordinate becomes smaller (as the subject moves away from the fixed-point imaging section 11), the number of pixels per meter decreases.

第4取得部134は、第1取得部131によって取得された画像の幅と、第2取得部132で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅wを取得する。
図5に例示するように、被写体110がいるY座標の位置(Y座標の方向の所定位置)における画像100aを考える。第4取得部134は、定点撮像部11で撮像される画像の幅方向のピクセル数(図6に例示する場合では1280ピクセル)は第1取得部131によって取得されるため、1m当たりのピクセル数に基づいて、そのY座標の所定位置における画像100aの幅wの実際の長さを取得する。
The fourth obtaining unit 134 obtains the actual width w of the image at the predetermined position based on the width of the image obtained by the first obtaining unit 131 and the number of pixels per meter obtained by the second obtaining unit 132. do.
As illustrated in FIG. 5, consider an image 100a at the Y coordinate position (predetermined position in the Y coordinate direction) where the subject 110 is present. Since the number of pixels in the width direction of the image captured by the fixed-point imaging unit 11 (1280 pixels in the case illustrated in FIG. 6) is obtained by the first obtaining unit 131, the fourth obtaining unit 134 obtains the number of pixels per 1 m. , the actual length of the width w of the image 100a at the predetermined position of the Y coordinate is obtained.

第5取得部135は、第4取得部134で取得された実際の画像の幅wと、第1取得部131で取得された画角θ2とに基づいて、定点撮像部11から画像100a内の中心位置Pcまでの距離である第1距離を取得すると共に、地面から中心位置Pcまでの距離である第2距離を取得する。
第5取得部135は、上述したY座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部11の画角θ2に基づいて、定点撮像部11から画像100aの中心位置Pcまでの実際の距離(第1距離L1)を取得する。また、第5取得部135は、画像のピクセル数、1m当たりのピクセル数、Y座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部11の画角に基づいて、画像100aの中心位置Pcから地面までの実際の距離(第2距離L2)を取得する。
Based on the width w of the actual image acquired by the fourth acquisition unit 134 and the angle of view θ2 acquired by the first acquisition unit 131, the fifth acquisition unit 135 obtains the A first distance, which is the distance to the center position Pc, is acquired, and a second distance, which is the distance from the ground to the center position Pc, is acquired.
The fifth acquisition unit 135 obtains the center position of the image 100a from the fixed-point imaging unit 11 based on the actual length of the width w of the image 100a at the predetermined position of the Y coordinate and the angle of view θ2 of the fixed-point imaging unit 11. Acquire the actual distance (first distance L1) to Pc. In addition, the fifth acquisition unit 135, based on the number of pixels of the image, the number of pixels per 1 m, the actual length of the width w of the image 100a at the predetermined position of the Y coordinate, and the angle of view of the fixed-point imaging unit 11, An actual distance (second distance L2) from the center position Pc of the image 100a to the ground is acquired.

第6取得部136は、第5取得部135で取得された第1距離L1及び第2距離L2に基づいて、定点撮像部11の撮像方向における中心線と地面とのなす角θを求める。すなわち、第6取得部136は、三角関数を利用することにより、第5取得部135で取得された第1距離L1及び第2距離L2に基づいて、地面と定点撮像部11とのなす角θを求める。 Based on the first distance L1 and the second distance L2 obtained by the fifth obtaining unit 135, the sixth obtaining unit 136 obtains the angle θ between the center line in the imaging direction of the fixed-point imaging unit 11 and the ground. That is, the sixth acquisition unit 136 uses a trigonometric function to obtain the angle θ Ask for

第7取得部137は、第5取得部135で取得された第1距離L1及び第2距離L2と、第6取得部136で取得されたなす角θとに基づいて、地面から定点撮像部11までの高さHを取得する。すなわち、第7取得部137は、三角関数を利用することにより、第1距離L1、第2距離L2及びなす角θに基づいて、地面から定点撮像部11までの高さHを取得する。 Based on the first distance L1 and the second distance L2 obtained by the fifth obtaining unit 135 and the angle θ obtained by the sixth obtaining unit 136, the seventh obtaining unit 137 calculates the fixed-point imaging unit 11 from the ground. Get the height H to That is, the seventh acquisition unit 137 acquires the height H from the ground to the fixed-point imaging unit 11 based on the first distance L1, the second distance L2, and the angle θ by using a trigonometric function.

第8取得部138は、第7取得部137で取得された地面から定点撮像部11までの高さHと、第6取得部136で取得されたなす角θとに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて画像位置情報を取得する。
すなわち、第8取得部138は、地面から定点撮像部11までの高さHと、定点撮像部11と地面とのなす角θとに基づいて、定点撮像部11が配される地面位置P0からY座標の所定位置(画像100a)までの距離L3を取得する。第8取得部138は、その距離L3と、画像内の所定位置におけるY座標とを対応付けることにより、画像内の位置に関する情報(画像位置情報)を取得する。また、第8取得部138は、被写体110を定点撮像部11の撮像範囲内を移動させて、撮像範囲内の任意の位置における定点撮像部11が配される地面位置P0から被写体(人)110までの距離を取得することに基づいて、画像位置情報を取得する。第8取得部138は、画像位置情報を記憶部19に記憶する。
Based on the height H from the ground to the fixed-point imaging unit 11 obtained by the seventh obtaining unit 137 and the angle θ obtained by the sixth obtaining unit 136, the eighth obtaining unit 138 is obtained from the imaging position where is arranged to the subject, and image position information is obtained based on obtaining a plurality of the positions of the subject.
In other words, the eighth acquisition unit 138 obtains an image from the ground position P0 where the fixed-point imaging unit 11 is arranged based on the height H from the ground to the fixed-point imaging unit 11 and the angle θ between the fixed-point imaging unit 11 and the ground. A distance L3 to a predetermined Y-coordinate position (image 100a) is obtained. The eighth acquisition unit 138 acquires information (image position information) regarding the position within the image by associating the distance L3 with the Y coordinate at the predetermined position within the image. Further, the eighth acquisition unit 138 moves the subject 110 within the imaging range of the fixed-point imaging unit 11, and obtains the subject (person) 110 from the ground position P0 where the fixed-point imaging unit 11 is arranged at an arbitrary position within the imaging range. Image position information is obtained based on obtaining the distance to . The eighth acquiring section 138 stores the image position information in the storage section 19 .

画像位置情報は、定点撮像部11で撮像される画像内の任意のピクセルの位置(座標)が、定点撮像部11から何mの距離であるかを示す情報である。画像位置情報は、具体的な一例として、図6に示すピクセルの座標(640,480)は定点撮像部11から10mの距離がある、ピクセルの座標(640,720)は定点撮像部11から15mの距離がある、ピクセルの座標(640,840)は定点撮像部11から20mの距離があるという情報である。 The image position information is information indicating the distance in meters from the fixed-point imaging unit 11 to the position (coordinates) of any pixel in the image captured by the fixed-point imaging unit 11 . As a specific example of the image position information, the pixel coordinates (640, 480) shown in FIG. and the pixel coordinates (640, 840) are information that the distance from the fixed-point imaging unit 11 is 20 m.

図8に示すように、画像位置情報は、Y座標が大きくなるに従って、定点撮像部11が配される地面位置P0からの距離が近くなることを示す情報である。換言すると、画像位置情報は、Y座標が小さくなるに従って、定点撮像部11が配される地面位置P0からの距離が遠くなることを示す情報である。 As shown in FIG. 8, the image position information is information indicating that as the Y coordinate increases, the distance from the ground position P0 where the fixed-point imaging section 11 is arranged decreases. In other words, the image position information is information indicating that the distance from the ground position P0 where the fixed-point imaging section 11 is arranged increases as the Y coordinate decreases.

ここで、第9取得部139は、第4取得部134で取得された複数の画像それぞれの実際の幅wのうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する。
すなわち、第4取得部134では、実際の画像の幅wを取得する。被写体110がいない位置(人が歩いていない位置に対応するY座標)においては、第4取得部134は、実際の画像の幅wを取得することができない。このため、第9取得部139は、第4取得部134でY座標の複数の位置で画像の幅wを取得した場合、その複数の位置での画像の幅wに基づいて、Y座標の任意の位置における画像の幅を算出する。例えば、第9取得部139は、第4取得部134で取得された複数の画像の幅のうち1つをY座標の基準位置の画像の幅(基準幅)と設定し、複数の画像の幅のうち基準幅を除く他の画像の幅と、基準幅との比率(幅比率)を求める。第9取得部139は、第4取得部134で取得された複数の画像それぞれに基づいて、基準幅との比率(幅比率)を求める。この幅比率をグラフに示すと、図9のようになる。
Here, the ninth obtaining unit 139 obtains the actual width w of each of the plurality of images obtained by the fourth obtaining unit 134 at the reference position in the Y coordinate direction and the width at the predetermined position in the Y coordinate direction Obtain the width ratio to the Y coordinate based on the width.
That is, the fourth acquisition unit 134 acquires the actual width w of the image. At a position where the subject 110 does not exist (the Y coordinate corresponding to the position where no person is walking), the fourth acquisition unit 134 cannot acquire the actual width w of the image. Therefore, when the fourth obtaining unit 134 obtains the width w of the image at a plurality of positions of the Y coordinate, the ninth obtaining unit 139 obtains an arbitrary width w of the Y coordinate based on the width w of the image at the plurality of positions. Calculate the width of the image at the position of . For example, the ninth obtaining unit 139 sets one of the widths of the plurality of images obtained by the fourth obtaining unit 134 as the width of the image at the reference position of the Y coordinate (reference width), and sets the width of the plurality of images. A ratio (width ratio) between the width of the image other than the reference width and the reference width is calculated. The ninth acquisition unit 139 obtains a ratio (width ratio) to the reference width based on each of the plurality of images acquired by the fourth acquisition unit 134 . A graph showing this width ratio is shown in FIG.

次に、一実施形態に係る撮像方法について説明する。
まず、画像データの取得方法について説明する。
図10は、一実施形態に係る撮像方法について説明するための第1のフローチャートである。
Next, an imaging method according to one embodiment will be described.
First, a method for acquiring image data will be described.
FIG. 10 is a first flowchart for explaining an imaging method according to one embodiment.

ステップST11において、定点撮像部11は、被写体を撮像して画像データを生成する。画像データで得られる画像は、例えば、動画又は静止画である。 In step ST11, the fixed-point imaging section 11 images a subject and generates image data. An image obtained from image data is, for example, a moving image or a still image.

ステップST12において、定点撮像部11(時刻情報付加部18)は、ステップST11で生成された画像に時刻情報を付す。時刻情報は、例えば、定点撮像部11で被写体を撮像する場合の撮像時刻、又は、記憶部19に画像データを記憶する場合の記憶時刻等である。撮像時刻と記憶時刻とは、ほぼ同じ時刻となる。 In step ST12, the fixed-point imaging section 11 (time information addition section 18) attaches time information to the image generated in step ST11. The time information is, for example, an imaging time when an object is imaged by the fixed-point imaging unit 11, or a storage time when image data is stored in the storage unit 19, or the like. The imaging time and the storage time are almost the same time.

ステップST13において、認識部12は、ステップST11で生成された画像データに基づく画像から被写体を認識する。認識部12は、例えば、予め学習された結果に基づいて被写体を認識し、又は、パターンマッチングを用いて被写体を認識する。 In step ST13, the recognition unit 12 recognizes the subject from the image based on the image data generated in step ST11. The recognition unit 12, for example, recognizes the subject based on a result learned in advance, or recognizes the subject using pattern matching.

ステップST14において、取得部13は、ステップST13で認識された被写体の位置情報を取得する。認識部12は、画像内の被写体の位置と、定点撮像部11からその位置までの距離とが予め対応付けているため、ステップST11で生成された画像内の被写体の位置に基づいて、被写体の位置に関する情報(位置情報)を取得する。 In step ST14, the acquisition unit 13 acquires the position information of the subject recognized in step ST13. Since the position of the subject in the image is previously associated with the distance from the fixed-point imaging section 11 to that position, the recognition section 12 recognizes the position of the subject based on the position of the subject in the image generated in step ST11. Get information about location (location information).

ステップST15において、取得部13(時刻情報付加部18)は、ステップST14で取得された位置情報に、時刻情報を対応付ける。その時刻情報は、位置情報を取得した画像(画像データ)に付した時刻情報と同じ時刻となる。 In step ST15, the acquisition unit 13 (time information addition unit 18) associates time information with the position information acquired in step ST14. The time information is the same time as the time information attached to the image (image data) from which the position information is acquired.

ステップST16において、予測部14は、ステップST14で取得される位置情報等に基づいて、画像に写る被写体の移動先を予測する。 In step ST16, the prediction unit 14 predicts the destination of the subject appearing in the image based on the position information and the like acquired in step ST14.

ステップST17において、選択部15は、ステップST16で予測された被写体の移動先を撮像することができる、最も近い定点撮像部11を選択する。 In step ST17, the selection unit 15 selects the nearest fixed-point imaging unit 11 capable of imaging the movement destination of the subject predicted in step ST16.

ステップST18において、定点撮像部11は、画像データの生成を終了するかを判断する。画像データの生成を終了しない場合(No)、処理はステップST11に戻り、ステップST17で選択された定点撮像部11が被写体を撮像して画像データを生成する。画像データの生成を終了する場合(Yes)、処理は、終了する。 In step ST18, the fixed-point imaging section 11 determines whether to end generation of image data. If the generation of image data is not finished (No), the process returns to step ST11, and the fixed-point imaging unit 11 selected in step ST17 images the subject and generates image data. If the generation of image data is to end (Yes), the process ends.

次に、画像の表示方法について説明する。
図11は、一実施形態に係る撮像方法について説明するための第2のフローチャートである。
Next, an image display method will be described.
FIG. 11 is a second flowchart for explaining the imaging method according to one embodiment.

ステップST21において、対応付け部16は、画像データと位置情報とを取得する。例えば、対応付け部16は、ステップST12で時刻情報が付加された画像データと、ステップST15で時刻情報が対応付けられた被写体の位置情報とを取得する。なお、対応付け部16は、記憶部19に記憶される時刻情報が付加された画像データと、記憶部19に記憶される時刻情報が対応付けられた被写体の位置情報とを取得することとしてもよい。 In step ST21, the association unit 16 acquires image data and position information. For example, the associating unit 16 acquires the image data to which the time information is added in step ST12 and the position information of the subject to which the time information is associated in step ST15. Note that the associating unit 16 may acquire the image data to which the time information stored in the storage unit 19 is added and the position information of the subject associated with the time information stored in the storage unit 19. good.

ステップST22において、対応付け部16は、時刻情報に基づいて、画像データと被写体の位置情報とを対応付ける。この場合、対応付け部16は、画像データを取得した定点撮像部11毎に異なる特徴を付してもよい。すなわち、対応付け部16は、定点撮像部11毎に、画像データと位置情報とに特徴を付す。 In step ST22, the associating section 16 associates the image data with the position information of the subject based on the time information. In this case, the associating unit 16 may attach different features to each fixed-point imaging unit 11 that has acquired the image data. That is, the associating unit 16 assigns features to the image data and position information for each fixed-point imaging unit 11 .

ステップST23において、表示部17は、ステップST21で取得された画像データに基づく画像と、同じステップST21で取得された位置情報に基づく被写体の軌跡とを表示する。この場合、表示部17は、ステップST22で付された特徴と共に、画像と被写体の軌跡とを表示する。 In step ST23, the display unit 17 displays the image based on the image data acquired in step ST21 and the trajectory of the subject based on the position information acquired in the same step ST21. In this case, the display unit 17 displays the image and the trajectory of the subject together with the features added in step ST22.

本実施形態によれば、次の効果を奏する。
撮像装置1は、複数の定点撮像部11と、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識部12と、認識部12で認識した被写体の位置に関する位置情報を取得する取得部13と、取得部13で取得された位置情報に基づいて被写体の移動先を予測する予測部14と、予測部14で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択部15と、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得部13で取得される位置情報とを対応付ける対応付け部16と、対応付け部16で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示する表示部17と、を備える。
撮像装置1は、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像装置1は、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適な装置である。
また、撮像装置1は、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
According to this embodiment, the following effects are obtained.
The imaging device 1 includes a plurality of fixed-point imaging units 11, a recognition unit 12 for recognizing a subject from an image based on image data generated by each of the fixed-point imaging units 11, and position information about the position of the subject recognized by the recognition unit 12. The acquisition unit 13 that acquires, the prediction unit 14 that predicts the destination of the subject based on the position information acquired by the acquisition unit 13, and the fixed-point imaging unit 11 that is closest to the destination predicted by the prediction unit 14 are selected. Then, the selection unit 15 that causes the selected fixed-point imaging unit 11 to capture an image of the subject, the image based on the image data captured by the fixed-point imaging unit 11, and the position information acquired by the acquisition unit 13 based on the image are associated. An associating unit 16, and a plurality of images and position information associated by the associating unit 16 are successively acquired in time, and the images and the trajectory of the subject based on the position information are displayed in chronological order. and a display unit 17 .
The imaging device 1 predicts the destination of the subject and captures the subject with the same or different fixed-point imaging unit 11, so that the subject can be continuously captured even when the subject moves. That is, the imaging device 1 is suitable for imaging the same subject using a plurality of fixed-point imaging units 11 .
Further, since the imaging device 1 associates the image with the position information, it is possible to synchronize the two when displaying the image and the position information.

撮像装置1では、対応付け部16は、複数の定点撮像部11それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した定点撮像部11毎に異なる特徴を示す特徴情報を付し、表示部17は、画像及び軌跡を表示する場合、対応情報に基づいた画像と位置情報に基づく軌跡とに、特徴情報に基づいて定点撮像部11毎に異なる特徴画像を付して表示することとしてもよい。
これにより、撮像装置1は、複数の定点撮像部11うちいずれの定点撮像部11で撮像された画像なのか、及び、どの定点撮像部11で撮像されたときの被写体の位置情報(軌跡)なのかを示すことができる。
In the imaging device 1, the associating unit 16 associates the image based on the image data captured by each of the plurality of fixed-point imaging units 11 with the position information, and captures the image data with respect to the correspondence information indicating the association. When the display unit 17 displays an image and a trajectory, the display unit 17 displays the image based on the correspondence information and the trajectory based on the position information based on the feature information. A different characteristic image may be attached to each fixed-point imaging unit 11 and displayed.
As a result, the imaging apparatus 1 can determine which fixed-point imaging unit 11 among the plurality of fixed-point imaging units 11 captured the image, and which fixed-point imaging unit 11 captured the subject's position information (trajectory). can indicate whether

撮像装置1は、定点撮像部11で生成された画像データに基づく画像と、取得部13で取得された位置情報とに対して同期する時刻情報を付す時刻情報付加部18と、画像データ及び位置情報を記憶する記憶部19と、を備えることとしてもよい。この場合、表示部17は、記憶部19から読み出された画像データに基づく画像及び位置情報に基づく軌跡を、時刻情報付加部18で付加された時刻情報に基づいて同期するように表示することとしてもよい。
これにより、撮像装置1は、時刻情報に基づいて、画像と、その画像に写る被写体の位置(軌跡)とを同期させることができる。
The imaging apparatus 1 includes a time information addition unit 18 that adds synchronized time information to the image based on the image data generated by the fixed point imaging unit 11 and the position information acquired by the acquisition unit 13; and a storage unit 19 that stores information. In this case, the display unit 17 displays the image based on the image data read from the storage unit 19 and the trajectory based on the position information so as to be synchronized based on the time information added by the time information adding unit 18. may be
Thereby, the imaging device 1 can synchronize the image and the position (trajectory) of the subject appearing in the image based on the time information.

撮像装置1では、取得部13は、定点撮像部11で撮像される画像内の位置と、被写体の実位置とを予め対応付けた結果に基づいて、認識部12で新たな被写体が認識されと、位置情報を取得することとしてもよい。
これにより、撮像装置1は、被写体の位置情報を取得することができる。
In the imaging device 1, the acquisition unit 13 determines that a new subject is recognized by the recognition unit 12 based on the result of previously associating the position in the image captured by the fixed-point imaging unit 11 with the actual position of the subject. , the position information may be acquired.
Thereby, the imaging device 1 can acquire the position information of the subject.

撮像装置1では、取得部13は、定点撮像部11で撮像される画像内の位置と、その位置における定点撮像部11からの距離とを対応付けた結果と、定点撮像部11からの距離と、実空間上の位置とを対応付けた結果と、に基づいて、認識部12で新たな被写体が認識されると、位置情報を取得することとしてもよい。
これにより、撮像装置1は、定点撮像部11からの被写体までの距離を取得することに基づいて、被写体の位置情報を取得することができる。
In the imaging device 1, the acquisition unit 13 obtains the result of associating the position in the image captured by the fixed-point imaging unit 11 with the distance from the fixed-point imaging unit 11 at that position, and the distance from the fixed-point imaging unit 11. , and the result of associating the position in the real space with the position information when the recognition unit 12 recognizes a new subject, the position information may be acquired.
Accordingly, the imaging device 1 can acquire the position information of the subject based on the acquisition of the distance to the subject from the fixed-point imaging section 11 .

撮像装置1では、取得部13は、被写体の高さと、定点撮像部11の画角と、定点撮像部11で撮像される実際の画像幅とを予め取得する第1取得部131と、被写体が移動する場合、第1取得部131で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部132と、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部132で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部133と、第1取得部131によって取得された画像の幅と、第2取得部132で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部134と、第4取得部134で取得された実際の画像の幅と、第1取得部131で取得された画角とに基づいて、定点撮像部11から画像内の中心位置までの距離である第1距離を取得すると共に、地面から中心位置までの距離である第2距離を取得する第5取得部135と、第5取得部135で取得された第1距離及び第2距離に基づいて、地面と定点撮像部11の撮像方向における中心線とのなす角を求める第6取得部136と、第5取得部135で取得された第1距離及び第2距離と、第6取得部136で取得されたなす角とに基づいて、地面から定点撮像部11までの高さを取得する第7取得部137と、第7取得部137で取得された地面から定点撮像部11までの高さと、第6取得部136で取得されたなす角とに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて、定点撮像部11からの距離を取得する第8取得部138と、を備えることとしてもよい。
これにより、撮像装置1は、第1~8取得部131~138それぞれが処理を行うことにより、被写体の高さと定点撮像部11の画角とに基づいて、定点撮像部11からの距離を取得することができる。
In the imaging device 1, the acquisition unit 13 includes a first acquisition unit 131 that acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit 11, and the actual width of the image captured by the fixed-point imaging unit 11; When moving, the second acquisition unit 132 acquires the number of pixels forming the image data per 1 m based on the height of the subject acquired by the first acquisition unit 131, and the depth direction of the image based on the image data. and the number of pixels per meter of the subject acquired by the second acquisition unit 132, the width of the image acquired by the first acquisition unit 131, and , the number of pixels per meter obtained by the second obtaining unit 132, and the width of the actual image obtained by the fourth obtaining unit 134. Based on the width and the angle of view acquired by the first acquisition unit 131, the first distance, which is the distance from the fixed-point imaging unit 11 to the center position in the image, is acquired, and the distance from the ground to the center position is obtained. A fifth acquisition unit 135 that acquires a certain second distance, and the angle between the ground and the center line in the imaging direction of the fixed-point imaging unit 11 based on the first distance and the second distance acquired by the fifth acquisition unit 135 from the ground to the fixed point imaging unit 11 based on the sixth acquisition unit 136 that obtains , the first distance and the second distance acquired by the fifth acquisition unit 135, and the angle acquired by the sixth acquisition unit 136 , the height from the ground to the fixed-point imaging unit 11 obtained by the seventh obtaining unit 137, and the angle obtained by the sixth obtaining unit 136. an eighth acquiring unit 138 that acquires the position from the imaging position where the imaging unit 11 is arranged to the subject, and further acquires the distance from the fixed-point imaging unit 11 based on acquiring a plurality of the positions of the subject; It may be prepared.
As a result, the imaging device 1 acquires the distance from the fixed-point imaging unit 11 based on the height of the subject and the angle of view of the fixed-point imaging unit 11 through the processing performed by the first to eighth acquisition units 131 to 138, respectively. can do.

撮像装置1では、取得部13は、第4取得部134で取得された実際の画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する第9取得部139を備えることとしてもよい。
撮像装置1は、第9取得部139が幅比率を取得することにより、被写体(一例として、人)が歩いていないY座標であっても、画像の幅を取得することができる、これにより、撮像装置1は、任意のY座標において定点撮像部11からの距離を取得することができる。
In the imaging device 1, the obtaining unit 13 obtains the width of the actual image obtained by the fourth obtaining unit 134 based on the width at the reference position in the Y-coordinate direction and the width at the predetermined position in the Y-coordinate direction. Therefore, a ninth acquisition unit 139 that acquires the width ratio with respect to the Y coordinate may be provided.
The imaging apparatus 1 can acquire the width of the image even if the subject (for example, a person) is not walking on the Y coordinate by acquiring the width ratio by the ninth acquiring unit 139. The imaging device 1 can acquire the distance from the fixed-point imaging section 11 at any Y coordinate.

撮像方法では、コンピュータが、複数の定点撮像部11により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識ステップと、認識ステップで認識した被写体の位置に関する位置情報を取得する取得ステップと、取得ステップで取得された位置情報に基づいて被写体の移動先を予測する予測ステップと、予測ステップで予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択ステップと、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得ステップで取得される位置情報とを対応付ける対応付けステップと、対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部17に表示する表示ステップと、を実行する。
撮像方法は、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像方法は、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適な方法である。
また、撮像方法は、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
In the imaging method, a computer performs a fixed-point imaging step in which a plurality of fixed-point imaging units 11 take images of a subject successively in time to generate image data, and an image based on the image data generated by each of the fixed-point imaging units 11. a recognition step for recognizing a subject; an acquisition step for acquiring position information relating to the position of the subject recognized in the recognition step; a prediction step for predicting a destination of the subject based on the position information acquired in the acquisition step; a selection step of selecting the fixed-point imaging unit 11 closest to the predicted moving destination and causing the selected fixed-point imaging unit 11 to capture an image of the subject; an image based on the image data captured by the fixed-point imaging unit 11; an associating step of associating the positional information obtained in the obtaining step based on, acquiring a plurality of the images and the positional information associated in the associating step consecutively in time, and chronologically arranging the images with the positional information; and a display step of displaying the trajectory of the subject based on the position information on the display unit 17 .
The imaging method predicts the destination of the subject and images the subject by the same or different fixed-point imaging unit 11. Therefore, even when the subject moves, the subject can be continuously imaged. That is, the imaging method is a method suitable for imaging the same subject using a plurality of fixed-point imaging units 11 .
In addition, since the imaging method associates the image with the position information, the two can be synchronized when displaying the image and the position information.

撮像プログラムは、コンピュータに、複数の定点撮像部11により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、定点撮像部11それぞれで生成された画像データに基づく画像から被写体を認識する認識機能と、認識機能で認識した被写体の位置に関する位置情報を取得する取得機能と、取得機能で取得された位置情報に基づいて被写体の移動先を予測する予測機能と、予測機能で予測された移動先に最も近い定点撮像部11を選択して、選択した定点撮像部11で被写体を撮像させる選択機能と、定点撮像部11で撮像された画像データに基づく画像と、その画像に基づいて取得機能で取得される位置情報とを対応付ける対応付け機能と、対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく被写体の軌跡とを表示部17に表示する表示機能と、を実現させる。
撮像プログラムは、被写体の移動先を予測して、同一又は異なる定点撮像部11によって被写体を撮像するので、被写体が移動する場合でもその被写体を撮像し続けることができる。すなわち、撮像プログラムは、複数の定点撮像部11を用いて同一の被写体を撮像するのに好適なプログラムである。
また、撮像プログラムは、画像と位置情報とを対応付けるので、画像と位置情報とを表示する場合に両者を同期させることができる。
The imaging program provides a computer with a fixed-point imaging function for generating image data by continuously imaging a subject with a plurality of fixed-point imaging units 11, and an image based on the image data generated by each of the fixed-point imaging units 11. A recognition function that recognizes a subject, an acquisition function that acquires position information about the position of the subject recognized by the recognition function, a prediction function that predicts the destination of the subject based on the position information acquired by the acquisition function, and a prediction function a selection function of selecting the fixed-point imaging unit 11 closest to the predicted destination and imaging the subject with the selected fixed-point imaging unit 11; an image based on the image data captured by the fixed-point imaging unit 11; an associating function that associates location information acquired by the acquiring function based on the above, acquires a plurality of images and location information that are associated by the associating function successively in time, and chronologically obtains the images and the location information; and a display function of displaying the trajectory of the subject on the display unit 17 based on the position information.
The imaging program predicts the destination of the subject and images the subject with the same or different fixed-point imaging unit 11, so that the subject can be continuously imaged even when the subject moves. That is, the imaging program is a program suitable for imaging the same subject using a plurality of fixed-point imaging units 11 .
In addition, since the imaging program associates the image with the position information, it is possible to synchronize the two when displaying the image and the position information.

1 撮像装置
11 定点撮像部
12 認識部
13 取得部
131 第1取得部
132 第2取得部
133 第3取得部
134 第4取得部
135 第5取得部
136 第7取得部
138 第8取得部
139 第9取得部
14 予測部
15 選択部
16 対応付け部
17 表示部
18 時刻情報付加部
19 記憶部
1 imaging device 11 fixed-point imaging unit 12 recognition unit 13 acquisition unit 131 first acquisition unit 132 second acquisition unit 133 third acquisition unit 134 fourth acquisition unit 135 fifth acquisition unit 136 seventh acquisition unit 138 eighth acquisition unit 139 9 acquisition unit 14 prediction unit 15 selection unit 16 association unit 17 display unit 18 time information addition unit 19 storage unit

Claims (9)

時間的に連続して被写体を撮像して画像データを生成する複数の定点撮像部と、
前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識部と、
前記認識部で認識した前記被写体の位置に関する位置情報を取得する取得部と、
前記取得部で取得された前記位置情報に基づいて前記被写体の移動先を予測する予測部と、
前記予測部で予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択部と、
前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得部で取得される前記位置情報とを対応付ける対応付け部と、
前記対応付け部で対応付けた画像と前記位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示する表示部と、
を備える撮像装置。
a plurality of fixed-point imaging units that capture images of a subject continuously in time and generate image data;
a recognition unit that recognizes the subject from an image based on image data generated by each of the fixed-point imaging units;
an acquisition unit that acquires position information about the position of the subject recognized by the recognition unit;
a prediction unit that predicts a destination of the subject based on the position information acquired by the acquisition unit;
a selection unit that selects the fixed-point imaging unit closest to the destination predicted by the prediction unit and causes the selected fixed-point imaging unit to image the subject;
an associating unit that associates an image based on image data captured by the fixed-point imaging unit with the position information acquired by the acquisition unit based on the image;
a display unit that acquires a plurality of the images associated by the associating unit and the position information consecutively in time, and displays the images and the trajectory of the subject based on the position information in chronological order;
An imaging device comprising:
前記対応付け部は、前記複数の定点撮像部それぞれで撮像された画像データに基づく画像と位置情報とを対応付け、その対応付けを示す対応情報に対して、画像データを撮像した前記定点撮像部毎に異なる特徴を示す特徴情報を付し、
前記表示部は、画像及び軌跡を表示する場合、前記対応情報に基づいた画像と前記位置情報に基づく軌跡とに、前記特徴情報に基づいて前記定点撮像部毎に異なる特徴画像を付して表示する
請求項1に記載の撮像装置。
The associating unit associates an image based on image data captured by each of the plurality of fixed-point imaging units with position information, and the fixed-point imaging unit captures image data with respect to correspondence information indicating the association. Attach feature information indicating different features for each
When displaying the image and the trajectory, the display unit displays the image based on the correspondence information and the trajectory based on the position information with a different characteristic image for each fixed-point imaging unit based on the characteristic information. The imaging device according to claim 1.
前記定点撮像部で生成された画像データに基づく画像と、前記取得部で取得された前記位置情報とに対して同期する時刻情報を付す時刻情報付加部と、
画像データ及び前記位置情報を記憶する記憶部と、を備え、
前記表示部は、前記記憶部から読み出された画像データに基づく画像及び前記位置情報に基づく軌跡を、前記時刻情報付加部で付加された前記時刻情報に基づいて同期するように表示する
請求項1又は2に記載の撮像装置。
a time information addition unit that adds time information synchronized with the image based on the image data generated by the fixed point imaging unit and the position information acquired by the acquisition unit;
a storage unit that stores the image data and the position information,
The display unit displays an image based on the image data read from the storage unit and a trajectory based on the position information so as to be synchronized based on the time information added by the time information addition unit. 3. The imaging device according to 1 or 2.
前記取得部は、
前記定点撮像部で撮像される画像内の位置と、被写体の実位置とを予め対応付けた結果に基づいて、前記認識部で新たな被写体が認識されと、位置情報を取得する
請求項1~3のいずれか1項に記載の撮像装置。
The acquisition unit
Position information is acquired when a new object is recognized by the recognition unit based on a result of previously associating a position within an image captured by the fixed-point imaging unit with an actual position of the object. 4. The imaging device according to any one of 3.
前記取得部は、
前記定点撮像部で撮像される画像内の位置と、その位置における前記定点撮像部からの距離とを対応付けた結果と、
前記定点撮像部からの距離と、実空間上の位置とを対応付けた結果と、
に基づいて、前記認識部で新たな被写体が認識されると、位置情報を取得する
請求項4に記載の撮像装置。
The acquisition unit
a result of associating a position in an image captured by the fixed-point imaging unit with a distance from the fixed-point imaging unit at that position;
a result of associating the distance from the fixed-point imaging unit with a position in real space;
5. The imaging apparatus according to claim 4, wherein position information is acquired when a new subject is recognized by the recognition unit based on.
前記取得部は、
被写体の高さと、前記定点撮像部の画角と、前記定点撮像部で撮像される画像の幅とを予め取得する第1取得部と、
被写体が移動する場合、前記第1取得部で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部と、
画像データに基づく画像の奥行方向の座標となるY座標と、前記第2取得部で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部と、
前記第1取得部で取得される画像の幅と、前記第2取得部で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部と、
前記第4取得部で取得された実際の画像の幅と、前記第1取得部で取得された画角とに基づいて、前記定点撮像部から画像内の中心位置までの距離である第1距離を取得すると共に、地面から前記中心位置までの距離である第2距離を取得する第5取得部と、
前記第5取得部で取得された前記第1距離及び前記第2距離に基づいて、地面と前記定点撮像部の撮像方向における中心線とのなす角を求める第6取得部と、
前記第5取得部で取得された前記第1距離及び前記第2距離と、前記第6取得部で取得された前記なす角とに基づいて、地面から前記定点撮像部までの高さを取得する第7取得部と、
前記第7取得部で取得された地面から前記定点撮像部までの高さと、前記第6取得部で取得された前記なす角とに基づいて、前記定点撮像部が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて、前記定点撮像部からの距離を取得する第8取得部と、
を備える請求項5に記載の撮像装置。
The acquisition unit
a first acquisition unit that acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit, and the width of the image captured by the fixed-point imaging unit;
a second obtaining unit that obtains the number of pixels constituting image data per meter based on the height of the subject obtained by the first obtaining unit when the subject moves;
a third acquiring unit for acquiring a relationship between a Y coordinate, which is a coordinate in the depth direction of an image based on image data, and the number of pixels per meter of the subject acquired by the second acquiring unit;
a fourth obtaining unit that obtains an actual image width at a predetermined position based on the width of the image obtained by the first obtaining unit and the number of pixels per meter obtained by the second obtaining unit;
A first distance, which is the distance from the fixed-point imaging unit to the center position in the image, based on the width of the actual image acquired by the fourth acquisition unit and the angle of view acquired by the first acquisition unit. and a fifth acquisition unit that acquires a second distance that is the distance from the ground to the center position;
a sixth obtaining unit that obtains an angle between the ground and a center line in the imaging direction of the fixed-point imaging unit based on the first distance and the second distance that are obtained by the fifth obtaining unit;
acquiring a height from the ground to the fixed point imaging unit based on the first distance and the second distance acquired by the fifth acquisition unit and the angle acquired by the sixth acquisition unit; a seventh acquisition unit;
Based on the height from the ground to the fixed-point imaging unit acquired by the seventh acquisition unit and the angle acquired by the sixth acquisition unit, from the imaging position where the fixed-point imaging unit is arranged to the subject an eighth acquisition unit that acquires the position of the subject and further acquires the distance from the fixed point imaging unit based on acquiring a plurality of the positions of the subject;
The imaging device according to claim 5, comprising:
前記取得部は、前記第4取得部で取得された実際の画像の幅のうち、前記Y座標の方向における基準位置の幅と、前記Y座標の方向の所定位置における幅とに基づいて、前記Y座標に対する幅比率を取得する第9取得部を備える
請求項6に記載の撮像装置。
Based on the width at a reference position in the Y-coordinate direction and the width at a predetermined position in the Y-coordinate direction, among the widths of the actual image acquired by the fourth acquisition unit, the acquisition unit acquires the 7. The imaging apparatus according to claim 6, further comprising a ninth acquisition unit that acquires a width ratio with respect to the Y coordinate.
コンピュータが、
複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像ステップと、
前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識ステップと、
前記認識ステップで認識した前記被写体の位置に関する位置情報を取得する取得ステップと、
前記取得ステップで取得された位置情報に基づいて前記被写体の移動先を予測する予測ステップと、
前記予測ステップで予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択ステップと、
前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得ステップで取得される位置情報とを対応付ける対応付けステップと、
前記対応付けステップで対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示部に表示する表示ステップと、
を実行する撮像方法。
the computer
a fixed-point imaging step in which a plurality of fixed-point imaging units capture images of a subject continuously in time to generate image data;
a recognition step of recognizing the subject from an image based on image data generated by each of the fixed-point imaging units;
an acquisition step of acquiring position information about the position of the subject recognized in the recognition step;
a prediction step of predicting a destination of the subject based on the position information acquired in the acquisition step;
a selection step of selecting the fixed-point imaging unit closest to the destination predicted in the prediction step and causing the selected fixed-point imaging unit to image the subject;
an associating step of associating an image based on image data captured by the fixed-point imaging unit with position information obtained in the obtaining step based on the image;
A display step of acquiring a plurality of images and location information associated in the association step successively in time, and displaying the images and the trajectory of the subject based on the location information in chronological order on a display unit. and,
An imaging method that performs
コンピュータに、
複数の定点撮像部により時間的に連続して被写体を撮像して画像データを生成する定点撮像機能と、
前記定点撮像部それぞれで生成された画像データに基づく画像から前記被写体を認識する認識機能と、
前記認識機能で認識した前記被写体の位置に関する位置情報を取得する取得機能と、
前記取得機能で取得された位置情報に基づいて前記被写体の移動先を予測する予測機能と、
前記予測機能で予測された移動先に最も近い前記定点撮像部を選択して、選択した定点撮像部で前記被写体を撮像させる選択機能と、
前記定点撮像部で撮像された画像データに基づく画像と、その画像に基づいて前記取得機能で取得される位置情報とを対応付ける対応付け機能と、
前記対応付け機能で対応付けた画像と位置情報とを時間的に連続して複数取得し、時系列順に、その画像と、その位置情報に基づく前記被写体の軌跡とを表示部に表示する表示機能と、
を実現させる撮像プログラム。
to the computer,
a fixed-point imaging function for generating image data by capturing images of a subject continuously in time by a plurality of fixed-point imaging units;
a recognition function for recognizing the subject from an image based on image data generated by each of the fixed-point imaging units;
an acquisition function for acquiring position information about the position of the subject recognized by the recognition function;
a prediction function for predicting a destination of the subject based on the position information acquired by the acquisition function;
a selection function that selects the fixed-point imaging unit closest to the destination predicted by the prediction function and causes the selected fixed-point imaging unit to image the subject;
an associating function that associates an image based on image data captured by the fixed-point imaging unit with position information acquired by the acquisition function based on the image;
A display function that acquires a plurality of images and location information associated by the association function successively in time, and displays the images and the trajectory of the subject based on the location information in chronological order on the display unit. and,
An imaging program that realizes
JP2023075531A 2019-02-12 2023-05-01 Imaging apparatus, imaging method, and imaging program Pending JP2023100805A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023075531A JP2023100805A (en) 2019-02-12 2023-05-01 Imaging apparatus, imaging method, and imaging program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019023059A JP7274298B2 (en) 2019-02-12 2019-02-12 IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM
JP2023075531A JP2023100805A (en) 2019-02-12 2023-05-01 Imaging apparatus, imaging method, and imaging program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019023059A Division JP7274298B2 (en) 2019-02-12 2019-02-12 IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM

Publications (1)

Publication Number Publication Date
JP2023100805A true JP2023100805A (en) 2023-07-19

Family

ID=72263691

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019023059A Active JP7274298B2 (en) 2019-02-12 2019-02-12 IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM
JP2023075531A Pending JP2023100805A (en) 2019-02-12 2023-05-01 Imaging apparatus, imaging method, and imaging program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019023059A Active JP7274298B2 (en) 2019-02-12 2019-02-12 IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM

Country Status (1)

Country Link
JP (2) JP7274298B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210128736A (en) 2020-04-17 2021-10-27 삼성전자주식회사 Electronic device including multi-cameras and shooting method

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4195991B2 (en) * 2003-06-18 2008-12-17 パナソニック株式会社 Surveillance video monitoring system, surveillance video generation method, and surveillance video monitoring server
JP6225039B2 (en) * 2014-01-31 2017-11-01 株式会社日立製作所 Image search system, image search apparatus, and image search method

Also Published As

Publication number Publication date
JP2020136703A (en) 2020-08-31
JP7274298B2 (en) 2023-05-16

Similar Documents

Publication Publication Date Title
JP7480823B2 (en) Information processing device, information processing method, and program
CN104106260B (en) Control based on geographical map
JP4195991B2 (en) Surveillance video monitoring system, surveillance video generation method, and surveillance video monitoring server
US7522186B2 (en) Method and apparatus for providing immersive surveillance
KR101695249B1 (en) Method and system for presenting security image
JP2010504711A (en) Video surveillance system and method for tracking moving objects in a geospatial model
KR101045323B1 (en) Realtime image control system using multiple view point camera and control method therefor
US9576335B2 (en) Method, device, and computer program for reducing the resolution of an input image
JP2011254289A (en) Moving body locus display device, and moving body locus display program
JP2023100805A (en) Imaging apparatus, imaging method, and imaging program
WO2012081319A1 (en) Video monitoring apparatus
KR101700651B1 (en) Apparatus for tracking object using common route date based on position information
JP7107596B2 (en) Station monitoring system and station monitoring method
CN117014716A (en) Target tracking method and electronic equipment
KR102030736B1 (en) Apparatus for analyzing Multi-Distributed Video Data
KR101670247B1 (en) System for magnifying-moving object using one click of cctv real-time image and method therefor
KR101996907B1 (en) Apparatus for tracking object
KR20170012717A (en) Method and apparatus for generating location information based on video image
JPWO2020039898A1 (en) Station monitoring equipment, station monitoring methods and programs
KR102081517B1 (en) Intelligent integration control system and intelligent integration control method for linkage tracing of goal target
KR101462269B1 (en) part of picture storing method for high definition camera
EP4087236A1 (en) Video surveillance system with vantage point transformation
WO2023131327A1 (en) Video synthesis method, apparatus and system
JP2003179930A (en) Method and apparatus for extracting dynamic object
CN117692755A (en) Moving target tracking shooting method, device, equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230529

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240611