JP2023101515A - Imaging apparatus, imaging method, and imaging program - Google Patents

Imaging apparatus, imaging method, and imaging program Download PDF

Info

Publication number
JP2023101515A
JP2023101515A JP2023075530A JP2023075530A JP2023101515A JP 2023101515 A JP2023101515 A JP 2023101515A JP 2023075530 A JP2023075530 A JP 2023075530A JP 2023075530 A JP2023075530 A JP 2023075530A JP 2023101515 A JP2023101515 A JP 2023101515A
Authority
JP
Japan
Prior art keywords
subject
unit
image
fixed
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023075530A
Other languages
Japanese (ja)
Inventor
崇泰 八尋
Takayasu Yahiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Core Corp
Original Assignee
Core Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Core Corp filed Critical Core Corp
Priority to JP2023075530A priority Critical patent/JP2023101515A/en
Publication of JP2023101515A publication Critical patent/JP2023101515A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide an imaging apparatus that provides one method for specifying a position of a subject, an imaging method, and an imaging program.SOLUTION: An imaging apparatus comprises: a fixed-point imaging part that generates image data by imaging a subject; a storage part that stores image position information in which position information indicating an actual position of the subject is associated with each pixel in which the subject of the image data exists when the subject exists in the image data imaged by the fixed-point imaging part; and a specification part that specifies the position of the new subject on the basis of image data in which a new subject exists and the image position information when the new subject is imaged by the fixed-point imaging part.SELECTED DRAWING: Figure 1

Description

本発明は、撮像装置、撮像方法及び撮像プログラムに関する。 The present invention relates to an imaging device, an imaging method, and an imaging program.

従来から、撮像部で撮像された画像に基づいて被写体を認識して、その被写体の位置等を求める技術が存在する。特許文献1には、撮像部で撮像された2枚の画像(基準となる参照画像と、被写体が写る画像)から差分画像を作成して、その差分画像から被写体を認識し、撮像部の画角、設置角度及び設置位置に基づいて、認識した被写体の位置を取得することが記載されている。 2. Description of the Related Art Conventionally, there is a technique of recognizing a subject based on an image captured by an imaging unit and obtaining the position and the like of the subject. Patent Document 1 describes that a difference image is created from two images captured by an imaging unit (a reference image that serves as a standard and an image that captures a subject), the subject is recognized from the difference image, and the position of the recognized subject is obtained based on the angle of view, installation angle, and installation position of the imaging unit.

特開2016-181786号公報JP 2016-181786 A

しかしながら、特許文献1には、撮像部の画角、設置角度及び設置位置に基づいて被写体の位置を取得することが記載されているが、撮像部の画角、設置角度及び設置位置に基づいて具体的にどのようにして被写体の位置を取得するのかは記載されていない。
また、従来では、被写体を撮像部で撮像させ、その撮像部で生成された画像データに基づく画像上の被写体の位置と、実際の被写体の位置とを対応付ける作業を繰り返し行った後、その対応付けに基づいて撮像部で新たに撮像された被写体の位置を特定する場合もあった。
However, although Patent Document 1 describes obtaining the position of the subject based on the angle of view, installation angle, and installation position of the imaging unit, it does not describe how to specifically acquire the position of the object based on the angle of view, installation angle, and installation position of the imaging unit.
Conventionally, there is a case where an image of a subject is imaged by an imaging unit, and the position of the subject on the image based on the image data generated by the imaging unit is repeatedly associated with the actual position of the subject, and then the position of the subject newly imaged by the imaging unit is specified based on the association.

本発明は、被写体の位置を特定する一手法を提供する撮像装置、撮像方法及び撮像プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus, an imaging method, and an imaging program that provide a technique for specifying the position of a subject.

一態様の撮像装置は、被写体を撮像して画像データを生成する定点撮像部と、定点撮像部が撮像する画像データ内に被写体が存在する場合に、被写体の実位置を示す位置情報を、画像データの被写体が存在するピクセル毎に対応付けた画像位置情報を記憶する記憶部と、定点撮像部によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する特定部と、を備える。 An imaging device according to one aspect includes a fixed-point imaging unit that images a subject and generates image data, a storage unit that stores position information indicating the actual position of the subject when the subject exists in image data captured by the fixed-point imaging unit, and image position information in which image position information indicating the actual position of the subject is associated with each pixel of the image data where the subject exists, and a specifying unit that specifies the position of the new subject based on the image data in which the new subject is present and the image position information when the new subject is captured by the fixed-point imaging unit.

一態様の撮像装置は、光を受けて発電を行う発電パネル及び電源の少なくとも一方を備え、定点撮像部は、発電パネル及び電源の少なくとも一方から給電されることとしてもよい。 An imaging device of one aspect may include at least one of a power generation panel that receives light to generate power and a power supply, and the fixed-point imaging unit may be supplied with power from at least one of the power generation panel and the power supply.

一態様の撮像装置では、記憶部は、被写体と、その被写体の特徴とを対応付けた対応関係をさらに記憶し、予め被写体の特徴を学習した結果である対応関係に基づいて、定点撮像部で生成された画像データに基づく画像から被写体の特徴を抽出し、抽出した特徴から被写体を認識する認識部をさらに備えることとしてもよい。 In one aspect of the imaging device, the storage unit may further store a correspondence relationship between the subject and the feature of the subject, and based on the correspondence relationship obtained by learning the feature of the subject in advance, the feature of the subject may be extracted from an image based on the image data generated by the fixed-point imaging unit, and the recognition unit may further include a recognition unit that recognizes the subject from the extracted feature.

一態様の撮像装置は、定点撮像部によって撮像された画像データ内の被写体の高さと、定点撮像部の画角とに基づいて画像位置情報を取得する取得部を備えることとしてもよい。 An imaging device of one aspect may include an acquisition unit that acquires image position information based on the height of a subject in image data captured by the fixed-point imaging unit and the angle of view of the fixed-point imaging unit.

一態様の撮像装置では、取得部は、被写体の高さと、定点撮像部の画角と、定点撮像部で撮像される画像の幅とを予め取得する第1取得部と、被写体が移動する場合、第1取得部で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部と、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部と、第1取得部で取得される画像の幅と、第2取得部で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部と、第4取得部で取得された実際の画像の幅と、第1取得部で取得された画角とに基づいて、定点撮像部から画像内の中心位置までの距離である第1距離を取得すると共に、地面から中心位置までの距離である第2距離を取得する第5取得部と、第5取得部で取得された第1距離及び第2距離に基づいて、地面と定点撮像部の撮像方向における中心線とのなす角を求める第6取得部と、第5取得部で取得された第1距離及び第2距離と、第6取得部で取得されたなす角とに基づいて、地面から定点撮像部までの高さを取得する第7取得部と、第7取得部で取得された地面から定点撮像部までの高さと、第6取得部で取得されたなす角とに基づいて、定点撮像部が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて画像位置情報を取得する第8取得部と、を備えることとしてもよい。 In one aspect of the imaging device, the acquisition unit includes: a first acquisition unit that acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit, and the width of the image captured by the fixed-point imaging unit; the second acquisition unit that, when the subject moves, acquires the number of pixels forming image data per 1 m based on the height of the subject acquired by the first acquisition unit; a fourth obtaining unit that obtains the actual width of the image at a predetermined position based on the width of the image obtained by the first obtaining unit and the number of pixels per meter obtained by the second obtaining unit; obtains a first distance that is the distance from the fixed point imaging unit to the center position in the image based on the actual width of the image that is obtained by the fourth obtaining unit and the angle of view that is obtained by the first obtaining unit; and obtains a second distance that is the distance from the ground to the center position. a sixth obtaining unit that obtains the angle between the ground and the center line in the imaging direction of the fixed-point imaging unit based on the first distance and the second distance obtained by the fifth obtaining unit; a seventh obtaining unit that obtains the height from the ground to the fixed-point imaging unit based on the first and second distances obtained by the fifth obtaining unit and the angle formed by the sixth obtaining unit; an eighth acquisition unit that acquires the position from the imaging position where the fixed-point imaging unit is arranged to the subject based on the angle acquired by the acquisition unit 6, and further acquires the image position information based on multiple acquisitions of the positions of the subject.

一態様の撮像装置では、取得部は、第4取得部で取得された実際の画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する第9取得部を備えることとしてもよい。 In one aspect of the imaging device, the acquisition unit may include a ninth acquisition unit that acquires the width ratio to the Y coordinate based on the width of the actual image acquired by the fourth acquisition unit at the reference position in the Y coordinate direction and the width at the predetermined position in the Y coordinate direction.

一態様の撮像方法では、コンピュータが、定点撮像部によって被写体を撮像して画像データを生成する定点撮像ステップと、定点撮像部が撮像する画像データ内に被写体が存在する場合に、被写体の実位置を示す位置情報を、画像データの被写体が存在するピクセル毎に対応付けた画像位置情報を記憶部に記憶する記憶ステップと、定点撮像部によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する特定ステップと、を実行する。 In one aspect of the imaging method, the computer performs a fixed-point imaging step of imaging a subject by the fixed-point imaging section and generating image data, a storing step of storing position information indicating the actual position of the subject in the storage section when the subject exists in image data captured by the fixed-point imaging section, and image position information in which the subject exists in correspondence with each pixel of the image data, and specifying the position of the new subject based on the image data in which the new subject exists and the image position information when the new subject is captured by the fixed-point imaging section. perform the specific steps to

一態様の撮像プログラムは、コンピュータに、定点撮像部によって被写体を撮像して画像データを生成する定点撮像機能と、定点撮像部が撮像する画像データ内に被写体が存在する場合に、被写体の実位置を示す位置情報を、画像データの被写体が存在するピクセル毎に対応付けた画像位置情報を記憶部に記憶する記憶機能と、定点撮像部によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する特定機能と、を実現させる。 In one aspect, the imaging program includes a fixed-point imaging function of imaging a subject by a fixed-point imaging unit to generate image data, a storage function of storing, in a storage unit, image position information indicating the actual position of the subject in the case where the subject exists in the image data imaged by the fixed-point imaging unit, in association with each pixel of the image data where the subject exists, and when a new subject is imaged by the fixed-point imaging unit, the position of the new subject is specified based on the image data in which the new subject exists and the image position information. and a specific function to implement.

一態様の撮像装置は、予め画像位置情報を記憶部に記憶しておき、定点撮像部で被写体を撮像すると、画像位置情報に基づいて被写体の位置を特定するので、被写体の位置を特定する一手法を提供することができる。
また、一態様の撮像方法及び撮像プログラムは、上述した一態様の撮像装置と同様の効果を奏することができる。
The image capturing apparatus of one aspect stores image position information in advance in the storage unit, and when the fixed-point image capturing unit captures an image of the subject, the image capturing apparatus identifies the position of the subject based on the image position information.
Further, the imaging method and the imaging program of one aspect can achieve the same effect as the imaging apparatus of one aspect described above.

一実施形態に係る撮像装置について説明するためのブロック図である。1 is a block diagram for explaining an imaging device according to an embodiment; FIG. 画像位置情報を取得する場合の説明に用いるための図である。FIG. 10 is a diagram for use in explaining a case of acquiring image position information; 定点撮像部で撮像される画像の一例について説明するための図である。FIG. 4 is a diagram for explaining an example of an image captured by a fixed-point imaging section; FIG. Y座標とピクセル数との関係を示すグラフである。It is a graph which shows the relationship between a Y-coordinate and the number of pixels. 画像位置情報の一例について説明するためのグラフである。7 is a graph for explaining an example of image position information; Y座標と画像の幅の比率との関係を示すグラフである。4 is a graph showing the relationship between the Y coordinate and the width ratio of an image; 一実施形態に係る撮像方法について説明するための第1のフローチャートである。4 is a first flowchart for explaining an imaging method according to one embodiment; 一実施形態に係る撮像方法について説明するための第2のフローチャートである。4 is a second flow chart for explaining an imaging method according to one embodiment;

以下、本発明の一実施形態について説明する。
一実施形態に係る撮像装置は、定点撮像部によって被写体を撮像し、被写体が記録される画像に基づいて、定点撮像部から被写体までの距離を取得する構成である。その撮像装置は、定点撮像部を所定の位置に配置した場合、定点撮像部の撮像範囲内に、例えば、人などを歩かせて、その人の位置を特定する(画像位置情報を取得する)。これにより、撮像装置は、定点撮像部で新たに被写体が撮像される場合でも、画像位置情報に基づいて被写体の位置を特定する、すなわち、画像内で、定点撮像部から被写体までの距離を取得する。
An embodiment of the present invention will be described below.
An image capturing apparatus according to an embodiment is configured to capture an image of a subject using a fixed-point image capturing section, and acquire the distance from the fixed-point image capturing section to the subject based on the recorded image of the subject. When the fixed-point imaging unit is arranged at a predetermined position, the imaging device, for example, makes a person walk within the imaging range of the fixed-point imaging unit, and identifies the position of the person (acquires image position information). As a result, even when a new subject is captured by the fixed-point imaging section, the imaging device identifies the position of the subject based on the image position information, that is, acquires the distance from the fixed-point imaging section to the subject in the image.

図1は、一実施形態に係る撮像装置について説明するためのブロック図である。 FIG. 1 is a block diagram for explaining an imaging device according to one embodiment.

撮像装置1は、定点撮像部11、記憶部12、特定部13、認識部14及び取得部15を備える。また、撮像装置1は、発電パネル16又は電源17のうち少なくとも一方を備える。 The imaging device 1 includes a fixed-point imaging unit 11 , a storage unit 12 , an identification unit 13 , a recognition unit 14 and an acquisition unit 15 . The imaging device 1 also includes at least one of the power generation panel 16 and the power source 17 .

定点撮像部11は、被写体を撮像して画像データを生成する。すなわち、定点撮像部11は、動画、又は、所定時間ごとに連続して静止画を生成する。定点撮像部11は、所定の場所に配置されて、所定の方向を撮像する。
定点撮像部11は、地面に固定されたポール等に設置され、又は、移動可能な三脚等に設置される。定点撮像部11は、移動可能な三脚等に設置された場合、その三脚と共に移動させることが可能である。これにより、定点撮像部は、ユーザの所望の場所に容易に配置され、またユーザが必要とする期間のみ所望の場所に配置されることができる。
定点撮像部11で撮像された画像に歪み等が存在すると、被写体の位置を取得するときの位置精度に影響がある。このため、定点撮像部11には、相対的に歪みの少ない画像を得られる撮像レンズ等が用いられること好ましい。
The fixed-point imaging section 11 images a subject and generates image data. That is, the fixed-point imaging unit 11 continuously generates a moving image or still images at predetermined time intervals. The fixed-point imaging unit 11 is arranged at a predetermined location and captures an image in a predetermined direction.
The fixed-point imaging unit 11 is installed on a pole or the like fixed to the ground, or installed on a movable tripod or the like. When the fixed-point imaging unit 11 is installed on a movable tripod or the like, it can be moved together with the tripod. As a result, the fixed-point imaging unit can be easily arranged at a user's desired location, and can be arranged at a desired location only for a period required by the user.
If there is distortion or the like in the image captured by the fixed-point imaging unit 11, it affects the positional accuracy when acquiring the position of the subject. For this reason, it is preferable that the fixed-point imaging section 11 use an imaging lens or the like that can obtain an image with relatively little distortion.

定点撮像部11は、例えば、発電パネル16又は電源17の少なくとも一方から給電される。
発電パネル16は、光を受けて発電を行う。発電パネル16は、エネルギハーベスティング技術を利用したデバイス、すなわち、周囲の環境のエネルギを収穫して電力に変換するデバイスであってよい。具体的な一例として、発電パネル16は、太陽電池パネルであってよい。発電パネル16で発電された電力は、例えば、バッテリなどに蓄電して、そのバッテリから定点撮像部11に給電してもよい。
電源17は、例えば、一次電池、二次電池又は商用電源等である。電源17として一次電池又は二次電池が用いられる場合、その一次電池又は二次電池が交換可能なように撮像装置1に配される。また、電源17として二次電池が用いられる場合、その二次電池が充電可能なように撮像装置1に配されてもよい。
なお、発電パネル16又は電源17は、定点撮像部11の他に、記憶部12、特定部13、認識部14及び取得部15に給電してもよい。
The fixed-point imaging unit 11 is powered by at least one of the power generation panel 16 and the power supply 17, for example.
The power generation panel 16 receives light and generates power. The power generation panel 16 may be a device that utilizes energy harvesting technology, i.e., a device that harvests energy from the surrounding environment and converts it into electrical power. As a specific example, the power generation panel 16 may be a solar panel. The power generated by the power generation panel 16 may be stored in, for example, a battery, and the fixed-point imaging unit 11 may be supplied with power from the battery.
The power source 17 is, for example, a primary battery, a secondary battery, or a commercial power source. When a primary battery or secondary battery is used as the power supply 17, the primary battery or secondary battery is arranged in the imaging device 1 so as to be replaceable. Further, when a secondary battery is used as the power source 17, the secondary battery may be arranged in the imaging device 1 so as to be rechargeable.
Note that the power generation panel 16 or the power source 17 may supply power to the storage unit 12 , the identification unit 13 , the recognition unit 14 and the acquisition unit 15 in addition to the fixed point imaging unit 11 .

記憶部12は、被写体と、その被写体の特徴とを対応付けた対応関係(学習モデル)を記憶する。対応関係は、認識部14において被写体を認識するときに用いられる。対応関係は、一例として、深層学習等が行われることにより生成される。すなわち、対応関係は、深層学習等が行われることに基づいて被写体の特徴が学習され、被写体と、被写体の特徴との関係を対応付けることにより生成される。対応関係を生成する場合に利用される被写体は、定点撮像部によって常時撮影される被写体(後述する「新たな被写体」)ではなく、対応関係(学習モデル)を生成する場合にのみ利用される被写体である。対応関係は、例えば、認識部14によって生成され、記憶部12に記憶される。又は、対応関係は、他の装置(図示せず)で生成されてもよい。他の装置で生成された対応関係は、外部メモリ等の記録媒体又は通信ネットワークを介して、記憶部12にダウンロード(記憶)されてもよい。 The storage unit 12 stores a correspondence (learning model) that associates a subject with the characteristics of the subject. The correspondence relationship is used when the recognition unit 14 recognizes the subject. The correspondence is generated by deep learning or the like, for example. That is, the correspondence relationship is generated by learning the features of the subject based on deep learning or the like, and by associating the relationship between the subject and the features of the subject. The subject that is used when generating the correspondence is not the subject that is constantly photographed by the fixed-point imaging unit (“new subject” described later), but the subject that is used only when generating the correspondence (learning model). The correspondence is generated by the recognition unit 14 and stored in the storage unit 12, for example. Alternatively, the correspondence may be generated by another device (not shown). The correspondence generated by another device may be downloaded (stored) to the storage unit 12 via a recording medium such as an external memory or a communication network.

また、記憶部12は、定点撮像部11が撮像する画像データ内に被写体が存在する場合に、被写体の実位置を示す位置情報を、画像データの被写体が存在するピクセル毎に対応付けた画像位置情報を記憶する。画像位置情報の生成方法については、後述する。 Further, the storage unit 12 stores image position information in which position information indicating the actual position of the object is associated with each pixel of the image data where the object exists when the object exists in the image data captured by the fixed-point imaging unit 11. A method of generating image position information will be described later.

認識部14は、定点撮像部11で生成された画像データに被写体が記録される場合、記憶部12に記憶される対応関係(学習モデル)に基づいて被写体を認識する。すなわち、認識部14は、予め被写体の特徴を学習して、対応関係(学習モデル)を記憶部12に記憶する。認識部14は、対応関係(学習モデル)に基づいて、定点撮像部11で生成された画像データに基づく画像から被写体の特徴を抽出し、抽出した特徴から被写体を認識する。
認識部14は、一例として、深層学習等を利用することにより、被写体の特徴を予め学習する。認識部14は、学習の結果としての被写体の特徴と、その特徴に対応する被写体とを対応付けた関係(対応関係)を記憶部12に記憶する。この場合、認識部14は、定点撮像部11で生成された画像データに含まれる被写体に基づいて、その被写体の特徴を予め学習してもよい。また、認識部14は、深層学習を利用するのではなく、例えば、パターンマッチング等を行うことにより、被写体を認識することとしてもよい。
When a subject is recorded in the image data generated by the fixed-point imaging section 11 , the recognition section 14 recognizes the subject based on the correspondence (learning model) stored in the storage section 12 . That is, the recognition unit 14 learns the features of the subject in advance and stores the correspondence (learning model) in the storage unit 12 . Based on the correspondence (learning model), the recognition unit 14 extracts features of the subject from the image based on the image data generated by the fixed-point imaging unit 11, and recognizes the subject from the extracted features.
For example, the recognition unit 14 learns features of the subject in advance by using deep learning or the like. The recognition unit 14 stores, in the storage unit 12, a relationship (correspondence relationship) in which the feature of the subject as a learning result is associated with the subject corresponding to the feature. In this case, the recognition unit 14 may learn in advance the features of the subject based on the subject included in the image data generated by the fixed-point imaging unit 11 . Further, the recognition unit 14 may recognize the subject by performing pattern matching, for example, instead of using deep learning.

取得部15は、定点撮像部11によって生成された画像データに記録される被写体の高さと、定点撮像部11の画角とに基づいて、画像データ内の画像位置情報を取得する。すなわち、取得部15は、定点撮像部11によって撮像される画像に基づいて、画像内の位置に関する情報(画像位置情報)を取得する。詳しくは、取得部15は、定点撮像部11によって撮像された画像データに基づいて、上述した認識部14が被写体を認識した場合、被写体の高さと、定点撮像部11の画角とに基づいて、定点撮像部11で撮像される画像内の位置情報(画像位置情報(定点撮像部11から被写体までの距離に関る情報))を取得する。 The acquisition unit 15 acquires image position information in the image data based on the height of the subject recorded in the image data generated by the fixed-point imaging unit 11 and the angle of view of the fixed-point imaging unit 11 . That is, the acquiring unit 15 acquires information (image position information) regarding the position within the image based on the image captured by the fixed-point imaging unit 11 . Specifically, when the recognition unit 14 recognizes the subject based on the image data captured by the fixed-point imaging unit 11, the acquisition unit 15 acquires position information (image position information (information related to the distance from the fixed-point imaging unit 11 to the subject)) in the image captured by the fixed-point imaging unit 11 based on the height of the subject and the angle of view of the fixed-point imaging unit 11.

図2は、画像位置情報を取得する場合の説明に用いるための図である。
図3は、定点撮像部で撮像される画像の一例について説明するための図である。
図4は、Y座標とピクセル数との関係を示すグラフである。図4の横軸はY座標を示し、縦軸は1m当たりのピクセル数を示す。ここで、定点撮像部で撮像される画像内における奥行方向がY座標であり、その画像の幅方向がX座標である。
図5は、画像位置情報の一例について説明するためのグラフである。図5の横軸はY座標を示し、縦軸は、定点撮像部が配される地面の位置から任意のY座標の位置までの距離を示す。
図6は、Y座標と画像の幅の比率との関係を示すグラフである。図6の横軸はY座標を示し、縦軸は画像の幅の比率を示す。
FIG. 2 is a diagram for use in explaining the acquisition of image position information.
FIG. 3 is a diagram for explaining an example of an image captured by a fixed-point imaging unit.
FIG. 4 is a graph showing the relationship between the Y coordinate and the number of pixels. The horizontal axis of FIG. 4 indicates the Y coordinate, and the vertical axis indicates the number of pixels per meter. Here, the depth direction in the image captured by the fixed-point imaging unit is the Y coordinate, and the width direction of the image is the X coordinate.
FIG. 5 is a graph for explaining an example of image position information. The horizontal axis in FIG. 5 indicates the Y coordinate, and the vertical axis indicates the distance from the position of the ground where the fixed-point imaging unit is arranged to an arbitrary Y coordinate position.
FIG. 6 is a graph showing the relationship between the Y coordinate and the width ratio of the image. The horizontal axis of FIG. 6 indicates the Y coordinate, and the vertical axis indicates the width ratio of the image.

ここで、図2では、Y軸方向(Y座標方向)が奥行方向になる。また、図2において、Y軸方向(Y座標方向)の所定位置にいる被写体110を定点撮像部11で撮像した場合、その所定位置における画像を符号100aで示す。画像100aの幅(X軸方向のサイズ)を符号wで示す。その画像100aの中心位置を符号Pcとすると、定点撮像部11から中心位置Pcまでの距離を第1距離L1とし、中心位置Pcから地面までの距離を第2距離L2とする。また、Y軸方向に沿った、定点撮像部11から画像100aの地面に対応する位置までの直線と、地面とのなす角を符号θとする。さらに、地面からの定点撮像部11の高さをHとし、定点撮像部11が配される位置の地面位置をP0とし、Y軸方向に沿った地面位置P0から画像100aまでの距離を第3距離L3とする。
取得部15は、第3距離L3を取得して、定点撮像部11で撮像される画像内の位置と第3距離L3とを対応付けることにより、画像位置情報を取得する。
Here, in FIG. 2, the Y-axis direction (Y-coordinate direction) is the depth direction. In FIG. 2, when the subject 110 at a predetermined position in the Y-axis direction (Y-coordinate direction) is imaged by the fixed-point imaging unit 11, the image at the predetermined position is denoted by reference numeral 100a. The width (size in the X-axis direction) of the image 100a is indicated by w. Assuming that the center position of the image 100a is denoted by Pc, the distance from the fixed-point imaging unit 11 to the center position Pc is defined as a first distance L1, and the distance from the center position Pc to the ground is defined as a second distance L2. The angle formed by the ground and a straight line from the fixed-point imaging unit 11 to the position corresponding to the ground in the image 100a along the Y-axis direction is denoted by θ. Further, let H be the height of the fixed-point imaging unit 11 from the ground, P0 be the ground position where the fixed-point imaging unit 11 is arranged, and the third distance L3 be the distance from the ground position P0 to the image 100a along the Y-axis direction.
The acquisition unit 15 acquires the third distance L3, and associates the third distance L3 with the position in the image captured by the fixed-point imaging unit 11, thereby acquiring image position information.

具体的には、図1に示すように、取得部15は、第1取得部151、第2取得部152、第3取得部153、第4取得部154、第5取得部155、第6取得部156、第7取得部157、第8取得部158及び第9取得部159を備える。 Specifically, as shown in FIG. 1, the obtaining unit 15 includes a first obtaining unit 151, a second obtaining unit 152, a third obtaining unit 153, a fourth obtaining unit 154, a fifth obtaining unit 155, a sixth obtaining unit 156, a seventh obtaining unit 157, an eighth obtaining unit 158, and a ninth obtaining unit 159.

第1取得部151は、被写体の高さ、定点撮像部11の画角及び定点撮像部11で撮像される画像幅を予め取得する。
画像位置情報を取得するために、まず、定点撮像部11の撮像範囲内で被写体110を移動させる。被写体110は、例えば、人などである。被写体110が人の場合、例えば、不図示の入力装置を用いて、人の身長(被写体の高さ)が入力される。第1取得部151は、入力された人の身長を取得する。
また、第1取得部151は、定点撮像部11が撮影する画角θ2を取得する。画角θ2は、例えば、不図示の入力装置を用いて入力される。第1取得部151は、入力された画角θ2を取得する。画角θ2は、定点撮像部11の撮像素子(図示せず)の平面サイズ、及び、定点撮像部11の撮像レンズ(図示せず)の焦点距離等によって定まる。
また、第1取得部151は、定点撮像部11で得られる画像の幅(一例として、ピクセル数)を取得する。画像の幅(画像幅)は、例えば、不図示の入力装置を用いて入力される。
The first acquisition unit 151 acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit 11 , and the width of the image captured by the fixed-point imaging unit 11 .
To acquire the image position information, first, the subject 110 is moved within the imaging range of the fixed-point imaging section 11 . Subject 110 is, for example, a person. When the subject 110 is a person, for example, the height of the person (the height of the subject) is input using an input device (not shown). The first acquisition unit 151 acquires the input height of the person.
Also, the first acquisition unit 151 acquires the angle of view θ2 captured by the fixed-point imaging unit 11 . The angle of view θ2 is input using, for example, an input device (not shown). The first acquisition unit 151 acquires the input angle of view θ2. The angle of view θ2 is determined by the planar size of the imaging element (not shown) of the fixed-point imaging section 11, the focal length of the imaging lens (not shown) of the fixed-point imaging section 11, and the like.
Also, the first obtaining unit 151 obtains the width of the image obtained by the fixed-point imaging unit 11 (for example, the number of pixels). The width of the image (image width) is input using, for example, an input device (not shown).

第2取得部152は、第1取得部151で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する。
第2取得部152は、撮像範囲内で被写体(人)110を歩かせることにより、画像内の任意に位置において、定点撮像部11で撮像される画像内での1m当たりのピクセル数を取得する。すなわち、第2取得部152は、第1取得部151で取得された人の身長に基づいて画像100a内における1mの大きさ(長さ)を取得し、さらに取得した1mの大きさ当たりの画像のピクセル数を取得する。
図3に例示する場合、定点撮像部11に用いられる撮像素子(定点撮像部11で得られる画像)のサイズは、1280ピクセル×960ピクセルである。第2取得部152は、図3に例示する画像に被写体110(図3には図示せず)が記録される場合、被写体110の高さと、撮像素子(画像)のピクセル数とに基づいて、1mの大きさ当たりのピクセル数を取得する。
The second acquisition unit 152 acquires the number of pixels forming the image data per 1 m based on the height of the subject acquired by the first acquisition unit 151 .
The second acquisition unit 152 acquires the number of pixels per 1 m in the image captured by the fixed-point imaging unit 11 at any position in the image by making the subject (person) 110 walk within the imaging range. That is, the second acquisition unit 152 acquires the size (length) of 1 m in the image 100a based on the height of the person acquired by the first acquisition unit 151, and further acquires the number of pixels of the image per the acquired size of 1 m.
In the case illustrated in FIG. 3, the size of the imaging device (the image obtained by the fixed-point imaging section 11) used for the fixed-point imaging section 11 is 1280 pixels×960 pixels. When the subject 110 (not shown in FIG. 3) is recorded in the image illustrated in FIG. 3, the second acquisition unit 152 acquires the number of pixels per 1 m size based on the height of the subject 110 and the number of pixels of the imaging device (image).

第3取得部153は、画像データに基づく画像の奥行方向の座標となるY座標と、第2取得部152で取得される被写体の1m当たりのピクセル数との関係を取得する。
図3に例示する場合、画像の縦方向が実空間の奥行方向に対応し、その画像の縦方向の座標がY座標になる。また、図3に例示する場合、画像の横方向が実空間の幅方向に対応し、その画像の横方向の座標がX座標になる。そして、図3の左上のピクセルを原点の座標(0,0)とすると、右上のピクセルの座標が(1280,0)になる。図3の中心位置のピクセルの座標が(640,480)になる。図3の左下のピクセルの座標が(0,960)になり、右下のピクセルの座標が(1280,960)になる。
The third acquisition unit 153 acquires the relationship between the Y coordinate, which is the coordinate in the depth direction of the image based on the image data, and the number of pixels per meter of the object acquired by the second acquisition unit 152 .
In the case of FIG. 3, the vertical direction of the image corresponds to the depth direction of the real space, and the vertical coordinate of the image is the Y coordinate. Also, in the case of FIG. 3, the horizontal direction of the image corresponds to the width direction of the real space, and the horizontal coordinate of the image is the X coordinate. Assuming that the upper left pixel in FIG. 3 has coordinates (0, 0) of the origin, the coordinates of the upper right pixel are (1280, 0). The coordinates of the pixel at the center position in FIG. 3 are (640, 480). The coordinates of the lower left pixel in FIG. 3 are (0,960), and the coordinates of the lower right pixel are (1280,960).

定点撮像部11の撮像範囲内(座標(0,0)、座標(1280,0)、座標(1280,960)及び座標(0,960)で囲まれる範囲内)を、例えば、被写体(人)を縦横に歩かせることにより、第3取得部153は、複数のY座標の位置において1m当たりのピクセル数を取得する。 For example, by making the subject (person) walk vertically and horizontally within the imaging range of the fixed-point imaging unit 11 (within the range surrounded by coordinates (0, 0), coordinates (1280, 0), coordinates (1280, 960), and coordinates (0, 960)), the third acquisition unit 153 acquires the number of pixels per 1 m at a plurality of Y coordinate positions.

図4に一例を示すように、第3取得部153によって取得されるY座標と1m当たりのピクセル数との関係は線形になる。ここで、図2に示すように、Y座標の数値は、定点撮像部11に近づくに従って大きくなる。すなわち、Y座標が大きくなるに従って(被写体が定点撮像部11に近づくに従って)、1m当たりのピクセル数は多くなる。換言すると、Y座標が小さくなるに従って(被写体が定点撮像部11から遠ざかるに従って)、1m当たりのピクセル数は少なくなる。 As an example is shown in FIG. 4, the relationship between the Y coordinate acquired by the third acquisition unit 153 and the number of pixels per meter is linear. Here, as shown in FIG. 2, the numerical value of the Y coordinate increases as the fixed-point imaging unit 11 is approached. That is, as the Y coordinate increases (as the subject approaches the fixed-point imaging section 11), the number of pixels per meter increases. In other words, as the Y coordinate becomes smaller (as the subject moves away from the fixed-point imaging section 11), the number of pixels per meter decreases.

第4取得部154は、第1取得部151によって取得された画像の幅と、第2取得部152で取得された1m当たりのピクセル数とに基づいて所定位置における被写体110を検出した画像100aの実際の幅wを取得する。
図2に例示するように、被写体110がいるY座標の位置(Y座標の方向の所定位置)における画像100aを考える。第4取得部154は、定点撮像部11で撮像される画像の幅方向のピクセル数(図3に例示する場合では1280ピクセル)は第1取得部151によって取得されるため、1m当たりのピクセル数に基づいて、そのY座標の所定位置における画像100aの幅wの実際の長さを取得する。
The fourth acquisition unit 154 acquires the actual width w of the image 100a in which the subject 110 is detected at the predetermined position based on the width of the image acquired by the first acquisition unit 151 and the number of pixels per meter acquired by the second acquisition unit 152.
As illustrated in FIG. 2, consider an image 100a at the Y coordinate position (predetermined position in the Y coordinate direction) where the subject 110 is present. Since the number of pixels in the width direction of the image captured by the fixed-point imaging unit 11 (1280 pixels in the example shown in FIG. 3) is obtained by the first obtaining unit 151, the fourth obtaining unit 154 obtains the actual length of the width w of the image 100a at the predetermined position of the Y coordinate based on the number of pixels per meter.

第5取得部155は、第4取得部154で取得された実際の画像の幅wと、第1取得部151で取得された画角θ2とに基づいて、定点撮像部11から画像100a内の中心位置Pcまでの距離である第1距離を取得すると共に、地面から中心位置Pcまでの距離である第2距離を取得する。
第5取得部155は、上述したY座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部11の画角θ2に基づいて、定点撮像部11から画像100aの中心位置Pcまでの実際の距離(第1距離L1)を取得する。また、第5取得部155は、画像のピクセル数、1m当たりのピクセル数、Y座標の所定位置における画像100aの幅wの実際の長さ、及び、定点撮像部11の画角に基づいて、画像100aの中心位置Pcから地面までの実際の距離(第2距離L2)を取得する。
Based on the width w of the actual image acquired by the fourth acquisition unit 154 and the angle of view θ2 acquired by the first acquisition unit 151, the fifth acquisition unit 155 acquires a first distance, which is the distance from the fixed-point imaging unit 11 to the center position Pc in the image 100a, and acquires a second distance, which is the distance from the ground to the center position Pc.
The fifth acquisition unit 155 acquires the actual distance (first distance L1) from the fixed-point imaging unit 11 to the center position Pc of the image 100a based on the actual length of the width w of the image 100a at the predetermined position of the Y coordinate and the angle of view θ2 of the fixed-point imaging unit 11. In addition, the fifth acquisition unit 155 acquires the actual distance (second distance L2) from the center position Pc of the image 100a to the ground based on the number of pixels of the image, the number of pixels per 1 m, the actual length of the width w of the image 100a at a predetermined position of the Y coordinate, and the angle of view of the fixed-point imaging unit 11.

第6取得部156は、第5取得部155で取得された第1距離L1及び第2距離L2に基づいて、定点撮像部11の撮像方向における中心線と地面とのなす角θを求める。すなわち、第6取得部156は、三角関数を利用することにより、第5取得部155で取得された第1距離L1及び第2距離L2に基づいて、地面と定点撮像部11とのなす角θを求める。 Based on the first distance L1 and the second distance L2 obtained by the fifth obtaining unit 155, the sixth obtaining unit 156 obtains the angle θ between the center line in the imaging direction of the fixed-point imaging unit 11 and the ground. That is, the sixth obtaining unit 156 obtains the angle θ between the ground and the fixed-point imaging unit 11 based on the first distance L1 and the second distance L2 obtained by the fifth obtaining unit 155 by using a trigonometric function.

第7取得部157は、第5取得部155で取得された第1距離L1及び第2距離L2と、第6取得部156で取得されたなす角θとに基づいて、地面から定点撮像部11までの高さHを取得する。すなわち、第7取得部157は、三角関数を利用することにより、第1距離L1、第2距離L2及びなす角θに基づいて、地面から定点撮像部11までの高さHを取得する。 The seventh obtaining unit 157 obtains the height H from the ground to the fixed-point imaging unit 11 based on the first distance L1 and the second distance L2 obtained by the fifth obtaining unit 155 and the angle θ obtained by the sixth obtaining unit 156. That is, the seventh acquisition unit 157 acquires the height H from the ground to the fixed-point imaging unit 11 based on the first distance L1, the second distance L2, and the angle θ by using a trigonometric function.

第8取得部158は、第7取得部157で取得された地面から定点撮像部11までの高さHと、第6取得部156で取得されたなす角θとに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて画像位置情報を取得する。
すなわち、第8取得部158は、地面から定点撮像部11までの高さHと、定点撮像部11と地面とのなす角θとに基づいて、定点撮像部11が配される地面位置P0からY座標の所定位置(画像100a)までの距離L3を取得する。第8取得部158は、その距離L3と、画像内の所定位置におけるY座標とを対応付けることにより、画像内の位置に関する情報(画像位置情報)を取得する。また、第8取得部158は、被写体110を定点撮像部11の撮像範囲内を移動させて、撮像範囲内の任意の位置における定点撮像部11が配される地面位置P0から被写体(人)110までの距離を取得することに基づいて、画像位置情報を取得する。第8取得部158は、画像位置情報を記憶部12に記憶する。
The eighth acquisition unit 158 acquires the position from the imaging position where the fixed-point imaging unit 11 is arranged to the object based on the height H from the ground to the fixed-point imaging unit 11 acquired by the seventh acquisition unit 157 and the angle θ formed by the sixth acquisition unit 156, and acquires the image position information based on acquiring a plurality of positions of the object.
That is, the eighth acquisition unit 158 acquires the distance L3 from the ground position P0 where the fixed-point imaging unit 11 is arranged to the predetermined position (image 100a) on the Y coordinate based on the height H from the ground to the fixed-point imaging unit 11 and the angle θ between the fixed-point imaging unit 11 and the ground. The eighth obtaining unit 158 obtains information (image position information) regarding the position within the image by associating the distance L3 with the Y coordinate at the predetermined position within the image. Further, the eighth acquisition unit 158 acquires image position information based on moving the subject 110 within the imaging range of the fixed-point imaging unit 11 and acquiring the distance from the ground position P0, where the fixed-point imaging unit 11 is arranged, to the subject (person) 110 at an arbitrary position within the imaging range. The eighth obtaining section 158 stores the image position information in the storage section 12 .

画像位置情報は、定点撮像部11で撮像される画像内の任意のピクセルの位置(座標)が、定点撮像部11から何mの距離であるかを示す情報である。画像位置情報は、具体的な一例として、図3に示すピクセルの座標(640,480)は定点撮像部11から10mの距離がある、ピクセルの座標(640,720)は定点撮像部11から15mの距離がある、ピクセルの座標(640,840)は定点撮像部11から20mの距離があるという情報である。 The image position information is information indicating the distance in meters from the fixed-point imaging unit 11 to the position (coordinates) of any pixel in the image captured by the fixed-point imaging unit 11 . As a specific example, the image position information is information that the pixel coordinates (640, 480) shown in FIG.

図5に示すように、画像位置情報は、Y座標が大きくなるに従って、定点撮像部11が配される地面位置P0からの距離が近くなることを示す情報である。換言すると、画像位置情報は、Y座標が小さくなるに従って、定点撮像部11が配される地面位置P0からの距離が遠くなることを示す情報である。 As shown in FIG. 5, the image position information is information indicating that as the Y coordinate increases, the distance from the ground position P0 where the fixed-point imaging unit 11 is arranged decreases. In other words, the image position information is information indicating that the distance from the ground position P0 where the fixed-point imaging section 11 is arranged increases as the Y coordinate decreases.

ここで、第9取得部159は、第4取得部154で取得された複数の画像それぞれの実際の幅wのうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する。
すなわち、第4取得部154では、実際の画像の幅wを取得する。被写体110がいない位置(人が歩いていない位置に対応するY座標)においては、第4取得部154は、実際の画像の幅wを取得することができない。このため、第9取得部159は、第4取得部154でY座標の複数の位置で画像の幅wを取得した場合、その複数の位置での画像の幅wに基づいて、Y座標の任意の位置における画像の幅を算出する。例えば、第9取得部159は、第4取得部154で取得された複数の画像の幅のうち1つをY座標の基準位置の画像の幅(基準幅)と設定し、複数の画像の幅のうち基準幅を除く他の画像の幅と、基準幅との比率(幅比率)を求める。第9取得部159は、第4取得部154で取得された複数の画像それぞれに基づいて、基準幅との比率(幅比率)を求める。この幅比率をグラフに示すと、図6のようになる。
Here, the ninth acquiring unit 159 acquires the width ratio to the Y coordinate based on the width at the reference position in the Y coordinate direction and the width at the predetermined position in the Y coordinate direction among the actual widths w of each of the plurality of images acquired by the fourth acquiring unit 154.
That is, the fourth acquisition unit 154 acquires the actual width w of the image. At a position where the subject 110 does not exist (the Y coordinate corresponding to the position where no person is walking), the fourth acquisition unit 154 cannot acquire the actual width w of the image. Therefore, when the fourth obtaining unit 154 obtains the width w of the image at a plurality of positions of the Y coordinate, the ninth obtaining unit 159 calculates the width of the image at an arbitrary position of the Y coordinate based on the width w of the image at the plurality of positions. For example, the ninth acquisition unit 159 sets one of the widths of the plurality of images acquired by the fourth acquisition unit 154 as the width of the image at the reference position of the Y coordinate (reference width), and obtains the ratio (width ratio) between the width of the other images excluding the reference width among the widths of the plurality of images and the reference width. The ninth acquisition unit 159 obtains a ratio (width ratio) to the reference width based on each of the plurality of images acquired by the fourth acquisition unit 154 . A graph of this width ratio is shown in FIG.

図6に例示すように、Y座標が大きくなるに従って(定点撮像部11からの距離が近くなるに従って)、画像の幅比率は小さくなる。換言すると、Y座標が小さくなるに従って(定点撮像部11からの距離が遠くなるに従って)画像の幅比率は大きくなる。 As illustrated in FIG. 6, as the Y coordinate increases (as the distance from the fixed-point imaging unit 11 decreases), the width ratio of the image decreases. In other words, the width ratio of the image increases as the Y coordinate decreases (as the distance from the fixed-point imaging section 11 increases).

上述した第5取得部155は、第4取得部154で画像の幅wが取得されていない位置でも、第9取得部159で取得される画像の幅比率を利用して、任意のY座標における画像の幅を取得できるので、第1距離L1及び第2距離L2を取得することができる。
これにより、画像位置情報の取得を終了する。
Even at a position where the image width w is not acquired by the fourth acquisition unit 154, the fifth acquisition unit 155 described above can acquire the width of the image at an arbitrary Y coordinate by using the width ratio of the image acquired by the ninth acquisition unit 159, and therefore can acquire the first distance L1 and the second distance L2.
This completes the acquisition of the image position information.

次に、画像位置情報を取得した後の被写体の位置測定では、特定部13は、定点撮像部11によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する。すなわち、定点撮像部11によって新たな被写体が撮像された場合、特定部13は、画像内の被写体の位置(Y座標)と、画像位置情報とに基づいて、新たな被写体の位置を特定する。特定部13は、新たな被写体の位置を特定することとして、定点撮像部11が配される地面位置から新たな被写体までの距離を特定する。
より具体的には、特定部13は、定点撮像部11によって撮像される画像に新たな被写体が記録される場合、その被写体の画像内の位置(ピクセル位置(座標))を取得する。特定部13は、取得した新たな被写体のピクセル位置と、画像位置情報とを比較することにより、定点撮像部11から新たな被写体までの距離を特定する。
Next, in the position measurement of the subject after acquiring the image position information, when a new subject is imaged by the fixed-point imaging section 11, the specifying unit 13 specifies the position of the new subject based on the image data in which the new subject exists and the image position information. That is, when a new subject is imaged by the fixed point imaging section 11, the specifying section 13 specifies the position of the new subject based on the position (Y coordinate) of the subject in the image and the image position information. The specifying unit 13 specifies the distance from the ground position where the fixed-point imaging unit 11 is arranged to the new subject as specifying the position of the new subject.
More specifically, when a new subject is recorded in the image captured by the fixed-point imaging section 11, the identifying section 13 acquires the position (pixel position (coordinates)) of the subject in the image. The identifying unit 13 identifies the distance from the fixed-point imaging unit 11 to the new subject by comparing the acquired pixel position of the new subject with the image position information.

このような撮像装置1の各部は、コンピュータに配される処理装置の一機能として実現されてもよい。すなわち、その一機能は、コンピュータでプログラムが実行されることにより実現されてよい。プログラムは、例えば、外部メモリ又は光ディスク等の記録媒体に記録されていてもよい。 Each part of such an imaging device 1 may be implemented as one function of a processing device arranged in a computer. That is, one function may be realized by executing a program on a computer. The program may be recorded in a recording medium such as an external memory or an optical disc, for example.

次に、一実施形態に係る撮像方法について説明する。 Next, an imaging method according to one embodiment will be described.

まず、画像位置情報を取得する方法について説明する。
図7は、一実施形態に係る撮像方法について説明するための第1のフローチャートである。
First, a method for acquiring image position information will be described.
FIG. 7 is a first flowchart for explaining an imaging method according to one embodiment.

ステップST11において、定点撮像部11は、被写体を撮像する。 In step ST11, the fixed-point imaging section 11 images an object.

ステップST12において、認識部14は、予め学習した結果に基づいてステップST11で撮像された被写体の特徴を抽出し、その抽出の結果に基づいて被写体を認識する。 In step ST12, the recognition unit 14 extracts the features of the subject imaged in step ST11 based on the results of pre-learning, and recognizes the subject based on the extraction results.

ステップST13において、取得部15は、ステップST11で撮像された被写体、すなわち、ステップST12で認識された被写体の高さと、定点撮像部11の画角とに基づいて、画像位置情報を取得する。
すなわち、取得部15は、第1~9取得部151~159により、以下の処理を行う。
第1取得部151は、被写体の高さと、定点撮像部11の画角と、定点撮像部11で差撮像される画像の幅を予め取得する。
第2取得部152は、被写体が移動する場合、第1取得部151で取得された被写体の高さに基づいて、1m当たりのピクセル数を取得する。
第3取得部153は、画像の奥行方向の座標となるY座標と、第2取得部152で取得される被写体の1m当たりのピクセル数との関係を取得する。
第4取得部154は、第1取得部151で取得される画像の幅と、第2取得部152で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅wを取得する。
第5取得部155は、第4取得部154で取得された実際の画像の幅wと、第1取得部151で取得された画角θ2とに基づいて、定点撮像部11から画像内の中心位置Pcまでの距離である第1距離L1と、地面から中心位置Pcまでの距離である第2距離L2とを取得する。
第6取得部156は、第5取得部155で取得された第1距離L1及び第2距離L2に基づいて、地面と定点撮像部11の撮像方向における中心線(Y軸方向に沿う線)とのなす角θを求める。
第7取得部157は、第5取得部155で取得された第1距離L1及び第2距離L2と、第6取得部156で取得されたなす角θとに基づいて、地面から定点撮像部11までの高さHを取得する。
第8取得部158は、第7取得部157で取得された地面から定点撮像部11までの高さHと、第6取得部156で取得されたなす角θとに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、画像位置情報を取得する。
ここで、第9取得部159は、第4取得部154で取得された画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得することとしてもよい。
In step ST13, the acquisition unit 15 acquires image position information based on the height of the subject imaged in step ST11, ie, the height of the subject recognized in step ST12, and the angle of view of the fixed-point imaging unit 11.
That is, the acquisition unit 15 performs the following processing using the first to ninth acquisition units 151-159.
The first acquisition unit 151 acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit 11 , and the width of the image differentially captured by the fixed-point imaging unit 11 .
The second acquisition unit 152 acquires the number of pixels per meter based on the height of the object acquired by the first acquisition unit 151 when the subject moves.
The third acquisition unit 153 acquires the relationship between the Y coordinate, which is the coordinate in the depth direction of the image, and the number of pixels per meter of the subject acquired by the second acquisition unit 152 .
The fourth acquisition unit 154 acquires the actual image width w at the predetermined position based on the width of the image acquired by the first acquisition unit 151 and the number of pixels per 1 m acquired by the second acquisition unit 152 .
The fifth acquisition unit 155 acquires a first distance L1, which is the distance from the fixed-point imaging unit 11 to the center position Pc in the image, and a second distance L2, which is the distance from the ground to the center position Pc, based on the actual image width w acquired by the fourth acquisition unit 154 and the angle of view θ2 acquired by the first acquisition unit 151.
Based on the first distance L1 and the second distance L2 obtained by the fifth obtaining unit 155, the sixth obtaining unit 156 obtains the angle θ between the ground and the center line (line along the Y-axis direction) in the imaging direction of the fixed-point imaging unit 11.
The seventh obtaining unit 157 obtains the height H from the ground to the fixed-point imaging unit 11 based on the first distance L1 and the second distance L2 obtained by the fifth obtaining unit 155 and the angle θ obtained by the sixth obtaining unit 156.
The eighth acquisition unit 158 acquires the position from the imaging position where the fixed-point imaging unit 11 is arranged to the subject based on the height H from the ground to the fixed-point imaging unit 11 acquired by the seventh acquisition unit 157 and the angle θ formed by the sixth acquisition unit 156, and acquires image position information.
Here, the ninth acquiring unit 159 may acquire the width ratio for the Y coordinate based on the width of the image acquired by the fourth acquiring unit 154 at the reference position in the Y coordinate direction and the width at the predetermined position in the Y coordinate direction.

ステップST14において、取得部15は、ステップST13で取得された画像位置情報を記憶部12に記憶する。 In step ST<b>14 , the acquisition unit 15 stores the image position information acquired in step ST<b>13 in the storage unit 12 .

次に、定点撮像部11を用いて被写体までの距離を測定する方法について説明する。
図8は、一実施形態に係る撮像方法について説明するための第2のフローチャートである。
Next, a method of measuring the distance to the subject using the fixed point imaging section 11 will be described.
FIG. 8 is a second flowchart for explaining the imaging method according to one embodiment.

ステップST21において、定点撮像部11は、被写体を撮像する。 In step ST21, the fixed-point imaging section 11 images a subject.

ステップST22において、認識部14は、予め学習した結果に基づいてステップST21で撮像された被写体の特徴を抽出し、その抽出の結果に基づいて被写体を認識する。 In step ST22, the recognition unit 14 extracts the features of the subject imaged in step ST21 based on the results of pre-learning, and recognizes the subject based on the extraction results.

ステップST23において、特定部13は、ステップST21で撮像された被写体、すなわち、ステップ22で被写体が認識された場合、被写体の位置を特定する。すなわち、特定部13は、認識部14で認識された被写体の画像内のY座標と、記憶部12に記憶される画像位置情報とに基づいて、定点撮像部11が配される地面の位置から被写体までの距離を取得する。 In step ST23, the specifying unit 13 specifies the position of the subject imaged in step ST21, that is, when the subject is recognized in step ST22. That is, the specifying unit 13 acquires the distance from the ground position where the fixed-point imaging unit 11 is arranged to the subject based on the Y coordinate in the image of the subject recognized by the recognition unit 14 and the image position information stored in the storage unit 12.

本実施形態によれば、以下の効果を奏する。
撮像装置1は、被写体を撮像して画像データを生成する定点撮像部11と、画像位置情報を記憶する記憶部12と、定点撮像部11で生成された画像データと、記憶部12に記憶される画像位置情報とに基づいて、被写体の位置を特定する特定部13と、を備える。
これにより、撮像装置1は、被写体の位置(被写体までの距離)を取得できる。
また、撮像装置1は、記憶部12に記憶される画像位置情報に基づいて被写体までの距離を取得する。このため、本実施形態の撮像装置1は、従来のようにステレオカメラで視差を利用することにより被写体までの距離を求める手法とは別の手法で被写体までの距離を取得できる。本実施形態の撮像装置1は、1つの撮像系(撮像レンズ及び撮像素子)で実現できるので、従来のステレオカメラ(2つの撮像系)を用いる場合に比べて、定点撮像部11の構成を簡略化することができる。
また、撮像装置1は、コンピュータ処理により画像位置情報を取得し、その画像位置情報に基づいて被写体までの距離を取得する。このため、本実施形態の撮像装置1は、従来の手法のように、画像内の被写体の位置と、被写体までの実際の距離とを対応付ける作業を繰り返し行う必要がなく、作業者の手間を省くことができると共に、従来の手法とは別の手法により被写体までの距離を取得できる。
According to this embodiment, the following effects are obtained.
The imaging device 1 includes a fixed-point imaging unit 11 that captures an image of a subject and generates image data, a storage unit 12 that stores image position information, and a specifying unit 13 that specifies the position of the subject based on the image data generated by the fixed-point imaging unit 11 and the image position information stored in the storage unit 12.
Thereby, the imaging device 1 can acquire the position of the subject (the distance to the subject).
Also, the imaging device 1 acquires the distance to the subject based on the image position information stored in the storage unit 12 . Therefore, the imaging apparatus 1 of the present embodiment can acquire the distance to the subject by a method different from the conventional method of obtaining the distance to the subject by using parallax with a stereo camera. Since the imaging apparatus 1 of the present embodiment can be realized with one imaging system (imaging lens and imaging element), the configuration of the fixed-point imaging unit 11 can be simplified compared to the case of using a conventional stereo camera (two imaging systems).
Further, the imaging device 1 acquires image position information through computer processing, and acquires the distance to the subject based on the image position information. Therefore, unlike the conventional method, the imaging apparatus 1 of the present embodiment does not need to repeatedly perform the work of associating the position of the subject in the image with the actual distance to the subject.

撮像装置1では、定点撮像部11は、発電パネル16及び電源17の少なくとも一方から給電されることとしてもよい。
定点撮像部11が発電パネル16から給電されることにより、撮像装置1は、商用電源が配されない場所でも動作することができる。また、定点撮像部11が電源17から給電されることにより、撮像装置1は、安定した給電を得ることができる。
In the imaging device 1 , the fixed-point imaging section 11 may be powered by at least one of the power generation panel 16 and the power source 17 .
By supplying power to the fixed-point imaging unit 11 from the power generation panel 16, the imaging device 1 can operate even in places where commercial power is not provided. In addition, since the fixed-point imaging unit 11 is supplied with power from the power source 17, the imaging apparatus 1 can obtain stable power supply.

撮像装置1は、予め被写体の特徴を学習し、その学習の結果に基づいて、定点撮像部11で生成された画像データに基づく画像から被写体の特徴を抽出し、抽出した特徴から被写体を認識する認識部14を備えることとしてもよい。
撮像装置1は、一例として、深層学習等を利用して被写体を認識するので、対応関係が記憶部12に記憶されていれば、相対的に低性能のCPU(Central Processing Unit)を用いた場合でも、被写体を認識することができる。
撮像装置1は、相対的に低性能のCPUを利用する場合、その撮像装置1の価格を相対的に安価にすることができる。
また、当然ではあるが、撮像装置1は、相対的に中性能又は高性能のCPUを用いることとしてもよい。相対的に低~中性能のCPUの一例は、VPU(Visual Processing Unit)等である。相対的に中性能のCPUの一例は、FPGA(Field Programmable Gate Array)等である。相対的に中~高性能のCPUの一例は、GPU(Graphics Proseccing Unit)等である。
The imaging device 1 may include a recognition unit 14 that learns the characteristics of the subject in advance, extracts the characteristics of the subject from the image based on the image data generated by the fixed-point imaging unit 11, and recognizes the subject from the extracted characteristics based on the result of the learning.
As an example, the imaging device 1 recognizes the subject using deep learning or the like, so if the correspondence relationship is stored in the storage unit 12, the subject can be recognized even when a relatively low-performance CPU (Central Processing Unit) is used.
When the imaging device 1 uses a relatively low-performance CPU, the price of the imaging device 1 can be made relatively low.
In addition, of course, the imaging apparatus 1 may use a relatively medium-performance or high-performance CPU. An example of a relatively low-to-medium performance CPU is a VPU (Visual Processing Unit) or the like. An example of a CPU with relatively medium performance is an FPGA (Field Programmable Gate Array) or the like. An example of a relatively medium to high performance CPU is a GPU (Graphics Processing Unit) or the like.

撮像装置1は、定点撮像部11によって撮像された画像データ内の被写体の高さと、定点撮像部11の画角とに基づいて画像位置情報を取得する取得部15を備えることとしてもよい。
撮像装置1は、被写体の高さと定点撮像部11の画角とが入力されることにより、計算により画像位置情報を取得することができる。
The imaging device 1 may include an acquisition unit 15 that acquires image position information based on the height of the subject in the image data captured by the fixed-point imaging unit 11 and the angle of view of the fixed-point imaging unit 11 .
The imaging device 1 can obtain image position information by calculation by inputting the height of the subject and the angle of view of the fixed-point imaging unit 11 .

撮像装置1では、取得部15は、被写体の高さと、定点撮像部11の画角と、定点撮像部11で撮像される画像の幅とを予め取得する第1取得部151と、第1取得部151で取得された被写体の高さに基づいて、1m当たりのピクセル数を取得する第2取得部152と、画像の奥行方向の座標となるY座標と、第2取得部152で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部153と、第1取得部151で取得される画像の幅と、第2取得部152で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部154と、第4取得部154で取得された実際の画像の幅と、第1取得部151で取得された画角とに基づいて、定点撮像部11から画像内の中心位置までの距離である第1距離と、地面から中心位置までの距離である第2距離とを取得する第5取得部155と、第5取得部155で取得された第1距離及び第2距離に基づいて、地面と定点撮像部11の撮像方向における中心線とのなす角θを求める第6取得部156と、第5取得部155で取得された第1距離と、第6取得部156で取得されたなす角θとに基づいて、地面から定点撮像部11までの高さを取得する第7取得部157と、第7取得部157で取得された地面から定点撮像部11までの高さと、第6取得部156で取得されたなす角とに基づいて、定点撮像部11が配される撮像位置から被写体までの位置を取得し、画像位置情報を取得する第8取得部158と、を備えることとしてもよい。
撮像装置1は、第1~8取得部151~158それぞれが処理を行うことより、被写体の高さと定点撮像部11の画角とに基づいて画像位置情報を取得することができる。
In the imaging device 1, the acquisition unit 15 includes: a first acquisition unit 151 that acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit 11, and the width of the image captured by the fixed-point imaging unit 11; the second acquisition unit 152 that acquires the number of pixels per meter based on the height of the subject acquired by the first acquisition unit 151; a third acquisition unit 153 that acquires the relationship; a fourth acquisition unit 154 that acquires the actual image width at a predetermined position based on the width of the image acquired by the first acquisition unit 151 and the number of pixels per meter acquired by the second acquisition unit 152; A fifth acquisition unit 155 that acquires the first distance and a second distance that is the distance from the ground to the center position; a sixth acquisition unit 156 that obtains an angle θ between the ground and the center line in the imaging direction of the fixed-point imaging unit 11 based on the first distance and the second distance acquired by the fifth acquisition unit 155; A seventh acquisition unit 157 that acquires the height to the unit 11, and an eighth acquisition unit 158 that acquires the position from the imaging position where the fixed-point imaging unit 11 is arranged to the subject based on the height from the ground to the fixed-point imaging unit 11 acquired by the seventh acquisition unit 157 and the angle formed by the sixth acquisition unit 156, and acquires the image position information.
The imaging device 1 can acquire the image position information based on the height of the subject and the angle of view of the fixed-point imaging section 11 by performing processing by the first to eighth acquisition sections 151 to 158, respectively.

撮像装置1では、取得部15は、第4取得部154で取得された実際の画像の幅のうち、Y座標の方向における基準位置の幅と、Y座標の方向の所定位置における幅とに基づいて、Y座標に対する幅比率を取得する第9取得部159を備えることとしてもよい。
撮像装置1は、第9取得部159が幅比率を取得することにより、被写体(一例として、人)が歩いていないY座標の位置であっても、画像の幅を取得することができる。これにより、撮像装置1は、任意のY座標の位置において、被写体までの距離を取得することができる。
In the imaging device 1, the acquisition unit 15 may include a ninth acquisition unit 159 that acquires the width ratio to the Y coordinate based on the width of the actual image acquired by the fourth acquisition unit 154 at the reference position in the Y coordinate direction and the width at the predetermined position in the Y coordinate direction.
The imaging device 1 can acquire the width of the image even at the Y-coordinate position where the subject (for example, a person) is not walking by acquiring the width ratio by the ninth acquisition unit 159 . Thereby, the imaging device 1 can acquire the distance to the subject at an arbitrary Y-coordinate position.

撮像方法では、コンピュータが、定点撮像部11によって被写体を撮像して画像データを生成する定点撮像ステップと、定点撮像部11が撮像する画像データ内に被写体が存在する場合に、被写体の実位置を示す位置情報を、画像データの被写体が存在するピクセル毎に対応付けた画像位置情報を記憶部12に記憶する記憶ステップと、定点撮像部11によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する特定ステップと、を実行する。
これにより、撮像方法は、被写体の位置(被写体までの距離)を取得できる。
また、撮像方法は、記憶部12に記憶される画像位置情報に基づいて被写体までの距離を取得する。このため、本実施形態の撮像装置1は、従来とは別の手法で被写体までの距離を取得できる。
In the imaging method, the computer performs a fixed-point imaging step of imaging a subject by the fixed-point imaging section 11 to generate image data, a storage step of storing, in the storage section 12, image position information indicating the actual position of the subject when the subject exists in the image data captured by the fixed-point imaging section 11, and image position information associated with each pixel of the image data where the subject exists, and when a new subject is imaged by the fixed-point imaging section 11, based on the image data in which the new subject exists and the image position information. and an identifying step of identifying the position of the subject.
Thereby, the imaging method can acquire the position of the subject (the distance to the subject).
Also, the imaging method acquires the distance to the subject based on the image position information stored in the storage unit 12 . Therefore, the imaging apparatus 1 of this embodiment can acquire the distance to the subject by a method different from the conventional method.

撮像プログラムは、コンピュータに、定点撮像部11によって被写体を撮像して画像データを生成する定点撮像機能と、定点撮像部11が撮像する画像データ内に被写体が存在する場合に、被写体の実位置を示す位置情報を、画像データの被写体が存在するピクセル毎に対応付けた画像位置情報を記憶部12に記憶する記憶機能と、定点撮像部11によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する特定機能と、を実現させる。
これにより、撮像プログラムは、被写体の位置(被写体までの距離)を取得できる。
また、撮像プログラムは、記憶部12に記憶される画像位置情報に基づいて被写体までの距離を取得する。このため、本実施形態の撮像装置1は、従来とは別の手法で被写体までの距離を取得できる。
The imaging program includes a fixed-point imaging function of imaging a subject by the fixed-point imaging section 11 to generate image data, a storage function of storing, in the storage section 12, image position information indicating the actual position of the subject when the subject exists in the image data captured by the fixed-point imaging section 11, and image position information associated with each pixel of the image data where the subject exists, and when a new subject is imaged by the fixed-point imaging section 11, the image data in which the new subject exists and the image position information. and a specifying function for specifying the position of a subject.
Thereby, the imaging program can acquire the position of the subject (the distance to the subject).
Also, the imaging program acquires the distance to the subject based on the image position information stored in the storage unit 12 . Therefore, the imaging apparatus 1 of this embodiment can acquire the distance to the subject by a method different from the conventional method.

1 撮像装置
11 定点撮像部
12 記憶部
13 特定部
14 認識部
15 取得部
151 第1取得部
152 第2取得部
153 第3取得部
154 第4取得部
155 第5取得部
156 第6取得部
157 第7取得部
158 第8取得部
159 第9取得部
16 発電パネル
17 電源
1 Imaging device 11 Fixed point imaging unit 12 Storage unit 13 Identification unit 14 Recognition unit 15 Acquisition unit 151 First acquisition unit 152 Second acquisition unit 153 Third acquisition unit 154 Fourth acquisition unit 155 Fifth acquisition unit 156 Sixth acquisition unit 157 Seventh acquisition unit 158 Eighth acquisition unit 159 Ninth acquisition unit 16 Power generation panel 17 Power supply

Claims (8)

被写体を撮像して画像データを生成する定点撮像部と、
前記定点撮像部が撮像する前記画像データ内に被写体が存在する場合に、前記被写体の実位置を示す位置情報を、前記画像データの前記被写体が存在するピクセル毎に対応付けた画像位置情報を記憶する記憶部と、
前記定点撮像部によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する特定部と、
を備える撮像装置。
a fixed-point imaging unit that captures an image of a subject and generates image data;
a storage unit for storing image position information obtained by associating, when an object exists in the image data captured by the fixed point imaging unit, position information indicating an actual position of the object with each pixel of the image data where the object exists;
a specifying unit that specifies the position of the new subject based on the image data in which the new subject exists and the image position information when the new subject is imaged by the fixed-point imaging unit;
An imaging device comprising:
光を受けて発電を行う発電パネル及び電源の少なくとも一方を備え、
前記定点撮像部は、前記発電パネル及び前記電源の少なくとも一方から給電される
請求項1に記載の撮像装置。
At least one of a power generation panel and a power supply that receives light and generates power,
The imaging device according to claim 1, wherein the fixed-point imaging unit is powered by at least one of the power generation panel and the power supply.
前記記憶部は、被写体と、その被写体の特徴とを対応付けた対応関係をさらに記憶し、
予め被写体の特徴を学習した結果である前記対応関係に基づいて、前記定点撮像部で生成された画像データに基づく画像から被写体の特徴を抽出し、抽出した特徴から被写体を認識する認識部をさらに備える
請求項1又は2に記載の撮像装置。
The storage unit further stores a correspondence relationship that associates a subject with features of the subject,
The imaging apparatus according to claim 1 or 2, further comprising a recognition unit that extracts features of a subject from an image based on image data generated by the fixed-point imaging unit and recognizes the subject from the extracted features, based on the correspondence relationship that is a result of learning the features of the subject in advance.
前記定点撮像部によって撮像された画像データ内の被写体の高さと、前記定点撮像部の画角とに基づいて前記画像位置情報を取得する取得部を備える
請求項1~3のいずれか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 3, comprising an acquisition unit that acquires the image position information based on the height of the subject in the image data captured by the fixed-point imaging unit and the angle of view of the fixed-point imaging unit.
前記取得部は、
被写体の高さと、前記定点撮像部の画角と、前記定点撮像部で撮像される画像の幅とを予め取得する第1取得部と、
被写体が移動する場合、前記第1取得部で取得された被写体の高さに基づいて、1m当たりの、画像データを構成するピクセル数を取得する第2取得部と、
画像データに基づく画像の奥行方向の座標となるY座標と、前記第2取得部で取得される被写体の1m当たりのピクセル数との関係を取得する第3取得部と、
前記第1取得部で取得される画像の幅と、前記第2取得部で取得された1m当たりのピクセル数とに基づいて所定位置における実際の画像の幅を取得する第4取得部と、
前記第4取得部で取得された実際の画像の幅と、前記第1取得部で取得された画角とに基づいて、前記定点撮像部から画像内の中心位置までの距離である第1距離を取得すると共に、地面から前記中心位置までの距離である第2距離を取得する第5取得部と、
前記第5取得部で取得された前記第1距離及び前記第2距離に基づいて、地面と前記定点撮像部の撮像方向における中心線とのなす角を求める第6取得部と、
前記第5取得部で取得された前記第1距離及び前記第2距離と、前記第6取得部で取得された前記なす角とに基づいて、地面から前記定点撮像部までの高さを取得する第7取得部と、
前記第7取得部で取得された地面から前記定点撮像部までの高さと、前記第6取得部で取得された前記なす角とに基づいて、前記定点撮像部が配される撮像位置から被写体までの位置を取得し、さらに被写体のその位置を複数取得することに基づいて前記画像位置情報を取得する第8取得部と、
を備える請求項4に記載の撮像装置。
The acquisition unit
a first acquisition unit that acquires in advance the height of the subject, the angle of view of the fixed-point imaging unit, and the width of the image captured by the fixed-point imaging unit;
a second obtaining unit that obtains the number of pixels constituting image data per meter based on the height of the subject obtained by the first obtaining unit when the subject moves;
a third acquiring unit for acquiring a relationship between a Y coordinate, which is a coordinate in the depth direction of an image based on image data, and the number of pixels per meter of the subject acquired by the second acquiring unit;
a fourth obtaining unit that obtains an actual image width at a predetermined position based on the width of the image obtained by the first obtaining unit and the number of pixels per meter obtained by the second obtaining unit;
a fifth acquisition unit that acquires a first distance that is the distance from the fixed-point imaging unit to the center position in the image based on the width of the actual image acquired by the fourth acquisition unit and the angle of view that is acquired by the first acquisition unit, and acquires a second distance that is the distance from the ground to the center position;
a sixth obtaining unit that obtains an angle between the ground and a center line in the imaging direction of the fixed-point imaging unit based on the first distance and the second distance that are obtained by the fifth obtaining unit;
a seventh acquisition unit that acquires the height from the ground to the fixed-point imaging unit based on the first distance and the second distance acquired by the fifth acquisition unit and the angle formed by the sixth acquisition unit;
an eighth acquisition unit that acquires a position from an imaging position where the fixed-point imaging unit is arranged to an object based on the height from the ground to the fixed-point imaging unit acquired by the seventh acquisition unit and the angle formed by the sixth acquisition unit, and further acquires the image position information based on acquiring a plurality of positions of the object;
The imaging device according to claim 4, comprising:
前記取得部は、前記第4取得部で取得された実際の画像の幅のうち、前記Y座標の方向における基準位置の幅と、前記Y座標の方向の所定位置における幅とに基づいて、前記Y座標に対する幅比率を取得する第9取得部を備える
請求項5に記載の撮像装置。
6. The imaging apparatus according to claim 5, wherein the obtaining unit includes a ninth obtaining unit that obtains a width ratio with respect to the Y coordinate based on a width of the actual image obtained by the fourth obtaining unit at a reference position in the Y coordinate direction and a width at a predetermined position in the Y coordinate direction.
コンピュータが、
定点撮像部によって被写体を撮像して画像データを生成する定点撮像ステップと、
前記定点撮像部が撮像する前記画像データ内に被写体が存在する場合に、前記被写体の実位置を示す位置情報を、前記画像データの前記被写体が存在するピクセル毎に対応付けた画像位置情報を記憶部に記憶する記憶ステップと、
前記定点撮像部によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する特定ステップと、
を実行する撮像方法。
the computer
a fixed-point imaging step of imaging a subject by a fixed-point imaging unit and generating image data;
a storage step of storing, in a storage unit, image position information obtained by associating position information indicating the actual position of the subject with each pixel of the image data where the subject exists when the subject exists in the image data captured by the fixed-point imaging unit;
a specifying step of specifying a position of a new subject based on image data in which the new subject exists and image position information when a new subject is imaged by the fixed-point imaging unit;
An imaging method that performs
コンピュータに、
定点撮像部によって被写体を撮像して画像データを生成する定点撮像機能と、
前記定点撮像部が撮像する前記画像データ内に被写体が存在する場合に、前記被写体の実位置を示す位置情報を、前記画像データの前記被写体が存在するピクセル毎に対応付けた画像位置情報を記憶部に記憶する記憶機能と、
前記定点撮像部によって新たな被写体が撮像された場合、新たな被写体が存在する画像データと、画像位置情報とに基づいて、新たな被写体の位置を特定する特定機能と、
を実現させる撮像プログラム。
to the computer,
a fixed-point imaging function for imaging a subject by a fixed-point imaging unit and generating image data;
a storage function of storing, in a storage unit, image position information obtained by associating position information indicating an actual position of the subject with each pixel of the image data where the subject exists when the subject exists in the image data captured by the fixed-point imaging unit;
a specifying function of specifying a position of a new subject based on image data in which the new subject exists and image position information when the fixed point imaging unit captures an image of the new subject;
An imaging program that realizes
JP2023075530A 2019-02-12 2023-05-01 Imaging apparatus, imaging method, and imaging program Pending JP2023101515A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023075530A JP2023101515A (en) 2019-02-12 2023-05-01 Imaging apparatus, imaging method, and imaging program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019023047A JP7274297B2 (en) 2019-02-12 2019-02-12 IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM
JP2023075530A JP2023101515A (en) 2019-02-12 2023-05-01 Imaging apparatus, imaging method, and imaging program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019023047A Division JP7274297B2 (en) 2019-02-12 2019-02-12 IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM

Publications (1)

Publication Number Publication Date
JP2023101515A true JP2023101515A (en) 2023-07-21

Family

ID=72263696

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019023047A Active JP7274297B2 (en) 2019-02-12 2019-02-12 IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM
JP2023075530A Pending JP2023101515A (en) 2019-02-12 2023-05-01 Imaging apparatus, imaging method, and imaging program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019023047A Active JP7274297B2 (en) 2019-02-12 2019-02-12 IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM

Country Status (1)

Country Link
JP (2) JP7274297B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5566281B2 (en) 2008-03-03 2014-08-06 Toa株式会社 Apparatus and method for specifying installation condition of swivel camera, and camera control system provided with the apparatus for specifying installation condition
JP2019114821A (en) 2016-03-23 2019-07-11 日本電気株式会社 Monitoring system, device, method, and program

Also Published As

Publication number Publication date
JP2020136700A (en) 2020-08-31
JP7274297B2 (en) 2023-05-16

Similar Documents

Publication Publication Date Title
EP3650807B1 (en) Handheld large-scale three-dimensional measurement scanner system simultaneously having photography measurement and three-dimensional scanning functions
CN110400363B (en) Map construction method and device based on laser point cloud
CN109997170B (en) Apparatus and method for obtaining distance information from view
CN109074083A (en) Control method for movement, mobile robot and computer storage medium
CN106210538A (en) Show method and apparatus and the program of image based on light field on a user device
CN111046725B (en) Spatial positioning method based on face recognition and point cloud fusion of surveillance video
CN103377471B (en) Object positioning method and device, optimum video camera are to determining method and apparatus
JP2015520470A (en) Face recognition self-learning using depth-based tracking for database creation and update
CN104330074A (en) Intelligent surveying and mapping platform and realizing method thereof
CN106162144A (en) A kind of visual pattern processing equipment, system and intelligent machine for overnight sight
US9245375B2 (en) Active lighting for stereo reconstruction of edges
Sommer et al. Scan methods and tools for reconstruction of built environments as basis for digital twins
CN117036300A (en) Road surface crack identification method based on point cloud-RGB heterogeneous image multistage registration mapping
Özdemir et al. A multi-purpose benchmark for photogrammetric urban 3D reconstruction in a controlled environment
Wang et al. A robust subpixel refinement technique using self‐adaptive edge points matching for vision‐based structural displacement measurement
Gupta et al. Augmented reality system using lidar point cloud data for displaying dimensional information of objects on mobile phones
KR20210114838A (en) Method and device for detecting body temperature, electronic apparatus and storage medium
Zhao et al. Metric calibration of unfocused plenoptic cameras for three-dimensional shape measurement
CN111399634A (en) Gesture-guided object recognition method and device
CN113838193A (en) Data processing method and device, computer equipment and storage medium
KR101538014B1 (en) Converting method photographic images to 3d images through 3d modeling
JP7274297B2 (en) IMAGING DEVICE, IMAGING METHOD AND IMAGING PROGRAM
JP2019121176A (en) Position specifying apparatus, position specifying method, position specifying program, and camera apparatus
CN116506731A (en) Method and device for shooting focus, storage medium and electronic equipment
Alanís et al. Self-calibration of vision parameters via genetic algorithms with simulated binary crossover and laser line projection

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230529