JP2020173504A - Position estimation system, position estimation device, position estimation method, and program - Google Patents

Position estimation system, position estimation device, position estimation method, and program Download PDF

Info

Publication number
JP2020173504A
JP2020173504A JP2019073587A JP2019073587A JP2020173504A JP 2020173504 A JP2020173504 A JP 2020173504A JP 2019073587 A JP2019073587 A JP 2019073587A JP 2019073587 A JP2019073587 A JP 2019073587A JP 2020173504 A JP2020173504 A JP 2020173504A
Authority
JP
Japan
Prior art keywords
height
calculation unit
position estimation
image
projection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019073587A
Other languages
Japanese (ja)
Other versions
JP7286387B2 (en
Inventor
フック ファム
Fukku Famu
フック ファム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimizu Construction Co Ltd
Shimizu Corp
Original Assignee
Shimizu Construction Co Ltd
Shimizu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimizu Construction Co Ltd, Shimizu Corp filed Critical Shimizu Construction Co Ltd
Priority to JP2019073587A priority Critical patent/JP7286387B2/en
Publication of JP2020173504A publication Critical patent/JP2020173504A/en
Application granted granted Critical
Publication of JP7286387B2 publication Critical patent/JP7286387B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a position estimation system capable of estimating a position of a target object partially hidden by another object in estimating the position of the target object based on an image obtained by imaging.SOLUTION: A position estimation system comprises: an imaging apparatus; a height calculation part which calculates a height of a target object based on image recognition processing executed for captured images obtained by capturing with the imaging apparatus; and a position calculation part which calculates a position of the target object on a projection plane of the imaging apparatus corresponding to a ground surface based on the height calculated by the height calculation part.SELECTED DRAWING: Figure 3

Description

本発明は、位置推定システム、位置推定装置、位置推定方法、及びプログラムに関する。 The present invention relates to a position estimation system, a position estimation device, a position estimation method, and a program.

例えば移動前と移動後とで撮像装置が撮像して得られた画像に基づいて、三次元形状を推定する技術が知られている(例えば、特許文献1参照)。特許文献1の技術では、例えば道路面を基準面としたうえで、その上に存在する対象物の特徴点の位置を推定し、推定された特徴点の位置の集合により三次元形状を推定するようにされている。つまり、特許文献1の技術では、対象物の位置推定が行われる。 For example, there is known a technique for estimating a three-dimensional shape based on images taken by an imaging device before and after movement (see, for example, Patent Document 1). In the technique of Patent Document 1, for example, the road surface is used as a reference surface, the positions of the feature points of the object existing on the road surface are estimated, and the three-dimensional shape is estimated from the set of the estimated feature point positions. It has been done. That is, in the technique of Patent Document 1, the position of the object is estimated.

特開2010−181919号公報Japanese Unexamined Patent Publication No. 2010-181919

しかしながら、上記の特許文献1による位置推定の技術では、他の物体によって一部が隠された状態の物体を対象物とした場合には、その対象物の距離を算出することができないために、位置推定が困難になる。 However, in the position estimation technique according to Patent Document 1 described above, when an object in a state of being partially hidden by another object is used as an object, the distance of the object cannot be calculated. Position estimation becomes difficult.

本発明は、このような事情に鑑みてなされたもので、撮像により得られる画像に基づいて対象物の位置を推定するにあたり、他の物体により一部が隠された対象物についても位置を推定できるようにすることを目的とする。 The present invention has been made in view of such circumstances, and when estimating the position of an object based on an image obtained by imaging, the position of an object whose part is partially hidden by another object is also estimated. The purpose is to be able to do it.

上述した課題を解決する本発明の一態様は、撮像装置と、前記撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部と、前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部とを備える位置推定システムである。 One aspect of the present invention that solves the above-mentioned problems is a height that calculates the height of an object based on an image pickup device and an image recognition process executed on the image captured by the image pickup device. A position including a calculation unit and a position calculation unit that calculates the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the height calculated by the height calculation unit. It is an estimation system.

また、本発明の一態様は、撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部と、前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部とを備える位置推定装置である。 Further, one aspect of the present invention includes a height calculation unit that calculates the height of an object based on an image recognition process executed on an image captured by an imaging device, and the height calculation unit. It is a position estimation device including a position calculation unit for calculating the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the height calculated by.

また、本発明の一態様は、撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出ステップと、前記高さ算出ステップにより算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出ステップとを備える位置推定方法である。 Further, one aspect of the present invention includes a height calculation step of calculating the height of an object based on an image recognition process executed on an image captured by an imaging device, and the height calculation step. This is a position estimation method including a position calculation step for calculating the position of the object on the projection surface of the image pickup apparatus set corresponding to the ground surface based on the height calculated by.

また、本発明の一態様は、撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部、前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部として機能させるためのプログラムである。 Further, one aspect of the present invention is a height calculation unit that calculates the height of an object based on an image recognition process executed on an image captured by an imaging device, and the height calculation unit. This is a program for functioning as a position calculation unit for calculating the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the calculated height.

以上説明したように、本発明によれば、撮像により得られる画像に基づいて対象物の位置を推定するにあたり、他の物体により一部が隠された対象物についても位置を推定できるようになるという効果が得られる。 As described above, according to the present invention, when estimating the position of an object based on an image obtained by imaging, it is possible to estimate the position of an object whose part is partially hidden by another object. The effect is obtained.

本実施形態における位置推定システムの構成例を示す図である。It is a figure which shows the configuration example of the position estimation system in this embodiment. 本実施形態における対象物の位置推定の手法例を説明する図である。It is a figure explaining the method example of the position estimation of the object in this embodiment. 本実施形態における対象物の位置推定の手法例を説明する図である。It is a figure explaining the method example of the position estimation of the object in this embodiment. 本実施形態における対象物の位置推定の手法例を説明する図である。It is a figure explaining the method example of the position estimation of the object in this embodiment. 本実施形態における位置推定装置が実行する処理手順例を示すフローチャートである。It is a flowchart which shows the example of the processing procedure executed by the position estimation apparatus in this embodiment.

図1は、本実施形態の位置推定システム1の構成例を示している。本実施形態の位置推定システムは、例えば固定的に設置される監視カメラを備える監視システム等に適用されてもよいし、車両やロボット等の移動体が備えるものであってもよい。
同図の位置推定システム1は、撮像装置100、位置推定装置200、及び情報出力装置300を備える。
FIG. 1 shows a configuration example of the position estimation system 1 of the present embodiment. The position estimation system of the present embodiment may be applied to, for example, a surveillance system including a surveillance camera installed fixedly, or may be provided by a moving body such as a vehicle or a robot.
The position estimation system 1 in the figure includes an image pickup device 100, a position estimation device 200, and an information output device 300.

撮像装置100は、撮像を行う。本実施形態の撮像装置100は、例えばステレオカメラなどのようなものではなく、例えば単眼によるものであってよい。 The imaging device 100 performs imaging. The image pickup apparatus 100 of the present embodiment is not something like a stereo camera, for example, but may be a monocular device, for example.

位置推定装置200は、撮像装置100により撮像して得られた画像(撮像画像)に基づいて、撮像画像にて被写体として含まれる対象物についての現実空間での位置を推定する装置である。
位置推定装置200は、機能部として、入出力インターフェース部201、情報処理部202、及び記憶部203を備える。
The position estimation device 200 is a device that estimates the position of an object included as a subject in the captured image in the real space based on the image (captured image) obtained by imaging with the imaging device 100.
The position estimation device 200 includes an input / output interface unit 201, an information processing unit 202, and a storage unit 203 as functional units.

入出力インターフェース部201は、位置推定装置200と外部との情報の入出力を行う部位である。撮像装置100が出力する撮像画像は、入出力インターフェース部201が入力し、情報処理部202に渡すようにされる。
また、情報処理部202が出力した画像、音声等の情報は、入出力インターフェース部201から情報出力装置300に出力される。
The input / output interface unit 201 is a portion that inputs / outputs information between the position estimation device 200 and the outside. The captured image output by the imaging device 100 is input by the input / output interface unit 201 and passed to the information processing unit 202.
Further, information such as images and sounds output by the information processing unit 202 is output from the input / output interface unit 201 to the information output device 300.

情報処理部202は、対象物の位置推定に関する情報処理を実行する。情報処理部202としての機能は、位置推定装置200において備えられるCPU(Central Processing Unit)が、プログラムを実行することにより実現される。同図の情報処理部202は、投影面設定部221、高さ算出部222、位置算出部223、及び位置変換部224を備える。
投影面設定部221は、撮像装置100に対応する投影面を設定する。具体的に、投影面設定部221は、投影面として、地上面に対応する投影面(地上投影面)を設定する。
高さ算出部222は、撮像装置100により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する。
位置算出部223は、高さ算出部222により算出された高さに基づいて、地上投影面における対象物の位置を算出する。
位置変換部224は、位置算出部223により算出された位置を現実空間における位置に変換する。
The information processing unit 202 executes information processing related to the position estimation of the object. The function as the information processing unit 202 is realized by the CPU (Central Processing Unit) provided in the position estimation device 200 executing a program. The information processing unit 202 in the figure includes a projection surface setting unit 221, a height calculation unit 222, a position calculation unit 223, and a position conversion unit 224.
The projection plane setting unit 221 sets the projection plane corresponding to the image pickup apparatus 100. Specifically, the projection plane setting unit 221 sets a projection plane (ground projection plane) corresponding to the ground surface as the projection plane.
The height calculation unit 222 calculates the height of the object based on the image recognition process executed on the image captured by the image pickup device 100.
The position calculation unit 223 calculates the position of the object on the ground projection surface based on the height calculated by the height calculation unit 222.
The position conversion unit 224 converts the position calculated by the position calculation unit 223 into a position in the real space.

記憶部203は、位置推定装置200に対応する各種の情報を記憶する。 The storage unit 203 stores various types of information corresponding to the position estimation device 200.

情報出力装置300は、位置推定装置200から出力された情報を出力する。情報出力装置300は、表示装置であってもよいし、音声出力装置であってもよいし、印刷装置であってもよい。 The information output device 300 outputs the information output from the position estimation device 200. The information output device 300 may be a display device, an audio output device, or a printing device.

図2〜図4を参照して、本実施形態の位置推定システム1よる位置推定の手法例について説明する。
図2は、撮像装置100により撮像して得られた撮像画像の一例を示している。同図の撮像画像においては、画像認識処理による被写体の抽出結果が示される。なお、ここでは、説明を簡単にすることの便宜上、撮像装置100の位置、撮像方向等の条件は、固定であって、既知である場合を例に挙げる。
同図の撮像画像P1においては、被写体OB1〜OB6の6つの被写体が含まれている。被写体OB1〜OB6について特に区別しない場合には、被写体OBと記載する。
位置推定装置200の高さ算出部222は、撮像画像P1について画像認識処理を行ったうえで、例えばニューラルネットワーク等のAI(Artificial Intelligence:人工知能)フレームワーク(あるいは機械学習フレームワーク等でもよい)を利用した処理により、被写体OBごとの属性を認識する。
単純な例の1つとして、高さ算出部222は、被写体OB1、OB2、OB3については成人の人であると認識し、被写体OB3については子供の人であると認識し、被写体OB5は、乗用車に該当する車両であると認識し、被写体OB6については、トラックとしての車両であると認識する。
そのうえで、高さ算出部222は、人としての被写体OBについては、例えばさらに、顔、衣服、髪型、身に付けているアクセサリや持ち物などに応じた特徴量に基づいて女性と男性とのいずれであるのかを認識してもよい。また、人としての被写体OBについては、顔等の特徴量に基づいて、例えばアジア系、ヨーロッパ系、アフリカ系といったように、どの民族系に該当するのかを認識するようにされてもよい。
また、高さ算出部222は、車両としての被写体OBについては、例えばさらに乗用車であればミニバン、セダンといった区分での認識、トラックであれば小型、中型、大型といった区分での認識が行われてよい。さらに車両としての被写体OBについては、車種、型番等の認識が行われるようにされてもよい。
そして、高さ算出部222は、認識された属性に対応する高さを算出する。高さ算出部222は、例えば属性ごとに高さが対応付けられた高さテーブルのデータを参照し、認識された属性に対応付けられた高さを取得し、取得された高さを高さの算出結果としてよい。あるいは、高さ算出部222は、機械学習により、属性の認識に伴って、認識された属性の高さも導出するようにされてもよい。
このようにして、高さ算出部222は、同図の撮像画像において抽出される被写体OBごとの高さを算出することができる。
An example of a position estimation method by the position estimation system 1 of the present embodiment will be described with reference to FIGS. 2 to 4.
FIG. 2 shows an example of an captured image obtained by imaging with the imaging device 100. In the captured image of the figure, the extraction result of the subject by the image recognition process is shown. Here, for convenience of simplicity, the case where the conditions such as the position and the imaging direction of the image pickup apparatus 100 are fixed and known will be given as an example.
The captured image P1 in the figure includes six subjects, subjects OB1 to OB6. When the subjects OB1 to OB6 are not particularly distinguished, they are described as subject OB.
The height calculation unit 222 of the position estimation device 200 performs image recognition processing on the captured image P1, and then, for example, an AI (Artificial Intelligence) framework such as a neural network (or a machine learning framework or the like). The attribute for each subject OB is recognized by the process using.
As one of the simple examples, the height calculation unit 222 recognizes that the subjects OB1, OB2, and OB3 are adults, the subject OB3 is a child, and the subject OB5 is a passenger car. Is recognized as a vehicle corresponding to the above, and the subject OB6 is recognized as a vehicle as a truck.
Then, the height calculation unit 222 determines that the subject OB as a person is, for example, a woman or a man based on the feature amount according to the face, clothes, hairstyle, accessories and belongings worn. You may recognize that there is. Further, the subject OB as a person may be made to recognize which ethnic group it corresponds to, such as Asian, European, or African, based on the feature amount of the face or the like.
In addition, the height calculation unit 222 further recognizes the subject OB as a vehicle in categories such as minivans and sedans for passenger cars, and small, medium, and large for trucks. Good. Further, regarding the subject OB as a vehicle, the vehicle type, model number, and the like may be recognized.
Then, the height calculation unit 222 calculates the height corresponding to the recognized attribute. For example, the height calculation unit 222 refers to the data of the height table in which the height is associated with each attribute, acquires the height associated with the recognized attribute, and sets the acquired height as the height. It may be the calculation result of. Alternatively, the height calculation unit 222 may be made to derive the height of the recognized attribute along with the recognition of the attribute by machine learning.
In this way, the height calculation unit 222 can calculate the height of each subject OB extracted in the captured image of the figure.

なお、高さ算出の対象となる対象物は、人や車両に限定されない。対象物は、例えば物、ロボット、動物、ランドマーク等であってもよい。本実施形態において高さが算出される対象物については、位置推定が可能とされる。つまり、本実施形態において位置空いての対象となる撮像画像内の対象物は、人や車両に限定されない。 The object for which the height is calculated is not limited to people and vehicles. The object may be, for example, an object, a robot, an animal, a landmark, or the like. The position of the object whose height is calculated in this embodiment can be estimated. That is, in the present embodiment, the object in the captured image that is the target at a vacant position is not limited to a person or a vehicle.

図3は、撮像装置100の投影面と、撮像画像P1に含まれていた被写体OBとの関係を示している。
同図においては、撮像装置100の投影中心Vが固定で定められている。また、同図において、投影中心Vから垂直に投影した地上面の点(位置)が垂直投影点Vとなる。ここで、撮像装置100の位置については固定であるので、距離VVは不変(一定)である。
FIG. 3 shows the relationship between the projection surface of the image pickup apparatus 100 and the subject OB included in the captured image P1.
In the figure, the projection center V of the image pickup apparatus 100 is fixedly defined. Further, in the figure, the point (position) on the ground surface projected vertically from the projection center V is the vertical projection point V h . Here, since the position of the image pickup apparatus 100 is fixed, the distance VV h is invariant (constant).

また、同図においては、投影面abcdが示されている。投影面abcdは、撮像装置100に対応して定められた投影中心Vとする透視投影モデルにより得られた二次元画像の投影面となる。このような投影面は、単眼カメラにより撮像して得られる二次元画像と等しい。
また、同図においては、地上面に対応する投影面ABCDも示されている。以降の説明において、地上面に対応する投影面ABCDについては、地上投影面ABCDとも記載して、地上面に対応しない投影面abcdと区別する。
同図に示される投影面abcdにおける或る1つの座標m(ximage,yimage,1)は、地上投影面ABCDにおいては、座標Mhi(xh,yh,-H)が対応する。Hは撮像装置100の設置された高さである。
ここで、座標mと座標Mhiの関係は、以下の式1により表すことができる。
Further, in the figure, the projection plane abcd is shown. The projection surface abcd is a projection surface of a two-dimensional image obtained by a perspective projection model having a projection center V determined corresponding to the image pickup apparatus 100. Such a projection plane is equivalent to a two-dimensional image obtained by imaging with a monocular camera.
Further, in the figure, the projection plane ABCD corresponding to the ground surface is also shown. In the following description, the projection surface ABCD corresponding to the ground surface is also described as the ground projection surface ABCD to distinguish it from the projection surface abcd not corresponding to the ground surface.
Some one coordinate m i in the projection plane abcd shown in FIG. (X image, y image, 1 ) , in the ground projection plane ABCD, the coordinates M hi (x h, y h , -H) corresponding .. H is the height at which the image pickup apparatus 100 is installed.
The relationship between the coordinate m i and the coordinate M hi may be represented by Equation 1 below.

Figure 2020173504
Figure 2020173504

式1において、Aは、変換マトリクスであり、撮像装置100の内部パラメータ(画像中心、焦点距離、画素有効サイズ)と外部パラメータ(撮像装置100の姿勢(高さ、撮像方向等)により求められる。 In Equation 1, A is a conversion matrix, which is obtained from the internal parameters (image center, focal length, effective pixel size) and external parameters (posture (height, imaging direction, etc.) of the imaging device 100).

図4は、位置算出部223による対象物の位置についての算出手法を模式的に示している。
ここで、撮像装置100の投影中心Vの高さHは既知であり、i番目としての対象物OBの高さはHであることが高さ算出部222により算出されている。
また、位置算出部223は、対象物OBの高さに対応する指示位置pt(対象物の特定の位置の座標の一例、同図では人の頭部として定義されている例が示される)の撮像画像内の二次元座標を特定する。位置算出部223は、特定された撮像内の二次元座標に対応する投影面abcd内の座標mを特定する。位置算出部223は、投影面abcd内の座標mが特定されることに応じて、式1により、地上投影面ABCDにおける座標Mhiを一意に求めることができる。
そして、位置算出部223は、垂直投影点Vから座標Mhiまでの間において、対象物OBの指示位置ptが、投影中心Vと座標Mhiとを結ぶ線分上に存在する状態のときの位置を、対象物OBの地上投影面ABCD上での位置Miとして特定する。
即ち、対象物OBの位置Mについて、以下の式2により表すことができる。
FIG. 4 schematically shows a calculation method for the position of an object by the position calculation unit 223.
Here, the height H of the projection center V of the imaging apparatus 100 is known, the height of the object OB i as i-th is calculated by the height calculation unit 222 that is H i.
Further, the position calculation unit 223 shows an example of the indicated position pt i (an example of coordinates of a specific position of the object, which is defined as a human head in the figure) corresponding to the height of the object OB i . ) Specify the two-dimensional coordinates in the captured image. Position calculating unit 223 specifies the coordinates m i of the projection plane abcd corresponding to two-dimensional coordinates in the imaging identified. Position calculating unit 223, in response to the coordinate m i of the projection plane abcd is specified by the equation 1, it is possible to determine the coordinates M hi on the ground projection plane ABCD uniquely.
Then, the position calculating unit 223, during the period from the vertical projection point V h to the coordinates M hi, indicated position pt i of the object OB i are present on a line segment connecting the projection center V and the coordinate M hi state The position at the time of is specified as the position Mi of the object OB i on the ground projection plane ABCD.
That is, the position M i of the object OB i, can be expressed by Equation 2 below.

Figure 2020173504
Figure 2020173504

従って、位置算出部223は、対象物OBの位置Mを、例えば撮像装置100の高さHと、対象物OBについて算出された高さHと、投影面abcd上での対象物OBの指示位置ptの座標mとを用いて以下の式3により算出することができる。 Accordingly, the position calculation unit 223, a position M i of the object OB i, for example, the height H of the imaging apparatus 100, the height H i calculated for the object OB i, the object on the projection plane abcd can be calculated by equation 3 below using the coordinate m i of the position indicated pt i of OB i.

Figure 2020173504
Figure 2020173504

また、上記説明は、撮像装置100の位置が固定である場合を例に挙げたが、撮像装置100が移動体等に設けられたことで移動するものである場合、位置算出部223は、以下のようにして対象物OBの位置Mを算出してよい。つまり、位置算出部223は、投影中心Vについて、時間tに応じて平行移動により変化する座標(Xo(t),Yo(t),0)として定義したうえで、以下の式4により対象物OBの位置Mを算出してよい。 Further, in the above description, the case where the position of the image pickup apparatus 100 is fixed is taken as an example, but when the image pickup apparatus 100 is provided on a moving body or the like to move, the position calculation unit 223 is described below. it may calculate the position M i of the object OB i as. That is, the position calculation unit 223 defines the projection center V as the coordinates (Xo (t), Yo (t), 0) that change due to translation according to the time t, and then uses the following equation 4 to define the object. it may calculate the position M i of OB i.

Figure 2020173504
Figure 2020173504

そして、位置変換部224は、上記のようにして位置算出部223により算出された対象物OBの位置Mの座標を、例えば地図上の座標に変換することで、現実空間における位置(座標)に変換する。 The position conversion unit 224, the coordinates of the position M i of the object OB i calculated by the position calculating unit 223 as described above, for example, by converting the coordinates on the map, the position in the real space (the coordinates ).

このようにして、本実施形態においては、位置推定装置200によって、撮像装置100により撮像して得られた撮像画像内の被写体を対象物として、対象物の位置を推定することができる。例えば位置推定装置200は、推定された位置が地図上で示されるようにして、例えば表示、印刷等により情報出力装置300により出力させることができる。 In this way, in the present embodiment, the position estimation device 200 can estimate the position of the object by using the subject in the captured image obtained by the image pickup device 100 as the object. For example, the position estimation device 200 can output the estimated position by the information output device 300 by displaying, printing, or the like so that the estimated position is shown on the map.

上記のようにして対象物の位置推定を行う本実施形態の位置推定システム1では、例えば撮像画像において手前の被写体によって一部(特に地上面に対応する被写体部分)が隠されている被写体を対象物とした場合にも位置推定を行うことができる。そのうえで、本実施形態においては、撮像画像において一部が隠されていない対象物と一部が隠されている対象物とで、同じアルゴリズムを適用して位置を推定できる。つまり、本実施形態の位置推定システム1では、一部が隠されている対象物について、一部が隠されていない対象物と同じ精度で位置を推定できる。
また、本実施形態の位置推定システム1による位置推定手法であれば、例えばステレオカメラなどのような視差の相違に対応させた複数の撮像画像を得る必要がない。つまり、本実施形態の位置推定システム1は、対象物を撮像する撮像装置100として、前述のように単眼によるものを採用することができる。これにより、例えばコストの削減、位置推定システム1を構成するハードウェアの小型化を図ることも可能になる。
In the position estimation system 1 of the present embodiment in which the position of the object is estimated as described above, for example, in the captured image, a subject whose part (particularly the subject portion corresponding to the ground surface) is hidden by the subject in front is targeted. Position estimation can be performed even when the object is used. Then, in the present embodiment, the same algorithm can be applied to the position of the object whose part is not hidden and the object whose part is hidden in the captured image. That is, in the position estimation system 1 of the present embodiment, the position of an object whose part is partially hidden can be estimated with the same accuracy as that of the object whose part is not hidden.
Further, in the position estimation method by the position estimation system 1 of the present embodiment, it is not necessary to obtain a plurality of captured images corresponding to the difference in parallax as in a stereo camera, for example. That is, as the position estimation system 1 of the present embodiment, as the image pickup device 100 for imaging an object, a monocular device can be adopted as described above. As a result, for example, it is possible to reduce the cost and reduce the size of the hardware constituting the position estimation system 1.

なお、位置推定システム1のハードウェア構成としては、図1に示した撮像装置100、位置推定装置200、及び情報出力装置300としての3つの装置による構成に限定されない。例えば、撮像装置100、位置推定装置200、及び情報出力装置300のうちの所定の2以上が1つのハードウェアとして統合された構成であってもよい。さらに、撮像装置100、位置推定装置200、及び情報出力装置300のうちの任意の装置について、さらに複数のハードウェアに分割された構成であってもよい。 The hardware configuration of the position estimation system 1 is not limited to the configuration of the three devices as the image pickup device 100, the position estimation device 200, and the information output device 300 shown in FIG. For example, a predetermined two or more of the image pickup device 100, the position estimation device 200, and the information output device 300 may be integrated as one hardware. Further, any device among the image pickup device 100, the position estimation device 200, and the information output device 300 may be further divided into a plurality of hardware.

図5のフローチャートは、位置推定装置200が実行する処理手順例を示している。
ステップS101:位置推定装置200において、投影面設定部221は、投影中心Vの座標を設定する。投影中心Vの座標は、x軸座標、y軸座標、及び高さHに対応するz軸座標を含む三次元座標であってよい。投影中心Vの座標の設定は、撮像装置100の位置と撮像方向とを決定することに相当する。
この場合において、撮像装置100の位置、撮像方向が固定である場合には、既知である撮像装置100の位置と撮像方向に基づいて予め1つの投影中心Vの座標を求めたうえで、求められた投影中心Vの座標を記憶部203に記憶させておいてよい。投影面設定部221は、当該ステップS101として、記憶部203に記憶された投影中心Vの座標を取得すればよい。
あるいは、撮像装置100が移動体に設けられて時間経過に応じて移動するものである場合、投影面設定部221は、当該ステップS101として以下の処理を実行してよい。つまり、投影面設定部221は、例えば移動体が測位する自己の位置(方向も含まれてよい)に基づいて撮像装置100の位置、撮像方向を導出する。投影面設定部221は、導出された撮像装置100の位置、撮像方向に応じた投影中心Vの座標を算出してよい。
The flowchart of FIG. 5 shows an example of a processing procedure executed by the position estimation device 200.
Step S101: In the position estimation device 200, the projection plane setting unit 221 sets the coordinates of the projection center V. The coordinates of the projection center V may be three-dimensional coordinates including the x-axis coordinates, the y-axis coordinates, and the z-axis coordinates corresponding to the height H. Setting the coordinates of the projection center V corresponds to determining the position of the image pickup apparatus 100 and the image pickup direction.
In this case, when the position and the imaging direction of the imaging device 100 are fixed, the coordinates of one projection center V are obtained in advance based on the known position and imaging direction of the imaging device 100. The coordinates of the projection center V may be stored in the storage unit 203. The projection plane setting unit 221 may acquire the coordinates of the projection center V stored in the storage unit 203 as the step S101.
Alternatively, when the imaging device 100 is provided on the moving body and moves with the passage of time, the projection plane setting unit 221 may execute the following processing as the step S101. That is, the projection plane setting unit 221 derives the position and imaging direction of the imaging device 100 based on, for example, its own position (which may include the direction) positioned by the moving body. The projection plane setting unit 221 may calculate the coordinates of the projection center V according to the position of the derived imaging device 100 and the imaging direction.

ステップS102:情報処理部202は、撮像装置100により撮像して得られた撮像画像を、入出力インターフェース部201経由で取得する。 Step S102: The information processing unit 202 acquires an image captured by the image capturing device 100 via the input / output interface unit 201.

ステップS103:投影面設定部221は、ステップS101により設定された投影中心Vを原点とする地上投影面ABCDを設定する。地上投影面ABCDが設定されることで、撮像画像における1の二次元座標が対応する地上投影面ABCD上での1の座標を一意に特定できる。 Step S103: The projection plane setting unit 221 sets the ground projection plane ABCD having the projection center V set in step S101 as the origin. By setting the ground projection plane ABCD, the coordinates of 1 on the ground projection plane ABCD corresponding to the two-dimensional coordinates of 1 in the captured image can be uniquely specified.

ステップS104:高さ算出部222は、位置推定の対象となる対象物OBの高さHを算出する。高さ算出部222は、当該ステップS104の処理として、前述のように、撮像画像に対する画像認識、機械学習によって、撮像画像から対象物OBとしての被写体を抽出し、抽出された対象物OBの属性を認識し、認識された属性に応じて高さHを算出するようにされてよい。
ステップS105:位置算出部223は、対象物OBの地上投影面ABCD上での位置Mを算出する。位置算出部223は、図4での説明のように、投影中心Vの高さHと、対象物OBの高さHと、対象物OBの指示位置ptとを利用して、位置Mを算出してよい。
ステップS106:位置変換部224は、ステップS105により算出された対象物OBの地上投影面ABCD上での位置Mを、現実空間における位置(座標)に変換する。ステップS105により算出された位置Mは、例えば図3、図4に例示したように、投影中心Vを原点として設定された仮想の地上投影面ABCD上にて特定された位置であり、現実空間におけるどの位置に対応するものであるのかは確定されていない。そこで、位置変換部224は、位置Mを現実空間における位置に変換する処理を行う。つまり、位置変換部224は、位置Miが現実空間におけるいずれの位置に相当するのかを特定する。
このために、一例として、記憶部203は、現実空間に座標を設定した地図情報を記憶する。位置変換部224は、例えば現実空間において測位された撮像装置100の位置に基づいて、投影中心Vを地図情報における1つの座標に対応付ける。位置変換部224は、例えば地図情報において、投影中心Vを基準として位置Mが対応する座標を特定する。このようにして、位置Mが現実空間における位置に変換される。
Step S104: height calculation unit 222 calculates the height H i of the object OB i to be position estimation. As the process of step S104, the height calculation unit 222 extracts the subject as the object OB i from the captured image by image recognition and machine learning for the captured image as described above, and the extracted object OB i recognizes the attributes, it may be adapted to calculate the height H i in accordance with the recognized attributes.
Step S105: position calculating unit 223 calculates the position M i on the ground projection plane ABCD of the object OB i. Position calculating unit 223, as described in FIG. 4, by utilizing the height H of the projection center V, the height H i of the object OB i, and an indication position pt i of the object OB i, it may calculate the position M i.
Step S106: position conversion unit 224 converts the position M i on the ground projection plane ABCD of the object OB i calculated in the step S105, the position in the real space (coordinates). Position M i calculated in the step S105, for example 3, as illustrated in FIG. 4, a specified position in the virtual ground projection plane ABCD that is set to the projection center V as the origin, the physical space It has not been determined which position in the. Therefore, the position conversion unit 224 performs processing for converting the position M i to a position in the real space. That is, the position conversion unit 224 specifies which position in the real space the position Mi corresponds to.
For this purpose, as an example, the storage unit 203 stores map information in which coordinates are set in the real space. The position conversion unit 224 associates the projection center V with one coordinate in the map information, for example, based on the position of the image pickup apparatus 100 positioned in the real space. Position conversion unit 224, for example, in the map information, specifies the coordinate position M i corresponding projection center V as a reference. In this way, the position M i is converted to a position in the real space.

なお、上述の位置推定装置200としての機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の位置推定装置200としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。 The program for realizing the function of the position estimation device 200 described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by the computer system and executed. The processing as the position estimation device 200 may be performed. Here, "loading a computer system a program recorded on a recording medium and executing it" includes installing the program in the computer system. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line. The recording medium also includes an internal or external recording medium that can be accessed from the distribution server to distribute the program.

1 位置推定システム、100 撮像装置、200 位置推定装置、201 入出力インターフェース部、202 情報処理部、203 記憶部、221 投影面設定部、222 高さ算出部、223 位置算出部、224 位置変換部、300 情報出力装置 1 Position estimation system, 100 Imaging device, 200 Position estimation device, 201 Input / output interface unit, 202 Information processing unit, 203 Storage unit, 221 Projection surface setting unit, 222 Height calculation unit, 223 Position calculation unit, 224 Position conversion unit , 300 Information output device

Claims (6)

撮像装置と、
前記撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部と、
前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部と
を備える位置推定システム。
Imaging device and
A height calculation unit that calculates the height of an object based on an image recognition process performed on an image captured by the image pickup device.
A position estimation system including a position calculation unit that calculates the position of the object on the projection surface of the image pickup apparatus set corresponding to the ground surface based on the height calculated by the height calculation unit.
前記位置算出部は、
前記撮像画像における前記対象物の特定の位置の座標に対応して定まる前記投影面の座標と、前記投影面が対応する投影中心の地上面からの高さと、前記高さ算出部により算出された対象物の高さとに基づいて、前記投影面における前記対象物の位置を算出する
請求項1に記載の位置推定システム。
The position calculation unit
Calculated by the height calculation unit, the coordinates of the projection surface determined corresponding to the coordinates of the specific position of the object in the captured image, the height of the projection center corresponding to the projection surface from the ground surface, and the height calculation unit. The position estimation system according to claim 1, wherein the position of the object on the projection plane is calculated based on the height of the object.
前記撮像装置は単眼である
請求項1または2に記載の位置推定システム。
The position estimation system according to claim 1 or 2, wherein the imaging device is monocular.
撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部と、
前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部と
を備える位置推定装置。
A height calculation unit that calculates the height of an object based on an image recognition process executed on the captured image obtained by imaging with an imaging device.
A position estimation device including a position calculation unit that calculates the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the height calculated by the height calculation unit.
撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出ステップと、
前記高さ算出ステップにより算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出ステップと
を備える位置推定方法。
A height calculation step of calculating the height of an object based on an image recognition process executed on the captured image obtained by imaging with an imaging device, and
A position estimation method including a position calculation step for calculating the position of the object on the projection surface of the image pickup apparatus set corresponding to the ground surface based on the height calculated by the height calculation step.
コンピュータを、
撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部、
前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部
として機能させるためのプログラム。
Computer,
A height calculation unit that calculates the height of an object based on an image recognition process executed on the captured image obtained by imaging with an imaging device.
A program for functioning as a position calculation unit for calculating the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the height calculated by the height calculation unit.
JP2019073587A 2019-04-08 2019-04-08 Position estimation system, position estimation device, position estimation method, and program Active JP7286387B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019073587A JP7286387B2 (en) 2019-04-08 2019-04-08 Position estimation system, position estimation device, position estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019073587A JP7286387B2 (en) 2019-04-08 2019-04-08 Position estimation system, position estimation device, position estimation method, and program

Publications (2)

Publication Number Publication Date
JP2020173504A true JP2020173504A (en) 2020-10-22
JP7286387B2 JP7286387B2 (en) 2023-06-05

Family

ID=72831627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019073587A Active JP7286387B2 (en) 2019-04-08 2019-04-08 Position estimation system, position estimation device, position estimation method, and program

Country Status (1)

Country Link
JP (1) JP7286387B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239291A1 (en) * 2021-05-13 2022-11-17 パナソニックIpマネジメント株式会社 Object detection device and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193187A (en) * 2010-03-15 2011-09-29 Omron Corp Monitoring camera terminal
JP2018144526A (en) * 2017-03-01 2018-09-20 アイシン精機株式会社 Periphery monitoring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011193187A (en) * 2010-03-15 2011-09-29 Omron Corp Monitoring camera terminal
JP2018144526A (en) * 2017-03-01 2018-09-20 アイシン精機株式会社 Periphery monitoring device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
QI MEI-BIN ET AL.: "Moving Object Localization with Single Camera Based on Height Model in Video Surveillance", 2007 1ST INTERNATIONAL CONFERENCE ON BIOINFORMATICS AND BIOMEDICAL ENGINEERING, JPN6023003250, 8 July 2007 (2007-07-08), ISSN: 0004976903 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022239291A1 (en) * 2021-05-13 2022-11-17 パナソニックIpマネジメント株式会社 Object detection device and method

Also Published As

Publication number Publication date
JP7286387B2 (en) 2023-06-05

Similar Documents

Publication Publication Date Title
JP6695503B2 (en) Method and system for monitoring the condition of a vehicle driver
JP5812599B2 (en) Information processing method and apparatus
JP4355341B2 (en) Visual tracking using depth data
JP5211069B2 (en) Human posture estimation and tracking using labeling
JP4852764B2 (en) Motion measuring device, motion measuring system, in-vehicle device, motion measuring method, motion measuring program, and computer-readable recording medium
JP6723061B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP4728432B2 (en) Face posture estimation device, face posture estimation method, and face posture estimation program
US9811742B2 (en) Vehicle-surroundings recognition device
JP2019185557A (en) Image analysis device, method, and program
JP2007310707A (en) Apparatus and method for estimating posture
JP2014138420A (en) Depth sensing method and system for autonomous vehicle
JP6919619B2 (en) Image analyzers, methods and programs
US20230085384A1 (en) Characterizing and improving of image processing
JP2021513175A (en) Data processing methods and devices, electronic devices and storage media
JP2000251078A (en) Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person
CN111854620A (en) Monocular camera-based actual pupil distance measuring method, device and equipment
JP2015219868A (en) Information processor, information processing method and program
JP7286387B2 (en) Position estimation system, position estimation device, position estimation method, and program
JP2006215743A (en) Image processing apparatus and image processing method
JP2021148730A (en) Position estimation method, position estimation device, and program
JP3401512B2 (en) Moving object tracking device
JP2006227739A (en) Image processing device and image processing method
JP4063556B2 (en) Facial image recognition apparatus and method
JP2021051347A (en) Distance image generation apparatus and distance image generation method
US20220245860A1 (en) Annotation of two-dimensional images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230524

R150 Certificate of patent or registration of utility model

Ref document number: 7286387

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150