JP2020173504A - Position estimation system, position estimation device, position estimation method, and program - Google Patents
Position estimation system, position estimation device, position estimation method, and program Download PDFInfo
- Publication number
- JP2020173504A JP2020173504A JP2019073587A JP2019073587A JP2020173504A JP 2020173504 A JP2020173504 A JP 2020173504A JP 2019073587 A JP2019073587 A JP 2019073587A JP 2019073587 A JP2019073587 A JP 2019073587A JP 2020173504 A JP2020173504 A JP 2020173504A
- Authority
- JP
- Japan
- Prior art keywords
- height
- calculation unit
- position estimation
- image
- projection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000004364 calculation method Methods 0.000 claims abstract description 56
- 238000003384 imaging method Methods 0.000 claims abstract description 43
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 12
- 238000006243 chemical reaction Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、位置推定システム、位置推定装置、位置推定方法、及びプログラムに関する。 The present invention relates to a position estimation system, a position estimation device, a position estimation method, and a program.
例えば移動前と移動後とで撮像装置が撮像して得られた画像に基づいて、三次元形状を推定する技術が知られている(例えば、特許文献1参照)。特許文献1の技術では、例えば道路面を基準面としたうえで、その上に存在する対象物の特徴点の位置を推定し、推定された特徴点の位置の集合により三次元形状を推定するようにされている。つまり、特許文献1の技術では、対象物の位置推定が行われる。 For example, there is known a technique for estimating a three-dimensional shape based on images taken by an imaging device before and after movement (see, for example, Patent Document 1). In the technique of Patent Document 1, for example, the road surface is used as a reference surface, the positions of the feature points of the object existing on the road surface are estimated, and the three-dimensional shape is estimated from the set of the estimated feature point positions. It has been done. That is, in the technique of Patent Document 1, the position of the object is estimated.
しかしながら、上記の特許文献1による位置推定の技術では、他の物体によって一部が隠された状態の物体を対象物とした場合には、その対象物の距離を算出することができないために、位置推定が困難になる。 However, in the position estimation technique according to Patent Document 1 described above, when an object in a state of being partially hidden by another object is used as an object, the distance of the object cannot be calculated. Position estimation becomes difficult.
本発明は、このような事情に鑑みてなされたもので、撮像により得られる画像に基づいて対象物の位置を推定するにあたり、他の物体により一部が隠された対象物についても位置を推定できるようにすることを目的とする。 The present invention has been made in view of such circumstances, and when estimating the position of an object based on an image obtained by imaging, the position of an object whose part is partially hidden by another object is also estimated. The purpose is to be able to do it.
上述した課題を解決する本発明の一態様は、撮像装置と、前記撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部と、前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部とを備える位置推定システムである。 One aspect of the present invention that solves the above-mentioned problems is a height that calculates the height of an object based on an image pickup device and an image recognition process executed on the image captured by the image pickup device. A position including a calculation unit and a position calculation unit that calculates the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the height calculated by the height calculation unit. It is an estimation system.
また、本発明の一態様は、撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部と、前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部とを備える位置推定装置である。 Further, one aspect of the present invention includes a height calculation unit that calculates the height of an object based on an image recognition process executed on an image captured by an imaging device, and the height calculation unit. It is a position estimation device including a position calculation unit for calculating the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the height calculated by.
また、本発明の一態様は、撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出ステップと、前記高さ算出ステップにより算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出ステップとを備える位置推定方法である。 Further, one aspect of the present invention includes a height calculation step of calculating the height of an object based on an image recognition process executed on an image captured by an imaging device, and the height calculation step. This is a position estimation method including a position calculation step for calculating the position of the object on the projection surface of the image pickup apparatus set corresponding to the ground surface based on the height calculated by.
また、本発明の一態様は、撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部、前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部として機能させるためのプログラムである。 Further, one aspect of the present invention is a height calculation unit that calculates the height of an object based on an image recognition process executed on an image captured by an imaging device, and the height calculation unit. This is a program for functioning as a position calculation unit for calculating the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the calculated height.
以上説明したように、本発明によれば、撮像により得られる画像に基づいて対象物の位置を推定するにあたり、他の物体により一部が隠された対象物についても位置を推定できるようになるという効果が得られる。 As described above, according to the present invention, when estimating the position of an object based on an image obtained by imaging, it is possible to estimate the position of an object whose part is partially hidden by another object. The effect is obtained.
図1は、本実施形態の位置推定システム1の構成例を示している。本実施形態の位置推定システムは、例えば固定的に設置される監視カメラを備える監視システム等に適用されてもよいし、車両やロボット等の移動体が備えるものであってもよい。
同図の位置推定システム1は、撮像装置100、位置推定装置200、及び情報出力装置300を備える。
FIG. 1 shows a configuration example of the position estimation system 1 of the present embodiment. The position estimation system of the present embodiment may be applied to, for example, a surveillance system including a surveillance camera installed fixedly, or may be provided by a moving body such as a vehicle or a robot.
The position estimation system 1 in the figure includes an
撮像装置100は、撮像を行う。本実施形態の撮像装置100は、例えばステレオカメラなどのようなものではなく、例えば単眼によるものであってよい。
The
位置推定装置200は、撮像装置100により撮像して得られた画像(撮像画像)に基づいて、撮像画像にて被写体として含まれる対象物についての現実空間での位置を推定する装置である。
位置推定装置200は、機能部として、入出力インターフェース部201、情報処理部202、及び記憶部203を備える。
The
The
入出力インターフェース部201は、位置推定装置200と外部との情報の入出力を行う部位である。撮像装置100が出力する撮像画像は、入出力インターフェース部201が入力し、情報処理部202に渡すようにされる。
また、情報処理部202が出力した画像、音声等の情報は、入出力インターフェース部201から情報出力装置300に出力される。
The input /
Further, information such as images and sounds output by the
情報処理部202は、対象物の位置推定に関する情報処理を実行する。情報処理部202としての機能は、位置推定装置200において備えられるCPU(Central Processing Unit)が、プログラムを実行することにより実現される。同図の情報処理部202は、投影面設定部221、高さ算出部222、位置算出部223、及び位置変換部224を備える。
投影面設定部221は、撮像装置100に対応する投影面を設定する。具体的に、投影面設定部221は、投影面として、地上面に対応する投影面(地上投影面)を設定する。
高さ算出部222は、撮像装置100により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する。
位置算出部223は、高さ算出部222により算出された高さに基づいて、地上投影面における対象物の位置を算出する。
位置変換部224は、位置算出部223により算出された位置を現実空間における位置に変換する。
The
The projection
The
The
The
記憶部203は、位置推定装置200に対応する各種の情報を記憶する。
The
情報出力装置300は、位置推定装置200から出力された情報を出力する。情報出力装置300は、表示装置であってもよいし、音声出力装置であってもよいし、印刷装置であってもよい。
The
図2〜図4を参照して、本実施形態の位置推定システム1よる位置推定の手法例について説明する。
図2は、撮像装置100により撮像して得られた撮像画像の一例を示している。同図の撮像画像においては、画像認識処理による被写体の抽出結果が示される。なお、ここでは、説明を簡単にすることの便宜上、撮像装置100の位置、撮像方向等の条件は、固定であって、既知である場合を例に挙げる。
同図の撮像画像P1においては、被写体OB1〜OB6の6つの被写体が含まれている。被写体OB1〜OB6について特に区別しない場合には、被写体OBと記載する。
位置推定装置200の高さ算出部222は、撮像画像P1について画像認識処理を行ったうえで、例えばニューラルネットワーク等のAI(Artificial Intelligence:人工知能)フレームワーク(あるいは機械学習フレームワーク等でもよい)を利用した処理により、被写体OBごとの属性を認識する。
単純な例の1つとして、高さ算出部222は、被写体OB1、OB2、OB3については成人の人であると認識し、被写体OB3については子供の人であると認識し、被写体OB5は、乗用車に該当する車両であると認識し、被写体OB6については、トラックとしての車両であると認識する。
そのうえで、高さ算出部222は、人としての被写体OBについては、例えばさらに、顔、衣服、髪型、身に付けているアクセサリや持ち物などに応じた特徴量に基づいて女性と男性とのいずれであるのかを認識してもよい。また、人としての被写体OBについては、顔等の特徴量に基づいて、例えばアジア系、ヨーロッパ系、アフリカ系といったように、どの民族系に該当するのかを認識するようにされてもよい。
また、高さ算出部222は、車両としての被写体OBについては、例えばさらに乗用車であればミニバン、セダンといった区分での認識、トラックであれば小型、中型、大型といった区分での認識が行われてよい。さらに車両としての被写体OBについては、車種、型番等の認識が行われるようにされてもよい。
そして、高さ算出部222は、認識された属性に対応する高さを算出する。高さ算出部222は、例えば属性ごとに高さが対応付けられた高さテーブルのデータを参照し、認識された属性に対応付けられた高さを取得し、取得された高さを高さの算出結果としてよい。あるいは、高さ算出部222は、機械学習により、属性の認識に伴って、認識された属性の高さも導出するようにされてもよい。
このようにして、高さ算出部222は、同図の撮像画像において抽出される被写体OBごとの高さを算出することができる。
An example of a position estimation method by the position estimation system 1 of the present embodiment will be described with reference to FIGS. 2 to 4.
FIG. 2 shows an example of an captured image obtained by imaging with the
The captured image P1 in the figure includes six subjects, subjects OB1 to OB6. When the subjects OB1 to OB6 are not particularly distinguished, they are described as subject OB.
The
As one of the simple examples, the
Then, the
In addition, the
Then, the
In this way, the
なお、高さ算出の対象となる対象物は、人や車両に限定されない。対象物は、例えば物、ロボット、動物、ランドマーク等であってもよい。本実施形態において高さが算出される対象物については、位置推定が可能とされる。つまり、本実施形態において位置空いての対象となる撮像画像内の対象物は、人や車両に限定されない。 The object for which the height is calculated is not limited to people and vehicles. The object may be, for example, an object, a robot, an animal, a landmark, or the like. The position of the object whose height is calculated in this embodiment can be estimated. That is, in the present embodiment, the object in the captured image that is the target at a vacant position is not limited to a person or a vehicle.
図3は、撮像装置100の投影面と、撮像画像P1に含まれていた被写体OBとの関係を示している。
同図においては、撮像装置100の投影中心Vが固定で定められている。また、同図において、投影中心Vから垂直に投影した地上面の点(位置)が垂直投影点Vhとなる。ここで、撮像装置100の位置については固定であるので、距離VVhは不変(一定)である。
FIG. 3 shows the relationship between the projection surface of the
In the figure, the projection center V of the
また、同図においては、投影面abcdが示されている。投影面abcdは、撮像装置100に対応して定められた投影中心Vとする透視投影モデルにより得られた二次元画像の投影面となる。このような投影面は、単眼カメラにより撮像して得られる二次元画像と等しい。
また、同図においては、地上面に対応する投影面ABCDも示されている。以降の説明において、地上面に対応する投影面ABCDについては、地上投影面ABCDとも記載して、地上面に対応しない投影面abcdと区別する。
同図に示される投影面abcdにおける或る1つの座標mi(ximage,yimage,1)は、地上投影面ABCDにおいては、座標Mhi(xh,yh,-H)が対応する。Hは撮像装置100の設置された高さである。
ここで、座標miと座標Mhiの関係は、以下の式1により表すことができる。
Further, in the figure, the projection plane abcd is shown. The projection surface abcd is a projection surface of a two-dimensional image obtained by a perspective projection model having a projection center V determined corresponding to the
Further, in the figure, the projection plane ABCD corresponding to the ground surface is also shown. In the following description, the projection surface ABCD corresponding to the ground surface is also described as the ground projection surface ABCD to distinguish it from the projection surface abcd not corresponding to the ground surface.
Some one coordinate m i in the projection plane abcd shown in FIG. (X image, y image, 1 ) , in the ground projection plane ABCD, the coordinates M hi (x h, y h , -H) corresponding .. H is the height at which the
The relationship between the coordinate m i and the coordinate M hi may be represented by Equation 1 below.
式1において、Aは、変換マトリクスであり、撮像装置100の内部パラメータ(画像中心、焦点距離、画素有効サイズ)と外部パラメータ(撮像装置100の姿勢(高さ、撮像方向等)により求められる。 In Equation 1, A is a conversion matrix, which is obtained from the internal parameters (image center, focal length, effective pixel size) and external parameters (posture (height, imaging direction, etc.) of the imaging device 100).
図4は、位置算出部223による対象物の位置についての算出手法を模式的に示している。
ここで、撮像装置100の投影中心Vの高さHは既知であり、i番目としての対象物OBiの高さはHiであることが高さ算出部222により算出されている。
また、位置算出部223は、対象物OBiの高さに対応する指示位置pti(対象物の特定の位置の座標の一例、同図では人の頭部として定義されている例が示される)の撮像画像内の二次元座標を特定する。位置算出部223は、特定された撮像内の二次元座標に対応する投影面abcd内の座標miを特定する。位置算出部223は、投影面abcd内の座標miが特定されることに応じて、式1により、地上投影面ABCDにおける座標Mhiを一意に求めることができる。
そして、位置算出部223は、垂直投影点Vhから座標Mhiまでの間において、対象物OBiの指示位置ptiが、投影中心Vと座標Mhiとを結ぶ線分上に存在する状態のときの位置を、対象物OBiの地上投影面ABCD上での位置Miとして特定する。
即ち、対象物OBiの位置Miについて、以下の式2により表すことができる。
FIG. 4 schematically shows a calculation method for the position of an object by the
Here, the height H of the projection center V of the
Further, the
Then, the
That is, the position M i of the object OB i, can be expressed by Equation 2 below.
従って、位置算出部223は、対象物OBiの位置Miを、例えば撮像装置100の高さHと、対象物OBiについて算出された高さHiと、投影面abcd上での対象物OBiの指示位置ptiの座標miとを用いて以下の式3により算出することができる。
Accordingly, the
また、上記説明は、撮像装置100の位置が固定である場合を例に挙げたが、撮像装置100が移動体等に設けられたことで移動するものである場合、位置算出部223は、以下のようにして対象物OBiの位置Miを算出してよい。つまり、位置算出部223は、投影中心Vについて、時間tに応じて平行移動により変化する座標(Xo(t),Yo(t),0)として定義したうえで、以下の式4により対象物OBiの位置Miを算出してよい。
Further, in the above description, the case where the position of the
そして、位置変換部224は、上記のようにして位置算出部223により算出された対象物OBiの位置Miの座標を、例えば地図上の座標に変換することで、現実空間における位置(座標)に変換する。
The
このようにして、本実施形態においては、位置推定装置200によって、撮像装置100により撮像して得られた撮像画像内の被写体を対象物として、対象物の位置を推定することができる。例えば位置推定装置200は、推定された位置が地図上で示されるようにして、例えば表示、印刷等により情報出力装置300により出力させることができる。
In this way, in the present embodiment, the
上記のようにして対象物の位置推定を行う本実施形態の位置推定システム1では、例えば撮像画像において手前の被写体によって一部(特に地上面に対応する被写体部分)が隠されている被写体を対象物とした場合にも位置推定を行うことができる。そのうえで、本実施形態においては、撮像画像において一部が隠されていない対象物と一部が隠されている対象物とで、同じアルゴリズムを適用して位置を推定できる。つまり、本実施形態の位置推定システム1では、一部が隠されている対象物について、一部が隠されていない対象物と同じ精度で位置を推定できる。
また、本実施形態の位置推定システム1による位置推定手法であれば、例えばステレオカメラなどのような視差の相違に対応させた複数の撮像画像を得る必要がない。つまり、本実施形態の位置推定システム1は、対象物を撮像する撮像装置100として、前述のように単眼によるものを採用することができる。これにより、例えばコストの削減、位置推定システム1を構成するハードウェアの小型化を図ることも可能になる。
In the position estimation system 1 of the present embodiment in which the position of the object is estimated as described above, for example, in the captured image, a subject whose part (particularly the subject portion corresponding to the ground surface) is hidden by the subject in front is targeted. Position estimation can be performed even when the object is used. Then, in the present embodiment, the same algorithm can be applied to the position of the object whose part is not hidden and the object whose part is hidden in the captured image. That is, in the position estimation system 1 of the present embodiment, the position of an object whose part is partially hidden can be estimated with the same accuracy as that of the object whose part is not hidden.
Further, in the position estimation method by the position estimation system 1 of the present embodiment, it is not necessary to obtain a plurality of captured images corresponding to the difference in parallax as in a stereo camera, for example. That is, as the position estimation system 1 of the present embodiment, as the
なお、位置推定システム1のハードウェア構成としては、図1に示した撮像装置100、位置推定装置200、及び情報出力装置300としての3つの装置による構成に限定されない。例えば、撮像装置100、位置推定装置200、及び情報出力装置300のうちの所定の2以上が1つのハードウェアとして統合された構成であってもよい。さらに、撮像装置100、位置推定装置200、及び情報出力装置300のうちの任意の装置について、さらに複数のハードウェアに分割された構成であってもよい。
The hardware configuration of the position estimation system 1 is not limited to the configuration of the three devices as the
図5のフローチャートは、位置推定装置200が実行する処理手順例を示している。
ステップS101:位置推定装置200において、投影面設定部221は、投影中心Vの座標を設定する。投影中心Vの座標は、x軸座標、y軸座標、及び高さHに対応するz軸座標を含む三次元座標であってよい。投影中心Vの座標の設定は、撮像装置100の位置と撮像方向とを決定することに相当する。
この場合において、撮像装置100の位置、撮像方向が固定である場合には、既知である撮像装置100の位置と撮像方向に基づいて予め1つの投影中心Vの座標を求めたうえで、求められた投影中心Vの座標を記憶部203に記憶させておいてよい。投影面設定部221は、当該ステップS101として、記憶部203に記憶された投影中心Vの座標を取得すればよい。
あるいは、撮像装置100が移動体に設けられて時間経過に応じて移動するものである場合、投影面設定部221は、当該ステップS101として以下の処理を実行してよい。つまり、投影面設定部221は、例えば移動体が測位する自己の位置(方向も含まれてよい)に基づいて撮像装置100の位置、撮像方向を導出する。投影面設定部221は、導出された撮像装置100の位置、撮像方向に応じた投影中心Vの座標を算出してよい。
The flowchart of FIG. 5 shows an example of a processing procedure executed by the
Step S101: In the
In this case, when the position and the imaging direction of the
Alternatively, when the
ステップS102:情報処理部202は、撮像装置100により撮像して得られた撮像画像を、入出力インターフェース部201経由で取得する。
Step S102: The
ステップS103:投影面設定部221は、ステップS101により設定された投影中心Vを原点とする地上投影面ABCDを設定する。地上投影面ABCDが設定されることで、撮像画像における1の二次元座標が対応する地上投影面ABCD上での1の座標を一意に特定できる。
Step S103: The projection
ステップS104:高さ算出部222は、位置推定の対象となる対象物OBiの高さHiを算出する。高さ算出部222は、当該ステップS104の処理として、前述のように、撮像画像に対する画像認識、機械学習によって、撮像画像から対象物OBiとしての被写体を抽出し、抽出された対象物OBiの属性を認識し、認識された属性に応じて高さHiを算出するようにされてよい。
ステップS105:位置算出部223は、対象物OBiの地上投影面ABCD上での位置Miを算出する。位置算出部223は、図4での説明のように、投影中心Vの高さHと、対象物OBiの高さHiと、対象物OBiの指示位置ptiとを利用して、位置Miを算出してよい。
ステップS106:位置変換部224は、ステップS105により算出された対象物OBiの地上投影面ABCD上での位置Miを、現実空間における位置(座標)に変換する。ステップS105により算出された位置Miは、例えば図3、図4に例示したように、投影中心Vを原点として設定された仮想の地上投影面ABCD上にて特定された位置であり、現実空間におけるどの位置に対応するものであるのかは確定されていない。そこで、位置変換部224は、位置Miを現実空間における位置に変換する処理を行う。つまり、位置変換部224は、位置Miが現実空間におけるいずれの位置に相当するのかを特定する。
このために、一例として、記憶部203は、現実空間に座標を設定した地図情報を記憶する。位置変換部224は、例えば現実空間において測位された撮像装置100の位置に基づいて、投影中心Vを地図情報における1つの座標に対応付ける。位置変換部224は、例えば地図情報において、投影中心Vを基準として位置Miが対応する座標を特定する。このようにして、位置Miが現実空間における位置に変換される。
Step S104:
Step S105:
Step S106:
For this purpose, as an example, the
なお、上述の位置推定装置200としての機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述の位置推定装置200としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。
The program for realizing the function of the
1 位置推定システム、100 撮像装置、200 位置推定装置、201 入出力インターフェース部、202 情報処理部、203 記憶部、221 投影面設定部、222 高さ算出部、223 位置算出部、224 位置変換部、300 情報出力装置 1 Position estimation system, 100 Imaging device, 200 Position estimation device, 201 Input / output interface unit, 202 Information processing unit, 203 Storage unit, 221 Projection surface setting unit, 222 Height calculation unit, 223 Position calculation unit, 224 Position conversion unit , 300 Information output device
Claims (6)
前記撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部と、
前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部と
を備える位置推定システム。 Imaging device and
A height calculation unit that calculates the height of an object based on an image recognition process performed on an image captured by the image pickup device.
A position estimation system including a position calculation unit that calculates the position of the object on the projection surface of the image pickup apparatus set corresponding to the ground surface based on the height calculated by the height calculation unit.
前記撮像画像における前記対象物の特定の位置の座標に対応して定まる前記投影面の座標と、前記投影面が対応する投影中心の地上面からの高さと、前記高さ算出部により算出された対象物の高さとに基づいて、前記投影面における前記対象物の位置を算出する
請求項1に記載の位置推定システム。 The position calculation unit
Calculated by the height calculation unit, the coordinates of the projection surface determined corresponding to the coordinates of the specific position of the object in the captured image, the height of the projection center corresponding to the projection surface from the ground surface, and the height calculation unit. The position estimation system according to claim 1, wherein the position of the object on the projection plane is calculated based on the height of the object.
請求項1または2に記載の位置推定システム。 The position estimation system according to claim 1 or 2, wherein the imaging device is monocular.
前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部と
を備える位置推定装置。 A height calculation unit that calculates the height of an object based on an image recognition process executed on the captured image obtained by imaging with an imaging device.
A position estimation device including a position calculation unit that calculates the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the height calculated by the height calculation unit.
前記高さ算出ステップにより算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出ステップと
を備える位置推定方法。 A height calculation step of calculating the height of an object based on an image recognition process executed on the captured image obtained by imaging with an imaging device, and
A position estimation method including a position calculation step for calculating the position of the object on the projection surface of the image pickup apparatus set corresponding to the ground surface based on the height calculated by the height calculation step.
撮像装置により撮像して得られた撮像画像を対象に実行した画像認識処理に基づいて対象物の高さを算出する高さ算出部、
前記高さ算出部により算出された高さに基づいて、地上面に対応して設定された前記撮像装置の投影面における前記対象物の位置を算出する位置算出部
として機能させるためのプログラム。 Computer,
A height calculation unit that calculates the height of an object based on an image recognition process executed on the captured image obtained by imaging with an imaging device.
A program for functioning as a position calculation unit for calculating the position of the object on the projection surface of the image pickup device set corresponding to the ground surface based on the height calculated by the height calculation unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019073587A JP7286387B2 (en) | 2019-04-08 | 2019-04-08 | Position estimation system, position estimation device, position estimation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019073587A JP7286387B2 (en) | 2019-04-08 | 2019-04-08 | Position estimation system, position estimation device, position estimation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020173504A true JP2020173504A (en) | 2020-10-22 |
JP7286387B2 JP7286387B2 (en) | 2023-06-05 |
Family
ID=72831627
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019073587A Active JP7286387B2 (en) | 2019-04-08 | 2019-04-08 | Position estimation system, position estimation device, position estimation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7286387B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022239291A1 (en) * | 2021-05-13 | 2022-11-17 | パナソニックIpマネジメント株式会社 | Object detection device and method |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011193187A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Monitoring camera terminal |
JP2018144526A (en) * | 2017-03-01 | 2018-09-20 | アイシン精機株式会社 | Periphery monitoring device |
-
2019
- 2019-04-08 JP JP2019073587A patent/JP7286387B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011193187A (en) * | 2010-03-15 | 2011-09-29 | Omron Corp | Monitoring camera terminal |
JP2018144526A (en) * | 2017-03-01 | 2018-09-20 | アイシン精機株式会社 | Periphery monitoring device |
Non-Patent Citations (1)
Title |
---|
QI MEI-BIN ET AL.: "Moving Object Localization with Single Camera Based on Height Model in Video Surveillance", 2007 1ST INTERNATIONAL CONFERENCE ON BIOINFORMATICS AND BIOMEDICAL ENGINEERING, JPN6023003250, 8 July 2007 (2007-07-08), ISSN: 0004976903 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022239291A1 (en) * | 2021-05-13 | 2022-11-17 | パナソニックIpマネジメント株式会社 | Object detection device and method |
Also Published As
Publication number | Publication date |
---|---|
JP7286387B2 (en) | 2023-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6695503B2 (en) | Method and system for monitoring the condition of a vehicle driver | |
JP5812599B2 (en) | Information processing method and apparatus | |
JP4355341B2 (en) | Visual tracking using depth data | |
JP5211069B2 (en) | Human posture estimation and tracking using labeling | |
JP4852764B2 (en) | Motion measuring device, motion measuring system, in-vehicle device, motion measuring method, motion measuring program, and computer-readable recording medium | |
JP6723061B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
JP4728432B2 (en) | Face posture estimation device, face posture estimation method, and face posture estimation program | |
US9811742B2 (en) | Vehicle-surroundings recognition device | |
JP2019185557A (en) | Image analysis device, method, and program | |
JP2007310707A (en) | Apparatus and method for estimating posture | |
JP2014138420A (en) | Depth sensing method and system for autonomous vehicle | |
JP6919619B2 (en) | Image analyzers, methods and programs | |
US20230085384A1 (en) | Characterizing and improving of image processing | |
JP2021513175A (en) | Data processing methods and devices, electronic devices and storage media | |
JP2000251078A (en) | Method and device for estimating three-dimensional posture of person, and method and device for estimating position of elbow of person | |
CN111854620A (en) | Monocular camera-based actual pupil distance measuring method, device and equipment | |
JP2015219868A (en) | Information processor, information processing method and program | |
JP7286387B2 (en) | Position estimation system, position estimation device, position estimation method, and program | |
JP2006215743A (en) | Image processing apparatus and image processing method | |
JP2021148730A (en) | Position estimation method, position estimation device, and program | |
JP3401512B2 (en) | Moving object tracking device | |
JP2006227739A (en) | Image processing device and image processing method | |
JP4063556B2 (en) | Facial image recognition apparatus and method | |
JP2021051347A (en) | Distance image generation apparatus and distance image generation method | |
US20220245860A1 (en) | Annotation of two-dimensional images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220202 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230524 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7286387 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |