JP7479200B2 - Position and orientation estimation device and program - Google Patents
Position and orientation estimation device and program Download PDFInfo
- Publication number
- JP7479200B2 JP7479200B2 JP2020096405A JP2020096405A JP7479200B2 JP 7479200 B2 JP7479200 B2 JP 7479200B2 JP 2020096405 A JP2020096405 A JP 2020096405A JP 2020096405 A JP2020096405 A JP 2020096405A JP 7479200 B2 JP7479200 B2 JP 7479200B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- vehicle
- moving
- information
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 67
- 238000003384 imaging method Methods 0.000 claims description 8
- 230000006870 function Effects 0.000 description 23
- 238000004891 communication Methods 0.000 description 18
- 238000005457 optimization Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000000034 method Methods 0.000 description 14
- 238000012545 processing Methods 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 7
- 238000012850 discrimination method Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000009825 accumulation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
本発明は、位置姿勢推定装置及びプログラムに関する。 The present invention relates to a position and orientation estimation device and program.
複数の車両が走行する多様な交通状況下において各々の車両の位置及び姿勢を検出することは各々の車両の走行安定性を向上させるために重要である。例えば、物体の位置姿勢を高精度に決定することのできる位置姿勢決定装置が知られている(例えば、特許文献1参照)。この技術では、計測モジュールは、対象物体の外形を表す形状データを取得する形状センサと、衛星信号受信機と、姿勢センサと、演算処理装置と、データ記憶装置とを有する。また、演算処理装置は、形状センサが取得した対象物体の形状データと、データ記憶装置内に予め格納された対象物体の3次元形状データベースとをマッチング処理により照合し、形状センサからの対象物体の相対的な位置及び姿勢を取得すると共に、この相対的な位置および姿勢と、衛星信号受信機及び姿勢センサにより取得した絶対座標系における自身の位置及び姿勢とに基づいて、絶対座標系における対象物体の位置および姿勢を算出する。 Detecting the position and attitude of each vehicle under various traffic conditions in which multiple vehicles are traveling is important for improving the driving stability of each vehicle. For example, a position and attitude determination device that can determine the position and attitude of an object with high accuracy is known (for example, see Patent Document 1). In this technology, the measurement module has a shape sensor that acquires shape data representing the outer shape of the target object, a satellite signal receiver, an attitude sensor, a processing unit, and a data storage device. In addition, the processing unit compares the shape data of the target object acquired by the shape sensor with a three-dimensional shape database of the target object pre-stored in the data storage device through a matching process, acquires the relative position and attitude of the target object from the shape sensor, and calculates the position and attitude of the target object in the absolute coordinate system based on this relative position and attitude and its own position and attitude in the absolute coordinate system acquired by the satellite signal receiver and the attitude sensor.
しかしながら、上記特許文献1に記載の技術では、位置姿勢決定装置は、GPS(Global Positioning System:全地球測位システム)による衛星信号を用いて自身の位置姿勢を算出するが、GPSの信号が受信できない環境、及びマルチパス等により測位精度が劣化する環境では、推定される車両等の移動体の位置姿勢の誤差が増大する。従って、車両等の移動体の位置姿勢を高精度に決定するのには改善の余地がある。 However, in the technology described in Patent Document 1, the position and attitude determination device calculates its own position and attitude using satellite signals from the Global Positioning System (GPS). However, in environments where GPS signals cannot be received and where positioning accuracy is degraded due to multipath or the like, errors in the estimated position and attitude of a moving body such as a vehicle increase. Therefore, there is room for improvement in determining the position and attitude of a moving body such as a vehicle with high accuracy.
本開示は、上記の事実を考慮してなされたもので、衛星信号を用いることなく、高い精度で移動体の位置及び姿勢を推定することができる位置姿勢推定装置及びプログラムを提供することを目的とする。 This disclosure has been made in consideration of the above-mentioned facts, and aims to provide a position and attitude estimation device and program that can estimate the position and attitude of a moving object with high accuracy without using satellite signals.
本開示の第1態様は、複数の移動体が存在する環境において、前記複数の移動体毎に、移動体の種類を含む移動体情報を取得する移動体情報取得部と、前記複数の移動体毎に、移動体に搭載された撮影装置により周辺を撮影した撮影画像を示す画像情報を取得する画像情報取得部と、前記複数の移動体毎に、前記画像情報に基づいて、撮影画像を撮影した移動体を第1の移動体とし、かつ、前記第1の移動体で撮影された第2の移動体を検出する検出部と、前記画像情報に基づいて、前記検出部で検出された前記第2の移動体の種類を判別する判別部と、前記撮影画像上の前記第2の移動体を示す画像の位置に基づいて、前記第1の移動体から第2の移動体へ向かう方向を示す相対方位を特定する相対方位特定部と、前記移動体情報取得部、前記相対方位特定部、及び前記判別部の各情報を蓄積する蓄積部と、前記蓄積部に蓄積された情報に基づいて、前記検出部で検出された第2の移動体に、当該第2の移動体の種類に対応する種類の前記移動体情報を対応付ける対応付け部と、前記複数の移動体における前記第1の移動体から前記第2の移動体への前記相対方位及び前記対応付け部で対応付けられた前記移動体情報に基づいて、前記複数の移動体の間の相対的な位置及び姿勢を推定する相対位置姿勢推定部と、を備えた位置姿勢推定装置である。 A first aspect of the present disclosure includes, in an environment where a plurality of moving bodies are present, a moving body information acquisition unit that acquires, for each of the plurality of moving bodies, moving body information including the type of the moving body; an image information acquisition unit that acquires, for each of the plurality of moving bodies, image information indicating a captured image of the surroundings captured by an image capture device mounted on the moving body; a detection unit that, for each of the plurality of moving bodies, identifies the moving body that captured the captured image as a first moving body based on the image information and detects a second moving body captured by the first moving body; a discrimination unit that discriminates the type of the second moving body detected by the detection unit based on the image information; and a discrimination unit that discriminates the type of the second moving body detected by the detection unit based on the position of an image indicating the second moving body on the captured image. The position and orientation estimation device includes a relative orientation identification unit that identifies a relative orientation indicating a direction from a first moving body to a second moving body, a storage unit that accumulates information from the moving body information acquisition unit, the relative orientation identification unit, and the discrimination unit, a matching unit that matches the moving body information of a type corresponding to the type of the second moving body detected by the detection unit based on the information accumulated in the storage unit, and a relative position and orientation estimation unit that estimates the relative positions and orientations between the multiple moving bodies based on the relative orientation from the first moving body to the second moving body among the multiple moving bodies and the moving body information associated by the matching unit.
本開示の第2態様は、複数の移動体が存在する環境において、前記複数の移動体毎に、移動体の種類を含む移動体情報を取得する移動体情報取得部と、前記複数の移動体毎に、移動体に搭載された撮影装置により周辺を撮影した撮影画像を示す画像情報を取得する画像情報取得部と、前記移動体の形状を示すモデル情報を取得するモデル情報取得部と、前記複数の移動体毎に、前記画像情報に基づいて、撮影画像を撮影した移動体を第1の移動体とし、かつ、前記第1の移動体で撮影された第2の移動体を検出する検出部と、前記画像情報に基づいて、前記検出部で検出された前記第2の移動体の種類を判別する判別部と、前記撮影画像上の前記第2の移動体を示す画像の位置及び前記モデル情報取得部で取得されたモデル情報に基づいて、前記第1の移動体に対する第2の移動体の相対的な位置及び姿勢を特定する相対位置姿勢特定部と、前記移動体情報取得部、前記相対位置姿勢特定部、及び前記判別部の各情報を蓄積する蓄積部と、前記蓄積部に蓄積された情報に基づいて、前記検出部で検出された第2の移動体に、当該第2の移動体の種類に対応する種類の前記移動体情報を対応付ける対応付け部と、前記複数の移動体における前記第1の移動体に対する第2の移動体の相対的な位置及び姿勢と、前記対応付け部で対応付けられた前記移動体情報とに基づいて、前記複数の移動体の間の相対的な位置及び姿勢を推定する相対位置姿勢推定部と、を備えた位置姿勢推定装置である。 A second aspect of the present disclosure includes, in an environment where a plurality of moving bodies are present, a moving body information acquisition unit that acquires, for each of the plurality of moving bodies, moving body information including the type of the moving body, an image information acquisition unit that acquires, for each of the plurality of moving bodies, image information indicating a captured image of the surroundings captured by an image capture device mounted on the moving body, a model information acquisition unit that acquires model information indicating the shape of the moving body, a detection unit that, for each of the plurality of moving bodies, identifies the moving body that captured the captured image as a first moving body based on the image information and detects a second moving body captured by the first moving body, a discrimination unit that discriminates the type of the second moving body detected by the detection unit based on the image information, and a position of an image indicating the second moving body on the captured image and the model information. The position and orientation estimation device includes a relative position and orientation specification unit that specifies the relative position and orientation of the second moving body with respect to the first moving body based on model information acquired by an information acquisition unit; a storage unit that stores information from the moving body information acquisition unit, the relative position and orientation specification unit, and the discrimination unit; a matching unit that matches the moving body information of a type corresponding to the type of the second moving body detected by the detection unit based on the information stored in the storage unit; and a relative position and orientation estimation unit that estimates the relative positions and orientations between the multiple moving bodies based on the relative position and orientation of the second moving body with respect to the first moving body among the multiple moving bodies and the moving body information associated by the matching unit.
本開示の第3態様は、複数の移動体が存在する環境において、前記複数の移動体毎に、移動体の種類を含む移動体情報を取得する移動体情報取得部と、前記複数の移動体毎に、移動体に搭載された撮影装置により周辺を撮影した撮影画像を示す画像情報を取得する画像情報取得部と、前記移動体の形状を示すモデル情報を取得するモデル情報取得部と、前記環境を撮影する観測装置の位置及び姿勢を含む観測装置情報を取得する観測装置情報取得部と、前記観測装置で撮影された観測撮影画像を示す観測画像情報を取得する観測画像情報取得部と、前記移動体の形状を示すモデル情報を取得するモデル情報取得部と、前記観測装置及び前記複数の移動体毎に、前記画像情報に基づいて、撮影画像を撮影した観測装置及び移動体を観測体とし、かつ、前記観測体で撮影された被移動体を検出する検出部と、前記画像情報に基づいて、前記検出部で検出された前記被移動体の種類を判別する判別部と、前記撮影画像上の前記被移動体を示す画像の位置及び前記モデル情報取得部で取得されたモデル情報に基づいて、前記観測体に対する被移動体の相対的な位置及び姿勢を特定する相対位置姿勢特定部と、前記移動体情報取得部、前記相対位置姿勢特定部、及び前記判別部の各情報を蓄積する蓄積部と、前記蓄積部に蓄積された情報に基づいて、前記検出部で検出された被移動体に、当該被移動体の種類に対応する種類の前記移動体情報を対応付ける対応付け部と、前記複数の移動体における前記観測体に対する被移動体の相対的な位置及び姿勢と、前記対応付け部で対応付けられた前記移動体情報とに基づいて、前記複数の移動体の間の相対的な位置及び姿勢を推定する相対位置姿勢推定部と、を備えた位置姿勢推定装置である。 A third aspect of the present disclosure is a method for detecting a moving object, comprising: a moving object information acquisition unit that acquires, in an environment where a plurality of moving objects are present, moving object information including a type of the moving object for each of the plurality of moving objects; an image information acquisition unit that acquires, for each of the plurality of moving objects, image information indicating an image captured by an image capture device mounted on the moving object; a model information acquisition unit that acquires model information indicating the shape of the moving object; an observation device information acquisition unit that acquires observation device information including a position and an attitude of an observation device that captures the environment; an observation image information acquisition unit that acquires observation image information indicating the observation image captured by the observation device; a model information acquisition unit that acquires model information indicating the shape of the moving object; a detection unit that detects, for each of the observation device and the plurality of moving objects, a moving object captured by the observation device based on the image information; a discrimination unit that discriminates the type of the moved object detected by the detection unit based on the information; a relative position and orientation specification unit that specifies the relative position and orientation of the moved object with respect to the observed object based on the position of an image showing the moved object on the captured image and the model information acquired by the model information acquisition unit; a storage unit that stores information on the moving object information acquisition unit, the relative position and orientation specification unit, and the discrimination unit; a matching unit that matches the moving object information of a type corresponding to the type of the moved object with the moved object detected by the detection unit based on the information stored in the storage unit; and a relative position and orientation estimation unit that estimates the relative positions and orientations between the multiple moving objects based on the relative positions and orientations of the moved object with respect to the observed object among the multiple moving objects and the moving object information associated by the matching unit.
本開示の第4態様は、コンピュータを、複数の移動体が存在する環境において、前記複数の移動体毎に、移動体の種類を含む移動体情報を取得する移動体情報取得部、前記複数の移動体毎に、移動体に搭載された撮影装置により周辺を撮影した撮影画像を示す画像情報を取得する画像情報取得部、前記複数の移動体毎に、前記画像情報に基づいて、撮影画像を撮影した移動体を第1の移動体とし、かつ、前記第1の移動体で撮影された第2の移動体を検出する検出部、前記画像情報に基づいて、前記検出部で検出された前記第2の移動体の種類を判別する判別部、前記撮影画像上の前記第2の移動体を示す画像の位置に基づいて、前記第1の移動体から第2の移動体へ向かう方向を示す相対方位を特定する相対方位特定部、前記移動体情報取得部、前記相対方位特定部、及び前記判別部の各情報を蓄積する蓄積部、前記蓄積部に蓄積された情報に基づいて、前記検出部で検出された第2の移動体に、当該第2の移動体の種類に対応する種類の前記移動体情報を対応付ける対応付け部、
及び、前記複数の移動体における前記第1の移動体から前記第2の移動体への前記相対方位及び前記対応付け部で対応付けられた前記移動体情報に基づいて、前記複数の移動体の間の相対的な位置及び姿勢を推定する相対位置姿勢推定部、として機能させるためのプログラムである。
A fourth aspect of the present disclosure provides a computer in an environment where a plurality of moving bodies are present, comprising: a moving body information acquisition unit that acquires, for each of the plurality of moving bodies, moving body information including a type of the moving body; an image information acquisition unit that acquires, for each of the plurality of moving bodies, image information indicating a captured image of the surroundings captured by an imaging device mounted on the moving body; a detection unit that, for each of the plurality of moving bodies, identifies a moving body that captured an image as a first moving body based on the image information and detects a second moving body captured by the first moving body based on the image information; a discrimination unit that discriminates the type of the second moving body detected by the detection unit based on the image information; a relative orientation identification unit that identifies a relative orientation indicating a direction from the first moving body to the second moving body based on a position of an image indicating the second moving body on the captured image; a storage unit that accumulates information on the moving body information acquisition unit, the relative orientation identification unit, and the discrimination unit; and an association unit that associates the moving body information of a type corresponding to the type of the second moving body with the second moving body detected by the detection unit based on the information accumulated in the accumulation unit.
and a relative position and attitude estimation unit that estimates the relative position and attitude between the multiple moving bodies based on the relative orientation from the first moving body to the second moving body among the multiple moving bodies and the moving body information that has been associated by the association unit.
以上説明したように、本発明によれば、衛星信号を用いることなく、高い精度で移動体の位置及び姿勢を推定することができる。 As described above, the present invention makes it possible to estimate the position and attitude of a moving object with high accuracy without using satellite signals.
以下、図面を参照して本開示の技術を実現する実施形態を詳細に説明する。
本実施形態では、自動車等の車両を移動体の一例とする場合について説明する。
なお、本実施形態では、作用、機能が同じ働きを担う構成要素及び処理には、全図面を通して同じ符合を付与し、重複する説明を適宜省略する場合がある。各図面は、本開示の技術を十分に理解できる程度に、概略的に示してあるに過ぎない。よって、本開示の技術は、図示例のみに限定されるものではない。また、本実施形態では、本発明と直接的に関連しない構成や周知な構成については、説明を省略する場合がある。
Hereinafter, embodiments for implementing the technology of the present disclosure will be described in detail with reference to the drawings.
In this embodiment, a case will be described in which a vehicle such as an automobile is taken as an example of a moving body.
In this embodiment, components and processes that have the same action and function are given the same reference numerals throughout the drawings, and duplicated explanations may be omitted as appropriate. Each drawing is merely a schematic illustration to the extent that the technology of the present disclosure can be fully understood. Therefore, the technology of the present disclosure is not limited to only the illustrated examples. In addition, in this embodiment, explanations of configurations that are not directly related to the present invention or well-known configurations may be omitted.
[第1実施形態]
図1は、第1実施形態に係る位置姿勢推定装置10Aの構成の一例を示すブロック図である。
図1に示すように、本実施形態に係る位置姿勢推定装置10Aは、車両情報取得部12、画像情報取得部14、車両検出部16、相対方位推定部18、車種判別部20、情報共有部22、対応付け部24、及び相対位置姿勢全体最適化部26を備えている。
[First embodiment]
FIG. 1 is a block diagram showing an example of the configuration of a position and orientation estimation device 10A according to the first embodiment.
As shown in FIG. 1, a position and attitude estimation device 10A according to this embodiment includes a vehicle information acquisition unit 12, an image information acquisition unit 14, a vehicle detection unit 16, a relative orientation estimation unit 18, a vehicle type discrimination unit 20, an information sharing unit 22, a matching unit 24, and a relative position and attitude overall optimization unit 26.
図2は、第1実施形態に係る位置姿勢推定装置10Aとして機能するコンピュータの構成の一例を示すブロック図である。 Figure 2 is a block diagram showing an example of the configuration of a computer that functions as the position and orientation estimation device 10A according to the first embodiment.
図2に示すように、位置姿勢推定装置10Aとして機能するコンピュータは、CPU(Central Processing Unit)31、RAM(Random Access Memory)32、およびROM(Read Only Memory)33を備えた汎用的なコンピュータ本体30を含んで構成されている。ROM33には、位置姿勢推定処理プログラム33Pが格納されている。コンピュータ本体30は、入出力インタフェース(I/O)34を備えており、CPU31、RAM32、ROM33、及びI/O34は各々コマンド及びデータを授受可能にバス35を介して接続されている。また、I/O34には、移動体の一例である車両40等の外部装置と例えば無線通信により通信する通信部36が接続されている。 As shown in FIG. 2, the computer functioning as the position and orientation estimation device 10A includes a general-purpose computer main unit 30 equipped with a CPU (Central Processing Unit) 31, a RAM (Random Access Memory) 32, and a ROM (Read Only Memory) 33. A position and orientation estimation processing program 33P is stored in the ROM 33. The computer main unit 30 includes an input/output interface (I/O) 34, and the CPU 31, RAM 32, ROM 33, and I/O 34 are connected via a bus 35 so that commands and data can be exchanged. A communication unit 36 is also connected to the I/O 34, which communicates with an external device such as a vehicle 40, which is an example of a moving body, for example by wireless communication.
位置姿勢推定処理プログラム33Pは、例えば、位置姿勢推定装置10Aに予めインストールされていてもよい。また、位置姿勢推定処理プログラム33Pは、不揮発性の記憶媒体に記憶して、又はネットワークを介して配布し、位置姿勢推定装置10Aに適宜インストールすることで実現してもよい。なお、不揮発性の記憶媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD(Hard Disk Drive)、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。 The position and orientation estimation processing program 33P may be pre-installed in the position and orientation estimation device 10A, for example. The position and orientation estimation processing program 33P may also be realized by storing it in a non-volatile storage medium or distributing it via a network and installing it appropriately in the position and orientation estimation device 10A. Examples of non-volatile storage media include a CD-ROM (Compact Disc Read Only Memory), a magneto-optical disk, a HDD (Hard Disk Drive), a DVD-ROM (Digital Versatile Disc Read Only Memory), a flash memory, a memory card, etc.
コンピュータ本体30は、位置姿勢推定処理プログラム33PがROM33から読み出されてRAM32に展開され、RAM32に展開された位置姿勢推定処理プログラム33PがCPU31によって実行されることで、図1に示す位置姿勢推定装置10Aとして動作する。なお、位置姿勢推定処理プログラム33Pは、図1に示す位置姿勢推定装置10Aの各部を実現するためのプロセスを含む。すなわち、CPU30は、図1に示す車両情報取得部12、画像情報取得部14、車両検出部16、相対方位推定部18、車種判別部20、情報共有部22、対応付け部24、及び相対位置姿勢全体最適化部26として機能する。 The computer main body 30 operates as the position and attitude estimation device 10A shown in FIG. 1 by reading the position and attitude estimation processing program 33P from the ROM 33 and expanding it in the RAM 32, and executing the position and attitude estimation processing program 33P expanded in the RAM 32 by the CPU 31. The position and attitude estimation processing program 33P includes processes for realizing each part of the position and attitude estimation device 10A shown in FIG. 1. That is, the CPU 30 functions as the vehicle information acquisition unit 12, the image information acquisition unit 14, the vehicle detection unit 16, the relative orientation estimation unit 18, the vehicle type discrimination unit 20, the information sharing unit 22, the association unit 24, and the relative position and attitude overall optimization unit 26 shown in FIG. 1.
位置姿勢推定装置10Aは、移動体の一例である車両40から各種の情報を取得する。
本実施形態では、位置姿勢推定装置10Aが外部の車両40と通信して情報を授受する場合を一例として説明する。しかし、本開示の技術は、位置姿勢推定装置10Aが車両40外部に設置されることに限定されない。例えば、位置姿勢推定装置10Aは車両40に搭載(すなわち車両40の内部に設置)されてもよい。
The position and attitude estimation device 10A acquires various types of information from a vehicle 40, which is an example of a moving body.
In this embodiment, a case will be described as an example in which the position and orientation estimation device 10A communicates with an external vehicle 40 to exchange information. However, the technology disclosed herein is not limited to the position and orientation estimation device 10A being installed outside the vehicle 40. For example, the position and orientation estimation device 10A may be mounted on the vehicle 40 (i.e., installed inside the vehicle 40).
車両40は、カメラ42、メモリ44及び通信部46を備えている。通信部46は、カメラ42及びメモリ44に接続されている。カメラ42は、撮影装置の一例であり、車両40の周辺を撮影する。なお、カメラ42は、1台でもよいし、複数台でもよい。また、カメラ42の撮影範囲は、車両40から何れの方向に向いてもよく、車両40の進行方向(前方)、横向き、後ろ向き及び全方位の少なくとも1つの方位であればよい。また、カメラ42の画角及び解像度は、予め設定されてもよく、入力された任意の設定値に設定されてもよい。なお、カメラ42で撮影されて得られた画像情報は、メモリ44に記憶することが可能である。 The vehicle 40 is equipped with a camera 42, a memory 44, and a communication unit 46. The communication unit 46 is connected to the camera 42 and the memory 44. The camera 42 is an example of an imaging device, and captures images of the periphery of the vehicle 40. There may be one camera 42 or multiple cameras. The imaging range of the camera 42 may face in any direction from the vehicle 40, and may be at least one of the traveling direction (forward), sideways, backward, and all directions of the vehicle 40. The angle of view and resolution of the camera 42 may be set in advance, or may be set to any input setting value. The image information captured by the camera 42 can be stored in the memory 44.
メモリ44には、自車の車種を含む車両情報が格納される。車両情報には、自車の色、型式、ナンバープレートなどの情報を含むことが可能である。なお、車両情報には、車両40に搭載された図示しないセンサによって、例えば、操舵角、車速、ヨーレート、ピッチ角速度、ロール角速度等の角速度を含めてもよい。 Memory 44 stores vehicle information including the vehicle model. The vehicle information can include information such as the vehicle's color, model, and license plate. The vehicle information may also include angular velocities such as steering angle, vehicle speed, yaw rate, pitch angular velocity, and roll angular velocity, which are obtained by a sensor (not shown) mounted on vehicle 40.
通信部46は、位置姿勢推定装置10A及び他の車両等の外部装置と例えば無線通信によって、カメラ42で撮影された画像を示す画像情報及びメモリ44に記憶された車両情報を通信する。 The communication unit 46 communicates image information showing images captured by the camera 42 and vehicle information stored in the memory 44 with the position and orientation estimation device 10A and external devices such as other vehicles, for example via wireless communication.
本実施形態では、複数の車両40が走行又は存在する交通環境において、位置姿勢推定装置10Aが複数の車両40の各々から情報を取得する場合を説明する(図3も参照)。 In this embodiment, a case will be described in which the position and attitude estimation device 10A acquires information from each of the multiple vehicles 40 in a traffic environment in which multiple vehicles 40 are traveling or present (see also FIG. 3).
なお、位置姿勢推定装置10Aが、予め定めた所定範囲の車両40に対して通信可能な通信機能を有することで、その所定範囲内に存在する複数の車両40の各々から、情報を取得することが可能となる。これによって、位置姿勢推定装置10Aは、後述するように、所定範囲内に存在する複数の車両40の各々の相対的な位置及び姿勢を推定することが可能となる。 Note that the position and attitude estimation device 10A has a communication function that allows it to communicate with vehicles 40 within a predetermined range, making it possible to acquire information from each of the multiple vehicles 40 that exist within the predetermined range. This allows the position and attitude estimation device 10A to estimate the relative position and attitude of each of the multiple vehicles 40 that exist within the predetermined range, as described below.
図3は、複数の車両40が走行する交通環境の一例を示すイメージ図である。
図3に示す交通環境では、複数の車両40として、5台の車両40A、40B、40C、40D、40Eが存在している。車両40A~40Eの各々は、カメラ42、メモリ44及び通信部46を備えている。なお、複数の車両40の各々を区別が必要な場合は符号40A~40Eの何れかを付して説明するが、区別不要の場合は車両40と称して説明する。
FIG. 3 is an image diagram showing an example of a traffic environment in which a plurality of vehicles 40 are traveling.
3, there are five vehicles 40A, 40B, 40C, 40D, and 40E as the multiple vehicles 40. Each of the vehicles 40A to 40E is equipped with a camera 42, a memory 44, and a communication unit 46. When it is necessary to distinguish between the multiple vehicles 40, they will be described using one of the symbols 40A to 40E, but when it is not necessary to distinguish between them, they will be described simply as vehicle 40.
位置姿勢推定装置10Aの車両情報取得部12は、移動体情報取得部の一例であり、画像情報取得部14は、画像情報取得部の一例である。車両情報取得部12は、5台の車両40A~40Eの各々のメモリ44に記憶された車両情報の各々を取得する。画像情報取得部14は、5台の車両40A~40Eの各々のカメラ42により撮影された車両40の周辺の画像情報を取得する。なお、車両情報取得部12で取得される車両情報と、画像情報取得部14で取得される画像情報とは、関連付けられているものとする。すなわち、画像情報は、取得された車両情報の車両40から取得されたものである。 The vehicle information acquisition unit 12 of the position and attitude estimation device 10A is an example of a moving object information acquisition unit, and the image information acquisition unit 14 is an example of an image information acquisition unit. The vehicle information acquisition unit 12 acquires each of the vehicle information stored in the memory 44 of each of the five vehicles 40A-40E. The image information acquisition unit 14 acquires image information of the surroundings of the vehicle 40 captured by the camera 42 of each of the five vehicles 40A-40E. Note that the vehicle information acquired by the vehicle information acquisition unit 12 and the image information acquired by the image information acquisition unit 14 are assumed to be associated with each other. In other words, the image information is acquired from the vehicle 40 of the acquired vehicle information.
車両検出部16は、検出部の一例である。車両検出部16は、画像情報取得部14で取得された画像情報を用いて撮影画像中からカメラ42により撮影された他の車両40を検出する。例えば、他の車両40の検出は、撮影画像において車両40を撮影した画像に相当する予め定めた形状の画像領域を、他の車両40を示す車両領域として検出する手法が挙げられる。車両検出部16の検出結果は、相対方位推定部18及び車種判別部20へ出力される。この車両検出部16の検出結果を示す情報は、検出された他の車両40の輪郭線内の領域を示す画像情報を他車両画像を示す他車両画像情報として出力する。車両領域の検出手法としては多様な手法が提案されている。例えば、車両領域の検出手法として、予め学習済みのニューラルネットワークを用いて車両領域を検出すればよく、また、その他の手法を用いてもよい。 The vehicle detection unit 16 is an example of a detection unit. The vehicle detection unit 16 detects the other vehicle 40 captured by the camera 42 from the captured image using the image information acquired by the image information acquisition unit 14. For example, the detection of the other vehicle 40 may be performed by detecting an image area of a predetermined shape corresponding to an image of the vehicle 40 in the captured image as a vehicle area indicating the other vehicle 40. The detection result of the vehicle detection unit 16 is output to the relative orientation estimation unit 18 and the vehicle type discrimination unit 20. Information indicating the detection result of the vehicle detection unit 16 is output as other vehicle image information indicating the other vehicle image, which is image information indicating the area within the contour line of the detected other vehicle 40. Various methods have been proposed as a method for detecting the vehicle area. For example, a vehicle area may be detected using a neural network that has been trained in advance, or other methods may be used.
相対方位推定部18は、相対方位特定部の一例である。相対方位推定部18は、複数の車両40毎に取得された画像情報を用いて車両検出部16で検出された他の車両40について、撮影画像における他の車両40の車両位置に基づいて、自車両(第1の移動体)との相対的な方位を推定する。具体的には、例えば、撮影画像の水平方向の画角がθ、画素数がNとし、車両検出部16で検出した他の車両40(第2の移動体)を示す他車両画像の重心位置のX座標が撮影画像における画像中心部から距離Δxだけずれていた場合、撮影した自車両からの相対方位はΔx×θ/Nと表すことが可能である。この他車両画像の重心位置は、自車両で撮影された他車両の方位を2次元的に示す特徴点の一例である。また、撮影画像における画像中心部は、周囲を撮影した車両40(自車両)の方位を2次元的に示す基準点の一例である。 The relative orientation estimation unit 18 is an example of a relative orientation identification unit. The relative orientation estimation unit 18 estimates the relative orientation of the other vehicles 40 detected by the vehicle detection unit 16 relative to the vehicle (first moving body) based on the vehicle position of the other vehicles 40 in the captured image using image information acquired for each of the multiple vehicles 40. Specifically, for example, if the horizontal angle of view of the captured image is θ, the number of pixels is N, and the X coordinate of the center of gravity of the other vehicle image showing the other vehicle 40 (second moving body) detected by the vehicle detection unit 16 is shifted by a distance Δx from the center of the image in the captured image, the relative orientation from the captured vehicle can be expressed as Δx×θ/N. The center of gravity of the other vehicle image is an example of a feature point that two-dimensionally indicates the orientation of the other vehicle captured by the vehicle. Also, the center of the image in the captured image is an example of a reference point that two-dimensionally indicates the orientation of the vehicle 40 (the vehicle) that captured the surroundings.
車種判別部20は、判別部の一例である。車種判別部20は、複数の車両40毎に取得された画像情報を用いて車両検出部16で検出された1又は複数の他の車両について、それぞれの車種を判別する。車種の判別は、検出された他の車両40の輪郭線内の領域画像に対応する車種を特定する判別手法を用いれば良い。車種の判別手法としては多様な手法が提案されている。例えば、車種の判別手法として、予め学習済みのニューラルネットワークなどを用いて車種の判別を行えばよく、また、その他の判別手法を用いてもよい。車種判別部20は、撮影画像中の他の車両40に対して、少なくとも車種を判別すればよい。なお、車種に加えて、車両40の色、型式、及びナンバープレートによる車両番号などの個体識別可能な詳細情報を含めてもよい。 The vehicle type discrimination unit 20 is an example of a discrimination unit. The vehicle type discrimination unit 20 discriminates the vehicle type of each of one or more other vehicles detected by the vehicle detection unit 16 using image information acquired for each of the multiple vehicles 40. The vehicle type can be discriminated by using a discrimination method that identifies the vehicle type corresponding to the area image within the contour line of the detected other vehicle 40. Various methods have been proposed as a vehicle type discrimination method. For example, a pre-trained neural network or other discrimination method may be used as a vehicle type discrimination method. The vehicle type discrimination unit 20 only needs to discriminate at least the vehicle type of the other vehicles 40 in the captured image. In addition to the vehicle type, detailed information that can be individually identified, such as the color, model, and vehicle number of the vehicle 40 based on the license plate, may also be included.
情報共有部22は、蓄積部の一例である。情報共有部22は、複数の車両40各々による車両情報取得部12で取得された車両情報、車種判別部20で判別された車種情報、相対方位推定部18で推定された相対方位を示す情報を、複数の車両40毎に関連付けて記憶する。すなわち、情報共有部22は、複数の車両40毎に、取得された情報を用いて、撮影画像を撮影した車両(自車両)の車両情報と、撮影画像に含まれる車両(他車両)の車種情報と、自車両から他車両への相対方位を示す情報を記憶する。複数の車両40各々の情報を、例えば、1つのデータベースに登録することで、そのデータベースに複数の車両40に関する情報が集約される。複数の車両40各々による車両情報、車種情報及び相対方位を示す情報は、RAM32に記憶してもよく、さらに補助記憶装置(図示省略)を備えて記憶してもよい。これらの情報は、位置姿勢推定装置10AにおけるRAM32及び補助記憶装置に記憶することに限定されない。例えば、通信を用いて外部サーバ等の外部装置に情報を送信し記憶させることで情報を集約してもよく、複数の車両40の何れかに送信し記憶させることで情報を集約してもよい。 The information sharing unit 22 is an example of a storage unit. The information sharing unit 22 stores the vehicle information acquired by the vehicle information acquisition unit 12 for each of the multiple vehicles 40, the vehicle type information determined by the vehicle type determination unit 20, and information indicating the relative direction estimated by the relative direction estimation unit 18 in association with each of the multiple vehicles 40. That is, the information sharing unit 22 uses the acquired information for each of the multiple vehicles 40 to store the vehicle information of the vehicle (own vehicle) that captured the captured image, the vehicle type information of the vehicle (other vehicle) included in the captured image, and information indicating the relative direction from the own vehicle to the other vehicle. By registering the information of each of the multiple vehicles 40 in, for example, one database, information on the multiple vehicles 40 is aggregated in the database. The vehicle information, vehicle type information, and information indicating the relative direction for each of the multiple vehicles 40 may be stored in the RAM 32, or may be stored in an auxiliary storage device (not shown). This information is not limited to being stored in the RAM 32 and the auxiliary storage device in the position and attitude estimation device 10A. For example, information may be aggregated by transmitting the information to an external device such as an external server via communication and storing the information therein, or by transmitting the information to one of a plurality of vehicles 40 and storing the information therein.
対応付け部24は、対応付け部の一例である。対応付け部24は、各車両40の撮影画像内に含まれる他車両画像が示す他車両を特定する対応付けが行われる。例えば、車両40A~40Eが存在する交通環境(図3)において、車両40Aによる撮影画像に2台の他車両が撮影されている場合、車両40Aについての車種判別部20による他車両の車種を示す情報と複数の車両40から取得した車両情報取得部12による車種を示す情報を照合する。そして、一致する車種を示す情報の組み合わせによって撮影画像内に存在する他車両に、当該他車両に対応する車両40が所持する情報を対応付ける。これによって、車両40Aにより撮影された2台の他車両は、例えば、「車両40Bと車両40Cである」と特定でき、自車両による撮影画像内に存在する他車両に対して、当該他車両が所持する情報を対応付けることができる。 The matching unit 24 is an example of a matching unit. The matching unit 24 performs matching to identify other vehicles indicated by other vehicle images included in the captured images of each vehicle 40. For example, in a traffic environment (FIG. 3) in which vehicles 40A to 40E exist, when two other vehicles are captured in an image captured by vehicle 40A, information indicating the vehicle type of the other vehicles by the vehicle type discrimination unit 20 for vehicle 40A is compared with information indicating the vehicle type by the vehicle information acquisition unit 12 acquired from the multiple vehicles 40. Then, the information held by the vehicle 40 corresponding to the other vehicles is matched to the other vehicles present in the captured image by combining information indicating matching vehicle types. As a result, the two other vehicles captured by vehicle 40A can be identified as, for example, "vehicle 40B and vehicle 40C," and the information held by the other vehicles can be matched to the other vehicles present in the image captured by the vehicle itself.
なお、車種を示す情報の照合結果が複数の組み合わせが存在する場合は、色、型式、及びナンバープレートによる車両番号等の少なくとも1つの情報を追加して対応関係を絞り込めばよい。 If there are multiple combinations of vehicle model information, the matching results can be narrowed down by adding at least one piece of information such as color, model, and vehicle number from the license plate.
相対位置姿勢全体最適化部26は、相対位置姿勢推定部の一例である。相対位置姿勢全体最適化部26は、複数の車両40A~40Eのそれぞれの車両間の相対的な位置及び姿勢を推定する。この相対位置姿勢全体最適化部26は、相対方位推定部18で車両毎に推定した自車両から他車両への相対方位、及び対応付け部24で推定した撮影画像内の他車両に対応付けられた情報が極力矛盾なく整合するように、複数の車両40A~40Eの相対的な位置及び姿勢を算出する。本実施形態では、以下に示す位置姿勢推定手法を適用する。 The relative position and attitude overall optimization unit 26 is an example of a relative position and attitude estimation unit. The relative position and attitude overall optimization unit 26 estimates the relative position and attitude between each of the multiple vehicles 40A to 40E. This relative position and attitude overall optimization unit 26 calculates the relative positions and attitudes of the multiple vehicles 40A to 40E so that the relative orientation from the subject vehicle to the other vehicles estimated for each vehicle by the relative orientation estimation unit 18, and the information associated with the other vehicles in the captured images estimated by the association unit 24, are consistent as much as possible without inconsistencies. In this embodiment, the position and attitude estimation method shown below is applied.
複数の車両40の各々の水平面内における相対的な位置及び姿勢角の関係式(観測方程式)は、次の(1)式で表される。この(1)式で表される関数f(X)は二次元ベクトルX=(x,y)からθ=arctan(y/x)を算出し、θを出力する関数である。 The relational equation (observation equation) between the relative positions and attitude angles of each of the multiple vehicles 40 in the horizontal plane is expressed by the following equation (1). The function f(X) expressed by equation (1) is a function that calculates θ=arctan(y/x) from the two-dimensional vector X=(x,y) and outputs θ.
ここで、Xは車両40の位置(水平面内の2次元位置)を示し、θは車両40の姿勢角を示す。iは、撮影画像を撮影した車両40(自車両)、jは撮影画像に含まれる車両40(他車両)を示す。Δθin,jnは、自車両inの撮影画像から推定した他車両jnへの相対方位を示す。添え字のnは、観測数を示す。 Here, X indicates the position of the vehicle 40 (two-dimensional position in a horizontal plane), and θ indicates the attitude angle of the vehicle 40. i indicates the vehicle 40 (host vehicle) that captured the captured image, and j indicates the vehicle 40 (other vehicle) included in the captured image. Δθ in,jn indicates the relative direction of the host vehicle in to the other vehicle jn estimated from the captured image. The subscript n indicates the number of observations.
具体的に図3に示す例では、複数の車両40A~40Eの位置(水平面内の2次元位置)、及び姿勢角をそれぞれX1~X5、θ1~θ5とする。ここでは水平面内における座標系の原点を車両40Aに装備されたカメラ42の位置X1に設定し、そのカメラ42の向きθ1と座標軸とを一致させて設定したものとする。すなわち、車両40Aの位置及び姿勢角を、[X1,θ1]=[0,0]と表すこととする。車両40B~40Eの位置及び姿勢角も同様に、車両40Bについて[X2,θ2]、車両40Cについて[X3,θ3]、車両40Dについて[X4,θ4]、車両40Eについて[X5,θ5]と表すこととする。また、自車両inの撮影画像から推定した他車両jnへの相対方位をΔθin,jnとする。なお、ここでは、車両40B~40Eに装備されたカメラ42の向きは、車両40Aと同じであることとする。 Specifically, in the example shown in FIG. 3, the positions (two-dimensional positions in a horizontal plane) and attitude angles of the vehicles 40A to 40E are X 1 to X 5 and θ 1 to θ 5 , respectively. Here, the origin of the coordinate system in the horizontal plane is set to the position X 1 of the camera 42 mounted on the vehicle 40A, and the orientation θ 1 of the camera 42 is set to coincide with the coordinate axis. That is, the position and attitude angle of the vehicle 40A are expressed as [X 1 , θ 1 ] = [0, 0]. Similarly, the positions and attitude angles of the vehicles 40B to 40E are expressed as [X 2 , θ 2 ] for the vehicle 40B, [X 3 , θ 3 ] for the vehicle 40C, [X 4 , θ 4 ] for the vehicle 40D, and [X 5 , θ 5 ] for the vehicle 40E. In addition, the relative orientation of the vehicle in to the other vehicle jn estimated from the captured image is Δθ in,jn . It is assumed here that the orientation of the cameras 42 mounted on the vehicles 40B to 40E is the same as that of the vehicle 40A.
また、対応付け部24において対応付けられた対応付け情報を(in,jn)とする。(in,jn)は自車両iの撮影画像に写る他車両はjであるという情報を全車両の観測数分(n個)格納したものである。なお、ここでは、対応付け部24において、次に示す13個の対応付けが行われたものとする。
(in,jn)=([1,2],[1,3],[3,2],[2,4],[4,1],[4,2],[3,4],[4,3],[2,5]
,[3,5],[5,2],[5,3],[5,4])
The association information associated by the association unit 24 is represented as (in, jn). (in, jn) stores information indicating that the other vehicle shown in the image captured by the host vehicle i is j, the number of pieces being the number of observed vehicles (n items). It is assumed here that the association unit 24 has performed the following 13 associations.
(in,jn) = ([1,2],[1,3],[3,2],[2,4],[4,1],[4,2],[3,4],[4,3],[2,5]
,[3,5],[5,2],[5,3],[5,4])
図3に示す例において、13個の対応付けが行われた場合、(1)式が成立する。(1)式において、未知数は車両40B~40Eの位置X2,X3,X4,X5、及び姿勢角θ2,θ3,θ4,θ5の12個(2×4+1×4=12)である。一方、観測方程式の数は13個((in,jn)の要素数)である。このため、対応付け部24の対応付けの結果を用いた連立方程式を解くことで、未知数を得ることができる。よって、相対位置姿勢全体最適化部26は、対応付け部24の対応付けの結果を示す情報、及び(1)式を用いて複数の車両40A~40Eの相対的な位置及び姿勢を推定できる。なお、観測方程式の冗長性を伴うため、最小二乗法などの計算手法を用いることで精度良い解を得ることができる。 In the example shown in FIG. 3, when 13 correspondences are made, formula (1) is established. In formula (1), the unknowns are 12 (2×4+1×4=12), which are the positions X 2 , X 3 , X 4 , and X 5 of the vehicles 40B to 40E, and the attitude angles θ 2 , θ 3 , θ 4 , and θ 5. On the other hand, the number of observation equations is 13 (the number of elements of (in, jn)). Therefore, the unknowns can be obtained by solving simultaneous equations using the result of the correspondences made by the correspondence unit 24. Therefore, the relative position and attitude overall optimization unit 26 can estimate the relative positions and attitudes of the multiple vehicles 40A to 40E using information indicating the result of the correspondences made by the correspondence unit 24 and formula (1). Note that, since the observation equations are redundant, a solution with good accuracy can be obtained by using a calculation method such as the least squares method.
このように、相対位置姿勢全体最適化部26は、車両毎に推定した自車両から他車両への相対方位、及び各撮影画像内の他車両に対応付けられた情報が矛盾なく整合するように、例えば、5台の車両40A~40Eの車両間の相対的な位置及び姿勢を推定する。この車両毎に推定した自車両から他車両への相対方位及び各撮影画像内の他車両に対応付けられた情報が矛盾なく整合するとは、5台の車両40A~40Eの各々が、自車両と各画像に撮影された他車両の各々の関係から、推定された方位及び姿勢角で存在する幾何学的な相対位置及び姿勢角の対応関係にあることである。このことは、上記の(1)式からも明らかである。 In this way, the relative position and attitude overall optimization unit 26 estimates the relative positions and attitudes between, for example, five vehicles 40A-40E, so that the relative orientation from the own vehicle to the other vehicles estimated for each vehicle and the information associated with the other vehicles in each captured image are consistent without contradictions. The relative orientation from the own vehicle to the other vehicles estimated for each vehicle and the information associated with the other vehicles in each captured image are consistent without contradictions means that each of the five vehicles 40A-40E is in a geometrical relative position and attitude angle correspondence that exists at the estimated orientation and attitude angle based on the relationship between the own vehicle and each of the other vehicles captured in each image. This is also clear from the above formula (1).
本実施形態によれば、複数の車両40毎に撮影画像から自車両に対する他車両の相対的な方位及び他車両の車種を特定し、その情報と複数の車両40の各々から取得した車種を含む車両情報とを対応付け、複数の車両40の間の相対的な位置及び姿勢を推定する。これにより、GPSによる衛星信号の利用が困難な場合であっても、複数の車両40の各々の位置及び姿勢を特定するために不足する情報が補われるため、複数の車両40の間の相対的な位置及び姿勢を高精度に推定することができる。 According to this embodiment, the relative orientation of the other vehicles with respect to the vehicle itself and the vehicle type of the other vehicles are identified from the captured images of each of the multiple vehicles 40, and this information is associated with vehicle information including the vehicle type acquired from each of the multiple vehicles 40, and the relative positions and attitudes between the multiple vehicles 40 are estimated. As a result, even when it is difficult to use GPS satellite signals, the information that is lacking for identifying the position and attitude of each of the multiple vehicles 40 is compensated for, so that the relative positions and attitudes between the multiple vehicles 40 can be estimated with high accuracy.
なお、上記では水平面内における2次元的な位置及び姿勢角の推定について説明したが、同様の計算で3次元への拡張も容易に行うことも可能である。 Note that while the above describes the estimation of two-dimensional position and attitude angle in a horizontal plane, it is also possible to easily extend the calculation to three dimensions.
次に、図4を参照して、第1実施形態に係る位置姿勢推定装置10Aの作用を説明する。なお、図4は、第1実施形態に係る位置姿勢推定処理プログラムの処理の流れの一例を示すフローチャートである。 Next, the operation of the position and orientation estimation device 10A according to the first embodiment will be described with reference to FIG. 4. FIG. 4 is a flowchart showing an example of the processing flow of the position and orientation estimation processing program according to the first embodiment.
まず、図4のステップS100では、車両情報取得部12が、車両40に搭載されたメモリ44に格納された車両情報を取得する。 First, in step S100 of FIG. 4, the vehicle information acquisition unit 12 acquires vehicle information stored in the memory 44 installed in the vehicle 40.
ステップS102では、画像情報取得部14が、車両40に搭載されたカメラ42により車両40の周辺を撮影した画像を画像情報として取得する。 In step S102, the image information acquisition unit 14 acquires images of the surroundings of the vehicle 40 captured by the camera 42 mounted on the vehicle 40 as image information.
ステップS104では、車両検出部16が、画像情報取得部14により取得された画像情報を用いて、撮影画像における車両、すなわち、自車両から撮影された他車両を検出する。 In step S104, the vehicle detection unit 16 uses the image information acquired by the image information acquisition unit 14 to detect vehicles in the captured image, i.e., other vehicles photographed from the host vehicle.
ステップS106では、相対方位推定部18が、車両検出部16で検出された車両40(他車両)の撮影画像における2次元位置(特徴点)と、撮影した車両40(自車両)の撮影画像における2次元位置(基準点)との距離を用いて自車両から他車両への相対的な方位を推定する。 In step S106, the relative orientation estimation unit 18 estimates the relative orientation of the vehicle to the other vehicle using the distance between the two-dimensional position (feature point) in the captured image of the vehicle 40 (other vehicle) detected by the vehicle detection unit 16 and the two-dimensional position (reference point) in the captured image of the vehicle 40 (the vehicle itself).
ステップS108では、車種判別部20が、車両検出部16で検出された車両40(他車両)について、撮影画像における車両40の輪郭線内の領域画像に対応する車種を特定する判別手法を用いて、車種を判別する。このステップS108では、車種に加えて、車両40の色、型式、及びナンバープレートによる車両番号などの個体識別可能な詳細情報を含めることができる。 In step S108, the vehicle type discrimination unit 20 discriminates the vehicle type of the vehicle 40 (other vehicle) detected by the vehicle detection unit 16 using a discrimination method that identifies the vehicle type corresponding to the area image within the contour line of the vehicle 40 in the captured image. In this step S108, in addition to the vehicle type, detailed information that can individually identify the vehicle 40, such as the color, model, and vehicle number from the license plate, can be included.
ステップS110では、情報共有部22が、車両情報取得部12で取得された車両情報、車種判別部20で判別された車種情報、相対方位推定部18で推定された相対方位を示す情報を、複数の車両40毎に関連付けて記憶、例えばデータベースに登録することで情報を共有する。 In step S110, the information sharing unit 22 stores the vehicle information acquired by the vehicle information acquisition unit 12, the vehicle type information determined by the vehicle type determination unit 20, and information indicating the relative direction estimated by the relative direction estimation unit 18 in association with each of the multiple vehicles 40, for example by registering the information in a database, thereby sharing the information.
これまでの処理は、複数の車両40A~40E毎に行われる。 The above processing is carried out for each of the multiple vehicles 40A to 40E.
ステップS112では、対応付け部24が、撮影画像中で推定された他車両の車種と、その撮影画像を得た車両以外の車両から取得した車両情報との対応付けを行う。 In step S112, the matching unit 24 matches the vehicle type of the other vehicle estimated in the captured image with vehicle information obtained from a vehicle other than the vehicle from which the captured image was obtained.
ステップS114では、相対位置姿勢全体最適化部26が、相対方位推定部18で車両毎に推定した自車両から他車両への相対方位、及び対応付け部24で推定した撮影画像内の他車両に対応付けられた情報に基づいて、上述の(1)式を用いて、複数の車両40A~40Eのそれぞれの車両間の相対的な位置及び姿勢を推定する最適化を行う。 In step S114, the relative position and attitude overall optimization unit 26 optimizes the estimation of the relative positions and attitudes between each of the multiple vehicles 40A to 40E using the above formula (1) based on the relative orientation from the vehicle to the other vehicles estimated for each vehicle by the relative orientation estimation unit 18 and the information associated with the other vehicles in the captured image estimated by the association unit 24.
[第2実施形態]
図5は、第2実施形態に係る位置姿勢推定装置10Bの構成の一例を示すブロック図である。
図5に示すように、本実施形態に係る位置姿勢推定装置10Bは、第1実施形態における相対方位推定部18に代えて相対位置姿勢推定部17を備えている。この相対位置姿勢推定部17には、車両モデル情報取得部13が接続されている。これ以外の構成については、第1実施形態の構成と同様であるので、同様な部分には同一の符号を付して詳細な説明を省略する。
[Second embodiment]
FIG. 5 is a block diagram showing an example of the configuration of a position and orientation estimation device 10B according to the second embodiment.
5, a position and attitude estimation device 10B according to this embodiment includes a relative position and attitude estimation unit 17 instead of the relative orientation estimation unit 18 in the first embodiment. A vehicle model information acquisition unit 13 is connected to this relative position and attitude estimation unit 17. Since the rest of the configuration is the same as that of the first embodiment, the same reference numerals are used to designate the same parts, and detailed description thereof will be omitted.
車両モデル情報取得部13は、モデル情報取得部の一例である。車両モデル情報取得部13は、既知の車両40に関する形状情報、例えば、車両40の車種毎の表面形状で表される3Dモデル(すなわち、車両モデル)等を示す車両モデル情報を取得する。3Dモデル等の車両モデル情報は、ROM33に予め格納してもよく、図6に示すように、予め車両モデル情報が格納された補助記憶装置37を備え、補助記憶装置37から取得してもよい。また、通信部36を用いた通信によって、車両モデル情報を外部から取得してRAM32又は補助記憶装置37に格納し、RAM32又は補助記憶装置37から取得してもよい。 The vehicle model information acquisition unit 13 is an example of a model information acquisition unit. The vehicle model information acquisition unit 13 acquires vehicle model information indicating shape information related to a known vehicle 40, for example, a 3D model (i.e., a vehicle model) represented by the surface shape of each vehicle model of the vehicle 40. The vehicle model information such as a 3D model may be stored in advance in the ROM 33, or, as shown in FIG. 6, an auxiliary storage device 37 in which vehicle model information is stored in advance may be provided and acquired from the auxiliary storage device 37. In addition, the vehicle model information may be acquired from the outside through communication using the communication unit 36, stored in the RAM 32 or the auxiliary storage device 37, and acquired from the RAM 32 or the auxiliary storage device 37.
相対位置姿勢推定部17は、相対位置姿勢特定部の一例である。相対位置姿勢推定部17は、車両検出部16で検出された撮影画像中の車両40(他車両)について、車両モデル情報取得部13で取得された車両モデル情報と車両検出部16で検出された車両40(他車両)を示す車両領域内の画像とのマッチングを行うことで、撮影画像を得た車両40(自車両)に対する撮影画像中の車両40(他車両)の相対的な位置姿勢を推定する。なお、相対位置姿勢推定部17は、車種判別部20で判別した車種情報を用いて、車両モデル情報取得部13で取得された車両モデル情報に含まれる多様な車両モデルの中から該当する車種の車両モデルを選択してもよい。 The relative position and attitude estimation unit 17 is an example of a relative position and attitude specification unit. The relative position and attitude estimation unit 17 estimates the relative position and attitude of the vehicle 40 (other vehicle) in the captured image relative to the vehicle 40 (own vehicle) from which the captured image was obtained by matching the vehicle model information acquired by the vehicle model information acquisition unit 13 with an image in the vehicle area showing the vehicle 40 (other vehicle) detected by the vehicle detection unit 16 for the vehicle 40 (other vehicle) in the captured image. The relative position and attitude estimation unit 17 may use the vehicle model information determined by the vehicle model determination unit 20 to select a vehicle model of the relevant vehicle model from among various vehicle models included in the vehicle model information acquired by the vehicle model information acquisition unit 13.
具体的には、一般的に、3次元的な表面形状で表される車両モデルを2次元平面に投影した場合、2次元平面上における車両モデルの形状は、投影方向、車両モデルと2次元平面との間の距離、及び車両モデルの姿勢によって定まる。従って、車両モデルを2次元平面であるカメラ42の撮像平面に投影することを想定すると、カメラ42で撮影された撮影画像上における車両モデルの形状はカメラ42と車両モデルとの相対的な位置及び姿勢によって決定される。そこで、自車両に対する車両モデルの位置姿勢を少しずつ変化させ、車両検出部16で検出された車両40を示す車両画像領域の形状(例えば、輪郭)と最も整合する状態(相対的な位置及び姿勢)を探索する。この最も整合する状態の相対的な位置及び姿勢が、車両検出部16で検出された車両40(他車両)の、撮影した車両40(自車両)に対する相対的な位置及び姿勢に対応する。 Specifically, in general, when a vehicle model represented by a three-dimensional surface shape is projected onto a two-dimensional plane, the shape of the vehicle model on the two-dimensional plane is determined by the projection direction, the distance between the vehicle model and the two-dimensional plane, and the attitude of the vehicle model. Therefore, assuming that the vehicle model is projected onto the imaging plane of the camera 42, which is a two-dimensional plane, the shape of the vehicle model on the captured image captured by the camera 42 is determined by the relative position and attitude between the camera 42 and the vehicle model. Therefore, the position and attitude of the vehicle model relative to the host vehicle are changed little by little to search for a state (relative position and attitude) that is most consistent with the shape (e.g., contour) of the vehicle image area showing the vehicle 40 detected by the vehicle detection unit 16. The relative position and attitude of this most consistent state correspond to the relative position and attitude of the vehicle 40 (other vehicle) detected by the vehicle detection unit 16 with respect to the captured vehicle 40 (host vehicle).
本実施形態によれば、車両モデルの投影画像を変化させて撮影画像上の車両40を示す画像とマッチングさせることで、撮影画像における車両40の位置及び姿勢を推定できる。よって、車両40(自車両)に搭載されたカメラ42により撮影された車両40(他車両)の相対的な位置及び姿勢の推定精度を向上させることが可能となる。 According to this embodiment, the position and attitude of the vehicle 40 in the captured image can be estimated by changing the projected image of the vehicle model and matching it with an image showing the vehicle 40 in the captured image. This makes it possible to improve the estimation accuracy of the relative position and attitude of the vehicle 40 (other vehicle) captured by the camera 42 mounted on the vehicle 40 (own vehicle).
[第3実施形態]
図7は、第3実施形態に係る位置姿勢推定装置10Cの構成の一例を示すブロック図である。第3実施形態は、建物や路側器などのインフラ側の予め定めた固定位置で撮影した撮影画像を含む情報をさらに用いて、複数の車両40の間における相対的な位置及び姿勢を推定する。
[Third embodiment]
7 is a block diagram showing an example of the configuration of a position and orientation estimation device 10C according to the third embodiment. The third embodiment estimates the relative positions and orientations of a plurality of vehicles 40 by further using information including captured images captured at predetermined fixed positions on the infrastructure side, such as buildings and roadside units.
図7に示すように、本実施形態に係る位置姿勢推定装置10Cは、車両40側からの情報を扱う機能部として、第2実施形態における位置姿勢推定装置10Bの車両モデル情報取得部13と同様に機能する車両モデル情報取得部13-1を備えている。また、画像情報取得部14と同様に機能する画像情報取得部14-1、車両検出部16と同様に機能する車両検出部16-1、相対位置姿勢推定部17と同様に機能する相対位置姿勢推定部17-1、及び車種判別部20と同様に機能する車種判別部20-1を備えている。 As shown in FIG. 7, the position and attitude estimation device 10C according to this embodiment includes a vehicle model information acquisition unit 13-1 that functions similarly to the vehicle model information acquisition unit 13 of the position and attitude estimation device 10B according to the second embodiment as a functional unit that handles information from the vehicle 40. It also includes an image information acquisition unit 14-1 that functions similarly to the image information acquisition unit 14, a vehicle detection unit 16-1 that functions similarly to the vehicle detection unit 16, a relative position and attitude estimation unit 17-1 that functions similarly to the relative position and attitude estimation unit 17, and a vehicle type discrimination unit 20-1 that functions similarly to the vehicle type discrimination unit 20.
そして、位置姿勢推定装置10Cは、位置姿勢推定装置10Bの情報共有部22と同様に機能する情報共有部23を備えている。また、対応付け部24と同様に機能する対応付け部25、及び相対位置姿勢全体最適化部26と同様に機能する相対位置姿勢全体最適化部27を備えている。 The position and orientation estimation device 10C includes an information sharing unit 23 that functions similarly to the information sharing unit 22 of the position and orientation estimation device 10B. It also includes a matching unit 25 that functions similarly to the matching unit 24, and a relative position and orientation overall optimization unit 27 that functions similarly to the relative position and orientation overall optimization unit 26.
また、位置姿勢推定装置10Cは、インフラ側からの情報を扱う機能部として、車両モデル情報取得部13と同様に機能する車両モデル情報取得部13-2をさらに備えている。また、画像情報取得部14と同様に機能する画像情報取得部14-2、車両検出部16と同様に機能する車両検出部16-2、相対位置姿勢推定部17と同様に機能する相対位置姿勢推定部17-2、及び車種判別部20と同様に機能する車種判別部20-2をさらに備えている。さらにまた、位置姿勢推定装置10Cは、位置姿勢取得部28を備えている。 The position and attitude estimation device 10C further includes a vehicle model information acquisition unit 13-2 that functions similarly to the vehicle model information acquisition unit 13 as a functional unit that handles information from the infrastructure side. It also includes an image information acquisition unit 14-2 that functions similarly to the image information acquisition unit 14, a vehicle detection unit 16-2 that functions similarly to the vehicle detection unit 16, a relative position and attitude estimation unit 17-2 that functions similarly to the relative position and attitude estimation unit 17, and a vehicle type discrimination unit 20-2 that functions similarly to the vehicle type discrimination unit 20. The position and attitude estimation device 10C further includes a position and attitude acquisition unit 28.
図8は、第3実施形態に係る位置姿勢推定装置10Cとして機能するコンピュータの構成の一例を主として示すブロック図である。
図8に示すように、位置姿勢推定装置10Cとして機能するコンピュータは、ROM33に、第3実施形態に係る位置姿勢推定処理プログラム33PSが格納されている。また、I/O34に接続された通信部36は車両40及びインフラ側の予め定めた固定位置に設けられた観測装置50等の外部装置と、例えば無線通信により通信するようになっている。
FIG. 8 is a block diagram mainly showing an example of the configuration of a computer that functions as a position and orientation estimation device 10C according to the third embodiment.
8, in a computer functioning as a position and orientation estimation device 10C, a position and orientation estimation processing program 33PS according to the third embodiment is stored in a ROM 33. A communication unit 36 connected to an I/O 34 communicates with an external device such as a vehicle 40 and an observation device 50 provided at a predetermined fixed position on the infrastructure side, for example, by wireless communication.
位置姿勢推定装置10Cは、車両40及び観測装置50から各種の情報を取得する。
なお、本実施形態では、位置姿勢推定装置10Aが外部の車両40及び観測装置50と通信して情報を授受する場合を一例として説明する。しかし、本開示の技術は、これに限定されない。例えば、位置姿勢推定装置10Aは観測装置50に搭載されてもよい。
The position and attitude estimation device 10C acquires various types of information from the vehicle 40 and the observation device 50.
In the present embodiment, a case will be described as an example in which the position and attitude estimation device 10A communicates with an external vehicle 40 and an observation device 50 to exchange information. However, the technology of the present disclosure is not limited to this. For example, the position and attitude estimation device 10A may be mounted on the observation device 50.
観測装置50は、カメラ52、メモリ54及び通信部56を備えている。通信部56は、カメラ52及びメモリ54に接続されている。カメラ52は、撮影装置の一例であり、観測装置50の周辺を撮影する。なお、カメラ52は、1台でもよいし、複数台でもよい。また、カメラ52は、予め設定された方位、画角及び解像度で設置される。なお、カメラ52の方位、画角及び解像度は、予め定めた固定値で設置されてもよく、入力された任意の設定値に変更されるようにしてもよい。なお、カメラ52で撮影されて得られた画像情報は、メモリ54に記憶することが可能である。 The observation device 50 includes a camera 52, a memory 54, and a communication unit 56. The communication unit 56 is connected to the camera 52 and the memory 54. The camera 52 is an example of an imaging device, and captures images of the surroundings of the observation device 50. There may be one camera 52, or there may be multiple cameras. The camera 52 is installed with a preset orientation, angle of view, and resolution. The orientation, angle of view, and resolution of the camera 52 may be installed with preset fixed values, or may be changed to any inputted setting values. The image information captured by the camera 52 can be stored in the memory 54.
メモリ54には、建物や路側器などのインフラに設置したカメラ52の位置及び姿勢を示す観測装置情報が格納される。カメラ52の位置及び姿勢を示す情報は、測量機器などを用いて計測して取得しても良く、RTK-GNSS(Real Time Kinematic - Global Navigation Satellite Systems)などを用いて得た情報を取得しても良く、また、その他の手法を用いて取得しても良い。また、観測装置情報には、カメラ52の画角及び解像度などのカメラの固有情報を含むことが可能である。 Memory 54 stores observation device information indicating the position and attitude of camera 52 installed in infrastructure such as buildings and roadside units. Information indicating the position and attitude of camera 52 may be obtained by measurement using surveying equipment, or may be information obtained using RTK-GNSS (Real Time Kinematic - Global Navigation Satellite Systems), or may be obtained using other methods. In addition, the observation device information may include camera-specific information such as the angle of view and resolution of camera 52.
通信部56は、位置姿勢推定装置10C及び他の車両等の外部装置と例えば無線通信によって、カメラ52で撮影された画像を示す画像情報及びメモリ54に記憶された観測装置情報を通信する。 The communication unit 56 communicates image information indicating the image captured by the camera 52 and observation device information stored in the memory 54 with the position and orientation estimation device 10C and external devices such as other vehicles, for example via wireless communication.
図9は、本実施形態に係る複数の車両40が走行する交通環境の一例を示すイメージ図である。
図9に示す交通環境では、複数の車両40として、4台の車両40A、40B、40C、40Dが存在している。また、インフラ側には、観測装置50が設置されている。車両40A~40Dの各々は、カメラ42、メモリ44及び通信部46を備えている。
FIG. 9 is an image diagram showing an example of a traffic environment in which a plurality of vehicles 40 according to this embodiment are traveling.
9, there are four vehicles 40A, 40B, 40C, and 40D as a plurality of vehicles 40. An observation device 50 is installed on the infrastructure side. Each of the vehicles 40A to 40D is equipped with a camera 42, a memory 44, and a communication unit 46.
車両モデル情報取得部13-1及び車両モデル情報取得部13-2は、車両モデル情報取得部13と同様に車両モデル情報を取得する。なお、本実施形態では、車両40側からの情報を扱う機能部及びインフラ側(観測装置50)からの情報を扱う機能部として、車両モデル情報取得部13-1及び車両モデル情報取得部13-2を独立した構成としたが、これに限定されるものではなく、共通に1つの構成としてもよい。 The vehicle model information acquisition unit 13-1 and the vehicle model information acquisition unit 13-2 acquire vehicle model information in the same manner as the vehicle model information acquisition unit 13. Note that in this embodiment, the vehicle model information acquisition unit 13-1 and the vehicle model information acquisition unit 13-2 are configured as independent functional units that handle information from the vehicle 40 side and the infrastructure side (observation device 50), respectively, but this is not limited to this and they may be configured as a single shared unit.
画像情報取得部14-1、車両検出部16-1、相対位置姿勢推定部17-1、及び車種判別部20-1は、画像情報取得部14、車両検出部16、相対位置姿勢推定部17及び車種判別部20と同様のため、説明を省略する。 The image information acquisition unit 14-1, vehicle detection unit 16-1, relative position and attitude estimation unit 17-1, and vehicle type discrimination unit 20-1 are similar to the image information acquisition unit 14, vehicle detection unit 16, relative position and attitude estimation unit 17, and vehicle type discrimination unit 20, so their explanations are omitted.
画像情報取得部14-2は、観測画像情報取得部の一例である。画像情報取得部14-2は、観測装置50のカメラ52により撮影された観測装置50の周辺の画像情報を取得する。 The image information acquisition unit 14-2 is an example of an observation image information acquisition unit. The image information acquisition unit 14-2 acquires image information of the surroundings of the observation device 50 captured by the camera 52 of the observation device 50.
車両検出部16-2は、画像情報取得部14-2で取得された観測装置50のカメラ52により撮影された画像情報を用いて観測装置50のカメラ52により撮影された車両40を検出する。 The vehicle detection unit 16-2 detects the vehicle 40 photographed by the camera 52 of the observation device 50 using the image information captured by the camera 52 of the observation device 50 acquired by the image information acquisition unit 14-2.
相対位置姿勢推定部17-2は、車両モデル情報取得部13-2で取得された車両モデルと観測装置50からの画像情報とを用いて車両検出部16で検出された車両40について、撮影画像上の車両位置に基づいて、観測装置50との相対的な位置及び姿勢を推定する。具体的には、車両検出部16-2で検出された撮影画像中の車両40について、車両モデル情報取得部13-2で取得された車両モデル情報と車両検出部16-2で検出された車両40を示す車両領域内の画像とのマッチングを行うことで、観測装置50に対する撮観測装置情報影画像中の車両40の相対的な位置及び姿勢を推定する。 The relative position and attitude estimation unit 17-2 estimates the relative position and attitude of the vehicle 40 detected by the vehicle detection unit 16 based on the vehicle position in the captured image using the vehicle model acquired by the vehicle model information acquisition unit 13-2 and image information from the observation device 50. Specifically, for the vehicle 40 in the captured image detected by the vehicle detection unit 16-2, the vehicle model information acquired by the vehicle model information acquisition unit 13-2 is matched with an image within the vehicle area showing the vehicle 40 detected by the vehicle detection unit 16-2 to estimate the relative position and attitude of the vehicle 40 in the captured image of the observation device information to the observation device 50.
車種判別部20-2は、観測装置50による画像情報を用いて車両検出部16で検出された1又は複数の車両40について、それぞれの車種を判別する。また車種判別部20は、車種に加えて、車両40の色、型式、及びナンバープレートによる車両番号などの個体識別可能な詳細情報を含めてもよい。 The vehicle type discrimination unit 20-2 discriminates the vehicle type of each of one or more vehicles 40 detected by the vehicle detection unit 16 using image information from the observation device 50. In addition to the vehicle type, the vehicle type discrimination unit 20 may also include detailed information that allows individual identification of the vehicle 40, such as the color, model, and vehicle number from the license plate.
位置姿勢取得部28は、観測装置情報取得部の一例である。位置姿勢取得部28は、建物や路側器などのインフラに設置したカメラの位置姿勢を示す観測装置情報を観測装置50から取得する。 The position and orientation acquisition unit 28 is an example of an observation device information acquisition unit. The position and orientation acquisition unit 28 acquires observation device information indicating the positions and orientations of cameras installed in infrastructure such as buildings and roadside units from the observation device 50.
情報共有部23は、複数の車両40各々による車両情報取得部12で取得された車両情報、車種判別部20-1で判別された車種情報、相対位置姿勢推定部17-1で推定された相対的な位置及び姿勢を示す情報を、複数の車両40毎に関連付けて記憶する。また、情報共有部23は、観測装置50の撮影画像に撮影された車両40について、車種判別部20-2で判別された車種情報、相対位置姿勢推定部17-2で推定された相対的な位置及び姿勢を示す情報、及び位置姿勢取得部28で取得された観測装置情報を関連付けて記憶する。すなわち、情報共有部23は、これらの情報を、例えば、1つのデータベースに登録することで、そのデータベースに複数の車両40に関する情報が集約される。 The information sharing unit 23 associates and stores the vehicle information acquired by the vehicle information acquisition unit 12 for each of the multiple vehicles 40, the vehicle type information identified by the vehicle type discrimination unit 20-1, and information indicating the relative position and attitude estimated by the relative position and attitude estimation unit 17-1 for each of the multiple vehicles 40. In addition, the information sharing unit 23 associates and stores, for a vehicle 40 captured in an image captured by the observation device 50, the vehicle type information identified by the vehicle type discrimination unit 20-2, information indicating the relative position and attitude estimated by the relative position and attitude estimation unit 17-2, and the observation device information acquired by the position and attitude acquisition unit 28. In other words, the information sharing unit 23 registers this information in, for example, a single database, and information regarding the multiple vehicles 40 is aggregated in that database.
対応付け部25では、各車両40の撮影画像内に含まれる他車両画像が示す他車両、及び観測装置50の撮影画像内に含まれる車両画像が示す車両40を特定する対応付けが行われる。 The matching unit 25 performs matching to identify other vehicles indicated by other vehicle images included in the captured images of each vehicle 40, and vehicles 40 indicated by vehicle images included in the captured images of the observation device 50.
相対位置姿勢全体最適化部27は、複数の車両40A~40Dのそれぞれの車両間の相対的な位置及び姿勢を推定する。相対位置姿勢全体最適化部27は、相対位置姿勢推定部17-1で車両毎の撮影画像を用いて推定した自車両(観測体)から他車両(被移動体)への相対的な位置及び姿勢、観測装置50による撮影画像を用いて推定した観測装置50(観測体)から車両40(被移動体)への相対的な位置及び姿勢、及び対応付け部25で対応付けられた情報が極力矛盾なく整合するように、複数の車両40A~40Dの相対的な位置及び姿勢を算出する。本実施形態では、以下に示す位置姿勢推定手法を適用する。 The relative position and attitude overall optimization unit 27 estimates the relative position and attitude between each of the multiple vehicles 40A to 40D. The relative position and attitude overall optimization unit 27 calculates the relative positions and attitudes of the multiple vehicles 40A to 40D so that the relative position and attitude from the subject vehicle (observation body) to the other vehicle (moved body) estimated by the relative position and attitude estimation unit 17-1 using the captured images of each vehicle, the relative position and attitude from the observation device 50 (observation body) to the vehicle 40 (moved body) estimated using the captured images by the observation device 50, and the information associated by the association unit 25 are consistent as much as possible without contradictions. In this embodiment, the position and attitude estimation method shown below is applied.
複数の車両40の各々の水平面内における相対的な位置及び姿勢角の関係式(観測方程式)は、次の(2)式で表される。 The relational equation (observation equation) between the relative positions and attitude angles of each of the multiple vehicles 40 in the horizontal plane is expressed by the following equation (2).
ここで、R(θ)は2次元回転行列である。Xは車両40の位置(水平面内の2次元位置)を示し、θは車両40の姿勢角を示す。iは、撮影画像を撮影した車両40(自車両)又は観測装置50を示し、jは撮影画像に含まれる車両40を示す。ΔXin,jn及びΔθin,jnは、自車両又は観測装置50をinとして、その撮影画像から推定した車両jnの相対的な位置及び姿勢を示す。添え字のnは、観測数を示す。 Here, R(θ) is a two-dimensional rotation matrix. X indicates the position of the vehicle 40 (two-dimensional position in a horizontal plane), and θ indicates the attitude angle of the vehicle 40. i indicates the vehicle 40 (own vehicle) or the observation device 50 that captured the captured image, and j indicates the vehicle 40 included in the captured image. ΔX in,jn and Δθ in,jn indicate the relative position and attitude of the vehicle jn estimated from the captured image, with the own vehicle or the observation device 50 being in. The subscript n indicates the number of observations.
具体的に図9に示す例では、観測装置50及び複数の車両40A~40Dの位置(水平面内の2次元位置)、及び姿勢角をそれぞれX1~X5、θ1~θ5とする。ここでは水平面内における座標系の原点を観測装置50に装備されたカメラ52の位置X1に設定し、そのカメラ52の向きθ1と座標軸とを一致させて設定したものとする。すなわち、観測装置50の位置及び姿勢角を、[X1,θ1]=[0,0]と表すこととする。車両40A~40Dの位置及び姿勢角も同様に、車両40Bについて[X2,θ2]、車両40Cについて[X3,θ3]、車両40Dについて[X4,θ4]、車両40Aについて[X5,θ5]と表すこととする。また、自車両又は観測装置50を示すinの撮影画像から推定した車両を示すjnの相対的な位置をΔXin,jnとし、姿勢をΔθin,jnとする。なお、ここでは、車両40A~40Dに装備されたカメラ42の向きは同じであることとする。 Specifically, in the example shown in Fig. 9, the positions (two-dimensional positions in a horizontal plane) and attitude angles of the observation device 50 and the multiple vehicles 40A-40D are X1 - X5 and θ1 - θ5 , respectively. Here, the origin of the coordinate system in the horizontal plane is set to the position X1 of the camera 52 equipped on the observation device 50, and the orientation θ1 of the camera 52 is set to coincide with the coordinate axes. In other words, the position and attitude angle of the observation device 50 are expressed as [ X1 , θ1 ] = [0, 0]. Similarly, the positions and attitude angles of the vehicles 40A-40D are expressed as [ X2 , θ2 ] for vehicle 40B, [ X3 , θ3 ] for vehicle 40C, [ X4 , θ4 ] for vehicle 40D, and [ X5 , θ5 ] for vehicle 40A. Also, the relative position of jn, which indicates a vehicle, estimated from the captured image of in, which indicates the vehicle itself or the observation device 50, is denoted as ΔX in,jn , and the attitude is denoted as Δθ in,jn . Note that it is assumed here that the orientations of the cameras 42 mounted on the vehicles 40A to 40D are the same.
また、対応付け部24において対応付けられた対応付け情報を(in,jn)とする。(in,jn)は車両40又は観測装置50のカメラiの撮影画像に写る車両はjであるという情報を全車両の観測数分(n個)格納したものである。なお、ここでは、対応付け部25において、次に示す対応付け情報であるものとする。
(in,jn)=([1,2],[1,4],[4,2],[3,4],[4,3],[5,2],[5,3],[3,2])
The association information associated in the association unit 24 is assumed to be (in, jn). (in, jn) is information that vehicle j appears in an image captured by the camera i of the vehicle 40 or the observation device 50, and the information is stored in the number (n) of all observed vehicles. It should be noted that the association information in the association unit 25 is assumed to be as follows:
(in,jn) = ([1,2],[1,4],[4,2],[3,4],[4,3],[5,2],[5,3],[3,2])
なお、本実施形態では、車両間の距離も導出される。このため、図9に示す例では、自車両から他車両、又は観測装置50から車両の観測結果に対して、自車両から他車両までのベクトル、又は観測装置50から車両までのベクトルとして示している。 In this embodiment, the distance between vehicles is also derived. For this reason, in the example shown in FIG. 9, the observation results from the subject vehicle to the other vehicle, or from the observation device 50 to the vehicle, are shown as a vector from the subject vehicle to the other vehicle, or from the observation device 50 to the vehicle.
図9に示す例において、12個の対応付けが行われた場合、(2)式が成立する。(2)式において、未知数は車両40A~40Dの位置X5、X2、X3、X4、及び姿勢角θ5、θ2、θ3、θ4、の12個(2×4+1×4=12)である。一方、観測方程式の数は位置及び姿勢角による18個((in,jn)の要素数の2倍)である。このため、対応付け部25の対応付けの結果を用いた連立方程式を解くことで、未知数を得ることができる。よって、相対位置姿勢全体最適化部27は、対応付け部25の対応付けの結果を示す情報、及び(2)式を用いて複数の車両40A~40Dの相対的な位置及び姿勢を推定できる。なお、観測方程式の冗長性を伴うため、最小二乗法などの計算手法を用いることで精度良い解を得ることができる。 In the example shown in FIG. 9, when 12 correspondences are made, formula (2) is established. In formula (2), the unknowns are the positions X5 , X2 , X3 , and X4 of the vehicles 40A to 40D, and the attitude angles θ5 , θ2 , θ3 , and θ4 , which are 12 (2×4+1×4=12). On the other hand, the number of observation equations is 18 (twice the number of elements of (in, jn)) due to the positions and attitude angles. Therefore, the unknowns can be obtained by solving simultaneous equations using the results of the correspondences made by the correspondence unit 25. Therefore, the relative position and attitude overall optimization unit 27 can estimate the relative positions and attitudes of the multiple vehicles 40A to 40D using information indicating the results of the correspondences made by the correspondence unit 25 and formula (2). Note that, since the observation equations are redundant, a solution with good accuracy can be obtained by using a calculation method such as the least squares method.
このように、相対位置姿勢全体最適化部27は、観測装置50及び車両40毎に推定した観測装置から車両、又は自車両から他車両への相対的な位置及び姿勢と、各撮影画像内の車両に対応付けられた情報が矛盾なく整合するように、4台の車両40A~40Dの車両間の相対的な位置及び姿勢を推定する。これらの情報が矛盾なく整合するとは、観測装置50と4台の車両40A~40Dの各々とが、幾何学的に整合する相対位置及び姿勢角の対応関係にあることである。このことは、上記の(2)式からも明らかである。 In this way, the relative position and attitude overall optimization unit 27 estimates the relative positions and attitudes between the four vehicles 40A-40D so that the relative positions and attitudes from the observation device to the vehicle, or from the host vehicle to the other vehicle, estimated for each observation device 50 and vehicle 40, are consistent with the information associated with the vehicles in each captured image. Consistent consistency of this information means that the observation device 50 and each of the four vehicles 40A-40D are in a geometrically consistent correspondence relationship of relative positions and attitude angles. This is also clear from the above formula (2).
本実施形態によれば、インフラ側で撮影された撮影画像及び観測装置情報を用いることで、GPSによる衛星信号の利用が困難な場合であっても、複数の車両40の各々の位置及び姿勢を特定するために不足する情報が補われるため、複数の車両40の間の相対的な位置及び姿勢を、第1実施形態と比べてさらに高精度に推定することができる。 According to this embodiment, by using images captured on the infrastructure side and observation device information, even when it is difficult to use GPS satellite signals, the information that is lacking for identifying the position and attitude of each of the multiple vehicles 40 is supplemented, so that the relative positions and attitudes between the multiple vehicles 40 can be estimated with even higher accuracy than in the first embodiment.
なお、上記では水平面内における2次元的な位置及び姿勢角の推定について説明したが、同様の計算で3次元への拡張も容易に行うことも可能である。 Note that while the above describes the estimation of two-dimensional position and attitude angle in a horizontal plane, it is also possible to easily extend the calculation to three dimensions.
次に、図10を参照して、第1実施形態に係る位置姿勢推定装置10Aの作用を説明する。なお、図10は、第3実施形態に係る位置姿勢推定処理プログラムの処理の流れの一例を示すフローチャートである。 Next, the operation of the position and orientation estimation device 10A according to the first embodiment will be described with reference to FIG. 10. Note that FIG. 10 is a flowchart showing an example of the processing flow of a position and orientation estimation processing program according to the third embodiment.
まず、図10のステップS300では、車両情報取得部12が、車両40に搭載されたメモリ44に格納された車両情報を取得する。また、位置姿勢取得部28が、観測装置50に装備されたメモリ54に格納された観測装置情報を取得する。 First, in step S300 in FIG. 10, the vehicle information acquisition unit 12 acquires vehicle information stored in the memory 44 mounted on the vehicle 40. In addition, the position and attitude acquisition unit 28 acquires observation device information stored in the memory 54 mounted on the observation device 50.
ステップS302では、画像情報取得部14-1が、車両40に搭載されたカメラ42により車両40の周辺を撮影した画像を取得する。また、画像情報取得部14-2が、観測装置50に装備されたカメラ52により観測装置50の周辺を撮影した画像を取得する。 In step S302, the image information acquisition unit 14-1 acquires images of the surroundings of the vehicle 40 taken by the camera 42 mounted on the vehicle 40. In addition, the image information acquisition unit 14-2 acquires images of the surroundings of the observation device 50 taken by the camera 52 equipped on the observation device 50.
ステップS304では、車両検出部16-1が、画像情報取得部14-1により取得された画像情報を用いて、撮影画像における車両、すなわち、自車両から撮影された他車両を検出する。また、車両検出部16-2が、画像情報取得部14-2により取得された観測装置50による画像情報を用いて、撮影画像における車両、すなわち、観測装置50で撮影された車両40を検出する。 In step S304, the vehicle detection unit 16-1 uses the image information acquired by the image information acquisition unit 14-1 to detect vehicles in the captured image, i.e., other vehicles captured from the host vehicle. The vehicle detection unit 16-2 uses the image information from the observation device 50 acquired by the image information acquisition unit 14-2 to detect vehicles in the captured image, i.e., the vehicle 40 captured by the observation device 50.
ステップS306では、相対位置姿勢推定部17-1が、車両検出部16-1で検出された撮影画像中の車両40について、車両モデル情報取得部13-1で取得された車両モデル情報と車両検出部16-1で検出された車両40を示す車両領域内の画像とのマッチングを行うことで、自車両に対する撮影画像中の他車両の相対的な位置及び姿勢を推定する。また、相対位置姿勢推定部17-2が、車両検出部16-2で検出された撮影画像中の車両40について、車両モデル情報取得部13-2で取得された車両モデル情報と車両検出部16-2で検出された車両40を示す車両領域内の画像とのマッチングを行うことで、観測装置50に対する撮影画像中の車両40の相対的な位置及び姿勢を推定する。 In step S306, the relative position and attitude estimation unit 17-1 estimates the relative position and attitude of the other vehicle in the captured image relative to the host vehicle by matching the vehicle model information acquired by the vehicle model information acquisition unit 13-1 with the image in the vehicle area showing the vehicle 40 detected by the vehicle detection unit 16-1 for the vehicle 40 in the captured image detected by the vehicle detection unit 16-1. The relative position and attitude estimation unit 17-2 estimates the relative position and attitude of the vehicle 40 in the captured image relative to the observation device 50 by matching the vehicle model information acquired by the vehicle model information acquisition unit 13-2 with the image in the vehicle area showing the vehicle 40 detected by the vehicle detection unit 16-2 for the vehicle 40 in the captured image detected by the vehicle detection unit 16-2.
ステップS308では、車種判別部20-1が、車両40(自車両)による撮影画像から車両検出部16-1で検出された車両40(他車両)について、車種を判別する。また、車種判別部20-2が、観測装置50による撮影画像から車両検出部16-2で検出された車両40について、車種を判別する。 In step S308, the vehicle type discrimination unit 20-1 discriminates the vehicle type of the vehicle 40 (other vehicle) detected by the vehicle detection unit 16-1 from the image captured by the vehicle 40 (own vehicle). In addition, the vehicle type discrimination unit 20-2 discriminates the vehicle type of the vehicle 40 detected by the vehicle detection unit 16-2 from the image captured by the observation device 50.
ステップS310では、情報共有部23が、車両情報取得部12で取得された車両情報、位置姿勢取得部28で取得された観測装置情報、車種判別部20-1及び20-2で判別された車種情報、相対位置姿勢推定部17-1及び17-2で推定された相対方位を示す情報を関連付けて記憶、例えばデータベースに登録することで情報を共有する。 In step S310, the information sharing unit 23 associates and stores the vehicle information acquired by the vehicle information acquisition unit 12, the observation device information acquired by the position and attitude acquisition unit 28, the vehicle type information determined by the vehicle type determination units 20-1 and 20-2, and the information indicating the relative orientation estimated by the relative position and attitude estimation units 17-1 and 17-2, for example by registering the information in a database, thereby sharing the information.
ステップS312では、対応付け部25が、撮影画像中で推定された車両の車種と、車両から直接取得した車両情報との対応付けを行う。 In step S312, the matching unit 25 matches the vehicle model estimated in the captured image with the vehicle information obtained directly from the vehicle.
ステップS314では、相対位置姿勢全体最適化部27が、相対位置姿勢推定部17-1及び17-2で推定した車両の相対的か位置及び姿勢と、対応付け部25で対応付けられた情報に基づいて、上述の(2)式を用いて、複数の車両40A~40Dのそれぞれの車両間の相対的な位置及び姿勢を推定する最適化を行う。 In step S314, the relative position and attitude overall optimization unit 27 optimizes the estimation of the relative positions and attitudes between each of the multiple vehicles 40A to 40D using the above-mentioned formula (2) based on the relative positions and attitudes of the vehicles estimated by the relative position and attitude estimation units 17-1 and 17-2 and the information associated by the association unit 25.
[その他の実施形態]
以上、実施形態として位置姿勢推定装置を例示して説明した。実施形態は、コンピュータを、位置姿勢推定装置が備える各部として機能させるためのプログラムの形態としてもよい。実施形態は、このプログラムを記憶したコンピュータが読み取り可能な記憶媒体の形態としてもよい。
[Other embodiments]
The position and orientation estimation apparatus has been described as an example of the embodiment. The embodiment may be in the form of a program for causing a computer to function as each unit of the position and orientation estimation apparatus. The embodiment may be in the form of a computer-readable storage medium storing the program.
その他、上記実施形態で説明した位置姿勢推定装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。 In addition, the configuration of the position and orientation estimation device described in the above embodiment is merely an example, and may be modified according to circumstances without departing from the spirit of the invention.
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 The processing flow of the program described in the above embodiment is also an example, and unnecessary steps may be deleted, new steps may be added, or the processing order may be rearranged, without departing from the spirit of the program.
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。 In the above embodiment, a case has been described in which the processing according to the embodiment is realized by a software configuration using a computer by executing a program, but this is not limited to this. The embodiment may be realized, for example, by a hardware configuration or a combination of a hardware configuration and a software configuration.
さらに、上記実施形態における処理は、プログラムとして光ディスク等の記憶媒体等に記憶して流通するようにしてもよい。 Furthermore, the processing in the above embodiment may be stored as a program on a storage medium such as an optical disk and distributed.
上記実施形態において、CPUとは広義的なプロセッサを指し、汎用的なプロセッサや、専用のプロセッサ(例えばGPU:Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。 In the above embodiment, the term CPU refers to a processor in a broad sense, including general-purpose processors and dedicated processors (e.g., GPU: Graphics Processing Unit, ASIC: Application Specific Integrated Circuit, FPGA: Field Programmable Gate Array, programmable logic device, etc.).
この場合、プロセッサの動作は、1つのプロセッサによって成すのみでなく、物理的に離れた位置に存在する複数のプロセッサが協働して成すものであってもよい。また、プロセッサの各動作の順序は上記各実施形態において記載した順序のみに限定されるものではなく、適宜変更してもよい。 In this case, the processor operations may not only be performed by a single processor, but may be performed by multiple processors located at physically separate locations working together. Furthermore, the order of the processor operations is not limited to the orders described in the above embodiments, and may be changed as appropriate.
本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All publications, patent applications, and technical standards described in this specification are incorporated by reference into this specification to the same extent as if each individual publication, patent application, and technical standard was specifically and individually indicated to be incorporated by reference.
10A、10B、10C 位置姿勢推定装置
12 車両情報取得部
13 車両モデル情報取得部
14 画像情報取得部
16 車両検出部
17 相対位置姿勢推定部
18 相対方位推定部
20 車種判別部
22、23 情報共有部
24、25 対応付け部
26、27 相対位置姿勢全体最適化部
28 位置姿勢取得部
30 コンピュータ本体
33P、33PS 位置姿勢推定処理プログラム
40(40A、40B、40C、40D、40E) 車両
42 カメラ
44 メモリ
50 観測装置
52 カメラ
54 メモリ
Reference Signs List 10A, 10B, 10C Position and attitude estimation device 12 Vehicle information acquisition unit 13 Vehicle model information acquisition unit 14 Image information acquisition unit 16 Vehicle detection unit 17 Relative position and attitude estimation unit 18 Relative orientation estimation unit 20 Vehicle type discrimination unit 22, 23 Information sharing unit 24, 25 Correspondence unit 26, 27 Relative position and attitude overall optimization unit 28 Position and attitude acquisition unit 30 Computer main unit 33P, 33PS Position and attitude estimation processing program 40 (40A, 40B, 40C, 40D, 40E) Vehicle 42 Camera 44 Memory 50 Observation device 52 Camera 54 Memory
Claims (4)
前記複数の移動体毎に、移動体に搭載された撮影装置により周辺を撮影した撮影画像を示す画像情報を取得する画像情報取得部と、
前記複数の移動体毎に、前記画像情報に基づいて、撮影画像を撮影した移動体を第1の移動体とし、かつ、前記第1の移動体で撮影された第2の移動体を検出する検出部と、
前記画像情報に基づいて、前記検出部で検出された前記第2の移動体の種類を判別する判別部と、
前記撮影画像上の前記第2の移動体を示す画像の位置に基づいて、前記第1の移動体から第2の移動体へ向かう方向を示す相対方位を特定する相対方位特定部と、
前記移動体情報取得部、前記相対方位特定部、及び前記判別部の各情報を蓄積する蓄積部と、
前記蓄積部に蓄積された情報に基づいて、前記検出部で検出された第2の移動体に、当該第2の移動体の種類に対応する種類の前記移動体情報を対応付ける対応付け部と、
前記複数の移動体における前記第1の移動体から前記第2の移動体への前記相対方位及び前記対応付け部で対応付けられた前記移動体情報に基づいて、前記複数の移動体の間の相対的な位置及び姿勢を推定する相対位置姿勢推定部と、
を備えた位置姿勢推定装置。 a mobile object information acquisition unit that acquires, in an environment where a plurality of mobile objects are present, mobile object information including a type of the mobile object for each of the plurality of mobile objects;
an image information acquisition unit that acquires, for each of the plurality of moving bodies, image information indicating a captured image of the surroundings captured by an imaging device mounted on the moving body;
a detection unit that, for each of the plurality of moving bodies, determines a moving body that has captured an image as a first moving body based on the image information, and detects a second moving body that has been captured by the first moving body;
a discrimination unit that discriminates the type of the second moving object detected by the detection unit based on the image information;
a relative orientation identification unit that identifies a relative orientation indicating a direction from the first moving object to a second moving object based on a position of an image showing the second moving object on the captured image;
a storage unit that stores information of the moving object information acquisition unit, the relative orientation identification unit, and the discrimination unit;
a correspondence unit that corresponds the type of moving object information corresponding to the type of the second moving object detected by the detection unit to the second moving object detected by the detection unit based on the information stored in the storage unit;
a relative position and orientation estimation unit that estimates a relative position and orientation between the plurality of moving bodies based on the relative orientation from the first moving body to the second moving body among the plurality of moving bodies and the moving body information associated by the association unit;
A position and orientation estimation device comprising:
前記複数の移動体毎に、移動体に搭載された撮影装置により周辺を撮影した撮影画像を示す画像情報を取得する画像情報取得部と、
前記移動体の形状を示すモデル情報を取得するモデル情報取得部と、
前記複数の移動体毎に、前記画像情報に基づいて、撮影画像を撮影した移動体を第1の移動体とし、かつ、前記第1の移動体で撮影された第2の移動体を検出する検出部と、
前記画像情報に基づいて、前記検出部で検出された前記第2の移動体の種類を判別する判別部と、
前記撮影画像上の前記第2の移動体を示す画像の位置及び前記モデル情報取得部で取得されたモデル情報に基づいて、前記第1の移動体に対する第2の移動体の相対的な位置及び姿勢を特定する相対位置姿勢特定部と、
前記移動体情報取得部、前記相対位置姿勢特定部、及び前記判別部の各情報を蓄積する蓄積部と、
前記蓄積部に蓄積された情報に基づいて、前記検出部で検出された第2の移動体に、当該第2の移動体の種類に対応する種類の前記移動体情報を対応付ける対応付け部と、
前記複数の移動体における前記第1の移動体に対する第2の移動体の相対的な位置及び姿勢と、前記対応付け部で対応付けられた前記移動体情報とに基づいて、前記複数の移動体の間の相対的な位置及び姿勢を推定する相対位置姿勢推定部と、
を備えた位置姿勢推定装置。 a mobile object information acquisition unit that acquires, in an environment where a plurality of mobile objects are present, mobile object information including a type of the mobile object for each of the plurality of mobile objects;
an image information acquisition unit that acquires, for each of the plurality of moving bodies, image information indicating a captured image of the surroundings captured by an imaging device mounted on the moving body;
a model information acquisition unit that acquires model information indicating a shape of the moving object;
a detection unit that, for each of the plurality of moving bodies, determines a moving body that has captured an image as a first moving body based on the image information, and detects a second moving body that has been captured by the first moving body;
a discrimination unit that discriminates the type of the second moving object detected by the detection unit based on the image information;
a relative position and orientation specification unit that specifies a relative position and orientation of a second moving object with respect to the first moving object based on a position of an image showing the second moving object on the captured image and model information acquired by the model information acquisition unit;
a storage unit that stores information about the moving object information acquisition unit, the relative position and orientation specification unit, and the discrimination unit;
a correspondence unit that corresponds the type of moving object information corresponding to the type of the second moving object detected by the detection unit to the second moving object detected by the detection unit based on the information stored in the storage unit;
a relative position and orientation estimation unit that estimates a relative position and orientation between the plurality of moving bodies based on a relative position and orientation of a second moving body with respect to the first moving body among the plurality of moving bodies and the moving body information associated by the association unit;
A position and orientation estimation device comprising:
前記複数の移動体毎に、移動体に搭載された撮影装置により周辺を撮影した撮影画像を示す画像情報を取得する画像情報取得部と、
前記移動体の形状を示すモデル情報を取得するモデル情報取得部と、
前記環境を撮影する観測装置の位置及び姿勢を含む観測装置情報を取得する観測装置情報取得部と、
前記観測装置で撮影された観測撮影画像を示す観測画像情報を取得する観測画像情報取得部と、
前記移動体の形状を示すモデル情報を取得するモデル情報取得部と、
前記観測装置及び前記複数の移動体毎に、前記画像情報に基づいて、撮影画像を撮影した観測装置及び移動体を観測体とし、かつ、前記観測体で撮影された被移動体を検出する検出部と、
前記画像情報に基づいて、前記検出部で検出された前記被移動体の種類を判別する判別部と、
前記撮影画像上の前記被移動体を示す画像の位置及び前記モデル情報取得部で取得されたモデル情報に基づいて、前記観測体に対する被移動体の相対的な位置及び姿勢を特定する相対位置姿勢特定部と、
前記移動体情報取得部、前記相対位置姿勢特定部、及び前記判別部の各情報を蓄積する蓄積部と、
前記蓄積部に蓄積された情報に基づいて、前記検出部で検出された被移動体に、当該被移動体の種類に対応する種類の前記移動体情報を対応付ける対応付け部と、
前記複数の移動体における前記観測体に対する被移動体の相対的な位置及び姿勢と、前記対応付け部で対応付けられた前記移動体情報とに基づいて、前記複数の移動体の間の相対的な位置及び姿勢を推定する相対位置姿勢推定部と、
を備えた位置姿勢推定装置。 a mobile object information acquisition unit that acquires, in an environment where a plurality of mobile objects are present, mobile object information including a type of the mobile object for each of the plurality of mobile objects;
an image information acquisition unit that acquires, for each of the plurality of moving bodies, image information indicating a captured image of the surroundings captured by an image capture device mounted on the moving body;
a model information acquisition unit that acquires model information indicating a shape of the moving object;
an observation device information acquisition unit that acquires observation device information including a position and an attitude of an observation device that captures the environment;
an observation image information acquisition unit that acquires observation image information indicating an observation image captured by the observation device;
a model information acquisition unit that acquires model information indicating a shape of the moving object;
a detection unit that, for each of the observation devices and the plurality of moving bodies, determines the observation device and the moving body that captured the captured image as an observed body based on the image information, and detects a moved body photographed by the observed body;
a discrimination unit that discriminates the type of the moving object detected by the detection unit based on the image information;
a relative position and orientation specification unit that specifies a relative position and orientation of the object to be moved with respect to the observation object based on a position of an image showing the object to be moved on the captured image and model information acquired by the model information acquisition unit;
a storage unit that stores information about the moving object information acquisition unit, the relative position and orientation specification unit, and the discrimination unit;
a matching unit that matches the type of moving object information corresponding to the type of the moving object detected by the detection unit with the moving object detected by the detection unit based on the information stored in the storage unit;
a relative position and orientation estimation unit that estimates a relative position and orientation between the plurality of moving bodies based on a relative position and orientation of a moved body with respect to the observed body in the plurality of moving bodies and the moving body information associated by the association unit;
A position and orientation estimation device comprising:
複数の移動体が存在する環境において、前記複数の移動体毎に、移動体の種類を含む移動体情報を取得する移動体情報取得部、
前記複数の移動体毎に、移動体に搭載された撮影装置により周辺を撮影した撮影画像を示す画像情報を取得する画像情報取得部、
前記複数の移動体毎に、前記画像情報に基づいて、撮影画像を撮影した移動体を第1の移動体とし、かつ、前記第1の移動体で撮影された第2の移動体を検出する検出部、
前記画像情報に基づいて、前記検出部で検出された前記第2の移動体の種類を判別する判別部、
前記撮影画像上の前記第2の移動体を示す画像の位置に基づいて、前記第1の移動体から第2の移動体へ向かう方向を示す相対方位を特定する相対方位特定部、
前記移動体情報取得部、前記相対方位特定部、及び前記判別部の各情報を蓄積する蓄積部、
前記蓄積部に蓄積された情報に基づいて、前記検出部で検出された第2の移動体に、当該第2の移動体の種類に対応する種類の前記移動体情報を対応付ける対応付け部、
及び、
前記複数の移動体における前記第1の移動体から前記第2の移動体への前記相対方位及び前記対応付け部で対応付けられた前記移動体情報に基づいて、前記複数の移動体の間の相対的な位置及び姿勢を推定する相対位置姿勢推定部、
として機能させるためのプログラム。 Computer,
a mobile object information acquisition unit that acquires mobile object information including a type of the mobile object for each of the mobile objects in an environment where a plurality of mobile objects are present;
an image information acquisition unit that acquires, for each of the plurality of moving bodies, image information indicating a captured image of the surroundings captured by an imaging device mounted on the moving body;
a detection unit that, for each of the plurality of moving bodies, determines a moving body that has captured an image as a first moving body based on the image information, and detects a second moving body that has been captured by the first moving body;
a discrimination unit that discriminates the type of the second moving object detected by the detection unit based on the image information;
a relative orientation identification unit that identifies a relative orientation indicating a direction from the first moving object to a second moving object based on a position of an image showing the second moving object on the captured image;
a storage unit that stores information about the moving object information acquisition unit, the relative orientation identification unit, and the discrimination unit;
a matching unit that matches a second moving object detected by the detection unit with the moving object information of a type corresponding to the type of the second moving object, based on the information stored in the storage unit;
as well as,
a relative position and orientation estimation unit that estimates a relative position and orientation between the plurality of moving bodies based on the relative orientation from the first moving body to the second moving body among the plurality of moving bodies and the moving body information associated by the association unit;
A program to function as a
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020096405A JP7479200B2 (en) | 2020-06-02 | 2020-06-02 | Position and orientation estimation device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020096405A JP7479200B2 (en) | 2020-06-02 | 2020-06-02 | Position and orientation estimation device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021189910A JP2021189910A (en) | 2021-12-13 |
JP7479200B2 true JP7479200B2 (en) | 2024-05-08 |
Family
ID=78848516
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020096405A Active JP7479200B2 (en) | 2020-06-02 | 2020-06-02 | Position and orientation estimation device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7479200B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003228710A (en) | 2002-02-05 | 2003-08-15 | Hitachi Eng Co Ltd | Method and system for detecting relative distance and relative direction of movable body |
JP2016184316A (en) | 2015-03-26 | 2016-10-20 | 株式会社東芝 | Vehicle type determination device and vehicle type determination method |
JP2018147040A (en) | 2017-03-01 | 2018-09-20 | 本田技研工業株式会社 | Lane change estimation device, lane change estimation method, and program |
-
2020
- 2020-06-02 JP JP2020096405A patent/JP7479200B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003228710A (en) | 2002-02-05 | 2003-08-15 | Hitachi Eng Co Ltd | Method and system for detecting relative distance and relative direction of movable body |
JP2016184316A (en) | 2015-03-26 | 2016-10-20 | 株式会社東芝 | Vehicle type determination device and vehicle type determination method |
JP2018147040A (en) | 2017-03-01 | 2018-09-20 | 本田技研工業株式会社 | Lane change estimation device, lane change estimation method, and program |
Non-Patent Citations (2)
Title |
---|
Rufeng Meng;Srihari Nelakuditi;Song Wang;Romit Roy Choudhury,OmniView: A mobile collaborative system for assisting drivers with a map of surrounding traffic,2015 International Conference on Computing, Networking and Communications (ICNC),IEEE,2015年02月16日,760-765,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7069442 |
交通社会ダイナミックマップ構築におけるインフラカメラデータに対する車両トラッキングフレームワークの提案,電子情報通信学会技術研究報告 Vol.115 No.504 ITS2015-92,2016年03月03日 |
Also Published As
Publication number | Publication date |
---|---|
JP2021189910A (en) | 2021-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10788830B2 (en) | Systems and methods for determining a vehicle position | |
CN112292711B (en) | Associating LIDAR data and image data | |
JP7082545B2 (en) | Information processing methods, information processing equipment and programs | |
CN109443348B (en) | Underground garage position tracking method based on fusion of look-around vision and inertial navigation | |
KR101880185B1 (en) | Electronic apparatus for estimating pose of moving object and method thereof | |
WO2017057042A1 (en) | Signal processing device, signal processing method, program, and object detection system | |
CN110345937A (en) | Appearance localization method and system are determined in a kind of navigation based on two dimensional code | |
KR102006291B1 (en) | Method for estimating pose of moving object of electronic apparatus | |
CN111263960B (en) | Apparatus and method for updating high definition map | |
CN110411457B (en) | Positioning method, system, terminal and storage medium based on stroke perception and vision fusion | |
US20100080419A1 (en) | Image processing device for vehicle | |
US11783507B2 (en) | Camera calibration apparatus and operating method | |
JP7259454B2 (en) | Mobile position estimation system and mobile position estimation method | |
WO2021157136A1 (en) | Positioning system | |
US10832428B2 (en) | Method and apparatus for estimating a range of a moving object | |
JP7343054B2 (en) | Location estimation method, location estimation device, and location estimation program | |
CN111572633B (en) | Steering angle detection method, device and system | |
CN112455502B (en) | Train positioning method and device based on laser radar | |
CN110458885B (en) | Positioning system and mobile terminal based on stroke perception and vision fusion | |
CN111026107A (en) | Method and system for determining the position of a movable object | |
JP3900365B2 (en) | Positioning device and positioning method | |
CN117635683A (en) | Trolley indoor positioning method based on multiple cameras | |
JP7479200B2 (en) | Position and orientation estimation device and program | |
US20240200953A1 (en) | Vision based cooperative vehicle localization system and method for gps-denied environments | |
CN115790616A (en) | Determination of an absolute initial position of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7479200 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |