JP2021018068A - Position measurement data generating apparatus, position measuring apparatus, position measurement data generating method, and position measurement data generating program - Google Patents

Position measurement data generating apparatus, position measuring apparatus, position measurement data generating method, and position measurement data generating program Download PDF

Info

Publication number
JP2021018068A
JP2021018068A JP2019131900A JP2019131900A JP2021018068A JP 2021018068 A JP2021018068 A JP 2021018068A JP 2019131900 A JP2019131900 A JP 2019131900A JP 2019131900 A JP2019131900 A JP 2019131900A JP 2021018068 A JP2021018068 A JP 2021018068A
Authority
JP
Japan
Prior art keywords
image
dimensional position
measuring
dimensional
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019131900A
Other languages
Japanese (ja)
Other versions
JP7293931B2 (en
Inventor
翔太 新内
Shota Shinnai
翔太 新内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019131900A priority Critical patent/JP7293931B2/en
Publication of JP2021018068A publication Critical patent/JP2021018068A/en
Application granted granted Critical
Publication of JP7293931B2 publication Critical patent/JP7293931B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To prevent a reduction in measuring accuracy of a position on a ground surface being not flat.SOLUTION: A position measurement data generating apparatus comprises: an acquiring section 64 that acquires a captured image in which a measurement vehicle is imaged by a camera installed at a position where a road travelled by a measurement vehicle comprising a measuring section measuring a three-dimensional position can be imaged, and a three-dimensional position of the measurement vehicle which is measured by the measuring section when the measurement vehicle travels on the road; a detecting section 66 that detects an image position of the measurement vehicle from the captured image; an association information generating section 68 that generates association information in which the image position is associated with the three-dimensional position; and a vertex information generating section 70 that generates vertex information in which the image position detected by the detection section 66 is associated with the three-dimensional position representing a vertex constituting a triangle in a coordinate system of the three-dimensional position.SELECTED DRAWING: Figure 4

Description

本開示は、位置計測用データ生成装置、位置計測装置、位置計測用データ生成方法、及び位置計測用データ生成プログラムに関する。 The present disclosure relates to a position measurement data generation device, a position measurement device, a position measurement data generation method, and a position measurement data generation program.

特許文献1には、地上の計測エリアに対してカメラ視線の傾斜した画像を取り込み、画像処理によって認識した物体の位置を計測する方法において、カメラの設置位置に基づく世界座標系(地上座標系)と前記カメラの撮像面に対応する画像座標系の間を2次元的に結び付ける中間座標面を仮定し、この中間座標面に対する前記世界座標系と前記画像座標系それぞれの位置的関係を定めた幾何学モデルを作成し、このモデルを使用して前記物体の画像上の位置から地上の位置を求めることを特徴とする画像処理による位置計測方法が開示されている。 Patent Document 1 describes a world coordinate system (ground coordinate system) based on a camera installation position in a method of capturing an image in which the camera line of sight is inclined with respect to a measurement area on the ground and measuring the position of an object recognized by image processing. Assuming an intermediate coordinate plane that two-dimensionally connects between the image coordinate system and the image coordinate system corresponding to the image pickup surface of the camera, and a geometry that defines the positional relationship between the world coordinate system and the image coordinate system with respect to the intermediate coordinate surface. A position measurement method by image processing is disclosed, which comprises creating a scholarly model and using this model to obtain a position on the ground from a position on an image of the object.

特開平10−332334号公報Japanese Unexamined Patent Publication No. 10-332334

しかしながら、上記特許文献1に記載された技術では、カメラの撮影範囲である地表面が水平であるものと仮定しているため、起伏のある地形や坂道等の平坦ではない地表面の位置の計測精度が低下する場合がある、という問題があった。 However, in the technique described in Patent Document 1, since it is assumed that the ground surface, which is the shooting range of the camera, is horizontal, the position of the ground surface that is not flat such as undulating terrain or slopes is measured. There was a problem that the accuracy might decrease.

本開示は、平坦ではない地表面における位置の計測精度が低下するのを抑制することができる位置計測用データ生成装置、位置計測装置、位置計測用データ生成方法、及び位置計測用データ生成プログラムを提供することを目的とする。 The present disclosure provides a position measurement data generation device, a position measurement device, a position measurement data generation method, and a position measurement data generation program that can suppress a decrease in position measurement accuracy on an uneven ground surface. The purpose is to provide.

本開示の第1態様に係る位置計測用データ生成装置は、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得する取得部(64)と、前記撮影画像から前記測定車両の画像位置を検出する検出部(66)と、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成する対応付け情報生成部(68)と、前記検出部により検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する頂点情報生成部(70)と、を備える。 In the position measurement data generation device according to the first aspect of the present disclosure, the measurement vehicle is photographed by a camera installed at a position capable of photographing the road on which the measurement vehicle is equipped with a measurement unit for measuring a three-dimensional position. The acquisition unit (64) that acquires the photographed image and the three-dimensional position of the measurement vehicle measured by the measurement unit when the measurement vehicle travels on the road, and the measurement vehicle from the photographed image. A detection unit (66) that detects an image position, a mapping information generation unit (68) that generates mapping information that associates the image position with the three-dimensional position, and the image detected by the detection unit. A vertex information generation unit (70) that generates vertex information in which a position is associated with the three-dimensional position representing a vertex forming a triangle in the coordinate system of the three-dimensional position is provided.

本開示の第2態様に係る位置計測装置は、第1〜4の何れか1つの態様に記載の位置計測用データ生成装置により生成された対応付け情報及び頂点情報に基づいて、前記撮影画像上における任意の画像位置を、前記三次元位置に変換する変換部(62)を備える。 The position measuring device according to the second aspect of the present disclosure is on the captured image based on the association information and the vertex information generated by the position measurement data generating device according to any one of the first to fourth aspects. A conversion unit (62) for converting an arbitrary image position in the above into the three-dimensional position is provided.

本開示の第3態様に係る位置計測用データ生成方法は、コンピュータ(30A)が、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、前記撮影画像から前記測定車両の画像位置を検出し、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する。 In the position measurement data generation method according to the third aspect of the present disclosure, a computer (30A) uses a camera installed at a position where a measurement vehicle equipped with a measurement unit for measuring a three-dimensional position can photograph a road. The photographed image taken by the measuring vehicle and the three-dimensional position of the measuring vehicle measured by the measuring unit when the measuring vehicle travels on the road are acquired, and the measured image of the measuring vehicle is obtained from the photographed image. The image position is detected, association information for associating the image position with the three-dimensional position is generated, and the detected image position represents a vertex forming a triangle in the coordinate system of the three-dimensional position. Generate vertex information associated with a three-dimensional position.

本開示の第4態様に係る位置計測用データ生成プログラム(40)は、コンピュータに、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、前記撮影画像から前記測定車両の画像位置を検出し、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成することを含む処理を実行させるための位置計測用データ生成プログラムである。 The position measurement data generation program (40) according to the fourth aspect of the present disclosure uses a camera installed in a computer at a position where a measurement vehicle equipped with a measurement unit for measuring a three-dimensional position can photograph a road. The photographed image taken by the measuring vehicle and the three-dimensional position of the measuring vehicle measured by the measuring unit when the measuring vehicle travels on the road are acquired, and the measured image of the measuring vehicle is obtained from the photographed image. The image position is detected, association information for associating the image position with the three-dimensional position is generated, and the detected image position represents a vertex forming a triangle in the coordinate system of the three-dimensional position. It is a position measurement data generation program for executing a process including generating vertex information associated with a three-dimensional position.

本開示によれば、平坦ではない地表面における位置の計測精度が低下するのを抑制することができる、という効果を有する。 According to the present disclosure, there is an effect that it is possible to suppress a decrease in measurement accuracy of a position on an uneven ground surface.

位置計測システムの構成図である。It is a block diagram of a position measurement system. カメラが撮影する道路及び世界座標系について説明するための図である。It is a figure for demonstrating the road and the world coordinate system photographed by a camera. 位置計測装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware composition of a position measuring apparatus. 位置計測装置のCPUの機能ブロック図である。It is a functional block diagram of the CPU of the position measuring apparatus. 位置計測用データ生成処理のフローチャートである。It is a flowchart of the data generation process for position measurement. 撮影画像から検出した測定車両の画像位置について説明するための図である。It is a figure for demonstrating the image position of the measurement vehicle detected from the photographed image. 測定車両の画像位置と測定車両の三次元位置との対応付けについて説明するための図である。It is a figure for demonstrating the correspondence between the image position of a measuring vehicle, and the three-dimensional position of a measuring vehicle. 頂点情報の生成について説明するための図である。It is a figure for demonstrating the generation of vertex information. 三角形の頂点の選択について説明するための図である。It is a figure for demonstrating the selection of the vertices of a triangle. 画像座標系の任意の点を世界座標系の任意の点に変換する場合について説明するための図である。It is a figure for demonstrating the case of converting an arbitrary point of an image coordinate system into an arbitrary point of a world coordinate system. 線形近似による座標変換で生じる誤差について説明するための図である。It is a figure for demonstrating the error which occurs in the coordinate transformation by linear approximation. 線形近似による座標変換で生じる誤差について説明するための図である。It is a figure for demonstrating the error which occurs in the coordinate transformation by linear approximation. カメラから見た奥行き方向が車線幅方向に沿っている場合について説明するための図である。It is a figure for demonstrating the case where the depth direction seen from the camera is along the lane width direction. 座標変換について説明するための図である。It is a figure for demonstrating the coordinate transformation. 座標変換について説明するための図である。It is a figure for demonstrating the coordinate transformation. 位置計測用データ生成処理のフローチャートである。It is a flowchart of the data generation process for position measurement. 画像位置の補正について説明するための図である。It is a figure for demonstrating the correction of an image position. 頂点の追加について説明するための図である。It is a figure for demonstrating addition of a vertex. 三角形の頂点の選択について説明するための図である。It is a figure for demonstrating the selection of the vertices of a triangle. 三角形を拡大する場合について説明するための図である。It is a figure for demonstrating the case which enlarges a triangle. 頂点付近の座標変換の精度について説明するための図である。It is a figure for demonstrating the accuracy of the coordinate transformation near a vertex. 頂点付近の座標変換の精度について説明するための図である。It is a figure for demonstrating the accuracy of the coordinate transformation near a vertex.

以下、図面を参照して、本発明を実施するための形態を詳細に説明する。 Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係る位置計測システム1の構成図である。位置計測システム1は、位置計測装置10、撮影装置14、及び車載装置12がネットワーク16を介して接続された構成である。 FIG. 1 is a configuration diagram of a position measurement system 1 according to the present embodiment. The position measurement system 1 has a configuration in which a position measurement device 10, a photographing device 14, and an in-vehicle device 12 are connected via a network 16.

車載装置12は、例えば図2に示すような測定車両Sに搭載される。図1に示すように、車載装置12は、三次元位置を測定する測定部18を備えている。測定部18は、例えばGNSS(Global Navigation Satellite System:全地球航法衛星システム)を用いて、三次元空間における車載装置12の三次元位置、すなわち測定車両Sの三次元位置を測定する。なお、実空間である三次元空間における三次元位置は、図2に示すように、x軸、y軸、及びz軸が互いに直交する世界座標系における座標として表される。 The in-vehicle device 12 is mounted on the measurement vehicle S as shown in FIG. 2, for example. As shown in FIG. 1, the in-vehicle device 12 includes a measuring unit 18 for measuring a three-dimensional position. The measuring unit 18 measures, for example, the three-dimensional position of the vehicle-mounted device 12 in the three-dimensional space, that is, the three-dimensional position of the measuring vehicle S by using GNSS (Global Navigation Satellite System). As shown in FIG. 2, the three-dimensional position in the three-dimensional space, which is the real space, is represented as the coordinates in the world coordinate system in which the x-axis, the y-axis, and the z-axis are orthogonal to each other.

撮影装置14は、カメラ20及び画角調整装置22を備える。カメラ20は、CCD(Charge−coupled devices)センサ又はCMOS(Complementary metal−oxide−semiconductor)センサ等の撮像素子を備えた単眼のカメラである。カメラ20は、例えば図2に示すように、測定車両Sが走行する道路RDを撮影可能な位置に設置される。本実施形態では、道路RDが一例として片側2車線の合計4つの車線L1〜L4からなる道路である場合について説明する。また、道路RDは、本実施形態においては、カメラ20の撮影範囲に含まれる道路を指すものとする。 The photographing device 14 includes a camera 20 and an angle of view adjusting device 22. The camera 20 is a monocular camera provided with an image sensor such as a CCD (Charge-coupled devices) sensor or a CMOS (Complementary metal-xide-processor) sensor. As shown in FIG. 2, for example, the camera 20 is installed at a position where the road RD on which the measuring vehicle S travels can be photographed. In the present embodiment, as an example, a case where the road RD is a road having two lanes on each side and a total of four lanes L1 to L4 will be described. Further, in the present embodiment, the road RD refers to a road included in the shooting range of the camera 20.

カメラ20は、予め定めた撮影間隔で測定車両Sや他の車両が走行する道路RDを撮影する。カメラ20で撮影された撮影画像の撮影画像データは、ネットワーク16を介して位置計測装置10に送信され、位置計測装置10において記憶される。ここで、撮影画像データとは、一例として、撮影画像と撮影時刻とが対応付けられたデータである。なお、撮影間隔は、測定車両Sが道路RDを走行中に複数回撮影される間隔に設定される。また、カメラ20は、道路RDを動画として撮影してもよい。この場合、撮影間隔はフレームレートで規定される。 The camera 20 photographs the road RD on which the measuring vehicle S and other vehicles travel at predetermined imaging intervals. The captured image data of the captured image captured by the camera 20 is transmitted to the position measuring device 10 via the network 16 and stored in the position measuring device 10. Here, the photographed image data is, for example, data in which the photographed image and the photographed time are associated with each other. The shooting interval is set to an interval at which the measuring vehicle S is photographed a plurality of times while traveling on the road RD. Further, the camera 20 may capture the road RD as a moving image. In this case, the shooting interval is defined by the frame rate.

測定車両Sは、カメラ20が撮影する道路RDを予め走行し、予め定めた測定間隔で世界座標系における三次元位置を測定する。なお、測定間隔が撮影間隔よりも短い方が、変換精度が高くなる。このため、測定間隔を撮影間隔よりも短くすることが好ましい。 The measuring vehicle S travels on the road RD photographed by the camera 20 in advance, and measures the three-dimensional position in the world coordinate system at a predetermined measurement interval. The conversion accuracy is higher when the measurement interval is shorter than the shooting interval. Therefore, it is preferable that the measurement interval is shorter than the imaging interval.

測定車両Sの三次元位置を測定した三次元位置測定データは、ネットワーク16を介して位置計測装置10に送信され、位置計測装置10において記憶される。ここで、三次元位置測定データとは、一例として、測定した三次元位置と、三次元位置を測定した測定時刻と、測定時刻における測定車両Sの移動ベクトルと、測定時刻における測定車両Sの移動速度と、が対応付けられたデータである。 The three-dimensional position measurement data obtained by measuring the three-dimensional position of the measuring vehicle S is transmitted to the position measuring device 10 via the network 16 and stored in the position measuring device 10. Here, the three-dimensional position measurement data is, for example, the measured three-dimensional position, the measurement time at which the three-dimensional position is measured, the movement vector of the measurement vehicle S at the measurement time, and the movement of the measurement vehicle S at the measurement time. It is the data associated with the speed.

画角調整装置22は、位置計測装置10からの指示に基づいて、カメラ20の画角を任意の画角に調整する機能を有する。なお、本実施形態では、撮影装置14が画角調整装置22を備えている場合について説明するが、カメラ20の画角を固定とし、画角調整装置22を省略してもよい。 The angle of view adjusting device 22 has a function of adjusting the angle of view of the camera 20 to an arbitrary angle of view based on an instruction from the position measuring device 10. In the present embodiment, the case where the photographing device 14 includes the angle of view adjusting device 22 will be described, but the angle of view of the camera 20 may be fixed and the angle of view adjusting device 22 may be omitted.

なお、詳細は後述するが、位置計測装置10は、カメラ20で撮影された撮影画像を画像処理することにより撮影画像上における測定車両Sの画像位置を検出する。従って、測定車両Sを検出しやすくするためのマーカーを例えば測定車両Sのルーフ部分等に設けておくことが好ましい。マーカーとしては、例えば、チェスボードパターン等の予め定めた特定のパターンが挙げられるが、これに限られるものではない。 Although details will be described later, the position measuring device 10 detects the image position of the measurement vehicle S on the captured image by performing image processing on the captured image captured by the camera 20. Therefore, it is preferable to provide a marker for facilitating the detection of the measurement vehicle S, for example, on the roof portion of the measurement vehicle S. Examples of the marker include, but are not limited to, a specific predetermined pattern such as a chess board pattern.

図3は、位置計測装置10の構成図である。位置計測装置10は、一般的なコンピュータを含む装置で構成される。 FIG. 3 is a configuration diagram of the position measuring device 10. The position measuring device 10 is composed of a device including a general computer.

図3に示すように、位置計測装置10は、コントローラ30を備える。コントローラ30は、コンピュータの一例としてのCPU(Central Processing Unit)30A、ROM(Read Only Memory)30B、RAM(Random Access Memory)30C、不揮発性メモリ30D、及び入出力インターフェース(I/O)30Eを備える。そして、CPU30A、ROM30B、RAM30C、不揮発性メモリ30D、及びI/O30Eがバス30Fを介して各々接続されている。 As shown in FIG. 3, the position measuring device 10 includes a controller 30. The controller 30 includes a CPU (Central Processing Unit) 30A, a ROM (Read Only Memory) 30B, a RAM (Random Access Memory) 30C, a non-volatile memory 30D, and an input / output interface (I / O) 30E as an example of a computer. .. The CPU 30A, ROM 30B, RAM 30C, non-volatile memory 30D, and I / O 30E are connected to each other via the bus 30F.

また、I/O30Eには、操作部32、表示部34、通信部36、及び記憶部38が接続されている。 Further, the operation unit 32, the display unit 34, the communication unit 36, and the storage unit 38 are connected to the I / O 30E.

操作部32は、例えばマウス及びキーボードを含んで構成される。 The operation unit 32 includes, for example, a mouse and a keyboard.

表示部34は、例えば液晶ディスプレイ等で構成される。 The display unit 34 is composed of, for example, a liquid crystal display or the like.

通信部36は、車載装置12及び撮影装置14等の外部装置とデータ通信を行うためのインターフェースである。 The communication unit 36 is an interface for performing data communication with external devices such as the in-vehicle device 12 and the photographing device 14.

記憶部38は、ハードディスク等の不揮発性の記憶装置で構成される。記憶部38は、後述する位置計測用データ生成プログラム40、位置計測プログラム42、三次元位置測定データ44、撮影画像データ46、対応付け情報48、及び頂点情報50等を記憶する。CPU30Aは、記憶部38に記憶された位置計測用データ生成プログラム40及び位置計測プログラム42を読み込んで実行する。 The storage unit 38 is composed of a non-volatile storage device such as a hard disk. The storage unit 38 stores the position measurement data generation program 40, the position measurement program 42, the three-dimensional position measurement data 44, the captured image data 46, the association information 48, the vertex information 50, and the like, which will be described later. The CPU 30A reads and executes the position measurement data generation program 40 and the position measurement program 42 stored in the storage unit 38.

次に、位置計測装置10のCPU30の機能構成について説明する。 Next, the functional configuration of the CPU 30 of the position measuring device 10 will be described.

図4に示すように、CPU30Aは、機能的には、位置計測用データ生成装置60及び変換部62を備える。位置計測用データ生成装置60は、取得部64、検出部66、対応付け情報生成部68、及び頂点情報生成部70を備える。 As shown in FIG. 4, the CPU 30A functionally includes a position measurement data generation device 60 and a conversion unit 62. The position measurement data generation device 60 includes an acquisition unit 64, a detection unit 66, a correspondence information generation unit 68, and a vertex information generation unit 70.

取得部64は、三次元位置を測定する測定部18を備えた測定車両Sが走行する道路RDを撮影可能な位置に設置されたカメラ20により測定車両Sが撮影された撮影画像と、測定車両Sが道路RDを走行したときに測定部18により測定された測定車両Sの三次元位置と、を取得する。 The acquisition unit 64 includes a photographed image taken by the measurement vehicle S by a camera 20 installed at a position where the road RD on which the measurement vehicle S traveling with the measurement unit 18 for measuring a three-dimensional position can be photographed, and a measurement vehicle. The three-dimensional position of the measurement vehicle S measured by the measurement unit 18 when S travels on the road RD is acquired.

なお、本実施形態では、一例として、測定車両Sの三次元位置は、道路RDの対向車線の各々を走行したときに測定した三次元位置である場合について説明する。 In this embodiment, as an example, the case where the three-dimensional position of the measurement vehicle S is the three-dimensional position measured when traveling in each of the oncoming lanes of the road RD will be described.

検出部66は、カメラ20が撮影した撮影画像から測定車両Sの画像位置を検出する。 The detection unit 66 detects the image position of the measuring vehicle S from the captured image taken by the camera 20.

対応付け情報生成部68は、撮影画像における測定車両Sの画像位置と三次元位置とを対応付けた対応付け情報48を生成する。生成した対応付け情報48は、記憶部38に記憶される。 The association information generation unit 68 generates the association information 48 in which the image position of the measurement vehicle S in the captured image and the three-dimensional position are associated with each other. The generated association information 48 is stored in the storage unit 38.

頂点情報生成部70は、検出部66により検出された画像位置を、三次元位置の座標系、すなわち世界座標系において三角形を構成する頂点を表す三次元位置に対応付けた頂点情報50を生成する。生成した頂点情報50は、記憶部38に記憶される。 The vertex information generation unit 70 generates vertex information 50 in which the image position detected by the detection unit 66 is associated with the coordinate system of the three-dimensional position, that is, the three-dimensional position representing the vertices forming the triangle in the world coordinate system. .. The generated vertex information 50 is stored in the storage unit 38.

変換部62は、位置計測用データ生成装置60により生成された対応付け情報48及び頂点情報50からなる位置計測用データに基づいて、撮影画像上における任意の画像位置を、世界座標系における三次元位置に変換する。具体的には、変換部62は、変換対象の画像位置を領域内に含む三角形の頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を三次元位置に変換する。 The conversion unit 62 sets an arbitrary image position on the captured image in three dimensions in the world coordinate system based on the position measurement data including the correspondence information 48 and the vertex information 50 generated by the position measurement data generation device 60. Convert to position. Specifically, the conversion unit 62 calculates the conversion parameter based on the vertex information of the triangle including the image position of the conversion target in the area, and uses the calculated conversion parameter to change the image position of the conversion target to the three-dimensional position. Convert.

次に、本実施の形態に係る位置計測装置10の作用を説明する。まず、位置計測用データ生成処理について説明する。図3に示すように、位置計測用データ生成プログラム40は記憶部38に記憶されている。CPU30Aが位置計測用データ生成プログラム40を読み出して実行することにより、図5に示す位置計測用データ生成処理が実行される。なお、図5に示す位置計測用データ生成処理は、オペレータが操作部32を操作して位置計測用データ生成処理の実行を指示した場合に実行される。なお、オペレータの操作を介さすに、所定時間経過する毎に図5に示す処理が繰り返し自動的に実行されるようにしてもよい。 Next, the operation of the position measuring device 10 according to the present embodiment will be described. First, the data generation process for position measurement will be described. As shown in FIG. 3, the position measurement data generation program 40 is stored in the storage unit 38. When the CPU 30A reads out and executes the position measurement data generation program 40, the position measurement data generation process shown in FIG. 5 is executed. The position measurement data generation process shown in FIG. 5 is executed when the operator operates the operation unit 32 to instruct the execution of the position measurement data generation process. The process shown in FIG. 5 may be repeatedly and automatically executed every time a predetermined time elapses through the operation of the operator.

なお、道路RDを測定車両Sが走行した際にカメラ20により撮影された撮影画像データ46及び道路RDを測定車両Sが走行した際に車載装置12の測定部18により測定された三次元位置の三次元位置測定データ44は、既に記憶部38に記憶されているものとする。また、本実施形態では、説明を簡単にするため、測定車両Sが1台の場合について説明する。 The photographed image data 46 taken by the camera 20 when the measuring vehicle S travels on the road RD, and the three-dimensional position measured by the measuring unit 18 of the in-vehicle device 12 when the measuring vehicle S travels on the road RD. It is assumed that the three-dimensional position measurement data 44 is already stored in the storage unit 38. Further, in the present embodiment, for the sake of simplicity, the case where the number of measuring vehicles S is one will be described.

また、カメラ20及び測定部18は、各々時刻同期機能を備えており、カメラ20で撮影された撮影画像の撮影時刻と、測定部18で測定された測定車両Sの三次元位置を測定した測定時刻とは、同期しているものとする。なお、時刻同期の手法としては、種々公知の手法を用いることができ、例えばNTP(Network Time Protocol)等の手法を用いることができるが、これに限られるものではない。 Further, each of the camera 20 and the measuring unit 18 has a time synchronization function, and measures the shooting time of the captured image captured by the camera 20 and the three-dimensional position of the measuring vehicle S measured by the measuring unit 18. It is assumed that the time is synchronized. As the time synchronization method, various known methods can be used, and for example, a method such as NTP (Network Time Protocol) can be used, but the method is not limited thereto.

ステップS100では、CPU30Aが、道路RDを測定車両Sが走行した際にカメラ20により撮影された撮影画像データ46を記憶部38から読み出すことにより取得する。 In step S100, the CPU 30A acquires the road RD by reading the captured image data 46 captured by the camera 20 when the measuring vehicle S travels from the storage unit 38.

ステップS102では、CPU30Aが、撮影画像データに基づいて、撮影画像から測定車両Sの画像位置を検出する。具体的には、まず撮影画像からパターンマッチング等の手法を用いて車両を検出する。そして、例えば測定車両Sを検出しやすくするためのマーカーが測定車両Sのルーフ部分等に設けられている場合には、検出された車両のうち、マーカーが設けられた車両を測定車両として抽出する。なお、測定車両Sにマーカーが設けられていない場合には、測定車両Sのフロント側の形状やリア側の形状の形状画像を記憶部38に予め記憶しておき、撮影画像から形状画像を抽出することで測定車両Sを特定してもよい。 In step S102, the CPU 30A detects the image position of the measurement vehicle S from the captured image based on the captured image data. Specifically, first, the vehicle is detected from the captured image by using a method such as pattern matching. Then, for example, when a marker for facilitating the detection of the measurement vehicle S is provided on the roof portion of the measurement vehicle S or the like, the vehicle provided with the marker is extracted as the measurement vehicle from the detected vehicles. .. When the marker is not provided on the measurement vehicle S, the shape image of the front side shape and the rear side shape of the measurement vehicle S is stored in advance in the storage unit 38, and the shape image is extracted from the captured image. The measurement vehicle S may be specified by doing so.

そして、図6に示すように、撮影画像Gから検出された測定車両SのバウンディングボックスBBの左下隅の点の座標を測定車両Sの画像位置とする。図6では、或る時刻に撮影された撮影画像Gから検出された車線L1を走行する測定車両Sの画像位置をp(u、v)として表している。なお、撮影画像Gにおける画像座標系は、図6に示すように、互いに直交するu軸及びv軸からなる二次元の座標系である。また、画像座標系の原点Omは、撮影画像Gの左上隅の点となっている。 Then, as shown in FIG. 6, the coordinates of the point at the lower left corner of the bounding box BB of the measuring vehicle S detected from the captured image G are set as the image position of the measuring vehicle S. In FIG. 6, the image position of the measurement vehicle S traveling in the lane L1 detected from the captured image G taken at a certain time is represented as p 1 (u 1 , v 1 ). As shown in FIG. 6, the image coordinate system in the captured image G is a two-dimensional coordinate system composed of u-axis and v-axis orthogonal to each other. Further, the origin Om of the image coordinate system is a point in the upper left corner of the captured image G.

また、道路RDを走行する測定車両Sは、カメラ20により複数回撮影されるので、道路RDを走行中の測定車両Sが連続して撮影された複数の撮影画像の各々について測定車両Sを検出する。図6の撮影画像Gでは、撮影画像Gにおいて検出された車線L1を走行する測定車両Sが、少し前に撮影された撮影画像から検出された場合の画像位置をp(u、v)として表している。また、測定車両Sが反対車線の車線L4を走行した場合に撮影された撮影画像から検出された場合の画像位置をp(u、v)として表している。 Further, since the measurement vehicle S traveling on the road RD is photographed a plurality of times by the camera 20, the measurement vehicle S is detected for each of the plurality of captured images continuously photographed by the measurement vehicle S traveling on the road RD. To do. In the captured image G of FIG. 6, the image position when the measuring vehicle S traveling in the lane L1 detected in the captured image G is detected from the captured image taken a while ago is p 3 (u 3 , v 3). ). Further, the image position when the measurement vehicle S is detected from the photographed image taken when the measurement vehicle S travels in the opposite lane L4 is represented as p 2 (u 2 , v 2 ).

このように、複数の撮影画像から測定車両Sの画像位置を検出することにより、車線L1、L4を走行する測定車両Sの画像位置が車線L1、L4毎に複数個検出される。 By detecting the image positions of the measuring vehicle S from the plurality of captured images in this way, a plurality of image positions of the measuring vehicle S traveling in the lanes L1 and L4 are detected for each of the lanes L1 and L4.

ステップS104では、CPU30Aが、ステップS102で検出した測定車両Sの複数の画像位置の各々に対応する三次元位置測定データを記憶部38から読み出すことにより取得する。ここで、測定車両Sの画像位置に対応する三次元位置測定データとは、測定車両Sの画像位置が撮影された撮影画像の撮影時刻と最も近い時刻に測定された三次元位置の測定データである。 In step S104, the CPU 30A acquires the three-dimensional position measurement data corresponding to each of the plurality of image positions of the measurement vehicle S detected in step S102 by reading from the storage unit 38. Here, the three-dimensional position measurement data corresponding to the image position of the measuring vehicle S is the measurement data of the three-dimensional position measured at the time closest to the shooting time of the captured image in which the image position of the measuring vehicle S is captured. is there.

これにより、例えば図7に示すように、画像位置p(u、v)に対応する三次元位置P(x、y、z)、画像位置p(u、v)に対応する三次元位置P(x、y、z)、画像位置p(u、v)に対応する三次元位置P(x、y、z)が得られる。 As a result, for example, as shown in FIG. 7, the three-dimensional position P 1 (x 1 , y 1 , z 1 ) corresponding to the image position p 1 (u 1 , v 1 ) and the image position p 2 (u 2 , v 1 ) 2) corresponding to three-dimensional position P 2 (x 2, y 2 , z 2), image position p 3 (u 3, v 3 ) corresponding to three-dimensional position P 3 (x 3, y 3 , z 3) Is obtained.

ところで、例えば画像位置p(u、v)が検出された撮影画像の撮影時刻と、三次元位置P(x、y、z)が測定された測定時刻とが一致するとは限らない。従って、測定車両Sの三次元位置を補正する必要がある。 By the way, for example, when the shooting time of the captured image in which the image position p 1 (u 1 , v 1 ) is detected and the measurement time in which the three-dimensional position P 1 (x 1 , y 1 , z 1 ) is measured coincide with each other. Is not always. Therefore, it is necessary to correct the three-dimensional position of the measurement vehicle S.

そこで、ステップS106では、CPU30Aが、撮影時刻を基準時刻として、三次元位置を補正する。すなわち、基準時刻における測定車両Sの三次元位置を算出する。具体的には、例えば三次元位置測定データに含まれる測定車両Sの測定時刻における移動ベクトル及び移動速度と、撮影時刻と測定時刻との差分と、に基づいて、基準時刻における三次元位置を算出する。 Therefore, in step S106, the CPU 30A corrects the three-dimensional position with the shooting time as the reference time. That is, the three-dimensional position of the measurement vehicle S at the reference time is calculated. Specifically, for example, the three-dimensional position at the reference time is calculated based on the movement vector and the moving speed at the measurement time of the measurement vehicle S included in the three-dimensional position measurement data and the difference between the shooting time and the measurement time. To do.

ステップS108では、CPU30Aが、ステップS102で検出した測定車両Sの画像位置と、ステップS106で補正した三次元位置と、を対応付けた対応付け情報を生成して記憶部38に記憶する。例えば図7の例では、画像位置p(u、v)と、補正後の三次元位置P(x、y、z)と、を対応付ける。同様に、画像位置p(u、v)と、補正後の三次元位置P(x、y、z)と、を対応付ける。また、画像位置p(u、v)と、補正後の三次元位置P(x、y、z)と、を対応付ける。 In step S108, the CPU 30A generates association information in which the image position of the measurement vehicle S detected in step S102 and the three-dimensional position corrected in step S106 are associated with each other and stores them in the storage unit 38. For example, in the example of FIG. 7, the image position p 1 (u 1 , v 1 ) is associated with the corrected three-dimensional position P 1 (x 1 , y 1 , z 1 ). Similarly, associated with the image position p 2 (u 2, v 2 ), and three-dimensional position of the corrected P 2 (x 2, y 2 , z 2), the. Further, the image position p 3 (u 3 , v 3 ) is associated with the corrected three-dimensional position P 3 (x 3 , y 3 , z 3 ).

ステップS110では、CPU30Aが、ステップS102で検出された画像位置を、三次元位置の世界座標系において三角形を構成する頂点を表す三次元位置に対応付けた頂点情報を生成し、記憶部38に記憶する。例えば図8の例では、撮影画像Gにおいて三角形TGの頂点を表す画像位置p、p、pを、世界座標系において三角形TWを構成する頂点を表す三次元位置P、P、Pに対応付けた頂点情報を生成する。 In step S110, the CPU 30A generates vertex information in which the image positions detected in step S102 are associated with the three-dimensional positions representing the vertices forming the triangle in the world coordinate system of the three-dimensional positions, and stores them in the storage unit 38. To do. For example, in the example of FIG. 8, the image positions p 1 , p 2 , and p 3 representing the vertices of the triangle TG in the captured image G are set to the three-dimensional positions P 1 , P 2 , P 2 representing the vertices constituting the triangle TW in the world coordinate system. generating a vertex information associated with P 3.

なお、実際には、撮影画像から多数の画像位置が検出される場合があり、頂点の選び方が問題となる。以下では、頂点の選び方について説明する。また、以下では、三次元位置を区別しない場合は単に三次元位置Pと称する。 In reality, a large number of image positions may be detected from the captured image, and how to select the vertices becomes a problem. The method of selecting vertices will be described below. Further, in the following, when the three-dimensional position is not distinguished, it is simply referred to as the three-dimensional position P.

例えば図9に示すように、測定車両Sが車線L1を走行した際に複数の三次元位置Pが測定され、車線L1の対向車線である車線L4を測定車両Sが走行した際に複数の三次元位置Pが検出されたとする。 For example, as shown in FIG. 9, a plurality of three-dimensional positions P are measured when the measuring vehicle S travels in the lane L1, and a plurality of tertiary positions P are measured when the measuring vehicle S travels in the oncoming lane L4 of the lane L1. It is assumed that the original position P is detected.

この場合、車線L1に沿って測定された複数の三次元位置Pのうち隣り合う2つの三次元位置Pa、Pbを選択する。次に、選択された2つの三次元位置Pa、Pbを結ぶ線分の垂直二等分線Nを車線L4に向けて描画したと仮定した場合に、垂直二等分線Nから最短距離の三次元位置Pcを選択する。そして、車線L1上で測定された三次元位置Pa、Pbと、車線L4上で測定された三次元位置Pcと、を三角形の頂点として関連付けた頂点情報を生成する。この頂点情報の生成処理を、車線L1上で測定された隣り合う三次元位置Pの全てについて実行する。また、対向車線である車線L4上で測定された隣り合う三次元位置Pについても同じ処理を実行する。 In this case, two adjacent three-dimensional positions Pa and Pb are selected from the plurality of three-dimensional positions P measured along the lane L1. Next, assuming that the perpendicular bisector N of the line segment connecting the two selected three-dimensional positions Pa and Pb is drawn toward the lane L4, the third order of the shortest distance from the vertical bisector N is assumed. Select the original position Pc. Then, the vertex information in which the three-dimensional positions Pa and Pb measured on the lane L1 and the three-dimensional positions Pc measured on the lane L4 are associated with each other as the vertices of a triangle is generated. This vertex information generation process is executed for all of the adjacent three-dimensional positions P measured on the lane L1. Further, the same process is executed for the adjacent three-dimensional positions P measured on the oncoming lane L4.

次に、上記の処理を実行することにより生成された対応付け情報及び頂点情報に基づいて、撮影画像上における任意の画像位置を、三次元位置に変換する処理について説明する。 Next, a process of converting an arbitrary image position on the captured image into a three-dimensional position based on the association information and the vertex information generated by executing the above process will be described.

まず、画像座標系における二次元の画像位置を、世界座標系における三次元位置に変換する際に、線形近似を用いて変換する近似原理について説明する。 First, when converting a two-dimensional image position in the image coordinate system to a three-dimensional position in the world coordinate system, the approximation principle of conversion using linear approximation will be described.

図10に示すように、二次元の画像座標系C2の任意の画像位置に対応する三次元の世界座標系C3の三次元位置は、画像座標系C2の任意の画像位置が含まれる三角形TGの頂点の画像位置p1〜p3と、三角形TGの頂点p1〜p3に対応付けられた世界座標系C3における三角形TWの頂点の三次元位置P1〜P3と、に基づいて座標変換することで求められる。 As shown in FIG. 10, the three-dimensional position of the three-dimensional world coordinate system C3 corresponding to an arbitrary image position of the two-dimensional image coordinate system C2 is a triangular TG including an arbitrary image position of the image coordinate system C2. It is obtained by coordinate transformation based on the image positions p1 to p3 of the apex and the three-dimensional positions P1 to P3 of the apex of the triangle TW in the world coordinate system C3 associated with the apex p1 to p3 of the triangle TG.

説明を簡単にするため、図11に示すように、世界座標系におけるX軸及びZ軸からなるX−Z平面がカメラ20の光軸Zcamと平行になるように空間座標系をとる。この場合、図11に示すように、Y軸方向からX−Z平面を見た場合、撮影画像におけるv方向の単位画素当たりの世界座標系におけるX方向の長さ、すなわちカメラ20から見て奥行き方向の長さは、v方向の画素位置によって異なる。例えば、画像座標系C2において画像位置p1から画像位置p3までの距離をv方向に4等分に分割した場合、それぞれの距離d1〜d4は全て同じ距離となる。これに対して、画像座標系C2における距離d1〜d4に対応する世界座標系C3における距離D1〜D4は、同じ距離とはならない。すなわち、カメラ20から近距離側の距離D1が最も短く、カメラ20から遠距離側の距離D4が最も長くなる。このように、画像座標系C2におけるカメラ20から見て奥行き方向の長さと、世界座標系C3におけるカメラ20から見て奥行き方向の長さとは、非線形の関係にある。すなわち、世界座標系C3においてY軸方向からX−Z平面を見た場合における画像座標系C2の三角形と世界座標系C3における三角形とは相似にならない。このため、画像座標系C2の任意の点の座標を世界座標系C3の座標に座標変換する際に、線形近似により変換した場合は、カメラ20から見て奥行き方向の誤差が生じることとなる。 For the sake of simplicity, as shown in FIG. 11, a spatial coordinate system is set so that the XZ plane consisting of the X axis and the Z axis in the world coordinate system is parallel to the optical axis Zcam of the camera 20. In this case, as shown in FIG. 11, when the XZ plane is viewed from the Y-axis direction, the length in the X direction in the world coordinate system per unit pixel in the v direction in the captured image, that is, the depth as seen from the camera 20. The length in the direction depends on the pixel position in the v direction. For example, when the distance from the image position p1 to the image position p3 is divided into four equal parts in the v direction in the image coordinate system C2, the respective distances d1 to d4 are all the same distance. On the other hand, the distances D1 to D4 in the world coordinate system C3 corresponding to the distances d1 to d4 in the image coordinate system C2 are not the same distance. That is, the distance D1 on the short distance side from the camera 20 is the shortest, and the distance D4 on the long distance side from the camera 20 is the longest. As described above, the length in the depth direction when viewed from the camera 20 in the image coordinate system C2 and the length in the depth direction when viewed from the camera 20 in the world coordinate system C3 have a non-linear relationship. That is, the triangle in the image coordinate system C2 and the triangle in the world coordinate system C3 when the XZ plane is viewed from the Y-axis direction in the world coordinate system C3 are not similar to each other. Therefore, when the coordinates of an arbitrary point in the image coordinate system C2 are converted into the coordinates in the world coordinate system C3, if the coordinates are converted by linear approximation, an error in the depth direction occurs when viewed from the camera 20.

一方、図12に示すように、Z軸方向からX−Y平面を見た場合、画像座標系C2におけるu方向の単位画素当たりの世界座標系C3におけるY軸方向の長さは、u方向の画素位置によって異なることはなく同じである。例えば、画像座標系C2において画像位置p1から画像位置p3までの距離をu方向に2等分に分割した場合、それぞれの距離d1、d2は全て同じ距離となる。また、画像座標系C2における距離d1、d2に対応する世界座標系C3における距離D1、D2も同じ距離となる。すなわち、Z軸方向からX−Y平面を見た場合における画像座標系C2の三角形と世界座標系C3における三角形とは相似となる。このため、画像座標系C2の任意の点の座標を世界座標系の座標に座標変換する際に線形近似により変換した場合は誤差が生じない。 On the other hand, as shown in FIG. 12, when the XY plane is viewed from the Z-axis direction, the length in the Y-axis direction in the world coordinate system C3 per unit pixel in the u direction in the image coordinate system C2 is in the u direction. It does not differ depending on the pixel position and is the same. For example, when the distance from the image position p1 to the image position p3 is divided into two equal parts in the u direction in the image coordinate system C2, the respective distances d1 and d2 are the same distance. Further, the distances D1 and D2 in the world coordinate system C3 corresponding to the distances d1 and d2 in the image coordinate system C2 are also the same distance. That is, the triangle in the image coordinate system C2 and the triangle in the world coordinate system C3 when the XY plane is viewed from the Z-axis direction are similar. Therefore, no error occurs when the coordinates of an arbitrary point in the image coordinate system C2 are converted into the coordinates of the world coordinate system by linear approximation.

従って、線形近似による変換により生じるカメラ20から見て奥行き方向の長さの誤差が許容できれば、画像座標系C2の任意の点の座標を世界座標系の座標に座標変換することができる。例えば図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合は、例えば図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合と比較して、カメラ20から見て奥行き方向の長さの誤差は許容できる場合が多い。これは、カメラ20から見て奥行き方向に道路RDが沿っている場合は、道路RDに沿って測定車両Sの三次元位置が多数測定されるため、道路RDに沿って隣り合う三次元位置の距離が短くなり、誤差の影響が小さくなるためである。なお、三次元位置の測定間隔やカメラ20の撮影間隔を短くするほど誤差は小さくなるが、誤差を許容できるか否かは、位置計測装置10の位置計測結果を利用するアプリケーションが求める精度による。カメラ20から見て奥行方向に道路RDが沿っている場合でも、三次元位置の測定間隔やカメラ20の撮影間隔が、アプリケーションが求める精度を満たす間隔でない場合には、誤差を許容できないこととなる。従って、アプリケーションが求める精度に応じて測定間隔及び撮影間隔を調整することが好ましい。 Therefore, if an error in the length in the depth direction from the camera 20 caused by the conversion by linear approximation is acceptable, the coordinates of an arbitrary point in the image coordinate system C2 can be converted into the coordinates of the world coordinate system. For example, as shown in FIG. 6, when the road RD is along the depth direction when viewed from the camera 20, for example, when the optical axis direction of the camera 20 is along the lane width direction A of the road RD as shown in FIG. In many cases, an error in the length in the depth direction when viewed from the camera 20 is acceptable. This is because when the road RD is along the depth direction when viewed from the camera 20, many three-dimensional positions of the measuring vehicle S are measured along the road RD, so that the three-dimensional positions adjacent to each other along the road RD are measured. This is because the distance becomes shorter and the influence of the error becomes smaller. The error becomes smaller as the measurement interval of the three-dimensional position and the shooting interval of the camera 20 are shortened, but whether or not the error can be tolerated depends on the accuracy required by the application that uses the position measurement result of the position measurement device 10. Even if the road RD is along the depth direction when viewed from the camera 20, if the measurement interval of the three-dimensional position or the shooting interval of the camera 20 does not satisfy the accuracy required by the application, the error cannot be tolerated. .. Therefore, it is preferable to adjust the measurement interval and the shooting interval according to the accuracy required by the application.

以下では、まず図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合について説明する。一方、図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、例えば図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合と比較して、カメラ20から見て奥行き方向の長さの誤差は許容できない場合が多い。これは、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、道路RDの車線幅方向Aに沿って測定される測定車両Sの三次元位置が少ないため、車線幅方向のいて隣り合う三次元位置の距離が長くなり、誤差の影響が大きくなるためである。従って、道路RDの車線と三角形とが交差する位置を新たな頂点として頂点情報を生成する必要があるが、この処理についての詳細は後述する。 Hereinafter, as shown in FIG. 6, a case where the road RD is along the depth direction when viewed from the camera 20 will be described first. On the other hand, as shown in FIG. 13, when the optical axis direction of the camera 20 is along the lane width direction A of the road RD, for example, as shown in FIG. 6, the road RD is along the depth direction when viewed from the camera 20. Compared with the case, an error in the length in the depth direction when viewed from the camera 20 is often unacceptable. This is because when the optical axis direction of the camera 20 is along the lane width direction A of the road RD, the three-dimensional position of the measurement vehicle S measured along the lane width direction A of the road RD is small, so that it is in the lane width direction. This is because the distance between adjacent three-dimensional positions becomes longer and the influence of error becomes larger. Therefore, it is necessary to generate vertex information with the position where the lane of the road RD and the triangle intersect as a new vertex, and the details of this process will be described later.

以下、具体的な変換方法について説明する。 Hereinafter, a specific conversion method will be described.

例えば図14に示すように、画像座標系C2における三角形TG内の任意の画像位置p(u、v)を、図15に示す世界座標系C3における三次元位置P(x、y、z)に変換する場合について説明する。 For example, as shown in FIG. 14, any image position within the triangle TG in the image coordinate system C2 p i (u i, v i) a three-dimensional position in the global coordinate system C3 shown in FIG. 15 P i (x i, A case of converting to y i , z i ) will be described.

前述した近似原理が成り立つとすると、画像座標系C2における三角形TG内の任意の画像位置p(u、v)は、画像座標系C2における三角形TGに対応した世界座標系C3における二次元の三角形TW内の点に変換できると考えられる。 When approximating the above-described principle holds, any image position within the triangle TG in the image coordinate system C2 p i (u i, v i) are two-dimensional in the world coordinate system C3 corresponding to the triangle TG in the image coordinate system C2 It is considered that it can be converted into a point in the triangle TW of.

従って、画像座標系C2における三角形TGの頂点である画像位置p(u、v)、p(u、v)、p(u、v)に基づいて画像位置p(u、v)を算出する第1の算出式と、画像座標系C2における三角形TGに対応した世界座標系C3における二次元の三角形TWの頂点である三次元位置P(x、y、z)、P(x、y、z)、P(x、y、z)に基づいて三次元位置P(x、y、z)を算出する第2の算出式と、は同一となる。すなわち、両者の算出式は、係数が同一で、変数の次元のみ異なる。 Therefore, the image position p is based on the image positions p 1 (u 1 , v 1 ), p 2 (u 2 , v 2 ), and p 3 (u 3 , v 3 ), which are the vertices of the triangle TG in the image coordinate system C2. i (u i, v i) first a calculation expression for calculating the a vertex of the two-dimensional triangular TW in the world coordinate system C3 corresponding to the triangle TG in the image coordinate system C2 three-dimensional position P 1 (x 1 , Y 1 , z 1 ), P 2 (x 2 , y 2 , z 2 ), P 3 (x 3 , y 3 , z 3 ) based on the three-dimensional position Pi (x i , y i , z i) ) Is the same as the second calculation formula. That is, both calculation formulas have the same coefficient and differ only in the dimension of the variable.

まず、画像座標系C2における第1の算出式は、次式で表される。 First, the first calculation formula in the image coordinate system C2 is expressed by the following formula.

=p+α(p−p)+β(p−p
={1−(α+β)}p+α×p+β×p ・・・(1)
p i = p 1 + α i (p 2- p 1 ) + β i (p 3- p 1 )
= {1- (α i + β i )} p 1 + α i × p 2 + β i × p 3 ... (1)

ただし、α+β≦1、0≦α、0≦β ・・・(2) However, α i + β i ≤ 1, 0 ≤ α i , 0 ≤ β i ... (2)

なお、上記(1)式において、p、p、p、pはベクトルを表す。 In the above equation (1), p i , p 1 , p 2 , and p 3 represent vectors.

上記(1)、(2)式より、変換パラメータα、βが算出される。 The conversion parameters α i and β i are calculated from the above equations (1) and (2).

そして、世界座標系C3における第2の算出式は、第1の算出式と同様に次式で表される。 Then, the second calculation formula in the world coordinate system C3 is expressed by the following formula in the same manner as the first calculation formula.

={1−(α+β)}P+α×P+β×P ・・・(3) P i = {1- (α i + β i )} P 1 + α i × P 2 + β i × P 3 ... (3)

なお、上記(3)式において、P、P、P、Pはベクトルを表す。 In the above equation (3), Pi , P 1 , P 2 , and P 3 represent vectors.

上記(1)、(2)式から算出された変換パラメータα、βを上記(3)式に代入することにより、三次元位置Pが算出される。 The three-dimensional position Pi is calculated by substituting the conversion parameters α i and β i calculated from the above equations (1) and (2) into the above equation (3).

次に、上記の変換方法を用いて撮影画像上における任意の画像位置を三次元位置に変換する位置計測処理について、図16に示すフローチャートを参照して説明する。 Next, a position measurement process for converting an arbitrary image position on a captured image into a three-dimensional position using the above conversion method will be described with reference to the flowchart shown in FIG.

図16に示す位置計測処理は、オペレータが位置計測処理の実行を指示することにより実行される。 The position measurement process shown in FIG. 16 is executed when the operator instructs the execution of the position measurement process.

まずステップS200では、CPU30Aが、カメラ20が撮影した撮影画像を表示部34に表示させる。 First, in step S200, the CPU 30A causes the display unit 34 to display the captured image captured by the camera 20.

ステップS202では、CPU30Aが、オペレータによる変換対象の画像位置pの指定を受け付ける。オペレータは、操作部32を操作して変換対象の画像位置p、例えば道路を走行している車両等を指定する。 In step S202, CPU 30A receives an designation of image position p i of the converted by the operator. The operator, the image position to be converted by operating the operating unit 32 p i, to specify a vehicle or the like which is traveling, for example, road.

ステップS204では、CPU30Aが、指定された画像位置pを世界座標系における三次元位置Pに変換する。具体的には、記憶部38に記憶された頂点情報を参照し、ステップS202で指定された画像位置pが含まれる三角形の頂点の頂点情報を抽出する。なお、抽出された頂点情報が表す頂点の画像位置をp、p、pとする。 In step S204, CPU 30A converts the designated image position p i on the three-dimensional position P i in the world coordinate system. Specifically, with reference to the vertex information stored in the storage unit 38, extracts the vertex information for the vertex of the triangle that contains the image position p i specified in step S202. The image positions of the vertices represented by the extracted vertex information are p 1 , p 2 , and p 3 .

次に、記憶部38に記憶された対応付け情報を参照し、検出した頂点情報で表される3つの頂点の画像位置p、p、pに対応する三次元位置P、P、Pを各々抽出する。 Next, referring to the association information stored in the storage unit 38, the three-dimensional positions P 1 , P 2 corresponding to the image positions p 1 , p 2 , and p 3 of the three vertices represented by the detected vertex information. , P 3 are extracted respectively.

そして、上記(1)式に画像位置p、p、pを代入し、上記(1)、(2)式により変換パラメータα、βを算出する。次に、算出した変換パラメータα、βを、抽出された三次元位置P、P、Pを上記(3)式に代入することにより、ステップS202で指定された画像位置pに対応する三次元位置Pを算出する。 Then, the image positions p 1 , p 2 , and p 3 are substituted into the above equation (1), and the conversion parameters α i and β i are calculated by the above equations (1) and (2). Next, by substituting the calculated conversion parameters α i and β i into the extracted three-dimensional positions P 1 , P 2 and P 3 into the above equation (3), the image position p i specified in step S202 and calculates the three-dimensional position P i that corresponds to.

ステップS206では、CPU30Aが、ステップS204で算出した三次元位置Pを表示部34に表示させる。これにより、例えばオペレータが指定した車両の三次元位置を知ることができる。なお、図16の処理では、撮影画像を表示し、オペレータが指定した画像位置を世界座標系における三次元位置に変換する場合について説明したが、これに限られない。例えば、パターンマッチング等の公知の手法を用いて撮影画像から車両を検出し、検出した車両の画像位置を世界座標系における三次元位置に変換する処理を所定時間毎に自動で実行するようにしてもよい。 In step S206, CPU 30A causes display of the three-dimensional position P i calculated in step S204 on the display unit 34. This makes it possible to know, for example, the three-dimensional position of the vehicle specified by the operator. In the process of FIG. 16, the case where the captured image is displayed and the image position specified by the operator is converted into the three-dimensional position in the world coordinate system has been described, but the present invention is not limited to this. For example, a vehicle is detected from a captured image using a known method such as pattern matching, and a process of converting the detected vehicle image position into a three-dimensional position in the world coordinate system is automatically executed at predetermined time intervals. May be good.

このように、本実施形態では、カメラ20で撮影された道路を、撮影画像から検出した測定車両Sの画像位置を頂点とする三角形の集合で表し、頂点の画像座標系C2における画像位置と世界座標系C3における測定車両の三次元位置とを対応付けておく。そして、画像座標系C2における三角形内の任意の画像位置を世界座標系C3における三次元位置に変換する。これにより、カメラの撮影範囲である地表面が水平であるものと仮定する場合と比較して、位置の検出対象の地表面が平坦ではない場合であっても、位置の検出精度が低下するのを抑制することができる。また、カメラの設置位置情報が不要のため、カメラの設置作業が容易となる。 As described above, in the present embodiment, the road photographed by the camera 20 is represented by a set of triangles having the image position of the measurement vehicle S detected from the captured image as the apex, and the image position and the world of the apex in the image coordinate system C2. The three-dimensional position of the measurement vehicle in the coordinate system C3 is associated with it. Then, an arbitrary image position in the triangle in the image coordinate system C2 is converted into a three-dimensional position in the world coordinate system C3. As a result, the accuracy of position detection is reduced even when the ground surface of the position detection target is not flat, as compared with the case where the ground surface, which is the shooting range of the camera, is assumed to be horizontal. Can be suppressed. In addition, since the camera installation position information is not required, the camera installation work becomes easy.

ところで、前述したように、図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、カメラ20から見て奥行き方向の長さの誤差は許容できない。この場合、道路RDの車線と三角形とが交差する位置を新たな頂点として頂点情報を生成する。具体的には、図17に示すように、まず、画像位置p1〜p3を、測定車両Sが道路と設置する面の画素となるように補正する。また、画像位置p1〜p3に対応する三次元位置P1〜P3が、補正後の画像位置p1〜p3と一致するように三次元位置P1〜P3を補正する。例えば、測定部18の設置位置に関する設置位置情報及び測定車両Sの形状に関する形状情報を記憶部38に予め記憶しておき、設置位置情報及び形状情報に基づいて、画像位置p1〜p3に対応する三次元位置P1〜P3が、補正後の画像位置p1〜p3と一致するように三次元位置P1〜P3を補正する。なお、形状情報としては、例えば測定車両Sの種類(セダン、ワゴン、トラック、バス)等に応じた三次元モデル等を用意しておくことが好ましい。 By the way, as described above, when the optical axis direction of the camera 20 is along the lane width direction A of the road RD as shown in FIG. 13, an error in the length in the depth direction when viewed from the camera 20 is unacceptable. In this case, the vertex information is generated with the position where the lane of the road RD and the triangle intersect as a new vertex. Specifically, as shown in FIG. 17, first, the image positions p1 to p3 are corrected so as to be pixels of the surface on which the measuring vehicle S is installed with the road. Further, the three-dimensional positions P1 to P3 are corrected so that the three-dimensional positions P1 to P3 corresponding to the image positions p1 to p3 coincide with the corrected image positions p1 to p3. For example, the installation position information regarding the installation position of the measurement unit 18 and the shape information regarding the shape of the measurement vehicle S are stored in advance in the storage unit 38, and correspond to the image positions p1 to p3 based on the installation position information and the shape information. The three-dimensional positions P1 to P3 are corrected so that the three-dimensional positions P1 to P3 coincide with the corrected image positions p1 to p3. As the shape information, it is preferable to prepare, for example, a three-dimensional model or the like according to the type (sedan, wagon, truck, bus) of the measurement vehicle S.

また、隣り合う車線の境界線上に頂点を追加する。具体的には、例えば図18に示すように、車線L1〜L4のそれぞれ隣り合う車線の境界線K1〜K3を公知の手法を用いて検出する。ここで、世界座標系C3における境界線K1〜K3の座標情報を予め記憶部38に記憶しておく。そして、画像位置p、p、pを頂点とする三角形TGの各辺と、境界線K1〜K3との交点を新たな頂点として追加する。また、世界座標系C3における境界線K1〜K3の座標情報に基づいて、新たに追加した頂点を表す画像位置に対応する三次元位置を算出し、両者を対応付ける。なお、新たに追加した頂点を表す画像位置に対応する三次元位置を算出する際には、各車線の車線幅は既知であり、境界線と測定車両Sの走行経路とは平行であると仮定して算出する。 It also adds vertices on the boundaries of adjacent lanes. Specifically, for example, as shown in FIG. 18, the boundary lines K1 to K3 of the adjacent lanes of the lanes L1 to L4 are detected by using a known method. Here, the coordinate information of the boundary lines K1 to K3 in the world coordinate system C3 is stored in the storage unit 38 in advance. Then, the intersection of each side of the triangle TG whose vertices are the image positions p 1 , p 2 , and p 3 and the boundary lines K1 to K3 is added as a new vertex. Further, based on the coordinate information of the boundary lines K1 to K3 in the world coordinate system C3, the three-dimensional position corresponding to the image position representing the newly added vertex is calculated, and both are associated with each other. When calculating the three-dimensional position corresponding to the image position representing the newly added vertex, it is assumed that the lane width of each lane is known and the boundary line and the traveling path of the measurement vehicle S are parallel. And calculate.

図18の例では、車線L1とL2との境界線K1上に頂点として三次元位置P、Pが追加され、車線L2とL3との境界線K2上に頂点として三次元位置P、Pが追加され、車線L3とL4との境界線K3上に頂点として三次元位置P、Pが追加されている。 In the example of FIG. 18, the three-dimensional position as a vertex P 4, P 5 is added to the top border K1 between lanes L1 and L2, the three-dimensional position as the vertex on the boundary line K2 of the lane L2 and L3 P 6, P 7 is added, three-dimensional position as the vertex on the boundary K3 between lane L3 and L4 P 8, P 9 are added.

そして、新たに追加した頂点を新たな三角形の頂点として頂点情報を生成する。例えば同じ境界線上に追加した2つの三次元位置を三角形の底辺の頂点として選択し、この底辺の両隣の境界線上に追加された三次元位置又は隣に境界線が存在しない場合は測定車両Sの走行経路上の三次元位置から3つ目の頂点を選択する。このとき、同じ境界線上に追加した2つの三次元位置を結ぶ線の垂直二等分線に近い方の頂点を3つ目の頂点として選択する。 Then, the newly added vertices are used as the vertices of a new triangle to generate vertex information. For example, if two 3D positions added on the same boundary are selected as the vertices of the base of the triangle, and there is no 3D position added on the boundary on both sides of this base or a boundary is not present next to it, the measurement vehicle S Select the third vertex from the three-dimensional position on the travel path. At this time, the vertex closer to the perpendicular bisector of the line connecting the two three-dimensional positions added on the same boundary line is selected as the third vertex.

例えば図19に示すように、新しく追加した三次元位置P、Pを例に説明する。この場合、三次元位置P、Pを結ぶ線の垂直二等分線Nを車線幅方向に描画したと仮定した場合に、三次元位置P、Pが存在する境界線K1と隣り合う境界線K2上に新たに追加された三次元位置P、Pのうち、垂直二等分線Nに近い方の三次元位置Pが頂点として選択される。また、境界線K1に対して境界線K2と反対側については、隣り合う境界線が存在しないため、走行経路線SK1上の頂点P、Pのうち、垂直二等分線Nに近い方の三次元位置Pが頂点として選択される。これにより、三次元位置P、P、Pを頂点とする三角形T1と、三次元位置P、P、Pを頂点とする三角形T2と、が新たに定義される。他の三次元位置P、P、P、P、P、Pについても同様の処理を行うことにより、新たな三角形が定義される。これにより、車線幅方向Aに沿って頂点が増加するため、画像座標系C2の任意の画像位置を世界座標系C3の三次元位置に変換する際に変換精度が低下するのを抑制することができる。 For example, as shown in FIG. 19, for explaining the three-dimensional position P 4, P 5 the newly added as an example. In this case, if it is assumed that draws a three-dimensional position P 4, P 5 the connecting perpendicular bisector N of lines lane width direction, next to the three-dimensional position P 4, the boundary line K1 which P 5 is present Of the newly added three-dimensional positions P 6 and P 7 on the matching boundary line K2, the three-dimensional position P 7 closer to the perpendicular bisector N is selected as the vertex. As for the opposite side of the boundary line K2 relative to the boundary line K1, since the adjacent border does not exist, out of the running vertices P 1 on the path line SK1, P 3, closer to the perpendicular bisector N The three-dimensional position P 1 of is selected as the vertex. Thus, a triangle T1 having vertices a three-dimensional position P 4, P 5, P 7 , the three-dimensional position P 4, the P 5, P 1 and triangle T2 having vertices, is newly defined. A new triangle is defined by performing the same processing for the other three-dimensional positions P 1 , P 3 , P 6 , P 7 , P 8 , and P 9 . As a result, the vertices increase along the lane width direction A, so that it is possible to suppress a decrease in conversion accuracy when converting an arbitrary image position in the image coordinate system C2 to a three-dimensional position in the world coordinate system C3. it can.

なお、本実施形態では、測定車両Sが車線L1及び車線L4を走行して三次元位置を測定して得られた三次元位置測定データを用いて座標変換する場合について説明したが、頂点情報で定義される三角形は、道路RDの路肩までカバーされない。そこで、図20に示すように、車道を越えて歩道や建物まで三角形TW1を拡大した拡大三角形TW2の頂点情報を生成するようにしてもよい。具体的には、エッジ検出等の公知の手法を用いて車道と歩道の境界や車道と建物との境界を検出し、検出した境界まで三角形を拡大した拡大三角形の頂点情報を生成すればよい。 In the present embodiment, the case where the measuring vehicle S travels in the lane L1 and the lane L4 to measure the three-dimensional position and performs coordinate conversion using the three-dimensional position measurement data has been described. The defined triangle does not cover the shoulder of the road RD. Therefore, as shown in FIG. 20, the vertex information of the enlarged triangle TW2, which is an enlargement of the triangle TW1 to the sidewalk or the building beyond the roadway, may be generated. Specifically, a known method such as edge detection may be used to detect the boundary between the roadway and the sidewalk and the boundary between the roadway and the building, and the vertex information of the enlarged triangle obtained by expanding the triangle to the detected boundary may be generated.

また、座標変換の精度は、三角形の頂点に近い位置ほど良くなる。例えば図21に示すように、三次元位置P1の近傍領域R1、三次元位置P2の近傍領域R2、及び三次元位置P3の近傍領域R3は、他の領域と比較して座標変換の精度が良くなる。従って、頂点付近で座標変換される割合が多くなるように、図22に示すように、車線L1〜L4の全ての車線に測定車両Sを走行させて三次元位置Pを測定することが好ましい。これにより、座標変換の精度が高くなる頂点付近の領域Rの数が多くなり、頂点付近で座標変換される割合が高くなる。 In addition, the accuracy of coordinate transformation improves as the position is closer to the apex of the triangle. For example, as shown in FIG. 21, the neighborhood region R1 of the three-dimensional position P1, the neighborhood region R2 of the three-dimensional position P2, and the neighborhood region R3 of the three-dimensional position P3 have better coordinate conversion accuracy than other regions. Become. Therefore, as shown in FIG. 22, it is preferable to run the measuring vehicle S in all lanes L1 to L4 to measure the three-dimensional position P so that the ratio of coordinate conversion near the apex increases. As a result, the number of regions R near the apex where the accuracy of the coordinate conversion is high increases, and the ratio of the coordinate conversion near the apex increases.

また、本実施形態では、カメラ20の画角が固定の場合について説明したが、複数の異なる画角で道路RDを撮影した撮影画像データを取得し、様々な画角に対応した対応付け情報及び頂点情報を生成するようにしてもよい。 Further, in the present embodiment, the case where the angle of view of the camera 20 is fixed has been described, but the photographed image data obtained by photographing the road RD at a plurality of different angles of view is acquired, and the correspondence information corresponding to various angles of view and the correspondence information The vertex information may be generated.

また、対応付け情報及び頂点情報を一度生成した後も測定車両Sを走行させて三次元位置測定データを取得し、対応付け情報及び頂点情報を更新することが好ましい。これにより、カメラ20の画角が外乱等の影響によりずれた場合でも座標変換の精度が低下するのを抑制することができる。 Further, it is preferable that the measurement vehicle S is driven to acquire the three-dimensional position measurement data even after the correspondence information and the vertex information are once generated, and the correspondence information and the vertex information are updated. As a result, even if the angle of view of the camera 20 is deviated due to the influence of disturbance or the like, it is possible to suppress a decrease in the accuracy of coordinate conversion.

また、本実施形態では、位置計測装置10が位置計測用データ生成装置60及び変換部62を備えた場合について説明したが、位置計測用データ生成装置60と、変換部62を備えた位置計測装置10と、を別個の構成としてもよい。 Further, in the present embodiment, the case where the position measurement device 10 includes the position measurement data generation device 60 and the conversion unit 62 has been described, but the position measurement device including the position measurement data generation device 60 and the conversion unit 62 has been described. 10 and may be a separate configuration.

また、本実施形態では、測定車両Sが走行する道路RDが片側2車線の合計4車線の道路である場合について説明したが、道路は、片側1車線の合計2車線の道路でもよいし、一方通行の1車線の道路でもよい。すなわち車線の数は限定されない。 Further, in the present embodiment, the case where the road RD on which the measuring vehicle S travels is a road having a total of four lanes with two lanes on each side has been described, but the road may be a road with a total of two lanes with one lane on each side, while It may be a one-lane road. That is, the number of lanes is not limited.

以上、実施の形態を説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施の形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。 Although the embodiments have been described above, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various changes or improvements can be made to the above embodiments without departing from the gist of the invention, and the modified or improved forms are also included in the technical scope of the present invention.

また、上記実施の形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。前述した実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件の組み合わせにより種々の発明が抽出される。実施の形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。 Further, the above-described embodiment does not limit the invention according to the claim, and it is said that all combinations of features described in the embodiment are indispensable for the means for solving the invention. Not exclusively. The above-described embodiments include inventions at various stages, and various inventions are extracted by combining a plurality of disclosed constituent requirements. Even if some constituents are deleted from all the constituents shown in the embodiment, a configuration in which some of the constituents are deleted can be extracted as an invention as long as the effect is obtained.

また、上記実施の形態では、位置計測用データ生成プログラム40及び位置計測プログラム42が記憶部38に予めインストールされている場合について説明したが、本発明はこれに限定されるものではない。例えば、位置計測用データ生成プログラム40及び位置計測プログラム42が、CD−ROM(Compact Disc Read Only Memory)等の記憶媒体に格納されて提供される形態、又はネットワークを介して提供される形態としてもよい。 Further, in the above embodiment, the case where the position measurement data generation program 40 and the position measurement program 42 are pre-installed in the storage unit 38 has been described, but the present invention is not limited thereto. For example, the position measurement data generation program 40 and the position measurement program 42 may be stored in a storage medium such as a CD-ROM (Compact Disc Read Only Memory) and provided, or may be provided via a network. Good.

さらに、上記実施の形態では、位置計測用データ生成処理及び位置計測処理を、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現する場合について説明したが、本発明はこれに限定されるものではない。例えば、位置計測用データ生成処理及び位置計測処理を、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現する形態としてもよい。 Further, in the above-described embodiment, the case where the position measurement data generation process and the position measurement process are realized by executing a program by a software configuration using a computer has been described, but the present invention is limited thereto. It's not something. For example, the position measurement data generation process and the position measurement process may be realized by a hardware configuration or a combination of a hardware configuration and a software configuration.

その他、上記実施の形態で説明した位置計測装置10の構成(図3参照。)は一例であり、本発明の主旨を逸脱しない範囲内において不要な部分を削除したり、新たな部分を追加したりしてもよいことは言うまでもない。 In addition, the configuration of the position measuring device 10 (see FIG. 3) described in the above embodiment is an example, and unnecessary parts are deleted or new parts are added within a range that does not deviate from the gist of the present invention. It goes without saying that you can do it.

また、上記実施の形態で説明した位置計測用データ生成プログラム40及び位置計測プログラム42の処理の流れ(図5、16参照)も一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。 Further, the processing flow (see FIGS. 5 and 16) of the position measurement data generation program 40 and the position measurement program 42 described in the above embodiment is also an example, and unnecessary steps are taken within a range that does not deviate from the gist of the present invention. Needless to say, you can delete, add new steps, or change the processing order.

62 変換部、64 取得部、66 検出部、68 対応付け情報生成部、70 頂点情報生成部 62 Conversion unit, 64 Acquisition unit, 66 Detection unit, 68 Correspondence information generation unit, 70 Vertex information generation unit

Claims (11)

三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得する取得部(64)と、
前記撮影画像から前記測定車両の画像位置を検出する検出部(66)と、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成する対応付け情報生成部(66)と、
前記検出部により検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する頂点情報生成部(70)と、
を備えた位置計測用データ生成装置(60)。
A photographed image of the measuring vehicle taken by a camera installed at a position capable of photographing the road on which the measuring vehicle has a measuring unit for measuring a three-dimensional position, and when the measuring vehicle travels on the road. The acquisition unit (64) for acquiring the three-dimensional position of the measurement vehicle measured by the measurement unit, and
A detection unit (66) that detects the image position of the measurement vehicle from the captured image, and
A mapping information generation unit (66) that generates mapping information in which the image position and the three-dimensional position are associated with each other.
A vertex information generation unit (70) that generates vertex information in which the image position detected by the detection unit is associated with the three-dimensional position representing the vertices forming a triangle in the coordinate system of the three-dimensional position.
A position measurement data generator (60).
前記測定車両の三次元位置は、前記道路の対向車線の各々を走行したときに測定した三次元位置である
請求項1記載の位置計測用データ生成装置。
The position measurement data generation device according to claim 1, wherein the three-dimensional position of the measurement vehicle is a three-dimensional position measured when traveling in each of the oncoming lanes of the road.
前記頂点情報生成部は、前記三角形を拡大した拡大三角形の頂点情報を生成する
請求項1又は請求項2記載の位置計測用データ生成装置。
The position measurement data generation device according to claim 1 or 2, wherein the vertex information generation unit generates vertex information of an enlarged triangle obtained by enlarging the triangle.
前記頂点情報生成部は、前記カメラの光軸方向が前記道路の車線幅方向に沿う場合は、前記道路の車線と前記三角形とが交差する前記三次元位置を新たな頂点として頂点情報を生成する
請求項1〜3の何れか1項に記載の位置計測用データ生成装置。
When the optical axis direction of the camera is along the lane width direction of the road, the vertex information generation unit generates vertex information with the three-dimensional position where the lane of the road and the triangle intersect as a new vertex. The position measurement data generation device according to any one of claims 1 to 3.
請求項1〜4の何れか1項に記載の位置計測用データ生成装置により生成された対応付け情報及び頂点情報に基づいて、前記撮影画像上における任意の画像位置を、前記三次元位置に変換する変換部(62)
を備えた位置計測装置(10)。
Based on the association information and the vertex information generated by the position measurement data generation device according to any one of claims 1 to 4, an arbitrary image position on the captured image is converted into the three-dimensional position. Conversion unit (62)
A position measuring device (10).
前記変換部は、変換対象の画像位置を含む三角形の頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を三次元位置に変換する
請求項5記載の位置計測装置。
The position according to claim 5, wherein the conversion unit calculates a conversion parameter based on the vertex information of a triangle including the image position of the conversion target, and converts the image position of the conversion target into a three-dimensional position using the calculated conversion parameter. Measuring device.
コンピュータ(30A)が、
三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、
前記撮影画像から前記測定車両の画像位置を検出し、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、
検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する
位置計測用データ生成方法。
The computer (30A)
A photographed image of the measuring vehicle taken by a camera installed at a position capable of photographing the road on which the measuring vehicle has a measuring unit for measuring a three-dimensional position, and when the measuring vehicle travels on the road. Obtaining the three-dimensional position of the measuring vehicle measured by the measuring unit,
The image position of the measurement vehicle is detected from the captured image,
The correspondence information in which the image position and the three-dimensional position are associated with each other is generated.
A position measurement data generation method for generating vertex information in which the detected image position is associated with the three-dimensional position representing the vertices forming a triangle in the coordinate system of the three-dimensional position.
前記測定車両の三次元位置は、前記道路の対向車線の各々を走行したときに測定した三次元位置である
請求項7記載の位置計測用データ生成方法。
The position measurement data generation method according to claim 7, wherein the three-dimensional position of the measurement vehicle is a three-dimensional position measured when traveling in each of the oncoming lanes of the road.
前記三角形を拡大した拡大三角形の頂点情報を生成する
請求項7又は請求項8記載の位置計測用データ生成方法。
The position measurement data generation method according to claim 7 or 8, wherein the vertex information of the enlarged triangle obtained by enlarging the triangle is generated.
前記カメラの光軸方向が前記道路の車線幅方向に沿う場合は、前記道路の車線と前記三角形とが交差する三次元位置を新たな頂点として頂点情報を生成する
請求項7〜9の何れか1項に記載の位置計測用データ生成方法。
When the optical axis direction of the camera is along the lane width direction of the road, any one of claims 7 to 9 for generating vertex information with the three-dimensional position where the lane of the road and the triangle intersect as a new vertex. The data generation method for position measurement according to item 1.
コンピュータに、
三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、
前記撮影画像から前記測定車両の画像位置を検出し、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、
検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する
ことを含む処理を実行させるための位置計測用データ生成プログラム(40)。
On the computer
A photographed image of the measuring vehicle taken by a camera installed at a position capable of photographing the road on which the measuring vehicle has a measuring unit for measuring a three-dimensional position, and when the measuring vehicle travels on the road. Obtaining the three-dimensional position of the measuring vehicle measured by the measuring unit,
The image position of the measurement vehicle is detected from the captured image,
The correspondence information in which the image position and the three-dimensional position are associated with each other is generated.
Position measurement data generation for executing a process including generating vertex information in which the detected image position is associated with the three-dimensional position representing the vertices constituting the triangle in the coordinate system of the three-dimensional position. Program (40).
JP2019131900A 2019-07-17 2019-07-17 Position measurement data generation device, position measurement data generation method, and position measurement data generation program Active JP7293931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019131900A JP7293931B2 (en) 2019-07-17 2019-07-17 Position measurement data generation device, position measurement data generation method, and position measurement data generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019131900A JP7293931B2 (en) 2019-07-17 2019-07-17 Position measurement data generation device, position measurement data generation method, and position measurement data generation program

Publications (2)

Publication Number Publication Date
JP2021018068A true JP2021018068A (en) 2021-02-15
JP7293931B2 JP7293931B2 (en) 2023-06-20

Family

ID=74564198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131900A Active JP7293931B2 (en) 2019-07-17 2019-07-17 Position measurement data generation device, position measurement data generation method, and position measurement data generation program

Country Status (1)

Country Link
JP (1) JP7293931B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137321A (en) * 2013-01-18 2014-07-28 Nec Corp Position coordinate conversion system, position coordinate conversion method, on-vehicle device, global coordinate measurement device and position coordinate conversion program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137321A (en) * 2013-01-18 2014-07-28 Nec Corp Position coordinate conversion system, position coordinate conversion method, on-vehicle device, global coordinate measurement device and position coordinate conversion program

Also Published As

Publication number Publication date
JP7293931B2 (en) 2023-06-20

Similar Documents

Publication Publication Date Title
US8571265B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
CN111024040B (en) Distance estimation method and device
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
JP5714940B2 (en) Moving body position measuring device
JP5363752B2 (en) Road marking map generation method
JP2009237901A (en) Method of creating road marker map
WO2018133727A1 (en) Method and apparatus for generating orthophoto map
JP2006053890A (en) Obstacle detection apparatus and method therefor
EP3324359B1 (en) Image processing device and image processing method
JP2006105661A (en) Method for estimating plane by stereo image
JP5281424B2 (en) Road marking map generation method
JP5396585B2 (en) Feature identification method
JP2023029441A (en) Measuring device, measuring system, and vehicle
JP2019163624A (en) Information processing device, information processing method and display device
JP7010535B2 (en) Information processing equipment
JP7315216B2 (en) Corrected Distance Calculation Device, Corrected Distance Calculation Program, and Corrected Distance Calculation Method
JP7293931B2 (en) Position measurement data generation device, position measurement data generation method, and position measurement data generation program
NL2016718B1 (en) A method for improving position information associated with a collection of images.
JP7380443B2 (en) Partial image generation device and computer program for partial image generation
JP5964093B2 (en) Vehicle size measuring device, vehicle size measuring method, and program
JP7114963B2 (en) Imaging system, imaging device, imaging method, and mobile object equipped with imaging system
KR20240022986A (en) METHODS AND APPARATUS FOR ESTIMATION OF THE DISTANCE OF THE OBJECTS IN EUCLIDEAN SPACE USING FUSION OF CAMERA POSE INFORMATION and SCENE PRIOR INFORMATION'S AND THEREOF
JP2011059121A (en) Measurement truck and base
JP2004030440A (en) Image processing method, image processing program, and computer readable recording medium with the program recorded thereon
JP2004233139A (en) Method and apparatus for determination of corresponding point with measurement point in photogrammetry

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R151 Written notification of patent or utility model registration

Ref document number: 7293931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151