JP7293931B2 - Position measurement data generation device, position measurement data generation method, and position measurement data generation program - Google Patents

Position measurement data generation device, position measurement data generation method, and position measurement data generation program Download PDF

Info

Publication number
JP7293931B2
JP7293931B2 JP2019131900A JP2019131900A JP7293931B2 JP 7293931 B2 JP7293931 B2 JP 7293931B2 JP 2019131900 A JP2019131900 A JP 2019131900A JP 2019131900 A JP2019131900 A JP 2019131900A JP 7293931 B2 JP7293931 B2 JP 7293931B2
Authority
JP
Japan
Prior art keywords
image
measurement
dimensional
road
dimensional position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019131900A
Other languages
Japanese (ja)
Other versions
JP2021018068A (en
Inventor
翔太 新内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019131900A priority Critical patent/JP7293931B2/en
Publication of JP2021018068A publication Critical patent/JP2021018068A/en
Application granted granted Critical
Publication of JP7293931B2 publication Critical patent/JP7293931B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本開示は、位置計測用データ生成装置、置計測用データ生成方法、及び位置計測用データ生成プログラムに関する。 The present disclosure relates to a position measurement data generation device, a position measurement data generation method, and a position measurement data generation program.

特許文献1には、地上の計測エリアに対してカメラ視線の傾斜した画像を取り込み、画像処理によって認識した物体の位置を計測する方法において、カメラの設置位置に基づく世界座標系(地上座標系)と前記カメラの撮像面に対応する画像座標系の間を2次元的に結び付ける中間座標面を仮定し、この中間座標面に対する前記世界座標系と前記画像座標系それぞれの位置的関係を定めた幾何学モデルを作成し、このモデルを使用して前記物体の画像上の位置から地上の位置を求めることを特徴とする画像処理による位置計測方法が開示されている。 Patent Document 1 describes a method of capturing an image in which the line of sight of a camera is tilted with respect to a measurement area on the ground, and measuring the position of an object recognized by image processing. and the image coordinate system corresponding to the imaging plane of the camera are assumed to be two-dimensionally connected, and the positional relationship between the world coordinate system and the image coordinate system with respect to this intermediate coordinate plane is defined. A position measurement method based on image processing is disclosed, which is characterized by creating a physical model and using this model to determine the position on the ground from the position of the object on the image.

特開平10-332334号公報JP-A-10-332334

しかしながら、上記特許文献1に記載された技術では、カメラの撮影範囲である地表面が水平であるものと仮定しているため、起伏のある地形や坂道等の平坦ではない地表面の位置の計測精度が低下する場合がある、という問題があった。 However, the technique described in Patent Document 1 assumes that the ground surface, which is the imaging range of the camera, is horizontal. There is a problem that the accuracy may decrease.

本開示は、平坦ではない地表面における位置の計測精度が低下するのを抑制することができる位置計測用データ生成装置、置計測用データ生成方法、及び位置計測用データ生成プログラムを提供することを目的とする。 The present disclosure provides a position measurement data generation device, a position measurement data generation method, and a position measurement data generation program that can suppress a decrease in position measurement accuracy on an uneven ground surface. With the goal.

本開示の第1態様に係る位置計測用データ生成装置は、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得する取得部(64)と、前記撮影画像から前記測定車両の画像位置を検出する検出部(66)と、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成する対応付け情報生成部(68)と、前記検出部により検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する頂点情報生成部(70)と、を備える。 A position measurement data generating device according to a first aspect of the present disclosure is provided with a measuring unit that measures a three-dimensional position. and a three-dimensional position of the measurement vehicle measured by the measurement unit when the measurement vehicle travels on the road; A detection unit (66) for detecting an image position, a correspondence information generation unit (68) for generating correspondence information in which the image position and the three-dimensional position are associated with each other, and the image detected by the detection unit. and a vertex information generation unit (70) for generating vertex information in which positions are associated with the three-dimensional positions representing vertices forming a triangle in the coordinate system of the three-dimensional positions.

本開示の第2態様に係る位置計測装置は、第1~4の何れか1つの態様に記載の位置計測用データ生成装置により生成された対応付け情報及び頂点情報に基づいて、前記撮影画像上における任意の画像位置を、前記三次元位置に変換する変換部(62)を備える。 A position measurement device according to a second aspect of the present disclosure, based on the correspondence information and vertex information generated by the position measurement data generation device according to any one of the first to fourth aspects, on the captured image. a conversion unit (62) for converting an arbitrary image position in the above into the three-dimensional position.

本開示の第3態様に係る位置計測用データ生成方法は、コンピュータ(30A)が、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、前記撮影画像から前記測定車両の画像位置を検出し、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成する。 A method for generating position measurement data according to a third aspect of the present disclosure includes: a computer (30A) having a measuring unit that measures a three-dimensional position; A photographed image of the measurement vehicle and a three-dimensional position of the measurement vehicle measured by the measurement unit when the measurement vehicle travels on the road are obtained, and the position of the measurement vehicle is acquired from the photographed image. detecting an image position, generating correspondence information in which the image position and the three-dimensional position are associated with each other, and representing the detected image position as a vertex forming a triangle in the coordinate system of the three-dimensional position; Generate vertex information associated with three-dimensional positions.

本開示の第4態様に係る位置計測用データ生成プログラム(40)は、コンピュータに、三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、前記撮影画像から前記測定車両の画像位置を検出し、前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、検出された前記画像位置を、前記三次元位置の座標系において三角形を構成する頂点を表す前記三次元位置に対応付けた頂点情報を生成することを含む処理を実行させるための位置計測用データ生成プログラムである。 A position measurement data generation program (40) according to a fourth aspect of the present disclosure includes a computer provided with a measurement unit for measuring a three-dimensional position, and a camera installed at a position capable of photographing a road on which a measurement vehicle travels. A photographed image of the measurement vehicle and a three-dimensional position of the measurement vehicle measured by the measurement unit when the measurement vehicle travels on the road are obtained, and the position of the measurement vehicle is acquired from the photographed image. detecting an image position, generating correspondence information in which the image position and the three-dimensional position are associated with each other, and representing the detected image position as a vertex forming a triangle in the coordinate system of the three-dimensional position; A position measurement data generation program for executing processing including generation of vertex information associated with a three-dimensional position.

本開示によれば、平坦ではない地表面における位置の計測精度が低下するのを抑制することができる、という効果を有する。 ADVANTAGE OF THE INVENTION According to this indication, it has the effect that it can suppress that the measurement accuracy of the position in the ground surface which is not flat can fall.

位置計測システムの構成図である。1 is a configuration diagram of a position measurement system; FIG. カメラが撮影する道路及び世界座標系について説明するための図である。It is a figure for demonstrating the road which a camera image|photographs, and a world coordinate system. 位置計測装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of a position measuring device. 位置計測装置のCPUの機能ブロック図である。3 is a functional block diagram of a CPU of the position measuring device; FIG. 位置計測用データ生成処理のフローチャートである。6 is a flowchart of position measurement data generation processing; 撮影画像から検出した測定車両の画像位置について説明するための図である。It is a figure for demonstrating the image position of the measurement vehicle detected from the picked-up image. 測定車両の画像位置と測定車両の三次元位置との対応付けについて説明するための図である。FIG. 10 is a diagram for explaining the correspondence between the image position of the measurement vehicle and the three-dimensional position of the measurement vehicle; 頂点情報の生成について説明するための図である。FIG. 4 is a diagram for explaining generation of vertex information; 三角形の頂点の選択について説明するための図である。FIG. 10 is a diagram for explaining selection of vertices of a triangle; 画像座標系の任意の点を世界座標系の任意の点に変換する場合について説明するための図である。FIG. 4 is a diagram for explaining a case of transforming an arbitrary point in an image coordinate system into an arbitrary point in a world coordinate system; 線形近似による座標変換で生じる誤差について説明するための図である。FIG. 10 is a diagram for explaining an error that occurs in coordinate transformation by linear approximation; 線形近似による座標変換で生じる誤差について説明するための図である。FIG. 10 is a diagram for explaining an error that occurs in coordinate transformation by linear approximation; カメラから見た奥行き方向が車線幅方向に沿っている場合について説明するための図である。It is a figure for demonstrating the case where the depth direction seen from the camera is along the lane width direction. 座標変換について説明するための図である。FIG. 4 is a diagram for explaining coordinate conversion; 座標変換について説明するための図である。FIG. 4 is a diagram for explaining coordinate conversion; 位置計測用データ生成処理のフローチャートである。6 is a flowchart of position measurement data generation processing; 画像位置の補正について説明するための図である。FIG. 4 is a diagram for explaining correction of an image position; 頂点の追加について説明するための図である。FIG. 10 is a diagram for explaining addition of vertices; 三角形の頂点の選択について説明するための図である。FIG. 10 is a diagram for explaining selection of vertices of a triangle; 三角形を拡大する場合について説明するための図である。It is a figure for demonstrating the case where a triangle is enlarged. 頂点付近の座標変換の精度について説明するための図である。FIG. 4 is a diagram for explaining the accuracy of coordinate transformation near vertices; 頂点付近の座標変換の精度について説明するための図である。FIG. 4 is a diagram for explaining the accuracy of coordinate transformation near vertices;

以下、図面を参照して、本発明を実施するための形態を詳細に説明する。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

図1は、本実施形態に係る位置計測システム1の構成図である。位置計測システム1は、位置計測装置10、撮影装置14、及び車載装置12がネットワーク16を介して接続された構成である。 FIG. 1 is a configuration diagram of a position measurement system 1 according to this embodiment. The position measurement system 1 has a configuration in which a position measurement device 10 , a photographing device 14 , and an in-vehicle device 12 are connected via a network 16 .

車載装置12は、例えば図2に示すような測定車両Sに搭載される。図1に示すように、車載装置12は、三次元位置を測定する測定部18を備えている。測定部18は、例えばGNSS(Global Navigation Satellite System:全地球航法衛星システム)を用いて、三次元空間における車載装置12の三次元位置、すなわち測定車両Sの三次元位置を測定する。なお、実空間である三次元空間における三次元位置は、図2に示すように、x軸、y軸、及びz軸が互いに直交する世界座標系における座標として表される。 The in-vehicle device 12 is mounted, for example, on a measurement vehicle S as shown in FIG. As shown in FIG. 1, the in-vehicle device 12 includes a measuring section 18 that measures a three-dimensional position. The measurement unit 18 measures the three-dimensional position of the vehicle-mounted device 12 in a three-dimensional space, that is, the three-dimensional position of the measurement vehicle S, using, for example, GNSS (Global Navigation Satellite System). A three-dimensional position in a three-dimensional space, which is a real space, is expressed as coordinates in a world coordinate system in which x-, y-, and z-axes are orthogonal to each other, as shown in FIG.

撮影装置14は、カメラ20及び画角調整装置22を備える。カメラ20は、CCD(Charge-coupled devices)センサ又はCMOS(Complementary metal-oxide-semiconductor)センサ等の撮像素子を備えた単眼のカメラである。カメラ20は、例えば図2に示すように、測定車両Sが走行する道路RDを撮影可能な位置に設置される。本実施形態では、道路RDが一例として片側2車線の合計4つの車線L1~L4からなる道路である場合について説明する。また、道路RDは、本実施形態においては、カメラ20の撮影範囲に含まれる道路を指すものとする。 The photographing device 14 includes a camera 20 and an angle-of-view adjusting device 22 . The camera 20 is a monocular camera having an imaging device such as a CCD (Charge-coupled devices) sensor or a CMOS (Complementary metal-oxide-semiconductor) sensor. The camera 20 is installed at a position capable of photographing the road RD on which the measurement vehicle S travels, as shown in FIG. 2, for example. In this embodiment, a case where the road RD is a road consisting of four lanes L1 to L4 with two lanes on each side will be described as an example. Also, the road RD refers to a road included in the photographing range of the camera 20 in this embodiment.

カメラ20は、予め定めた撮影間隔で測定車両Sや他の車両が走行する道路RDを撮影する。カメラ20で撮影された撮影画像の撮影画像データは、ネットワーク16を介して位置計測装置10に送信され、位置計測装置10において記憶される。ここで、撮影画像データとは、一例として、撮影画像と撮影時刻とが対応付けられたデータである。なお、撮影間隔は、測定車両Sが道路RDを走行中に複数回撮影される間隔に設定される。また、カメラ20は、道路RDを動画として撮影してもよい。この場合、撮影間隔はフレームレートで規定される。 The camera 20 photographs the road RD on which the measurement vehicle S and other vehicles travel at predetermined photographing intervals. The captured image data of the captured image captured by the camera 20 is transmitted to the position measuring device 10 via the network 16 and stored in the position measuring device 10 . Here, the photographed image data is, for example, data in which a photographed image and a photographing time are associated with each other. Note that the shooting interval is set to an interval at which multiple shots are taken while the measurement vehicle S is traveling on the road RD. Also, the camera 20 may shoot the road RD as a moving image. In this case, the shooting interval is defined by the frame rate.

測定車両Sは、カメラ20が撮影する道路RDを予め走行し、予め定めた測定間隔で世界座標系における三次元位置を測定する。なお、測定間隔が撮影間隔よりも短い方が、変換精度が高くなる。このため、測定間隔を撮影間隔よりも短くすることが好ましい。 The measurement vehicle S travels in advance on the road RD photographed by the camera 20, and measures the three-dimensional position in the world coordinate system at predetermined measurement intervals. It should be noted that conversion accuracy is higher when the measurement interval is shorter than the photographing interval. Therefore, it is preferable to set the measurement interval shorter than the photographing interval.

測定車両Sの三次元位置を測定した三次元位置測定データは、ネットワーク16を介して位置計測装置10に送信され、位置計測装置10において記憶される。ここで、三次元位置測定データとは、一例として、測定した三次元位置と、三次元位置を測定した測定時刻と、測定時刻における測定車両Sの移動ベクトルと、測定時刻における測定車両Sの移動速度と、が対応付けられたデータである。 Three-dimensional position measurement data obtained by measuring the three-dimensional position of the measurement vehicle S is transmitted to the position measuring device 10 via the network 16 and stored in the position measuring device 10 . Here, the three-dimensional position measurement data includes, for example, the measured three-dimensional position, the measurement time when the three-dimensional position was measured, the movement vector of the measurement vehicle S at the measurement time, and the movement of the measurement vehicle S at the measurement time. are data in which speed and are associated with each other.

画角調整装置22は、位置計測装置10からの指示に基づいて、カメラ20の画角を任意の画角に調整する機能を有する。なお、本実施形態では、撮影装置14が画角調整装置22を備えている場合について説明するが、カメラ20の画角を固定とし、画角調整装置22を省略してもよい。 The angle-of-view adjusting device 22 has a function of adjusting the angle of view of the camera 20 to an arbitrary angle of view based on an instruction from the position measuring device 10 . In this embodiment, a case where the photographing device 14 includes the angle-of-view adjusting device 22 will be described, but the angle of view of the camera 20 may be fixed and the angle-of-view adjusting device 22 may be omitted.

なお、詳細は後述するが、位置計測装置10は、カメラ20で撮影された撮影画像を画像処理することにより撮影画像上における測定車両Sの画像位置を検出する。従って、測定車両Sを検出しやすくするためのマーカーを例えば測定車両Sのルーフ部分等に設けておくことが好ましい。マーカーとしては、例えば、チェスボードパターン等の予め定めた特定のパターンが挙げられるが、これに限られるものではない。 Although the details will be described later, the position measurement device 10 detects the image position of the measurement vehicle S on the captured image by performing image processing on the captured image captured by the camera 20 . Therefore, it is preferable to provide a marker, for example, on the roof of the measurement vehicle S to facilitate detection of the measurement vehicle S. Examples of markers include predetermined specific patterns such as chessboard patterns, but are not limited to these.

図3は、位置計測装置10の構成図である。位置計測装置10は、一般的なコンピュータを含む装置で構成される。 FIG. 3 is a configuration diagram of the position measuring device 10. As shown in FIG. The position measuring device 10 is composed of a device including a general computer.

図3に示すように、位置計測装置10は、コントローラ30を備える。コントローラ30は、コンピュータの一例としてのCPU(Central Processing Unit)30A、ROM(Read Only Memory)30B、RAM(Random Access Memory)30C、不揮発性メモリ30D、及び入出力インターフェース(I/O)30Eを備える。そして、CPU30A、ROM30B、RAM30C、不揮発性メモリ30D、及びI/O30Eがバス30Fを介して各々接続されている。 As shown in FIG. 3 , the position measuring device 10 has a controller 30 . The controller 30 includes a CPU (Central Processing Unit) 30A as an example of a computer, a ROM (Read Only Memory) 30B, a RAM (Random Access Memory) 30C, a nonvolatile memory 30D, and an input/output interface (I/O) 30E. . A CPU 30A, a ROM 30B, a RAM 30C, a nonvolatile memory 30D, and an I/O 30E are connected via a bus 30F.

また、I/O30Eには、操作部32、表示部34、通信部36、及び記憶部38が接続されている。 Also, the operation unit 32, the display unit 34, the communication unit 36, and the storage unit 38 are connected to the I/O 30E.

操作部32は、例えばマウス及びキーボードを含んで構成される。 The operation unit 32 includes, for example, a mouse and a keyboard.

表示部34は、例えば液晶ディスプレイ等で構成される。 The display unit 34 is configured by, for example, a liquid crystal display.

通信部36は、車載装置12及び撮影装置14等の外部装置とデータ通信を行うためのインターフェースである。 The communication unit 36 is an interface for performing data communication with external devices such as the in-vehicle device 12 and the imaging device 14 .

記憶部38は、ハードディスク等の不揮発性の記憶装置で構成される。記憶部38は、後述する位置計測用データ生成プログラム40、位置計測プログラム42、三次元位置測定データ44、撮影画像データ46、対応付け情報48、及び頂点情報50等を記憶する。CPU30Aは、記憶部38に記憶された位置計測用データ生成プログラム40及び位置計測プログラム42を読み込んで実行する。 The storage unit 38 is composed of a non-volatile storage device such as a hard disk. The storage unit 38 stores a position measurement data generation program 40, a position measurement program 42, three-dimensional position measurement data 44, photographed image data 46, association information 48, vertex information 50, and the like, which will be described later. The CPU 30A reads and executes the position measurement data generation program 40 and the position measurement program 42 stored in the storage unit 38 .

次に、位置計測装置10のCPU30の機能構成について説明する。 Next, the functional configuration of the CPU 30 of the position measuring device 10 will be described.

図4に示すように、CPU30Aは、機能的には、位置計測用データ生成装置60及び変換部62を備える。位置計測用データ生成装置60は、取得部64、検出部66、対応付け情報生成部68、及び頂点情報生成部70を備える。 As shown in FIG. 4 , the CPU 30A functionally includes a position measurement data generation device 60 and a conversion section 62 . The position measurement data generation device 60 includes an acquisition unit 64 , a detection unit 66 , a correspondence information generation unit 68 and a vertex information generation unit 70 .

取得部64は、三次元位置を測定する測定部18を備えた測定車両Sが走行する道路RDを撮影可能な位置に設置されたカメラ20により測定車両Sが撮影された撮影画像と、測定車両Sが道路RDを走行したときに測定部18により測定された測定車両Sの三次元位置と、を取得する。 The acquisition unit 64 obtains a captured image of the measurement vehicle S captured by the camera 20, which is installed at a position capable of capturing a road RD on which the measurement vehicle S travels and which includes the measurement unit 18 for measuring the three-dimensional position, and the measurement vehicle S. and the three-dimensional position of the measurement vehicle S measured by the measurement unit 18 when S travels on the road RD.

なお、本実施形態では、一例として、測定車両Sの三次元位置は、道路RDの対向車線の各々を走行したときに測定した三次元位置である場合について説明する。 In this embodiment, as an example, the three-dimensional position of the vehicle S to be measured is the three-dimensional position measured when traveling in each of the oncoming lanes of the road RD.

検出部66は、カメラ20が撮影した撮影画像から測定車両Sの画像位置を検出する。 The detection unit 66 detects the image position of the measurement vehicle S from the captured image captured by the camera 20 .

対応付け情報生成部68は、撮影画像における測定車両Sの画像位置と三次元位置とを対応付けた対応付け情報48を生成する。生成した対応付け情報48は、記憶部38に記憶される。 The association information generation unit 68 generates association information 48 that associates the image position of the measurement vehicle S in the captured image with the three-dimensional position. The generated association information 48 is stored in the storage unit 38 .

頂点情報生成部70は、検出部66により検出された画像位置を、三次元位置の座標系、すなわち世界座標系において三角形を構成する頂点を表す三次元位置に対応付けた頂点情報50を生成する。生成した頂点情報50は、記憶部38に記憶される。 The vertex information generation unit 70 generates vertex information 50 in which the image positions detected by the detection unit 66 are associated with three-dimensional positions representing vertices forming a triangle in a three-dimensional coordinate system, that is, a world coordinate system. . The generated vertex information 50 is stored in the storage unit 38 .

変換部62は、位置計測用データ生成装置60により生成された対応付け情報48及び頂点情報50からなる位置計測用データに基づいて、撮影画像上における任意の画像位置を、世界座標系における三次元位置に変換する。具体的には、変換部62は、変換対象の画像位置を領域内に含む三角形の頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を三次元位置に変換する。 The conversion unit 62 converts an arbitrary image position on the captured image into a three-dimensional image in the world coordinate system based on the position measurement data including the correspondence information 48 and the vertex information 50 generated by the position measurement data generation device 60. Convert to position. Specifically, the conversion unit 62 calculates a conversion parameter based on the vertex information of a triangle that includes the position of the image to be converted within the region, and converts the position of the image to be converted into a three-dimensional position using the calculated conversion parameter. Convert.

次に、本実施の形態に係る位置計測装置10の作用を説明する。まず、位置計測用データ生成処理について説明する。図3に示すように、位置計測用データ生成プログラム40は記憶部38に記憶されている。CPU30Aが位置計測用データ生成プログラム40を読み出して実行することにより、図5に示す位置計測用データ生成処理が実行される。なお、図5に示す位置計測用データ生成処理は、オペレータが操作部32を操作して位置計測用データ生成処理の実行を指示した場合に実行される。なお、オペレータの操作を介さすに、所定時間経過する毎に図5に示す処理が繰り返し自動的に実行されるようにしてもよい。 Next, the operation of the position measuring device 10 according to this embodiment will be described. First, position measurement data generation processing will be described. As shown in FIG. 3, the position measurement data generation program 40 is stored in the storage unit 38 . The position measurement data generation process shown in FIG. 5 is executed by the CPU 30A reading and executing the position measurement data generation program 40. FIG. The position measurement data generation process shown in FIG. 5 is executed when the operator operates the operation unit 32 to instruct execution of the position measurement data generation process. It should be noted that the processing shown in FIG. 5 may be repeatedly and automatically executed each time a predetermined time elapses without intervention of the operator.

なお、道路RDを測定車両Sが走行した際にカメラ20により撮影された撮影画像データ46及び道路RDを測定車両Sが走行した際に車載装置12の測定部18により測定された三次元位置の三次元位置測定データ44は、既に記憶部38に記憶されているものとする。また、本実施形態では、説明を簡単にするため、測定車両Sが1台の場合について説明する。 In addition, the image data 46 captured by the camera 20 when the measurement vehicle S travels on the road RD and the three-dimensional position measured by the measurement unit 18 of the in-vehicle device 12 when the measurement vehicle S travels on the road RD are shown. It is assumed that the three-dimensional position measurement data 44 has already been stored in the storage unit 38 . Moreover, in this embodiment, for the sake of simplicity, the case where the number of measurement vehicles S is one will be described.

また、カメラ20及び測定部18は、各々時刻同期機能を備えており、カメラ20で撮影された撮影画像の撮影時刻と、測定部18で測定された測定車両Sの三次元位置を測定した測定時刻とは、同期しているものとする。なお、時刻同期の手法としては、種々公知の手法を用いることができ、例えばNTP(Network Time Protocol)等の手法を用いることができるが、これに限られるものではない。 In addition, the camera 20 and the measurement unit 18 each have a time synchronization function. Time is assumed to be synchronized. As a time synchronization method, various known methods can be used, for example, a method such as NTP (Network Time Protocol) can be used, but the method is not limited to this.

ステップS100では、CPU30Aが、道路RDを測定車両Sが走行した際にカメラ20により撮影された撮影画像データ46を記憶部38から読み出すことにより取得する。 In step S100, the CPU 30A acquires the captured image data 46 captured by the camera 20 when the measurement vehicle S travels on the road RD by reading from the storage unit .

ステップS102では、CPU30Aが、撮影画像データに基づいて、撮影画像から測定車両Sの画像位置を検出する。具体的には、まず撮影画像からパターンマッチング等の手法を用いて車両を検出する。そして、例えば測定車両Sを検出しやすくするためのマーカーが測定車両Sのルーフ部分等に設けられている場合には、検出された車両のうち、マーカーが設けられた車両を測定車両として抽出する。なお、測定車両Sにマーカーが設けられていない場合には、測定車両Sのフロント側の形状やリア側の形状の形状画像を記憶部38に予め記憶しておき、撮影画像から形状画像を抽出することで測定車両Sを特定してもよい。 In step S102, the CPU 30A detects the image position of the measurement vehicle S from the captured image based on the captured image data. Specifically, first, the vehicle is detected from the photographed image using a technique such as pattern matching. Then, for example, when a marker is provided on the roof portion of the measurement vehicle S to facilitate detection of the measurement vehicle S, the vehicle provided with the marker is extracted as the measurement vehicle from among the detected vehicles. . In addition, when the measurement vehicle S is not provided with a marker, shape images of the front side shape and the rear side shape of the measurement vehicle S are stored in advance in the storage unit 38, and the shape images are extracted from the photographed images. By doing so, the measurement vehicle S may be specified.

そして、図6に示すように、撮影画像Gから検出された測定車両SのバウンディングボックスBBの左下隅の点の座標を測定車両Sの画像位置とする。図6では、或る時刻に撮影された撮影画像Gから検出された車線L1を走行する測定車両Sの画像位置をp(u、v)として表している。なお、撮影画像Gにおける画像座標系は、図6に示すように、互いに直交するu軸及びv軸からなる二次元の座標系である。また、画像座標系の原点Omは、撮影画像Gの左上隅の点となっている。 Then, as shown in FIG. 6, the coordinates of the point at the lower left corner of the bounding box BB of the measurement vehicle S detected from the photographed image G are taken as the image position of the measurement vehicle S. FIG. In FIG. 6, the image position of the measurement vehicle S traveling on the lane L1 detected from the captured image G captured at a certain time is represented as p 1 (u 1 , v 1 ). It should be noted that the image coordinate system in the photographed image G is a two-dimensional coordinate system composed of mutually orthogonal u-axis and v-axis, as shown in FIG. The origin Om of the image coordinate system is the point at the upper left corner of the captured image G. As shown in FIG.

また、道路RDを走行する測定車両Sは、カメラ20により複数回撮影されるので、道路RDを走行中の測定車両Sが連続して撮影された複数の撮影画像の各々について測定車両Sを検出する。図6の撮影画像Gでは、撮影画像Gにおいて検出された車線L1を走行する測定車両Sが、少し前に撮影された撮影画像から検出された場合の画像位置をp(u、v)として表している。また、測定車両Sが反対車線の車線L4を走行した場合に撮影された撮影画像から検出された場合の画像位置をp(u、v)として表している。 In addition, since the measurement vehicle S traveling on the road RD is photographed a plurality of times by the camera 20, the measurement vehicle S is detected from each of the plurality of consecutively photographed images of the measurement vehicle S traveling on the road RD. do. In the captured image G of FIG. 6, the image position p 3 (u 3 , v 3 ). Further, the image position detected from the captured image captured when the measurement vehicle S travels in the opposite lane L4 is represented as p 2 (u 2 , v 2 ).

このように、複数の撮影画像から測定車両Sの画像位置を検出することにより、車線L1、L4を走行する測定車両Sの画像位置が車線L1、L4毎に複数個検出される。 By detecting the image positions of the measurement vehicle S from a plurality of captured images in this manner, a plurality of image positions of the measurement vehicle S traveling in the lanes L1 and L4 are detected for each of the lanes L1 and L4.

ステップS104では、CPU30Aが、ステップS102で検出した測定車両Sの複数の画像位置の各々に対応する三次元位置測定データを記憶部38から読み出すことにより取得する。ここで、測定車両Sの画像位置に対応する三次元位置測定データとは、測定車両Sの画像位置が撮影された撮影画像の撮影時刻と最も近い時刻に測定された三次元位置の測定データである。 In step S104, the CPU 30A acquires the three-dimensional position measurement data corresponding to each of the plurality of image positions of the measurement vehicle S detected in step S102 by reading from the storage unit . Here, the three-dimensional position measurement data corresponding to the image position of the measurement vehicle S is the measurement data of the three-dimensional position measured at the closest time to the photographing time of the photographed image in which the image position of the measurement vehicle S was photographed. be.

これにより、例えば図7に示すように、画像位置p(u、v)に対応する三次元位置P(x、y、z)、画像位置p(u、v)に対応する三次元位置P(x、y、z)、画像位置p(u、v)に対応する三次元位置P(x、y、z)が得られる。 As a result, for example, as shown in FIG. 7, three-dimensional position P 1 (x 1 , y 1 , z 1 ) corresponding to image position p 1 (u 1 , v 1 ), image position p 2 (u 2 , v 2 ) corresponding to the three-dimensional position P 2 (x 2 , y 2 , z 2 ), and the three-dimensional position P 3 (x 3 , y 3 , z 3 ) corresponding to the image position p 3 (u 3 , v 3 ). is obtained.

ところで、例えば画像位置p(u、v)が検出された撮影画像の撮影時刻と、三次元位置P(x、y、z)が測定された測定時刻とが一致するとは限らない。従って、測定車両Sの三次元位置を補正する必要がある。 By the way, for example, if the photographing time of the photographed image at which the image position p 1 (u 1 , v 1 ) was detected coincides with the measurement time at which the three-dimensional position P 1 (x 1 , y 1 , z 1 ) was measured, is not limited. Therefore, the three-dimensional position of the measuring vehicle S needs to be corrected.

そこで、ステップS106では、CPU30Aが、撮影時刻を基準時刻として、三次元位置を補正する。すなわち、基準時刻における測定車両Sの三次元位置を算出する。具体的には、例えば三次元位置測定データに含まれる測定車両Sの測定時刻における移動ベクトル及び移動速度と、撮影時刻と測定時刻との差分と、に基づいて、基準時刻における三次元位置を算出する。 Therefore, in step S106, the CPU 30A corrects the three-dimensional position using the photographing time as the reference time. That is, the three-dimensional position of the measurement vehicle S at the reference time is calculated. Specifically, for example, the three-dimensional position at the reference time is calculated based on the movement vector and the movement speed of the measurement vehicle S at the measurement time, which are included in the three-dimensional position measurement data, and the difference between the photographing time and the measurement time. do.

ステップS108では、CPU30Aが、ステップS102で検出した測定車両Sの画像位置と、ステップS106で補正した三次元位置と、を対応付けた対応付け情報を生成して記憶部38に記憶する。例えば図7の例では、画像位置p(u、v)と、補正後の三次元位置P(x、y、z)と、を対応付ける。同様に、画像位置p(u、v)と、補正後の三次元位置P(x、y、z)と、を対応付ける。また、画像位置p(u、v)と、補正後の三次元位置P(x、y、z)と、を対応付ける。 In step S108, CPU 30A generates association information that associates the image position of measurement vehicle S detected in step S102 with the three-dimensional position corrected in step S106, and stores the information in storage unit . For example, in the example of FIG. 7, the image position p 1 (u 1 , v 1 ) is associated with the corrected three-dimensional position P 1 (x 1 , y 1 , z 1 ). Similarly, the image position p 2 (u 2 , v 2 ) is associated with the corrected three-dimensional position P 2 (x 2 , y 2 , z 2 ). Also, the image position p 3 (u 3 , v 3 ) is associated with the corrected three-dimensional position P 3 (x 3 , y 3 , z 3 ).

ステップS110では、CPU30Aが、ステップS102で検出された画像位置を、三次元位置の世界座標系において三角形を構成する頂点を表す三次元位置に対応付けた頂点情報を生成し、記憶部38に記憶する。例えば図8の例では、撮影画像Gにおいて三角形TGの頂点を表す画像位置p、p、pを、世界座標系において三角形TWを構成する頂点を表す三次元位置P、P、Pに対応付けた頂点情報を生成する。 In step S110, CPU 30A generates vertex information in which the image positions detected in step S102 are associated with three-dimensional positions representing vertices forming a triangle in the world coordinate system of three-dimensional positions, and stores the vertex information in storage unit 38. do. For example, in the example of FIG. 8, the image positions p 1 , p 2 , and p 3 representing the vertices of the triangle TG in the photographed image G, and the three-dimensional positions P 1 , P 2 , P 2 , Generate vertex information associated with P3 .

なお、実際には、撮影画像から多数の画像位置が検出される場合があり、頂点の選び方が問題となる。以下では、頂点の選び方について説明する。また、以下では、三次元位置を区別しない場合は単に三次元位置Pと称する。 In practice, a large number of image positions may be detected from a photographed image, and how to select vertices poses a problem. How to select vertices will be described below. Further, hereinafter, when the three-dimensional position is not distinguished, it is simply referred to as a three-dimensional position P.

例えば図9に示すように、測定車両Sが車線L1を走行した際に複数の三次元位置Pが測定され、車線L1の対向車線である車線L4を測定車両Sが走行した際に複数の三次元位置Pが検出されたとする。 For example, as shown in FIG. 9, a plurality of three-dimensional positions P are measured when the measurement vehicle S travels on the lane L1, and a plurality of three-dimensional positions P are measured when the measurement vehicle S travels on the opposite lane L4 of the lane L1. Assume that the original position P is detected.

この場合、車線L1に沿って測定された複数の三次元位置Pのうち隣り合う2つの三次元位置Pa、Pbを選択する。次に、選択された2つの三次元位置Pa、Pbを結ぶ線分の垂直二等分線Nを車線L4に向けて描画したと仮定した場合に、垂直二等分線Nから最短距離の三次元位置Pcを選択する。そして、車線L1上で測定された三次元位置Pa、Pbと、車線L4上で測定された三次元位置Pcと、を三角形の頂点として関連付けた頂点情報を生成する。この頂点情報の生成処理を、車線L1上で測定された隣り合う三次元位置Pの全てについて実行する。また、対向車線である車線L4上で測定された隣り合う三次元位置Pについても同じ処理を実行する。 In this case, two adjacent three-dimensional positions Pa and Pb are selected from the plurality of three-dimensional positions P measured along the lane L1. Next, assuming that the perpendicular bisector N of the line segment connecting the two selected three-dimensional positions Pa and Pb is drawn toward the lane L4, the shortest cubic line from the perpendicular bisector N is drawn. Select the original position Pc. Then, vertex information is generated in which the three-dimensional positions Pa and Pb measured on the lane L1 and the three-dimensional position Pc measured on the lane L4 are associated as vertices of triangles. This vertex information generation processing is executed for all adjacent three-dimensional positions P measured on the lane L1. In addition, the same processing is performed for the adjacent three-dimensional position P measured on the lane L4, which is the oncoming lane.

次に、上記の処理を実行することにより生成された対応付け情報及び頂点情報に基づいて、撮影画像上における任意の画像位置を、三次元位置に変換する処理について説明する。 Next, processing for converting an arbitrary image position on the captured image into a three-dimensional position based on the correspondence information and vertex information generated by executing the above processing will be described.

まず、画像座標系における二次元の画像位置を、世界座標系における三次元位置に変換する際に、線形近似を用いて変換する近似原理について説明する。 First, an approximation principle for converting a two-dimensional image position in the image coordinate system into a three-dimensional position in the world coordinate system using linear approximation will be described.

図10に示すように、二次元の画像座標系C2の任意の画像位置に対応する三次元の世界座標系C3の三次元位置は、画像座標系C2の任意の画像位置が含まれる三角形TGの頂点の画像位置p1~p3と、三角形TGの頂点p1~p3に対応付けられた世界座標系C3における三角形TWの頂点の三次元位置P1~P3と、に基づいて座標変換することで求められる。 As shown in FIG. 10, the three-dimensional position of the three-dimensional world coordinate system C3 corresponding to the arbitrary image position of the two-dimensional image coordinate system C2 is the triangle TG containing the arbitrary image position of the image coordinate system C2. It is obtained by coordinate transformation based on the image positions p1 to p3 of the vertices and the three-dimensional positions P1 to P3 of the vertices of the triangle TW in the world coordinate system C3 associated with the vertices p1 to p3 of the triangle TG.

説明を簡単にするため、図11に示すように、世界座標系におけるX軸及びZ軸からなるX-Z平面がカメラ20の光軸Zcamと平行になるように空間座標系をとる。この場合、図11に示すように、Y軸方向からX-Z平面を見た場合、撮影画像におけるv方向の単位画素当たりの世界座標系におけるX方向の長さ、すなわちカメラ20から見て奥行き方向の長さは、v方向の画素位置によって異なる。例えば、画像座標系C2において画像位置p1から画像位置p3までの距離をv方向に4等分に分割した場合、それぞれの距離d1~d4は全て同じ距離となる。これに対して、画像座標系C2における距離d1~d4に対応する世界座標系C3における距離D1~D4は、同じ距離とはならない。すなわち、カメラ20から近距離側の距離D1が最も短く、カメラ20から遠距離側の距離D4が最も長くなる。このように、画像座標系C2におけるカメラ20から見て奥行き方向の長さと、世界座標系C3におけるカメラ20から見て奥行き方向の長さとは、非線形の関係にある。すなわち、世界座標系C3においてY軸方向からX-Z平面を見た場合における画像座標系C2の三角形と世界座標系C3における三角形とは相似にならない。このため、画像座標系C2の任意の点の座標を世界座標系C3の座標に座標変換する際に、線形近似により変換した場合は、カメラ20から見て奥行き方向の誤差が生じることとなる。 For simplicity of explanation, a spatial coordinate system is adopted such that the XZ plane consisting of the X and Z axes in the world coordinate system is parallel to the optical axis Zcam of the camera 20, as shown in FIG. In this case, as shown in FIG. 11, when the XZ plane is viewed from the Y-axis direction, the length in the X direction in the world coordinate system per unit pixel in the v direction in the captured image, that is, the depth as seen from the camera 20 The length in the direction depends on the pixel position in the v direction. For example, when the distance from the image position p1 to the image position p3 in the image coordinate system C2 is divided into four equal parts in the v direction, the respective distances d1 to d4 are all the same distance. On the other hand, the distances D1 to D4 in the world coordinate system C3 corresponding to the distances d1 to d4 in the image coordinate system C2 are not the same. That is, the distance D1 on the short distance side from the camera 20 is the shortest, and the distance D4 on the long distance side from the camera 20 is the longest. Thus, the length in the depth direction viewed from the camera 20 in the image coordinate system C2 and the length in the depth direction viewed from the camera 20 in the world coordinate system C3 have a nonlinear relationship. That is, when the XZ plane is viewed from the Y-axis direction in the world coordinate system C3, the triangle in the image coordinate system C2 and the triangle in the world coordinate system C3 are not similar. Therefore, when the coordinates of an arbitrary point in the image coordinate system C2 are transformed into the coordinates in the world coordinate system C3 by linear approximation, an error occurs in the depth direction as seen from the camera 20 .

一方、図12に示すように、Z軸方向からX-Y平面を見た場合、画像座標系C2におけるu方向の単位画素当たりの世界座標系C3におけるY軸方向の長さは、u方向の画素位置によって異なることはなく同じである。例えば、画像座標系C2において画像位置p1から画像位置p3までの距離をu方向に2等分に分割した場合、それぞれの距離d1、d2は全て同じ距離となる。また、画像座標系C2における距離d1、d2に対応する世界座標系C3における距離D1、D2も同じ距離となる。すなわち、Z軸方向からX-Y平面を見た場合における画像座標系C2の三角形と世界座標系C3における三角形とは相似となる。このため、画像座標系C2の任意の点の座標を世界座標系の座標に座標変換する際に線形近似により変換した場合は誤差が生じない。 On the other hand, as shown in FIG. 12, when the XY plane is viewed from the Z-axis direction, the length in the Y-axis direction in the world coordinate system C3 per unit pixel in the u-direction in the image coordinate system C2 is They are the same and do not differ depending on the pixel position. For example, when the distance from the image position p1 to the image position p3 in the image coordinate system C2 is divided into two equal parts in the u direction, the respective distances d1 and d2 are all the same distance. Also, the distances D1 and D2 in the world coordinate system C3 corresponding to the distances d1 and d2 in the image coordinate system C2 are the same. That is, when the XY plane is viewed from the Z-axis direction, the triangle in the image coordinate system C2 and the triangle in the world coordinate system C3 are similar. Therefore, no error occurs when the coordinates of an arbitrary point in the image coordinate system C2 are transformed into the coordinates of the world coordinate system by linear approximation.

従って、線形近似による変換により生じるカメラ20から見て奥行き方向の長さの誤差が許容できれば、画像座標系C2の任意の点の座標を世界座標系の座標に座標変換することができる。例えば図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合は、例えば図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合と比較して、カメラ20から見て奥行き方向の長さの誤差は許容できる場合が多い。これは、カメラ20から見て奥行き方向に道路RDが沿っている場合は、道路RDに沿って測定車両Sの三次元位置が多数測定されるため、道路RDに沿って隣り合う三次元位置の距離が短くなり、誤差の影響が小さくなるためである。なお、三次元位置の測定間隔やカメラ20の撮影間隔を短くするほど誤差は小さくなるが、誤差を許容できるか否かは、位置計測装置10の位置計測結果を利用するアプリケーションが求める精度による。カメラ20から見て奥行方向に道路RDが沿っている場合でも、三次元位置の測定間隔やカメラ20の撮影間隔が、アプリケーションが求める精度を満たす間隔でない場合には、誤差を許容できないこととなる。従って、アプリケーションが求める精度に応じて測定間隔及び撮影間隔を調整することが好ましい。 Therefore, if an error in the depth direction as seen from the camera 20 caused by conversion by linear approximation is acceptable, the coordinates of any point in the image coordinate system C2 can be coordinate-transformed into the coordinates in the world coordinate system. For example, as shown in FIG. 6, when the road RD extends in the depth direction when viewed from the camera 20, for example, when the optical axis direction of the camera 20 extends along the lane width direction A of the road RD as illustrated in FIG. , the error in the length in the depth direction viewed from the camera 20 is often permissible. This is because, when the road RD extends in the depth direction as viewed from the camera 20, a large number of three-dimensional positions of the measurement vehicle S are measured along the road RD, and thus adjacent three-dimensional positions along the road RD are measured. This is because the distance becomes shorter and the influence of error becomes smaller. Note that the shorter the measurement interval of the three-dimensional position and the shooting interval of the camera 20, the smaller the error. Even if the road RD runs along the depth direction when viewed from the camera 20, if the three-dimensional position measurement interval or the camera 20 photographing interval does not satisfy the accuracy required by the application, the error cannot be allowed. . Therefore, it is preferable to adjust the measurement interval and the photographing interval according to the accuracy required by the application.

以下では、まず図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合について説明する。一方、図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、例えば図6に示すように、カメラ20から見て奥行き方向に道路RDが沿っている場合と比較して、カメラ20から見て奥行き方向の長さの誤差は許容できない場合が多い。これは、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、道路RDの車線幅方向Aに沿って測定される測定車両Sの三次元位置が少ないため、車線幅方向のいて隣り合う三次元位置の距離が長くなり、誤差の影響が大きくなるためである。従って、道路RDの車線と三角形とが交差する位置を新たな頂点として頂点情報を生成する必要があるが、この処理についての詳細は後述する。 In the following, as shown in FIG. 6, the case where the road RD extends in the depth direction when viewed from the camera 20 will be described. On the other hand, as shown in FIG. 13, when the optical axis direction of the camera 20 is along the lane width direction A of the road RD, as shown in FIG. In many cases, the length error in the depth direction as seen from the camera 20 cannot be allowed as compared to the case. This is because when the optical axis direction of the camera 20 is along the lane width direction A of the road RD, the three-dimensional position of the vehicle S to be measured along the lane width direction A of the road RD is small. This is because the distance between adjacent three-dimensional positions becomes longer, and the influence of errors becomes greater. Therefore, it is necessary to generate vertex information by setting the position where the lane of the road RD and the triangle intersect as a new vertex. Details of this processing will be described later.

以下、具体的な変換方法について説明する。 A specific conversion method will be described below.

例えば図14に示すように、画像座標系C2における三角形TG内の任意の画像位置p(u、v)を、図15に示す世界座標系C3における三次元位置P(x、y、z)に変換する場合について説明する。 For example, as shown in FIG. 14, an arbitrary image position p i (u i , v i ) within the triangle TG in the image coordinate system C2 is converted to a three-dimensional position P i (x i , v i ) in the world coordinate system C3 shown in FIG. y i , z i ) will be described.

前述した近似原理が成り立つとすると、画像座標系C2における三角形TG内の任意の画像位置p(u、v)は、画像座標系C2における三角形TGに対応した世界座標系C3における二次元の三角形TW内の点に変換できると考えられる。 Assuming that the approximation principle described above holds, an arbitrary image position p i (u i , v i ) within the triangle TG in the image coordinate system C2 is a two-dimensional can be transformed into a point in the triangle TW of .

従って、画像座標系C2における三角形TGの頂点である画像位置p(u、v)、p(u、v)、p(u、v)に基づいて画像位置p(u、v)を算出する第1の算出式と、画像座標系C2における三角形TGに対応した世界座標系C3における二次元の三角形TWの頂点である三次元位置P(x、y、z)、P(x、y、z)、P(x、y、z)に基づいて三次元位置P(x、y、z)を算出する第2の算出式と、は同一となる。すなわち、両者の算出式は、係数が同一で、変数の次元のみ異なる。 Therefore , the image position p _ _ _ A first calculation formula for calculating i (u i , v i ) and a three-dimensional position P 1 (x 1 , y 1 , z 1 ), P 2 (x 2 , y 2 , z 2 ), P 3 (x 3 , y 3 , z 3 ) based on the three-dimensional position P i (x i , y i , zi ) is the same as the second calculation formula. That is, both calculation formulas have the same coefficients, but differ only in the dimensions of the variables.

まず、画像座標系C2における第1の算出式は、次式で表される。 First, the first calculation formula in the image coordinate system C2 is represented by the following formula.

=p+α(p-p)+β(p-p
={1-(α+β)}p+α×p+β×p ・・・(1)
p i =p 1i (p 2 −p 1 )+β i (p 3 −p 1 )
={1−(α ii )}p 1i ×p 2i ×p 3 (1)

ただし、α+β≦1、0≦α、0≦β ・・・(2) However, α i + β i ≤ 1, 0 ≤ α i , 0 ≤ β i (2)

なお、上記(1)式において、p、p、p、pはベクトルを表す。 In the above equation (1), p i , p 1 , p 2 and p 3 represent vectors.

上記(1)、(2)式より、変換パラメータα、βが算出される。 Conversion parameters α i and β i are calculated from the above equations (1) and (2).

そして、世界座標系C3における第2の算出式は、第1の算出式と同様に次式で表される。 Then, the second calculation formula in the world coordinate system C3 is expressed by the following formula like the first calculation formula.

={1-(α+β)}P+α×P+β×P ・・・(3) P i ={1−(α ii )}P 1i ×P 2i ×P 3 (3)

なお、上記(3)式において、P、P、P、Pはベクトルを表す。 In the above equation (3), P i , P 1 , P 2 and P 3 represent vectors.

上記(1)、(2)式から算出された変換パラメータα、βを上記(3)式に代入することにより、三次元位置Pが算出される。 The three-dimensional position P i is calculated by substituting the conversion parameters α i and β i calculated from the equations (1) and (2) into the equation (3).

次に、上記の変換方法を用いて撮影画像上における任意の画像位置を三次元位置に変換する位置計測処理について、図16に示すフローチャートを参照して説明する。 Position measurement processing for converting an arbitrary image position on a captured image into a three-dimensional position using the conversion method described above will now be described with reference to the flowchart shown in FIG.

図16に示す位置計測処理は、オペレータが位置計測処理の実行を指示することにより実行される。 The position measurement process shown in FIG. 16 is executed when the operator instructs execution of the position measurement process.

まずステップS200では、CPU30Aが、カメラ20が撮影した撮影画像を表示部34に表示させる。 First, in step S200, the CPU 30A causes the display section 34 to display the captured image captured by the camera 20. FIG.

ステップS202では、CPU30Aが、オペレータによる変換対象の画像位置pの指定を受け付ける。オペレータは、操作部32を操作して変換対象の画像位置p、例えば道路を走行している車両等を指定する。 In step S202, the CPU 30A receives the designation of the image position pi to be converted by the operator. The operator operates the operation unit 32 to designate an image position p i to be converted, for example, a vehicle running on a road.

ステップS204では、CPU30Aが、指定された画像位置pを世界座標系における三次元位置Pに変換する。具体的には、記憶部38に記憶された頂点情報を参照し、ステップS202で指定された画像位置pが含まれる三角形の頂点の頂点情報を抽出する。なお、抽出された頂点情報が表す頂点の画像位置をp、p、pとする。 In step S204, the CPU 30A transforms the specified image position pi into a three-dimensional position pi in the world coordinate system. Specifically, the vertex information stored in the storage unit 38 is referred to, and the vertex information of the vertex of the triangle containing the image position pi designated in step S202 is extracted. The image positions of the vertices represented by the extracted vertex information are p 1 , p 2 , and p 3 .

次に、記憶部38に記憶された対応付け情報を参照し、検出した頂点情報で表される3つの頂点の画像位置p、p、pに対応する三次元位置P、P、Pを各々抽出する。 Next, referring to the correspondence information stored in the storage unit 38, the three-dimensional positions P 1 and P 2 corresponding to the image positions p 1 , p 2 and p 3 of the three vertices represented by the detected vertex information. , P3 respectively.

そして、上記(1)式に画像位置p、p、pを代入し、上記(1)、(2)式により変換パラメータα、βを算出する。次に、算出した変換パラメータα、βを、抽出された三次元位置P、P、Pを上記(3)式に代入することにより、ステップS202で指定された画像位置pに対応する三次元位置Pを算出する。 Then, the image positions p 1 , p 2 and p 3 are substituted into the equation (1), and the conversion parameters α i and β i are calculated by the equations (1) and (2). Next, by substituting the calculated transformation parameters α i and β i and the extracted three-dimensional positions P 1 , P 2 and P 3 into the above equation (3), the image position p i specified in step S202 Calculate the three-dimensional position P i corresponding to .

ステップS206では、CPU30Aが、ステップS204で算出した三次元位置Pを表示部34に表示させる。これにより、例えばオペレータが指定した車両の三次元位置を知ることができる。なお、図16の処理では、撮影画像を表示し、オペレータが指定した画像位置を世界座標系における三次元位置に変換する場合について説明したが、これに限られない。例えば、パターンマッチング等の公知の手法を用いて撮影画像から車両を検出し、検出した車両の画像位置を世界座標系における三次元位置に変換する処理を所定時間毎に自動で実行するようにしてもよい。 In step S206, the CPU 30A causes the display unit 34 to display the three-dimensional position P i calculated in step S204. Thereby, for example, the three-dimensional position of the vehicle specified by the operator can be known. In the processing of FIG. 16, a case has been described in which a photographed image is displayed and the image position specified by the operator is converted into a three-dimensional position in the world coordinate system, but the present invention is not limited to this. For example, a vehicle is detected from a photographed image using a known method such as pattern matching, and a process of converting the image position of the detected vehicle into a three-dimensional position in the world coordinate system is automatically executed at predetermined time intervals. good too.

このように、本実施形態では、カメラ20で撮影された道路を、撮影画像から検出した測定車両Sの画像位置を頂点とする三角形の集合で表し、頂点の画像座標系C2における画像位置と世界座標系C3における測定車両の三次元位置とを対応付けておく。そして、画像座標系C2における三角形内の任意の画像位置を世界座標系C3における三次元位置に変換する。これにより、カメラの撮影範囲である地表面が水平であるものと仮定する場合と比較して、位置の検出対象の地表面が平坦ではない場合であっても、位置の検出精度が低下するのを抑制することができる。また、カメラの設置位置情報が不要のため、カメラの設置作業が容易となる。 Thus, in this embodiment, the road photographed by the camera 20 is represented by a set of triangles whose vertices are the image positions of the measurement vehicle S detected from the photographed images. It is associated with the three-dimensional position of the measurement vehicle in the coordinate system C3. Then, an arbitrary image position within the triangle in the image coordinate system C2 is transformed into a three-dimensional position in the world coordinate system C3. As a result, even if the ground surface for position detection is not flat, the accuracy of position detection is lower than when the ground surface, which is the shooting range of the camera, is assumed to be horizontal. can be suppressed. In addition, since the installation position information of the camera is unnecessary, the installation work of the camera is facilitated.

ところで、前述したように、図13に示すように、カメラ20の光軸方向が道路RDの車線幅方向Aに沿う場合は、カメラ20から見て奥行き方向の長さの誤差は許容できない。この場合、道路RDの車線と三角形とが交差する位置を新たな頂点として頂点情報を生成する。具体的には、図17に示すように、まず、画像位置p1~p3を、測定車両Sが道路と設置する面の画素となるように補正する。また、画像位置p1~p3に対応する三次元位置P1~P3が、補正後の画像位置p1~p3と一致するように三次元位置P1~P3を補正する。例えば、測定部18の設置位置に関する設置位置情報及び測定車両Sの形状に関する形状情報を記憶部38に予め記憶しておき、設置位置情報及び形状情報に基づいて、画像位置p1~p3に対応する三次元位置P1~P3が、補正後の画像位置p1~p3と一致するように三次元位置P1~P3を補正する。なお、形状情報としては、例えば測定車両Sの種類(セダン、ワゴン、トラック、バス)等に応じた三次元モデル等を用意しておくことが好ましい。 By the way, as described above, when the optical axis direction of the camera 20 is along the lane width direction A of the road RD as shown in FIG. In this case, the vertex information is generated with the position where the lane of the road RD and the triangle intersect as a new vertex. Specifically, as shown in FIG. 17, first, the image positions p1 to p3 are corrected so as to be pixels on the road and the surface on which the measurement vehicle S is installed. Also, the three-dimensional positions P1 to P3 corresponding to the image positions p1 to p3 are corrected so that the three-dimensional positions P1 to P3 match the corrected image positions p1 to p3. For example, the installation position information about the installation position of the measurement unit 18 and the shape information about the shape of the measurement vehicle S are stored in advance in the storage unit 38, and based on the installation position information and the shape information, the image positions p1 to p3 are determined. The three-dimensional positions P1 to P3 are corrected so that the three-dimensional positions P1 to P3 match the corrected image positions p1 to p3. As the shape information, it is preferable to prepare a three-dimensional model or the like according to the type of the vehicle S to be measured (sedan, wagon, truck, bus), for example.

また、隣り合う車線の境界線上に頂点を追加する。具体的には、例えば図18に示すように、車線L1~L4のそれぞれ隣り合う車線の境界線K1~K3を公知の手法を用いて検出する。ここで、世界座標系C3における境界線K1~K3の座標情報を予め記憶部38に記憶しておく。そして、画像位置p、p、pを頂点とする三角形TGの各辺と、境界線K1~K3との交点を新たな頂点として追加する。また、世界座標系C3における境界線K1~K3の座標情報に基づいて、新たに追加した頂点を表す画像位置に対応する三次元位置を算出し、両者を対応付ける。なお、新たに追加した頂点を表す画像位置に対応する三次元位置を算出する際には、各車線の車線幅は既知であり、境界線と測定車両Sの走行経路とは平行であると仮定して算出する。 It also adds vertices on the boundaries of adjacent lanes. Specifically, for example, as shown in FIG. 18, boundary lines K1 to K3 of adjacent lanes of lanes L1 to L4 are detected using a known method. Here, the coordinate information of the boundary lines K1 to K3 in the world coordinate system C3 is stored in the storage unit 38 in advance. Then, the points of intersection between the sides of the triangle TG whose vertices are the image positions p 1 , p 2 , and p 3 and the boundary lines K1 to K3 are added as new vertices. Also, based on the coordinate information of the boundary lines K1 to K3 in the world coordinate system C3, the three-dimensional position corresponding to the image position representing the newly added vertex is calculated, and the two are associated. Note that when calculating the three-dimensional position corresponding to the image position representing the newly added vertex, it is assumed that the lane width of each lane is known and that the boundary line and the travel route of the measurement vehicle S are parallel. to calculate.

図18の例では、車線L1とL2との境界線K1上に頂点として三次元位置P、Pが追加され、車線L2とL3との境界線K2上に頂点として三次元位置P、Pが追加され、車線L3とL4との境界線K3上に頂点として三次元位置P、Pが追加されている。 In the example of FIG. 18, three-dimensional positions P 4 and P 5 are added as vertices on the boundary line K1 between the lanes L1 and L2, and three-dimensional positions P 6 and P 6 are added as vertices on the boundary line K2 between the lanes L2 and L3. P7 is added, and three-dimensional positions P8 and P9 are added as vertices on the boundary line K3 between the lanes L3 and L4.

そして、新たに追加した頂点を新たな三角形の頂点として頂点情報を生成する。例えば同じ境界線上に追加した2つの三次元位置を三角形の底辺の頂点として選択し、この底辺の両隣の境界線上に追加された三次元位置又は隣に境界線が存在しない場合は測定車両Sの走行経路上の三次元位置から3つ目の頂点を選択する。このとき、同じ境界線上に追加した2つの三次元位置を結ぶ線の垂直二等分線に近い方の頂点を3つ目の頂点として選択する。 Then, vertex information is generated with the newly added vertex as the vertex of a new triangle. For example, two three-dimensional positions added on the same boundary line are selected as the vertices of the base of the triangle, and three-dimensional positions added on the boundary lines on both sides of this base, or if there is no boundary line next to the three-dimensional position of the measurement vehicle S Select the third vertex from the three-dimensional position on the travel path. At this time, the vertex closer to the perpendicular bisector of the line connecting the two three-dimensional positions added on the same boundary line is selected as the third vertex.

例えば図19に示すように、新しく追加した三次元位置P、Pを例に説明する。この場合、三次元位置P、Pを結ぶ線の垂直二等分線Nを車線幅方向に描画したと仮定した場合に、三次元位置P、Pが存在する境界線K1と隣り合う境界線K2上に新たに追加された三次元位置P、Pのうち、垂直二等分線Nに近い方の三次元位置Pが頂点として選択される。また、境界線K1に対して境界線K2と反対側については、隣り合う境界線が存在しないため、走行経路線SK1上の頂点P、Pのうち、垂直二等分線Nに近い方の三次元位置Pが頂点として選択される。これにより、三次元位置P、P、Pを頂点とする三角形T1と、三次元位置P、P、Pを頂点とする三角形T2と、が新たに定義される。他の三次元位置P、P、P、P、P、Pについても同様の処理を行うことにより、新たな三角形が定義される。これにより、車線幅方向Aに沿って頂点が増加するため、画像座標系C2の任意の画像位置を世界座標系C3の三次元位置に変換する際に変換精度が低下するのを抑制することができる。 For example, as shown in FIG. 19, newly added three-dimensional positions P 4 and P 5 will be described as an example. In this case, assuming that the perpendicular bisector N of the line connecting the three-dimensional positions P4 and P5 is drawn in the lane width direction, the boundary line K1 where the three-dimensional positions P4 and P5 exist is adjacent to Of the three-dimensional positions P6 and P7 newly added on the matching boundary line K2, the three-dimensional position P7 closer to the perpendicular bisector N is selected as the vertex. On the opposite side of the boundary line K2 to the boundary line K1 , there is no adjacent boundary line. is selected as the vertex . As a result, a triangle T1 whose vertices are the three-dimensional positions P 4 , P 5 and P 7 and a triangle T2 whose vertices are the three-dimensional positions P 4 , P 5 and P 1 are newly defined. New triangles are defined by performing similar processing for the other three-dimensional positions P 1 , P 3 , P 6 , P 7 , P 8 and P 9 . As a result, since the number of vertices increases along the lane width direction A, it is possible to suppress deterioration in conversion accuracy when converting an arbitrary image position in the image coordinate system C2 to a three-dimensional position in the world coordinate system C3. can.

なお、本実施形態では、測定車両Sが車線L1及び車線L4を走行して三次元位置を測定して得られた三次元位置測定データを用いて座標変換する場合について説明したが、頂点情報で定義される三角形は、道路RDの路肩までカバーされない。そこで、図20に示すように、車道を越えて歩道や建物まで三角形TW1を拡大した拡大三角形TW2の頂点情報を生成するようにしてもよい。具体的には、エッジ検出等の公知の手法を用いて車道と歩道の境界や車道と建物との境界を検出し、検出した境界まで三角形を拡大した拡大三角形の頂点情報を生成すればよい。 In this embodiment, a case has been described in which coordinate transformation is performed using the three-dimensional position measurement data obtained by measuring the three-dimensional position of the measurement vehicle S traveling in lanes L1 and L4. The defined triangle does not cover the shoulder of the road RD. Therefore, as shown in FIG. 20, vertex information of an enlarged triangle TW2 may be generated by enlarging the triangle TW1 beyond the roadway to the sidewalk or building. Specifically, a well-known technique such as edge detection is used to detect the boundary between the roadway and the sidewalk and the boundary between the roadway and the building, and the vertex information of the enlarged triangle is generated by enlarging the triangle to the detected boundary.

また、座標変換の精度は、三角形の頂点に近い位置ほど良くなる。例えば図21に示すように、三次元位置P1の近傍領域R1、三次元位置P2の近傍領域R2、及び三次元位置P3の近傍領域R3は、他の領域と比較して座標変換の精度が良くなる。従って、頂点付近で座標変換される割合が多くなるように、図22に示すように、車線L1~L4の全ての車線に測定車両Sを走行させて三次元位置Pを測定することが好ましい。これにより、座標変換の精度が高くなる頂点付近の領域Rの数が多くなり、頂点付近で座標変換される割合が高くなる。 Also, the accuracy of coordinate transformation is better at positions closer to the vertices of the triangle. For example, as shown in FIG. 21, the neighboring region R1 of the three-dimensional position P1, the neighboring region R2 of the three-dimensional position P2, and the neighboring region R3 of the three-dimensional position P3 have higher accuracy of coordinate conversion than other regions. Become. Therefore, it is preferable to measure the three-dimensional position P by driving the measurement vehicle S in all the lanes L1 to L4 as shown in FIG. As a result, the number of regions R near the vertices where the precision of coordinate transformation is high increases, and the rate of coordinate transformation near the vertices increases.

また、本実施形態では、カメラ20の画角が固定の場合について説明したが、複数の異なる画角で道路RDを撮影した撮影画像データを取得し、様々な画角に対応した対応付け情報及び頂点情報を生成するようにしてもよい。 Further, in the present embodiment, the case where the angle of view of the camera 20 is fixed has been described. Vertex information may be generated.

また、対応付け情報及び頂点情報を一度生成した後も測定車両Sを走行させて三次元位置測定データを取得し、対応付け情報及び頂点情報を更新することが好ましい。これにより、カメラ20の画角が外乱等の影響によりずれた場合でも座標変換の精度が低下するのを抑制することができる。 Moreover, it is preferable to run the measurement vehicle S to acquire the three-dimensional position measurement data even after the correspondence information and the vertex information are once generated, and to update the correspondence information and the vertex information. As a result, even when the angle of view of the camera 20 shifts due to disturbance or the like, it is possible to prevent the accuracy of the coordinate conversion from deteriorating.

また、本実施形態では、位置計測装置10が位置計測用データ生成装置60及び変換部62を備えた場合について説明したが、位置計測用データ生成装置60と、変換部62を備えた位置計測装置10と、を別個の構成としてもよい。 Further, in the present embodiment, the case where the position measurement device 10 includes the position measurement data generation device 60 and the conversion unit 62 has been described. 10 may be configured separately.

また、本実施形態では、測定車両Sが走行する道路RDが片側2車線の合計4車線の道路である場合について説明したが、道路は、片側1車線の合計2車線の道路でもよいし、一方通行の1車線の道路でもよい。すなわち車線の数は限定されない。 In this embodiment, the road RD on which the measurement vehicle S travels has been described as a four-lane road with two lanes on each side. It may be a one-lane road for traffic. That is, the number of lanes is not limited.

以上、実施の形態を説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。発明の要旨を逸脱しない範囲で上記実施の形態に多様な変更又は改良を加えることができ、当該変更又は改良を加えた形態も本発明の技術的範囲に含まれる。 Although the embodiments have been described above, the technical scope of the present invention is not limited to the scope described in the above embodiments. Various changes or improvements can be made to the above embodiments without departing from the gist of the invention, and the forms with such changes or improvements are also included in the technical scope of the present invention.

また、上記実施の形態は、クレーム(請求項)にかかる発明を限定するものではなく、また実施の形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。前述した実施の形態には種々の段階の発明が含まれており、開示される複数の構成要件の組み合わせにより種々の発明が抽出される。実施の形態に示される全構成要件から幾つかの構成要件が削除されても、効果が得られる限りにおいて、この幾つかの構成要件が削除された構成が発明として抽出され得る。 In addition, the above embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are essential to the solution of the invention. Not exclusively. Inventions at various stages are included in the embodiments described above, and various inventions can be extracted by combining a plurality of disclosed constituent elements. Even if some constituent elements are deleted from all the constituent elements shown in the embodiments, as long as an effect is obtained, a configuration in which these several constituent elements are deleted can be extracted as an invention.

また、上記実施の形態では、位置計測用データ生成プログラム40及び位置計測プログラム42が記憶部38に予めインストールされている場合について説明したが、本発明はこれに限定されるものではない。例えば、位置計測用データ生成プログラム40及び位置計測プログラム42が、CD-ROM(Compact Disc Read Only Memory)等の記憶媒体に格納されて提供される形態、又はネットワークを介して提供される形態としてもよい。 Further, in the above embodiment, the case where the position measurement data generation program 40 and the position measurement program 42 are pre-installed in the storage unit 38 has been described, but the present invention is not limited to this. For example, the position measurement data generation program 40 and the position measurement program 42 may be stored in a storage medium such as a CD-ROM (Compact Disc Read Only Memory) and provided, or may be provided via a network. good.

さらに、上記実施の形態では、位置計測用データ生成処理及び位置計測処理を、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現する場合について説明したが、本発明はこれに限定されるものではない。例えば、位置計測用データ生成処理及び位置計測処理を、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現する形態としてもよい。 Furthermore, in the above embodiment, the case where the position measurement data generation process and the position measurement process are realized by a computer using a software configuration by executing a program has been described, but the present invention is limited to this. not something. For example, the position measurement data generation process and the position measurement process may be realized by a hardware configuration or a combination of hardware and software configurations.

その他、上記実施の形態で説明した位置計測装置10の構成(図3参照。)は一例であり、本発明の主旨を逸脱しない範囲内において不要な部分を削除したり、新たな部分を追加したりしてもよいことは言うまでもない。 In addition, the configuration of the position measuring device 10 described in the above embodiment (see FIG. 3) is merely an example, and unnecessary portions may be deleted or new portions added without departing from the gist of the present invention. It goes without saying that it is possible to

また、上記実施の形態で説明した位置計測用データ生成プログラム40及び位置計測プログラム42の処理の流れ(図5、16参照)も一例であり、本発明の主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよいことは言うまでもない。 In addition, the processing flow of the position measurement data generation program 40 and the position measurement program 42 described in the above embodiment (see FIGS. 5 and 16) is also an example, and unnecessary steps can be performed within the scope of the present invention. may be deleted, new steps may be added, or the processing order may be changed.

62 変換部、64 取得部、66 検出部、68 対応付け情報生成部、70 頂点情報生成部 62 conversion unit, 64 acquisition unit, 66 detection unit, 68 correspondence information generation unit, 70 vertex information generation unit

Claims (9)

三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得する取得部(64)と、
前記撮影画像から前記測定車両の画像位置を検出する検出部(66)と、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成する対応付け情報生成部(66)と、
前記検出部により検出された前記画像位置の中から、前記道路に沿って隣り合う2つの画像位置と、前記2つの画像位置を結ぶ線分の垂直二等分線を前記道路の対向車線に向けて描画したと仮定した場合に、前記対向車線上において前記垂直二等分線から最短距離の画像位置とから成る3つの画像位置を三角形の頂点として選択し、選択した前記3つの画像位置を、前記対応付け情報に基づいて、前記三次元位置の座標系における3つの前記三次元位置に対応付けた頂点情報を生成する頂点情報生成部(70)と、
前記対応付け情報及び変換対象の画像位置を含む三角形の前記頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を前記三次元位置に変換する変換部(62)と、
を備えた位置計測用データ生成装置(60)。
A photographed image of the measurement vehicle taken by a camera equipped with a measurement unit for measuring a three-dimensional position and installed at a position capable of photographing a road on which the measurement vehicle travels; an acquisition unit (64) for acquiring a three-dimensional position of the measurement vehicle measured by the measurement unit;
a detection unit (66) for detecting the image position of the measurement vehicle from the captured image;
an association information generating unit (66) for generating association information in which the image position and the three-dimensional position are associated;
From among the image positions detected by the detection unit, two image positions adjacent to each other along the road and a perpendicular bisector of a line segment connecting the two image positions are directed to the oncoming lane of the road. and the image position of the shortest distance from the perpendicular bisector on the oncoming traffic lane as vertices of a triangle, and the selected three image positions are: a vertex information generation unit (70) for generating vertex information associated with the three three-dimensional positions in the coordinate system of the three-dimensional position based on the correspondence information;
A conversion unit (62) for calculating a conversion parameter based on the vertex information of the triangle including the correspondence information and the image position to be converted, and converting the image position to be converted into the three-dimensional position using the calculated conversion parameter. )and,
Position measurement data generation device (60).
前記測定車両の三次元位置は、前記道路の対向車線の各々を走行したときに測定した三次元位置である
請求項1記載の位置計測用データ生成装置。
2. The position measurement data generation device according to claim 1, wherein the three-dimensional position of the measurement vehicle is a three-dimensional position measured when traveling in each of the oncoming lanes of the road.
前記頂点情報生成部は、前記三角形を拡大した拡大三角形の頂点情報を生成する
請求項1又は請求項2記載の位置計測用データ生成装置。
3. The position measurement data generation device according to claim 1, wherein the vertex information generator generates vertex information of an enlarged triangle obtained by enlarging the triangle.
前記頂点情報生成部は、前記カメラの光軸方向が前記道路の車線幅方向に沿う場合は、前記道路の車線と前記三角形とが交差する前記三次元位置を新たな頂点として頂点情報を生成する
請求項1~3の何れか1項に記載の位置計測用データ生成装置。
When the optical axis direction of the camera is along the lane width direction of the road, the vertex information generation unit generates vertex information using the three-dimensional position where the lane of the road and the triangle intersect as a new vertex. The position measurement data generation device according to any one of claims 1 to 3.
コンピュータ(30A)が、
三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、
前記撮影画像から前記測定車両の画像位置を検出し、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、
検出された前記画像位置の中から、前記道路に沿って隣り合う2つの画像位置と、前記2つの画像位置を結ぶ線分の垂直二等分線を前記道路の対向車線に向けて描画したと仮定した場合に、前記対向車線上において前記垂直二等分線から最短距離の画像位置とから成る3つの画像位置を三角形の頂点として選択し、選択した前記3つの画像位置を、前記対応付け情報に基づいて、前記三次元位置の座標系における3つの前記三次元位置に対応付けた頂点情報を生成し、
前記対応付け情報及び変換対象の画像位置を含む三角形の前記頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を前記三次元位置に変換する
位置計測用データ生成方法。
A computer (30A)
A photographed image of the measurement vehicle taken by a camera equipped with a measurement unit for measuring a three-dimensional position and installed at a position capable of photographing a road on which the measurement vehicle travels; obtaining a three-dimensional position of the measurement vehicle measured by the measurement unit;
detecting the image position of the measurement vehicle from the captured image;
generating association information that associates the image position with the three-dimensional position;
Two image positions adjacent to each other along the road and a perpendicular bisector of a line connecting the two image positions are drawn from among the detected image positions toward the oncoming lane of the road. Assuming that three image positions are selected as the vertices of a triangle consisting of the image position of the shortest distance from the perpendicular bisector on the oncoming lane , and the selected three image positions are stored in the correspondence information Based on, generating vertex information associated with the three three-dimensional positions in the coordinate system of the three-dimensional position ,
calculating a conversion parameter based on the vertex information of the triangle including the correspondence information and the image position to be converted, and converting the image position to be converted into the three-dimensional position using the calculated conversion parameter;
Position measurement data generation method.
前記測定車両の三次元位置は、前記道路の対向車線の各々を走行したときに測定した三次元位置である
請求項記載の位置計測用データ生成方法。
6. The position measurement data generating method according to claim 5 , wherein the three-dimensional position of the measurement vehicle is a three-dimensional position measured when traveling in each of the oncoming lanes of the road.
前記三角形を拡大した拡大三角形の頂点情報を生成する
請求項又は請求項記載の位置計測用データ生成方法。
7. The method of generating position measurement data according to claim 5 , further comprising generating vertex information of an enlarged triangle obtained by enlarging said triangle.
前記カメラの光軸方向が前記道路の車線幅方向に沿う場合は、前記道路の車線と前記三角形とが交差する三次元位置を新たな頂点として頂点情報を生成する
請求項の何れか1項に記載の位置計測用データ生成方法。
When the optical axis direction of the camera is along the lane width direction of the road , vertex information is generated with a three-dimensional position where the lane of the road and the triangle intersect as a new vertex. 2. The method for generating position measurement data according to item 1.
コンピュータに、
三次元位置を測定する測定部を備えた測定車両が走行する道路を撮影可能な位置に設置されたカメラにより前記測定車両が撮影された撮影画像と、前記測定車両が前記道路を走行したときに前記測定部により測定された前記測定車両の三次元位置と、を取得し、
前記撮影画像から前記測定車両の画像位置を検出し、
前記画像位置と前記三次元位置とを対応付けた対応付け情報を生成し、
検出された前記画像位置の中から、前記道路に沿って隣り合う2つの画像位置と、前記2つの画像位置を結ぶ線分の垂直二等分線を前記道路の対向車線に向けて描画したと仮定した場合に、前記対向車線上において前記垂直二等分線から最短距離の画像位置とから成る3つの画像位置を三角形の頂点として選択し、選択した前記3つの画像位置を、前記対応付け情報に基づいて、前記三次元位置の座標系における3つの前記三次元位置に対応付けた頂点情報を生成し、
前記対応付け情報及び変換対象の画像位置を含む三角形の前記頂点情報に基づいて変換パラメータを算出し、算出した変換パラメータを用いて変換対象の画像位置を前記三次元位置に変換する
ことを含む処理を実行させるための位置計測用データ生成プログラム(40)。
to the computer,
A photographed image of the measurement vehicle taken by a camera equipped with a measurement unit for measuring a three-dimensional position and installed at a position capable of photographing a road on which the measurement vehicle travels; obtaining a three-dimensional position of the measurement vehicle measured by the measurement unit;
detecting the image position of the measurement vehicle from the captured image;
generating association information that associates the image position with the three-dimensional position;
From among the detected image positions, two image positions adjacent to each other along the road and a perpendicular bisector of a line segment connecting the two image positions are drawn toward the oncoming lane of the road. Assuming that three image positions are selected as vertices of a triangle consisting of the image position of the shortest distance from the perpendicular bisector on the oncoming traffic lane , and the selected three image positions are stored in the correspondence information Based on, generating vertex information associated with the three three-dimensional positions in the coordinate system of the three-dimensional position ,
calculating a conversion parameter based on the vertex information of the triangle including the correspondence information and the image position to be converted, and converting the image position to be converted into the three-dimensional position using the calculated conversion parameter;
A position measurement data generation program (40) for executing processing including:
JP2019131900A 2019-07-17 2019-07-17 Position measurement data generation device, position measurement data generation method, and position measurement data generation program Active JP7293931B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019131900A JP7293931B2 (en) 2019-07-17 2019-07-17 Position measurement data generation device, position measurement data generation method, and position measurement data generation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019131900A JP7293931B2 (en) 2019-07-17 2019-07-17 Position measurement data generation device, position measurement data generation method, and position measurement data generation program

Publications (2)

Publication Number Publication Date
JP2021018068A JP2021018068A (en) 2021-02-15
JP7293931B2 true JP7293931B2 (en) 2023-06-20

Family

ID=74564198

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131900A Active JP7293931B2 (en) 2019-07-17 2019-07-17 Position measurement data generation device, position measurement data generation method, and position measurement data generation program

Country Status (1)

Country Link
JP (1) JP7293931B2 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137321A (en) 2013-01-18 2014-07-28 Nec Corp Position coordinate conversion system, position coordinate conversion method, on-vehicle device, global coordinate measurement device and position coordinate conversion program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10332334A (en) * 1997-06-04 1998-12-18 Hitachi Ltd Position measuring method by image processing and its device
JP2003042760A (en) * 2001-07-27 2003-02-13 Sumitomo Electric Ind Ltd Instrument, method, and system for measurement

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137321A (en) 2013-01-18 2014-07-28 Nec Corp Position coordinate conversion system, position coordinate conversion method, on-vehicle device, global coordinate measurement device and position coordinate conversion program

Also Published As

Publication number Publication date
JP2021018068A (en) 2021-02-15

Similar Documents

Publication Publication Date Title
EP2993490B1 (en) Operating device, operating method, and program therefor
JP4619962B2 (en) Road marking measurement system, white line model measurement system, and white line model measurement device
JP4767578B2 (en) High-precision CV calculation device, CV-type three-dimensional map generation device and CV-type navigation device equipped with this high-precision CV calculation device
WO2018225446A1 (en) Map points-of-change detection device
US8625851B2 (en) Measurement apparatus, measurement method, and feature identification apparatus
JP4406381B2 (en) Obstacle detection apparatus and method
CN108692719B (en) Object detection device
JP5363752B2 (en) Road marking map generation method
EP3032818B1 (en) Image processing device
JP2009237901A (en) Method of creating road marker map
JP6515650B2 (en) Calibration apparatus, distance measuring apparatus and calibration method
JP2007147458A (en) Location detector, location detection method, location detection program, and recording medium
EP3324359A1 (en) Image processing device and image processing method
JP2019003606A (en) Map change point detection device
JP7010535B2 (en) Information processing equipment
JP2019163624A (en) Information processing device, information processing method and display device
JP5281424B2 (en) Road marking map generation method
JP5396585B2 (en) Feature identification method
JP5814620B2 (en) POSITION CORRECTION DATA GENERATION DEVICE, POSITION LOCATION DEVICE, POSITION CORRECTION DATA GENERATION DEVICE POSITION CORRECTION DATA GENERATION METHOD, POSITION POSITION DEVICE POSITION POSITIONING METHOD, POSITION CORRECTION DATA GENERATION PROGRAM, AND POSITION POSITION PROGRAM
JP7315216B2 (en) Corrected Distance Calculation Device, Corrected Distance Calculation Program, and Corrected Distance Calculation Method
JP7293931B2 (en) Position measurement data generation device, position measurement data generation method, and position measurement data generation program
JP5285311B2 (en) Road marking map generation method
JP5339753B2 (en) Road marking map generation method
US10859377B2 (en) Method for improving position information associated with a collection of images
JP5964093B2 (en) Vehicle size measuring device, vehicle size measuring method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230522

R151 Written notification of patent or utility model registration

Ref document number: 7293931

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151