JP6062020B2 - Designated point projection method, program and computer - Google Patents
Designated point projection method, program and computer Download PDFInfo
- Publication number
- JP6062020B2 JP6062020B2 JP2015225450A JP2015225450A JP6062020B2 JP 6062020 B2 JP6062020 B2 JP 6062020B2 JP 2015225450 A JP2015225450 A JP 2015225450A JP 2015225450 A JP2015225450 A JP 2015225450A JP 6062020 B2 JP6062020 B2 JP 6062020B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- line
- image
- designated
- road surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 57
- 238000004364 calculation method Methods 0.000 claims description 28
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000013500 data storage Methods 0.000 claims description 2
- 238000012937 correction Methods 0.000 description 54
- 238000005259 measurement Methods 0.000 description 54
- 238000010586 diagram Methods 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 238000013507 mapping Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
本発明は、例えば、モービルマッピングシステム(MMS)のカメラによって撮像された画像に指定点を投影する技術に関するものである。 The present invention relates to a technique for projecting a designated point on an image captured by a camera of a mobile mapping system (MMS), for example.
レーザスキャナ、カメラ、測位装置などの計測機器を取り付けた計測車両で道路を走行し、計測車両を走行させて取得したデータに基づいて道路および道路周辺を測量し、また三次元地図を生成するモービルマッピングシステム(MMS)がある(例えば、特許文献1から3参照)。
A mobile that runs on a road with a measuring vehicle equipped with measuring equipment such as a laser scanner, camera, and positioning device, surveys the road and surroundings based on data acquired by running the measuring vehicle, and generates a three-dimensional map There is a mapping system (MMS) (see, for example,
モービルマッピングシステムにおいて、道路および道路周辺の測量や三次元地図の生成を高い精度に行うためには、レーザスキャナやカメラを取り付けた位置および姿勢角を高い精度で計測する必要がある。
そこで、レーザスキャナやカメラの取り付け位置および姿勢角を容易に高い精度で算出する方法が提案されている(特許文献4参照)。
In a mobile mapping system, in order to perform surveying of roads and surroundings of roads and generation of three-dimensional maps with high accuracy, it is necessary to measure the position and posture angle with a laser scanner and camera attached with high accuracy.
In view of this, a method for easily calculating the mounting position and posture angle of a laser scanner or camera with high accuracy has been proposed (see Patent Document 4).
本発明は、例えば、第一画像内の指定点を第二画像に投影できるようにすることを目的とする。 For example, an object of the present invention is to allow a designated point in a first image to be projected onto a second image.
本発明の指定点投影方法において、
コンピュータが、
移動体に取り付けられたカメラによって地面を撮像して得られる第一画像の撮像時の前記カメラの座標値を示す第一のカメラ座標値と、前記カメラの取り付け角度を示すカメラ姿勢角値と、前記地面の複数地点を示す複数の座標値を含む点群データとに基づいて、前記地面の前記複数地点を示す点群を前記第一画像に投影し、
前記第一画像に投影した前記点群に基づいて、前記第一画像内の複数点である複数の指定点それぞれの座標値を算出し、
算出された前記複数の指定点それぞれの座標値と、前記移動体が前記第一画像の撮像時とは異なる位置にいるときに前記カメラによって前記地面を撮像して得られる第二画像の撮像時の前記カメラの座標値を示す第二のカメラ座標値と、前記カメラ姿勢角値とに基づいて、前記複数の指定点を前記第二画像に投影する。
In the designated point projection method of the present invention,
Computer
A first camera coordinate value indicating a coordinate value of the camera at the time of imaging a first image obtained by imaging the ground by a camera attached to a moving body, a camera attitude angle value indicating an attachment angle of the camera, and Based on point cloud data including a plurality of coordinate values indicating a plurality of points on the ground, a point cloud indicating the plurality of points on the ground is projected on the first image,
Based on the point group projected on the first image, the coordinate value of each of a plurality of designated points that are a plurality of points in the first image is calculated,
At the time of imaging of the second image obtained by imaging the ground by the camera when the calculated coordinate values of the plurality of designated points and the moving body are at different positions from the time of imaging of the first image The plurality of designated points are projected onto the second image based on the second camera coordinate value indicating the coordinate value of the camera and the camera attitude angle value.
本発明によれば、例えば、第一画像内の指定点を第二画像に投影することができる。 According to the present invention, for example, a designated point in the first image can be projected onto the second image.
実施の形態1.
モービルマッピングシステム(MMS)の計測車両に取り付けたカメラの姿勢角値をキャリブレーション(算出、修正または調整)する方法について説明する。
但し、実施の形態1で説明する方法は、モービルマッピングシステムの計測車両以外の車両に取り付けられたカメラの姿勢角値をキャリブレーションするために用いても構わない。
A method for calibrating (calculating, correcting or adjusting) the attitude angle value of a camera attached to a measurement vehicle of a mobile mapping system (MMS) will be described.
However, the method described in the first embodiment may be used to calibrate the attitude angle value of a camera attached to a vehicle other than the measurement vehicle of the mobile mapping system.
モービルマッピングシステムとは、レーザスキャナ、カメラ、測位装置などの計測機器を取り付けた計測車両で道路を走行し、計測車両を走行させて取得したデータに基づいて道路および道路周辺を測量し、また三次元地図を生成するシステムである(例えば、特許文献1から3参照)。
A mobile mapping system is a vehicle that travels on a road with a measuring vehicle equipped with measuring devices such as a laser scanner, camera, and positioning device, and measures the road and surroundings based on data acquired by driving the measuring vehicle. This is a system for generating an original map (see, for example,
図1は、実施の形態1におけるモービルマッピングシステムの計測車両100を示す外観図である。
実施の形態1におけるモービルマッピングシステムの計測車両100について、図1に基づいて説明する。
FIG. 1 is an external view showing a
A
計測車両100(移動体の一例)は、計測ユニット110やオドメータ120を装備した車両(台車)である。
計測ユニット110は計測車両100の天板の上に設置され、オドメータ120は計測車両100の車軸に設置されている。
The measurement vehicle 100 (an example of a moving body) is a vehicle (cart) equipped with a measurement unit 110 and an odometer 120.
The measurement unit 110 is installed on the top plate of the
計測ユニット110は、6台のカメラ111A−Fと、4台のレーザスキャナ112A−Dと、3台のGPS受信機113A−C(GPS:Global Positioning System)と、1台のIMU114(Inertial Measurement Unit)とを計測機器として備える。
但し、計測ユニット110は、図1と異なる台数の計測機器を異なる配置で備えてもよい。
The measurement unit 110 includes six cameras 111A-F, four
However, the measurement unit 110 may include a different number of measurement devices from those in FIG.
カメラ111A−Fは、計測車両100の周囲を撮像する装置である。
カメラ111Aは計測車両100の右前方を撮像し、カメラ111Bは計測車両100の左前方を撮像する。
カメラ111Cは計測車両100の右側方を撮像し、カメラ111Dは計測車両100の左側方を撮像する。
カメラ111Eは計測車両100の右後方を撮像し、カメラ111Fは計測車両100の左後方を撮像する。
The cameras 111A-F are devices that capture an image of the periphery of the
The camera 111A images the right front of the
The
The
レーザスキャナ112A−Dはレーザ光を照射し、レーザ光を照射した地点(計測地点)までの距離および方位を計測する装置である。
レーザスキャナ112Aは計測車両100の前側下方を計測し、レーザスキャナ112Bは計測車両100の後ろ側上方を計測する。
レーザスキャナ112Cは計測車両100の前側上方を計測し、レーザスキャナ112Dは計測車両100の後ろ側下方を計測する。
The
The laser scanner 112 </ b> A measures the front lower side of the
The laser scanner 112 </ b> C measures the upper front side of the
GPS受信機113A−Cは、測位衛星から測位信号を受信するアンテナおよび受信結果に基づいて測位する装置である。
但し、GPSは測位システム(GNSS:Global Navigation Satellite Systems)の一例である。GPS受信機113A−Cは、GPS以外の測位システム(GLONASS:Global Navigation Satellite System、Galileo、準天頂衛星システムなど)を利用する受信機であっても構わない。
The GPS receivers 113A-C are devices that perform positioning based on an antenna that receives a positioning signal from a positioning satellite and a reception result.
However, GPS is an example of a positioning system (GNSS: Global Navigation Satellite Systems). The GPS receivers 113A-C may be receivers that use positioning systems other than GPS (such as GLONASS: Global Navigation Satellite System, Galileo, and Quasi-Zenith Satellite System).
IMU114は、3軸方向(X,Y,Z)の角速度を計測する装置(ジャイロセンサおよび加速度センサ)である。
The
オドメータ120は、計測車両100の走行速度を計測する装置である。
The odometer 120 is a device that measures the traveling speed of the
図1において、X軸は計測車両100の進行方向を表し、Y軸は計測車両100の高さ方向を表し、Z軸は計測車両100の幅方向を表す。
また、「φ」はX軸回りの回転角(ロール角)を表し、「θ」はY軸回りの回転角(ヨー角または方位角)を表し、「ψ」はZ軸周りの回転角(ピッチ角または仰角)を表している。
「O」は計測車両100の座標軸の原点を表す。つまり、計測車両100の座標値は原点Oの座標値を意味する。
In FIG. 1, the X axis represents the traveling direction of the
Further, “φ” represents a rotation angle (roll angle) around the X axis, “θ” represents a rotation angle (yaw angle or azimuth angle) around the Y axis, and “ψ” represents a rotation angle around the Z axis ( Pitch angle or elevation angle).
“O” represents the origin of the coordinate axis of the
カメラ111A−Fの姿勢角値(ロール角、ヨー角、ピッチ角)は、道路および道路周辺を測量し、また三次元地図を生成するためにマッピング装置に設定される。
マッピング装置に設定するカメラ111A−Fの姿勢角値をキャリブレーションする場合、直線が記された路面(地面)を計測車両100で走行し、計測ユニット110に備わる各計測機器によってデータを収集する。
以降で説明するキャリブレーション装置は、計測ユニット110の各計測機器によって収集されるデータを用いて、カメラ111A−Fの姿勢角値をキャリブレーションする。
The posture angle values (roll angle, yaw angle, pitch angle) of the cameras 111A-F are set in the mapping device in order to survey the road and the road periphery and generate a three-dimensional map.
When calibrating the posture angle values of the cameras 111A-F set in the mapping device, the
The calibration apparatus described below calibrates the posture angle value of the cameras 111A-F using data collected by each measurement device of the measurement unit 110.
図2は、実施の形態1におけるキャリブレーション装置200を示す機能構成図である。
実施の形態1におけるキャリブレーション装置200の機能構成について、図2に基づいて説明する。
FIG. 2 is a functional configuration diagram illustrating the
A functional configuration of the
キャリブレーション装置200(カメラキャリブレーション装置の一例)は、計測車両100(図1参照)に搭載しても構わない。 The calibration device 200 (an example of a camera calibration device) may be mounted on the measurement vehicle 100 (see FIG. 1).
キャリブレーション装置200は、指定線入力部210、指定線算出部220、参照画像表示部230、カメラ姿勢角値修正部240およびキャリブレーション記憶部290を備える。
The
キャリブレーション記憶部290(カメラ姿勢角値記憶部、画像記憶部、カメラ座標値記憶部、点群データ記憶部の一例)は、キャリブレーション装置200で使用するデータを記憶する。
例えば、キャリブレーション記憶部290は、複数の路面画像291、カメラ座標値データ292、三次元点群データ293およびカメラ姿勢角値データ299を記憶する。
The calibration storage unit 290 (an example of a camera posture angle value storage unit, an image storage unit, a camera coordinate value storage unit, and a point cloud data storage unit) stores data used by the
For example, the
複数の路面画像291(第一画像、第二画像の一例)は、計測車両100が異なる位置にいるときにカメラ111A−Fによって撮像して得られたデータであり、直線が記された道路(地面)を映している。
カメラ111Aによって得られた複数の路面画像291は、撮像時刻と共にキャリブレーション記憶部290に記憶する。同様に、カメラ111B−Fそれぞれによって得られた複数の路面画像291も撮像時刻と共にキャリブレーション記憶部290に記憶する。
A plurality of road surface images 291 (an example of a first image and a second image) are data obtained by imaging with the cameras 111A-F when the
A plurality of
カメラ座標値データ292(第一のカメラ座標値、第二のカメラ座標値の一例)は、複数の路面画像291が撮像されたときのカメラ111A−Fの三次元座標値を含んだデータである。カメラ111A−Fの三次元座標値は時刻に対応付けてカメラ座標値データ292に設定されている。
カメラ111A−Fの三次元座標値は、計測車両100の三次元座標値(座標原点の座標値)に座標原点からカメラ111A−Fの取り付け位置までの三次元ベクトル(距離)を加算して得られる値である。例えば、計測車両100の三次元座標値は、GPS受信機113の測位結果およびIMU114またはオドメータ120の計測データを用いた慣性航法(ストラップダウン演算、デッドレコニング演算)によって得られる。
カメラ111A−Fの取り付け位置(xcam,ycam,zcam)は、特許文献4に開示されている方法によって高い精度で容易に算出することができる。
カメラ座標値データ292は予め生成されてキャリブレーション記憶部290に記憶してあるものとする。
The camera coordinate value data 292 (an example of the first camera coordinate value and the second camera coordinate value) is data including the three-dimensional coordinate values of the cameras 111A-F when a plurality of
The three-dimensional coordinate value of the camera 111A-F is obtained by adding the three-dimensional vector (distance) from the coordinate origin to the mounting position of the camera 111A-F to the three-dimensional coordinate value (coordinate value of the coordinate origin) of the measuring
The attachment position (x cam , y cam , z cam ) of the camera 111A-F can be easily calculated with high accuracy by the method disclosed in
Assume that the camera coordinate
三次元点群データ293(点群データの一例)は、レーザスキャナ112A−Dが計測した複数の計測地点(例えば、路面の複数地点)それぞれの三次元座標値を含んだデータである。
各計測地点の三次元座標値は、レーザスキャナ112A−Dの三次元座標値にレーザスキャナ112A−Dの計測値(距離および方位)が表す三次元ベクトルを加算して得られる値である。レーザスキャナ112A−Dの三次元座標値は、カメラ111A−Fの三次元座標値と同様に、計測車両100の三次元座標値に座標原点からレーザスキャナ112A−Dの取り付け位置までの三次元ベクトル(距離)を加算して得られる。
レーザスキャナ112A−Dの取り付け位置(xlrf,ylrf,zlrf)および取り付け角度(φlrf,θlrf,ψlrf)は、特許文献4に開示されている方法によって高い精度で容易に算出することができる。
三次元点群データ293は、予め生成されてキャリブレーション記憶部290に記憶してあるものとする。
The three-dimensional point group data 293 (an example of point group data) is data including three-dimensional coordinate values of a plurality of measurement points (for example, a plurality of points on the road surface) measured by the
The three-dimensional coordinate value of each measurement point is a value obtained by adding the three-dimensional vector represented by the measurement value (distance and azimuth) of the
The mounting position (x lrf , y lrf , z lrf ) and the mounting angle (φ lrf , θ lrf , ψ lrf ) of the
It is assumed that the three-dimensional
カメラ姿勢角値データ299は、カメラ111A−Fそれぞれの取り付け角度(ロール角φcam,ヨー角θcam,ピッチ角ψcam)の値を含んだデータである。以下、取り付け角度の値を「姿勢角値」という(カメラ姿勢角値の一例)。
例えば、カメラ姿勢角値データ299には、計測ユニット110の設計値(カメラ111A−Fの取り付け角度)をカメラ111A−Fの姿勢角値として設定する。但し、カメラ111A−Fを設計値通りに正確に取り付けることは困難であるため、カメラ姿勢角値データ299に設定されたカメラ111A−Fの姿勢角値はカメラ111A−Fの実際の姿勢角に対して誤差を含む。カメラ姿勢角値データ299に設定されたカメラ111A−Fの姿勢角値は、キャリブレーション装置200によって調整される。
カメラ姿勢角値データ299は、予め生成されてキャリブレーション記憶部290に記憶してあるものとする。但し、カメラ姿勢角値データ299が示すカメラ111A−Fの姿勢角値は正確な値ではなく、誤差を含んでいる。
The camera attitude
For example, in the camera posture
Assume that the camera attitude
指定線入力部210、指定線算出部220、参照画像表示部230およびカメラ姿勢角値修正部240は、キャリブレーション記憶部290に記憶されているデータを用いてカメラ111Aの姿勢角値を以下のように調整する。また、各構成要素は、他のカメラ111B−Fの姿勢角値も同様に調整する。
The designated
指定線入力部210(指定点入力部、指定点取得部の一例)は、カメラ111Aによって得られた第一の路面画像291aを表示し、利用者が路面画像291内の直線に沿って指定する直線の情報(複数の指定点の一例)を指定線として入力する。
指定線入力部210の処理の詳細については後述する。
The designated line input unit 210 (an example of a designated point input unit and a designated point acquisition unit) displays the first
Details of the processing of the designation
指定線算出部220は、第一の路面画像291aが撮像されたときのカメラ111Aの三次元座標値と、カメラ姿勢角値データ299が示すカメラ111Aの姿勢角値と、三次元点群データ293に含まれる三次元座標値とに基づいて、レーザスキャナ112A−Dが計測した複数の計測地点を示す点群を第一の路面画像291aに投影する。
指定線算出部220は、第一の路面画像291aに投影した点群に基づいて指定線の三次元座標値を算出する。
指定線算出部220の処理の詳細については後述する。
The designated
The designated
Details of the processing of the designated
参照画像表示部230(参照画像生成部の一例)は、指定線算出部220によって算出された指定線の三次元座標値と、カメラ111Aによって得られた第二の路面画像291bが撮像されたときのカメラ111Aの三次元座標値と、カメラ姿勢角値データ299が示すカメラ111Aの姿勢角値とに基づいて、指定線を第二の路面画像291bに投影する。
参照画像表示部230は、指定線を投影した第二の路面画像291bを参照画像として表示する。
参照画像表示部230の処理の詳細については後述する。
When the reference image display unit 230 (an example of the reference image generation unit) captures the three-dimensional coordinate value of the designated line calculated by the designated
The reference
Details of the processing of the reference
カメラ姿勢角値修正部240は、利用者がカメラ111Aの姿勢角値を修正するために指定する姿勢角値修正情報を入力する。
カメラ姿勢角値修正部240は、姿勢角値修正情報に基づいてカメラ111Aの姿勢角値を修正する。
カメラ姿勢角値修正部240の処理の詳細については後述する。
The camera posture angle
The camera posture angle
Details of the processing of the camera attitude angle
図3、図4、図5は、実施の形態1におけるキャリブレーション装置200のキャリブレーション方法の概要を示す図である。
実施の形態1におけるキャリブレーション装置200のキャリブレーション方法の概要について、図3から図5に基づいて説明する。
3, 4, and 5 are diagrams illustrating an outline of the calibration method of the
An outline of the calibration method of the
図3において、キャリブレーション装置200は、横線301と縦線302とが記された路面を撮像して得られた第一の路面画像291aをディスプレイ911(表示装置)に表示する。利用者は、入力装置(キーボード、マウスなど)を用いて第一の路面画像291aの横線301および縦線302に沿って線(横指定線303、縦指定線304)を引く。
キャリブレーション装置200は、カメラ111の姿勢角値と第一の路面画像291aを撮像時のカメラ111の三次元座標値と三次元点群データ293とに基づいて横指定線303および縦指定線304の三次元座標値(点群)を算出する。
図4または図5において、キャリブレーション装置200は、計測車両100が横線301および縦線302に対して前進または後退したときの画像(第二の路面画像291b)をディスプレイ911に表示する。また、キャリブレーション装置200は横指定線303および縦指定線304の三次元座標値(点群)に基づいて横指定線303および縦指定線304(後述する複数の参照点311)を第二の路面画像291bに記す。横指定線303および縦指定線304が横線301および縦線302からずれている場合(図4)、利用者はキャリブレーション装置200に対してカメラ111の姿勢角値の修正を指示し、キャリブレーション装置200はカメラ111の姿勢角値を修正する。横指定線303および縦指定線304が横線301および縦線302からずれていない場合(図5)、カメラ111の姿勢角値は正しく調整されている。
In FIG. 3, the
The
4 or 5, the
図6は、実施の形態1におけるキャリブレーション装置200のキャリブレーション方法を示すフローチャートである。
カメラ姿勢角値データ299が示すカメラ111Aの姿勢角値をキャリブレーションするキャリブレーション装置200のキャリブレーション方法について、図6に基づいて説明する。但し、キャリブレーション装置200は、他のカメラ111B−Fの姿勢角値も同様にキャリブレーションする。
FIG. 6 is a flowchart illustrating a calibration method of the
A calibration method of the
指定線入力処理(S110)において、指定線入力部210は、カメラ111Aによって得られた一つの路面画像291をキャリブレーション記憶部290から取得し、取得した路面画像291をディスプレイ911に表示する。
以下、S110で表示する一つの路面画像291を「第一の路面画像291a」という。但し、第一の路面画像291aは、直線(例えば、白線)が記された路面を映した画像である。
In the designated line input process (S110), the designated
Hereinafter, one
例えば、指定線入力部210は、以下のように第一の路面画像291aを表示する。
(1)キャリブレーション装置200は計測車両100に搭載され、指定線入力部210はキャリブレーションが実行されるときにカメラ111Aによって最初に得られた路面画像291を第一の路面画像291aとしてディスプレイに表示する。
(2)指定線入力部210は、カメラ111Aによって得られた複数の路面画像291をキャリブレーション記憶部290から取得し、取得した複数の路面画像291をサムネイルでディスプレイ911に表示する。そして、利用者は入力装置を用いて一つの路面画像291を選択し、指定線入力部210は選択された路面画像291を第一の路面画像291aとしてディスプレイ911に表示する。
(3)指定線入力部210は、カメラ111Aによって得られた複数の路面画像291からランダムに一つの路面画像291を選択し、選択した路面画像291を第一の路面画像291aとしてディスプレイに表示する。
For example, the designation
(1) The
(2) The designation
(3) The designation
図7は、実施の形態1における指定線入力処理(S110)の概要図である。
指定線入力処理(S110)の続きを図7に基づいて説明する。
FIG. 7 is a schematic diagram of the designated line input process (S110) in the first embodiment.
The continuation of the designated line input process (S110) will be described with reference to FIG.
第一の路面画像291aは向きが異なる2つの白線(横線301、縦線302)を含んでいる。横線301(第一直線の一例)は画像の縦方向よりも横方向に伸びている白線であり、縦線302(第二直線の一例)は画像の横方向よりも縦方向に伸びている白線である。但し、横線301および縦線302は道路に記された白線以外の直線(例えば、キャリブレーションのために地面に引いた線)であっても構わない。
The first
利用者は、ディスプレイ911に表示された第一の路面画像291aを参照し、第一の路面画像291aに映っている横線301に沿って横指定線303を入力装置を用いて指定し、第一の路面画像291aに映っている縦線302に沿って縦指定線304を入力装置を用いて指定する。横指定線303は横線301に沿って指定する複数点の一例であり、縦指定線304は縦線302に沿って指定する複数点の一例である。
指定線入力部210は、指定された横指定線303と縦指定線304とを入力装置から入力する。例えば、横指定線303および縦指定線304は指定された画素の座標値として表される。
The user refers to the first
The designation
図6に戻り、キャリブレーション方法の説明を続ける。
S110の後、処理はS120に進む。
Returning to FIG. 6, the description of the calibration method will be continued.
After S110, the process proceeds to S120.
指定線算出処理(S120)において、指定線算出部220は、カメラ姿勢角値データ299からカメラ111Aの姿勢角値を取得し、カメラ座標値データ292から第一の路面画像291aの撮像時刻と同じ時刻のカメラ111Aの三次元座標値を取得する。また、指定線算出部220は、カメラ111Aの焦点距離fをキャリブレーション記憶部290から取得する。カメラ111Aの焦点距離fはキャリブレーション記憶部290に予め記憶しておく。
指定線算出部220は、キャリブレーション記憶部290から三次元点群データ293を取得する。
指定線算出部220は、取得したカメラ111Aの姿勢角値と三次元座標値と焦点距離fと、取得した三次元点群データ293に含まれる複数の三次元座標値とを用いて、レーザスキャナ112A−Dが計測した複数の計測地点を示す点群を第一の路面画像291aに投影する。
In the designated line calculation process (S120), the designated
The designated
The designated
図8は、実施の形態1における点群の投影処理を示す概要図である。
第一の路面画像291aに点群を投影する処理について、図8に基づいて説明する。
FIG. 8 is a schematic diagram showing point cloud projection processing in the first embodiment.
The process of projecting a point cloud on the first
指定線算出部220は、カメラ111Aの三次元座標値が示すカメラ中心点Oから焦点距離fだけ離れてカメラ111Aの姿勢角値が示す姿勢角ベクトルVAと直交する画像平面Iを算出する。画像平面Iは第一の路面画像291aに相当する平面である。
指定線算出部220は、カメラ中心点Oから三次元点群データ293の三次元座標値が示す計測地点Mへの視線ベクトルVLを算出し、視線ベクトルVLと画像平面Iとが交差する点M’を計測地点Mの投影点として算出する。
The designated
The designated
投影処理は、路面画像291の画素と三次元点群データ293の三次元座標値が示す計測地点とを対応付けるための処理である。
The projection process is a process for associating the pixel of the
点群の投影処理の詳細については、特許文献1(図24参照)や特許文献3(図10参照)に開示されている。 Details of the point cloud projection processing are disclosed in Patent Document 1 (see FIG. 24) and Patent Document 3 (see FIG. 10).
図9は、実施の形態1における第一の路面画像291aに投影した点群を表す図である。
但し、指定線算出部220は、図9のように第一の路面画像291aに投影した点群を表示してもよいし、表示しなくてもよい。
図6に戻り、指定線算出処理(S120)の説明を続ける。
FIG. 9 is a diagram illustrating a point group projected on the first
However, the designated
Returning to FIG. 6, the description of the designated line calculation process (S120) will be continued.
指定線算出部220は、第一の路面画像291aに投影した点群の三次元座標値に基づいて横指定線303の三次元座標値を算出する。
指定線算出部220は、縦指定線304の三次元座標値を横指定線303の三次元座標値と同様に算出する。
The designation
The designated
例えば、指定線算出部220は、以下のようにして横指定線303の三次元座標値を算出する。
指定線算出部220は、横指定線303から複数点を選択する。
指定線算出部220は、第一の路面画像291aに投影した点群から、横指定線303の第一の選択点の近傍に投影された複数の近傍点(例えば、第一の選択点を囲む三つの近傍点)を抽出する。
指定線算出部220は、抽出した複数の近傍点の中間点の三次元座標値を横指定線303の第一の選択点の三次元座標値として算出する。
指定線算出部220は、横指定線303の他の選択点についても同様に三次元座標値を算出する。これら選択点の三次元座標値は横指定線303の三次元座標値を表す。
For example, the designated
The designated
The designated
The designated
The designated
カメラ111Aの姿勢角値に誤差が含まれる場合、カメラ111Aの姿勢角値を用いて第一の路面画像291aに投影した点群は第一の路面画像291aに対して正しい位置に投影されていない。
このため、第一の路面画像291aに投影した点群に基づいて算出した横指定線303および縦指定線304を他の路面画像291に投影した場合、横指定線303および縦指定線304は他の路面画像291に映る横線301および縦線302からずれた部分に投影される。
S120の後、処理はS130に進む。
When the posture angle value of the camera 111A includes an error, the point cloud projected on the first
For this reason, when the
After S120, the process proceeds to S130.
参照画像表示処理(S130)において、参照画像表示部230は、カメラ111Aによって得られた一つの路面画像291(但し、第一の路面画像291aを除く)をキャリブレーション記憶部290から取得する。
以下、S130で取得する一つの路面画像291を「第二の路面画像291b」という。但し、第二の路面画像291bは、第一の路面画像291aに映った直線(横線301、縦線302)と同じ直線を映した画像である。
In the reference image display process (S130), the reference
Hereinafter, one
例えば、参照画像表示部230は、以下のように第二の路面画像291bを取得する。
(1)キャリブレーション装置200を搭載した計測車両100を横線301および縦線302に対して前進(または後退)させる。そして、参照画像表示部230は計測車両100が横線301および縦線302に対して前進(または後退)したときにカメラ111Aによって得られた路面画像291を第二の路面画像291bとして取得する。
(2)参照画像表示部230は、各路面画像291の撮像時刻に基づいて第一の路面画像291aの前(例えば、一つ前)に得られた路面画像291または第一の路面画像291aの後(例えば、一つ後)に得られた路面画像291を第二の路面画像291bとして取得する。
(3)S110の(2)と同様に、利用者は路面画像291を選択し、参照画像表示部230は選択された路面画像291を第二の路面画像291bとして取得する。
For example, the reference
(1) The
(2) The reference
(3) Similar to (2) of S110, the user selects the
参照画像表示部230は、カメラ姿勢角値データ299からカメラ111Aの姿勢角値を取得し、カメラ座標値データ292から第二の路面画像291bの撮像時刻と同じ時刻のカメラ111Aの三次元座標値を取得する。また、参照画像表示部230は、カメラ111Aの焦点距離fをキャリブレーション記憶部290から取得する。
参照画像表示部230は、取得したカメラ111Aの姿勢角値と三次元座標値と焦点距離fと、S120で複数の参照点311として投影された各計測地点の三次元座標値とを用いて、横指定線303および縦指定線304を第二の路面画像291bに投影する。横指定線303および縦指定線304の投影方法はS120と同様である。
参照画像表示部230は、横指定線303および縦指定線304を投影した第二の路面画像291bをディスプレイ911に表示する。以下、横指定線303および縦指定線304を投影した第二の路面画像291bを「参照画像321」という。
The reference
The reference
The reference
図10、図11は、実施の形態1における参照画像321(ロール角のずれ)の一例を示す図である。
カメラ姿勢角値データ299が示すカメラ111Aのロール角の角度(姿勢角値の一つ)に誤差が含まれている場合、参照画像321の横指定線303および縦指定線304は横線301および縦線302からロール角の方向にずれた部分に表示される(図10、図11参照)。
つまり、横指定線303は参照画像321の右側部分と左側部分とで横線301に対して上下異なる方向にずれる。さらに、縦指定線304は縦線302に対して左右いずれか一方にずれる。
10 and 11 are diagrams illustrating an example of the reference image 321 (roll angle shift) in the first embodiment.
When an error is included in the roll angle angle (one of the posture angle values) of the camera 111A indicated by the camera posture
That is, the
図12、図13は、実施の形態1における参照画像321(ピッチ角のずれ)の一例を示す図である。
カメラ姿勢角値データ299が示すカメラ111Aのピッチ角の角度(姿勢角値の一つ)に誤差が含まれている場合、参照画像321の横指定線303および縦指定線304は横線301および縦線302からピッチ角の方向にずれた部分に表示される(図12、図13参照)。
つまり、横指定線303および縦指定線304は横線301および縦線302に対して上下いずれか一方にずれる。
12 and 13 are diagrams illustrating an example of the reference image 321 (pitch angle deviation) in the first embodiment.
When an error is included in the angle of the pitch angle of the camera 111A indicated by the camera attitude angle value data 299 (one of the attitude angle values), the
That is, the
図14、図15は、実施の形態1における参照画像321(ヨー角のずれ)の一例を示す図である。
カメラ姿勢角値データ299が示すカメラ111Aのヨー角の角度(姿勢角値の一つ)に誤差が含まれている場合、参照画像321の横指定線303は横線301に対してずれずに表示され(または横線301に対するずれが小さく)、参照画像321の縦指定線304は縦線302に対して左右いずれか一方にずれて表示される。
14 and 15 are diagrams illustrating an example of the reference image 321 (yaw angle deviation) in the first embodiment.
When an error is included in the yaw angle of the camera 111A (one of the attitude angle values) indicated by the camera attitude
図6に戻り、キャリブレーション方法の説明を続ける。
S130の後、処理はS140に進む。
Returning to FIG. 6, the description of the calibration method will be continued.
After S130, the process proceeds to S140.
修正要否判定処理(S140)において、利用者は、S130(または後述するS160)で表示された参照画像321(図10から図15参照)を参照し、横指定線303および縦指定線304が横線301および縦線302に対してずれているか否かを判定し、入力装置を用いて判定結果を指定する。カメラ姿勢角値修正部240は、指定された判定結果を入力装置から入力する。
横指定線303および縦指定線304が横線301および縦線302に対してずれていることを示す判定結果が入力された場合(YES)、処理はS150に進む。
横指定線303および縦指定線304が横線301および縦線302に対してずれていないことを示す判定結果が入力された場合(NO)、キャリブレーション方法の処理は終了する。
In the correction necessity determination process (S140), the user refers to the reference image 321 (see FIGS. 10 to 15) displayed in S130 (or S160 described later), and the
When a determination result indicating that the
When a determination result indicating that the
カメラ姿勢角値修正処理(S150)において、利用者は、カメラ姿勢角値データ299に含まれるカメラ111Aの姿勢角値を修正するための姿勢角値修正量(姿勢角値修正情報の一例)を入力装置を用いて指定する。姿勢角値修正量は、カメラ111Aのロール角、ピッチ角およびヨー角のいずれかに加算(または減算)する角度を示す。但し、姿勢角値修正量にロール角、ピッチ角およびヨー角のうち複数の角度に加算(または減算)する複数の角度を含んでもよい。
カメラ姿勢角値修正部240は指定された姿勢角値修正量を入力装置から入力し、入力した姿勢角値修正量をカメラ姿勢角値データ299に含まれるカメラ111Aの姿勢角値に加算(または減算)する。これにより、カメラ111Aの姿勢角値は修正(更新)される。
但し、利用者は修正後のカメラ111Aの姿勢角値(姿勢角値修正情報の一例)を指定し、カメラ姿勢角値修正部240は指定されたカメラ111Aの姿勢角値をカメラ姿勢角値データ299に上書きしてもよい。
In the camera attitude angle value correction process (S150), the user uses an attitude angle value correction amount (an example of attitude angle value correction information) for correcting the attitude angle value of the camera 111A included in the camera attitude
The camera posture angle
However, the user specifies the corrected posture angle value of the camera 111A (an example of posture angle value correction information), and the camera posture angle
このとき、利用者は、S130(または後述するS160)で表示された参照画像321(図10から図15参照)が示す横指定線303および縦指定線304と横線301および縦線302とのずれに基づいて姿勢角値修正量(または修正後の姿勢角値)を判断する。
At this time, the user shifts the
図16は、実施の形態1におけるカメラ111Aの姿勢角値の修正条件の一例を示す表である。
例えば、利用者は、姿勢角値(ロール角、ピッチ角またはヨー角)を修正する向きを図16に示す表に従って判断する。また、利用者は、ずれ量が大きいほど大きな修正量を指定する。
但し、図16に示すずれ及び修正の向きは、計測車両100が横線101および縦線302に近づいたときに右前向きのカメラ111Aで第一の路面画像291aを撮像し、計測車両100が横線101および縦線302から遠ざかったときにカメラ111Aで第二の路面画像291b(参照画像321)を撮像した場合のずれ及び修正の向きである。
左前向きのカメラ111Bや後ろ向きのカメラ111E・111Fで第一の路面画像291aおよび第二の路面画像291bを撮像した場合、ずれまたは修正の向きが異なる。
また、計測車両100が横線101および縦線302から遠ざかったときに撮像した画像を第一の路面画像291aとして用い、計測車両100が横線101および縦線302に近づいたときに撮像した画像を第二の路面画像292bとして用いる場合、ずれまたは修正の向きが異なる。例えば、ずれまたは修正の向きが図16に示す向きに対して逆向きになる。
FIG. 16 is a table illustrating an example of conditions for correcting the posture angle value of the camera 111A according to the first embodiment.
For example, the user determines the orientation for correcting the posture angle value (roll angle, pitch angle or yaw angle) according to the table shown in FIG. Further, the user designates a larger correction amount as the deviation amount is larger.
However, the direction of deviation and correction shown in FIG. 16 is such that when the
When the first
In addition, an image captured when the measuring
(1)参照画像321の右側で横指定線303が横線301に対して下側にずれ、参照画像321の左側で横指定線303が横線301に対して上側にずれ、縦指定線304が縦線302に対して右側にずれている場合(図10参照)、利用者は、カメラ111Aのロール角の角度を右回転の方向に修正するための姿勢角値修正量を指定する。
(2)参照画像321の右側で横指定線303が横線301に対して上側にずれ、参照画像321の左側で横指定線303が横線301に対して下側にずれ、縦指定線304が縦線302に対して左側にずれている場合(図11参照)、利用者は、カメラ111Aのロール角の角度を左回転の方向に修正する姿勢角値修正量を指定する。
(1) The
(2) The
(3)参照画像321の横指定線303および縦指定線304が横線301および縦線302に対して上側にずれている場合(図12参照)、利用者は、カメラ111Aのピッチ角の角度を上方向に修正するための姿勢角値修正量を指定する。
(4)参照画像321の横指定線303および縦指定線304が横線301および縦線302に対して下側にずれている場合(図13参照)、利用者は、カメラ111Aのピッチ角の角度を下方向に修正するための姿勢角値修正量を指定する。
(3) When the
(4) When the
(5)参照画像321の横指定線303が横線301に対してずれてなく(またはずれが小さく)、縦指定線304が縦線302に対して左側にずれている場合(図14参照)、利用者は、カメラ111Aのヨー角の角度を左方向に修正するための姿勢角値修正量を指定する。
(6)参照画像321の横指定線303が横線301に対してずれてなく(またはずれが小さく)、縦指定線304が縦線302に対して右側にずれている場合(図15参照)、利用者は、カメラ111Aのヨー角の角度を右方向に修正するための姿勢角値修正量を指定する。
(5) When the
(6) When the
また、利用者は、以下のようにカメラ111Aのロール角とピッチ角とのいずれを修正するか判断して姿勢角値修正量を指定してもよい。
横指定線303の横線301に対するずれと縦指定線304の縦線302に対するずれとが同程度の大きさである場合(図10、図11参照)、利用者は、カメラ111Aのヨー角の角度ではなくロール角の角度を修正するための姿勢角値修正量を指定する。
参照画像321の左右両側で横指定線303が横線301に対して上下いずれか一方にずれている場合(図14、図15参照)、利用者は、カメラ111Aのロール角の角度ではなくヨー角の角度を修正するための姿勢角値修正量を指定する。
In addition, the user may determine which of the roll angle and the pitch angle of the camera 111A is to be corrected and specify the posture angle value correction amount as follows.
When the deviation of the
When the
図6に戻り、キャリブレーション方法の説明を続ける。
S150の後、処理はS160に進む。
Returning to FIG. 6, the description of the calibration method will be continued.
After S150, the process proceeds to S160.
カメラ姿勢角値確認処理(S160)において、参照画像表示部230は、S150で修正されたカメラ111Aの姿勢角値を用いて、第一の路面画像291a、第二の路面画像291bまたはカメラ111Aによって得られた第三の路面画像291cに複数の参照点311を投影する。これにより、参照画像321が新たに生成される。投影方法はS120およびS130と同様である。
参照画像表示部230は、新たに生成した参照画像321をディスプレイに表示する。
S160の後、処理はS140に戻る。
In the camera attitude angle value confirmation process (S160), the reference
The reference
After S160, the process returns to S140.
図6に基づいて説明したキャリブレーション方法により、カメラ111Aの姿勢角値を修正し、カメラ111Aの正しい姿勢角値を算出することができる。
キャリブレーション装置200は、カメラ111Aの姿勢角値と同様にカメラ111B−Fそれぞれの姿勢角値を修正し、カメラ111B−Fそれぞれの正しい姿勢角値を算出する。
With the calibration method described with reference to FIG. 6, the posture angle value of the camera 111A can be corrected and the correct posture angle value of the camera 111A can be calculated.
The
図17は、実施の形態1におけるキャリブレーション装置200のハードウェア資源の一例を示す図である。
図17において、キャリブレーション装置200(コンピュータの一例)は、CPU901(Central Processing Unit)を備えている。CPU901は、バス902を介してROM903、RAM904、通信ボード905(通信装置)、ディスプレイ911(表示装置)、キーボード912、マウス913、ドライブ914、磁気ディスク装置920などのハードウェアデバイスと接続され、これらのハードウェアデバイスを制御する。ドライブ914は、FD(Flexible Disk Drive)、CD(Compact Disc)、DVD(Digital Versatile Disc)などの記憶媒体を読み書きする装置である。
ROM903、RAM904、磁気ディスク装置920およびドライブ914は記憶装置の一例である。キーボード912、マウス913および通信ボード905は入力装置の一例である。ディスプレイ911および通信ボード905は出力装置の一例である。
FIG. 17 is a diagram illustrating an example of hardware resources of the
In FIG. 17, a calibration apparatus 200 (an example of a computer) includes a CPU 901 (Central Processing Unit). The
The
通信ボード905は、有線または無線で、LAN(Local Area Network)、インターネット、電話回線などの通信網に接続している。
The
磁気ディスク装置920には、OS921(オペレーティングシステム)、プログラム群922、ファイル群923が記憶されている。
The
プログラム群922には、実施の形態において「〜部」として説明する機能を実行するプログラムが含まれる。プログラム(例えば、カメラキャリブレーションプログラム)は、CPU901により読み出され実行される。すなわち、プログラムは、「〜部」としてコンピュータを機能させるものであり、また「〜部」の手順や方法をコンピュータに実行させるものである。
The
ファイル群923には、実施の形態において説明する「〜部」で使用される各種データ(入力、出力、判定結果、計算結果、処理結果など)が含まれる。
The
実施の形態において構成図およびフローチャートに含まれている矢印は主としてデータや信号の入出力を示す。
フローチャートなどに基づいて説明する実施の形態の処理はCPU901、記憶装置、入力装置、出力装置などのハードウェアを用いて実行される。
In the embodiment, arrows included in the configuration diagrams and flowcharts mainly indicate input and output of data and signals.
The processing of the embodiment described based on the flowchart and the like is executed using hardware such as the
実施の形態において「〜部」として説明するものは「〜回路」、「〜装置」、「〜機器」であってもよく、また「〜ステップ」、「〜手順」、「〜処理」であってもよい。すなわち、「〜部」として説明するものは、ファームウェア、ソフトウェア、ハードウェアまたはこれらの組み合わせのいずれで実装されても構わない。 In the embodiment, what is described as “to part” may be “to circuit”, “to apparatus”, and “to device”, and “to step”, “to procedure”, and “to processing”. May be. That is, what is described as “to part” may be implemented by any of firmware, software, hardware, or a combination thereof.
実施の形態1により、カメラ111の姿勢角値を高い精度で容易にキャリブレーションすることができる。 According to the first embodiment, the posture angle value of the camera 111 can be easily calibrated with high accuracy.
以下に実施の形態1の補足説明を行う。 A supplementary explanation of the first embodiment will be given below.
図3で説明したキャリブレーション方法の処理は以下のように実施してもよい。
指定線入力処理(S110)において、利用者は、横指定線303や縦指定線304を指定する代わりに、横線301と縦線302とのそれぞれに沿って複数点を指定してもよい。横線301に沿って複数点を指定するとき、利用者は第一の路面画像291aの右側部分と左側部分とのそれぞれに点を指定する。
この場合、指定線入力部210は、横線301に沿って指定された複数点を含む直線を横指定線303として算出し、縦線302に沿って指定された複数点を含む直線を縦指定線304として算出する。
また、キャリブレーション装置200は、横指定線303と縦指定線304とを横線301に沿って指定された複数点と縦線302に沿って指定された複数点とに置き換えてキャリブレーション方法の処理を実行しても構わない。
The processing of the calibration method described with reference to FIG. 3 may be performed as follows.
In the designation line input process (S110), the user may designate a plurality of points along each of the
In this case, the designation
In addition, the
指定線入力処理(S110)において、利用者は横指定線303のみを指定してもよい。カメラ姿勢角値修正処理(S150)において横指定線303が横線301からずれている場合、利用者はカメラ111のロール角の値またはピッチ角の値を修正するための姿勢角値修正量を指定する。
指定線入力処理(S110)において、利用者は縦指定線304のみを指定してもよい。カメラ姿勢角値修正処理(S150)において縦指定線304が縦線302からずれている場合、利用者はカメラ111のロール角の値、ピッチ角の値またはヨー角の値を修正するための姿勢角値修正量を指定する。
In the designation line input process (S110), the user may designate only the
In the designation line input process (S110), the user may designate only the
指定線入力処理(S110)において、利用者が横指定線303および縦指定線304を指定する代わりに、キャリブレーション装置200が横指定線303および縦指定線304を算出してもよい。この場合、指定線入力部210は第一の路面画像291aを表示しなくてもよい。
例えば、指定線入力部210は、第一の路面画像291aを画像処理し、第一の路面画像291aの画素値に基づいて第一の路面画像291aに映った直線(例えば、白線)のエッジ部分を横指定線303および縦指定線304として算出する。
In the designation line input process (S110), the
For example, the designated
修正要否判定処理(S140)において、横指定線303および縦指定線304が横線301および縦線302に対してずれているか否かを利用者が判断する代わりにキャリブレーション装置200が判定してもよい。この場合、参照画像表示部230は参照画像321を表示しなくてもよい。
例えば、カメラ姿勢角値修正部240は、参照画像321を画像処理し、参照画像321の画素値に基づいて直線(例えば、白線)が映った部分を横線301および縦線302として算出する。カメラ姿勢角値修正部240は、参照画像321に投影された横指定線303および縦指定線304と参照画像321に映った横線301および縦線302とを比較する。そして、横指定線303および縦指定線304が横線301および縦線302に対して所定のずれ量閾値以上ずれている場合、カメラ姿勢角値修正部240は、横指定線303および縦指定線304が横線301および縦線302に対してずれていると判定する。
In the correction necessity determination process (S140), the
For example, the camera attitude angle
カメラ姿勢角値修正処理(S150)において、利用者が姿勢角値修正量を指定する代わりにキャリブレーション装置200が姿勢角値修正量を算出してもよい。
例えば、カメラ姿勢角値修正部240は、上記の修正要否判定処理(S140)と同様に、横指定線303および縦指定線304と横線301および縦線302とを比較し、横指定線303および縦指定線304が横線301および縦線302に対してずれている方向およびずれ量を算出する。そして、カメラ姿勢角値修正部240は、図16で説明した修正条件に従って姿勢角値修正量を算出する。カメラ姿勢角値修正部240は、ずれが大きいか否かをずれ量が所定のずれ量閾値より大きいか否かで判定する。
In the camera posture angle value correction process (S150), the
For example, the camera posture angle
100 計測車両、110 計測ユニット、111 カメラ、112 レーザスキャナ、113 GPS受信機、114 IMU、120 オドメータ、200 キャリブレーション装置、210 指定線入力部、220 指定線算出部、230 参照画像表示部、240 カメラ姿勢角値修正部、290 キャリブレーション記憶部、291 路面画像、292 カメラ座標値データ、293 三次元点群データ、299 カメラ姿勢角値データ、301 横線、302 縦線、303 横指定線、304 縦指定線、321 参照画像、901 CPU、902 バス、903 ROM、904 RAM、905 通信ボード、911 ディスプレイ、912 キーボード、913 マウス、914 ドライブ、920 磁気ディスク装置、921 OS、922 プログラム群、923 ファイル群。
DESCRIPTION OF
Claims (3)
移動体に取り付けられたカメラによって地面を撮像して得られる第一画像の撮像時の前記カメラの座標値を示す第一のカメラ座標値と、前記カメラの取り付け角度を示すカメラ姿勢角値と、前記地面の複数地点を示す複数の座標値を含む点群データとに基づいて、前記地面の前記複数地点を示す点群を前記第一画像に投影し、
前記第一画像に投影した前記点群に基づいて、前記第一画像内の複数点である複数の指定点それぞれの座標値を算出し、
算出された前記複数の指定点それぞれの座標値と、前記移動体が前記第一画像の撮像時とは異なる位置にいるときに前記カメラによって前記地面を撮像して得られる第二画像の撮像時の前記カメラの座標値を示す第二のカメラ座標値と、前記カメラ姿勢角値とに基づいて、前記複数の指定点を前記第二画像に投影する
ことを特徴とする指定点投影方法。 Computer
A first camera coordinate value indicating a coordinate value of the camera at the time of imaging a first image obtained by imaging the ground by a camera attached to a moving body, a camera attitude angle value indicating an attachment angle of the camera, and Based on point cloud data including a plurality of coordinate values indicating a plurality of points on the ground, a point cloud indicating the plurality of points on the ground is projected on the first image,
Based on the point group projected on the first image, the coordinate value of each of a plurality of designated points that are a plurality of points in the first image is calculated,
At the time of imaging of the second image obtained by imaging the ground by the camera when the calculated coordinate values of the plurality of designated points and the moving body are at different positions from the time of imaging of the first image A designated point projecting method, comprising: projecting the plurality of designated points onto the second image based on a second camera coordinate value indicating a coordinate value of the camera and a camera attitude angle value.
前記移動体に取り付けられた前記カメラによって地面を撮像して得られる第一画像と、前記移動体が前記第一画像の撮像時とは異なる位置にいるときに前記カメラによって前記地面を撮像して得られる第二画像とを記憶する画像記憶部と、
前記第一画像の撮像時の前記カメラの座標値を示す第一のカメラ座標値と、前記第二画像の撮像時の前記カメラの座標値を示す第二のカメラ座標値とを記憶するカメラ座標値記憶部と、
前記地面の複数地点を示す複数の座標値を含むデータとして点群データを記憶する点群データ記憶部と、
前記第一のカメラ座標値と前記カメラ姿勢角値と前記点群データとに基づいて前記地面の前記複数地点を示す点群を前記第一画像に投影し、前記第一画像に投影した前記点群に基づいて、前記第一画像内の複数点である複数の指定点それぞれの座標値を算出する指定点算出部と、
前記指定点算出部によって算出された前記複数の指定点それぞれの座標値と前記第二のカメラ座標値と前記カメラ姿勢角値とに基づいて前記複数の指定点を前記第二画像に投影する指定点投影部と
を備えることを特徴とするコンピュータ。 A camera posture angle value storage unit for storing a camera posture angle value indicating a mounting angle of the camera attached to the moving body;
A first image obtained by imaging the ground with the camera attached to the moving body, and the ground imaged by the camera when the moving body is at a position different from the time of capturing the first image. An image storage unit for storing the obtained second image;
Camera coordinates for storing a first camera coordinate value indicating the coordinate value of the camera at the time of capturing the first image and a second camera coordinate value indicating the coordinate value of the camera at the time of capturing the second image A value storage unit;
A point cloud data storage unit for storing point cloud data as data including a plurality of coordinate values indicating a plurality of points on the ground;
Based on the first camera coordinate value, the camera attitude angle value, and the point group data, a point group indicating the plurality of points on the ground is projected onto the first image, and the point projected onto the first image A designated point calculation unit that calculates coordinate values of a plurality of designated points that are a plurality of points in the first image based on a group;
Designation for projecting the plurality of designated points onto the second image based on the coordinate values, the second camera coordinate values, and the camera attitude angle values of the plurality of designated points calculated by the designated point calculation unit. A computer comprising a point projection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015225450A JP6062020B2 (en) | 2015-11-18 | 2015-11-18 | Designated point projection method, program and computer |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015225450A JP6062020B2 (en) | 2015-11-18 | 2015-11-18 | Designated point projection method, program and computer |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014507044A Division JP5844454B2 (en) | 2012-03-26 | 2012-03-26 | Camera calibration method, camera calibration program, and camera calibration apparatus |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016240938A Division JP6305501B2 (en) | 2016-12-13 | 2016-12-13 | Calibration method, program, and computer |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016057308A JP2016057308A (en) | 2016-04-21 |
JP6062020B2 true JP6062020B2 (en) | 2017-01-18 |
Family
ID=55758163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015225450A Active JP6062020B2 (en) | 2015-11-18 | 2015-11-18 | Designated point projection method, program and computer |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6062020B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005215917A (en) * | 2004-01-29 | 2005-08-11 | Hitachi Plant Eng & Constr Co Ltd | Working drawing creation support method and replacement model creation method |
EP3112802B1 (en) * | 2007-02-16 | 2019-10-09 | Mitsubishi Electric Corporation | Road feature measurement apparatus and road feature measuring method |
JP4232167B1 (en) * | 2007-08-27 | 2009-03-04 | 三菱電機株式会社 | Object identification device, object identification method, and object identification program |
JP4832596B2 (en) * | 2008-08-29 | 2011-12-07 | 三菱電機株式会社 | Overhead image generation device, overhead image generation method, and overhead image generation program |
JP4978615B2 (en) * | 2008-11-27 | 2012-07-18 | 三菱電機株式会社 | Target identification device |
JP5361421B2 (en) * | 2009-01-30 | 2013-12-04 | 三菱電機株式会社 | Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device |
-
2015
- 2015-11-18 JP JP2015225450A patent/JP6062020B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016057308A (en) | 2016-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5844454B2 (en) | Camera calibration method, camera calibration program, and camera calibration apparatus | |
EP3517997B1 (en) | Method and system for detecting obstacles by autonomous vehicles in real-time | |
JP5762131B2 (en) | CALIBRATION DEVICE, CALIBRATION DEVICE CALIBRATION METHOD, AND CALIBRATION PROGRAM | |
JP5361421B2 (en) | Measuring device, laser position / orientation value correction method and laser position / orientation value correction program for measuring device | |
JP5491235B2 (en) | Camera calibration device | |
JP4619962B2 (en) | Road marking measurement system, white line model measurement system, and white line model measurement device | |
JP6029794B1 (en) | Navigation equipment and surveying system | |
JP2016048172A (en) | Image processor, image processing method, and program | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
JP2016057108A (en) | Arithmetic device, arithmetic system, arithmetic method and program | |
JP6433200B2 (en) | Arithmetic apparatus, arithmetic method, and program | |
JP2015169583A (en) | Calibration method, calibration device and program | |
JPWO2008152740A1 (en) | Digital aerial 3D measurement system | |
JP2007322170A (en) | Method of aerial photographic survey | |
JP4986883B2 (en) | Orientation device, orientation method and orientation program | |
JPWO2020071117A1 (en) | Information processing device | |
JP5716273B2 (en) | Search target position specifying device, search target position specifying method and program | |
JP5814620B2 (en) | POSITION CORRECTION DATA GENERATION DEVICE, POSITION LOCATION DEVICE, POSITION CORRECTION DATA GENERATION DEVICE POSITION CORRECTION DATA GENERATION METHOD, POSITION POSITION DEVICE POSITION POSITIONING METHOD, POSITION CORRECTION DATA GENERATION PROGRAM, AND POSITION POSITION PROGRAM | |
JP6305501B2 (en) | Calibration method, program, and computer | |
JP5355443B2 (en) | Position correction system | |
JP2019045319A (en) | Corresponding point derivation method, and corresponding point calculation device | |
JP2003083745A (en) | Imaging apparatus mounted to aircraft, and aircraft imaging data processing apparatus | |
JP6062020B2 (en) | Designated point projection method, program and computer | |
US20190279384A1 (en) | Image processing apparatus, image processing method, and driving support system | |
JP6680335B2 (en) | Stereo camera, vehicle, calculation method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161027 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161115 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161213 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6062020 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |