JP2018032253A - Calibration device, calibration method, and calibration program - Google Patents

Calibration device, calibration method, and calibration program Download PDF

Info

Publication number
JP2018032253A
JP2018032253A JP2016164803A JP2016164803A JP2018032253A JP 2018032253 A JP2018032253 A JP 2018032253A JP 2016164803 A JP2016164803 A JP 2016164803A JP 2016164803 A JP2016164803 A JP 2016164803A JP 2018032253 A JP2018032253 A JP 2018032253A
Authority
JP
Japan
Prior art keywords
feature point
calibration
unit
vehicle
series
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016164803A
Other languages
Japanese (ja)
Inventor
学 川辺
Manabu Kawabe
学 川辺
盛彦 坂野
Morihiko Sakano
盛彦 坂野
信之 松山
Nobuyuki Matsuyama
信之 松山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016164803A priority Critical patent/JP2018032253A/en
Publication of JP2018032253A publication Critical patent/JP2018032253A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To carry out calibration using an appropriate feature point.SOLUTION: A calibration device includes: an image acquisition part for acquiring a photographic image acquired by photographing with a camera fixed to a vehicle; a feature point detection part for detecting a feature point from the photographic image; a feature point series generation tracking part for generating a feature point series by tacking the feature point by a time series; a height information calculation part for calculating height information of the generated feature point series; an advisability determination part for determining the advisability of the feature point series based on the height information; and a calibration part for calibrating an external parameter of the camera using the feature point determined to be advisable by the advisability determination part.SELECTED DRAWING: Figure 2

Description

本発明は、キャリブレーション装置、キャリブレーション方法、およびキャリブレーションプログラムに関する。   The present invention relates to a calibration device, a calibration method, and a calibration program.

近年、車載カメラを用いた自動駐車や自動運転などの車両制御が検討されている。カメラの撮影画像を用いて車両制御を行うためには、カメラの取り付け位置、取り付け角度などの外部パラメータを正確に求める必要があるが、物理的な取り付け精度は車両制御を行うには不十分である場合もある。特許文献1には、カメラから入力される画像に対して、検出された複数の特徴点を追跡し、その特徴点の時系列座標位置からカメラの外部パラメータを推定する手法が開示されている。   In recent years, vehicle control such as automatic parking and automatic driving using an in-vehicle camera has been studied. In order to control the vehicle using the captured image of the camera, it is necessary to accurately determine external parameters such as the camera mounting position and mounting angle, but the physical mounting accuracy is insufficient for vehicle control. There can be. Patent Document 1 discloses a method of tracking a plurality of detected feature points in an image input from a camera and estimating external parameters of the camera from the time-series coordinate positions of the feature points.

国際公開第2012/139636号International Publication No. 2012/139636

特許文献1には、外部パラメータのキャリブレーションに適した特徴点をどのように選別するかについては記載されていない。   Patent Document 1 does not describe how to select feature points suitable for external parameter calibration.

本発明の第1の態様によると、キャリブレーション装置は、車両に固定されたカメラが撮影して得られた撮影画像を取得する画像取得部と、前記撮影画像から特徴点を検出する特徴点検出部と、前記特徴点を時系列で追跡し特徴点系列を生成する特徴点系列生成追跡部と、前記生成された特徴点系列の高さ情報を算出する特徴点系列高さ算出部と、前記高さ情報に基づき前記特徴点系列の良否を判断する良否判定部と、前記良否判定部により肯定判断された特徴点系列を用いて前記カメラの外部パラメータを校正する校正部とを備える。
本発明の第2の態様によると、キャリブレーション方法は、車両に固定されたカメラのキャリブレーション方法であって、前記カメラが撮影して得られた撮影画像を取得し、前記撮影画像から特徴点を検出し、前記特徴点を時系列で追跡し特徴点系列を生成し、前記生成された特徴点系列の高さ情報を算出し、前記高さ情報に基づき前記特徴点系列の良否を判断し、前記良否の判断により肯定判断された特徴点系列を用いて前記カメラの外部パラメータを校正する。
本発明の第3の態様によると、キャリブレーションプログラムは、車両に固定されたカメラの外部パラメータをキャリブレーションするキャリブレーションプログラムであって、コンピュータに、前記カメラが撮影して得られた撮影画像を取得させ、前記撮影画像から特徴点を検出させ、前記特徴点を時系列で追跡し特徴点系列を生成させ、前記生成された特徴点系列の高さ情報を算出させ、前記高さ情報に基づき前記特徴点系列の良否を判断させ、前記良否の判断により肯定判断された特徴点系列を用いて前記カメラの外部パラメータを校正させる。
According to the first aspect of the present invention, the calibration device includes an image acquisition unit that acquires a captured image obtained by capturing with a camera fixed to a vehicle, and a feature point detection that detects a feature point from the captured image. A feature point sequence generation tracking unit that tracks the feature points in time series to generate a feature point sequence, a feature point sequence height calculation unit that calculates height information of the generated feature point sequence, A quality determination unit that determines the quality of the feature point series based on height information, and a calibration unit that calibrates the external parameters of the camera using the feature point series that has been affirmed by the quality determination unit.
According to the second aspect of the present invention, the calibration method is a calibration method for a camera fixed to a vehicle, wherein a captured image obtained by capturing with the camera is acquired, and a feature point is obtained from the captured image. Detecting the feature points in time series to generate a feature point series, calculating height information of the generated feature point series, and determining whether the feature point series is good or bad based on the height information. The external parameters of the camera are calibrated using the feature point series that has been affirmed in the determination of pass / fail.
According to the third aspect of the present invention, the calibration program is a calibration program for calibrating external parameters of a camera fixed to a vehicle, and a computer captures a captured image obtained by the camera. Obtaining a feature point from the captured image, tracking the feature point in time series, generating a feature point series, calculating height information of the generated feature point series, and based on the height information The quality of the feature point series is judged, and the external parameters of the camera are calibrated using the feature point series that has been affirmed by the judgment of quality.

本発明によれば、適切な特徴点を用いて外部パラメータのキャリブレーションを行うことができる。   According to the present invention, external parameters can be calibrated using appropriate feature points.

第1の実施の形態におけるキャリブレーション装置のハードウエア構成図Hardware configuration diagram of the calibration device according to the first embodiment 第1の実施の形態におけるキャリブレーション装置の機能ブロック図Functional block diagram of the calibration device according to the first embodiment 図3(a)は車両と特徴点の位置関係を示す図、図3(b)は図3(a)の平面図3A is a diagram showing the positional relationship between the vehicle and the feature points, and FIG. 3B is a plan view of FIG. キャリブレーション処理動作を表すフローチャートFlowchart showing calibration processing operation 第2の実施の形態におけるキャリブレーション装置のハードウエア構成を示す図The figure which shows the hardware constitutions of the calibration apparatus in 2nd Embodiment. 第2の実施の形態におけるキャリブレーション装置の機能ブロック図Functional block diagram of the calibration device according to the second embodiment プログラムの提供方法を示す図Diagram showing how to provide the program

(第1の実施の形態)
以下、図1〜図4を参照して、キャリブレーション装置の第1の実施の形態を説明する。
(First embodiment)
Hereinafter, a first embodiment of the calibration apparatus will be described with reference to FIGS.

(ハードウエア構成)
図1はキャリブレーション装置1のハードウエア構成を示す図である。キャリブレーション装置1は、車両2に搭載される。車両2は、キャリブレーション装置1と、カメラ3と、速度センサ5と、ジャイロセンサ6とを備える。キャリブレーション装置1と、カメラ3と、速度センサ5と、ジャイロセンサ6とは信号線により接続される。
(Hardware configuration)
FIG. 1 is a diagram illustrating a hardware configuration of the calibration apparatus 1. The calibration device 1 is mounted on the vehicle 2. The vehicle 2 includes a calibration device 1, a camera 3, a speed sensor 5, and a gyro sensor 6. The calibration device 1, the camera 3, the speed sensor 5, and the gyro sensor 6 are connected by a signal line.

キャリブレーション装置1は、CPU11と、ROM12と、RAM13と、フラッシュメモリ14とを備える。ROM12にはプログラム12Pと、カメラ3の内部パラメータとが格納される。CPU11は、ROM12に格納されるプログラム12PをRAM13に展開して実行することにより、後述する機能を実現する。フラッシュメモリ14はたとえば不揮発性の記憶部であり、パラメータ14Pが格納される。パラメータ14Pはキャリブレーション装置1により校正されたカメラ3の外部パラメータである。ただし初期状態では、外部パラメータの設計値、または出荷時のキャリブレーション結果がパラメータ14Pとして格納される。外部パラメータには、カメラ3の車両2に対する姿勢角の情報、およびカメラ3の車両2に対する取付け高さが含まれる。姿勢角とは、ヨー角、ロール角、およびピッチ角である。   The calibration device 1 includes a CPU 11, a ROM 12, a RAM 13, and a flash memory 14. The ROM 12 stores a program 12P and internal parameters of the camera 3. The CPU 11 realizes functions to be described later by expanding and executing the program 12P stored in the ROM 12 in the RAM 13. The flash memory 14 is a nonvolatile storage unit, for example, and stores a parameter 14P. The parameter 14 </ b> P is an external parameter of the camera 3 calibrated by the calibration device 1. However, in the initial state, the design value of the external parameter or the calibration result at the time of shipment is stored as the parameter 14P. The external parameters include information on the posture angle of the camera 3 with respect to the vehicle 2 and the mounting height of the camera 3 with respect to the vehicle 2. The posture angle is a yaw angle, a roll angle, and a pitch angle.

カメラ3は所定の撮影周期、たとえば33.3ms周期で車両2の周囲を撮影し、撮影して得られた画像(以下、撮影画像)をキャリブレーション装置1に出力する。カメラ3の内部パラメータ、すなわち撮像素子サイズや焦点距離などは既知でありキャリブレーション装置1のROM12に格納される。カメラ3は事前の設計に従って車両2の所定の位置に所定の姿勢で取り付けられるが、取り付けに誤差が生じることは避けられない。そのため設計値に基づくカメラ3の外部パラメータは既知であるが、車両2への取り付けの誤差を加味した外部パラメータは明らかでない。そこで後述するようにキャリブレーション装置1が、車両2への取り付けの誤差を加味した外部パラメータの算出、すなわち外部パラメータのキャリブレーションを行う。   The camera 3 captures the periphery of the vehicle 2 at a predetermined capturing period, for example, a 33.3 ms period, and outputs an image (hereinafter referred to as a captured image) obtained by capturing to the calibration device 1. The internal parameters of the camera 3, that is, the image sensor size and the focal length are known and stored in the ROM 12 of the calibration apparatus 1. The camera 3 is attached to a predetermined position of the vehicle 2 in a predetermined posture according to a prior design, but it is inevitable that an error occurs in the attachment. For this reason, the external parameters of the camera 3 based on the design values are known, but the external parameters taking into account the error of attachment to the vehicle 2 are not clear. Therefore, as will be described later, the calibration device 1 calculates an external parameter in consideration of an attachment error to the vehicle 2, that is, calibrates the external parameter.

速度センサ5は、たとえばロータリエンコーダを用いた車輪速センサであり、車両2の速度を測定しキャリブレーション装置1に出力する。ジャイロセンサ6は、少なくともヨー角の角速度を検出可能なたとえば振動型ジャイロスコープであり、検出した角速度をキャリブレーション装置1に出力する。   The speed sensor 5 is a wheel speed sensor using, for example, a rotary encoder, and measures the speed of the vehicle 2 and outputs it to the calibration device 1. The gyro sensor 6 is, for example, a vibration type gyroscope that can detect at least the angular velocity of the yaw angle, and outputs the detected angular velocity to the calibration device 1.

(機能ブロック)
図2は、キャリブレーション装置1のCPU11がROM12に格納されたプログラムを実行することにより実現される機能を機能ブロックとして表した図である。
キャリブレーション装置1は、その機能として、画像取得部102と、特徴点検出部103と、特徴点位置記憶制御部104と、特徴点追跡部105と、追跡完了判定部106と、特徴点系列作成部107と、座標変換部108と、外部パラメータ記憶制御部109と、特徴点系列高さ算出部110と、車速情報保持部112と、走行状態保持部113と、特徴点系列登録判定部114と、特徴点系列記憶部115と、校正タイミング作成部116と、校正実行部117と、校正結果保持部118と、出力部119とを備える。以下、それぞれの機能ブロックの動作を説明する。ただし特徴点系列高さ算出部110と校正実行部117の動作は後に詳述する。
(Function block)
FIG. 2 is a diagram illustrating functions realized by the CPU 11 of the calibration apparatus 1 executing a program stored in the ROM 12 as function blocks.
The calibration apparatus 1 functions as an image acquisition unit 102, a feature point detection unit 103, a feature point position storage control unit 104, a feature point tracking unit 105, a tracking completion determination unit 106, and a feature point series creation. Unit 107, coordinate conversion unit 108, external parameter storage control unit 109, feature point series height calculation unit 110, vehicle speed information holding unit 112, travel state holding unit 113, and feature point series registration determination unit 114 , A feature point series storage unit 115, a calibration timing creation unit 116, a calibration execution unit 117, a calibration result holding unit 118, and an output unit 119. Hereinafter, the operation of each functional block will be described. However, the operations of the feature point series height calculation unit 110 and the calibration execution unit 117 will be described in detail later.

画像取得部102は、カメラ3から出力される撮影画像を読み込み、特徴点検出部103に出力する。カメラ3は所定の時間間隔で連続して撮影するので、画像取得部102には時系列的に連続した撮影画像が入力される。
特徴点検出部103は、画像取得部102が読み込んだ撮影画像に対して画像処理を施して特徴点を抽出する。ここでいう特徴点とは、例えば路面に描かれた破線の角、支柱の角などのエッジの交点、すなわちコーナー特徴点である。コーナー特徴点は、たとえば公知の技術であるハリスオペレータを適用することにより抽出できる。特徴点検出部103により抽出された特徴点の情報は、特徴点位置記憶制御部104および特徴点追跡部105に送られる。
The image acquisition unit 102 reads a captured image output from the camera 3 and outputs it to the feature point detection unit 103. Since the camera 3 continuously captures images at a predetermined time interval, the image acquisition unit 102 receives captured images that are continuous in time series.
The feature point detection unit 103 performs image processing on the captured image read by the image acquisition unit 102 and extracts feature points. The feature points here are, for example, intersections of edges such as broken-line corners and pillar corners drawn on the road surface, that is, corner feature points. The corner feature point can be extracted by applying a Harris operator which is a known technique, for example. The feature point information extracted by the feature point detection unit 103 is sent to the feature point position storage control unit 104 and the feature point tracking unit 105.

特徴点位置記憶制御部104は、特徴点検出部103により抽出された特徴点の情報、たとえば撮影画像中の座標、および特徴点追跡部105が追跡した特徴点の追跡情報をRAM13に記憶する。特徴点の追跡情報とは、異なる撮影画像における同一の特徴点を示す情報、たとえば撮影画像ごとの特徴点の座標を表す情報である。特徴点位置記憶制御部104は、特徴点追跡部105および追跡完了判定部106にRAM13に保存した特徴点の情報を出力する。   The feature point position storage control unit 104 stores the feature point information extracted by the feature point detection unit 103, for example, the coordinates in the captured image, and the feature point tracking information tracked by the feature point tracking unit 105 in the RAM 13. The feature point tracking information is information indicating the same feature point in different captured images, for example, information indicating the coordinates of the feature point for each captured image. The feature point position storage control unit 104 outputs the feature point information stored in the RAM 13 to the feature point tracking unit 105 and the tracking completion determination unit 106.

特徴点追跡部105は、時系列的に連続する複数の撮影画像から同一の特徴点を追跡し特徴点の追跡情報を特徴点位置記憶制御部104に出力する。特徴点の追跡には、特徴点検出部103から入力される最新の撮影画像における特徴点の情報、特徴点位置記憶制御部104によりRAM13に格納された過去の撮影画像における特徴点の情報、および走行状態保持部113から入力される車両2の運動情報が用いられる。特徴点の追跡には、既知の追跡手法であるSAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)、LK(Lucas‐Kanade)法などを用いることができる。特徴点追跡部105が、特徴点検出部103から入力される最新の撮影画像における特徴点の全てについて追跡処理を行い、その次に追跡完了判定部106が動作を開始する。   The feature point tracking unit 105 tracks the same feature point from a plurality of captured images that are continuous in time series, and outputs feature point tracking information to the feature point position storage control unit 104. For tracking feature points, information on feature points in the latest photographed image input from the feature point detection unit 103, information on feature points in past photographed images stored in the RAM 13 by the feature point position storage control unit 104, and The motion information of the vehicle 2 input from the traveling state holding unit 113 is used. For tracking feature points, known tracking methods such as SAD (Sum of Absolute Difference), SSD (Sum of Squared Difference), and LK (Lucas-Kanade) can be used. The feature point tracking unit 105 performs tracking processing for all the feature points in the latest captured image input from the feature point detection unit 103, and then the tracking completion determination unit 106 starts operation.

追跡完了判定部106は、特徴点位置記憶制御部104を用いてRAM13に保存した特徴点の情報を読み込み、追跡が終了した特徴点の判定、すなわち最新の撮影画像では追跡ができなくなった特徴点を抽出する。ここで想定している特徴点が追跡できなくなる状況とは、たとえば路上に静止している物体から検出されるある特徴点が、車両2の走行が継続されたためにカメラ3の撮影範囲から外れて撮影画像に撮影されなくなる状況である。追跡完了判定部106により追跡が終了したと判定された一連の特徴点の情報、すなわち異なる撮影画像における同一の特徴点の座標は、特徴点系列作成部107に送られる。
特徴点系列作成部107は、追跡完了判定部106により追跡が終了したと判定された特徴点について、追跡された一連の特徴点をひとつの特徴点系列としてまとめ、座標変換部108に出力する。
The tracking completion determination unit 106 reads the feature point information stored in the RAM 13 using the feature point position storage control unit 104, determines the feature point that has been tracked, that is, the feature point that cannot be tracked with the latest photographed image. To extract. The situation in which the feature point assumed here cannot be tracked is, for example, that a certain feature point detected from an object stationary on the road deviates from the shooting range of the camera 3 because the vehicle 2 continued to travel. This is a situation where the captured image is no longer captured. Information of a series of feature points determined to have been tracked by the tracking completion determination unit 106, that is, the coordinates of the same feature point in different captured images is sent to the feature point sequence creation unit 107.
The feature point series creation unit 107 collects a series of tracked feature points as one feature point series for the feature points determined to be tracked by the tracking completion determination unit 106 and outputs the feature points to the coordinate conversion unit 108.

座標変換部108は、特徴点系列作成部107から出力されたひとつの特徴点系列を構成するそれぞれの特徴点の座標を、撮影画像における二次元座標からカメラ3を基準とした三次元座標、すなわち実空間上の座標に変換する。ただし特徴点はすべて路面上に存在すると仮定し、特徴点の高さはゼロであるとの拘束条件を付して座標変換を行う。この座標変換は回転行列を用いた演算により実現される。回転行列の要素は、カメラ3の内部パラメータ、および外部パラメータを用いて決定される。内部パラメータはROM12に格納されている値が使用され、外部パラメータはフラッシュメモリ14にパラメータ14Pとして格納されている値が使用される。座標変換部108により座標変換された、ひとつの特徴点系列を構成するそれぞれの特徴点の座標は、特徴点系列高さ算出部110に出力される。   The coordinate conversion unit 108 converts the coordinates of each feature point constituting one feature point series output from the feature point series creation unit 107 from the two-dimensional coordinates in the captured image to the three-dimensional coordinates based on the camera 3, that is, Convert to real space coordinates. However, it is assumed that all feature points are present on the road surface, and coordinate conversion is performed with a constraint that the height of the feature points is zero. This coordinate transformation is realized by calculation using a rotation matrix. The elements of the rotation matrix are determined using internal parameters and external parameters of the camera 3. The value stored in the ROM 12 is used as the internal parameter, and the value stored as the parameter 14P in the flash memory 14 is used as the external parameter. The coordinates of each feature point constituting one feature point series, which has been coordinate transformed by the coordinate transformation unit 108, are output to the feature point series height calculation unit 110.

外部パラメータ記憶制御部109は、フラッシュメモリ14へのパラメータ14Pの書き込み、およびフラッシュメモリ14からパラメータ14Pの読み込み、すなわち外部パラメータの読み書きを行う。外部パラメータ記憶制御部109は、座標軸変換のためにパラメータ14Pを座標変換部108へ提供する。外部パラメータ記憶制御部109は、校正実行部117にパラメータ14Pを校正の初期値として提供する。外部パラメータ記憶制御部109は、校正実行部117により校正された外部パラメータを、新たなパラメータ14Pとしてフラッシュメモリ14に格納、すなわち上書きする。   The external parameter storage control unit 109 writes the parameter 14P to the flash memory 14 and reads the parameter 14P from the flash memory 14, that is, reads / writes the external parameter. The external parameter storage control unit 109 provides the parameter 14P to the coordinate conversion unit 108 for coordinate axis conversion. The external parameter storage control unit 109 provides the calibration execution unit 117 with the parameter 14P as an initial value for calibration. The external parameter storage control unit 109 stores the external parameter calibrated by the calibration execution unit 117 in the flash memory 14 as a new parameter 14P, that is, overwrites it.

特徴点系列高さ算出部110は、座標変換部108により座標変換された特徴点系列の高さを、車速情報保持部112から得られる車両2の速度を用いて計算する。この計算は後述する式2を用いて説明する。座標変換部108により座標変換された特徴点系列の各特徴点の座標、および特徴点系列高さ算出部110により算出された特徴点系列の高さは、特徴点系列登録判定部114に出力される。特徴点系列高さ算出部110の処理は後に詳述する。
車速情報保持部112は、速度センサ5の出力を累積し、カメラ3の撮影周期ごとの車両2の平均速度を算出し特徴点系列高さ算出部110に出力する。
走行状態保持部113は、速度センサ5およびジャイロセンサ6の出力を累積し、車両2の移動情報、すなわち速度履歴および走行軌跡を特徴点追跡部105および特徴点系列登録判定部114に出力する。
The feature point series height calculation unit 110 calculates the height of the feature point series coordinate-converted by the coordinate conversion unit 108 using the speed of the vehicle 2 obtained from the vehicle speed information holding unit 112. This calculation will be described using Equation 2 described later. The coordinates of each feature point of the feature point series transformed by the coordinate transformation unit 108 and the height of the feature point series calculated by the feature point series height calculation unit 110 are output to the feature point series registration determination unit 114. The The processing of the feature point series height calculation unit 110 will be described in detail later.
The vehicle speed information holding unit 112 accumulates the output of the speed sensor 5, calculates the average speed of the vehicle 2 for each shooting period of the camera 3, and outputs the average speed to the feature point series height calculation unit 110.
The traveling state holding unit 113 accumulates the outputs of the speed sensor 5 and the gyro sensor 6, and outputs the movement information of the vehicle 2, that is, the speed history and the traveling locus to the feature point tracking unit 105 and the feature point series registration determining unit 114.

特徴点系列登録判定部114は、特徴点系列高さ算出部110から出力された高さの演算に用いられた特徴点系列が外部パラメータの校正に使用可能か否かを、走行状態保持部113の出力を用いて判断する。特徴点系列登録判定部114は、校正に使用可能と判断した特徴点系列を特徴点系列記憶部115に出力する。
特徴点系列登録判定部114は、2つの条件を満たした場合、入力された特徴点系列の特徴点の情報を使用可能と肯定判断する。第1の条件は特徴点系列の高さがおおよそゼロ、すなわち地面の高さと略一致することである。特徴点系列登録判定部114はたとえば、特徴点系列と地面の高さとの差が10cm以内の場合に第1の条件を満たすと判断する。第2の条件は特徴点系列作成部107で一つの特徴点系列としてまとめられた各特徴点が撮影された際に車両2が等速直線運動をしていたことである。車両2の速度が一定であったか否か、車両2が直進していたか否か、のいずれも走行状態保持部113の出力から判断可能である。
The feature point series registration determination unit 114 determines whether or not the feature point series used for calculating the height output from the feature point series height calculation unit 110 can be used for calibration of external parameters. Judgment using the output of. The feature point series registration determination unit 114 outputs the feature point series determined to be usable for calibration to the feature point series storage unit 115.
When the two conditions are satisfied, the feature point series registration determination unit 114 determines that the feature point information of the input feature point series can be used. The first condition is that the height of the feature point series is approximately zero, that is, substantially matches the height of the ground. For example, the feature point series registration determination unit 114 determines that the first condition is satisfied when the difference between the feature point series and the height of the ground is within 10 cm. The second condition is that the vehicle 2 was in a constant velocity linear motion when the feature points collected as one feature point sequence by the feature point sequence creation unit 107 were photographed. Whether the speed of the vehicle 2 is constant or whether the vehicle 2 is traveling straight can be determined from the output of the traveling state holding unit 113.

特徴点系列記憶部115は特徴点系列登録判定部114から出力された特徴点系列を構成する各特徴点の座標をRAM13に記憶する。ここで記憶される座標は、座標変換部108で座標変換される前の特徴点座標である。なお特徴点系列記憶部115は、記憶する特徴点系列の数をあらかじめ定めておき、新規特徴点系列が登録された場合に最も古い特徴点系列を破棄することで必要なメモリ領域を制限してもよい。また、記憶させてから一定時間以上経過した特徴点系列を破棄しても良い。
校正タイミング作成部116は校正を行うタイミングを決定し校正実行部117に出力する。校正タイミング作成部116は、前回の校正実行タイミングから一定時間経過したときに「次の校正を行う」と決定してもよいし、特徴点系列の新規登録が一定数に達したときに「次の校正を行う」と決定してもよい。またこの2つのいずれか一方の条件を満たしたときに、もしくはこの2つの両方の条件を満たしたときに「次の校正を行う」と決定してもよい。
The feature point series storage unit 115 stores the coordinates of each feature point constituting the feature point series output from the feature point series registration determination unit 114 in the RAM 13. The coordinates stored here are the feature point coordinates before coordinate conversion by the coordinate conversion unit 108. Note that the feature point series storage unit 115 determines the number of feature point series to be stored in advance, and restricts the necessary memory area by discarding the oldest feature point series when a new feature point series is registered. Also good. In addition, a feature point sequence that has been stored for a certain time after being stored may be discarded.
The calibration timing creation unit 116 determines the timing for performing calibration and outputs it to the calibration execution unit 117. The calibration timing creation unit 116 may determine that “next calibration is performed” when a predetermined time has elapsed from the previous calibration execution timing, or “next” when new registration of feature point series reaches a certain number. You may decide to “calibrate”. Further, when either one of the two conditions is satisfied, or when both of the two conditions are satisfied, it may be determined that “the next calibration is performed”.

校正実行部117は、校正タイミング作成部116が作成した校正タイミングに従って既知の手法により校正を実行し、実行結果を外部パラメータ記憶制御部109と校正結果保持部118とに出力する。校正実行部117の処理は後に詳述する。
校正結果保持部118は、校正結果を保持する。これは、校正結果の出力タイミングを校正実行タイミングと非同期で行うためのものである。
出力部119は、要求されたタイミングで校正結果を出力する。校正結果の出力先は、たとえばカメラ3の撮影画像を利用するプログラムでもよいし、車両2に備えられる記憶部でもよい。
The calibration execution unit 117 executes calibration by a known method according to the calibration timing created by the calibration timing creation unit 116, and outputs the execution result to the external parameter storage control unit 109 and the calibration result holding unit 118. The processing of the calibration execution unit 117 will be described in detail later.
The calibration result holding unit 118 holds the calibration result. This is for performing the output timing of the calibration result asynchronously with the calibration execution timing.
The output unit 119 outputs the calibration result at the requested timing. The output destination of the calibration result may be, for example, a program that uses a captured image of the camera 3 or a storage unit provided in the vehicle 2.

(特徴点系列高さ算出部の概念説明)
特徴点系列高さ算出部110では、撮影画像中の特徴点の移動速度を車両2の移動速度と比較することにより特徴点系列の高さを算出する。この手法は、座標変換部108において特徴点が高さゼロの路面上に存在すると仮定して座標変換したことと密接に関連している。具体的な処理の説明の前に、図3を用いてこの概念を説明する。
(Conceptual explanation of the feature point series height calculation unit)
The feature point series height calculation unit 110 calculates the height of the feature point series by comparing the moving speed of the feature points in the captured image with the moving speed of the vehicle 2. This method is closely related to the coordinate transformation performed by the coordinate transformation unit 108 on the assumption that the feature point exists on the road surface of zero height. Prior to the description of specific processing, this concept will be described with reference to FIG.

図3(a)は、路面Gを走行する車両2と、車両2に搭載されるカメラ3と、路面G上の特徴点rと、路面G上にない特徴点sと、仮想点tの物理的な位置関係を示す図である。カメラ3の路面Gからの高さはHc、特徴点sの路面Gからの高さはHfs、路面G上の特徴点rの路面Gからの高さはHfr、すなわちゼロである。車両2の前方、すなわち進行方向は図3(a)において図示奥側である。図3(a)の左右方向は、車両2の左右方向、すなわち車両2の幅方向であり、図3(a)の上下方向は天地方向に対応する。路面上の特徴点rは、たとえば路面Gに描画された破線から抽出された特徴点である。路面上にない特徴点sは、ガードレールの支柱Sの先端から抽出された特徴点である。仮想点tは、カメラ3と特徴点sとを結ぶ直線が路面Gと位置に存在する仮想的な点である。座標変換部108は、特徴点は全て高さゼロの路面上に存在すると仮定して座標変換を行うので、特徴点sには仮想点tの位置の三次元座標が付される。特徴点rは路面G上に存在するので、座標変換部108により正しい位置、すなわち特徴点rの位置の三次元座標が付される。   FIG. 3A shows a vehicle 2 traveling on the road surface G, a camera 3 mounted on the vehicle 2, a feature point r on the road surface G, a feature point s not on the road surface G, and the physicality of the virtual point t. It is a figure which shows typical positional relationship. The height of the camera 3 from the road surface G is Hc, the height of the feature point s from the road surface G is Hfs, and the height of the feature point r on the road surface G from the road surface G is Hfr, that is, zero. The front side of the vehicle 2, that is, the traveling direction is the rear side in the drawing in FIG. The left-right direction in FIG. 3A is the left-right direction of the vehicle 2, that is, the width direction of the vehicle 2, and the up-down direction in FIG. The feature point r on the road surface is a feature point extracted from a broken line drawn on the road surface G, for example. The feature point s not on the road surface is a feature point extracted from the tip of the guard rail column S. The virtual point t is a virtual point where a straight line connecting the camera 3 and the feature point s exists at the position with the road surface G. The coordinate conversion unit 108 performs coordinate conversion on the assumption that all feature points are present on a road surface having a height of zero, so that the feature point s is given the three-dimensional coordinates of the position of the virtual point t. Since the feature point r exists on the road surface G, the coordinate conversion unit 108 attaches the three-dimensional coordinates of the correct position, that is, the position of the feature point r.

図3(b)は、図3(a)の平面視点であり、図3(b)の左右方向は図3(a)と同様に車両2の左右方向であり、図3(b)の上下方向は車両2の前後方向である。ただし図3(b)では車両2を省略している。また図3(b)には、座標変換部108により算出された特徴点rと仮想点tの位置を示し、さらに説明のために特徴点sの位置も示す。図3(b)では、特徴点r、特徴点s、仮想点tをそれぞれ図3(a)と同じマーカーで示し、時系列順に数字が付されている。すなわち図3(b)は、当初は車両2の前方に特徴点rなどが位置していたが(r1〜r3)、車両2がしばらく前方に進むと特徴点rが車両2と並び(r4)、さらに車両2が進むと特徴点rは車両2の後方に位置した(r5〜r7)ことを示している。   3 (b) is a plan view of FIG. 3 (a), and the horizontal direction of FIG. 3 (b) is the horizontal direction of the vehicle 2 as in FIG. 3 (a), and the vertical direction of FIG. 3 (b). The direction is the front-rear direction of the vehicle 2. However, the vehicle 2 is omitted in FIG. FIG. 3B shows the positions of the feature point r and the virtual point t calculated by the coordinate conversion unit 108, and further shows the position of the feature point s for explanation. In FIG. 3B, the feature point r, the feature point s, and the virtual point t are indicated by the same markers as in FIG. That is, in FIG. 3B, the characteristic point r and the like are initially positioned in front of the vehicle 2 (r1 to r3), but when the vehicle 2 moves forward for a while, the characteristic point r is aligned with the vehicle 2 (r4). When the vehicle 2 further advances, the feature point r indicates that it is located behind the vehicle 2 (r5 to r7).

特徴点rは路面上に存在するので、座標変換部108により三次元座標、すなわちカメラ3と特徴点rの相対位置が正しく算出される。したがって、特徴点rの三次元座標から算出される速度、すなわち特徴点rとカメラ3の相対速度は、車両2の速度と等しい。その一方で、特徴点sは路面上に存在しないので、座標変換部108により路面上に存在すると仮定されて座標変換されると、特徴点sには仮想点tの座標が付される。図3(a)において説明したように、仮想点tの座標はカメラ3と特徴点sを結ぶ直線上に存在する。また、カメラ3と特徴点sの高さの関係は一定なので、図3(b)に示すように仮想点tの移動量は特徴点sよりも多くなる。したがって特徴点sは車両2よりも速く移動しているように算出される。   Since the feature point r exists on the road surface, the coordinate conversion unit 108 correctly calculates the three-dimensional coordinate, that is, the relative position of the camera 3 and the feature point r. Therefore, the speed calculated from the three-dimensional coordinates of the feature point r, that is, the relative speed between the feature point r and the camera 3 is equal to the speed of the vehicle 2. On the other hand, since the feature point s does not exist on the road surface, when the coordinate conversion unit 108 assumes that the feature point s exists on the road surface and performs coordinate conversion, the coordinate of the virtual point t is attached to the feature point s. As described in FIG. 3A, the coordinates of the virtual point t exist on a straight line connecting the camera 3 and the feature point s. Further, since the relationship between the height of the camera 3 and the feature point s is constant, the movement amount of the virtual point t is larger than that of the feature point s as shown in FIG. Therefore, the feature point s is calculated so as to move faster than the vehicle 2.

図3(b)においてLrは、特徴点rがr1〜r7における6回の撮影間隔に進んだ距離を示す。図3(b)においてLsは、仮想点tのt1〜t7が、特徴点sがs1〜s7における6回の撮影間隔に進んだ仮想的な距離を示す。図3(b)においてLrよりもLsの方が長いことからもわかるように、仮想点tは特徴点rよりも同一の時間で長い距離を移動したように算出される。以上の考えに基づき、特徴点系列高さ算出部110は、特徴点系列の高さを計算する。   In FIG. 3B, Lr indicates a distance at which the feature point r has advanced to six shooting intervals at r1 to r7. In FIG. 3B, Ls indicates a virtual distance in which t1 to t7 of the virtual point t has advanced to the six shooting intervals in which the feature point s is s1 to s7. As can be seen from the fact that Ls is longer than Lr in FIG. 3B, the virtual point t is calculated as if it moved a longer distance in the same time than the feature point r. Based on the above idea, the feature point series height calculation unit 110 calculates the height of the feature point series.

(特徴点系列高さ算出部)
特徴点系列高さ算出部110は、車速情報保持部112から得られる車両2の速度、および座標変換部108により座標変換された特徴点系列の座標を用いて特徴点系列の高さを計算する。特徴点系列高さ算出部110の処理は、特徴点の速度算出処理と、速度比較処理とからなる。
(Feature point series height calculator)
The feature point series height calculation unit 110 calculates the height of the feature point series using the speed of the vehicle 2 obtained from the vehicle speed information holding unit 112 and the coordinates of the feature point series coordinate-converted by the coordinate conversion unit 108. . The processing of the feature point series height calculation unit 110 includes feature point speed calculation processing and speed comparison processing.

第1の処理である特徴点の速度算出処理では、特徴点の移動距離を移動時間で除することにより、特徴点の速度が算出される。特徴点の移動距離は、座標変換部108が算出したカメラ3を基準とした特徴点の三次元座標から求められる。移動時間は、既知であるカメラ3の撮影周期と特徴点が追跡された撮影画像の枚数から求められる。ある特徴点が、最後に検出された撮影画像を除きN枚の撮影画像にわたって追跡され、三次元座標の差から特徴点の移動距離がLと算出され、カメラ3の撮影間隔が時間Tであった場合は、特徴点系列の速度Vfは以下の式1のように算出される。   In the feature point speed calculation process, which is the first process, the speed of the feature point is calculated by dividing the movement distance of the feature point by the movement time. The moving distance of the feature point is obtained from the three-dimensional coordinates of the feature point based on the camera 3 calculated by the coordinate conversion unit 108. The moving time is obtained from the known shooting period of the camera 3 and the number of shot images whose feature points are tracked. A certain feature point is tracked over N shot images except for the last detected shot image, the moving distance of the feature point is calculated as L from the difference in three-dimensional coordinates, and the shooting interval of the camera 3 is time T. In this case, the velocity Vf of the feature point series is calculated as in the following formula 1.

Vf=L/(T*N)・・・・・・・・式1
たとえば図3において、r1からr7の距離Lrが1m、撮影周期Tが33.3msの場合に、追跡枚数Nは6なので、特徴点系列rの速度Vfrは72km/hと算出される。同様にt1からt7の距離Lsが2mであれば特徴点系列sの速度Vfsは142km/hと算出される。
第2の処理である速度比較処理では、特徴点系列の高さHfは、カメラ3の取り付け高さHc、式1により算出された特徴点系列の速度Vf、車速情報保持部112から得られる車両2の車度Vcを用いて以下の式2のように算出される。なお、カメラ3の取り付け高さHcは、カメラ3の外部パラメータ、すなわちパラメータ14Pに含まれる。
Vf = L / (T * N)... Equation 1
For example, in FIG. 3, when the distance Lr from r1 to r7 is 1 m and the shooting period T is 33.3 ms, the number of tracked sheets N is 6, so the speed Vfr of the feature point series r is calculated as 72 km / h. Similarly, if the distance Ls from t1 to t7 is 2 m, the speed Vfs of the feature point series s is calculated as 142 km / h.
In the speed comparison process that is the second process, the height Hf of the feature point series is the attachment height Hc of the camera 3, the speed Vf of the feature point series calculated by Equation 1, and the vehicle obtained from the vehicle speed information holding unit 112. Using the vehicle degree Vc of 2, the following equation 2 is calculated. The mounting height Hc of the camera 3 is included in the external parameter of the camera 3, that is, the parameter 14P.

Hf=Hc*(1−Vc/Vf)・・・式2
たとえば図3において、カメラ3の取り付け高さHcが1m、車速Vcが72km/hの場合に、特徴点系列rの速度Vfrも72km/hであれば特徴点系列rの高さHfrは0mと算出され、特徴点系列sの速度Vfsが144km/hであれば特徴点系列の高さHfsは0.5mと算出される。
Hf = Hc * (1-Vc / Vf) Equation 2
For example, in FIG. 3, when the mounting height Hc of the camera 3 is 1 m and the vehicle speed Vc is 72 km / h, if the speed Vfr of the feature point series r is also 72 km / h, the height Hfr of the feature point series r is 0 m. If the velocity Vfs of the feature point series s is 144 km / h, the height Hfs of the feature point series is calculated as 0.5 m.

(校正実行部)
まず、校正実行部117は特徴点系列記憶部115から登録済みの特徴点系列の各特徴点の座標を読み出す。前述のとおり、この座標はカメラ3の撮影画像における座標である。次に、校正実行部117は外部パラメータ記憶制御部109からカメラ3の姿勢角情報を読み出す。以下では、外部パラメータ記憶制御部109から読みだした姿勢角情報を、姿勢角初期値と呼ぶ。校正実行部117は、姿勢角初期値を用いて、特徴点系列記憶部115から読み出した特徴点系列の各特徴点の座標を座標軸変換する。このときの座標軸変換処理は座標変換部108で行われるものと同じ処理である。
(Calibration execution part)
First, the calibration execution unit 117 reads the coordinates of each feature point of the registered feature point series from the feature point series storage unit 115. As described above, this coordinate is a coordinate in the captured image of the camera 3. Next, the calibration execution unit 117 reads out the posture angle information of the camera 3 from the external parameter storage control unit 109. Hereinafter, the posture angle information read from the external parameter storage control unit 109 is referred to as a posture angle initial value. The calibration execution unit 117 performs coordinate axis conversion of the coordinates of the feature points of the feature point series read from the feature point series storage unit 115 using the attitude angle initial value. The coordinate axis conversion process at this time is the same as that performed by the coordinate conversion unit 108.

座標軸変換処理が行われた特徴点系列の各特徴点の座標は、路面上の位置となる。座標軸変換処理に用いた姿勢角情報が正しい値であれば、全ての特徴点系列の各特徴点は一定間隔で車体の前方から後方へとまっすぐに移動する。また、このときの特徴点間隔は車両速度に対応した間隔となる。すなわち、車両2の移動方向をY軸方向、それと直交する軸をX軸方向とすると、X軸に対する座標は同一の値を取り、Y軸に対する値は等間隔になる。   The coordinates of the feature points of the feature point series that have undergone the coordinate axis conversion process are the positions on the road surface. If the posture angle information used for the coordinate axis conversion process is a correct value, each feature point of all feature point series moves straight from the front to the rear of the vehicle body at regular intervals. In addition, the feature point interval at this time is an interval corresponding to the vehicle speed. That is, assuming that the moving direction of the vehicle 2 is the Y-axis direction and the axis orthogonal thereto is the X-axis direction, the coordinates with respect to the X-axis take the same value, and the values with respect to the Y-axis are equally spaced.

外部パラメータ記憶制御部109から得られる姿勢角情報は、設計値、もしくは前回のキャリブレーションによって得られた情報のものであり、現在のカメラ3の姿勢角情報と合致しないことが考えられる。合致しない場合は、座標変換後の特徴点系列の各特徴点の座標はX座標が同一の値かつY座標値の間隔が一定の状態にはならない。校正実行部117は座標変換された特徴点系列の各特徴点を直線で結んで得られた特徴点系列の線分を直線近似し、この直線とY軸とのなす角度を算出し、これを評価誤差値とする。全ての特徴点系列の評価誤差値を加算することによって、該当する角度情報に対する評価値とする。   The posture angle information obtained from the external parameter storage control unit 109 is a design value or information obtained by the previous calibration, and may not match the current posture angle information of the camera 3. If they do not match, the coordinates of the feature points in the feature point series after coordinate conversion do not have the same X coordinate value and a constant Y coordinate value interval. The calibration execution unit 117 linearly approximates the line segment of the feature point series obtained by connecting the feature points of the coordinate point-converted feature point series with a straight line, calculates the angle formed by this straight line and the Y axis, Assume an evaluation error value. By adding the evaluation error values of all the feature point series, an evaluation value for the corresponding angle information is obtained.

校正実行部117は、カメラ3の姿勢角を姿勢角初期値から微小量変化させて再び座標変換を行い、その角度に対する評価値を求める。カメラ3は3次元配置であるため、角度はピッチ角、ロール角、ヨー角の3つが存在する。全ての角度に対して微小量の変化を与えて、評価誤差値の計算を行う。評価誤差が、角度の微小変化を与える前より減少している場合は、正しい方向に補正が行われているため、さらに同一方法に変化を与える。評価誤差が増える場合は、補正量が大きすぎ、あるいは逆方向への補正をかけているため、角度の微小変化量を減らす、あるいは逆方向への補正を加えて、評価誤差値を前回と同様に計算する。   The calibration execution unit 117 changes the posture angle of the camera 3 by a minute amount from the posture angle initial value and performs coordinate conversion again to obtain an evaluation value for the angle. Since the camera 3 has a three-dimensional arrangement, there are three angles, a pitch angle, a roll angle, and a yaw angle. An evaluation error value is calculated by giving a small amount of change to all angles. When the evaluation error is smaller than before giving a minute change in angle, since the correction is performed in the correct direction, the same method is further changed. If the evaluation error increases, the correction amount is too large or the correction is applied in the reverse direction, so the evaluation error value is the same as the previous time by reducing the slight change in angle or adding the correction in the reverse direction. To calculate.

このように全ての姿勢角度に微小量変化を加え続けることによって、評価誤差値が最小になる角度の組み合わせを求めることができる。これによって得られた角度の組み合わせを校正結果として校正結果保持部118および外部パラメータ記憶制御部109へ出力する。
外部パラメータを構成する他の要素である、カメラ3の取り付け高さ情報の校正も同じ手順で行うことができる。取り付け高さに誤差がある場合は、特徴点系列の移動速度が車両2の車速と一致しない。つまり、座標変換後の特徴点の移動距離と、車速から計算される移動距離の差を評価誤差値として、全ての特徴点系列の誤差の合計を該当する高さに対する評価誤差値とすることができる。外部パラメータ記憶制御部109から得られる取り付け高さ情報を初期値とし、姿勢角の校正と同様に微小量変化させながら評価誤差値が最小になる高さ求め、校正結果として校正結果保持部118および外部パラメータ記憶制御部109に出力する。
In this way, by continuously applying a minute amount change to all posture angles, a combination of angles that minimizes the evaluation error value can be obtained. The combination of angles obtained in this way is output as a calibration result to the calibration result holding unit 118 and the external parameter storage control unit 109.
Calibration of the mounting height information of the camera 3, which is another element constituting the external parameter, can be performed in the same procedure. When there is an error in the mounting height, the moving speed of the feature point series does not match the vehicle speed of the vehicle 2. In other words, the difference between the movement distance of the feature point after coordinate conversion and the movement distance calculated from the vehicle speed is used as an evaluation error value, and the sum of errors of all the feature point series can be set as an evaluation error value for the corresponding height. it can. The mounting height information obtained from the external parameter storage control unit 109 is used as an initial value, the height at which the evaluation error value is minimized while changing a minute amount in the same manner as the calibration of the attitude angle, and the calibration result holding unit 118 and the calibration result are obtained. Output to the external parameter storage control unit 109.

(フローチャート)
上述した各機能ブロックの動作をフローチャートを用いて説明する。
図4は、キャリブレーション装置1のキャリブレーション処理動作を表すフローチャートである。
ステップS201では、画像取得部102がカメラ3から撮影画像を読み込む。続くステップS202では、特徴点検出部103が撮影画像から特徴点を抽出する。ステップS203では、ステップS202において抽出された特徴点の1つを処理対象として、特徴点追跡部105が追跡処理を行う。続くステップS204では、追跡完了判定部106が特徴点の追跡が完了したか否かを判定し、完了したと判断する場合はステップS205に進み、完了していないと判断する場合はステップS211に進む。
(flowchart)
The operation of each functional block described above will be described using a flowchart.
FIG. 4 is a flowchart showing the calibration processing operation of the calibration apparatus 1.
In step S <b> 201, the image acquisition unit 102 reads a captured image from the camera 3. In subsequent step S202, the feature point detection unit 103 extracts feature points from the captured image. In step S203, the feature point tracking unit 105 performs tracking processing on one of the feature points extracted in step S202 as a processing target. In subsequent step S204, the tracking completion determination unit 106 determines whether or not the feature point tracking is completed. If it is determined that the feature point tracking is completed, the process proceeds to step S205. If it is determined that the feature point tracking is not completed, the process proceeds to step S211. .

ステップS205では、特徴点系列作成部107が、追跡が終了した特徴点を特徴点系列としてまとめる。続くステップS206では、座標変換部108が特徴点系列を構成するそれぞれの特徴点について、高さゼロの路面上に存在すると仮定して三次元座標に変換する。続くステップS207では、特徴点系列高さ算出部110が上述した式1と式2とを用いて特徴点系列の高さを算出する。続くステップS208では、特徴点系列登録判定部114が特徴点系列の高さがおおよそゼロであるか否かを判断し、おおよそゼロであると判断する場合はステップS209に進み、おおよそゼロではないと判断する場合はステップS210に進む。   In step S205, the feature point series creation unit 107 collects the feature points that have been tracked as a feature point series. In subsequent step S206, the coordinate conversion unit 108 converts each feature point constituting the feature point series into three-dimensional coordinates on the assumption that the feature point exists on a road surface having a height of zero. In subsequent step S207, the feature point series height calculation unit 110 calculates the height of the feature point series using the above-described Expression 1 and Expression 2. In subsequent step S208, the feature point series registration determining unit 114 determines whether or not the height of the feature point series is approximately zero. If it is determined that the feature point series is approximately zero, the process proceeds to step S209, and is not approximately zero. If so, the process proceeds to step S210.

ステップS209では、特徴点系列記憶部115が特徴点系列を構成する各特徴点の座標をRAMに保存してステップS211に進む。ステップS210では、特徴点系列記憶部115が特徴点系列の各特徴点の座標を破棄してステップS211に進む。
ステップS211では、CPU11がステップS202において抽出された特徴点の全てについて処理が完了したか否かを判断し、全ての特徴点について処理が完了したと判断する場合はステップS212に進み、未処理の特徴点があると判断する場合は未処理の特徴点のいずれかを処理対象としてステップS203に戻る。
In step S209, the feature point series storage unit 115 stores the coordinates of each feature point constituting the feature point series in the RAM, and the process proceeds to step S211. In step S210, the feature point series storage unit 115 discards the coordinates of each feature point in the feature point series and proceeds to step S211.
In step S211, the CPU 11 determines whether or not the processing has been completed for all the feature points extracted in step S202. If it is determined that the processing has been completed for all the feature points, the process proceeds to step S212, and the unprocessed processing is performed. If it is determined that there is a feature point, one of the unprocessed feature points is set as a processing target, and the process returns to step S203.

ステップS212では、校正実行部117が校正タイミング作成部116が作成した校正タイミングであるか否かを判断する。校正実行部117が校正タイミングではないと判断すると、ステップS201に戻る。校正実行部117が校正タイミングであると判断すると、ステップS213において校正を実行し、ステップS214において出力部119が校正結果を出力して図4のフローチャートを終了する。   In step S212, the calibration execution unit 117 determines whether or not it is the calibration timing created by the calibration timing creation unit 116. If the calibration execution unit 117 determines that it is not the calibration timing, the process returns to step S201. If the calibration execution unit 117 determines that it is the calibration timing, calibration is executed in step S213, the output unit 119 outputs the calibration result in step S214, and the flowchart of FIG.

上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)キャリブレーション装置1は、車両2に固定されたカメラ3が撮影して得られた撮影画像を取得する画像取得部102と、撮影画像から特徴点を検出する特徴点検出部103と、特徴点を時系列で追跡し特徴点系列を生成する特徴点追跡部105、追跡完了判定部106、および特徴点系列作成部107と、特徴点系列の高さ情報を算出する特徴点系列高さ算出部110と、高さ情報に基づき特徴点系列の良否を判断する良否判定部、すなわち特徴点系列登録判定部114と、良否判定部により肯定判断された特徴点系列を用いてカメラ3の外部パラメータを校正する校正実行部117とを備える。
キャリブレーション装置1は、抽出した特徴点系列の高さを算出し、高さに基づきそれぞれの特徴点系列がキャリブレーションに適するか否かを判断し、肯定判断された特徴点系列を用いてカメラ3の外部パラメータを構成する。そのためキャリブレーション装置1は、適切な特徴点を用いてキャリブレーションを行うことができる。
According to the first embodiment described above, the following operational effects are obtained.
(1) The calibration device 1 includes an image acquisition unit 102 that acquires a captured image obtained by the camera 3 fixed to the vehicle 2, a feature point detection unit 103 that detects a feature point from the captured image, A feature point tracking unit 105 that tracks feature points in time series and generates a feature point sequence, a tracking completion determination unit 106, and a feature point sequence creation unit 107, and a feature point sequence height that calculates height information of the feature point sequence The calculation unit 110 and the quality determination unit that determines the quality of the feature point series based on the height information, that is, the feature point series registration determination unit 114, and the feature point series that is affirmed by the quality determination unit are external to the camera 3. A calibration execution unit 117 for calibrating the parameters.
The calibration apparatus 1 calculates the height of the extracted feature point series, determines whether or not each feature point series is suitable for calibration based on the height, and uses the feature point series that has been affirmed. 3 external parameters are configured. Therefore, the calibration apparatus 1 can perform calibration using appropriate feature points.

(2)キャリブレーション装置1の校正実行部117が校正する外部パラメータは、カメラ3の車両2への取り付け角度であるヨー角、ロール角、ピッチ角、およびカメラ3の取付け高さの少なくとも1つである。そのためキャリブレーション装置1は、ヨー角、ロール角、ピッチ角、およびカメラ3の取付け高さの少なくとも1つを校正できる。 (2) The external parameter calibrated by the calibration execution unit 117 of the calibration apparatus 1 is at least one of the yaw angle, the roll angle, the pitch angle, and the mounting height of the camera 3 that are the mounting angles of the camera 3 to the vehicle 2. It is. Therefore, the calibration apparatus 1 can calibrate at least one of the yaw angle, the roll angle, the pitch angle, and the mounting height of the camera 3.

(3)良否判定部、すなわち特徴点系列登録判定部114は、特徴点系列の高さと車両2が走行する路面の高さとの差があらかじめ定めた値よりも大きい場合に否定判断する。そのため、校正実行部117は路面よりも高い位置に存在する特徴点、たとえばガードレースの支柱の頂部から抽出された特徴点を排除して校正を実行することができる。すなわちキャリブレーション装置1は、適切な特徴点を用いてキャリブレーションを行うことができる。 (3) The pass / fail determination unit, that is, the feature point series registration determination unit 114 makes a negative determination when the difference between the height of the feature point series and the height of the road surface on which the vehicle 2 travels is greater than a predetermined value. Therefore, the calibration execution unit 117 can execute the calibration by excluding the feature points present at a position higher than the road surface, for example, the feature points extracted from the top of the guard race support column. That is, the calibration apparatus 1 can perform calibration using appropriate feature points.

(4)キャリブレーション装置1は、検出された特徴点が車両2が走行する路面の高さに存在すると仮定して特徴点のカメラ3との相対位置を実空間上の座標として算出する座標変換部108を備える。特徴点系列高さ算出部110は、特徴点系列を構成する特徴点の相対位置に基づき特徴点系列の速度を算出し、車両2の速度と特徴点系列の速度とに基づき特徴点系列の高さを推定する。
特徴点系列高さ算出部110は、前述の式1に示したように、撮影画像の撮影間隔時間と、それぞれの撮影画像における特徴点の車両2との相対位置に基づき特徴点系列の速度を算出する。そして特徴点系列高さ算出部110は、前述の式2に示したように、特徴点系列の速度と車両2の速度に基づき特徴点系列の高さを算出する。式1と式2はそれぞれ4則演算を2回と3回実行するだけなので、特徴点系列高さ算出部110は処理を容易に実行できる。また座標変換部108は、撮影画像上の座標から三次元座標への座標変換を行うが、特徴点の三次元座標は路面の高さと同じくゼロと仮定する、すなわち拘束条件が追加されているので座標変換が容易である。
(4) The coordinate conversion for calculating the relative position of the feature point with respect to the camera 3 as a coordinate in the real space on the assumption that the detected feature point exists at the height of the road surface on which the vehicle 2 travels. The unit 108 is provided. The feature point series height calculation unit 110 calculates the speed of the feature point series based on the relative positions of the feature points constituting the feature point series, and the height of the feature point series based on the speed of the vehicle 2 and the speed of the feature point series. Estimate.
The feature point series height calculation unit 110 calculates the speed of the feature point series based on the shooting interval time of the shot image and the relative position of the feature point in each shot image with the vehicle 2 as shown in Equation 1 above. calculate. Then, the feature point series height calculation unit 110 calculates the height of the feature point series based on the speed of the feature point series and the speed of the vehicle 2 as shown in Equation 2 above. Since the formulas 1 and 2 only execute the four rule operations twice and three times, the feature point series height calculation unit 110 can easily execute the process. The coordinate conversion unit 108 performs coordinate conversion from the coordinates on the captured image to the three-dimensional coordinates, but the three-dimensional coordinates of the feature points are assumed to be zero as with the road surface, that is, a constraint condition is added. Coordinate conversion is easy.

(5)良否判定部114には、車両2の走行状態を示す情報が入力される。良否判定部114は、車両2が等速度で直進走行していないと判断する場合に否定判断をする。そのため、校正に適した条件で撮影された撮影画像から抽出された特徴点のみを用いて校正するので、校正の信頼性をより向上させることができる。 (5) Information indicating the traveling state of the vehicle 2 is input to the quality determination unit 114. The pass / fail determination unit 114 makes a negative determination when determining that the vehicle 2 is not traveling straight at a constant speed. Therefore, the calibration is performed using only the feature points extracted from the photographed image photographed under conditions suitable for the calibration, so that the reliability of the calibration can be further improved.

(変形例)
上述した第1の実施の形態を以下のように変形してもよい。
(1)校正実行部117は、カメラ3のヨー角、ロール角、ピッチ角、および取付け高さの全てを校正した。しかし校正実行部117は、カメラ3の外部パラメータのうち、少なくとも1つを校正すればよい。
(2)特徴点系列登録判定部114は、特徴点系列の高さに関する条件と車両2の運動に関する条件の両方が満たされた場合に肯定判断をした。しかし特徴点系列登録判定部114は、車両2の運動に関する条件に関わらず、特徴点系列が高さに関する条件を満たす場合に肯定判断をしてもよい。この場合は、車両2が等速直線運動を行ったか否かを判断する必要がないので、キャリブレーション装置1は走行状態保持部113を備えなくてもよい。
(Modification)
The first embodiment described above may be modified as follows.
(1) The calibration execution unit 117 calibrated all of the yaw angle, roll angle, pitch angle, and mounting height of the camera 3. However, the calibration execution unit 117 may calibrate at least one of the external parameters of the camera 3.
(2) The feature point series registration determination unit 114 makes an affirmative determination when both the condition regarding the height of the feature point series and the condition regarding the motion of the vehicle 2 are satisfied. However, the feature point series registration determination unit 114 may make an affirmative determination when the feature point series satisfies the condition regarding the height regardless of the condition regarding the motion of the vehicle 2. In this case, since it is not necessary to determine whether or not the vehicle 2 has performed a constant velocity linear motion, the calibration device 1 may not include the traveling state holding unit 113.

(3)走行状態保持部113は、ジャイロセンサ6の出力を用いる代わりに、ステアリングホイールの角度を検出して車両2が直進走行をしているか否かを判断してもよい。
(4)フラッシュメモリ14は揮発性メモリであってもよい。この場合は、ROM12に外部パラメータの設計値、または出荷時に校正された外部パラメータの値が格納される。そして、キャリブレーション装置1の起動時にROM12からフラッシュメモリ14に、外部パラメータの設計値がパラメータ14Pとして読み込まれる。
(3) Instead of using the output of the gyro sensor 6, the traveling state holding unit 113 may determine whether the vehicle 2 is traveling straight by detecting the angle of the steering wheel.
(4) The flash memory 14 may be a volatile memory. In this case, the design value of the external parameter or the value of the external parameter calibrated at the time of shipment is stored in the ROM 12. Then, when the calibration apparatus 1 is activated, the design value of the external parameter is read from the ROM 12 to the flash memory 14 as the parameter 14P.

(5)カメラ3の撮影は周期的でなくてもよい。この場合は、画像取得部102は撮影画像の撮影時刻、または直前の撮影画像が入力された時刻との差を示す情報を撮影画像に付加する。これにより、カメラ3の撮影が周期的でない場合でも特徴点系列高さ算出部110が特徴点の移動速度を算出可能となる。
(6)車両2はカメラ3を複数備え、キャリブレーション装置1は複数のカメラ3のそれぞれについて外部パラメータを校正してもよい。カメラ3の撮影方向によらず、その校正手法は第1の実施の形態で説明したとおりである。ただし車両2の側方を撮影する場合は、車両2の前方や後方を撮影する場合に比べて路面よりも高い位置に存在する物体を撮影する機会が多いため、キャリブレーションに用いる特徴点の選別が特に有効である。
(5) The shooting by the camera 3 may not be periodic. In this case, the image acquisition unit 102 adds information indicating the difference between the shooting time of the captured image or the time when the immediately preceding captured image is input to the captured image. As a result, the feature point series height calculation unit 110 can calculate the moving speed of the feature points even when the camera 3 is not periodically photographed.
(6) The vehicle 2 may include a plurality of cameras 3, and the calibration apparatus 1 may calibrate external parameters for each of the plurality of cameras 3. Regardless of the shooting direction of the camera 3, the calibration method is as described in the first embodiment. However, when photographing the side of the vehicle 2, since there are many opportunities to photograph an object present at a position higher than the road surface compared to photographing the front and rear of the vehicle 2, selection of feature points used for calibration is performed. Is particularly effective.

(7)特徴点系列高さ計算部110は、式2に基づき特徴点系列高さHfを具体的に算出した。しかし式2においてカメラ3の取り付け高さHcとの積を算出せず、カメラ3の取り付け高さHcとの高さの比率を表す値であるR_Hfを算出してもよい。R_Hfは次の式3により算出される。R_Hfは、特徴点系列の高さに関する情報である。
R_Hf=1−Vc/Vf・・・・・式3
この場合は、特徴点系列登録判定部114は第1の条件の判断は、上述した値であるR_Hfが所定の範囲、たとえば0.9以上1.1未満であるか否かを判断する。
(7) The feature point series height calculation unit 110 specifically calculated the feature point series height Hf based on Equation 2. However, R_Hf, which is a value representing the ratio of the height to the mounting height Hc of the camera 3, may be calculated without calculating the product of the mounting height Hc of the camera 3 in Equation 2. R_Hf is calculated by the following equation 3. R_Hf is information regarding the height of the feature point series.
R_Hf = 1−Vc / Vf Equation 3
In this case, the feature point series registration determination unit 114 determines whether the above-described value R_Hf is within a predetermined range, for example, 0.9 or more and less than 1.1.

(8)特徴点系列高さ計算部110は、(Vc/Vf)を出力してもよいし、Vfを出力してもよい。これらの場合は、特徴点系列登録判定部114は、車速Vcと特徴点系列の速度Vfとの比率が所定の範囲、たとえば0.9以上1.1未満であるか否かを判断する。これは、特徴点系列登録判定部114における、特徴点系列の高さに関する判断が、車速Vcと特徴点系列の速度Vfとが一致するか否かの判断に近似されるとの考えに基づくものである。すなわち、(Vc/Vf)およびVfは、特徴点系列の高さに関する情報である。 (8) The feature point series height calculation unit 110 may output (Vc / Vf) or Vf. In these cases, the feature point series registration determination unit 114 determines whether the ratio between the vehicle speed Vc and the feature point series speed Vf is within a predetermined range, for example, 0.9 or more and less than 1.1. This is based on the idea that the judgment regarding the height of the feature point series in the feature point series registration determination unit 114 is approximated to the judgment as to whether or not the vehicle speed Vc and the speed Vf of the feature point series match. It is. That is, (Vc / Vf) and Vf are information regarding the height of the feature point series.

(9)車両2はカメラ3の撮影画像に基づき制御される自動運転車両であってもよい。この場合、車両2は、ブレーキを動作させる制動部、エンジン回転数を制御するエンジン制御部、およびステアリングホイールを動作させる操舵部が自動運転プログラムの動作指令に基づき動作する。自動運転プログラムはたとえば、カメラ3の撮影画像から接近する移動体を検出して車両2との衝突を避ける回避動作や、カメラ3の撮影画像から駐車枠を検出して自動駐車動作を行う。 (9) The vehicle 2 may be an automatic driving vehicle that is controlled based on a captured image of the camera 3. In this case, in the vehicle 2, the braking unit that operates the brake, the engine control unit that controls the engine speed, and the steering unit that operates the steering wheel operate based on the operation command of the automatic driving program. The automatic driving program performs, for example, an avoiding operation for avoiding a collision with the vehicle 2 by detecting a moving body approaching from the captured image of the camera 3, or an automatic parking operation by detecting a parking frame from the captured image of the camera 3.

(10)キャリブレーション装置1における処理の一部または全部がキャリブレーション装置1と接続されたサーバで実行されてもよい。たとえばキャリブレーション装置1は、カメラ3、車速センサ5、ジャイロセンサ6から入力された情報をサーバに送信し、サーバが第1の実施の形態においてキャリブレーション装置1が行った全ての処理を行ってもよい。また、キャリブレーション装置1はカメラ3の撮影画像をサーバに送信する代わりに、キャリブレーション装置1が画像の取得と特徴点の検出を行い、検出した特徴点の座標をサーバに送信してもよい。 (10) A part or all of the processing in the calibration apparatus 1 may be executed by a server connected to the calibration apparatus 1. For example, the calibration apparatus 1 transmits information input from the camera 3, the vehicle speed sensor 5, and the gyro sensor 6 to the server, and the server performs all the processes performed by the calibration apparatus 1 in the first embodiment. Also good. Further, instead of transmitting the captured image of the camera 3 to the server, the calibration apparatus 1 may acquire an image and detect a feature point, and transmit the coordinates of the detected feature point to the server. .

(第2の実施の形態)
図5〜図6を参照して、キャリブレーション装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、地図情報を用いて特徴点が車道の内側のものであるか否かを判断するもので、第1の実施の形態と異なる。
(Second Embodiment)
A second embodiment of the calibration apparatus will be described with reference to FIGS. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment. In the present embodiment, it is mainly determined by using map information whether or not the feature point is inside the roadway, and is different from the first embodiment.

(ハードウエア構成)
図5はキャリブレーション装置1Aのハードウエア構成を示す図である。キャリブレーション装置1Aは、車両2Aに搭載される。車両2Aは、キャリブレーション装置1Aと、カメラ3と、GPS受信機4と、速度センサ5と、ジャイロセンサ6と、地図データベース7とを備える。
カメラ3、速度センサ5、およびジャイロセンサ6は第1の実施の形態と同様なので説明を省略する。
GPS受信機4は、複数の衛星から信号を受信し、受信した信号を用いた演算によりGPS受信機4の位置を算出する。
(Hardware configuration)
FIG. 5 is a diagram showing a hardware configuration of the calibration apparatus 1A. The calibration device 1A is mounted on the vehicle 2A. The vehicle 2A includes a calibration device 1A, a camera 3, a GPS receiver 4, a speed sensor 5, a gyro sensor 6, and a map database 7.
Since the camera 3, the speed sensor 5, and the gyro sensor 6 are the same as those in the first embodiment, description thereof is omitted.
The GPS receiver 4 receives signals from a plurality of satellites, and calculates the position of the GPS receiver 4 by calculation using the received signals.

地図データベース7は、少なくとも道路の位置と形状とを含む地図情報が格納されるデータベースである。地図データベース7は、たとえば道路が交差点などを示すノードと、ノード同士を接続するリンクにより構成される。ノードは緯度と経度の情報を含む。リンクは、その端点となる2つのノードにより特定され、道路に関する情報、すなわち道路の幅や道路の形状の情報を含む。道路の幅には、車道の幅と歩道の幅とが含まれる。道路の形状には、ノードを構成する複数の点の緯度・経度、およびノードの曲率半径の少なくとも一方を含む。   The map database 7 is a database in which map information including at least the position and shape of the road is stored. The map database 7 is composed of, for example, nodes that indicate intersections of roads and links that connect the nodes. The node contains latitude and longitude information. A link is specified by two nodes serving as end points thereof, and includes information on a road, that is, information on a road width and a road shape. The width of the road includes the width of the roadway and the width of the sidewalk. The shape of the road includes at least one of the latitude and longitude of a plurality of points constituting the node and the radius of curvature of the node.

キャリブレーション装置1Aは、CPU11と、ROM12Aと、RAM13と、フラッシュメモリ14とを備える。CPU11、RAM13、およびフラッシュメモリ14の構成は第1の実施の形態と同様なので説明を省略する。ROM12Aにはプログラム12APと、カメラ3の内部パラメータとが格納される。   The calibration device 1 </ b> A includes a CPU 11, a ROM 12 </ b> A, a RAM 13, and a flash memory 14. Since the configurations of the CPU 11, RAM 13, and flash memory 14 are the same as those in the first embodiment, description thereof is omitted. The ROM 12A stores a program 12AP and internal parameters of the camera 3.

(機能ブロック)
図6は、キャリブレーション装置1のCPU11がROM12Aに格納されたプログラム12APを実行することにより実現される機能を機能ブロックとして表した図である。以下では主に図2との相違点を説明する。
キャリブレーション装置1Aが機能として備える機能ブロックは、第1の実施の形態におけるキャリブレーション装置1が機能として備える機能ブロックと概ね同様である。両者の相違点は、キャリブレーション装置1Aは走行状態保持部113に代えて走行状態保持部113Aを備える点と、特徴点系列登録判定部114に代えて特徴点系列登録判定部114Aを備える点である。
(Function block)
FIG. 6 is a diagram illustrating functions realized by the CPU 11 of the calibration apparatus 1 executing the program 12AP stored in the ROM 12A as function blocks. In the following, differences from FIG. 2 will be mainly described.
The functional blocks provided as functions by the calibration apparatus 1A are substantially the same as the functional blocks provided as functions by the calibration apparatus 1 according to the first embodiment. The difference between the two is that the calibration device 1A includes a traveling state holding unit 113A instead of the traveling state holding unit 113, and a feature point series registration determining unit 114A instead of the feature point series registration determining unit 114. is there.

走行状態保持部113Aには、速度センサ5およびジャイロセンサ6に加えて、GPS受信機4および地図データベース7と接続される。走行状態保持部113Aは、GPS受信機4が出力する車両2の現在位置と、地図データベース7が出力する地図情報に基づき、車両2が現在走行している道路を特定し、その道路に関する情報を特徴点系列登録判定部114Aに出力する。また走行状態保持部113Aは、車両2の現在位置も特徴点系列登録判定部114Aに出力する。なお走行状態保持部113Aは、GPS受信機4から位置情報が取得できない場合は、直前に取得した位置情報と、速度センサ5の出力およびジャイロセンサ6の出力を用いて現在位置を算出する。   In addition to the speed sensor 5 and the gyro sensor 6, the traveling state holding unit 113 </ b> A is connected to the GPS receiver 4 and the map database 7. The traveling state holding unit 113A identifies the road on which the vehicle 2 is currently traveling based on the current position of the vehicle 2 output from the GPS receiver 4 and the map information output from the map database 7, and stores information on the road. Output to the feature point series registration determination unit 114A. The traveling state holding unit 113A also outputs the current position of the vehicle 2 to the feature point series registration determining unit 114A. When the position information cannot be acquired from the GPS receiver 4, the traveling state holding unit 113 </ b> A calculates the current position using the position information acquired immediately before, the output of the speed sensor 5 and the output of the gyro sensor 6.

特徴点系列登録判定部114Aは、2つの条件を満たした場合に肯定判断する。第1の条件は第1の実施の形態と同様に、特徴点系列の高さがおおよそゼロ、すなわち地面の高さと略一致することである。第2の条件は、地図情報を参照して特徴点が車道の内側の領域に存在すると判断できることである。車道の内側の領域とは、車両の通行の用に供するため縁石線若しくは柵その他これに類する工作物又は道路標示によつて区画された車道の内側の領域であり、換言すると道路における歩道を除く領域である。すなわち車道の内側には、車両2とは逆向きに走行する車両の走行車線も含まれる。特徴点系列登録判定部114Aは、走行状態保持部113Aから入力される道路の情報、および車両2の現在位置、ならびに座標変換部108が算出した特徴点の位置を用いて、特徴点が道路の内側に存在するか否かを判断する。   The feature point series registration determination unit 114A makes an affirmative determination when two conditions are satisfied. As in the first embodiment, the first condition is that the height of the feature point series is approximately zero, that is, substantially matches the height of the ground. The second condition is that it can be determined that the feature point exists in the area inside the roadway with reference to the map information. The area inside the carriageway is the area inside the carriageway that is demarcated by curb lines or fences or other similar structures or road markings for use in vehicle traffic, in other words, excluding sidewalks on the road It is an area. That is, the traveling lane of the vehicle that travels in the opposite direction to the vehicle 2 is also included inside the roadway. The feature point series registration determination unit 114A uses the road information input from the traveling state holding unit 113A, the current position of the vehicle 2, and the position of the feature point calculated by the coordinate conversion unit 108 to determine whether the feature point is a road. It is determined whether or not it exists inside.

上述した第2の実施の形態によれば、次の作用効果が得られる。
(1)特徴点系列登録判定部114Aには、車両2の位置、および少なくとも車道の位置と形状とを含む地図情報が入力される。特徴点系列登録判定部114Aは、車両2の位置、地図情報、および特徴点と車両2の相対位置に基づき、特徴点系列が車道の外側に存在すると判断する場合に否定判断をする。そのため、歩道や道路外などの車道の外側に存在する特徴点を棄却することができる。
According to the second embodiment described above, the following operational effects can be obtained.
(1) Map information including the position of the vehicle 2 and at least the position and shape of the roadway is input to the feature point series registration determination unit 114A. The feature point series registration determination unit 114A makes a negative determination when determining that the feature point series exists outside the roadway based on the position of the vehicle 2, the map information, and the relative positions of the feature points and the vehicle 2. Therefore, it is possible to reject the feature points existing outside the roadway such as a sidewalk or outside the road.

(第2の実施の形態の変形例)
特徴点系列登録判定部114Aは、第2の条件を車道が直線であることとしてもよい。特徴点系列登録判定部114Aは、走行状態保持部113Aから入力される道路の情報、および車両2の現在位置に基づき車両2が通行している道路を特定する。そして特徴点系列登録判定部114Aは、道路の情報に基づき車両2が走行している走行車線が直線であるか否かを判断する。ただし、複数の走行車線は平行であることが一般的なので走行車線が直線であるか否かは、車道が直線であるか否かで判断してもよい。さらに、車道に歩道を加えた道路は車道が直線であれば道路も直線であることが一般的なので、走行車線が直線であるか否かは、道路が直線であるか否かで判断してもよい。
(Modification of the second embodiment)
The feature point series registration determining unit 114A may set the second condition that the roadway is a straight line. The feature point series registration determination unit 114 </ b> A identifies the road on which the vehicle 2 is traveling based on the road information input from the traveling state holding unit 113 </ b> A and the current position of the vehicle 2. Then, the feature point series registration determination unit 114A determines whether the traveling lane in which the vehicle 2 is traveling is a straight line based on road information. However, since a plurality of traveling lanes are generally parallel, whether or not the traveling lane is a straight line may be determined by whether or not the roadway is a straight line. Furthermore, roads with a sidewalk added to the roadway are generally straight if the road is straight, so whether or not the driving lane is a straight line is determined by whether or not the road is a straight line. Also good.

上述した変形例によれば、次の作用効果が得られる。
(1)特徴点系列登録判定部114Aには、車両2の位置、および少なくとも道路の位置と形状とを含む地図情報が入力される。特徴点系列登録判定部114Aは、少なくとも車両2が走行している道路が直線でないと判断する場合に否定判断をする。そのためキャリブレーション装置1Aは、キャリブレーションに適している、直進走行した際に得られた特徴点を用いて校正を実行することができる。
According to the modified example described above, the following operational effects can be obtained.
(1) Map information including the position of the vehicle 2 and at least the position and shape of the road is input to the feature point series registration determination unit 114A. The feature point series registration determination unit 114A makes a negative determination when determining that at least the road on which the vehicle 2 is traveling is not a straight line. Therefore, the calibration apparatus 1 </ b> A can execute calibration using feature points obtained when the vehicle travels straight, which is suitable for calibration.

プログラムはROM12に格納されるとしたが、プログラムが外部から読み込まれて不揮発性メモリに格納されていてもよい。また、キャリブレーション装置1が不図示の入出力インタフェースを備え、必要なときに入出力インタフェースとキャリブレーション装置1が利用可能な媒体を介して、他の装置からプログラムが読み込まれてもよい。ここで媒体とは、例えば入出力インタフェースに着脱可能な記憶媒体、または通信媒体、すなわち有線、無線、光などのネットワーク、または当該ネットワークを伝搬する搬送波やディジタル信号、を指す。また、プログラムにより実現される機能の一部または全部がハードウエア回路やFPGAにより実現されてもよい。   Although the program is stored in the ROM 12, the program may be read from the outside and stored in the nonvolatile memory. The calibration apparatus 1 may include an input / output interface (not shown), and the program may be read from another apparatus via the input / output interface and a medium that can be used by the calibration apparatus 1 when necessary. Here, the medium refers to, for example, a storage medium that can be attached to and detached from the input / output interface, or a communication medium, that is, a wired, wireless, or optical network, or a carrier wave or digital signal that propagates through the network. Also, part or all of the functions realized by the program may be realized by a hardware circuit or FPGA.

図7はプログラムが外部から読み込まれる例を示す図である。キャリブレーション装置1が不図示の入出力インタフェースを備え、媒体304からプログラムが読み込まれてもよい。また通信回線301に接続されたサーバ302のハードディスク装置303などにプログラムを格納しておき、通信回線301を介してキャリブレーション装置1にプログラムを提供する。プログラムは、記録媒体304や通信回線301を介する提供など、種々の形態のコンピュータプログラム製品として供給することができる。   FIG. 7 is a diagram showing an example in which a program is read from the outside. The calibration apparatus 1 may include an input / output interface (not shown), and the program may be read from the medium 304. A program is stored in the hard disk device 303 of the server 302 connected to the communication line 301 and the program is provided to the calibration device 1 via the communication line 301. The program can be supplied as various forms of computer program products such as provision via the recording medium 304 or the communication line 301.

上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
The above-described embodiments and modifications may be combined.
Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1、1A … キャリブレーション装置
2、2A … 車両
3 … カメラ
12P … プログラム
14 … フラッシュメモリ
102 … 画像取得部
103 … 特徴点検出部
104 … 特徴点位置記憶制御部
105 … 特徴点追跡部
106 … 追跡完了判定部
107 … 特徴点系列作成部
108 … 座標変換部
109 … 外部パラメータ記憶制御部
110 … 特徴点系列高さ算出部
114、114A … 特徴点系列登録判定部
117 … 校正実行部
DESCRIPTION OF SYMBOLS 1, 1A ... Calibration apparatus 2, 2A ... Vehicle
DESCRIPTION OF SYMBOLS 3 ... Camera 12P ... Program 14 ... Flash memory 102 ... Image acquisition part 103 ... Feature point detection part 104 ... Feature point position storage control part 105 ... Feature point tracking part 106 ... Tracking completion determination part 107 ... Feature point series creation part 108 ... Coordinate conversion unit 109 ... external parameter storage control unit 110 ... feature point series height calculation unit 114, 114A ... feature point series registration determination unit 117 ... calibration execution unit

Claims (9)

車両に固定されたカメラが撮影して得られた撮影画像を取得する画像取得部と、
前記撮影画像から特徴点を検出する特徴点検出部と、
前記特徴点を時系列で追跡し特徴点系列を生成する特徴点系列生成追跡部と、
前記生成された特徴点系列の高さ情報を算出する特徴点系列高さ算出部と、
前記高さ情報に基づき前記特徴点系列の良否を判断する良否判定部と、
前記良否判定部により肯定判断された特徴点系列を用いて前記カメラの外部パラメータを校正する校正部とを備えるキャリブレーション装置。
An image acquisition unit that acquires a captured image obtained by a camera fixed to the vehicle;
A feature point detector for detecting a feature point from the captured image;
A feature point sequence generation tracking unit for tracking the feature points in time series and generating a feature point sequence;
A feature point series height calculating unit for calculating height information of the generated feature point series;
A quality determination unit that determines quality of the feature point series based on the height information;
A calibration apparatus comprising: a calibration unit that calibrates external parameters of the camera using the feature point series that has been affirmed by the pass / fail determination unit.
請求項1に記載のキャリブレーション装置において、
前記校正部が校正する外部パラメータは、前記カメラのヨー角、ロール角、ピッチ角、および前記カメラの取付け高さの少なくとも1つであるキャリブレーション装置。
The calibration device according to claim 1,
An external parameter calibrated by the calibration unit is at least one of a yaw angle, a roll angle, a pitch angle, and a mounting height of the camera.
請求項1に記載のキャリブレーション装置において、
前記良否判定部は、前記特徴点系列の高さと前記車両が走行する路面の高さとの差があらかじめ定めた値よりも大きい場合に否定判断するキャリブレーション装置。
The calibration device according to claim 1,
The quality determination unit is a calibration device that makes a negative determination when a difference between a height of the feature point series and a height of a road surface on which the vehicle travels is greater than a predetermined value.
請求項1に記載のキャリブレーション装置において、
前記特徴点が前記車両が走行する路面の高さに存在すると仮定し、前記特徴点の前記カメラとの相対位置を実空間上の座標として算出する座標変換部をさらに備え、
前記特徴点系列高さ算出部は、前記特徴点系列を構成する特徴点の前記相対位置に基づき前記特徴点系列の速度を算出し、前記車両の速度と前記特徴点系列の速度とに基づき前記特徴点系列の高さを推定するキャリブレーション装置。
The calibration device according to claim 1,
Assuming that the feature point exists at the height of the road surface on which the vehicle travels, a coordinate conversion unit that calculates a relative position of the feature point with the camera as coordinates in real space is further provided,
The feature point series height calculation unit calculates the speed of the feature point series based on the relative position of the feature points constituting the feature point series, and based on the speed of the vehicle and the speed of the feature point series A calibration device that estimates the height of a feature point series.
請求項4に記載のキャリブレーション装置において、
前記良否判定部には、前記車両の位置、および少なくとも車道の位置と形状とを含む地図情報が入力され、
前記良否判定部は、前記車両の位置、前記地図情報、および前記相対位置に基づき、前記特徴点系列が車道の外側に存在すると判断する場合に否定判断をするキャリブレーション装置。
The calibration device according to claim 4,
Map information including the position of the vehicle and at least the position and shape of the roadway is input to the pass / fail judgment unit,
The calibration device that makes a negative determination when it is determined that the feature point series exists outside a roadway based on the position of the vehicle, the map information, and the relative position.
請求項1に記載のキャリブレーション装置において、
前記良否判定部には、前記車両の走行状態を示す情報が入力され、
前記良否判定部は、前記車両が等速度で直進走行していないと判断する場合に否定判断をするキャリブレーション装置。
The calibration device according to claim 1,
Information indicating the running state of the vehicle is input to the pass / fail judgment unit,
The quality determination unit is a calibration device that makes a negative determination when determining that the vehicle is not traveling straight at a constant speed.
請求項1に記載のキャリブレーション装置において、
前記良否判定部には、前記車両の位置、および少なくとも車道の位置と形状とを含む地図情報が入力され、
前記良否判定部は、少なくとも前記車両が走行している車道が直線でないと判断する場合に否定判断をするキャリブレーション装置。
The calibration device according to claim 1,
Map information including the position of the vehicle and at least the position and shape of the roadway is input to the pass / fail judgment unit,
The quality determination unit is a calibration device that makes a negative determination when determining that at least the roadway on which the vehicle is traveling is not a straight line.
車両に固定されたカメラのキャリブレーション方法であって、
前記カメラが撮影して得られた撮影画像を取得し、
前記撮影画像から特徴点を検出し、
前記特徴点を時系列で追跡し特徴点系列を生成し、
前記生成された特徴点系列の高さ情報を算出し、
前記高さ情報に基づき前記特徴点系列の良否を判断し、
前記良否の判断により肯定判断された特徴点系列を用いて前記カメラの外部パラメータを校正するキャリブレーション方法。
A calibration method for a camera fixed to a vehicle,
Obtaining a photographed image obtained by photographing with the camera,
Detecting feature points from the captured image;
Tracking the feature points in time series to generate a feature point series,
Calculating height information of the generated feature point series;
Judge the quality of the feature point series based on the height information,
A calibration method for calibrating external parameters of the camera using a feature point series that has been affirmatively determined by the quality determination.
車両に固定されたカメラの外部パラメータをキャリブレーションするキャリブレーションプログラムであって、
コンピュータに、
前記カメラが撮影して得られた撮影画像を取得させ、
前記撮影画像から特徴点を検出させ、
前記特徴点を時系列で追跡し特徴点系列を生成させ、
前記生成された特徴点系列の高さ情報を算出させ、
前記高さ情報に基づき前記特徴点系列の良否を判断させ、
前記良否の判断により肯定判断された特徴点系列を用いて前記カメラの外部パラメータを校正させるためのキャリブレーションプログラム。


A calibration program for calibrating external parameters of a camera fixed to a vehicle,
On the computer,
The photographed image obtained by photographing with the camera is acquired,
Feature points are detected from the captured image;
The feature points are tracked in time series to generate a feature point series,
Calculating height information of the generated feature point series;
Based on the height information, the quality of the feature point series is judged,
A calibration program for calibrating external parameters of the camera using a feature point series that has been affirmed by the pass / fail judgment.


JP2016164803A 2016-08-25 2016-08-25 Calibration device, calibration method, and calibration program Pending JP2018032253A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016164803A JP2018032253A (en) 2016-08-25 2016-08-25 Calibration device, calibration method, and calibration program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016164803A JP2018032253A (en) 2016-08-25 2016-08-25 Calibration device, calibration method, and calibration program

Publications (1)

Publication Number Publication Date
JP2018032253A true JP2018032253A (en) 2018-03-01

Family

ID=61303364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016164803A Pending JP2018032253A (en) 2016-08-25 2016-08-25 Calibration device, calibration method, and calibration program

Country Status (1)

Country Link
JP (1) JP2018032253A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109993802A (en) * 2019-04-03 2019-07-09 浙江工业大学 A kind of Hybrid camera scaling method in urban environment
JP2020060899A (en) * 2018-10-09 2020-04-16 株式会社デンソー Calibration device for on-vehicle camera
JP2020154742A (en) * 2019-03-20 2020-09-24 クラリオン株式会社 Calibration apparatus and calibration method
WO2020241125A1 (en) 2019-05-31 2020-12-03 クラリオン株式会社 Pillar detection device and pillar detection method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198212A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
US20100295948A1 (en) * 2009-05-21 2010-11-25 Vimicro Corporation Method and device for camera calibration
JP2013186816A (en) * 2012-03-09 2013-09-19 Topcon Corp Moving image processor, moving image processing method and program for moving image processing
JP2014032118A (en) * 2012-08-03 2014-02-20 Clarion Co Ltd Camera parameter calculation device, navigation system, and camera parameter calculation method
WO2016087298A1 (en) * 2014-12-04 2016-06-09 Connaught Electronics Ltd. Online calibration of a motor vehicle camera system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198212A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
US20100295948A1 (en) * 2009-05-21 2010-11-25 Vimicro Corporation Method and device for camera calibration
JP2013186816A (en) * 2012-03-09 2013-09-19 Topcon Corp Moving image processor, moving image processing method and program for moving image processing
JP2014032118A (en) * 2012-08-03 2014-02-20 Clarion Co Ltd Camera parameter calculation device, navigation system, and camera parameter calculation method
WO2016087298A1 (en) * 2014-12-04 2016-06-09 Connaught Electronics Ltd. Online calibration of a motor vehicle camera system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
STEPHANIE HOLD, ET AL.: "A Novel Approach for the Online Initial Calibration of Extrinsic Parameters for a Car-Mounted Camera", PROCEEDINGS OF THE 12TH INTERNATIONAL IEEE CONFERENCE ON INTELLIGENT TRANSPORTATION SYSTEMS, JPN6020000183, 4 October 2009 (2009-10-04), US, pages 420 - 425, ISSN: 0004189888 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020060899A (en) * 2018-10-09 2020-04-16 株式会社デンソー Calibration device for on-vehicle camera
JP2020154742A (en) * 2019-03-20 2020-09-24 クラリオン株式会社 Calibration apparatus and calibration method
JP7217577B2 (en) 2019-03-20 2023-02-03 フォルシアクラリオン・エレクトロニクス株式会社 CALIBRATION DEVICE, CALIBRATION METHOD
US11636624B2 (en) 2019-03-20 2023-04-25 Faurecia Clarion Electronics Co., Ltd. Calibration device and calibration method
CN109993802A (en) * 2019-04-03 2019-07-09 浙江工业大学 A kind of Hybrid camera scaling method in urban environment
WO2020241125A1 (en) 2019-05-31 2020-12-03 クラリオン株式会社 Pillar detection device and pillar detection method

Similar Documents

Publication Publication Date Title
KR102572219B1 (en) Navigation information fusion framework (FUSION FRAMEWORK) and batch alignment (BATCH ALIGNMENT) for autonomous driving
CN107145578B (en) Map construction method, device, equipment and system
JP5089545B2 (en) Road boundary detection and judgment device
KR20180106417A (en) System and Method for recognizing location of vehicle
JP6222353B2 (en) Target detection apparatus and target detection method
CN110234957B (en) Method for storing travel record, method for generating travel track model, method for estimating self-position, and device for storing travel record
JP2022518911A (en) Generate structured map data from vehicle sensors and camera arrays
JP6520740B2 (en) Object detection method, object detection device, and program
CN109564098B (en) Self-position estimation method and self-position estimation device
JP2018032253A (en) Calibration device, calibration method, and calibration program
JP4596566B2 (en) Self-vehicle information recognition device and self-vehicle information recognition method
KR20220024791A (en) Method and apparatus for determining the trajectory of a vehicle
JP2017090239A (en) Information processing device, control method, program, and storage media
KR102037129B1 (en) Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same
JP2009140192A (en) Road white line detection method, road white line detection program and road white line detection apparatus
US20230106644A1 (en) Systems and methods for detecting vehicle wheel slips
JP2007278813A (en) Vehicle-position positioning device
JP2005257314A (en) Vehicle position detector
JP6943127B2 (en) Position correction method, vehicle control method and position correction device
CN114694111A (en) Vehicle positioning
JP6790951B2 (en) Map information learning method and map information learning device
JP7234840B2 (en) position estimator
US20230117253A1 (en) Ego motion-based online calibration between coordinate systems
JP2021188914A (en) Vehicle control device and method for estimating vehicle position
US20200182630A1 (en) Map generation system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200707