JP6151535B2 - Parameter acquisition apparatus, parameter acquisition method and program - Google Patents
Parameter acquisition apparatus, parameter acquisition method and program Download PDFInfo
- Publication number
- JP6151535B2 JP6151535B2 JP2013037064A JP2013037064A JP6151535B2 JP 6151535 B2 JP6151535 B2 JP 6151535B2 JP 2013037064 A JP2013037064 A JP 2013037064A JP 2013037064 A JP2013037064 A JP 2013037064A JP 6151535 B2 JP6151535 B2 JP 6151535B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- camera
- vector
- deriving
- installation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、カメラに関するパラメータを取得するパラメータ取得装置に関する。 The present invention relates to a parameter acquisition device that acquires parameters relating to a camera.
従来より、自動車などの車両に搭載されたカメラで得られた車両の周辺の画像を、車室内のディスプレイに表示する車載装置が知られている。このような車載装置を利用することにより、ドライバは車両の周辺の様子をほぼリアルタイムに把握することができる。 2. Description of the Related Art Conventionally, an in-vehicle device that displays an image around a vehicle obtained by a camera mounted on a vehicle such as an automobile on a display in a vehicle interior is known. By using such an in-vehicle device, the driver can grasp the situation around the vehicle almost in real time.
カメラを車両に設置した場合においては、通常、カメラの実際の設置状態(位置や姿勢)は設計上の設置状態とは僅かに異なっている。このようなカメラの設置状態の誤差に起因して、当該カメラで取得された撮影画像に含まれる被写体の像の位置は、理想的な位置からズレることになる。 When the camera is installed in a vehicle, the actual installation state (position and posture) of the camera is usually slightly different from the designed installation state. Due to such an error in the installation state of the camera, the position of the subject image included in the captured image acquired by the camera deviates from the ideal position.
このような問題に対応するため、従来より、カメラの設置に関する設置パラメータ(例えば、パン角、チルト角、ロール角など)を取得するキャリブレーション処理がなされている(例えば、特許文献1参照。)。車載装置は、このようなキャリブレーション処理で取得された設置パラメータを用いることで、撮影画像中の被写体の像の位置を補正することができる。 In order to cope with such a problem, conventionally, calibration processing for acquiring installation parameters (for example, pan angle, tilt angle, roll angle, etc.) related to camera installation has been performed (see, for example, Patent Document 1). . The in-vehicle device can correct the position of the image of the subject in the captured image by using the installation parameters acquired by such calibration processing.
一般に、キャリブレーション処理を実行する場合には、図15に示すように、所定の模様のマーカ103が配置された作業場の所定位置104に車両109が停車される。この状態で、車両109に搭載されたカメラ105が、マーカ103を含む車両9の周囲の撮影画像を取得する。そして、パラメータ取得装置102が、取得された撮影画像に含まれるマーカ103の像の位置に基いてカメラ105の設置パラメータを導出する。
In general, when the calibration process is executed, as shown in FIG. 15, the
このようなキャリブレーション処理において、設置パラメータを正しく導出するためには、車両109と複数のマーカ103との相対位置を一定とする必要がある。このため、車両109を正確に停車させるための正対装置の導入や、複数のマーカ103の作業場への正確な配置が必要である。しかしながら、このような正対装置の導入やマーカ103を正確に配置するなどの条件を満足することは、一般的なカーディーラや小規模な修理工場などでは困難である。このため、より容易に設置パラメータを導出できる手法が求められていた。
In such a calibration process, in order to correctly derive the installation parameters, the relative positions of the
本発明は、上記課題に鑑みてなされたものであり、カメラの設置パラメータを容易に導出できる技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique capable of easily deriving camera installation parameters.
上記課題を解決するため、請求項1の発明は、カメラに関するパラメータを取得するパラメータ取得装置であって、車両が備えるカメラで前記車両の直進走行中の異なる時点に撮影された複数の撮影画像を取得する取得手段と、前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する手段と、前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する抽出手段と、前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する変換手段と、前記第2ベクトルが前記車両の前後方向に一致するほど小さくなる第1変数と、前記第2ベクトルの長さが前記移動距離と一致するほど小さくなる第2変数とを用いて評価値を導出する手段と、前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する導出手段と、を備える。
In order to solve the above-mentioned problem, the invention of claim 1 is a parameter acquisition device for acquiring parameters relating to a camera, wherein a plurality of photographed images photographed at different points in time while the vehicle is traveling straight by a camera provided in the vehicle. Features between the obtaining means for obtaining, the means for deriving the movement distance of the vehicle based on the time between each photographing time of the plurality of photographed images and the speed of the vehicle, and the characteristics among the plurality of photographed images Based on an extraction means for extracting a first vector indicating the movement of a point and a provisional value of an installation parameter relating to the installation of the camera, the first vector is converted into a second vector in a vehicle coordinate system based on the vehicle. conversion means, small as the first variable as reduced to match the longitudinal direction of the second vector is the vehicle, the length of the second vector matches the movement distance That comprises means for deriving the evaluation value by using the second variable, the temporary value which the evaluation value is the smallest, and deriving means for deriving as the installation parameter, the.
また、請求項2の発明は、カメラに関するパラメータを取得するパラメータ取得装置であって、車両が備えるカメラで前記車両の旋回走行中の異なる時点に撮影された複数の撮影画像を取得する取得手段と、前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する手段と、前記車両の舵角とホイールベースの長さとに基づいて前記車両の旋回中心を定め、該旋回中心を中心とした前記車両の旋回角度を、前記移動距離に基づいて導出する手段と、前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する抽出手段と、前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する変換手段と、前記第2ベクトルの始点及び終点、並びに、前記旋回中心で形成される三角形の該旋回中心に対応する頂点の内角が、前記旋回角度に一致するほど小さくなる評価値を導出する手段と、前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する導出手段と、を備える。
The invention according to
また、請求項3の発明は、カメラに関するパラメータを取得するパラメータ取得方法であって、(a)車両が備えるカメラで前記車両の直進走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(b)前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する工程と、(c)前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する工程と、(d)前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する工程と、(e)前記第2ベクトルが前記車両の前後方向に一致するほど小さくなる第1変数と、前記第2ベクトルの長さが前記移動距離と一致するほど小さくなる第2変数とを用いて評価値を導出する工程と、(f)前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する工程と、を備える。
Further, the invention of claim 3 is a parameter acquisition method for acquiring parameters relating to a camera, wherein (a) a plurality of captured images captured at different times during straight traveling of the vehicle by a camera included in the vehicle are acquired. A step of (b) deriving a moving distance traveled by the vehicle based on the time between each of the plurality of captured images and the speed of the vehicle; and (c) between the plurality of captured images. Extracting a first vector indicating the movement of the feature point at (d), based on a provisional value of an installation parameter relating to the installation of the camera, the first vector of the vehicle coordinate system based on the vehicle (E) a first variable that decreases as the second vector coincides with the front-rear direction of the vehicle, and a length that decreases as the length of the second vector coincides with the movement distance. That comprises the steps of deriving an evaluation value by using the second variable, and a step of deriving the temporary values comprising (f) the evaluation value is the smallest, as the installation parameter.
また、請求項4の発明は、カメラに関するパラメータを取得するパラメータ取得方法であって、(a)車両が備えるカメラで前記車両の旋回走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(b)前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する工程と、(c)前記車両の舵角とホイールベースの長さとに基づいて前記車両の旋回中心を定め、該旋回中心を中心とした前記車両の旋回角度を、前記移動距離に基づいて導出する工程と、(d)前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する工程と、(e)前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する工程と、(f)前記第2ベクトルの始点及び終点、並びに、前記旋回中心で形成される三角形の該旋回中心に対応する頂点の内角が、前記旋回角度に一致するほど小さくなる評価値を導出する工程と、(g)前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する工程と、を備える。
Further, the invention of claim 4 is a parameter acquisition method for acquiring parameters relating to a camera, wherein (a) a plurality of captured images captured at different times during turning of the vehicle are acquired by a camera provided in the vehicle. And (b) deriving a travel distance traveled by the vehicle based on the time between each of the plurality of captured images and the speed of the vehicle, and (c) a steering angle of the vehicle. Determining a turning center of the vehicle based on a length of the wheel base, and deriving a turning angle of the vehicle based on the turning center based on the moving distance; and (d) between the plurality of captured images. Extracting a first vector indicating the movement of the feature point at (e), based on a provisional value of an installation parameter relating to installation of the camera, the first vector of the vehicle coordinate system based on the vehicle A step of converting into a vector; and (f) an internal angle of a vertex corresponding to the turning center of the triangle formed by the starting point and the ending point of the second vector and the turning center becomes smaller as the turning angle becomes equal. A step of deriving an evaluation value, and (g) a step of deriving the provisional value having the smallest evaluation value as the installation parameter.
また、請求項5の発明は、コンピュータによって実行可能なプログラムであって、前記コンピュータに、(a)車両が備えるカメラで前記車両の直進走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(b)前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する工程と、(c)前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する工程と、(d)前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する工程と、(e)前記第2ベクトルが前記車両の前後方向に一致するほど小さくなる第1変数と、前記第2ベクトルの長さが前記移動距離と一致するほど小さくなる第2変数とを用いて評価値を導出する工程と、(f)前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する工程と、を実行させる。
Further, the invention of
また、請求項6の発明は、コンピュータによって実行可能なプログラムであって、前記コンピュータに、(a)車両が備えるカメラで前記車両の旋回走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(b)前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する工程と、(c)前記車両の舵角とホイールベースの長さとに基づいて前記車両の旋回中心を定め、該旋回中心を中心とした前記車両の旋回角度を、前記移動距離に基づいて導出する工程と、(d)前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する工程と、(e)前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する工程と、(f)前記第2ベクトルの始点及び終点、並びに、前記旋回中心で形成される三角形の該旋回中心に対応する頂点の内角が、前記旋回角度に一致するほど小さくなる評価値を導出する工程と、(g)前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する工程と、を実行させる。
The invention according to claim 6 is a program executable by a computer, and (a) a plurality of photographed images photographed at different times during turning of the vehicle by a camera included in the vehicle. And (b) deriving a moving distance traveled by the vehicle based on the time between each of the plurality of captured images and the speed of the vehicle, and (c) a steering angle of the vehicle Determining a turning center of the vehicle on the basis of the wheel base length and a length of the wheel base, and deriving a turning angle of the vehicle based on the turning center on the basis of the movement distance; and (d) the plurality of captured images. Extracting a first vector indicating the movement of the feature point between them, and (e) a vehicle seat based on the vehicle based on the provisional value of the installation parameter relating to the installation of the camera A step of converting into a second vector of the system; and (f) an internal angle of a vertex corresponding to the turning center of the triangle formed by the starting point and the ending point of the second vector and the turning center coincides with the turning angle. A step of deriving an evaluation value that becomes smaller as it goes, and (g) a step of deriving the provisional value that minimizes the evaluation value as the installation parameter.
請求項1ないし6の発明によれば、車両の周辺に特徴点して現れる被写体の点が存在しさえすればカメラの設置パラメータを導出できる。したがって、カメラの設置パラメータを容易に導出できる。また、精度の高い設置パラメータを導出できる。
According to the first to sixth aspects of the present invention, the camera installation parameters can be derived as long as there are subject points that appear as characteristic points around the vehicle. Therefore, camera installation parameters can be easily derived. In addition, highly accurate installation parameters can be derived.
以下、図面を参照しつつ本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<1.パラメータ取得装置の概要>
図1は、本実施の形態のパラメータ取得装置の使用場面の一例を示す図である。車両(本実施の形態では自動車)9に搭載された車載装置2は、車両9が備える複数のカメラ5で得られた複数の撮影画像を用いて合成画像を生成し、車両9の車室内に表示する機能を有している。
<1. Overview of parameter acquisition device>
FIG. 1 is a diagram illustrating an example of a usage scene of the parameter acquisition apparatus according to the present embodiment. The in-
車両9が備える複数のカメラ5それぞれの実際の設置状態は、設計上の設置状態とは僅かに異なっている。このため、車載装置2は、このような複数のカメラ5それぞれの設置に関する設置パラメータを取得するパラメータ取得装置としても機能する。設置パラメータは、カメラ5の実際の設置状態を示すものとなる。車載装置2は、キャリブレーション処理を実行して、各カメラ5の設置パラメータを取得する。
The actual installation state of each of the plurality of
図1に示すように、車載装置2がキャリブレーション処理を行う場合は、カメラ5が取得する撮影画像中において特徴点(コーナーなどの際立って検出できる点)として現れる複数の点Pa〜Phを含む被写体が、車両9の周辺の床面(路面)上に存在していればよい。例えば、床面の任意の模様、床面の傷、あるいは、床面に落ちているゴミや工具等であっても、このような被写体となりうる。なお、図1では、説明の便宜上、被写体の点として8つの点Pa〜Phのみを示しているが、実際には多数の点があることが望ましい。以下、このような撮影画像中において特徴点として現れる被写体の点を「被写体点」という。
As shown in FIG. 1, when the in-
キャリブレーション処理を行う際には、車載装置2のユーザとなる作業員は車両9を走行させる。車載装置2は、このように車両9の走行中において互いに異なる時点に同一のカメラ5で撮影された2枚の撮影画像を取得し、2枚の撮影画像間での特徴点の動きを示すベクトルであるオプティカルフローに基いて当該カメラ5の設置パラメータを取得する。したがって、作業場に特定のマーカ等を正確に配置するなどの困難な条件を必要とすることなく、設置パラメータを容易に導出できる。また、キャリブレーション処理を、作業場以外の道路などの様々な場所で行うことも可能である。
When performing the calibration process, the worker who is the user of the in-
<2.車載カメラ>
図2は、車両9における複数のカメラ5の位置と光軸の方向(設計上の方向)とを示す図である。複数のカメラ5はそれぞれ、レンズと撮像素子とを備えており、車両9の周辺の撮影画像を電子的に取得する。複数のカメラ5はそれぞれ、車載装置2とは別に車両9の適位置に配置され、取得した撮影画像を車載装置2に入力する。
<2. In-vehicle camera>
FIG. 2 is a diagram showing the positions of the plurality of
複数のカメラ5は、フロントカメラ5F、バックカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rを含んでいる。これら4つのカメラ5F,5B,5L,5Rは、互いに異なる位置に配置され、車両9の周辺の異なる方向の撮影画像を取得する。
The
フロントカメラ5Fは、車両9の前端の左右中央の近傍に設けられ、その光軸5Faは車両9の前後方向に沿って前方に向けられる。バックカメラ5Bは、車両9の後端の左右中央の近傍に設けられ、その光軸5Baは車両9の前後方向に沿って後方に向けられる。左サイドカメラ5Lは車両9の左側のサイドミラー93Lに設けられ、その光軸5Laは車両9の左右方向に沿って左側方に向けられる。また、右サイドカメラ5Rは車両9の右側のサイドミラー93Rに設けられ、その光軸5Raは車両9の左右方向に沿って右側方に向けられる。
The
これらのカメラ5のレンズには魚眼レンズが採用され、各カメラ5は180度以上の画角Φを有している。このため、4つのカメラ5F,5B,5L,5Rを利用することで、車両9の全周囲を撮影対象とすることが可能である。
Fish lenses are used as the lenses of these
<3.車載装置>
図3は主に、車載装置2の構成を示す図である。図に示すように、車載装置2は、4つのカメラ5と通信可能に接続されている。車載装置2は、4つのカメラ5でそれぞれ得られた4つの撮影画像を合成して仮想視点からみた車両9の周辺の様子を示す合成画像を生成し、この合成画像を表示する。車載装置2は、この合成画像を生成する際に、キャリブレーション処理で得られた設置パラメータを利用する。
<3. In-vehicle device>
FIG. 3 is a diagram mainly showing the configuration of the in-
車載装置2は、ディスプレイ26と、操作部25と、画像取得部22と、画像合成部23と、信号受信部27と、記憶部24と、制御部21とを備えている。
The in-
ディスプレイ26は、例えば、液晶パネルなどを備えた薄型の表示装置であり、各種の情報や画像を表示する。ディスプレイ26は、その画面がユーザから視認可能なように、車両9の車室内のインストルメントパネルなどに配置される。
The
操作部25は、ユーザの操作を受け付ける部材であり、タッチパネル及び操作ボタンを含んでいる。タッチパネルはディスプレイ26の画面に重ねて設けられ、操作ボタンはディスプレイ26の画面の周囲に設けられる。ユーザが操作部25を操作した場合は、その操作の内容を示す信号が制御部21に入力される。
The
画像取得部22は、4つのカメラ5から、各カメラ5で得られた撮影画像を取得する。画像取得部22は、アナログの撮影画像をデジタルの撮影画像に変換するA/D変換機能などの基本的な画像処理機能を有している。画像取得部22は、取得した撮影画像に所定の画像処理を行い、処理後の撮影画像を画像合成部23及び制御部21に入力する。
The
画像合成部23は、例えばハードウェア回路であり、所定の画像処理を実行する。画像合成部23は、4つのカメラ5でそれぞれ取得された4つの撮影画像を用いて、任意の仮想視点からみた車両9の周辺の様子を示す合成画像(俯瞰画像)を生成する。画像合成部23が合成画像を生成する手法については後述する。
The
信号受信部27は、CANなどの車載ネットワーク99を介して、速度センサ91から出力される車両9の速度を示す信号を受信する。信号受信部27は、受信した信号を制御部21に入力する。
The
記憶部24は、例えば、フラッシュメモリなどの不揮発性メモリであり、各種の情報を記憶する。記憶部24は、設置パラメータ24aとプログラム24bとを記憶している。
The
設置パラメータ24aは、カメラ5の設置に関するパラメータである。設置パラメータ24aは、パン角、チルト角、ロール角などカメラ5の実際の設置状態(実際の光軸の方向)を示すパラメータを含んでいる。このような設置パラメータ24aはカメラ5ごとに異なっているため、記憶部24は、4つのカメラ5それぞれの設置パラメータ24aを記憶する。記憶部24に記憶された設置パラメータ24aは、画像合成部23が合成画像を生成する際に利用される。設置パラメータ24aはキャリブレーション処理によって取得されるため、キャリブレーション処理の実行前は記憶部24に設置パラメータ24aは記憶されていない。
The
また、プログラム24bは、車載装置2のファームウェアである。このようなプログラム24bは、該プログラム24bを記録したコンピュータ読み取り可能な記録媒体からの読み取りや、ネットワークを介した通信などによって取得し、記憶部24に記憶させることができる。
The program 24b is firmware for the in-
制御部21は、車載装置2の全体を統括的に制御するマイクロコンピュータである。制御部21は、CPU、RAM及びROMなどを備えている。制御部21の各種の機能は、記憶部24に記憶されたプログラム24bの実行(プログラム24bに従ったCPUの演算処理)によって実現される。図中に示すフロー抽出部21a、座標変換部21b、及び、パラメータ導出部21cは、プログラム24bの実行により実現される機能部の一部である。これらの機能部は、キャリブレーション処理に係る処理を実行する。
The
フロー抽出部21aは、複数の撮影画像間での特徴点の動きを示すベクトルであるオプティカルフローを抽出する。座標変換部21bは、複数のオプティカルフローを車両9を基準とした車両座標系の複数のベクトルに変換する。また、パラメータ導出部21cは、車両座標系の複数のベクトルに基いて、カメラ5の設置に関する設置パラメータを導出する。これらの機能部の処理の詳細については後述する。
The
<4.合成画像の生成>
次に、画像合成部23が合成画像を生成する手法について説明する。図4は、画像合成部23が合成画像を生成する手法を説明する図である。
<4. Generation of composite image>
Next, a method in which the
車載装置2が備えるフロントカメラ5F、バックカメラ5B、左サイドカメラ5L、及び、右サイドカメラ5Rは、車両9の前方、後方、左側方及び右側方をそれぞれ示す4つの撮影画像GF,GB,GL,GRを取得する。これら4つの撮影画像GF,GB,GL,GRには、車両9の全周囲のデータが含まれている。
The in-
画像合成部23は、これら4つの撮影画像GF,GB,GL,GRに含まれるデータ(各画素の値)を、仮想的な三次元空間における立体曲面である投影面TSに投影する。投影面TSは、例えば略半球状(お椀形状)をしており、その中心領域(お椀の底部分)は車両9の位置となる車両領域R0として定められている。一方、車両領域R0の外側の領域である投影領域R1は、撮影画像GF,GB,GL,GRのいずれかと対応付けられている。画像合成部23は、撮影画像GF,GB,GL,GRに含まれるデータを投影領域R1に投影する。
The
図5に示すように、画像合成部23は、投影領域R1において車両9の前方に相当する部分に、フロントカメラ5Fの撮影画像GFのデータを投影する。また、画像合成部23は、投影領域R1において車両9の後方に相当する部分に、バックカメラ5Bの撮影画像GBのデータを投影する。さらに、画像合成部23は、投影領域R1において車両9の左側方に相当する部分に左サイドカメラ5Lの撮影画像GLのデータを投影し、投影領域R1において車両9の右側方に相当する部分に右サイドカメラ5Rの撮影画像GRのデータを投影する。
As shown in FIG. 5, the
4つの撮影画像GF,GB,GL,GRのそれぞれにおいて、投影面TSに投影すべきデータを含む領域は、4つのカメラ5それぞれの設置状態の誤差に応じて変化する。このため、画像合成部23は、記憶部24に記憶された4つのカメラ5それぞれの設置パラメータ24a(パン角、チルト角、ロール角など)を用いて、撮影画像GF,GB,GL,GRそれぞれの投影面TSに投影する領域を修正する。
In each of the four captured images GF, GB, GL, GR, the region including the data to be projected on the projection surface TS changes according to the error in the installation state of each of the four
このような投影面TSに投影する領域について、図6に示す撮影画像Gを例に説明する。仮にこの撮影画像Gを取得したカメラ5に関して設置状態の誤差がない場合は、投影面TSに投影すべきデータを含む領域はデフォルトの領域UA1となる。通常はカメラ5の設置状態には誤差が存在することから、画像合成部23は、当該カメラ5の設置パラメータ24aに基づいて、投影面TSに投影する領域を領域UA1から領域UA2に修正する。そして、画像合成部23は、この修正後の領域UA2に含まれるデータを投影面TSに投影することになる。
The region projected onto the projection surface TS will be described with reference to the captured image G shown in FIG. If there is no error in the installation state with respect to the
図4に戻り、このように投影面TSの各部分にデータを投影すると、次に、画像合成部23は、車両9の三次元形状を示すポリゴンのモデルを仮想的に構成する。この車両9のモデルは、投影面TSが設定される三次元空間における車両9の位置である車両領域R0に配置される。
Returning to FIG. 4, when data is projected onto each part of the projection surface TS in this manner, the
次に、画像合成部23は、三次元空間に対して仮想視点VPを設定する。画像合成部23は、三次元空間における任意の視点位置に任意の視線方向に向けて仮想視点VPを設定できる。そして、画像合成部23は、投影面TSのうち、設定した仮想視点VPからみて所定の視野角に含まれる領域を画像として切り出す。また、画像合成部23は、設定した仮想視点VPに応じてポリゴンのモデルに関してレンダリングを行い、その結果となる二次元の車両像90を、切り出した画像に対して重畳する。これにより、画像合成部23は、仮想視点VPからみた車両9及び車両9の周辺の領域を示す合成画像CPを生成する。
Next, the
例えば図4に示すように、視点位置を車両9の直上、視線方向を直下とした仮想視点VPaを設定した場合には、画像合成部23は、車両9及び車両9の周辺の領域を俯瞰する合成画像CPaを生成できる。また、視点位置を車両9の左後方、視線方向を車両9の前方とした仮想視点VPbを設定した場合には、画像合成部23は、車両9の左後方からみた車両9及び車両9の周辺を示す合成画像CPbを生成できる。
For example, as illustrated in FIG. 4, when a virtual viewpoint VPa with the viewpoint position directly above the
このような合成画像CPの生成において設置パラメータ24aを用いない場合には、4つの撮影画像GF,GB,GL,GRが整合なく合成されてしまう。その結果、撮影画像同士の境界部分B(図5参照。)で同一の被写体の像が分断されるなどの不自然な合成画像CPが生成されることになる。このため、適切な合成画像CPを生成するためには、カメラ5の実際の設置状態を示す設置パラメータ24aを導出することが必要となる。
When the
<5.キャリブレーション処理>
次に、車載装置2が設置パラメータ24aを取得するキャリブレーション処理の流れについて説明する。図7は、キャリブレーション処理の流れを示す図である。このキャリブレーション処理は、図1に示すような複数の被写体点Pa〜Phを含む被写体が車両9の周辺に存在している状態で、作業員が操作部25を介して所定の操作を車載装置2に行い、さらに、車両9を走行させた場合に実行される。作業員は、クリープ現象を利用して比較的低速に車両9の前後方向に沿って車両9を走行(すなわち、直進)させる。
<5. Calibration process>
Next, the flow of the calibration process in which the in-
制御部21は、まず、車両9が走行していることを確認する(ステップS11)。制御部21は、速度センサ91から出力される車両9の速度を示す信号に基いて、車両9の走行を確認する。さらに、制御部21は、速度センサ91からの信号に基いて、車両9の速度が安定したこと(加速度が閾値より低下したこと)を確認する。
First, the
制御部21は、車両9の速度が安定したことを確認すると、次に、画像取得部22を制御して、4つのカメラ5のそれぞれから2つの撮影画像を取得させる(ステップS12)。画像取得部22は、互いに異なる時点に撮影された2つの撮影画像を各カメラ5から取得する。同一のカメラ5が2つの撮影画像を撮影する間隔(撮影時点の相互間)は、車両9が例えば約1m進むように予め定められた時間(例えば、0.5秒)とされる。作業員は、このような2つの撮影画像の取得に十分な距離(例えば、3m程度)だけ車両9を走行させると、車両9を停車する。
After confirming that the speed of the
次に、パラメータ導出部21cが、2つの撮影画像の撮影時点の相互間において、車両9が実際に移動した移動距離を導出する(ステップS13)。パラメータ導出部21cは、2つの撮影画像の撮影時点の相互間(時間)と、速度センサ91からの信号が示す速度とを積分することで実際の移動距離を導出できる。
Next, the
次に、フロー抽出部21aは、各カメラ5ごとに得られた2つの撮影画像を用いて、オプティカルフローを抽出する(ステップS14)。
Next, the
図8は、2つの撮影画像それぞれの撮影時点における車両9に対する被写体点の相対的な位置を示す図である。1枚目の撮影画像の撮影時点の被写体点Pa〜Phはそれぞれ、2枚目の撮影画像の撮影時点において被写体点Pat〜Phtとなる。車両9は直進することから、被写体点Pa〜Phは、車両9に対して相対的に車両9の前後方向に沿って後方に移動する。
FIG. 8 is a diagram illustrating the relative position of the subject point with respect to the
図9は、図8のように被写体点が相対移動した場合において、4つのカメラ5で得られる撮影画像GF,GL,GR,GBの例を示す図である。図9においては、説明の便宜上、同一のカメラ5で得られた2つの撮影画像については重ねて示している。
FIG. 9 is a diagram illustrating examples of captured images GF, GL, GR, and GB obtained by the four
図9に示すように、図8に示す被写体点は、撮影画像中において特徴点として現れる。図9では、特徴点の符号を、その特徴点に対応する被写体点の符号と同一としている。図8と図9とを比較して分かるように、車両9の前方の被写体点Pc,Pd,Pct,Pdtは、フロントカメラ5Fで得られた撮影画像GFの特徴点となる。また、車両9の後方の被写体点Pg,Ph,Pgt,Pgtは、バックカメラ5Bで得られた撮影画像GBの特徴点となる。車両9の左側方の被写体点Pa,Pb,Pat,Pbtは、左サイドカメラ5Lで得られた撮影画像GLの特徴点となる。車両9の右側方の被写体点Pe,Pf,Pet,Pftは、右サイドカメラ5Rで得られた撮影画像GRの特徴点となる。
As shown in FIG. 9, the subject points shown in FIG. 8 appear as feature points in the captured image. In FIG. 9, the sign of the feature point is the same as the sign of the subject point corresponding to the feature point. As can be seen by comparing FIG. 8 and FIG. 9, subject points Pc, Pd, Pct, and Pdt in front of the
フロー抽出部21aは、このような撮影画像中に含まれる特徴点を抽出し、同一のカメラ5で得られた2つの撮影画像間での特徴点の動きを示すベクトルをオプティカルフローOPとして抽出する。
The
フロー抽出部21aは、まず、ハリスオペレータなどの周知の手法により、同一のカメラ5で得られた2つの撮影画像それぞれの特徴点を抽出する。車両9から離れた被写体点ほど、その対応する特徴点の撮影画像中での位置の誤差が大きくなる。このため、フロー抽出部21aは、車両9から所定距離(例えば、2m)以内の範囲に相当する領域(図9の領域TA)に含まれる特徴点のみを抽出する。
First, the
次に、フロー抽出部21aは、1枚目の撮影画像から抽出された特徴点と、2枚目の撮影画像から抽出された特徴点とを対応付ける。そして、フロー抽出部21aは、対応する2つの特徴点それぞれの位置に基づいて、特徴点の動きを示すベクトルであるオプティカルフローOPを抽出する。フロー抽出部21aは、このようなオプティカルフローOPの抽出を、4つのカメラ5の全てに関して実行する。
Next, the
次に、フロー抽出部21aは、一つのカメラ5の撮影画像から抽出されたオプティカルフローOPの数が閾値(例えば、「5」)以上であるか否かを判定する(ステップS15)。これにより、フロー抽出部21aは、設置パラメータ24aの導出のために十分な数のオプティカルフローOPが抽出されたか否かを判定する。
Next, the
4つのカメラ5のうちの一つのカメラ5であってもこの条件(オプティカルフローOPの数が閾値以上)を満足しない場合は(ステップS15にてNo)、ディスプレイ26を介して、被写体点の数が不十分なカメラ5を特定する情報が作業員(ユーザ)に報知され(ステップS19)、キャリブレーション処理が終了する。この場合は、作業員は、被写体点を含む被写体(例えば、工具等)を、対象となるカメラ5で撮影可能な範囲に配置してから、再度、車載装置2にキャリブレーション処理を実行させる。この場合において、作業員は、対象となるカメラ5で撮影可能な領域に被写体を配置しさえすれば、どのような位置に被写体を配置してもよい。
If even one of the four
4つのカメラ5の全てでオプティカルフローOPの数が閾値以上という条件を満足する場合は(ステップS15にてYes)、次に、パラメータ導出部21cが、4つのカメラ5のうち一のカメラ5を処理の対象とする「注目カメラ」として選択する(ステップS16)。そして、パラメータ導出部21cが、この注目カメラ5の設置パラメータ24aを導出するパラメータ導出処理を実行する(ステップS17)。このパラメータ導出処理においては、注目カメラ5の撮影画像から抽出された複数のオプティカルフローOPに基いて設置パラメータ24aが導出されるが、詳細は後述する。
If all four
パラメータ導出処理が終了すると、処理はステップS16に戻り、パラメータ導出部21cは、注目カメラ5に設定されていない他のカメラ5を新たな注目カメラ5に設定して、パラメータ導出処理を繰り返す。パラメータ導出部21cは、このような処理を繰り返すことにより、4つのカメラ5の全ての設置パラメータ24aを導出する。4つのカメラ5の全ての設置パラメータ24aが導出されると(ステップS18にてYes)、キャリブレーション処理が終了する。
When the parameter derivation process ends, the process returns to step S16, and the
<6.パラメータ導出処理>
次に、パラメータ導出処理(ステップS17)の詳細について説明する。パラメータ導出処理では、車両9を基準とした車両座標系(ワールド座標系)と、注目カメラ5を基準としたカメラ座標系(ローカル座標系)とが用いられる。図10は、車両座標系とカメラ座標系との関係を示す図である。
<6. Parameter derivation process>
Next, details of the parameter derivation process (step S17) will be described. In the parameter derivation process, a vehicle coordinate system (world coordinate system) based on the
車両座標系は、x軸,y軸,z軸を有する三次元直交座標系であり、車両9を基準として設定される。車両座標系のy軸は車両9の前後方向、x軸は車両9の左右方向、z軸は鉛直方向にそれぞれ沿うように設定される。また、車両座標系の原点oは平面視で車両9の中心となる床面(路面)に設定される。
The vehicle coordinate system is a three-dimensional orthogonal coordinate system having an x-axis, a y-axis, and a z-axis, and is set with reference to the
これに対して、カメラ座標系は、X軸,Y軸,Z軸を有する三次元直交座標系であり、注目カメラ5を基準として設定される。カメラ座標系のZ軸は注目カメラ5の光軸、X軸は撮像素子の水平方向、Y軸は撮像素子の上下方向にそれぞれ沿うように設定される。また、カメラ座標系の原点Oは、注目カメラ5のレンズの位置に設定される。一般に、車両座標系とカメラ座標系とでは各座標軸の方向は一致しない。
On the other hand, the camera coordinate system is a three-dimensional orthogonal coordinate system having an X axis, a Y axis, and a Z axis, and is set based on the camera of
車両座標系に対するカメラ座標系の位置や姿勢は、並進成分Tと回転成分Rとで表すことができる。この車両座標系に対するカメラ座標系の位置や姿勢は、車両9における注目カメラ5の実際の設置状態(位置や姿勢)に相当する。注目カメラ5の実際の位置は車両座標系における並進成分Tで表すことができ、また、注目カメラ5の実際の姿勢は車両座標系に対する回転成分Rで表すことができる。回転成分Rは、z−x−z系のオイラー角(α,β,γ)で定義され、α,β,γはそれぞれパン角、チルト角、ロール角に相当する。本実施の形態では、カメラ5が所定の位置に配置されることから、並進成分Tについては既知である。したがって、パラメータ導出部21cは、注目カメラ5の設置パラメータとしてパン角、チルト角、ロール角に相当するα,β,γを導出する。
The position and orientation of the camera coordinate system relative to the vehicle coordinate system can be expressed by a translation component T and a rotation component R. The position and orientation of the camera coordinate system with respect to this vehicle coordinate system correspond to the actual installation state (position and orientation) of the camera of
カメラ座標系のある点の座標位置を同次座標で表現されるPcとした場合、次の数1によって、車両座標系における座標位置Pwに変換することができる。 If the P c represented a coordinate location of a point on the camera coordinate system in homogeneous coordinates, by the following equation 1, it can be converted to the coordinate position P w in the vehicle coordinate system.
図11は、パラメータ導出処理の流れを示す図である。以下、パラメータ導出処理の流れについて説明する。 FIG. 11 is a diagram showing a flow of parameter derivation processing. Hereinafter, the flow of the parameter derivation process will be described.
まず、パラメータ導出部21cは、注目カメラ5の撮影画像から抽出された複数のオプティカルフローOPそれぞれの始点及び終点の位置を、注目カメラ5を基準としたカメラ座標系の座標位置Pcとして導出する(ステップS21)。
First, the
カメラ5のレンズは魚眼レンズであるため、カメラ5で得られた撮影画像に含まれる被写体の像には、ディストーション(歪曲収差)と呼ばれる比較的大きな歪が生じる(図6参照。)。このため、パラメータ導出部21cは、カメラ5のディストーションの特性を考慮して、複数のオプティカルフローOPそれぞれの始点及び終点の位置を補正する。これにより、パラメータ導出部21cは、複数のオプティカルフローOPそれぞれの始点及び終点の位置を、カメラ座標系の座標位置Pcとして導出する。カメラ5のディストーションの特性を示すデータは、予め記憶部24に記憶されている。
Since the lens of the
次に、パラメータ導出部21cは、設置パラメータであるパン角α,チルト角β,ロール角γのそれぞれに仮値を設定する(ステップS22)。そして、パラメータ導出部21cは、設置パラメータの仮値を用いて、後述する評価値Eを導出する(ステップS24)。パラメータ導出部21cは、この仮値の組み合わせを変更しつつ(ステップS27)、評価値Eの導出(ステップS24)を繰り返す。そして、予め設定された範囲の仮値の全ての組み合わせについて評価値Eを導出し、評価値Eが最も低くなる仮値の組み合わせを設置パラメータとして導出するようになっている(ステップS28)。パン角α,チルト角β,ロール角γのそれぞれの仮値は、基準となる角度を中心として例えば−10°〜+10°の範囲で、ループごとの増加量を例えば0.1°として変更される(ステップS27)。
Next, the
設置パラメータに仮値が設定されると(ステップS22)、パラメータ導出部21cは、カメラ座標系の座標位置Pcで表される複数のオプティカルフローOPそれぞれの始点及び終点の位置を、車両座標系の座標位置Pwに変換する(ステップS23)。この変換には、前述した数1が用いられる。パラメータ導出部21cは、数1の変換行列M(数5)に含まれるα,β,γに、ステップS22で設定した仮値を代入して利用する。
When a provisional value is set for the installation parameter (step S22), the
これにより、複数のオプティカルフローOPそれぞれの始点及び終点の位置が、車両座標系の座標位置Pwで表される。パラメータ導出部21cは、このように車両座標系の座標位置Pwで表されたオプティカルフローOPの始点から終点へ向かうベクトルVを導出する。このようにして、パラメータ導出部21cは、注目カメラ5の撮影画像から抽出された複数のオプティカルフローOPを、車両座標系の複数のベクトルVにそれぞれ変換する。
Thus, the position of each of the plurality of optical flow OP start and end points are represented by coordinates P w of the vehicle coordinate system.
例えば、図12に示すように、左サイドカメラ5Lで得られた撮影画像GLから抽出された複数のオプティカルフローOPは、車両座標系における車両9の左側に相当する位置の複数のベクトルVに変換されることになる。なお、図12においては、車両座標系のベクトルVの始点及び終点の符号を、その始点あるいは終点に対応する撮影画像GL中の特徴点の符号と同一としている。また、図12中では、説明の便宜上、2つのベクトルVのみを示しているが、実際には、注目カメラ5に係るベクトルVとして図7のステップS15で用いた閾値以上の数のベクトルVが存在している。
For example, as shown in FIG. 12, a plurality of optical flows OP extracted from the captured image GL obtained by the
2つの撮影画像を撮影する際に車両9は直進したため、このように変換された車両座標系の複数のベクトルVは、理想的には車両9の前後方向に沿うはずである。この原理に基づいて、評価値Eを定める変数となる第1変数E1は、注目カメラ5に係る複数のベクトルVが車両9の前後方向に一致するほど小さくなるように設定される。第1変数E1は、車両9の前後方向と複数のベクトルVとの関係に基いて導出される変数であるともいえる。
Since the
具体的には、図13に示すように、各ベクトルVをx軸方向(左右方向)とy軸方向(前後方向)とに分解し、それぞれの長さをVx,Vyとする。そして、注目カメラ5に係るベクトルVの数をnとし、n個のベクトルVi(i=1〜n)それぞれのx軸方向の長さVxをVxiとすると、第1変数E1は、次の数6で表される。
Specifically, as shown in FIG. 13, each vector V is decomposed into the x-axis direction (left-right direction) and the y-axis direction (front-back direction), and the respective lengths are set as V x and V y . When the number of vectors V related to the camera of
具体的には、次の数7に示すように、ベクトルVの長さをDとする。 Specifically, the length of the vector V is set to D as shown in the following equation (7).
次に、パラメータ導出部21cは、今回導出した評価値Eを、過去に導出済の評価値Eの最小値と比較する。この評価値Eの最小値は、制御部21のRAMなどに記憶される。そして、パラメータ導出部21cは、今回の評価値Eが過去に導出済の評価値Eの最小値よりも小さい場合は、最小値を更新して今回の評価値Eを新たな最小値とする(ステップS25)。
Next, the
このようなステップS23〜S25の処理は、設置パラメータへ設定する仮値の組み合わせごとに繰り返される。そして、仮値の全ての組み合わせについて処理が終了した場合は(ステップS26にてYes)、その時点で最小値となった評価値Eに対応する仮値の組み合わせが、実際の設置パラメータ(パン角α,チルト角β,ロール角γ)に最も近いことになる。このため、パラメータ導出部21cは、この仮値の組み合わせを、実際の設置パラメータ24aとして導出する(ステップS28)。パラメータ導出部21cは、導出した設置パラメータ24aを、注目カメラ5に関連付けて記憶部24に記録する(ステップS29)
以上のように、本実施の形態の車載装置2では、画像取得部22が、車両9が備えるカメラ5で車両9の走行中の異なる時点に撮影された2つの撮影画像を取得する。車載装置2のフロー抽出部21aは、2つの撮影画像間での特徴点の動きを示す複数のオプティカルフローOPを抽出し、複数のオプティカルフローOPを車両9を基準とした車両座標系の複数のベクトルVにそれぞれ変換する。そして、パラメータ導出部21cは、複数のベクトルVに基いて、カメラ5の設置に関する設置パラメータを導出する。
Such processing of steps S23 to S25 is repeated for each combination of temporary values set in the installation parameters. If the processing is completed for all combinations of temporary values (Yes in step S26), the combination of temporary values corresponding to the evaluation value E that is the minimum value at that time is the actual installation parameter (pan angle). α, tilt angle β, roll angle γ). For this reason, the
As described above, in the in-
このため、車載装置2は、車両9の周辺に特徴点として現れる被写体の点が存在しさえすれば設置パラメータを導出できる。したがって、作業場に特定のマーカ等を正確に配置するなどの困難な条件を必要とすることなく、設置パラメータを容易に導出することができる。
For this reason, the in-
また、設置パラメータの導出に用いる2つの撮影画像は、車両9の直進中に撮影される。このため、キャリブレーション処理を行う際には、作業員は、車両9を単純に直進させればよいため、容易に設置パラメータを導出できる。
The two captured images used for derivation of the installation parameters are captured while the
また、パラメータ導出部21cは、車両9の前後方向と複数のベクトルVとの関係に基いて設置パラメータを導出する。このため、比較的単純な手法で、設置パラメータを導出できる。
The
また、パラメータ導出部21cは、複数の撮影画像それぞれの撮影時点の相互間において車両が移動した移動距離D0を導出し、移動距離D0と複数のベクトルVとの関係に基いて設置パラメータを導出する。このように車両9が実際に移動した移動距離D0を用いることで、精度の高い設置パラメータを導出できる。
The
<7.変形例>
以上、本発明の実施の形態について説明してきたが、この発明は上記実施の形態に限定されるものではなく様々な変形が可能である。以下では、このような変形例について説明する。上記実施の形態及び以下で説明する形態を含む全ての形態は、適宜に組み合わせ可能である。
<7. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and various modifications are possible. Below, such a modification is demonstrated. All the forms including the above-described embodiment and the form described below can be appropriately combined.
上記実施の形態では、移動距離D0と複数のベクトルVとの関係に基いて第2変数E2を求めていたが、移動距離D0を用いなくてもよい。車両座標系の複数のベクトルVの長さDは、理想的には全て一致するはずである。この原理に基づいて、複数のベクトルVの長さDのばらつきの程度を示す分散や標準偏差などを、第2変数E2としてもよい。例えば、n個のベクトルVi(i=1〜n)の長さDiの分散を第2変数E2とする場合は、第2変数E2は次の数10で表される。数10において、DAは長さDi(i=1〜n)の平均値である。 In the above embodiment, the second variable E 2 is obtained based on the relationship between the movement distance D 0 and the plurality of vectors V, but the movement distance D 0 may not be used. The lengths D of the plurality of vectors V in the vehicle coordinate system should ideally all match. Based on this principle, such as variance or standard deviation showing the degree of variation of the length D of a plurality of vectors V, or the second variable E 2. For example, if the n vectors V i (i = 1 to n) of length D second variable E 2 the variance of the i, the second variable E 2 is represented by the following equation 10. In Equation 10, D A is an average value of lengths D i (i = 1 to n).
また、上記実施の形態では、2つの撮影画像を撮影する際に車両9を直進させると説明したが、一定の舵角で旋回させてもよい。この場合は、図14に示すように、車両9の舵角とホイールベースの長さとに基いて車両9の旋回中心RCを定めることができる。さらに、車両9の実際の移動距離に基いて、旋回中心RCを中心とした車両9の実際の旋回角度θ0を求めることができる。オプティカルフローOPを変換した車両座標系のベクトルVの始点及び終点並びに旋回中心RCで三角形を形成した場合、理想的には、旋回中心RCとなる三角形の頂点の内角θは実際の旋回角度θ0と一致するはずである。この原理に基いて、この場合は、n個のベクトルVi(i=1〜n)それぞれに関する内角θをθiとして、次の数11で表される評価値Eを用いることができる。なお、この場合も、内角θiのばらつきの程度を示す分散や標準偏差などを評価値Eとしてもよい。
In the above-described embodiment, it has been described that the
また、上記実施の形態では、床面(路面)上の被写体点を、設置パラメータの導出に用いるものとして説明した。これに対して、距離センサ等で被写体点までの距離が分かる場合は、床面上ではない被写体点を設置パラメータの導出に用いてもよい。この場合は、被写体点の高さが分かるため、その高さを考慮して車両座標系への変換を行えばよい。また、被写体点までの距離が分かる場合は、床面上に存在していない被写体点を処理の対象から排除してもよい。 In the above embodiment, the object point on the floor (road surface) has been described as being used for derivation of the installation parameter. On the other hand, when the distance to the subject point is known by a distance sensor or the like, a subject point that is not on the floor may be used for derivation of the installation parameter. In this case, since the height of the subject point is known, the conversion to the vehicle coordinate system may be performed in consideration of the height. When the distance to the subject point is known, subject points that do not exist on the floor may be excluded from the processing target.
また、上記実施の形態においては、複数のカメラ5の設置パラメータを導出していたが、一つのカメラ5の設置パラメータを導出する場合であっても上述した手法を適用可能である。
In the above-described embodiment, the installation parameters for a plurality of
また、上記実施の形態において一つのブロックとして説明した機能は必ずしも単一の物理的要素によって実現される必要はなく、分散した物理的要素によって実現されてよい。また、上記実施の形態で複数のブロックとして説明した機能は単一の物理的要素によって実現されてもよい。また、車両内の装置と車両外の装置とに任意の一つの機能に係る処理を分担させ、これら装置間において通信によって情報の交換を行うことで、全体として当該一つの機能が実現されてもよい。 In addition, the function described as one block in the above embodiment is not necessarily realized by a single physical element, and may be realized by distributed physical elements. Further, the functions described as a plurality of blocks in the above embodiments may be realized by a single physical element. In addition, even if the device in the vehicle and the device outside the vehicle share processing related to any one function and exchange information by communication between these devices, the one function can be realized as a whole. Good.
また、上記実施の形態においてプログラムの実行によってソフトウェア的に実現されると説明した機能の全部又は一部は電気的なハードウェア回路により実現されてもよく、ハードウェア回路によって実現されると説明した機能の全部又は一部はソフトウェア的に実現されてもよい。また、上記実施の形態において一つのブロックとして説明した機能が、ソフトウェアとハードウェアとの協働によって実現されてもよい。 In addition, it has been described that all or part of the functions described as being realized by software by executing the program in the above embodiment may be realized by an electrical hardware circuit or by a hardware circuit. All or part of the functions may be realized by software. Further, the function described as one block in the above-described embodiment may be realized by cooperation of software and hardware.
2 車載装置
5 カメラ
9 車両
21 制御部
22 画像取得部
24a 設置パラメータ
24b プログラム
2 On-
Claims (6)
車両が備えるカメラで前記車両の直進走行中の異なる時点に撮影された複数の撮影画像を取得する取得手段と、
前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する手段と、
前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する抽出手段と、
前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する変換手段と、
前記第2ベクトルが前記車両の前後方向に一致するほど小さくなる第1変数と、前記第2ベクトルの長さが前記移動距離と一致するほど小さくなる第2変数とを用いて評価値を導出する手段と、
前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する導出手段と、
を備えることを特徴とするパラメータ取得装置。 A parameter acquisition device for acquiring camera parameters,
An acquisition means for acquiring a plurality of captured images taken at different points in time when the vehicle is traveling straight ahead with a camera provided in the vehicle;
Means for deriving a travel distance traveled by the vehicle based on the time between each of the captured images and the speed of the vehicle;
Extraction means for extracting a first vector shows the movement of feature points among the plurality of captured images,
Conversion means for converting the first vector into a second vector of a vehicle coordinate system based on the vehicle based on a provisional value of an installation parameter relating to the installation of the camera ;
An evaluation value is derived using a first variable that decreases as the second vector matches the longitudinal direction of the vehicle and a second variable that decreases as the length of the second vector matches the moving distance. Means,
Derivation means for deriving the provisional value with the smallest evaluation value as the installation parameter ;
A parameter acquisition device comprising:
車両が備えるカメラで前記車両の旋回走行中の異なる時点に撮影された複数の撮影画像を取得する取得手段と、Obtaining means for obtaining a plurality of photographed images photographed at different points during turning of the vehicle by a camera provided in the vehicle;
前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する手段と、Means for deriving a travel distance traveled by the vehicle based on the time between each of the captured images and the speed of the vehicle;
前記車両の舵角とホイールベースの長さとに基づいて前記車両の旋回中心を定め、該旋回中心を中心とした前記車両の旋回角度を、前記移動距離に基づいて導出する手段と、Means for determining a turning center of the vehicle based on a steering angle of the vehicle and a length of a wheel base, and deriving a turning angle of the vehicle based on the turning center based on the movement distance;
前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する抽出手段と、Extraction means for extracting a first vector indicating the movement of a feature point between the plurality of captured images;
前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する変換手段と、Conversion means for converting the first vector into a second vector of a vehicle coordinate system based on the vehicle based on a provisional value of an installation parameter relating to the installation of the camera;
前記第2ベクトルの始点及び終点、並びに、前記旋回中心で形成される三角形の該旋回中心に対応する頂点の内角が、前記旋回角度に一致するほど小さくなる評価値を導出する手段と、Means for deriving an evaluation value that becomes smaller as the inner angle of the vertex corresponding to the turning center of the triangle formed by the starting point and the end point of the second vector and the turning center coincides with the turning angle;
前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する導出手段と、Derivation means for deriving the provisional value with the smallest evaluation value as the installation parameter;
を備えることを特徴とするパラメータ取得装置。A parameter acquisition device comprising:
(a)車両が備えるカメラで前記車両の直進走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(A) acquiring a plurality of captured images taken at different points in time while the vehicle is traveling straight ahead with a camera included in the vehicle;
(b)前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する工程と、(B) deriving a travel distance traveled by the vehicle based on the time between each of the captured images and the speed of the vehicle;
(c)前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する工程と、(C) extracting a first vector indicating the movement of the feature point between the plurality of captured images;
(d)前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する工程と、(D) converting the first vector into a second vector in a vehicle coordinate system based on the vehicle based on a provisional value of an installation parameter relating to the installation of the camera;
(e)前記第2ベクトルが前記車両の前後方向に一致するほど小さくなる第1変数と、前記第2ベクトルの長さが前記移動距離と一致するほど小さくなる第2変数とを用いて評価値を導出する工程と、(E) An evaluation value using a first variable that decreases as the second vector matches the longitudinal direction of the vehicle, and a second variable that decreases as the length of the second vector matches the moving distance. Deriving
(f)前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する工程と、(F) deriving the provisional value with the smallest evaluation value as the installation parameter;
を備えることを特徴とするパラメータ取得方法。A parameter acquisition method comprising:
(a)車両が備えるカメラで前記車両の旋回走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(A) acquiring a plurality of photographed images photographed at different times during turning of the vehicle with a camera provided in the vehicle;
(b)前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する工程と、(B) deriving a travel distance traveled by the vehicle based on the time between each of the captured images and the speed of the vehicle;
(c)前記車両の舵角とホイールベースの長さとに基づいて前記車両の旋回中心を定め、該旋回中心を中心とした前記車両の旋回角度を、前記移動距離に基づいて導出する工程と、(C) determining a turning center of the vehicle based on a steering angle of the vehicle and a length of a wheel base, and deriving a turning angle of the vehicle based on the turning center based on the moving distance;
(d)前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する工程と、(D) extracting a first vector indicating a motion of a feature point between the plurality of captured images;
(e)前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する工程と、(E) converting the first vector into a second vector in a vehicle coordinate system based on the vehicle based on a provisional value of an installation parameter relating to the installation of the camera;
(f)前記第2ベクトルの始点及び終点、並びに、前記旋回中心で形成される三角形の該旋回中心に対応する頂点の内角が、前記旋回角度に一致するほど小さくなる評価値を導出する工程と、(F) deriving an evaluation value that becomes smaller as the starting angle and the ending point of the second vector and the interior angle of the vertex corresponding to the turning center of the triangle formed by the turning center coincide with the turning angle; ,
(g)前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する工程と、(G) deriving the provisional value with the smallest evaluation value as the installation parameter;
を備えることを特徴とするパラメータ取得方法。A parameter acquisition method comprising:
前記コンピュータに、In the computer,
(a)車両が備えるカメラで前記車両の直進走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(A) acquiring a plurality of captured images taken at different points in time while the vehicle is traveling straight ahead with a camera included in the vehicle;
(b)前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する工程と、(B) deriving a travel distance traveled by the vehicle based on the time between each of the captured images and the speed of the vehicle;
(c)前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する工程と、(C) extracting a first vector indicating the movement of the feature point between the plurality of captured images;
(d)前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する工程と、(D) converting the first vector into a second vector in a vehicle coordinate system based on the vehicle based on a provisional value of an installation parameter relating to the installation of the camera;
(e)前記第2ベクトルが前記車両の前後方向に一致するほど小さくなる第1変数と、前記第2ベクトルの長さが前記移動距離と一致するほど小さくなる第2変数とを用いて評価値を導出する工程と、(E) An evaluation value using a first variable that decreases as the second vector matches the longitudinal direction of the vehicle, and a second variable that decreases as the length of the second vector matches the moving distance. Deriving
(f)前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する工程と、(F) deriving the provisional value with the smallest evaluation value as the installation parameter;
を実行させることを特徴とするプログラム。A program characterized by having executed.
前記コンピュータに、In the computer,
(a)車両が備えるカメラで前記車両の旋回走行中の異なる時点に撮影された複数の撮影画像を取得する工程と、(A) acquiring a plurality of photographed images photographed at different times during turning of the vehicle with a camera provided in the vehicle;
(b)前記複数の撮影画像それぞれの撮影時点の相互間と前記車両の速度とに基づいて、前記車両が移動した移動距離を導出する工程と、(B) deriving a travel distance traveled by the vehicle based on the time between each of the captured images and the speed of the vehicle;
(c)前記車両の舵角とホイールベースの長さとに基づいて前記車両の旋回中心を定め、該旋回中心を中心とした前記車両の旋回角度を、前記移動距離に基づいて導出する工程と、(C) determining a turning center of the vehicle based on a steering angle of the vehicle and a length of a wheel base, and deriving a turning angle of the vehicle based on the turning center based on the moving distance;
(d)前記複数の撮影画像間での特徴点の動きを示す第1ベクトルを抽出する工程と、(D) extracting a first vector indicating a motion of a feature point between the plurality of captured images;
(e)前記カメラの設置に関する設置パラメータの仮値に基づいて、前記第1ベクトルを前記車両を基準とした車両座標系の第2ベクトルに変換する工程と、(E) converting the first vector into a second vector in a vehicle coordinate system based on the vehicle based on a provisional value of an installation parameter relating to the installation of the camera;
(f)前記第2ベクトルの始点及び終点、並びに、前記旋回中心で形成される三角形の該旋回中心に対応する頂点の内角が、前記旋回角度に一致するほど小さくなる評価値を導出する工程と、(F) deriving an evaluation value that becomes smaller as the starting angle and the ending point of the second vector and the interior angle of the vertex corresponding to the turning center of the triangle formed by the turning center coincide with the turning angle; ,
(g)前記評価値が最も小さくなる前記仮値を、前記設置パラメータとして導出する工程と、(G) deriving the provisional value with the smallest evaluation value as the installation parameter;
を実行させることを特徴とするプログラム。A program characterized by having executed.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013037064A JP6151535B2 (en) | 2013-02-27 | 2013-02-27 | Parameter acquisition apparatus, parameter acquisition method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013037064A JP6151535B2 (en) | 2013-02-27 | 2013-02-27 | Parameter acquisition apparatus, parameter acquisition method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014165810A JP2014165810A (en) | 2014-09-08 |
JP6151535B2 true JP6151535B2 (en) | 2017-06-21 |
Family
ID=51616014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013037064A Active JP6151535B2 (en) | 2013-02-27 | 2013-02-27 | Parameter acquisition apparatus, parameter acquisition method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6151535B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017139612A (en) * | 2016-02-03 | 2017-08-10 | パナソニックIpマネジメント株式会社 | On-vehicle camera calibration system |
JP2017158142A (en) * | 2016-03-04 | 2017-09-07 | 株式会社デンソー | Calibration device |
JP6768554B2 (en) * | 2017-02-22 | 2020-10-14 | クラリオン株式会社 | Calibration device |
JP6798926B2 (en) * | 2017-04-13 | 2020-12-09 | クラリオン株式会社 | In-vehicle camera calibration device |
JP6932058B2 (en) | 2017-10-11 | 2021-09-08 | 日立Astemo株式会社 | Position estimation device and position estimation method for moving objects |
JP7137464B2 (en) * | 2018-12-26 | 2022-09-14 | 株式会社デンソーアイティーラボラトリ | Camera calibration device, camera calibration method, and program |
JP7445415B2 (en) | 2019-05-29 | 2024-03-07 | 株式会社デンソーテン | Posture estimation device, abnormality detection device, correction device, and posture estimation method |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3776094B2 (en) * | 2002-05-09 | 2006-05-17 | 松下電器産業株式会社 | Monitoring device, monitoring method and monitoring program |
JP4879031B2 (en) * | 2007-01-11 | 2012-02-15 | 三洋電機株式会社 | Driving support system, image processing apparatus, and deviation detection method |
JP2009129001A (en) * | 2007-11-20 | 2009-06-11 | Sanyo Electric Co Ltd | Operation support system, vehicle, and method for estimating three-dimensional object area |
JP2011217233A (en) * | 2010-04-01 | 2011-10-27 | Alpine Electronics Inc | On-vehicle camera calibration system, and computer program |
JP5820787B2 (en) * | 2012-08-30 | 2015-11-24 | 株式会社デンソー | Image processing apparatus and program |
-
2013
- 2013-02-27 JP JP2013037064A patent/JP6151535B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014165810A (en) | 2014-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6151535B2 (en) | Parameter acquisition apparatus, parameter acquisition method and program | |
JP7245295B2 (en) | METHOD AND DEVICE FOR DISPLAYING SURROUNDING SCENE OF VEHICLE-TOUCHED VEHICLE COMBINATION | |
JP5341789B2 (en) | Parameter acquisition apparatus, parameter acquisition system, parameter acquisition method, and program | |
JP6603094B2 (en) | Calibration apparatus, calibration method, and calibration program | |
JP4636346B2 (en) | Car camera calibration apparatus, method, and program | |
KR101265667B1 (en) | Device for 3d image composition for visualizing image of vehicle around and method therefor | |
JP5455124B2 (en) | Camera posture parameter estimation device | |
KR101617956B1 (en) | Image processing apparatus, method, and recording medium | |
JP2009288152A (en) | Calibration method of on-vehicle camera | |
JP5959311B2 (en) | Data deriving apparatus and data deriving method | |
CN107249934B (en) | Method and device for displaying vehicle surrounding environment without distortion | |
CN111819571A (en) | Panoramic looking-around system with adjusted and adapted projection surface | |
JP2008085710A (en) | Driving support system | |
US20170024851A1 (en) | Panel transform | |
EP3326146B1 (en) | Rear cross traffic - quick looks | |
JP6776440B2 (en) | How to assist the driver of a motor vehicle when driving a motor vehicle, driver assistance system and motor vehicle | |
JP5173551B2 (en) | Vehicle perimeter monitoring apparatus and camera mounting position / posture information setting correction method applied thereto | |
JP6375633B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
KR20200118073A (en) | System and method for dynamic three-dimensional calibration | |
JP5827095B2 (en) | Calibration system, parameter acquisition apparatus, marker, and parameter acquisition method | |
JP7074546B2 (en) | Image processing equipment and methods | |
JP7196920B2 (en) | Driving support device, driving support method, and program | |
US20220222947A1 (en) | Method for generating an image of vehicle surroundings, and apparatus for generating an image of vehicle surroundings | |
JP6855254B2 (en) | Image processing device, image processing system, and image processing method | |
JP2013207622A (en) | Calibration device and calibration method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160920 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170525 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6151535 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |