JP2013257244A - Distance measurement device, distance measurement method, and distance measurement program - Google Patents
Distance measurement device, distance measurement method, and distance measurement program Download PDFInfo
- Publication number
- JP2013257244A JP2013257244A JP2012134158A JP2012134158A JP2013257244A JP 2013257244 A JP2013257244 A JP 2013257244A JP 2012134158 A JP2012134158 A JP 2012134158A JP 2012134158 A JP2012134158 A JP 2012134158A JP 2013257244 A JP2013257244 A JP 2013257244A
- Authority
- JP
- Japan
- Prior art keywords
- distance
- position parameter
- viewpoints
- camera
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Abstract
Description
本発明は、距離測定装置、距離測定方法、及び距離測定プログラムに関する。 The present invention relates to a distance measuring device, a distance measuring method, and a distance measuring program.
車両から障害物や対象物などに至る距離を測定するために、車両に搭載した複数のカメラ(ステレオカメラ)によって撮影された画像に基づいて、三角測量の原理を用いて距離を測定する多眼距離測定方法が知られている。この方法では、複数のカメラが所定の位置関係にあることを前提として、距離の測定を行う。しかし、上記所定の位置は、車両の走行中の振動、衝撃、気温の変動等で、変化するので、正確な距離測定を行うためには、キャリブレーション(校正)を行って上記距離の測定の精度を保つことが必須である。 Multi-lens that measures the distance from a vehicle to obstacles and objects using the principle of triangulation based on images taken by multiple cameras (stereo cameras) mounted on the vehicle A distance measuring method is known. In this method, distance is measured on the assumption that a plurality of cameras are in a predetermined positional relationship. However, since the predetermined position changes due to vibrations, impacts, fluctuations in temperature, etc. during travel of the vehicle, in order to perform accurate distance measurement, calibration (calibration) is performed to measure the distance. It is essential to maintain accuracy.
キャリブレーション方法として、専用のマーカを利用する方法が知られている。この方法では、複数のカメラで形状既知の専用マーカを撮影し、各カメラと専用マーカ間の相対位置を算出することでカメラ間の相対位置を算出する。しかし、専用マーカを利用する方法では、キャリブレーションの度に専用マーカを撮影するため、専用マーカを特別に設置する等の取り扱いが煩雑になる。そこで、専用マーカの代わりに自動車登録番号標(ナンバープレート)や道路標示(例えば、交通信号機)などの道路上に多く存在しかつ形状が既知の物体を利用してキャリブレーションを行う方法が提案されている。
例えば、特許文献1には、光学系と撮像素子とから構成される複数のカメラで得たステレオ画像に基づいて距離を検出する距離検出装置におけるずれを検出する方法であって、前記光学系を介して前記撮像素子に撮像された既知物体像から前記既知物体までの第1距離値を求め、次いで、第1距離値と、前記ステレオ画像から検出した前記既知物体までの第2距離値と、を比較することで、前記距離検出装置におけるずれを検出する方法が記載されている。
As a calibration method, a method using a dedicated marker is known. In this method, a dedicated marker having a known shape is photographed by a plurality of cameras, and the relative position between the cameras is calculated by calculating the relative position between each camera and the dedicated marker. However, in the method using the dedicated marker, since the dedicated marker is photographed every time calibration is performed, handling such as special installation of the dedicated marker becomes complicated. Therefore, a method has been proposed in which calibration is performed using an object that exists on the road and has a known shape, such as a car registration number (number plate) or a road sign (for example, traffic signal) instead of a dedicated marker. ing.
For example,
しかしながら、特許文献1に記載の距離検出装置には、被写体となる物体の特性により撮影が制限される場合があり、その場合にはキャリブレーションを行うことができない。例えば、既知物体としてナンバープレートを利用する場合において、当該距離検出装置はナンバープレートを、同一の方向で撮影する場合が多い。そのため、車両の右左折に伴う回転の場合を除いて、光学系の光軸の方向とナンバープレートの方向との間における角度がほぼ一定である。つまり、撮影したときの条件が同様又は類似した画像が主に取得される。条件が同様又は類似した画像を複数回使用してその平均を取ることでキャリブレーションを行うことは、1つの画像のみを使用してキャリブレーションを行うことに近似するものとなり、このため、カメラからナンバープレートの方向を高精度に推定することができず、ひいては高精度のキャリブレーションを行うことができない。また、特許文献1には、カメラ間の位置関係を示すパラメータの補正を行う処理を採用していない。
本発明の目的は、キャリブレーションにおいて、カメラ位置パラメータの補正精度を向上させる距離測定装置、距離測定方法、及び距離測定プログラムを提供することである。
However, in the distance detection device described in
An object of the present invention is to provide a distance measuring device, a distance measuring method, and a distance measuring program that improve the correction accuracy of camera position parameters in calibration.
(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、予め定めた物体の画像に係るパターン情報を記憶しておき、複数視点の入力画像信号が表す画像に基づいて前記パターン情報に係る物体である既知物体の位置を検出する既知物体検出部と、前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める対応検出部と、前記既知物体検出部が検出した既知物体の位置と前記対応検出部が定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する位置パラメータ算出部と、前記位置パラメータ算出部が算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する距離算出部と、を備えることを特徴とする距離測定装置である。 (1) The present invention has been made to solve the above-described problems, and one aspect of the present invention stores pattern information related to a predetermined object image, and input image signals from a plurality of viewpoints are stored. A known object detection unit that detects the position of a known object that is an object related to the pattern information based on an image to be represented, and a significant parallax cannot be detected between the plurality of viewpoints from each image represented by the input image signal of the plurality of viewpoints A correspondence detection unit that detects a multi-lens infinity region, which is a region in an image representing an object at multi-lens infinity, and determines correspondence information indicating a correspondence relationship between viewpoints of the multi-lens infinity region; and the known A position parameter calculating unit that calculates a position parameter indicating a positional relationship between the plurality of viewpoints based on the position of the known object detected by the object detecting unit and the correspondence relationship information determined by the correspondence detecting unit; Using the position parameter calculator has calculated, the distance measuring apparatus characterized by comprising: a distance calculation unit that calculates a distance to the object represented by the input image of the plurality of viewpoints.
(2)本発明の他の態様は、上述の距離測定装置であって、入力された速度情報に基づいて前記複数視点が停止しているか否かを判断する速度監視部を備え、前記速度監視部が、前記複数視点が停止していると判断したとき、前記位置パラメータ算出部は前記位置パラメータを算出することを特徴とする。 (2) Another aspect of the present invention is the distance measuring device described above, comprising a speed monitoring unit that determines whether or not the plurality of viewpoints are stopped based on the input speed information, and the speed monitoring When the unit determines that the plurality of viewpoints are stopped, the position parameter calculation unit calculates the position parameter.
(3)本発明の他の態様は、上述の距離測定装置であって、前記位置パラメータ算出部が算出した位置パラメータを記憶する位置パラメータ記憶部と、前記位置パラメータ算出部が算出した位置パラメータに基づいて算出した物体までの第1の距離と、前記位置パラメータ記憶部が記憶する位置パラメータに基づいて算出した当該物体までの第2の距離のうち、前記距離算出部が算出した当該物体までの第3の距離に前記第1の距離の方がより近似すると判定したとき、前記位置パラメータ算出部が算出した位置パラメータを前記位置パラメータ記憶部に記憶させる位置パラメータ判定部と、を備えることを特徴とする。 (3) Another aspect of the present invention is the above-described distance measuring device, wherein the position parameter storage unit stores the position parameter calculated by the position parameter calculation unit, and the position parameter calculated by the position parameter calculation unit. Of the first distance to the object calculated based on the second distance to the object calculated based on the position parameter stored in the position parameter storage unit, the distance to the object calculated by the distance calculation unit A position parameter determination unit that stores the position parameter calculated by the position parameter calculation unit in the position parameter storage unit when it is determined that the first distance is closer to the third distance. And
(4)本発明の他の態様は、上述の距離測定装置であって、前記既知物体検出部が前記多眼無限遠よりも近い距離に前記複数視点の入力画像信号に基づいて前記既知物体を検出しなかったとき、前記対応検出部は前記多眼無限遠領域を検出することを特徴とする。 (4) Another aspect of the present invention is the distance measurement apparatus described above, wherein the known object detection unit is configured to detect the known object based on the input image signals of the plurality of viewpoints at a distance closer to the multiview infinity. When not detected, the correspondence detection unit detects the multi-lens infinity region.
(5)本発明の他の態様は、上述の距離測定装置であって、前記既知物体検出部及び前記対応検出部は、前記速度監視部において前記複数視点が停止していると判断したときに入力された複数視点の入力画像信号を用いて、それぞれ前記既知物体の位置を検出し、前記対応関係情報を定めることを特徴とする。 (5) Another aspect of the present invention is the distance measurement device described above, wherein the known object detection unit and the correspondence detection unit determine that the plurality of viewpoints are stopped in the speed monitoring unit. The correspondence information is determined by detecting the positions of the known objects using the input image signals of a plurality of viewpoints.
(6)本発明の他の態様は、上述の距離測定装置であって、照明装置に対して光を放射するか否かを制御する照明制御部を備え、前記対応検出部は、前記照明装置が光を放射したときに入力された点灯時の入力画像信号と、前記照明装置が光を放射しないときに入力された消灯時の入力画像信号とに基づいて前記多眼無限遠領域を検出することを特徴とする。 (6) Another aspect of the present invention is the distance measuring device described above, including an illumination control unit that controls whether light is emitted to the illumination device, wherein the correspondence detection unit is the illumination device. The multi-lens infinity region is detected based on an input image signal at the time of lighting input when the light source emits light and an input image signal at the time of turn-off input when the lighting device does not emit light. It is characterized by that.
(7)本発明の他の態様は、上述の距離測定装置であって、前記点灯時の入力画像信号と前記消灯時の入力画像信号の少なくとも一方が表す画像に係る物体の明るさが、前記点灯時の入力画像信号と前記消灯時の入力画像信号との間で、信号値の差が予め定めた値よりも大きくなる明るさである場合、前記多眼無限遠領域を検出することを特徴とする。 (7) Another aspect of the present invention is the distance measurement device described above, wherein the brightness of an object related to an image represented by at least one of the input image signal when the light is turned on and the input image signal when the light is turned off is The multi-lens infinity region is detected when the difference between the signal values is larger than a predetermined value between the input image signal when turned on and the input image signal when turned off. And
(8)本発明の他の態様は、上述の距離測定装置であって、前記対応検出部は、前記速度監視部において前記複数視点が停止していると判断する直前に入力された前記複数視点の入力画像信号もしくは前記速度監視部において前記複数視点が停止していないと判断した直後に入力された前記複数視点の入力画像信号、及び前記速度監視部が、前記複数視点が停止していると判断しているときに入力された前記複数視点の入力画像信号に基づいて、前記多眼無限遠領域を検出することを特徴とする。 (8) Another aspect of the present invention is the above-described distance measuring device, wherein the correspondence detection unit is input the plurality of viewpoints immediately before the speed monitoring unit determines that the plurality of viewpoints are stopped. The input image signal of the plurality of viewpoints input immediately after it is determined that the plurality of viewpoints are not stopped in the speed monitoring unit, and the speed monitoring unit has the plurality of viewpoints stopped. The multi-lens infinity region is detected based on the input image signals of the plurality of viewpoints input at the time of determination.
(9)本発明の他の態様は、上述の距離測定装置であって、前記予め定めた物体は、自動車登録番号標であることを特徴とする。 (9) Another aspect of the present invention is the distance measuring device described above, wherein the predetermined object is an automobile registration number mark.
(10)本発明の他の態様は、距離測定装置における距離測定方法において、前記距離測定装置は、複数視点の入力画像信号が表す画像に基づいて予め定めた物体の画像に係るパターン情報に係る物体である既知物体の位置を検出する第1の過程と、前記距離測定装置は、前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める第2の過程と、前記距離測定装置は、前記検出した既知物体の位置と前記定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する第3の過程と、前記距離測定装置は、前記算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する第4の過程と、を有することを特徴とする距離測定方法である。 (10) According to another aspect of the present invention, in the distance measurement method in the distance measurement device, the distance measurement device relates to pattern information related to an image of an object determined in advance based on an image represented by an input image signal of a plurality of viewpoints. A first step of detecting a position of a known object that is an object, and the distance measuring device is capable of detecting a significant parallax between the plurality of viewpoints from each image represented by the input image signal of the plurality of viewpoints. A second step of detecting a multi-lens infinity region, which is an area in an image representing an object, and determining correspondence information indicating a correspondence relationship between viewpoints of the multi-lens infinity region; A third step of calculating a position parameter indicating a positional relationship between the plurality of viewpoints based on the detected position of the known object and the determined correspondence information; and the distance measuring device includes the calculated position parameter. Using the meter, a distance measuring method characterized by having a a fourth step of calculating the distance to the object represented by the input image of the plurality of viewpoints.
(11)本発明の他の態様は、距離測定装置における距離測定プログラムにおいて、複数視点の入力画像信号が表す画像に基づいて予め定めた物体の画像に係るパターン情報に係る物体である既知物体の位置を検出する第1の手順、前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める第2の手順、前記検出した既知物体の位置と前記定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する第3の手順、前記算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する第4の手順、を実行させるための距離測定プログラムである。 (11) According to another aspect of the present invention, in a distance measurement program in a distance measurement device, a known object that is an object related to pattern information related to an image of an object determined in advance based on an image represented by an input image signal of a plurality of viewpoints A first procedure for detecting a position, a multi-view that is an area in an image representing an object at multi-lens infinity that cannot detect a significant parallax between the multiple viewpoints from each image represented by the input image signals of the multiple viewpoints A second procedure for determining correspondence information indicating a correspondence relationship between viewpoints of the multi-lens infinity region, detecting the infinite region; Third procedure for calculating a position parameter indicating a positional relationship between viewpoints, and a fourth procedure for calculating a distance to an object represented by the input image of the plurality of viewpoints using the calculated position parameter. A distance measuring program for execution.
本発明によれば、距離測定装置、距離測定方法、及び距離測定プログラムにおいて、カメラ位置パラメータのキャリブレーションにおける補正精度が向上する。 According to the present invention, in the distance measuring device, the distance measuring method, and the distance measuring program, the correction accuracy in the calibration of the camera position parameter is improved.
以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本実施形態に係る距離測定装置1の構成例を表すブロック図である。
距離測定装置1は、撮影部11、車両速度検出部12及び距離測定部13を含んで構成される。撮影部11は、基準カメラ11A及び非基準カメラ11Bを含んで構成される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of a
The
撮影部11は、車両の後方の物体(障害物又は対象物)を撮影し、撮影した画像を示す画像信号を生成して、生成した画像信号をそれぞれ距離測定部13に出力する。
撮影部11の基準カメラA及び非基準カメラBは、それぞれカメラモジュールである。カメラモジュールは、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの固体撮像素子と、レンズなどの光学部品からなる光学系等を含んで構成される。カメラモジュールは、画角が広い超広角レンズや魚眼レンズを含んで構成されることができる。基準カメラA及び非基準カメラBの光軸は、平行であり、かつ、基線に対して垂直である。
撮影部11は、このようなレンズを備えるカメラモジュールを用いて広範な視野の画像を撮影することができる。
The
The reference camera A and the non-reference camera B of the
The
基準カメラ11Aは、2個のカメラモジュールのうち一方であって、後述する位置や処理の基準となるカメラモジュールである。非基準カメラ11Bは、他方のカメラモジュールである。撮影部11が左右のカメラモジュールからなるステレオカメラである場合、例えば、基準カメラ11Aは左側のカメラモジュールであり、非基準カメラ11Bは右側のカメラモジュールである。
基準カメラ11A、非基準カメラ11Bが備える光学系の特性は、カメラ内部パラメータで示される。カメラ内部パラメータには、焦点距離、センササイズ、レンズ歪み係数等がある。これらのパラメータは、いずれも既知のパラメータである。
以下の説明では、基準カメラ11A及び非基準カメラ11Bを総称して、単に「カメラ」と呼ぶことがある。カメラの位置とは、カメラが備える光学系の視点(レンズの焦点における撮像面)の位置を指す。視点は、被写体を視認する位置であり、カメラの位置を示すパラメータである。
なお、本実施形態では、基準カメラ11A及び非基準カメラ11Bとしてカメラモジュールの代わりに単体のカメラ(カメラユニット)を備えてもよい。基準カメラ11A及び非基準カメラ11Bの配置例については後述する。
The
The characteristics of the optical system provided in the
In the following description, the
In the present embodiment, a single camera (camera unit) may be provided instead of the camera module as the
車両速度検出部(速度検出部)12は、距離測定装置1を搭載する車両(以下、「自車両」と言うことがある。)の速度を検出する。車両速度検出部12は、既存の速度計から自車両の速度を示す電気的な速度信号を検出して、この信号を距離測定部13に出力する。
The vehicle speed detection unit (speed detection unit) 12 detects the speed of a vehicle (hereinafter also referred to as “own vehicle”) on which the
距離測定部13は、車両速度監視部(以下、「速度監視部」と言うことがある。)132、形状既知物体位置検出部(以下、「位置情報算出部」と言うことがある。)133、多眼無限遠対応検出部(以下、「領域対応検出部」と言うことがある。)134、カメラ位置パラメータ算出部(以下、「位置パラメータ算出部」と言うことがある。)135、カメラ位置パラメータ判定部(以下、「位置パラメータ判定部」と言うことがある。)136、カメラ位置パラメータ記憶部(以下、「位置パラメータ記憶部」と言うことがある。)137及び距離算出部138を含んで構成される。距離測定部13は、その他の構成部、即ち、撮影部11及び車両速度検出部12から着脱可能な単体の距離測定装置として構成されていてもよい。
The
車両速度監視部132は、車両速度検出部12から入力された速度信号に基づいて自車両が停止しているか否かを判断する。車両速度監視部132は、入力された速度信号が、速度が0(ゼロ)であることを示す場合に、自車両が停止していると判定して、停止信号を生成する。車両速度監視部132は、生成した停止信号を、形状既知物体位置検出部133及び多眼無限遠対応検出部134に出力する。車両速度監視部132は、入力された速度信号が、或る速度であることを示す場合に、走行信号を生成する。車両速度監視部132は、生成した走行信号を、形状既知物体位置検出部133及び多眼無限遠対応検出部134に出力する。
The vehicle
形状既知物体位置検出部133は、撮影部11から入力された画像信号に基づいて、各カメラに対する物体の相対位置を算出する。相対位置とは、基準となる物体(上述の例では、基準カメラ11A又は非基準カメラ11B)に対する対象の物体の3次元相対座標値であり、3次元相対角度値を含んでいてもよい。
形状既知物体位置検出部133は、車両速度監視部132から停止信号が入力されるとき、基準カメラ11Aおよび非基準カメラ11Bから画像信号を同時に受け入れる。
相対位置の算出対象となる物体は、形状既知物体である。形状既知物体とは形状及び大きさが既知の物体である。以下、形状既知物体が他の後続車両の「ナンバープレート」である場合を例にとって説明する。車両速度監視部132から停止信号が入力されるとき、形状既知物体位置検出部133は、相対位置の算出を行う。形状既知物体位置検出部133は、算出した相対位置を示す相対位置情報を生成し、生成した相対位置情報はカメラ位置パラメータ算出部135から読み出される。
The known shape object
When a stop signal is input from the vehicle
The object whose relative position is to be calculated is a known shape object. A known shape object is an object whose shape and size are known. Hereinafter, a case where the known shape object is a “number plate” of another succeeding vehicle will be described as an example. When a stop signal is input from the vehicle
多眼無限遠対応検出部134は、基準カメラ11Aおよび非基準カメラ11Bから入力された画像信号が表す画像から、後述する多眼無限遠の距離にある物体の画像を示す多眼無限遠領域をそれぞれ検出する。
以下、基準カメラ11Aから形状既知物体位置検出部133および多眼無限遠対応検出部134へ入力された画像信号を基準画像信号と呼び、基準画像信号が表す画像を基準画像と呼ぶ。非基準カメラ11Bから入力された画像信号を非基準画像信号と呼び、非基準画像信号が表す画像を非基準画像と呼ぶ。
多眼無限遠対応検出部134は、基準画像のうち検出した無限遠領域と、非基準画像のうち検出した無限遠領域との対応関係を示す多眼無限遠領域間対応情報(対応関係情報)を生成する。多眼無限遠領域間対応情報は、基準画像の無限遠領域に含まれる各座標と非基準画像の無限遠領域に含まれる座標との対応関係を示す情報である。つまり、多眼無限遠領域間対応情報は、基準画像の無限遠領域内に表された物体が表されている領域と、非基準画像の無限縁領域内において、その物体が表されている領域との対応関係を示す情報である。
多眼無限遠対応検出部134が生成した多眼無限遠領域間対応情報は、カメラ位置パラメータ算出部135から読み出される。多眼無限遠対応検出部134の構成については後述する。
The multi-lens infinity
Hereinafter, an image signal input from the
The multi-lens infinity
The correspondence information between multi-lens infinity regions generated by the multi-lens infinity
ここで、多眼無限遠とは、基準画像における座標と非基準画像における対応する座標の差が予め定めた画素数(例えば、1ピクセル)以下となる座標に対応する距離である。但し、基準カメラ11A及び非基準カメラBの光軸が互いに並行であり、それぞれのイメージセンサ(撮像素子)の水平方向が同一平面上にある場合を仮定する。つまり、多眼無限遠とは、互いに異なる視点で撮影された画像間の視差であって、当該視点間で有意な非零の視差が、検出されなくなる距離である。言い換えれば、画像間の視差に基づいて、各画像が表す物体の距離を判別できない遠い距離である。この距離は、カメラ間の位置関係、光学系,撮像系の特性(例えば画素ピッチ)に依存する。そのため、車両の発進、移動、停止の際の振動や時間の経過等に伴い基準カメラ11Aに対する非基準カメラ11Bの相対位置(例えば、光軸の平行度、間隔、等)が変化すると、基準画像及び非基準画像において、多眼無限遠に存在する物体を表す領域が変化する。そこで、形状既知物体の位置情報に加えて、後述するように多眼無限遠領域間対応情報を用いてカメラ間の相対位置(例えば、光軸の相対方向)を用いてカメラパラメータのキャリブレーション(校正)を行う。このキャリブレーションを行ったカメラパラメータを用いることによって、撮影された物体までの距離に対する算出精度を向上させることができる。なお、多眼無限遠でない距離、つまり互いに異なる視点で撮影された画像間の視差のうち、有意な視差が検出される距離を多眼有限遠と呼ぶ。
なお、基準カメラ11A、非基準カメラ11Bが視野角の広いレンズを備える場合、基準画像及び非基準画像のうち形状既知物体の画像が表される領域が小さくなる。そのため、形状既知物体の画像のみを用いてカメラパラメータのキャリブレーションを行うにしても、カメラ間の相対位置の算出精度が低くなる。そのため、カメラ間の相対位置を算出(後述)する際、多眼無限遠領域間対応情報を用いることによって算出精度を向上させることができる。
Here, the multi-lens infinity is a distance corresponding to coordinates at which the difference between the coordinates in the reference image and the corresponding coordinates in the non-reference image is equal to or less than a predetermined number of pixels (for example, 1 pixel). However, it is assumed that the optical axes of the
In addition, when the
なお、形状既知物体位置検出部133、多眼無限遠対応検出部134は、移動している自車両が停止したと判断された直後に入力された画像信号を、それぞれ上述の処理に用いるようにしてもよい。ここで、形状既知物体位置検出部133、多眼無限遠対応検出部134は、車両速度監視部132から入力される信号が走行信号から停止信号へと再び遷移した直後に入力された画像を、それぞれ次回行われる処理で用いる。これにより、停止中に同一の被写体を同様な条件で撮影した画像信号を用いて同様な処理を反復することが回避される。これにより、精度の向上に無用な処理が回避されるため消費電力を低減することができる。
Note that the known shape object
カメラ位置パラメータ算出部135は、形状既知物体位置検出部133から読み出した相対位置情報と多眼無限遠対応検出部134から読み出した多眼無限遠領域間対応情報に基づいて、カメラ位置パラメータを算出する。カメラ位置パラメータとは、カメラ間の相対位置の関係を示すパラメータである。つまり、カメラ位置パラメータは、基準カメラ11Aの視点を原点とした非基準カメラ11Bの視点の3次元相対座標値(X,Y,Z)と、基準カメラ11Aの光軸の方向を基準とした非基準カメラ11Bの光軸の方向の3次元相対角度値(θ,φ,ψ)からなる、計6個のパラメータを含む。
カメラ位置パラメータ算出部135は、算出したカメラ位置パラメータをカメラ位置パラメータ判定部136に出力する。カメラ位置パラメータを算出する処理については後述する。
The camera position
The camera position
カメラ位置パラメータ判定部136は、カメラ位置パラメータ算出部135から(新たに算出した)カメラ位置パラメータが入力され、カメラ位置パラメータ記憶部137から(キャリブレーションを行う前の)カメラ位置パラメータを読み出す。カメラ位置パラメータ判定部136は、入力されたカメラ位置パラメータと読み出したカメラ位置パラメータとを比較し、より適切なカメラ位置パラメータを判定し、より適切と判定したカメラ位置パラメータをカメラ位置パラメータ記憶部137に記憶する。カメラ位置パラメータ判定部136又はその他の構成部が行うカメラ位置パラメータ判定処理については後述する。
The camera position
距離算出部138は、カメラ位置パラメータ記憶部137に記憶されているカメラ位置パラメータを読み出し、基準カメラ11A、非基準カメラ11Bからそれぞれ画像信号が入力される。距離算出部138は、読み出したカメラ位置パラメータを用いて、基準カメラ11Aから入力された画像信号と非基準カメラ11Bから入力された画像信号に基づいて、基準画像の画素毎にその画像に表されている物体までの距離を算出する。距離算出部138は、算出した距離を表す距離信号を距離測定部13の外部に出力する。距離算出部138は、距離を算出する際、例えば三角測量の原理に基づく多眼距離測定方法を用いる。多眼距離測定方法については後述する。
The
(カメラの取付け位置の例)
次に、基準カメラ11A、非基準カメラ11Bの取付け位置の例について説明する。
図2は、本実施形態における基準カメラ11A、非基準カメラ11Bの取り付け位置を示す俯瞰図である。
図2の中央は、距離測定装置1を搭載する自車両21を示す。図2の左側が自車両21の後方を示し、図2の上下が自車両21の左右を示す。
図2において基準カメラ11A、非基準カメラ11Bは、自車両21の後方部に光軸を後方に向けて設置されている。基準カメラ11A、非基準カメラ11Bの左右方向及び高さ方向の座標は、互いにほぼ等しい。そのため、基準カメラ11Aの視野と非基準カメラ11Bの視野の大部分が重複し、重複した領域にある物体が基準画像、非基準画像間で共通になる。これにより、基準画像、非基準画像には、自車両21の後方の物体が表される。基準カメラ11A、非基準カメラ11Bとして、画角の大きいレンズを備えたカメラを用いて撮影された基準画像、非基準画像は、運転者が自車両21の後方の安全確認を行う上で好都合である。
(Example of camera mounting position)
Next, examples of attachment positions of the
FIG. 2 is an overhead view showing the attachment positions of the
The center of FIG. 2 shows the host vehicle 21 on which the
In FIG. 2, the
なお、図2に示す例では、基準カメラ11A、非基準カメラ11Bは、自車両21の後方部に光軸を後方に向けて設置されているが、本実施形態ではこれには限られない。基準カメラ11A、非基準カメラ11Bは、自車両21の前方部に光軸を前方に向けて設置されていれもよい。また、基準カメラ11A、非基準カメラ11Bは、自車両21の左側面に光軸を左側に向けて設置されていてもよいし、自車両21の右側面に光軸を右側に向けて設置されていてもよい。
In the example shown in FIG. 2, the
(形状既知物体位置検出部の構成例)
次に、本実施形態に係る形状既知物体位置検出部133の構成例について説明する。
図3は、本実施形態に係る形状既知物体位置検出部133の構成例を表すブロック図である。形状既知物体位置検出部133は、形状既知物体検出部(以下、「物体検出部」と言うことがある。)1331、形状既知物体位置算出部(以下、「物体位置算出部」と言うことがある。)1332及び形状既知物体位置記憶部(以下、「物体位置記憶部」と言うことがある。)1333を含んで構成される。
(Configuration example of known shape object position detector)
Next, a configuration example of the known shape object
FIG. 3 is a block diagram illustrating a configuration example of the known shape object
形状既知物体検出部1331は、基準画像信号、非基準画像信号に基づいて、基準画像、非基準画像各々において形状既知物体の画像を表す領域を検出する。形状既知物体の画像を表す領域の検出において、形状既知物体検出部1331は、例えばテンプレートマッチング等、既知の方法を用いる。形状既知物体検出部1331は、例えば、入力された画像信号それぞれについてエッジ抽出等の2値化処理を行いエッジ部分とそれ以外の部分を定める。エッジ部分とは、輝度値の空間変化が予め定めた空間変化値よりも大きい画素の集合である。
Based on the reference image signal and the non-reference image signal, the known shape
以下、形状既知物体がナンバープレートである場合を例にとって説明する。形状既知物体検出部1331は、定めたエッジ部分(周辺部分)のうち形状が四辺形又は四辺形に近似するエッジ部分(以下、四辺形領域と呼ぶ)を検出する。ここで、形状既知物体検出部1331は、エッジ部分のうち空間的に閉じた領域を取り囲み、かつ、そのエッジ部分の曲率半径が予め定めた曲率半径よりも小さい部分(頂点)を4個有するエッジ部分を、形状が四辺形領域と判断する。この判断された四辺形領域がナンバープレートを表す領域の候補となる。
ナンバープレートの形状が長方形又は長方形に近似する形状(例えば、長方形の各頂点が丸みを帯びている図形)である場合、形状既知物体検出部1331は、パターン記憶部を備える。パターン記憶部には、ナンバープレートの形状を示す情報(例えば、長方形の水平方向の幅と垂直方向の幅との間の比率である縦横比)、ナンバープレートに表示する文字を示す文字パターンを予め記憶させておく。即ち、ナンバープレートを表す画像に係るパターン情報として記憶される情報は、ナンバープレートの形状を示す情報と文字パターンである。
形状既知物体検出部1331は、検出した四辺形領域を、例えば式(1)を用いて予め記憶された縦横比を有する長方形領域に射影変換する。
Hereinafter, a case where the known shape object is a license plate will be described as an example. The known shape
When the shape of the license plate is a rectangle or a shape that approximates a rectangle (for example, a figure in which each vertex of the rectangle is rounded), the known shape
The known shape
式(1)において、(X,Y)は、変換前の四辺形領域の各頂点の座標値である。(X’,Y’)は、変換後の長方形領域の各々対応する頂点の座標値である。係数a,b,…,iは、変換係数である。係数sは、座標(X,Y)ごとに算出される一時的な値である。形状既知物体検出部1331は、式(1)の左辺における(sX’,sY’,s)のうち、第1列、第2列の要素値をそれぞれ、第3列の要素値である係数sで除算して、(X’,Y’)を算出する。
形状既知物体検出部1331は、変換した長方形領域に配置された文字の画像と予め記憶された文字パターンと、を照合する。形状既知物体検出部1331は、それらの文字の画像について、文字パターンとの照合が全て、又は予め定めた個数よりも多い個数について成功した場合、検出した四辺形領域を、ナンバープレートを表す領域(ナンバープレート領域)と判断する。照合においては、例えば、比較対象のデータが類似する度合いを示す指標値が、予め定めた指標値よりも類似することを示す場合、照合に成功したと判断する。形状既知物体検出部1331は、例えばSAD(Sum of Absolute Differences、絶対差分和)を用いる。その場合、形状既知物体検出部1331は、SADが所定の閾値より小さい場合に、照合が成功したと判定する。
In Expression (1), (X, Y) is the coordinate value of each vertex of the quadrilateral area before conversion. (X ′, Y ′) are the coordinate values of the corresponding vertices of the converted rectangular area. The coefficients a, b,..., I are conversion coefficients. The coefficient s is a temporary value calculated for each coordinate (X, Y). The known shape
The known shape
なお、形状既知物体検出部1331は、車両速度監視部132から入力された停止信号が自車両の停止を表し、かつ検出対象のナンバープレートが停止している場合、ナンバープレート領域を表す形状既知物体領域情報を生成する。形状既知物体検出部1331は、生成した形状既知物体領域情報と上述の射影変換に用いた変換係数を形状既知物体位置算出部1332に出力する。
ここで、形状既知物体検出部1331は、基準画像信号に基づいてナンバープレートが停止しているか否かを判定する。ここで、形状既知物体検出部1331は、ナンバープレート領域に含まれる階調値の隣接するフレーム間の差分の合計値を算出し、算出した合計値が予め定めた閾値よりも小さいときナンバープレートが停止している(当該ナンバープレートを設置している車両が停止している)と判定する。これにより、ナンバープレート領域における階調値の変化が少ないことが検出される。形状既知物体検出部1331は、隣接するフレーム間の差分の代わりに、予め定めたフレーム数(例えば2フレーム)だけ離れたフレーム間の差分であってもよい。
The known shape
Here, the known shape
ナンバープレートが停止していると判定するのは、カメラに対する撮影対象の物体の相対速度がゼロでないと、撮影された画像において、その物体の周辺に不鮮明な領域(ぶれ)が生じるためである。その物体がナンバープレートである場合、ナンバープレートの四辺の画像内座標を正確に定めることができない。そのため、ナンバープレートが停止されているとき、ナンバープレート領域を検出することで、ナンバープレートが表示されている位置を正確に検出できる。従って、自車両とナンバープレートが停止していることを判定し、停止しているときに取得した鮮明な画像を表す画像信号を用いることで、精度よくナンバープレート領域の算出を行うことができる。 The reason why the license plate is stopped is that if the relative speed of the object to be imaged with respect to the camera is not zero, a blurred region (blurring) is generated around the object in the imaged image. When the object is a license plate, the coordinates in the image of the four sides of the license plate cannot be determined accurately. Therefore, when the license plate is stopped, the position where the license plate is displayed can be accurately detected by detecting the license plate region. Therefore, it is possible to calculate the license plate area with high accuracy by determining that the host vehicle and the license plate are stopped and using an image signal representing a clear image acquired when the vehicle is stopped.
形状既知物体位置算出部1332は、形状既知物体検出部1331から入力された形状既知物体領域情報及び変換係数に基づいて、それぞれ対応するカメラに対応するナンバープレートの相対位置を算出する。形状既知物体位置算出部1332は、基準カメラ11A、非基準カメラ11Bそれぞれのカメラ内部パラメータとナンバープレートの大きさを示す大きさパラメータが予め記憶されている。大きさパラメータは、例えば、ナンバープレートの4辺の長さである。
形状既知物体位置算出部1332は、入力された形状既知物体領域情報並びに変換係数 と記憶されたカメラ内部パラメータ並びに大きさパラメータを利用して、各カメラに対するナンバープレートの方向を算出する。
The known shape object
The known shape object
ここで、形状既知物体位置算出部1332は、形状既知物体検出部1331から入力された変換係数a,b,…,iに基づいて、各カメラに対するナンバープレートの相対3次元角度方向を算出する。この変換係数を要素として含む変換行列は、各カメラを基準としたナンバープレートの方向を示す。形状既知物体位置算出部1332は、この変換行列に基づいて3次元相対角度方向(θ,φ,ψ)を、式(2)を満足するように算出する。
Here, the known shape object
形状既知物体位置算出部1332は、算出した相対3次元角度方向に基づいて各カメラからナンバープレートまでの距離を算出する。ここで、形状既知物体位置算出部1332は、予め記憶した大きさパラメータ、カメラ内部パラメータ、算出した相対3次元角度方向及び各カメラからナンバープレートまでの仮の相対距離に基づいて仮のナンバープレート領域の大きさを算出する。そして、形状既知物体位置算出部1332は、算出した仮のナンバープレート領域の大きさと、入力された形状既知物体領域情報が示す形状既知物体領域の大きさが同一になるような仮の相対距離を算出する。形状既知物体位置算出部1332は、算出した仮の相対距離を各カメラからナンバープレートまでの距離と定める。形状既知物体位置算出部1332は、各カメラについて算出した相対3次元角度方向と各カメラからナンバープレートまでの距離を示す情報を形状既知物体位置情報として生成し、生成した形状既知物体位置情報を形状既知物体位置記憶部1333に記憶する。
The known shape object
形状既知物体位置記憶部1333は、形状既知物体位置算出部1332が記憶させた形状既知物体位置情報を過去の予め定めた個数(例えば、10個)だけ記憶する。また、形状既知物体位置記憶部1333に記憶された形状既知物体位置情報は、カメラ位置パラメータ算出部135から上述の相対位置情報として読み出される。
The known shape object
ここで、形状既知物体位置算出部1332が各カメラからナンバープレートまでの距離を算出する原理について図4を用いて説明する。
図4は、ナンバープレートまでの距離を算出する際の透視投影カメラモデルを示す概念図である。
図4において、71はカメラの焦点、72はカメラが備えるイメージセンサの表面である画像面、73はナンバープレートが表示されている領域(形状既知物体領域)をそれぞれ示す。741、742、743は、それぞれ異なる仮の相対距離におかれたナンバープレートを示す。741、742、743の順で、仮の相対距離が小さくなる。
ここで、ナンバープレートの相対方向は既知であるから、形状既知物体位置算出部1332は、ナンバープレート領域の1点が常に画像内の同一の座標に投影されるように、仮の相対距離を変化(探索)させる。ナンバープレート領域の1点とは、図3に示す例ではナンバープレート領域の左端である。741に示されるように、仮の相対距離が、実際の相対距離よりも長い場合、画像面72に投影されるナンバープレートの画像は、形状既知物体の画像よりも狭くなる。743に示されるように、仮の相対距離が、実際の相対距離よりも短い場合、画像面72に投影されるナンバープレートの画像は、形状既知物体の画像よりも広くなる。742に示されるように、仮の相対距離が、実際の相対距離と同一の場合、画像面72に投影されるナンバープレートの画像は、形状既知物体の画像と重なり合う。従って、形状既知物体位置算出部1332は上述の処理を行うことによってナンバープレートまでの距離を算出することができる。
Here, the principle by which the known shape object
FIG. 4 is a conceptual diagram showing a perspective projection camera model for calculating the distance to the license plate.
In FIG. 4,
Here, since the relative direction of the license plate is known, the known shape object
(多眼無限遠対応検出部の構成例)
次に、本実施形態における多眼無限遠対応検出部134の構成例について説明する。
図5は、本実施形態における多眼無限遠対応検出部134の構成例を表すブロック図である。多眼無限遠対応検出部134は、多眼無限遠領域検出部1341、明るさ検出部1342、照明制御部1343、領域間対応検出部1344、及び領域間対応記憶部1345を含んで構成される。
(Configuration example of multi-lens infinity detection unit)
Next, a configuration example of the multiview infinity
FIG. 5 is a block diagram illustrating a configuration example of the multiview infinity
多眼無限遠領域検出部1341は、基準カメラ11Aから入力された基準画像信号、非基準カメラBから入力された非基準画像信号からそれぞれ多眼無限遠領域を検出する。多眼無限遠領域検出部1341は、検出した多眼無限遠領域を表す多眼無限遠領域情報を生成し、生成した多眼無限遠領域情報を領域間対応検出部1344に出力する。
ここで、多眼無限遠領域検出部1341は、照明制御部1343から入力された照明制御信号が点灯を示す場合、入力された基準画像信号(又は非基準画像信号)を点灯時画像信号として保持する。多眼無限遠領域検出部1341は、照明制御部1343から入力された照明制御信号が消灯を示す場合、入力された基準画像信号(又は非基準画像信号)を消灯時画像信号として保持する。ここで、照明制御信号は、照明装置(図示せず)を点灯させること(点灯)又は照明を消灯させること(消灯)を示す信号である。
多眼無限遠領域検出部1341は、保持した点灯時画像信号と消灯時画像信号との間における画素毎の階調値の差分が予め定めた差分値の閾値よりも小さい領域、つまり階調値の変化がない又は少ない領域を多眼無限遠領域と定める。これは、カメラに近接する物体ほど、照明装置が放射した光を反射するために輝度が大きくなり、多眼無限遠にある物体には照明装置が放射した光がほとんど到達しないため輝度がほとんど大きくならないことに基づく。
なお、多眼無限遠領域検出部1341は、点灯を示す照明制御信号が入力された時刻が、消灯を示す照明制御信号が入力された時刻の先後に関わらず、点灯時画像信号と消灯時画像信号に基づいて多眼無限遠領域と定めることができる。
The multi-eye infinity
Here, when the illumination control signal input from the
The multi-eye infinity
It should be noted that the multi-lens infinity
多眼無限遠領域検出部1341は、明るさ検出部1342から入力された照度に基づいて上述の差分値の閾値を定める。ここで、多眼無限遠領域検出部1341は、照度が高いほど大きく、照度が低いほど小さくなるように差分値の閾値を定める。多眼無限遠領域検出部1341は、予め照度と差分値の閾値を対応付けて記憶させた記憶部を備え、入力された照度に対応した差分値の閾値を読み出す。周囲の明るさが明るすぎる場合、照明装置を点灯しても階調値が有意に変化しない。また、暗すぎる場合、基準画像又は非基準画像から多眼無限遠の物体を表す画像が認識されない。このため、明るさ検出部1342から入力された照度に応じた差分値の閾値を用いることにより適切に多眼無限遠領域を検出することができる。
The multi-eye infinity
また、多眼無限遠領域検出部1341は、車両速度監視部132から入力された停止信号が、自車両が停止したことを示すときに上述の多眼無限遠領域を検出する処理を行う。これにより正確に多眼無限遠領域を検出できる。これに対し、多眼無限遠領域検出部1341は、点灯時と消灯時の間に自車両が移動(例えば、回転)すると、画像内座標上で多眼無限遠に存在する物体の画像が移動してしまう。そのため、点灯時画像信号と消灯時画像信号間で画像に表される物体が異なってしまい、正しく多眼無限遠領域を検出することができない。
The multi-lens infinity
多眼無限遠領域検出部1341は、形状既知物体位置算出部1332から入力された形状既知物体位置情報に基づいて、多眼有限遠の距離にナンバープレートが存在するか否かを判定する。ナンバープレートが存在しないと判定されたとき、多眼無限遠領域検出部1341は、上述の多眼無限遠領域の検出を開始する。多眼有限遠の距離にナンバープレートが存在するか否かを判定する際、多眼無限遠領域検出部1341は、形状既知物体位置情報が示す形状既知物体の位置に係る当該カメラからの距離が、多眼有限遠となる距離の閾値よりも小さいことをもって判定する。多眼無限遠領域検出部1341には、予め多眼無限遠となる距離の閾値を予め設定しておく。この距離の閾値は、基準カメラ11Aと非基準カメラ11Bの間の距離(基線長)、各カメラの画角及び解像度によって定まる値である。なお、この距離の閾値よりも大きい距離が多眼無限遠となる距離である。これにより、多眼無限遠領域検出部1341は、多眼有限遠の距離に他車両(例えば、先行車両)のナンバープレートが存在しないと判定されたとき多眼無限遠領域を検出する。多眼有限遠の距離に他車両のナンバープレートが存在しないと判定されたときには、その他の物体が多眼有限遠の距離にないことが多いため、多眼無限遠領域がより広い傾向がある。このため、多眼有限遠の距離に他車両のナンバープレートが存在しないと判定されたときに、より広い多眼無限遠領域を検出することで領域間対応検出部1344において多眼無限遠領域間対応情報が誤検出となる確率を低減することができる。
Based on the known shape object position information input from the known shape object
明るさ検出部1342は、基準カメラ11Aから入力された基準画像信号に基づいて算出した階調値の画像内平均値と露出量に基づいて基準画像が表す物体の明るさ(周囲の明るさ)を示す照度を検出する。露出量は、基準カメラ11Aが備えるイメージセンサが受けうる光の量(絞り値、F値)と1フレーム当たりの露光時間によって定まるパラメータである。明るさ検出部142には、予め露出量を設定しておき、さらに階調値の画像内平均値並びに露出量と照度との対応関係を示す明るさ検出情報を自部が備える記憶部に予め記憶させておく。明るさ検出部142は、算出した階調の画像内平均値と設定された露出量に対応する照度を記憶部から読み出し、読み出した照度を多眼無限遠領域検出部1341に出力する。これにより、基準画像が表す物体の明るさを検出することができる。
本実施形態では、本来多眼無限遠である領域が多眼無限遠でないと検出されたか否かは、
多眼無限遠の領域がある程度広く検出され、本来多眼無限遠でない領域が多眼無限遠であると検出されていなければ、多眼無限遠領域間対応情報の生成結果への影響が限られる。そこで、明るさ検出部142は、本来多眼無限遠ではない領域において多眼無限遠であると検出されない程度の明るさを示す照度を検出する。これにより、多眼無限遠領域間対応情報が適切に算出される。
The
In the present embodiment, whether or not the region that is originally multi-lens infinity is detected as not multi-lens infinity,
If the multi-lens infinity region is detected to some extent, and the non-multi-lens infinity region is not detected as multi-lens infinity, the effect on the generation result of the multi-lens infinity region correspondence information is limited. . Therefore, the brightness detection unit 142 detects illuminance indicating brightness that is not detected as multi-lens infinity in a region that is not originally multi-lens infinity. Thereby, the correspondence information between multi-view infinity areas is appropriately calculated.
照明制御部1343は、自車両に設置された照明装置(図示せず)を点灯させるか否かを制御する。照明制御部1343は、予め定めた時間間隔もしくは使用者による操作入力に基づいて照明装置の点灯又は消灯を示す照明制御信号を生成する。照明制御部1343は、生成した照明制御信号を多眼無限遠領域検出部1341及びスイッチ部(図示せず)に出力する。スイッチ部は、照明装置への電力の供給の有無を切り替える。即ち、照明制御部1343から入力された照明制御信号が点灯を示す場合、スイッチ部は、照明装置に電力を供給し、当該照明制御信号が消灯を示す場合、スイッチ部は、照明装置に電力の供給を停止する。従って、照明制御信号が点灯を示す場合、照明装置は光を放射し、照明制御信号が消灯を示す場合、照明装置は光を放射しない。
The
照明装置は、自車両の後方部に設置され、後方に向けて光を放射する照明装置である。照明装置は、自車両の製造時に予め設置された照明装置(例えば、バックライト)であってもよいし、出荷後に設置された照明装置であってもよい。但し、当該照明装置は多眼無限遠検出に用いるため多眼無限遠と多眼有限遠との間の閾値となる距離と同程度まで到達するのに十分な光量が求められる。そのため、当該照明装置として光量が大きいフラッシュライトを用いることが望ましい。通常のフラッシュライトが放射する光は、後続車両を運転する運転手による視認を妨げるおそれがあるため、当該照明装置として赤外線等の不可視光を放射する不可視光フラッシュライトを用いてもよい。当該照明装置として不可視光フラッシュライトが用いられる場合、基準カメラ11A、非基準カメラ11Bは、上述のイメージセンサとして照明装置が放射する不可視光を検出するイメージセンサを備える。
The lighting device is a lighting device that is installed in the rear portion of the host vehicle and emits light toward the rear. The lighting device may be a lighting device (for example, a backlight) installed in advance at the time of manufacturing the host vehicle, or may be a lighting device installed after shipment. However, since the illumination device is used for multi-eye infinity detection, a sufficient amount of light is required to reach the same distance as the threshold between multi-eye infinity and multi-eye finite. Therefore, it is desirable to use a flashlight with a large amount of light as the lighting device. Since the light emitted from the normal flashlight may hinder the visual recognition by the driver driving the succeeding vehicle, an invisible light flashlight that emits invisible light such as infrared rays may be used as the illumination device. When an invisible light flashlight is used as the illumination device, the
領域間対応検出部1344は、多眼無限遠領域検出部1341から入力されたカメラ毎の多眼無限遠領域情報に基づき、多眼無限遠領域間対応情報を生成する。多眼無限遠領域間対応は、基準画像と非基準画像との間の透視変換を示す対応関係と考えることができる。透視変換とは、ある視点から観測された3次元の空間を表す2次元の画像を他の視点から観測されたその3次元の空間を表す2次元の画像への変換である。そこで、領域間対応検出部1344は、例えば、基準画像、非基準画像の多眼無限遠領域各々について既存の特徴点検出法を用いて、それぞれ特徴点を検出し、検出した各特徴点の基準画像、非基準画像間の対応関係を4点について検出する。領域間対応検出部1344は、例えば、各画像についてSURF(Speeded Up Robust Features)特徴量を用いて特徴点を検出する。本実施形態では、SURF特徴量に限らず、他の特徴量を用いて特徴点を検出してもよい。用いられる特徴量は、画像の回転等の線形変換に頑健であり、特徴点の誤検出が少ない特徴量であればよい。その後、領域間対応検出部1344は、各画像での特徴点の集合を表す4次元の特徴ベクトル間の距離が最も小さくなるように特徴点間の対応関係を探索する。領域間対応検出部1344は、検出した4点の特徴点の対応関係に基づいて2次元の透視変換行列を算出する。領域間対応検出部1344は、算出した透視変換行列を多眼無限遠領域間対応情報として領域間対応記憶部1345に記憶する。
The inter-region correspondence detection unit 1344 generates multi-eye infinity region correspondence information based on the multi-view infinity region information for each camera input from the multi-view infinity
領域間対応記憶部1345は、領域間対応検出部1344が記憶させた多眼無限遠領域間対応情報を過去の予め定めた個数(例えば、10個)記憶する。また、領域間対応記憶部1345に記憶された多眼無限遠領域間対応情報は、カメラ位置パラメータ算出部135から読み出される。
The inter-region
なお、上述では、照明装置の点灯時、消灯時にそれぞれ入力された画像信号を用いて多眼無限遠領域を検出する場合を例にとって説明したが、本実施形態ではこれには限られない。例えば、各カメラの方向が回転しないように自車両が移動したとき、多眼無限遠領域検出部1341は、移動前後に入力された画像信号間において階調値の変化量が予め定めた変化量の閾値よりも小さい領域を多眼無限遠領域と定めてもよい。ここで、車両速度監視部132は、車両速度検出部12から入力された速度信号に基づいて自車両が減速して停止する直前、即ち自車両が停止した時刻から予め定めた時間(例えば、5秒)だけ先行する時刻(先行時刻)を検知する。多眼無限遠領域検出部1341は、検知した先行時刻に入力された画像信号と自車両が停止している時刻に入力された画像信号に基づいて、多眼無限遠領域を定めてもよい。
同様にして、車両速度監視部132は、車両速度検出部12から入力された速度信号に基づいて自車両の発車直後、即ち自車両が移動を開始した時刻から予め定めた時間(例えば、5秒)だけ遅れた時刻(後続時刻)を検知してもよい。この場合、多眼無限遠領域検出部1341は、検知した後続時刻に入力された画像信号と自車両が停止している時刻に入力された画像信号に基づいて、多眼無限遠領域を定める。
In the above description, the case where the multi-lens infinity region is detected using image signals input when the lighting device is turned on and off is described as an example. However, the present embodiment is not limited to this. For example, when the host vehicle moves so that the direction of each camera does not rotate, the multi-lens infinity
Similarly, the vehicle
(カメラ位置パラメータを算出する処理)
次に、本実施形態に係るカメラ位置パラメータ算出部135が行うカメラ位置パラメータの算出方法について説明する。
カメラ位置パラメータ算出部135は、形状既知物体位置記憶部1333から形状既知物体位置情報を、領域間対応記憶部1345から多眼無限遠領域間対応情報を、それぞれ過去の予め定めた回数分読み出す。カメラ位置パラメータ算出部135は、カメラ位置パラメータ算出部135は、読み出した形状既知物体位置情報及び多眼無限遠領域間対応情報に基づいてカメラ位置パラメータを算出する。カメラ位置パラメータ算出部135は、算出したカメラ位置パラメータを、その回数で平均化したカメラ位置パラメータを算出してもよい。
(Process to calculate camera position parameters)
Next, a camera position parameter calculation method performed by the camera position
The camera position
カメラ位置パラメータ算出部135は、例えば、非線形最適化計算を用いて基準カメラ11Aに対する非基準カメラ11Bの相対位置パラメータをカメラ位置パラメータとして算出する。非線形最適化計算とは、式(3)に示す予め定めた非線形関数fについて、関数値yを最小化する変数ベクトルxを算出する演算である。
The camera position
式(3)において、関数fを目的関数と呼ぶ。
次に、カメラ位置パラメータを算出する処理の例について説明する。
カメラ位置パラメータ算出部135は、読み出した形状既知物体位置情報から非基準カメラ11Bに対するナンバープレートの3次元相対座標値(xB,yB, zB)を抽出する。カメラ位置パラメータ算出部135は、抽出した3次元相対座標値(xB,yB, zB)から式(2)を用いて基準カメラ11Aに対するナンバープレートの3次元相対座標値(xA,yA, zA)を算出する。
In equation (3), the function f is called an objective function.
Next, an example of processing for calculating camera position parameters will be described.
The camera position
式(4)において、3次元相対座標値(xB,yB, zB)として検出されたナンバープレートの各頂点の座標値を代入することで、基準カメラ11Aに対する各頂点の座標値(xA,yA, zA)が算出される。
カメラ位置パラメータ算出部135は、算出した基準カメラ11Aに対する各頂点の座標値(xA,yA, zA)から、予め設定されたカメラ内部パラメータに基づいて基準画像上に当該頂点が表される座標値(XB,YB)を算出する。この算出された座標値(XB,YB)は、3次元空間から2次元空間である基準カメラ11Aの撮像面に投影された座標値であって、カメラ位置パラメータ(x,y, z,θ,φ,ψ)の関数とみることができる。
他方、カメラ位置パラメータ算出部135は、読み出した形状既知物体位置情報から基準画像に表されたナンバープレートの各頂点の座標値(XA,YA)を抽出する。
カメラ位置パラメータ算出部135は、座標値(XB,YB)の算出、座標値(XA,YA)の抽出を、上述した過去の予め定めた回数の各々について行う。ここで、4個の頂点knp、回数nnpを区別するために、これらの座標値を(XA,nnp,knp,YA,nnp,knp)、(XB,nnp,knp,YB,nnp,knp)と表す。
In equation (4), by substituting the coordinate value of each vertex of the license plate detected as the three-dimensional relative coordinate value (x B , y B , z B ), the coordinate value (x A, y A, z A) is calculated.
The camera position
On the other hand, the camera position
The camera position
カメラ位置パラメータ算出部135は、算出されたナンバープレートの画像の各頂点の座標値(XB,YB)の抽出された座標値(XA,YA)に対する誤差を最小化するカメラ位置パラメータ(x,y, z,θ,φ,ψ)を算出する。この誤差を表す目的関数f(x,y, z,θ,φ,ψ)の一例を式(5)に示す。
The camera position
カメラ位置パラメータ算出部135は、目的関数f(x,y, z,θ,φ,ψ)を最小化する位置パラメータ(x,y, z,θ,φ,ψ)を算出する際、例えば、ニュートン法などの非線形最適化計算法を用いる。これにより、カメラ位置パラメータ算出部135は、ナンバープレートが表示される画像を用いてカメラ位置パラメータを算出することができる。
When calculating the position parameters (x, y, z, θ, φ, ψ) that minimize the objective function f (x, y, z, θ, φ, ψ), the camera position
その他、カメラ位置パラメータ算出部135は、目的関数f(x,y, z,θ,φ,ψ)位置パラメータ(x,y, z,θ,φ,ψ)を算出する際、式(5)の目的関数に多眼無限遠領域間対応に基づく制約を加えた目的関数を用いてもよい。このような目的関数の一例を式(7)に示す。これにより、位置パラメータ(x,y, z,θ,φ,ψ)をより高い精度で算出することができる。
読み出した形状既知物体位置情報から基準画像、非基準画像に表されたナンバープレートの各頂点の座標値(XA,YA)、(XB,YB)を抽出する。入力された画像からナンバープレートが検出された領域は多眼無限遠領域に含まれるであるところ、抽出された各頂点の座標値をそれぞれ(XA∞,YA∞)、(XB∞,YB∞)と示す。カメラ位置パラメータ算出部135は、カメラ間の相対角度(θ,φ,ψ)の場合、座標値(XB∞,YB∞)に対応する基準画像における座標値(XBA,YBA)を、例えば式(6)を用いて算出する。
In addition, when the camera position
The coordinate values (X A , Y A ) and (X B , Y B ) of each vertex of the license plate represented in the reference image and the non-reference image are extracted from the read shape known object position information. Where regions license plate is detected from the input image which is included in the multi-view infinity region, the extracted coordinate values of the vertices respectively (X A∞, Y A∞), (X B∞, YB∞ ). In the case of relative angles (θ, φ, ψ) between cameras, the camera position
式(6)において、PA、PBは、それぞれ基準カメラ11Aと非基準カメラ11Bのカメラ内部パラメータ行列である。PA、PBは、それぞれ各要素にカメラ内部パラメータを含む3列3列の行列である。
即ち、式(6)は、座標値(XB∞,YB∞)を透過変換して座標値(XBA,YBA)を算出することを示す。
カメラ位置パラメータ算出部135は、座標値(XBA,YBA)の算出、座標値(XA∞,YA∞)の抽出を、上述した過去の予め定めた回数の各々について行う。ここで、4個の頂点kn∞、回数nn∞を区別するために、これらの座標値を(XBA,nn∞,kn∞,YBA,nn∞,kn∞)、(XA∞,nn∞,kn∞,YA∞,nn∞,kn∞)と表す。
カメラ位置パラメータ算出部135は、算出した座標値(XBA,YBA)と抽出された座標値(XA∞,YA∞)との誤差の大きさが式(6)の目的関数に加えられた目的関数f(x,y, z,θ,φ,ψ)を最小化する位置パラメータ(x,y, z,θ,φ,ψ)を算出する。この誤差の大きさが加えられた目的関数f(x,y, z,θ,φ,ψ)は、式(7)で表される。
In Expression (6), P A and P B are camera internal parameter matrices of the
That is, equation (6) indicates that the coordinate values (X BA , Y BA ) are calculated by transparent transformation of the coordinate values (X B∞ , Y B∞ ).
The camera position
The camera position
式(7)において右辺の第2項が、加えられた誤差の大きさを表す項である。この項は、多眼無限遠領域間対応に基づく制約を与える項である。
なお、カメラ位置パラメータ算出部135は、以下の処理を実行することで、過去の予め定めた回数分について算出されたナンバープレートの位置及び多眼無限遠領域間対応情報の中から誤って算出されたものを除外することができる。ここで、カメラ位置パラメータ算出部135は、算出したカメラ位置パラメータを用いて非基準カメラ11Bに対する各ナンバープレートの相対位置に基づく基準画像におけるナンバープレートを表す領域の座標値を算出する。カメラ位置パラメータ算出部135は、算出した座標値と、入力された基準画像が表すナンバープレートを表す領域の座標値との差を算出する。
同様にして、カメラ位置パラメータ算出部135は、算出したカメラ間の相対角度値について多眼無限遠領域に含まれる座標のカメラ間における対応関係を表す対応関係情報と入力された多眼無限遠領域間対応情報との差を求める。カメラ位置パラメータ算出部135は、過去の予め定めた回数のそれぞれの回について、算出されたこれらの差の中で、最も差が大きい、もしくは、その差が予め定めた閾値を越えるような、ナンバープレートを表す領域の座標値及び対応関係情報を除外する。そして、カメラ位置パラメータ算出部135は、除外されずに残ったナンバープレートを表す領域の座標値及び対応関係情報に基づいてカメラ位置パラメータを算出する。これにより、ナンバープレートを表す領域の座標値及び対応関係情報の誤りによるカメラ位置パラメータの算出誤差を低減することができる。
In Expression (7), the second term on the right side is a term representing the magnitude of the added error. This term is a term that gives a constraint based on the correspondence between multi-view infinity regions.
The camera position
Similarly, the camera position
(カメラ位置パラメータ判定処理)
次に、本実施形態に係るカメラ位置パラメータ判定処理について説明する。
図6は、本実施形態に係るカメラ位置パラメータ判定処理を表すフローチャートである。
(ステップS51)形状既知物体位置検出部133は、入力された画像信号に基づいて、各カメラに対する形状既知物体、即ちナンバープレートの相対位置を算出する。ここで、形状既知物体位置検出部133は、各画像においてナンバープレートが表されている領域を検出する。その後、ステップS52に進む。
(ステップS52)形状既知物体位置検出部133は、検出された領域に係るナンバープレートがキャリブレーション時に用いられたナンバープレートとは異なるナンバープレートであるか否かを判断する。キャリブレーション時に用いられたナンバープレートとは、カメラ位置パラメータ記憶部137に記憶されたカメラ位置パラメータを算出するために用いた画像に表されたナンバープレートである。キャリブレーション時に用いられたナンバープレートとは異なるナンバープレートであるか否かの判断は、ナンバープレートに表示されている番号が同一かどうかをもって判断する。形状既知物体位置検出部133は、ナンバープレートに表示されている番号を、形状既知物体検出部1331が認識した文字を用いて特定する。キャリブレーション時に用いられたナンバープレートと異なるナンバープレートを用いることで、ナンバープレートの個体差や変形が考慮されるのでカメラ位置パラメータの算出精度の低下を免れる。その後、ステップS53に進む。
(Camera position parameter judgment processing)
Next, camera position parameter determination processing according to the present embodiment will be described.
FIG. 6 is a flowchart showing the camera position parameter determination process according to the present embodiment.
(Step S51) The known shape object
(Step S52) The known shape object
(ステップS53)距離算出部138は、キャリブレーション前のカメラ位置パラメータを用いて基準画像及び非基準画像に表されたナンバープレートまでの距離を算出する。キャリブレーション前のカメラ位置パラメータとは、カメラ位置パラメータ記憶部137に記憶されたカメラ位置パラメータである。距離の算出において、三角測量の原理に基づく多眼距離測定方法を用いる。距離算出部138は、ナンバープレートが表示されている領域に含まれる画素毎に算出された距離を平均した平均値、又はその領域の重心点に係る画素について算出された距離を、距離の代表値として採用する。この採用された距離の代表値を距離1と呼ぶ。その後、ステップS54に進む。
(ステップS54)距離算出部138は、カメラ位置パラメータ算出部135が新たに算出したカメラ位置パラメータを用いて基準画像及び非基準画像に表されたナンバープレートまでの距離を、ステップS53で用いた方法と同じ方法で算出し、距離の代表値を採用する。この採用された距離の代表値を距離2と呼ぶ。その後、ステップS55に進む。
(ステップS55)形状既知物体位置検出部133は、基準画像及び非基準画像から検出されたナンバープレートが表示されている領域を検出し、各カメラから検出された領域に係るナンバープレートまでの相対位置に基づいて距離を算出する。形状既知物体位置検出部133は、算出した距離をカメラ間で平均した平均値を算出する。この算出された平均値を距離3と呼ぶ。その後、ステップS56に進む。
(Step S53) The
(Step S54) The
(Step S55) The known shape object
(ステップS56)カメラ位置パラメータ判定部136は、距離1と距離2のうち、どちらが距離3に近いかを判断する。距離1の方が距離3に近いと判断された場合、ステップS57に進む。距離2の方が距離3に近いと判断された場合、ステップS58に進む。
(ステップS57)カメラ位置パラメータ判定部136は、カメラ位置パラメータ算出部135が新たに算出したカメラ位置パラメータを採用せず、カメラ位置パラメータ記憶部137に保存される内容をそのまま変更しない。その後、処理を終了する。
(ステップS58)カメラ位置パラメータ判定部136は、カメラ位置パラメータ算出部135が新たに算出したカメラ位置パラメータをカメラ位置パラメータ記憶部137に記憶する。その後、処理を終了する。
(Step S56) The camera position
(Step S57) The camera position
(Step S58) The camera position
なお、本実施形態では、ナンバープレートの検出毎に上述の処理を行ってもよいが、これには限られない。予め定めた複数回のナンバープレートの検出毎にステップS51〜56を実行してもよい。この場合、ステップS56において、カメラ位置パラメータ判定部136は、距離3により近い距離が距離1、距離2である回数をそれぞれ計数する。カメラ位置パラメータ判定部136は、計数された回数が多いほうの距離を選択する。そして、選択された距離が距離1か距離2によって、ステップS57とステップS58のうち実行するステップを選択する。これにより、ステップS56の判定の安定性を向上することができる。
In the present embodiment, the above-described processing may be performed every time the license plate is detected, but is not limited thereto. Steps S51 to S56 may be executed each time a predetermined number of license plates are detected. In this case, in step S56, the camera position
これにより、新たに算出されたカメラ位置パラメータとカメラ位置パラメータ記憶部137に保存された既存のカメラ位置パラメータが比較される。比較によって選ばれたカメラ位置パラメータがキャリブレーション結果としてカメラ位置パラメータ記憶部137に保存される。これにより、ナンバープレートの検出誤りや多眼無限遠領域間対応情報の算出誤り、振動等によるカメラ位置のずれ等によるカメラ位置パラメータの算出精度の低下を回避することができる。つまり適切なキャリブレーション結果としてのカメラ位置パラメータがカメラ位置パラメータ記憶部137に保存される。この保存されたカメラ位置パラメータを用いて、距離算出部138は、基準画像及び非基準画像が表す被写体までの距離を精度よく算出することができる。
As a result, the newly calculated camera position parameter is compared with the existing camera position parameter stored in the camera position
(多眼距離測定方法)
次に三角測量の原理を用いた多眼距離測定方法について説明する。三角測量の原理によれば、ある基線の両端にある各点から測定対象物までの方向を測定し、その基線の長さと測定された方向に基づいてその測定対象物の位置を定めることができる。
図7は、多眼距離測定方法に用いる透視投影カメラモデルを示す概念図である。
図7において、基準カメラ11A、非基準カメラ11Bを破線で描かれた矩形で示す。
図7の中央上方の点605、608は、測定対象物の表面における各点の3次元座標605、608をそれぞれ示す。基準カメラ11A、非基準カメラ11Bに含まれる点601、602は、それぞれ基準カメラ11A、非基準カメラ11Bの焦点(視点)を示す。基準カメラ11A、非基準カメラ11Bに含まれる右斜め下に向かう線分、左斜め下に向かう線分は、それぞれイメージセンサの表面である画像面602、603である。焦点601と画像面602との間の相対位置関係、焦点604と画像面603との間の相対位置関係は、カメラ位置パラメータ、各カメラの内部パラメータによって定められる。
(Multi-eye distance measurement method)
Next, a multi-eye distance measuring method using the principle of triangulation will be described. According to the principle of triangulation, it is possible to measure the direction from each point on both ends of a baseline to the measurement object and determine the position of the measurement object based on the length of the baseline and the measured direction .
FIG. 7 is a conceptual diagram showing a perspective projection camera model used in the multi-eye distance measuring method.
In FIG. 7, the
焦点601ならびに3次元座標605を結ぶ線分と画像面602との交点、焦点604ならびに3次元座標605を結ぶ交点は、それぞれ、3次元座標605を表す画像の座標である画像内座標606、607を示す。
焦点601ならびに3次元座標608を結ぶ線分610と画像面602との交点、焦点604ならびに3次元座標608を結ぶ線分611と画像面603との交点は、それぞれ、3次元座標608を表す画像の座標である画像内座標606、609を示す。但し、図7に示す例では、焦点601ならびに3次元座標605を結ぶ線分と焦点601ならびに3次元座標608を結ぶ線分とが重複している。そのため、これらの線分と画像面602との交点である画像内座標606は、3次元座標605、608間で共通である。
Intersections between the line segment connecting the
The intersection of the
3次元座標605が到来した光を各方向に均等に乱反射する物体の表面上にある場合、画像内座標606、607間で階調値は、ほぼ等しくなる。そこで、距離算出部138では、画像内座標606を通る線分610上に物体の表面が存在すると仮定し、画像内座標606における階調値と、これに対応する画像内座標607における階調値の差分が最も小さくなるような3次元座標を探索する。これにより、この差分が最小である3次元座標が物体表面の一点であることが認定される。距離算出部138、これを基準画像の座標毎に繰り返すことで被写体表面までの距離を算出することができる。
なお、この原理に基づく方法として、距離算出部138は基準画像信号と非基準画像信号との間でブロックマッチングを実行して、画素毎に視差値を算出してもよい。但し、距離算出部138は、ブロックマッチングを実行する前に基準画像信号、非基準画像信号それぞれについて、それぞれのカメラ内部パラメータに基づいて平行化する。平行化とは、各画像のエピポーラ線を水平にし、レンズによる画像の歪を補正することである。これによりブロックマッチングにおいてブロックを探索する領域(視差値の候補)を水平方向に限定することができる。距離算出部138は、算出した視差値から、カメラ内部パラメータである画素ピッチ、カメラ位置パラメータである基線長に基づいて画素毎に距離を算出する。
When the three-
As a method based on this principle, the
上述では、形状既知物体としてナンバープレートを用いる場合を例にとって説明したが、本実施形態では、大きさ、形状が定まっている物体であれば、その他の物体、例えば、交通信号機、交通標識等を用いてもよい。
上述では、基準カメラ11Aは左側のカメラモジュールであり、非基準カメラ11Bは右側のカメラモジュールである場合を例にとって説明した。本実施形態では、基準カメラ11Aは右側のカメラモジュールであり、非基準カメラ11Bは左側のカメラモジュールであってもよい。
In the above description, the case where the license plate is used as the known shape object has been described as an example. However, in the present embodiment, if the object has a fixed size and shape, other objects such as traffic lights, traffic signs, etc. It may be used.
In the above description, the
以上で説明したように、本実施形態によれば、形状既知物体によるカメラ位置パラメータの算出と、多眼無限遠領域間対応によるカメラ位置パラメータの算出を併用して、キャリブレーションの対象であるカメラ位置パラメータの算出精度を向上させることができる。算出したカメラ位置パラメータを用いることで、多視点画像による距離の算出を精度よく行うことができる。
また、本実施形態では、キャリブレーションに用いる画像を自車両の停止ごとに取得することで、被写体とカメラとの位置関係が固定されている、より多くの条件のもとで撮影された画像をキャリブレーションに利用することができる。これにより、高精度なキャリブレーションが可能となる。
また、本実施形態では、形状既知物体が多眼有限遠の距離に存在しないと判断されたときに、多眼無限遠領域間対応の検出を行う。これにより、多眼無限遠領域間対応関係を誤算出する可能性を低減し、カメラ位置パラメータの誤算出を防ぐことができる。
さらに、本実施形態では、キャリブレーションに用いた形状既知物体と異なる形状既知物体を利用してカメラ位置パラメータ算出結果を検証する。これにより、算出精度がより優れるカメラ位置パラメータを保存できるので、パラメータを誤算出による距離の算出精度の低下を防ぐことができる。以上により、カメラ位置パラメータの算出精度が向上し、より正確な距離測定が可能な距離測定装置を実現することができる。
As described above, according to the present embodiment, the camera to be calibrated by using the calculation of the camera position parameter based on the known shape object and the calculation of the camera position parameter based on the correspondence between the multi-lens infinity regions together. The calculation accuracy of the position parameter can be improved. By using the calculated camera position parameter, it is possible to accurately calculate the distance from the multi-viewpoint image.
Further, in the present embodiment, by acquiring an image used for calibration every time the host vehicle stops, an image captured under more conditions in which the positional relationship between the subject and the camera is fixed. It can be used for calibration. Thereby, highly accurate calibration becomes possible.
Further, in the present embodiment, when it is determined that an object having a known shape does not exist at a multi-lens finite distance, detection corresponding to a multi-lens infinity region is performed. Accordingly, it is possible to reduce the possibility of erroneously calculating the correspondence relationship between the multiview infinity regions, and to prevent erroneous calculation of the camera position parameter.
Furthermore, in this embodiment, the camera position parameter calculation result is verified using a known shape object different from the known shape object used for calibration. As a result, camera position parameters with higher calculation accuracy can be stored, and a decrease in distance calculation accuracy due to erroneous calculation of parameters can be prevented. As described above, the calculation accuracy of the camera position parameter is improved, and a distance measuring device capable of more accurate distance measurement can be realized.
なお、上述した実施形態における距離測定部13の一部、例えば、車両速度監視部132、形状既知物体位置検出部133、多眼無限遠対応検出部134、カメラ位置パラメータ算出部135、カメラ位置パラメータ判定部136、及び距離算出部138をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、距離測定部13に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における距離測定部13の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。距離測定部13の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
In addition, a part of the
Further, a part or all of the
以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。 As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to
1 距離測定装置
11 撮影部
11A 基準カメラ
11B 非基準カメラ
12 車両速度検出部
13 距離測定部
132 車両速度監視部
133 形状既知物体位置検出部
134 多眼無限遠対応検出部
135 カメラ位置パラメータ算出部
136 カメラ位置パラメータ判定部
137 カメラ位置パラメータ記憶部
138 距離算出部
1331 形状既知物体検出部
1332 形状既知物体位置算出部
1333 形状既知物体位置記憶部
1341 多眼無限遠領域検出部
1342 明るさ検出部
1343 照明制御部
1344 領域間対応検出部
1345 領域間対応記憶部
DESCRIPTION OF
Claims (11)
前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める対応検出部と、
前記既知物体検出部が検出した既知物体の位置と前記対応検出部が定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する位置パラメータ算出部と、
前記位置パラメータ算出部が算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する距離算出部と、
を備えることを特徴とする距離測定装置。 Pattern information related to an image of a predetermined object is stored, a known object detection unit that detects a position of a known object that is an object related to the pattern information based on an image represented by an input image signal of a plurality of viewpoints;
Detecting a multi-view infinity region, which is a region in an image representing an object at multi-view infinity where no significant parallax can be detected between the multiple views from each image represented by the input image signals of the plurality of views; A correspondence detection unit for defining correspondence information indicating a correspondence relationship between viewpoints in the eye infinity region;
A position parameter calculation unit that calculates a position parameter indicating a positional relationship between the plurality of viewpoints based on the position of the known object detected by the known object detection unit and the correspondence relationship information determined by the correspondence detection unit;
A distance calculation unit that calculates a distance to an object represented by the input image of the plurality of viewpoints using the position parameter calculated by the position parameter calculation unit;
A distance measuring device comprising:
前記速度監視部が、前記複数視点が停止していると判断したとき、前記位置パラメータ算出部は前記位置パラメータを算出することを特徴とする請求項1に記載の距離測定装置。 A speed monitoring unit for determining whether or not the plurality of viewpoints are stopped based on the input speed information;
The distance measuring apparatus according to claim 1, wherein when the speed monitoring unit determines that the plurality of viewpoints are stopped, the position parameter calculating unit calculates the position parameter.
前記位置パラメータ算出部が算出した位置パラメータに基づいて算出した物体までの第1の距離と、前記位置パラメータ記憶部が記憶する位置パラメータに基づいて算出した当該物体までの第2の距離のうち、前記距離算出部が算出した当該物体までの第3の距離に前記第1の距離の方がより近似すると判定したとき、前記位置パラメータ算出部が算出した位置パラメータを前記位置パラメータ記憶部に記憶させる位置パラメータ判定部と、
を備えることを特徴とする請求項1又は2に記載の距離測定装置。 A position parameter storage unit that stores the position parameter calculated by the position parameter calculation unit;
Of the first distance to the object calculated based on the position parameter calculated by the position parameter calculation unit and the second distance to the object calculated based on the position parameter stored in the position parameter storage unit, When it is determined that the first distance is closer to the third distance to the object calculated by the distance calculation unit, the position parameter calculated by the position parameter calculation unit is stored in the position parameter storage unit A position parameter determination unit;
The distance measuring device according to claim 1, further comprising:
前記対応検出部は、前記照明装置が光を放射したときに入力された点灯時の入力画像信号と、前記照明装置が光を放射しないときに入力された消灯時の入力画像信号とに基づいて前記多眼無限遠領域を検出することを特徴とする請求項1ないし5のいずれか1項に記載の距離測定装置。 An illumination control unit for controlling whether to emit light to the illumination device;
The correspondence detection unit is based on an input image signal at the time of lighting input when the lighting device emits light and an input image signal at the time of lighting input when the lighting device does not emit light. The distance measuring apparatus according to claim 1, wherein the multi-lens infinity region is detected.
前記距離測定装置は、複数視点の入力画像信号が表す画像に基づいて予め定めた物体の画像に係るパターン情報に係る物体である既知物体の位置を検出する第1の過程と、
前記距離測定装置は、前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める第2の過程と、
前記距離測定装置は、前記検出した既知物体の位置と前記定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する第3の過程と、
前記距離測定装置は、前記算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する第4の過程と、
を有することを特徴とする距離測定方法。 In the distance measuring method in the distance measuring device,
The distance measuring device detects a position of a known object that is an object related to pattern information related to an image of a predetermined object based on an image represented by an input image signal of a plurality of viewpoints;
The distance measuring device is a multi-view infinity region that is a region in an image representing an object at multi-view infinity where no significant parallax can be detected between the multiple views from each image represented by the input image signals of the multiple views A second process of determining correspondence information indicating the correspondence between the viewpoints of the multi-view infinity region;
The distance measuring device calculates a position parameter indicating a positional relationship between the plurality of viewpoints based on the detected position of the known object and the determined correspondence information;
The distance measuring device calculates a distance to an object represented by the input image of the plurality of viewpoints using the calculated position parameter;
A distance measuring method characterized by comprising:
複数視点の入力画像信号が表す画像に基づいて予め定めた物体の画像に係るパターン情報に係る物体である既知物体の位置を検出する第1の手順、
前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める第2の手順、
前記検出した既知物体の位置と前記定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する第3の手順、
前記算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する第4の手順、
を実行させるための距離測定プログラム。
In the distance measurement program in the distance measurement device,
A first procedure for detecting a position of a known object that is an object related to pattern information relating to an image of a predetermined object based on an image represented by an input image signal of a plurality of viewpoints;
Detecting a multi-view infinity region, which is a region in an image representing an object at multi-view infinity where no significant parallax can be detected between the multiple views from each image represented by the input image signals of the plurality of views; A second procedure for defining correspondence information indicating a correspondence between viewpoints in an infinite eye region;
A third procedure for calculating a position parameter indicating a positional relationship between the plurality of viewpoints based on the position of the detected known object and the determined correspondence information;
A fourth procedure for calculating a distance to an object represented by the input image of the plurality of viewpoints using the calculated position parameter;
Distance measurement program to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012134158A JP2013257244A (en) | 2012-06-13 | 2012-06-13 | Distance measurement device, distance measurement method, and distance measurement program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012134158A JP2013257244A (en) | 2012-06-13 | 2012-06-13 | Distance measurement device, distance measurement method, and distance measurement program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013257244A true JP2013257244A (en) | 2013-12-26 |
Family
ID=49953793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012134158A Pending JP2013257244A (en) | 2012-06-13 | 2012-06-13 | Distance measurement device, distance measurement method, and distance measurement program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013257244A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015175635A (en) * | 2014-03-13 | 2015-10-05 | ヤマハ発動機株式会社 | Distance estimation system and vehicle including the same |
WO2015182771A1 (en) * | 2014-05-30 | 2015-12-03 | 日本電産エレシス株式会社 | Image capturing device, image processing device, image processing method, and computer program |
JP2018014544A (en) * | 2016-07-19 | 2018-01-25 | 池上通信機株式会社 | Vehicle number monitoring imaging apparatus |
JP2018119910A (en) * | 2017-01-27 | 2018-08-02 | 日立オートモティブシステムズ株式会社 | Camera device |
JP2019024196A (en) * | 2017-07-21 | 2019-02-14 | パナソニックIpマネジメント株式会社 | Camera parameter set calculating apparatus, camera parameter set calculating method, and program |
KR20190081308A (en) * | 2017-12-29 | 2019-07-09 | 주식회사 세종크리에이티브 | A Distance Measuring Method Using Images And Vehicle Controlling Method Thereof |
-
2012
- 2012-06-13 JP JP2012134158A patent/JP2013257244A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015175635A (en) * | 2014-03-13 | 2015-10-05 | ヤマハ発動機株式会社 | Distance estimation system and vehicle including the same |
WO2015182771A1 (en) * | 2014-05-30 | 2015-12-03 | 日本電産エレシス株式会社 | Image capturing device, image processing device, image processing method, and computer program |
JP2018014544A (en) * | 2016-07-19 | 2018-01-25 | 池上通信機株式会社 | Vehicle number monitoring imaging apparatus |
JP2018119910A (en) * | 2017-01-27 | 2018-08-02 | 日立オートモティブシステムズ株式会社 | Camera device |
WO2018139297A1 (en) * | 2017-01-27 | 2018-08-02 | 日立オートモティブシステムズ株式会社 | Camera device |
JP2019024196A (en) * | 2017-07-21 | 2019-02-14 | パナソニックIpマネジメント株式会社 | Camera parameter set calculating apparatus, camera parameter set calculating method, and program |
JP7054803B2 (en) | 2017-07-21 | 2022-04-15 | パナソニックIpマネジメント株式会社 | Camera parameter set calculation device, camera parameter set calculation method and program |
KR20190081308A (en) * | 2017-12-29 | 2019-07-09 | 주식회사 세종크리에이티브 | A Distance Measuring Method Using Images And Vehicle Controlling Method Thereof |
KR102633257B1 (en) * | 2017-12-29 | 2024-02-05 | 김주연 | A Distance Measuring Method Using Images And Vehicle Controlling Method Thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6036065B2 (en) | Gaze position detection device and gaze position detection method | |
CN109831660B (en) | Depth image acquisition method, depth image acquisition module and electronic equipment | |
JP3868876B2 (en) | Obstacle detection apparatus and method | |
US10659762B2 (en) | Stereo camera | |
WO2014073322A1 (en) | Object detection device and object detection method | |
JP2006252473A (en) | Obstacle detector, calibration device, calibration method and calibration program | |
WO2015125298A1 (en) | Local location computation device and local location computation method | |
JP2013257244A (en) | Distance measurement device, distance measurement method, and distance measurement program | |
JP5834933B2 (en) | Vehicle position calculation device | |
TW201004818A (en) | The asynchronous photography automobile-detecting apparatus | |
WO2015125296A1 (en) | Local location computation device and local location computation method | |
KR101203816B1 (en) | Robot fish localization system using artificial markers and method of the same | |
CN112889272B (en) | Depth image acquisition method, depth image acquisition device and electronic device | |
JP5539250B2 (en) | Approaching object detection device and approaching object detection method | |
JP2015184929A (en) | Three-dimensional object detection apparatus, three-dimensional object detection method and three-dimensional object detection program | |
JP6396499B2 (en) | Scale measurement of 3D information | |
JP2008309519A (en) | Object detection device using image processing | |
US20220292703A1 (en) | Image processing device, three-dimensional measurement system, and image processing method | |
JPH1144533A (en) | Preceding vehicle detector | |
JP2004126905A (en) | Image processor | |
CA2994645C (en) | Step detection device and step detection method | |
CN111260538B (en) | Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera | |
JP2010286995A (en) | Image processing system for vehicle | |
US20180307932A1 (en) | Outside Recognition Device for Vehicle | |
JP2013190281A (en) | Installation state detection system, installation state detection apparatus and installation state detection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150514 |