JP2013257244A - Distance measurement device, distance measurement method, and distance measurement program - Google Patents

Distance measurement device, distance measurement method, and distance measurement program Download PDF

Info

Publication number
JP2013257244A
JP2013257244A JP2012134158A JP2012134158A JP2013257244A JP 2013257244 A JP2013257244 A JP 2013257244A JP 2012134158 A JP2012134158 A JP 2012134158A JP 2012134158 A JP2012134158 A JP 2012134158A JP 2013257244 A JP2013257244 A JP 2013257244A
Authority
JP
Japan
Prior art keywords
distance
position parameter
viewpoints
camera
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012134158A
Other languages
Japanese (ja)
Inventor
Takayuki Tamaru
貴行 田丸
Kei Tokui
圭 徳井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012134158A priority Critical patent/JP2013257244A/en
Publication of JP2013257244A publication Critical patent/JP2013257244A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve the accuracy of correcting a camera-position parameter in the calibration.SOLUTION: A known-article detection part, storing pattern information related to the image of a predetermined article, detects a position of a known article that is the article related to the pattern information on the basis of an image represented by input image signals of plural viewpoints. A correlation detection part detects a multiple-eye infinite distance zone that is a zone in an image representing an article existing in a multiple-eye infinite distance, the article for which a significant parallax between plural viewpoints cannot be detected from individual images represented by the input image signals of plural viewpoints, and determines correlation information indicating correlation among the viewpoints of the multiple-eye infinite zone. A position parameter calculation part calculates a position parameter indicating a positional relationship between the plural viewpoints on the basis of: the position of the known article detected by the article detection part; and the correlation information determined by the correlation detection part. A distance calculation part uses the calculated position parameter to calculate a distance to the article represented by the input image of plural viewpoints.

Description

本発明は、距離測定装置、距離測定方法、及び距離測定プログラムに関する。   The present invention relates to a distance measuring device, a distance measuring method, and a distance measuring program.

車両から障害物や対象物などに至る距離を測定するために、車両に搭載した複数のカメラ(ステレオカメラ)によって撮影された画像に基づいて、三角測量の原理を用いて距離を測定する多眼距離測定方法が知られている。この方法では、複数のカメラが所定の位置関係にあることを前提として、距離の測定を行う。しかし、上記所定の位置は、車両の走行中の振動、衝撃、気温の変動等で、変化するので、正確な距離測定を行うためには、キャリブレーション(校正)を行って上記距離の測定の精度を保つことが必須である。  Multi-lens that measures the distance from a vehicle to obstacles and objects using the principle of triangulation based on images taken by multiple cameras (stereo cameras) mounted on the vehicle A distance measuring method is known. In this method, distance is measured on the assumption that a plurality of cameras are in a predetermined positional relationship. However, since the predetermined position changes due to vibrations, impacts, fluctuations in temperature, etc. during travel of the vehicle, in order to perform accurate distance measurement, calibration (calibration) is performed to measure the distance. It is essential to maintain accuracy.

キャリブレーション方法として、専用のマーカを利用する方法が知られている。この方法では、複数のカメラで形状既知の専用マーカを撮影し、各カメラと専用マーカ間の相対位置を算出することでカメラ間の相対位置を算出する。しかし、専用マーカを利用する方法では、キャリブレーションの度に専用マーカを撮影するため、専用マーカを特別に設置する等の取り扱いが煩雑になる。そこで、専用マーカの代わりに自動車登録番号標(ナンバープレート)や道路標示(例えば、交通信号機)などの道路上に多く存在しかつ形状が既知の物体を利用してキャリブレーションを行う方法が提案されている。
例えば、特許文献1には、光学系と撮像素子とから構成される複数のカメラで得たステレオ画像に基づいて距離を検出する距離検出装置におけるずれを検出する方法であって、前記光学系を介して前記撮像素子に撮像された既知物体像から前記既知物体までの第1距離値を求め、次いで、第1距離値と、前記ステレオ画像から検出した前記既知物体までの第2距離値と、を比較することで、前記距離検出装置におけるずれを検出する方法が記載されている。
As a calibration method, a method using a dedicated marker is known. In this method, a dedicated marker having a known shape is photographed by a plurality of cameras, and the relative position between the cameras is calculated by calculating the relative position between each camera and the dedicated marker. However, in the method using the dedicated marker, since the dedicated marker is photographed every time calibration is performed, handling such as special installation of the dedicated marker becomes complicated. Therefore, a method has been proposed in which calibration is performed using an object that exists on the road and has a known shape, such as a car registration number (number plate) or a road sign (for example, traffic signal) instead of a dedicated marker. ing.
For example, Patent Literature 1 discloses a method of detecting a shift in a distance detection device that detects a distance based on stereo images obtained by a plurality of cameras including an optical system and an imaging device, and includes the optical system. A first distance value from the known object image captured by the imaging device to the known object is obtained, and then a first distance value and a second distance value to the known object detected from the stereo image, A method of detecting a shift in the distance detection device by comparing the above is described.

特開2008−292278号公報JP 2008-292278 A

しかしながら、特許文献1に記載の距離検出装置には、被写体となる物体の特性により撮影が制限される場合があり、その場合にはキャリブレーションを行うことができない。例えば、既知物体としてナンバープレートを利用する場合において、当該距離検出装置はナンバープレートを、同一の方向で撮影する場合が多い。そのため、車両の右左折に伴う回転の場合を除いて、光学系の光軸の方向とナンバープレートの方向との間における角度がほぼ一定である。つまり、撮影したときの条件が同様又は類似した画像が主に取得される。条件が同様又は類似した画像を複数回使用してその平均を取ることでキャリブレーションを行うことは、1つの画像のみを使用してキャリブレーションを行うことに近似するものとなり、このため、カメラからナンバープレートの方向を高精度に推定することができず、ひいては高精度のキャリブレーションを行うことができない。また、特許文献1には、カメラ間の位置関係を示すパラメータの補正を行う処理を採用していない。
本発明の目的は、キャリブレーションにおいて、カメラ位置パラメータの補正精度を向上させる距離測定装置、距離測定方法、及び距離測定プログラムを提供することである。
However, in the distance detection device described in Patent Document 1, shooting may be limited depending on the characteristics of an object that is a subject, and in this case, calibration cannot be performed. For example, when a license plate is used as a known object, the distance detection device often takes a picture of the license plate in the same direction. For this reason, the angle between the direction of the optical axis of the optical system and the direction of the license plate is substantially constant except in the case of rotation associated with turning left and right of the vehicle. In other words, images having the same or similar conditions when shooting are mainly acquired. Performing calibration by using an image having the same or similar conditions multiple times and taking the average thereof approximates to perform calibration using only one image. The direction of the license plate cannot be estimated with high accuracy, and consequently calibration with high accuracy cannot be performed. Patent Document 1 does not employ a process for correcting a parameter indicating a positional relationship between cameras.
An object of the present invention is to provide a distance measuring device, a distance measuring method, and a distance measuring program that improve the correction accuracy of camera position parameters in calibration.

(1)本発明は上記の課題を解決するためになされたものであり、本発明の一態様は、予め定めた物体の画像に係るパターン情報を記憶しておき、複数視点の入力画像信号が表す画像に基づいて前記パターン情報に係る物体である既知物体の位置を検出する既知物体検出部と、前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める対応検出部と、前記既知物体検出部が検出した既知物体の位置と前記対応検出部が定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する位置パラメータ算出部と、前記位置パラメータ算出部が算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する距離算出部と、を備えることを特徴とする距離測定装置である。 (1) The present invention has been made to solve the above-described problems, and one aspect of the present invention stores pattern information related to a predetermined object image, and input image signals from a plurality of viewpoints are stored. A known object detection unit that detects the position of a known object that is an object related to the pattern information based on an image to be represented, and a significant parallax cannot be detected between the plurality of viewpoints from each image represented by the input image signal of the plurality of viewpoints A correspondence detection unit that detects a multi-lens infinity region, which is a region in an image representing an object at multi-lens infinity, and determines correspondence information indicating a correspondence relationship between viewpoints of the multi-lens infinity region; and the known A position parameter calculating unit that calculates a position parameter indicating a positional relationship between the plurality of viewpoints based on the position of the known object detected by the object detecting unit and the correspondence relationship information determined by the correspondence detecting unit; Using the position parameter calculator has calculated, the distance measuring apparatus characterized by comprising: a distance calculation unit that calculates a distance to the object represented by the input image of the plurality of viewpoints.

(2)本発明の他の態様は、上述の距離測定装置であって、入力された速度情報に基づいて前記複数視点が停止しているか否かを判断する速度監視部を備え、前記速度監視部が、前記複数視点が停止していると判断したとき、前記位置パラメータ算出部は前記位置パラメータを算出することを特徴とする。 (2) Another aspect of the present invention is the distance measuring device described above, comprising a speed monitoring unit that determines whether or not the plurality of viewpoints are stopped based on the input speed information, and the speed monitoring When the unit determines that the plurality of viewpoints are stopped, the position parameter calculation unit calculates the position parameter.

(3)本発明の他の態様は、上述の距離測定装置であって、前記位置パラメータ算出部が算出した位置パラメータを記憶する位置パラメータ記憶部と、前記位置パラメータ算出部が算出した位置パラメータに基づいて算出した物体までの第1の距離と、前記位置パラメータ記憶部が記憶する位置パラメータに基づいて算出した当該物体までの第2の距離のうち、前記距離算出部が算出した当該物体までの第3の距離に前記第1の距離の方がより近似すると判定したとき、前記位置パラメータ算出部が算出した位置パラメータを前記位置パラメータ記憶部に記憶させる位置パラメータ判定部と、を備えることを特徴とする。 (3) Another aspect of the present invention is the above-described distance measuring device, wherein the position parameter storage unit stores the position parameter calculated by the position parameter calculation unit, and the position parameter calculated by the position parameter calculation unit. Of the first distance to the object calculated based on the second distance to the object calculated based on the position parameter stored in the position parameter storage unit, the distance to the object calculated by the distance calculation unit A position parameter determination unit that stores the position parameter calculated by the position parameter calculation unit in the position parameter storage unit when it is determined that the first distance is closer to the third distance. And

(4)本発明の他の態様は、上述の距離測定装置であって、前記既知物体検出部が前記多眼無限遠よりも近い距離に前記複数視点の入力画像信号に基づいて前記既知物体を検出しなかったとき、前記対応検出部は前記多眼無限遠領域を検出することを特徴とする。 (4) Another aspect of the present invention is the distance measurement apparatus described above, wherein the known object detection unit is configured to detect the known object based on the input image signals of the plurality of viewpoints at a distance closer to the multiview infinity. When not detected, the correspondence detection unit detects the multi-lens infinity region.

(5)本発明の他の態様は、上述の距離測定装置であって、前記既知物体検出部及び前記対応検出部は、前記速度監視部において前記複数視点が停止していると判断したときに入力された複数視点の入力画像信号を用いて、それぞれ前記既知物体の位置を検出し、前記対応関係情報を定めることを特徴とする。 (5) Another aspect of the present invention is the distance measurement device described above, wherein the known object detection unit and the correspondence detection unit determine that the plurality of viewpoints are stopped in the speed monitoring unit. The correspondence information is determined by detecting the positions of the known objects using the input image signals of a plurality of viewpoints.

(6)本発明の他の態様は、上述の距離測定装置であって、照明装置に対して光を放射するか否かを制御する照明制御部を備え、前記対応検出部は、前記照明装置が光を放射したときに入力された点灯時の入力画像信号と、前記照明装置が光を放射しないときに入力された消灯時の入力画像信号とに基づいて前記多眼無限遠領域を検出することを特徴とする。 (6) Another aspect of the present invention is the distance measuring device described above, including an illumination control unit that controls whether light is emitted to the illumination device, wherein the correspondence detection unit is the illumination device. The multi-lens infinity region is detected based on an input image signal at the time of lighting input when the light source emits light and an input image signal at the time of turn-off input when the lighting device does not emit light. It is characterized by that.

(7)本発明の他の態様は、上述の距離測定装置であって、前記点灯時の入力画像信号と前記消灯時の入力画像信号の少なくとも一方が表す画像に係る物体の明るさが、前記点灯時の入力画像信号と前記消灯時の入力画像信号との間で、信号値の差が予め定めた値よりも大きくなる明るさである場合、前記多眼無限遠領域を検出することを特徴とする。 (7) Another aspect of the present invention is the distance measurement device described above, wherein the brightness of an object related to an image represented by at least one of the input image signal when the light is turned on and the input image signal when the light is turned off is The multi-lens infinity region is detected when the difference between the signal values is larger than a predetermined value between the input image signal when turned on and the input image signal when turned off. And

(8)本発明の他の態様は、上述の距離測定装置であって、前記対応検出部は、前記速度監視部において前記複数視点が停止していると判断する直前に入力された前記複数視点の入力画像信号もしくは前記速度監視部において前記複数視点が停止していないと判断した直後に入力された前記複数視点の入力画像信号、及び前記速度監視部が、前記複数視点が停止していると判断しているときに入力された前記複数視点の入力画像信号に基づいて、前記多眼無限遠領域を検出することを特徴とする。 (8) Another aspect of the present invention is the above-described distance measuring device, wherein the correspondence detection unit is input the plurality of viewpoints immediately before the speed monitoring unit determines that the plurality of viewpoints are stopped. The input image signal of the plurality of viewpoints input immediately after it is determined that the plurality of viewpoints are not stopped in the speed monitoring unit, and the speed monitoring unit has the plurality of viewpoints stopped. The multi-lens infinity region is detected based on the input image signals of the plurality of viewpoints input at the time of determination.

(9)本発明の他の態様は、上述の距離測定装置であって、前記予め定めた物体は、自動車登録番号標であることを特徴とする。 (9) Another aspect of the present invention is the distance measuring device described above, wherein the predetermined object is an automobile registration number mark.

(10)本発明の他の態様は、距離測定装置における距離測定方法において、前記距離測定装置は、複数視点の入力画像信号が表す画像に基づいて予め定めた物体の画像に係るパターン情報に係る物体である既知物体の位置を検出する第1の過程と、前記距離測定装置は、前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める第2の過程と、前記距離測定装置は、前記検出した既知物体の位置と前記定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する第3の過程と、前記距離測定装置は、前記算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する第4の過程と、を有することを特徴とする距離測定方法である。 (10) According to another aspect of the present invention, in the distance measurement method in the distance measurement device, the distance measurement device relates to pattern information related to an image of an object determined in advance based on an image represented by an input image signal of a plurality of viewpoints. A first step of detecting a position of a known object that is an object, and the distance measuring device is capable of detecting a significant parallax between the plurality of viewpoints from each image represented by the input image signal of the plurality of viewpoints. A second step of detecting a multi-lens infinity region, which is an area in an image representing an object, and determining correspondence information indicating a correspondence relationship between viewpoints of the multi-lens infinity region; A third step of calculating a position parameter indicating a positional relationship between the plurality of viewpoints based on the detected position of the known object and the determined correspondence information; and the distance measuring device includes the calculated position parameter. Using the meter, a distance measuring method characterized by having a a fourth step of calculating the distance to the object represented by the input image of the plurality of viewpoints.

(11)本発明の他の態様は、距離測定装置における距離測定プログラムにおいて、複数視点の入力画像信号が表す画像に基づいて予め定めた物体の画像に係るパターン情報に係る物体である既知物体の位置を検出する第1の手順、前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める第2の手順、前記検出した既知物体の位置と前記定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する第3の手順、前記算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する第4の手順、を実行させるための距離測定プログラムである。 (11) According to another aspect of the present invention, in a distance measurement program in a distance measurement device, a known object that is an object related to pattern information related to an image of an object determined in advance based on an image represented by an input image signal of a plurality of viewpoints A first procedure for detecting a position, a multi-view that is an area in an image representing an object at multi-lens infinity that cannot detect a significant parallax between the multiple viewpoints from each image represented by the input image signals of the multiple viewpoints A second procedure for determining correspondence information indicating a correspondence relationship between viewpoints of the multi-lens infinity region, detecting the infinite region; Third procedure for calculating a position parameter indicating a positional relationship between viewpoints, and a fourth procedure for calculating a distance to an object represented by the input image of the plurality of viewpoints using the calculated position parameter. A distance measuring program for execution.

本発明によれば、距離測定装置、距離測定方法、及び距離測定プログラムにおいて、カメラ位置パラメータのキャリブレーションにおける補正精度が向上する。   According to the present invention, in the distance measuring device, the distance measuring method, and the distance measuring program, the correction accuracy in the calibration of the camera position parameter is improved.

本発明の実施形態に係る距離測定装置の構成例を表すブロック図である。It is a block diagram showing the structural example of the distance measuring device which concerns on embodiment of this invention. 本実施形態における基準カメラ、非基準カメラの取り付け位置を示す俯瞰図である。It is an overhead view which shows the attachment position of the reference camera in this embodiment, and a non-reference camera. 本実施形態に係る形状既知物体位置検出部の構成例を表すブロック図である。It is a block diagram showing the example of a structure of the known shape object position detection part which concerns on this embodiment. ナンバープレートまでの距離を算出する際の透視投影カメラモデルを示す概念図である。It is a conceptual diagram which shows the perspective projection camera model at the time of calculating the distance to a license plate. 本実施形態に係る多眼無限遠対応検出部の構成例を表すブロック図である。It is a block diagram showing the example of a structure of the detection part corresponding to a multi-lens infinity concerning this embodiment. 本実施形態に係る本実施形態に係るカメラ位置パラメータ判定処理を表すフローチャートである。It is a flowchart showing the camera position parameter determination process which concerns on this embodiment which concerns on this embodiment. 多眼距離測定方法に用いる透視投影カメラモデルを示す概念図である。It is a conceptual diagram which shows the perspective projection camera model used for the multi-eye distance measuring method.

以下、図面を参照しながら本発明の実施形態について詳しく説明する。
図1は、本実施形態に係る距離測定装置1の構成例を表すブロック図である。
距離測定装置1は、撮影部11、車両速度検出部12及び距離測定部13を含んで構成される。撮影部11は、基準カメラ11A及び非基準カメラ11Bを含んで構成される。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of a distance measuring device 1 according to the present embodiment.
The distance measuring device 1 includes an imaging unit 11, a vehicle speed detecting unit 12, and a distance measuring unit 13. The photographing unit 11 includes a reference camera 11A and a non-reference camera 11B.

撮影部11は、車両の後方の物体(障害物又は対象物)を撮影し、撮影した画像を示す画像信号を生成して、生成した画像信号をそれぞれ距離測定部13に出力する。
撮影部11の基準カメラA及び非基準カメラBは、それぞれカメラモジュールである。カメラモジュールは、CCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどの固体撮像素子と、レンズなどの光学部品からなる光学系等を含んで構成される。カメラモジュールは、画角が広い超広角レンズや魚眼レンズを含んで構成されることができる。基準カメラA及び非基準カメラBの光軸は、平行であり、かつ、基線に対して垂直である。
撮影部11は、このようなレンズを備えるカメラモジュールを用いて広範な視野の画像を撮影することができる。
The imaging unit 11 captures an object (obstacle or object) behind the vehicle, generates an image signal indicating the captured image, and outputs the generated image signal to the distance measurement unit 13.
The reference camera A and the non-reference camera B of the imaging unit 11 are each a camera module. The camera module includes a solid-state imaging device such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor, and an optical system including optical components such as a lens. The camera module can be configured to include a super wide angle lens or a fisheye lens with a wide angle of view. The optical axes of the reference camera A and the non-reference camera B are parallel and perpendicular to the base line.
The imaging unit 11 can capture an image with a wide field of view using a camera module including such a lens.

基準カメラ11Aは、2個のカメラモジュールのうち一方であって、後述する位置や処理の基準となるカメラモジュールである。非基準カメラ11Bは、他方のカメラモジュールである。撮影部11が左右のカメラモジュールからなるステレオカメラである場合、例えば、基準カメラ11Aは左側のカメラモジュールであり、非基準カメラ11Bは右側のカメラモジュールである。
基準カメラ11A、非基準カメラ11Bが備える光学系の特性は、カメラ内部パラメータで示される。カメラ内部パラメータには、焦点距離、センササイズ、レンズ歪み係数等がある。これらのパラメータは、いずれも既知のパラメータである。
以下の説明では、基準カメラ11A及び非基準カメラ11Bを総称して、単に「カメラ」と呼ぶことがある。カメラの位置とは、カメラが備える光学系の視点(レンズの焦点における撮像面)の位置を指す。視点は、被写体を視認する位置であり、カメラの位置を示すパラメータである。
なお、本実施形態では、基準カメラ11A及び非基準カメラ11Bとしてカメラモジュールの代わりに単体のカメラ(カメラユニット)を備えてもよい。基準カメラ11A及び非基準カメラ11Bの配置例については後述する。
The reference camera 11A is one of the two camera modules, and is a camera module that serves as a reference for positions and processing described later. The non-reference camera 11B is the other camera module. When the photographing unit 11 is a stereo camera including left and right camera modules, for example, the reference camera 11A is a left camera module, and the non-reference camera 11B is a right camera module.
The characteristics of the optical system provided in the reference camera 11A and the non-reference camera 11B are indicated by camera internal parameters. Camera internal parameters include focal length, sensor size, lens distortion coefficient, and the like. These parameters are all known parameters.
In the following description, the reference camera 11A and the non-reference camera 11B may be collectively referred to simply as “camera”. The position of the camera refers to the position of the viewpoint of the optical system provided in the camera (the imaging surface at the focal point of the lens). The viewpoint is a position where the subject is visually recognized, and is a parameter indicating the position of the camera.
In the present embodiment, a single camera (camera unit) may be provided instead of the camera module as the reference camera 11A and the non-reference camera 11B. An arrangement example of the reference camera 11A and the non-reference camera 11B will be described later.

車両速度検出部(速度検出部)12は、距離測定装置1を搭載する車両(以下、「自車両」と言うことがある。)の速度を検出する。車両速度検出部12は、既存の速度計から自車両の速度を示す電気的な速度信号を検出して、この信号を距離測定部13に出力する。  The vehicle speed detection unit (speed detection unit) 12 detects the speed of a vehicle (hereinafter also referred to as “own vehicle”) on which the distance measuring device 1 is mounted. The vehicle speed detection unit 12 detects an electrical speed signal indicating the speed of the host vehicle from an existing speedometer, and outputs this signal to the distance measurement unit 13.

距離測定部13は、車両速度監視部(以下、「速度監視部」と言うことがある。)132、形状既知物体位置検出部(以下、「位置情報算出部」と言うことがある。)133、多眼無限遠対応検出部(以下、「領域対応検出部」と言うことがある。)134、カメラ位置パラメータ算出部(以下、「位置パラメータ算出部」と言うことがある。)135、カメラ位置パラメータ判定部(以下、「位置パラメータ判定部」と言うことがある。)136、カメラ位置パラメータ記憶部(以下、「位置パラメータ記憶部」と言うことがある。)137及び距離算出部138を含んで構成される。距離測定部13は、その他の構成部、即ち、撮影部11及び車両速度検出部12から着脱可能な単体の距離測定装置として構成されていてもよい。  The distance measuring unit 13 includes a vehicle speed monitoring unit (hereinafter also referred to as “speed monitoring unit”) 132, and a known shape object position detection unit (hereinafter also referred to as “position information calculation unit”) 133. , Multi-lens infinity correspondence detection unit (hereinafter also referred to as “region correspondence detection unit”) 134, camera position parameter calculation unit (hereinafter also referred to as “position parameter calculation unit”) 135, camera. A position parameter determination unit (hereinafter also referred to as “position parameter determination unit”) 136, a camera position parameter storage unit (hereinafter also referred to as “position parameter storage unit”) 137, and a distance calculation unit 138. Consists of including. The distance measuring unit 13 may be configured as a single distance measuring device that is detachable from other components, that is, the photographing unit 11 and the vehicle speed detecting unit 12.

車両速度監視部132は、車両速度検出部12から入力された速度信号に基づいて自車両が停止しているか否かを判断する。車両速度監視部132は、入力された速度信号が、速度が0(ゼロ)であることを示す場合に、自車両が停止していると判定して、停止信号を生成する。車両速度監視部132は、生成した停止信号を、形状既知物体位置検出部133及び多眼無限遠対応検出部134に出力する。車両速度監視部132は、入力された速度信号が、或る速度であることを示す場合に、走行信号を生成する。車両速度監視部132は、生成した走行信号を、形状既知物体位置検出部133及び多眼無限遠対応検出部134に出力する。  The vehicle speed monitoring unit 132 determines whether the host vehicle is stopped based on the speed signal input from the vehicle speed detection unit 12. When the input speed signal indicates that the speed is 0 (zero), the vehicle speed monitoring unit 132 determines that the host vehicle is stopped and generates a stop signal. The vehicle speed monitoring unit 132 outputs the generated stop signal to the known shape object position detection unit 133 and the multi-lens infinity correspondence detection unit 134. The vehicle speed monitoring unit 132 generates a travel signal when the input speed signal indicates a certain speed. The vehicle speed monitoring unit 132 outputs the generated travel signal to the known shape object position detection unit 133 and the multi-lens infinity correspondence detection unit 134.

形状既知物体位置検出部133は、撮影部11から入力された画像信号に基づいて、各カメラに対する物体の相対位置を算出する。相対位置とは、基準となる物体(上述の例では、基準カメラ11A又は非基準カメラ11B)に対する対象の物体の3次元相対座標値であり、3次元相対角度値を含んでいてもよい。
形状既知物体位置検出部133は、車両速度監視部132から停止信号が入力されるとき、基準カメラ11Aおよび非基準カメラ11Bから画像信号を同時に受け入れる。
相対位置の算出対象となる物体は、形状既知物体である。形状既知物体とは形状及び大きさが既知の物体である。以下、形状既知物体が他の後続車両の「ナンバープレート」である場合を例にとって説明する。車両速度監視部132から停止信号が入力されるとき、形状既知物体位置検出部133は、相対位置の算出を行う。形状既知物体位置検出部133は、算出した相対位置を示す相対位置情報を生成し、生成した相対位置情報はカメラ位置パラメータ算出部135から読み出される。
The known shape object position detection unit 133 calculates the relative position of the object with respect to each camera based on the image signal input from the imaging unit 11. The relative position is a three-dimensional relative coordinate value of a target object with respect to a reference object (in the above example, the reference camera 11A or the non-reference camera 11B), and may include a three-dimensional relative angle value.
When a stop signal is input from the vehicle speed monitoring unit 132, the known shape object position detection unit 133 simultaneously receives image signals from the reference camera 11A and the non-reference camera 11B.
The object whose relative position is to be calculated is a known shape object. A known shape object is an object whose shape and size are known. Hereinafter, a case where the known shape object is a “number plate” of another succeeding vehicle will be described as an example. When a stop signal is input from the vehicle speed monitoring unit 132, the known shape object position detection unit 133 calculates a relative position. The known shape object position detection unit 133 generates relative position information indicating the calculated relative position, and the generated relative position information is read from the camera position parameter calculation unit 135.

多眼無限遠対応検出部134は、基準カメラ11Aおよび非基準カメラ11Bから入力された画像信号が表す画像から、後述する多眼無限遠の距離にある物体の画像を示す多眼無限遠領域をそれぞれ検出する。
以下、基準カメラ11Aから形状既知物体位置検出部133および多眼無限遠対応検出部134へ入力された画像信号を基準画像信号と呼び、基準画像信号が表す画像を基準画像と呼ぶ。非基準カメラ11Bから入力された画像信号を非基準画像信号と呼び、非基準画像信号が表す画像を非基準画像と呼ぶ。
多眼無限遠対応検出部134は、基準画像のうち検出した無限遠領域と、非基準画像のうち検出した無限遠領域との対応関係を示す多眼無限遠領域間対応情報(対応関係情報)を生成する。多眼無限遠領域間対応情報は、基準画像の無限遠領域に含まれる各座標と非基準画像の無限遠領域に含まれる座標との対応関係を示す情報である。つまり、多眼無限遠領域間対応情報は、基準画像の無限遠領域内に表された物体が表されている領域と、非基準画像の無限縁領域内において、その物体が表されている領域との対応関係を示す情報である。
多眼無限遠対応検出部134が生成した多眼無限遠領域間対応情報は、カメラ位置パラメータ算出部135から読み出される。多眼無限遠対応検出部134の構成については後述する。
The multi-lens infinity correspondence detection unit 134 detects a multi-lens infinity region indicating an image of an object at a multi-lens infinity distance, which will be described later, from the images represented by the image signals input from the reference camera 11A and the non-reference camera 11B. Detect each.
Hereinafter, an image signal input from the reference camera 11A to the known shape object position detection unit 133 and the multi-lens infinity correspondence detection unit 134 is referred to as a reference image signal, and an image represented by the reference image signal is referred to as a reference image. An image signal input from the non-reference camera 11B is called a non-reference image signal, and an image represented by the non-reference image signal is called a non-reference image.
The multi-lens infinity correspondence detection unit 134 includes correspondence information between multi-lens infinity regions (correspondence information) indicating a correspondence relationship between the detected infinity region in the reference image and the detected infinity region in the non-reference image. Is generated. The multi-eye infinity region correspondence information is information indicating a correspondence relationship between each coordinate included in the infinity region of the reference image and a coordinate included in the infinity region of the non-reference image. In other words, the multi-lens infinity region correspondence information includes the region in which the object is represented in the infinity region of the reference image and the region in which the object is represented in the infinite edge region of the non-reference image. It is the information which shows the corresponding relationship.
The correspondence information between multi-lens infinity regions generated by the multi-lens infinity correspondence detection unit 134 is read from the camera position parameter calculation unit 135. The configuration of the multiview infinity correspondence detecting unit 134 will be described later.

ここで、多眼無限遠とは、基準画像における座標と非基準画像における対応する座標の差が予め定めた画素数(例えば、1ピクセル)以下となる座標に対応する距離である。但し、基準カメラ11A及び非基準カメラBの光軸が互いに並行であり、それぞれのイメージセンサ(撮像素子)の水平方向が同一平面上にある場合を仮定する。つまり、多眼無限遠とは、互いに異なる視点で撮影された画像間の視差であって、当該視点間で有意な非零の視差が、検出されなくなる距離である。言い換えれば、画像間の視差に基づいて、各画像が表す物体の距離を判別できない遠い距離である。この距離は、カメラ間の位置関係、光学系,撮像系の特性(例えば画素ピッチ)に依存する。そのため、車両の発進、移動、停止の際の振動や時間の経過等に伴い基準カメラ11Aに対する非基準カメラ11Bの相対位置(例えば、光軸の平行度、間隔、等)が変化すると、基準画像及び非基準画像において、多眼無限遠に存在する物体を表す領域が変化する。そこで、形状既知物体の位置情報に加えて、後述するように多眼無限遠領域間対応情報を用いてカメラ間の相対位置(例えば、光軸の相対方向)を用いてカメラパラメータのキャリブレーション(校正)を行う。このキャリブレーションを行ったカメラパラメータを用いることによって、撮影された物体までの距離に対する算出精度を向上させることができる。なお、多眼無限遠でない距離、つまり互いに異なる視点で撮影された画像間の視差のうち、有意な視差が検出される距離を多眼有限遠と呼ぶ。
なお、基準カメラ11A、非基準カメラ11Bが視野角の広いレンズを備える場合、基準画像及び非基準画像のうち形状既知物体の画像が表される領域が小さくなる。そのため、形状既知物体の画像のみを用いてカメラパラメータのキャリブレーションを行うにしても、カメラ間の相対位置の算出精度が低くなる。そのため、カメラ間の相対位置を算出(後述)する際、多眼無限遠領域間対応情報を用いることによって算出精度を向上させることができる。
Here, the multi-lens infinity is a distance corresponding to coordinates at which the difference between the coordinates in the reference image and the corresponding coordinates in the non-reference image is equal to or less than a predetermined number of pixels (for example, 1 pixel). However, it is assumed that the optical axes of the reference camera 11A and the non-reference camera B are parallel to each other and the horizontal directions of the respective image sensors (imaging devices) are on the same plane. That is, multi-lens infinity is a parallax between images taken from different viewpoints, and is a distance at which significant non-zero parallax is not detected between the viewpoints. In other words, it is a far distance in which the distance of the object represented by each image cannot be determined based on the parallax between the images. This distance depends on the positional relationship between the cameras, the characteristics of the optical system and the imaging system (for example, pixel pitch). Therefore, if the relative position of the non-reference camera 11B with respect to the reference camera 11A (for example, the parallelism of the optical axis, the interval, etc.) changes with the vibration at the start, movement, and stop of the vehicle, the passage of time, etc. In the non-reference image, a region representing an object existing at multi-lens infinity changes. Therefore, in addition to the position information of the known shape object, the camera parameter calibration (for example, the relative direction of the optical axis) using the relative position between the cameras (for example, the relative direction of the optical axis) is used as described later. Perform calibration). By using the camera parameters that have been calibrated, the calculation accuracy for the distance to the photographed object can be improved. Note that a distance at which a significant parallax is detected among parallaxes between images taken from different viewpoints, that is, a distance that is not multi-lens infinity is called multi-lens finite.
In addition, when the reference camera 11A and the non-reference camera 11B are provided with a lens having a wide viewing angle, an area where an image of a known shape object is represented in the reference image and the non-reference image becomes small. For this reason, even when camera parameters are calibrated using only an image of a known shape object, the calculation accuracy of the relative position between the cameras is lowered. Therefore, when calculating the relative position between the cameras (described later), the calculation accuracy can be improved by using the correspondence information between the multi-lens infinity regions.

なお、形状既知物体位置検出部133、多眼無限遠対応検出部134は、移動している自車両が停止したと判断された直後に入力された画像信号を、それぞれ上述の処理に用いるようにしてもよい。ここで、形状既知物体位置検出部133、多眼無限遠対応検出部134は、車両速度監視部132から入力される信号が走行信号から停止信号へと再び遷移した直後に入力された画像を、それぞれ次回行われる処理で用いる。これにより、停止中に同一の被写体を同様な条件で撮影した画像信号を用いて同様な処理を反復することが回避される。これにより、精度の向上に無用な処理が回避されるため消費電力を低減することができる。   Note that the known shape object position detection unit 133 and the multi-lens infinity correspondence detection unit 134 use an image signal input immediately after it is determined that the moving host vehicle has stopped for the above-described processing. May be. Here, the known shape object position detection unit 133 and the multi-lens infinity correspondence detection unit 134 obtain an image input immediately after the signal input from the vehicle speed monitoring unit 132 transitions again from the travel signal to the stop signal. Each is used in the next processing. Accordingly, it is possible to avoid repeating the same process using an image signal obtained by photographing the same subject under the same conditions while stopped. As a result, unnecessary processing for improving accuracy is avoided, so that power consumption can be reduced.

カメラ位置パラメータ算出部135は、形状既知物体位置検出部133から読み出した相対位置情報と多眼無限遠対応検出部134から読み出した多眼無限遠領域間対応情報に基づいて、カメラ位置パラメータを算出する。カメラ位置パラメータとは、カメラ間の相対位置の関係を示すパラメータである。つまり、カメラ位置パラメータは、基準カメラ11Aの視点を原点とした非基準カメラ11Bの視点の3次元相対座標値(X,Y,Z)と、基準カメラ11Aの光軸の方向を基準とした非基準カメラ11Bの光軸の方向の3次元相対角度値(θ,φ,ψ)からなる、計6個のパラメータを含む。
カメラ位置パラメータ算出部135は、算出したカメラ位置パラメータをカメラ位置パラメータ判定部136に出力する。カメラ位置パラメータを算出する処理については後述する。
The camera position parameter calculation unit 135 calculates the camera position parameter based on the relative position information read from the known shape object position detection unit 133 and the correspondence between the multiview infinity areas read from the multiview infinity correspondence detection unit 134. To do. The camera position parameter is a parameter indicating a relationship of relative positions between cameras. In other words, the camera position parameter is determined based on the three-dimensional relative coordinate values (X, Y, Z) of the viewpoint of the non-reference camera 11B with the viewpoint of the reference camera 11A as the origin and the direction of the optical axis of the reference camera 11A. It includes a total of six parameters consisting of three-dimensional relative angle values (θ, φ, ψ) in the direction of the optical axis of the reference camera 11B.
The camera position parameter calculation unit 135 outputs the calculated camera position parameter to the camera position parameter determination unit 136. Processing for calculating the camera position parameter will be described later.

カメラ位置パラメータ判定部136は、カメラ位置パラメータ算出部135から(新たに算出した)カメラ位置パラメータが入力され、カメラ位置パラメータ記憶部137から(キャリブレーションを行う前の)カメラ位置パラメータを読み出す。カメラ位置パラメータ判定部136は、入力されたカメラ位置パラメータと読み出したカメラ位置パラメータとを比較し、より適切なカメラ位置パラメータを判定し、より適切と判定したカメラ位置パラメータをカメラ位置パラメータ記憶部137に記憶する。カメラ位置パラメータ判定部136又はその他の構成部が行うカメラ位置パラメータ判定処理については後述する。  The camera position parameter determination unit 136 receives the camera position parameter (newly calculated) from the camera position parameter calculation unit 135, and reads the camera position parameter (before calibration) from the camera position parameter storage unit 137. The camera position parameter determination unit 136 compares the input camera position parameter with the read camera position parameter, determines a more appropriate camera position parameter, and determines the more appropriate camera position parameter as the camera position parameter storage unit 137. To remember. Camera position parameter determination processing performed by the camera position parameter determination unit 136 or other components will be described later.

距離算出部138は、カメラ位置パラメータ記憶部137に記憶されているカメラ位置パラメータを読み出し、基準カメラ11A、非基準カメラ11Bからそれぞれ画像信号が入力される。距離算出部138は、読み出したカメラ位置パラメータを用いて、基準カメラ11Aから入力された画像信号と非基準カメラ11Bから入力された画像信号に基づいて、基準画像の画素毎にその画像に表されている物体までの距離を算出する。距離算出部138は、算出した距離を表す距離信号を距離測定部13の外部に出力する。距離算出部138は、距離を算出する際、例えば三角測量の原理に基づく多眼距離測定方法を用いる。多眼距離測定方法については後述する。  The distance calculation unit 138 reads the camera position parameters stored in the camera position parameter storage unit 137, and receives image signals from the reference camera 11A and the non-reference camera 11B, respectively. The distance calculation unit 138 uses the read camera position parameter to represent the image of each pixel of the reference image based on the image signal input from the reference camera 11A and the image signal input from the non-reference camera 11B. Calculate the distance to the moving object. The distance calculation unit 138 outputs a distance signal representing the calculated distance to the outside of the distance measurement unit 13. When calculating the distance, the distance calculation unit 138 uses, for example, a multi-eye distance measurement method based on the principle of triangulation. The multi-eye distance measuring method will be described later.

(カメラの取付け位置の例)
次に、基準カメラ11A、非基準カメラ11Bの取付け位置の例について説明する。
図2は、本実施形態における基準カメラ11A、非基準カメラ11Bの取り付け位置を示す俯瞰図である。
図2の中央は、距離測定装置1を搭載する自車両21を示す。図2の左側が自車両21の後方を示し、図2の上下が自車両21の左右を示す。
図2において基準カメラ11A、非基準カメラ11Bは、自車両21の後方部に光軸を後方に向けて設置されている。基準カメラ11A、非基準カメラ11Bの左右方向及び高さ方向の座標は、互いにほぼ等しい。そのため、基準カメラ11Aの視野と非基準カメラ11Bの視野の大部分が重複し、重複した領域にある物体が基準画像、非基準画像間で共通になる。これにより、基準画像、非基準画像には、自車両21の後方の物体が表される。基準カメラ11A、非基準カメラ11Bとして、画角の大きいレンズを備えたカメラを用いて撮影された基準画像、非基準画像は、運転者が自車両21の後方の安全確認を行う上で好都合である。
(Example of camera mounting position)
Next, examples of attachment positions of the reference camera 11A and the non-reference camera 11B will be described.
FIG. 2 is an overhead view showing the attachment positions of the reference camera 11A and the non-reference camera 11B in the present embodiment.
The center of FIG. 2 shows the host vehicle 21 on which the distance measuring device 1 is mounted. The left side of FIG. 2 shows the rear side of the host vehicle 21, and the upper and lower sides of FIG.
In FIG. 2, the reference camera 11 </ b> A and the non-reference camera 11 </ b> B are installed behind the host vehicle 21 with the optical axis directed rearward. The coordinates in the horizontal direction and the height direction of the reference camera 11A and the non-reference camera 11B are substantially equal to each other. Therefore, most of the visual field of the reference camera 11A and the visual field of the non-reference camera 11B overlap, and an object in the overlapped region is common between the reference image and the non-reference image. Thereby, the object behind the host vehicle 21 is represented in the reference image and the non-reference image. A reference image and a non-reference image captured using a camera having a lens with a large angle of view as the reference camera 11A and the non-reference camera 11B are convenient for the driver to confirm safety behind the host vehicle 21. is there.

なお、図2に示す例では、基準カメラ11A、非基準カメラ11Bは、自車両21の後方部に光軸を後方に向けて設置されているが、本実施形態ではこれには限られない。基準カメラ11A、非基準カメラ11Bは、自車両21の前方部に光軸を前方に向けて設置されていれもよい。また、基準カメラ11A、非基準カメラ11Bは、自車両21の左側面に光軸を左側に向けて設置されていてもよいし、自車両21の右側面に光軸を右側に向けて設置されていてもよい。  In the example shown in FIG. 2, the reference camera 11 </ b> A and the non-reference camera 11 </ b> B are installed in the rear part of the host vehicle 21 with the optical axis directed rearward, but the present embodiment is not limited thereto. The reference camera 11 </ b> A and the non-reference camera 11 </ b> B may be installed in the front part of the host vehicle 21 with the optical axis directed forward. The reference camera 11 </ b> A and the non-reference camera 11 </ b> B may be installed on the left side surface of the host vehicle 21 with the optical axis facing the left side, or installed on the right side surface of the host vehicle 21 with the optical axis facing the right side. It may be.

(形状既知物体位置検出部の構成例)
次に、本実施形態に係る形状既知物体位置検出部133の構成例について説明する。
図3は、本実施形態に係る形状既知物体位置検出部133の構成例を表すブロック図である。形状既知物体位置検出部133は、形状既知物体検出部(以下、「物体検出部」と言うことがある。)1331、形状既知物体位置算出部(以下、「物体位置算出部」と言うことがある。)1332及び形状既知物体位置記憶部(以下、「物体位置記憶部」と言うことがある。)1333を含んで構成される。
(Configuration example of known shape object position detector)
Next, a configuration example of the known shape object position detection unit 133 according to the present embodiment will be described.
FIG. 3 is a block diagram illustrating a configuration example of the known shape object position detection unit 133 according to the present embodiment. The known shape object position detection unit 133 may be referred to as a known shape object detection unit (hereinafter also referred to as “object detection unit”) 1331 and a known shape object position calculation unit (hereinafter referred to as “object position calculation unit”). 1332 and a known shape object position storage unit (hereinafter also referred to as “object position storage unit”) 1333.

形状既知物体検出部1331は、基準画像信号、非基準画像信号に基づいて、基準画像、非基準画像各々において形状既知物体の画像を表す領域を検出する。形状既知物体の画像を表す領域の検出において、形状既知物体検出部1331は、例えばテンプレートマッチング等、既知の方法を用いる。形状既知物体検出部1331は、例えば、入力された画像信号それぞれについてエッジ抽出等の2値化処理を行いエッジ部分とそれ以外の部分を定める。エッジ部分とは、輝度値の空間変化が予め定めた空間変化値よりも大きい画素の集合である。  Based on the reference image signal and the non-reference image signal, the known shape object detection unit 1331 detects a region representing an image of a known shape object in each of the reference image and the non-reference image. In detecting a region representing an image of a known shape object, the known shape object detection unit 1331 uses a known method such as template matching. The known shape object detection unit 1331 performs binarization processing such as edge extraction on each of the input image signals, for example, and determines an edge portion and other portions. The edge portion is a set of pixels in which the spatial change in luminance value is larger than a predetermined spatial change value.

以下、形状既知物体がナンバープレートである場合を例にとって説明する。形状既知物体検出部1331は、定めたエッジ部分(周辺部分)のうち形状が四辺形又は四辺形に近似するエッジ部分(以下、四辺形領域と呼ぶ)を検出する。ここで、形状既知物体検出部1331は、エッジ部分のうち空間的に閉じた領域を取り囲み、かつ、そのエッジ部分の曲率半径が予め定めた曲率半径よりも小さい部分(頂点)を4個有するエッジ部分を、形状が四辺形領域と判断する。この判断された四辺形領域がナンバープレートを表す領域の候補となる。
ナンバープレートの形状が長方形又は長方形に近似する形状(例えば、長方形の各頂点が丸みを帯びている図形)である場合、形状既知物体検出部1331は、パターン記憶部を備える。パターン記憶部には、ナンバープレートの形状を示す情報(例えば、長方形の水平方向の幅と垂直方向の幅との間の比率である縦横比)、ナンバープレートに表示する文字を示す文字パターンを予め記憶させておく。即ち、ナンバープレートを表す画像に係るパターン情報として記憶される情報は、ナンバープレートの形状を示す情報と文字パターンである。
形状既知物体検出部1331は、検出した四辺形領域を、例えば式(1)を用いて予め記憶された縦横比を有する長方形領域に射影変換する。
Hereinafter, a case where the known shape object is a license plate will be described as an example. The known shape object detection unit 1331 detects an edge portion (hereinafter referred to as a quadrilateral region) whose shape is a quadrangle or a quadrilateral shape among the determined edge portions (peripheral portions). Here, the known shape object detection unit 1331 surrounds a spatially closed region in the edge portion, and has an edge having four portions (vertices) whose curvature radius is smaller than a predetermined curvature radius. The part is determined to be a quadrilateral area. The determined quadrilateral area is a candidate area representing the license plate.
When the shape of the license plate is a rectangle or a shape that approximates a rectangle (for example, a figure in which each vertex of the rectangle is rounded), the known shape object detection unit 1331 includes a pattern storage unit. In the pattern storage unit, information indicating the shape of the license plate (for example, an aspect ratio which is a ratio between the horizontal width and the vertical width of the rectangle), and a character pattern indicating characters to be displayed on the license plate are stored in advance. Remember. That is, information stored as pattern information relating to an image representing a license plate is information indicating the shape of the license plate and a character pattern.
The known shape object detection unit 1331 performs projective transformation on the detected quadrilateral region into a rectangular region having an aspect ratio stored in advance using, for example, Equation (1).

Figure 2013257244
Figure 2013257244

式(1)において、(X,Y)は、変換前の四辺形領域の各頂点の座標値である。(X’,Y’)は、変換後の長方形領域の各々対応する頂点の座標値である。係数a,b,…,iは、変換係数である。係数sは、座標(X,Y)ごとに算出される一時的な値である。形状既知物体検出部1331は、式(1)の左辺における(sX’,sY’,s)のうち、第1列、第2列の要素値をそれぞれ、第3列の要素値である係数sで除算して、(X’,Y’)を算出する。
形状既知物体検出部1331は、変換した長方形領域に配置された文字の画像と予め記憶された文字パターンと、を照合する。形状既知物体検出部1331は、それらの文字の画像について、文字パターンとの照合が全て、又は予め定めた個数よりも多い個数について成功した場合、検出した四辺形領域を、ナンバープレートを表す領域(ナンバープレート領域)と判断する。照合においては、例えば、比較対象のデータが類似する度合いを示す指標値が、予め定めた指標値よりも類似することを示す場合、照合に成功したと判断する。形状既知物体検出部1331は、例えばSAD(Sum of Absolute Differences、絶対差分和)を用いる。その場合、形状既知物体検出部1331は、SADが所定の閾値より小さい場合に、照合が成功したと判定する。
In Expression (1), (X, Y) is the coordinate value of each vertex of the quadrilateral area before conversion. (X ′, Y ′) are the coordinate values of the corresponding vertices of the converted rectangular area. The coefficients a, b,..., I are conversion coefficients. The coefficient s is a temporary value calculated for each coordinate (X, Y). The known shape object detection unit 1331 uses (sX ′, sY ′, s) on the left side of Equation (1), the element values in the first column and the second column, and the coefficient s that is the element value in the third column, respectively. (X ′, Y ′) is calculated by dividing by.
The known shape object detection unit 1331 collates the character image arranged in the converted rectangular area with the character pattern stored in advance. The known shape object detection unit 1331 determines that the detected quadrilateral region is a region that represents a license plate when all of the character images are collated with the character pattern or when the number is greater than a predetermined number. License plate area). In the collation, for example, when the index value indicating the degree of similarity of the comparison target data indicates that it is more similar than the predetermined index value, it is determined that the collation is successful. The known shape object detection unit 1331 uses, for example, SAD (Sum of Absolute Differences). In that case, the known shape object detection unit 1331 determines that the collation is successful when the SAD is smaller than a predetermined threshold.

なお、形状既知物体検出部1331は、車両速度監視部132から入力された停止信号が自車両の停止を表し、かつ検出対象のナンバープレートが停止している場合、ナンバープレート領域を表す形状既知物体領域情報を生成する。形状既知物体検出部1331は、生成した形状既知物体領域情報と上述の射影変換に用いた変換係数を形状既知物体位置算出部1332に出力する。
ここで、形状既知物体検出部1331は、基準画像信号に基づいてナンバープレートが停止しているか否かを判定する。ここで、形状既知物体検出部1331は、ナンバープレート領域に含まれる階調値の隣接するフレーム間の差分の合計値を算出し、算出した合計値が予め定めた閾値よりも小さいときナンバープレートが停止している(当該ナンバープレートを設置している車両が停止している)と判定する。これにより、ナンバープレート領域における階調値の変化が少ないことが検出される。形状既知物体検出部1331は、隣接するフレーム間の差分の代わりに、予め定めたフレーム数(例えば2フレーム)だけ離れたフレーム間の差分であってもよい。
The known shape object detection unit 1331 is a known shape object that represents a license plate area when the stop signal input from the vehicle speed monitoring unit 132 indicates the stop of the host vehicle and the detection target license plate is stopped. Generate region information. The known shape object detection unit 1331 outputs the generated known shape object region information and the conversion coefficient used for the above-described projective transformation to the known shape object position calculation unit 1332.
Here, the known shape object detection unit 1331 determines whether or not the license plate is stopped based on the reference image signal. Here, the known shape object detection unit 1331 calculates a total value of differences between adjacent frames of gradation values included in the license plate region, and when the calculated total value is smaller than a predetermined threshold, the license plate It is determined that the vehicle is stopped (the vehicle on which the license plate is installed is stopped). Thereby, it is detected that the change in the gradation value in the license plate region is small. The known shape object detection unit 1331 may be a difference between frames separated by a predetermined number of frames (for example, two frames) instead of the difference between adjacent frames.

ナンバープレートが停止していると判定するのは、カメラに対する撮影対象の物体の相対速度がゼロでないと、撮影された画像において、その物体の周辺に不鮮明な領域(ぶれ)が生じるためである。その物体がナンバープレートである場合、ナンバープレートの四辺の画像内座標を正確に定めることができない。そのため、ナンバープレートが停止されているとき、ナンバープレート領域を検出することで、ナンバープレートが表示されている位置を正確に検出できる。従って、自車両とナンバープレートが停止していることを判定し、停止しているときに取得した鮮明な画像を表す画像信号を用いることで、精度よくナンバープレート領域の算出を行うことができる。  The reason why the license plate is stopped is that if the relative speed of the object to be imaged with respect to the camera is not zero, a blurred region (blurring) is generated around the object in the imaged image. When the object is a license plate, the coordinates in the image of the four sides of the license plate cannot be determined accurately. Therefore, when the license plate is stopped, the position where the license plate is displayed can be accurately detected by detecting the license plate region. Therefore, it is possible to calculate the license plate area with high accuracy by determining that the host vehicle and the license plate are stopped and using an image signal representing a clear image acquired when the vehicle is stopped.

形状既知物体位置算出部1332は、形状既知物体検出部1331から入力された形状既知物体領域情報及び変換係数に基づいて、それぞれ対応するカメラに対応するナンバープレートの相対位置を算出する。形状既知物体位置算出部1332は、基準カメラ11A、非基準カメラ11Bそれぞれのカメラ内部パラメータとナンバープレートの大きさを示す大きさパラメータが予め記憶されている。大きさパラメータは、例えば、ナンバープレートの4辺の長さである。
形状既知物体位置算出部1332は、入力された形状既知物体領域情報並びに変換係数 と記憶されたカメラ内部パラメータ並びに大きさパラメータを利用して、各カメラに対するナンバープレートの方向を算出する。
The known shape object position calculation unit 1332 calculates the relative position of the license plate corresponding to the corresponding camera based on the known shape object region information and the conversion coefficient input from the known shape object detection unit 1331. The known shape object position calculation unit 1332 stores in advance camera internal parameters of the reference camera 11A and the non-reference camera 11B and a size parameter indicating the size of the license plate. The size parameter is, for example, the length of four sides of the license plate.
The known shape object position calculation unit 1332 calculates the direction of the license plate with respect to each camera using the input known shape object region information, the conversion coefficient, and the stored camera internal parameters and size parameters.

ここで、形状既知物体位置算出部1332は、形状既知物体検出部1331から入力された変換係数a,b,…,iに基づいて、各カメラに対するナンバープレートの相対3次元角度方向を算出する。この変換係数を要素として含む変換行列は、各カメラを基準としたナンバープレートの方向を示す。形状既知物体位置算出部1332は、この変換行列に基づいて3次元相対角度方向(θ,φ,ψ)を、式(2)を満足するように算出する。   Here, the known shape object position calculation unit 1332 calculates the relative three-dimensional angular direction of the license plate with respect to each camera based on the conversion coefficients a, b,..., I input from the known shape object detection unit 1331. The conversion matrix including the conversion coefficient as an element indicates the direction of the license plate with respect to each camera. Based on this transformation matrix, the known shape object position calculation unit 1332 calculates the three-dimensional relative angle direction (θ, φ, ψ) so as to satisfy Expression (2).

Figure 2013257244
Figure 2013257244

形状既知物体位置算出部1332は、算出した相対3次元角度方向に基づいて各カメラからナンバープレートまでの距離を算出する。ここで、形状既知物体位置算出部1332は、予め記憶した大きさパラメータ、カメラ内部パラメータ、算出した相対3次元角度方向及び各カメラからナンバープレートまでの仮の相対距離に基づいて仮のナンバープレート領域の大きさを算出する。そして、形状既知物体位置算出部1332は、算出した仮のナンバープレート領域の大きさと、入力された形状既知物体領域情報が示す形状既知物体領域の大きさが同一になるような仮の相対距離を算出する。形状既知物体位置算出部1332は、算出した仮の相対距離を各カメラからナンバープレートまでの距離と定める。形状既知物体位置算出部1332は、各カメラについて算出した相対3次元角度方向と各カメラからナンバープレートまでの距離を示す情報を形状既知物体位置情報として生成し、生成した形状既知物体位置情報を形状既知物体位置記憶部1333に記憶する。   The known shape object position calculation unit 1332 calculates the distance from each camera to the license plate based on the calculated relative three-dimensional angular direction. Here, the known shape object position calculation unit 1332 determines the temporary license plate area based on the size parameter stored in advance, the camera internal parameter, the calculated relative three-dimensional angular direction, and the temporary relative distance from each camera to the license plate. The size of is calculated. Then, the known shape object position calculation unit 1332 calculates a temporary relative distance such that the calculated size of the temporary license plate region is the same as the size of the known shape object region indicated by the input known shape object region information. calculate. The known shape object position calculation unit 1332 determines the calculated temporary relative distance as the distance from each camera to the license plate. The known shape object position calculation unit 1332 generates information indicating the relative three-dimensional angle direction calculated for each camera and the distance from each camera to the license plate as the known shape object position information, and the generated known shape object position information is the shape. This is stored in the known object position storage unit 1333.

形状既知物体位置記憶部1333は、形状既知物体位置算出部1332が記憶させた形状既知物体位置情報を過去の予め定めた個数(例えば、10個)だけ記憶する。また、形状既知物体位置記憶部1333に記憶された形状既知物体位置情報は、カメラ位置パラメータ算出部135から上述の相対位置情報として読み出される。   The known shape object position storage unit 1333 stores the known shape object position information stored in the known shape object position calculation unit 1332 by a predetermined number (for example, 10) in the past. The known shape object position information stored in the known shape object position storage unit 1333 is read from the camera position parameter calculation unit 135 as the above-described relative position information.

ここで、形状既知物体位置算出部1332が各カメラからナンバープレートまでの距離を算出する原理について図4を用いて説明する。
図4は、ナンバープレートまでの距離を算出する際の透視投影カメラモデルを示す概念図である。
図4において、71はカメラの焦点、72はカメラが備えるイメージセンサの表面である画像面、73はナンバープレートが表示されている領域(形状既知物体領域)をそれぞれ示す。741、742、743は、それぞれ異なる仮の相対距離におかれたナンバープレートを示す。741、742、743の順で、仮の相対距離が小さくなる。
ここで、ナンバープレートの相対方向は既知であるから、形状既知物体位置算出部1332は、ナンバープレート領域の1点が常に画像内の同一の座標に投影されるように、仮の相対距離を変化(探索)させる。ナンバープレート領域の1点とは、図3に示す例ではナンバープレート領域の左端である。741に示されるように、仮の相対距離が、実際の相対距離よりも長い場合、画像面72に投影されるナンバープレートの画像は、形状既知物体の画像よりも狭くなる。743に示されるように、仮の相対距離が、実際の相対距離よりも短い場合、画像面72に投影されるナンバープレートの画像は、形状既知物体の画像よりも広くなる。742に示されるように、仮の相対距離が、実際の相対距離と同一の場合、画像面72に投影されるナンバープレートの画像は、形状既知物体の画像と重なり合う。従って、形状既知物体位置算出部1332は上述の処理を行うことによってナンバープレートまでの距離を算出することができる。
Here, the principle by which the known shape object position calculation unit 1332 calculates the distance from each camera to the license plate will be described with reference to FIG.
FIG. 4 is a conceptual diagram showing a perspective projection camera model for calculating the distance to the license plate.
In FIG. 4, reference numeral 71 denotes a focal point of the camera, 72 denotes an image surface which is a surface of an image sensor provided in the camera, and 73 denotes an area (a shape known object area) where a license plate is displayed. Reference numerals 741, 742, and 743 denote license plates placed at different temporary relative distances. The temporary relative distance decreases in the order of 741, 742, and 743.
Here, since the relative direction of the license plate is known, the known shape object position calculation unit 1332 changes the temporary relative distance so that one point of the license plate region is always projected on the same coordinates in the image. (Search). One point of the license plate region is the left end of the license plate region in the example shown in FIG. As shown in 741, when the temporary relative distance is longer than the actual relative distance, the image of the license plate projected on the image plane 72 becomes narrower than the image of the known shape object. As indicated by 743, when the provisional relative distance is shorter than the actual relative distance, the image of the license plate projected on the image plane 72 is wider than the image of the known shape object. As shown in 742, when the temporary relative distance is the same as the actual relative distance, the image of the license plate projected on the image plane 72 overlaps the image of the known shape object. Therefore, the known shape object position calculation unit 1332 can calculate the distance to the license plate by performing the above-described processing.

(多眼無限遠対応検出部の構成例)
次に、本実施形態における多眼無限遠対応検出部134の構成例について説明する。
図5は、本実施形態における多眼無限遠対応検出部134の構成例を表すブロック図である。多眼無限遠対応検出部134は、多眼無限遠領域検出部1341、明るさ検出部1342、照明制御部1343、領域間対応検出部1344、及び領域間対応記憶部1345を含んで構成される。
(Configuration example of multi-lens infinity detection unit)
Next, a configuration example of the multiview infinity correspondence detecting unit 134 in the present embodiment will be described.
FIG. 5 is a block diagram illustrating a configuration example of the multiview infinity correspondence detecting unit 134 in the present embodiment. The multi-lens infinity correspondence detection unit 134 includes a multi-lens infinity region detection unit 1341, a brightness detection unit 1342, an illumination control unit 1343, an inter-region correspondence detection unit 1344, and an inter-region correspondence storage unit 1345. .

多眼無限遠領域検出部1341は、基準カメラ11Aから入力された基準画像信号、非基準カメラBから入力された非基準画像信号からそれぞれ多眼無限遠領域を検出する。多眼無限遠領域検出部1341は、検出した多眼無限遠領域を表す多眼無限遠領域情報を生成し、生成した多眼無限遠領域情報を領域間対応検出部1344に出力する。
ここで、多眼無限遠領域検出部1341は、照明制御部1343から入力された照明制御信号が点灯を示す場合、入力された基準画像信号(又は非基準画像信号)を点灯時画像信号として保持する。多眼無限遠領域検出部1341は、照明制御部1343から入力された照明制御信号が消灯を示す場合、入力された基準画像信号(又は非基準画像信号)を消灯時画像信号として保持する。ここで、照明制御信号は、照明装置(図示せず)を点灯させること(点灯)又は照明を消灯させること(消灯)を示す信号である。
多眼無限遠領域検出部1341は、保持した点灯時画像信号と消灯時画像信号との間における画素毎の階調値の差分が予め定めた差分値の閾値よりも小さい領域、つまり階調値の変化がない又は少ない領域を多眼無限遠領域と定める。これは、カメラに近接する物体ほど、照明装置が放射した光を反射するために輝度が大きくなり、多眼無限遠にある物体には照明装置が放射した光がほとんど到達しないため輝度がほとんど大きくならないことに基づく。
なお、多眼無限遠領域検出部1341は、点灯を示す照明制御信号が入力された時刻が、消灯を示す照明制御信号が入力された時刻の先後に関わらず、点灯時画像信号と消灯時画像信号に基づいて多眼無限遠領域と定めることができる。
The multi-eye infinity region detection unit 1341 detects the multi-eye infinity region from the reference image signal input from the reference camera 11A and the non-reference image signal input from the non-reference camera B, respectively. The multi-lens infinity region detection unit 1341 generates multi-lens infinity region information indicating the detected multi-lens infinity region, and outputs the generated multi-lens infinity region information to the inter-region correspondence detection unit 1344.
Here, when the illumination control signal input from the illumination control unit 1343 indicates lighting, the multi-lens infinity region detection unit 1341 holds the input reference image signal (or non-reference image signal) as the lighting image signal. To do. When the illumination control signal input from the illumination control unit 1343 indicates extinction, the multi-lens infinity region detection unit 1341 holds the input reference image signal (or non-reference image signal) as the extinguishing image signal. Here, the illumination control signal is a signal indicating that a lighting device (not shown) is turned on (turned on) or turned off (turned off).
The multi-eye infinity region detection unit 1341 is a region in which the difference in gradation value for each pixel between the held on-image signal and the unlit image signal is smaller than a predetermined difference value threshold, that is, a gradation value. An area where there is little or no change is defined as a multi-view infinity area. This is because the closer the object is to the camera, the higher the brightness because it reflects the light emitted by the illuminating device, and the higher the luminance because almost no light emitted by the illuminating device reaches an object at multi-lens infinity. Based on what must not be.
It should be noted that the multi-lens infinity region detection unit 1341 has the lighting-time image signal and the unlit image signal regardless of the time when the illumination control signal indicating lighting is input before or after the time when the illumination control signal indicating lighting is input. Based on the signal, it can be determined as a multi-view infinity region.

多眼無限遠領域検出部1341は、明るさ検出部1342から入力された照度に基づいて上述の差分値の閾値を定める。ここで、多眼無限遠領域検出部1341は、照度が高いほど大きく、照度が低いほど小さくなるように差分値の閾値を定める。多眼無限遠領域検出部1341は、予め照度と差分値の閾値を対応付けて記憶させた記憶部を備え、入力された照度に対応した差分値の閾値を読み出す。周囲の明るさが明るすぎる場合、照明装置を点灯しても階調値が有意に変化しない。また、暗すぎる場合、基準画像又は非基準画像から多眼無限遠の物体を表す画像が認識されない。このため、明るさ検出部1342から入力された照度に応じた差分値の閾値を用いることにより適切に多眼無限遠領域を検出することができる。  The multi-eye infinity region detection unit 1341 determines the threshold value of the above-described difference value based on the illuminance input from the brightness detection unit 1342. Here, the multi-lens infinity region detection unit 1341 determines the threshold value of the difference value so that it increases as the illuminance increases and decreases as the illuminance decreases. The multi-eye infinity region detection unit 1341 includes a storage unit that stores the illuminance and the threshold value of the difference value in association with each other, and reads the threshold value of the difference value corresponding to the input illuminance. When the surrounding brightness is too bright, the gradation value does not change significantly even when the lighting device is turned on. On the other hand, if it is too dark, an image representing an object that is infinitely far from the reference image or non-reference image is not recognized. For this reason, the multi-lens infinity region can be appropriately detected by using the threshold value of the difference value corresponding to the illuminance input from the brightness detection unit 1342.

また、多眼無限遠領域検出部1341は、車両速度監視部132から入力された停止信号が、自車両が停止したことを示すときに上述の多眼無限遠領域を検出する処理を行う。これにより正確に多眼無限遠領域を検出できる。これに対し、多眼無限遠領域検出部1341は、点灯時と消灯時の間に自車両が移動(例えば、回転)すると、画像内座標上で多眼無限遠に存在する物体の画像が移動してしまう。そのため、点灯時画像信号と消灯時画像信号間で画像に表される物体が異なってしまい、正しく多眼無限遠領域を検出することができない。  The multi-lens infinity region detection unit 1341 performs processing for detecting the multi-lens infinity region described above when the stop signal input from the vehicle speed monitoring unit 132 indicates that the host vehicle has stopped. As a result, the multi-view infinity region can be accurately detected. On the other hand, when the own vehicle moves (for example, rotates) between when the light is turned on and when the light is turned off, the multi-eye infinity region detection unit 1341 moves an image of an object existing at multi-eye infinity on the coordinates in the image. End up. For this reason, the object represented in the image differs between the image signal at the time of lighting and the image signal at the time of turning off, and the multi-lens infinity region cannot be detected correctly.

多眼無限遠領域検出部1341は、形状既知物体位置算出部1332から入力された形状既知物体位置情報に基づいて、多眼有限遠の距離にナンバープレートが存在するか否かを判定する。ナンバープレートが存在しないと判定されたとき、多眼無限遠領域検出部1341は、上述の多眼無限遠領域の検出を開始する。多眼有限遠の距離にナンバープレートが存在するか否かを判定する際、多眼無限遠領域検出部1341は、形状既知物体位置情報が示す形状既知物体の位置に係る当該カメラからの距離が、多眼有限遠となる距離の閾値よりも小さいことをもって判定する。多眼無限遠領域検出部1341には、予め多眼無限遠となる距離の閾値を予め設定しておく。この距離の閾値は、基準カメラ11Aと非基準カメラ11Bの間の距離(基線長)、各カメラの画角及び解像度によって定まる値である。なお、この距離の閾値よりも大きい距離が多眼無限遠となる距離である。これにより、多眼無限遠領域検出部1341は、多眼有限遠の距離に他車両(例えば、先行車両)のナンバープレートが存在しないと判定されたとき多眼無限遠領域を検出する。多眼有限遠の距離に他車両のナンバープレートが存在しないと判定されたときには、その他の物体が多眼有限遠の距離にないことが多いため、多眼無限遠領域がより広い傾向がある。このため、多眼有限遠の距離に他車両のナンバープレートが存在しないと判定されたときに、より広い多眼無限遠領域を検出することで領域間対応検出部1344において多眼無限遠領域間対応情報が誤検出となる確率を低減することができる。  Based on the known shape object position information input from the known shape object position calculation unit 1332, the multiview infinity area detection unit 1341 determines whether or not a license plate exists at a distance of the multiview finite distance. When it is determined that there is no license plate, the multi-lens infinity region detection unit 1341 starts detecting the multi-lens infinity region described above. When determining whether or not a license plate is present at a multi-lens finite distance, the multi-lens infinity region detection unit 1341 determines that the distance from the camera related to the position of the known shape object indicated by the known shape object position information. The determination is made based on the fact that it is smaller than the threshold value of the distance at which the multi-lens finite distance is obtained. The multi-eye infinity region detection unit 1341 is set in advance with a threshold for the distance at which multi-eye infinity is set. This distance threshold is a value determined by the distance (baseline length) between the reference camera 11A and the non-reference camera 11B, the angle of view of each camera, and the resolution. Note that a distance larger than the distance threshold is a multi-eye infinity. As a result, the multi-lens infinity region detection unit 1341 detects the multi-lens infinity region when it is determined that there is no license plate of another vehicle (for example, a preceding vehicle) at a multi-lens finite distance. When it is determined that the license plate of the other vehicle does not exist at a multi-lens finite distance, other objects are often not at the multi-lens finite distance, and thus the multi-lens infinity region tends to be wider. For this reason, when it is determined that there is no license plate of another vehicle at a multi-lens finite distance, the inter-region correspondence detection unit 1344 detects a wider multi-lens infinity region, so The probability that the corresponding information is erroneously detected can be reduced.

明るさ検出部1342は、基準カメラ11Aから入力された基準画像信号に基づいて算出した階調値の画像内平均値と露出量に基づいて基準画像が表す物体の明るさ(周囲の明るさ)を示す照度を検出する。露出量は、基準カメラ11Aが備えるイメージセンサが受けうる光の量(絞り値、F値)と1フレーム当たりの露光時間によって定まるパラメータである。明るさ検出部142には、予め露出量を設定しておき、さらに階調値の画像内平均値並びに露出量と照度との対応関係を示す明るさ検出情報を自部が備える記憶部に予め記憶させておく。明るさ検出部142は、算出した階調の画像内平均値と設定された露出量に対応する照度を記憶部から読み出し、読み出した照度を多眼無限遠領域検出部1341に出力する。これにより、基準画像が表す物体の明るさを検出することができる。
本実施形態では、本来多眼無限遠である領域が多眼無限遠でないと検出されたか否かは、
多眼無限遠の領域がある程度広く検出され、本来多眼無限遠でない領域が多眼無限遠であると検出されていなければ、多眼無限遠領域間対応情報の生成結果への影響が限られる。そこで、明るさ検出部142は、本来多眼無限遠ではない領域において多眼無限遠であると検出されない程度の明るさを示す照度を検出する。これにより、多眼無限遠領域間対応情報が適切に算出される。
The brightness detection unit 1342 is the brightness of the object (ambient brightness) represented by the reference image based on the average value of the gradation value calculated based on the reference image signal input from the reference camera 11A and the exposure amount. Illuminance indicating is detected. The exposure amount is a parameter determined by the amount of light (aperture value, F value) that can be received by the image sensor included in the reference camera 11A and the exposure time per frame. In the brightness detection unit 142, an exposure amount is set in advance, and brightness detection information indicating the correspondence between the average value of the gradation values and the exposure amount and the illuminance is stored in advance in the storage unit included in the own unit. Remember. The brightness detection unit 142 reads out the illuminance corresponding to the calculated average value of the gradation within the image and the set exposure amount from the storage unit, and outputs the read illuminance to the multi-lens infinity region detection unit 1341. Thereby, the brightness of the object represented by the reference image can be detected.
In the present embodiment, whether or not the region that is originally multi-lens infinity is detected as not multi-lens infinity,
If the multi-lens infinity region is detected to some extent, and the non-multi-lens infinity region is not detected as multi-lens infinity, the effect on the generation result of the multi-lens infinity region correspondence information is limited. . Therefore, the brightness detection unit 142 detects illuminance indicating brightness that is not detected as multi-lens infinity in a region that is not originally multi-lens infinity. Thereby, the correspondence information between multi-view infinity areas is appropriately calculated.

照明制御部1343は、自車両に設置された照明装置(図示せず)を点灯させるか否かを制御する。照明制御部1343は、予め定めた時間間隔もしくは使用者による操作入力に基づいて照明装置の点灯又は消灯を示す照明制御信号を生成する。照明制御部1343は、生成した照明制御信号を多眼無限遠領域検出部1341及びスイッチ部(図示せず)に出力する。スイッチ部は、照明装置への電力の供給の有無を切り替える。即ち、照明制御部1343から入力された照明制御信号が点灯を示す場合、スイッチ部は、照明装置に電力を供給し、当該照明制御信号が消灯を示す場合、スイッチ部は、照明装置に電力の供給を停止する。従って、照明制御信号が点灯を示す場合、照明装置は光を放射し、照明制御信号が消灯を示す場合、照明装置は光を放射しない。   The illumination control unit 1343 controls whether or not to turn on an illumination device (not shown) installed in the host vehicle. The illumination control unit 1343 generates an illumination control signal indicating whether the illumination device is turned on or off based on a predetermined time interval or an operation input by the user. The illumination control unit 1343 outputs the generated illumination control signal to the multiview infinity region detection unit 1341 and a switch unit (not shown). A switch part switches the presence or absence of the supply of the electric power to an illuminating device. That is, when the illumination control signal input from the illumination control unit 1343 indicates lighting, the switch unit supplies power to the lighting device, and when the lighting control signal indicates extinguishing, the switch unit supplies power to the lighting device. Stop supplying. Therefore, when the illumination control signal indicates lighting, the lighting device emits light, and when the lighting control signal indicates extinction, the lighting device does not emit light.

照明装置は、自車両の後方部に設置され、後方に向けて光を放射する照明装置である。照明装置は、自車両の製造時に予め設置された照明装置(例えば、バックライト)であってもよいし、出荷後に設置された照明装置であってもよい。但し、当該照明装置は多眼無限遠検出に用いるため多眼無限遠と多眼有限遠との間の閾値となる距離と同程度まで到達するのに十分な光量が求められる。そのため、当該照明装置として光量が大きいフラッシュライトを用いることが望ましい。通常のフラッシュライトが放射する光は、後続車両を運転する運転手による視認を妨げるおそれがあるため、当該照明装置として赤外線等の不可視光を放射する不可視光フラッシュライトを用いてもよい。当該照明装置として不可視光フラッシュライトが用いられる場合、基準カメラ11A、非基準カメラ11Bは、上述のイメージセンサとして照明装置が放射する不可視光を検出するイメージセンサを備える。   The lighting device is a lighting device that is installed in the rear portion of the host vehicle and emits light toward the rear. The lighting device may be a lighting device (for example, a backlight) installed in advance at the time of manufacturing the host vehicle, or may be a lighting device installed after shipment. However, since the illumination device is used for multi-eye infinity detection, a sufficient amount of light is required to reach the same distance as the threshold between multi-eye infinity and multi-eye finite. Therefore, it is desirable to use a flashlight with a large amount of light as the lighting device. Since the light emitted from the normal flashlight may hinder the visual recognition by the driver driving the succeeding vehicle, an invisible light flashlight that emits invisible light such as infrared rays may be used as the illumination device. When an invisible light flashlight is used as the illumination device, the reference camera 11A and the non-reference camera 11B include an image sensor that detects invisible light emitted by the illumination device as the above-described image sensor.

領域間対応検出部1344は、多眼無限遠領域検出部1341から入力されたカメラ毎の多眼無限遠領域情報に基づき、多眼無限遠領域間対応情報を生成する。多眼無限遠領域間対応は、基準画像と非基準画像との間の透視変換を示す対応関係と考えることができる。透視変換とは、ある視点から観測された3次元の空間を表す2次元の画像を他の視点から観測されたその3次元の空間を表す2次元の画像への変換である。そこで、領域間対応検出部1344は、例えば、基準画像、非基準画像の多眼無限遠領域各々について既存の特徴点検出法を用いて、それぞれ特徴点を検出し、検出した各特徴点の基準画像、非基準画像間の対応関係を4点について検出する。領域間対応検出部1344は、例えば、各画像についてSURF(Speeded Up Robust Features)特徴量を用いて特徴点を検出する。本実施形態では、SURF特徴量に限らず、他の特徴量を用いて特徴点を検出してもよい。用いられる特徴量は、画像の回転等の線形変換に頑健であり、特徴点の誤検出が少ない特徴量であればよい。その後、領域間対応検出部1344は、各画像での特徴点の集合を表す4次元の特徴ベクトル間の距離が最も小さくなるように特徴点間の対応関係を探索する。領域間対応検出部1344は、検出した4点の特徴点の対応関係に基づいて2次元の透視変換行列を算出する。領域間対応検出部1344は、算出した透視変換行列を多眼無限遠領域間対応情報として領域間対応記憶部1345に記憶する。   The inter-region correspondence detection unit 1344 generates multi-eye infinity region correspondence information based on the multi-view infinity region information for each camera input from the multi-view infinity region detection unit 1341. The correspondence between the multi-view infinity regions can be considered as a correspondence relationship indicating a perspective transformation between the reference image and the non-reference image. The perspective transformation is a transformation from a two-dimensional image representing a three-dimensional space observed from a certain viewpoint to a two-dimensional image representing the three-dimensional space observed from another viewpoint. Therefore, the inter-region correspondence detection unit 1344 detects feature points for each of the multi-view infinity regions of the reference image and the non-reference image using the existing feature point detection method, for example, and the reference of each detected feature point Correspondence between images and non-reference images is detected for four points. For example, the inter-region correspondence detection unit 1344 detects a feature point by using a SURF (Speeded Up Robust Features) feature amount for each image. In the present embodiment, the feature points may be detected using not only the SURF feature value but also other feature values. The feature amount to be used may be a feature amount that is robust to linear transformation such as rotation of an image and has few false detections of feature points. After that, the inter-region correspondence detection unit 1344 searches for the correspondence between the feature points so that the distance between the four-dimensional feature vectors representing the set of feature points in each image becomes the smallest. The inter-region correspondence detection unit 1344 calculates a two-dimensional perspective transformation matrix based on the detected correspondence between the four feature points. The inter-region correspondence detection unit 1344 stores the calculated perspective transformation matrix in the inter-region correspondence storage unit 1345 as multi-eye infinity region correspondence information.

領域間対応記憶部1345は、領域間対応検出部1344が記憶させた多眼無限遠領域間対応情報を過去の予め定めた個数(例えば、10個)記憶する。また、領域間対応記憶部1345に記憶された多眼無限遠領域間対応情報は、カメラ位置パラメータ算出部135から読み出される。   The inter-region correspondence storage unit 1345 stores a predetermined number (for example, 10) of past correspondence information between multi-view infinity regions stored by the inter-region correspondence detection unit 1344. In addition, the correspondence information between multi-lens infinity regions stored in the inter-region correspondence storage unit 1345 is read from the camera position parameter calculation unit 135.

なお、上述では、照明装置の点灯時、消灯時にそれぞれ入力された画像信号を用いて多眼無限遠領域を検出する場合を例にとって説明したが、本実施形態ではこれには限られない。例えば、各カメラの方向が回転しないように自車両が移動したとき、多眼無限遠領域検出部1341は、移動前後に入力された画像信号間において階調値の変化量が予め定めた変化量の閾値よりも小さい領域を多眼無限遠領域と定めてもよい。ここで、車両速度監視部132は、車両速度検出部12から入力された速度信号に基づいて自車両が減速して停止する直前、即ち自車両が停止した時刻から予め定めた時間(例えば、5秒)だけ先行する時刻(先行時刻)を検知する。多眼無限遠領域検出部1341は、検知した先行時刻に入力された画像信号と自車両が停止している時刻に入力された画像信号に基づいて、多眼無限遠領域を定めてもよい。
同様にして、車両速度監視部132は、車両速度検出部12から入力された速度信号に基づいて自車両の発車直後、即ち自車両が移動を開始した時刻から予め定めた時間(例えば、5秒)だけ遅れた時刻(後続時刻)を検知してもよい。この場合、多眼無限遠領域検出部1341は、検知した後続時刻に入力された画像信号と自車両が停止している時刻に入力された画像信号に基づいて、多眼無限遠領域を定める。
In the above description, the case where the multi-lens infinity region is detected using image signals input when the lighting device is turned on and off is described as an example. However, the present embodiment is not limited to this. For example, when the host vehicle moves so that the direction of each camera does not rotate, the multi-lens infinity region detection unit 1341 has a predetermined change amount of the gradation value between the image signals input before and after the movement. An area smaller than the threshold value may be determined as a multi-view infinity area. Here, the vehicle speed monitoring unit 132 is based on a speed signal input from the vehicle speed detection unit 12 and immediately before the own vehicle decelerates and stops, that is, a predetermined time from the time when the own vehicle stops (for example, 5 Time that precedes (second) is detected (preceding time). The multi-eye infinity region detection unit 1341 may determine the multi-eye infinity region based on the image signal input at the detected preceding time and the image signal input at the time when the host vehicle is stopped.
Similarly, the vehicle speed monitoring unit 132, based on the speed signal input from the vehicle speed detection unit 12, immediately after the departure of the own vehicle, that is, a predetermined time from the time when the own vehicle starts to move (for example, 5 seconds). ) (Delayed time) may be detected. In this case, the multi-lens infinity region detection unit 1341 determines the multi-lens infinity region based on the image signal input at the detected subsequent time and the image signal input at the time when the host vehicle is stopped.

(カメラ位置パラメータを算出する処理)
次に、本実施形態に係るカメラ位置パラメータ算出部135が行うカメラ位置パラメータの算出方法について説明する。
カメラ位置パラメータ算出部135は、形状既知物体位置記憶部1333から形状既知物体位置情報を、領域間対応記憶部1345から多眼無限遠領域間対応情報を、それぞれ過去の予め定めた回数分読み出す。カメラ位置パラメータ算出部135は、カメラ位置パラメータ算出部135は、読み出した形状既知物体位置情報及び多眼無限遠領域間対応情報に基づいてカメラ位置パラメータを算出する。カメラ位置パラメータ算出部135は、算出したカメラ位置パラメータを、その回数で平均化したカメラ位置パラメータを算出してもよい。
(Process to calculate camera position parameters)
Next, a camera position parameter calculation method performed by the camera position parameter calculation unit 135 according to the present embodiment will be described.
The camera position parameter calculation unit 135 reads the shape-known object position information from the shape-known object position storage unit 1333 and the multi-eye infinity region correspondence information from the inter-region correspondence storage unit 1345, respectively, for the past predetermined number of times. The camera position parameter calculation unit 135 calculates the camera position parameter based on the read shape known object position information and the correspondence information between multi-lens infinity regions. The camera position parameter calculation unit 135 may calculate a camera position parameter obtained by averaging the calculated camera position parameters by the number of times.

カメラ位置パラメータ算出部135は、例えば、非線形最適化計算を用いて基準カメラ11Aに対する非基準カメラ11Bの相対位置パラメータをカメラ位置パラメータとして算出する。非線形最適化計算とは、式(3)に示す予め定めた非線形関数fについて、関数値yを最小化する変数ベクトルxを算出する演算である。   The camera position parameter calculation unit 135 calculates, for example, a relative position parameter of the non-reference camera 11B with respect to the reference camera 11A as a camera position parameter using nonlinear optimization calculation. The nonlinear optimization calculation is an operation for calculating a variable vector x that minimizes the function value y for the predetermined nonlinear function f shown in Expression (3).

Figure 2013257244
Figure 2013257244

式(3)において、関数fを目的関数と呼ぶ。
次に、カメラ位置パラメータを算出する処理の例について説明する。
カメラ位置パラメータ算出部135は、読み出した形状既知物体位置情報から非基準カメラ11Bに対するナンバープレートの3次元相対座標値(x,y, z)を抽出する。カメラ位置パラメータ算出部135は、抽出した3次元相対座標値(x,y, z)から式(2)を用いて基準カメラ11Aに対するナンバープレートの3次元相対座標値(x,y, z)を算出する。
In equation (3), the function f is called an objective function.
Next, an example of processing for calculating camera position parameters will be described.
The camera position parameter calculation unit 135 extracts the three-dimensional relative coordinate values (x B , y B , z B ) of the license plate with respect to the non-reference camera 11B from the read shape known object position information. The camera position parameter calculation unit 135 uses the expression (2) from the extracted three-dimensional relative coordinate values (x B , y B , z B ) to determine the three-dimensional relative coordinate values (x A , y of the license plate for the reference camera 11A). A , z A ) is calculated.

Figure 2013257244
Figure 2013257244

式(4)において、3次元相対座標値(x,y, z)として検出されたナンバープレートの各頂点の座標値を代入することで、基準カメラ11Aに対する各頂点の座標値(x,y, z)が算出される。
カメラ位置パラメータ算出部135は、算出した基準カメラ11Aに対する各頂点の座標値(x,y, z)から、予め設定されたカメラ内部パラメータに基づいて基準画像上に当該頂点が表される座標値(X,Y)を算出する。この算出された座標値(X,Y)は、3次元空間から2次元空間である基準カメラ11Aの撮像面に投影された座標値であって、カメラ位置パラメータ(x,y, z,θ,φ,ψ)の関数とみることができる。
他方、カメラ位置パラメータ算出部135は、読み出した形状既知物体位置情報から基準画像に表されたナンバープレートの各頂点の座標値(X,Y)を抽出する。
カメラ位置パラメータ算出部135は、座標値(X,Y)の算出、座標値(X,Y)の抽出を、上述した過去の予め定めた回数の各々について行う。ここで、4個の頂点knp、回数nnpを区別するために、これらの座標値を(XA,nnp,knp,YA,nnp,knp)、(XB,nnp,knp,YB,nnp,knp)と表す。
In equation (4), by substituting the coordinate value of each vertex of the license plate detected as the three-dimensional relative coordinate value (x B , y B , z B ), the coordinate value (x A, y A, z A) is calculated.
The camera position parameter calculation unit 135 represents the vertexes on the reference image based on the camera internal parameters set in advance from the calculated coordinate values (x A , y A , z A ) of each vertex with respect to the reference camera 11A. Coordinate values (X B , Y B ) are calculated. The calculated coordinate values (X B , Y B ) are coordinate values projected from the three-dimensional space onto the imaging surface of the reference camera 11A, which is a two-dimensional space, and the camera position parameters (x, y, z, It can be seen as a function of θ, φ, ψ).
On the other hand, the camera position parameter calculation unit 135 extracts the coordinate values (X A , Y A ) of each vertex of the license plate represented in the reference image from the read shape known object position information.
The camera position parameter calculation unit 135 performs the calculation of the coordinate values (X B , Y B ) and the extraction of the coordinate values (X A , Y A ) for each of the past predetermined times described above. Here, in order to distinguish the four vertices k np and the number of times n np , these coordinate values are (X A, nnp, knp , Y A, nnp, knp ), (X B, nnp, knp , Y B). , Nnp, knp ).

カメラ位置パラメータ算出部135は、算出されたナンバープレートの画像の各頂点の座標値(X,Y)の抽出された座標値(X,Y)に対する誤差を最小化するカメラ位置パラメータ(x,y, z,θ,φ,ψ)を算出する。この誤差を表す目的関数f(x,y, z,θ,φ,ψ)の一例を式(5)に示す。 The camera position parameter calculation unit 135 minimizes an error of the calculated coordinate value (X B , Y B ) of each vertex of the license plate image with respect to the extracted coordinate value (X A , Y A ). Calculate (x, y, z, θ, φ, ψ). An example of the objective function f (x, y, z, θ, φ, ψ) representing this error is shown in Equation (5).

Figure 2013257244
Figure 2013257244

カメラ位置パラメータ算出部135は、目的関数f(x,y, z,θ,φ,ψ)を最小化する位置パラメータ(x,y, z,θ,φ,ψ)を算出する際、例えば、ニュートン法などの非線形最適化計算法を用いる。これにより、カメラ位置パラメータ算出部135は、ナンバープレートが表示される画像を用いてカメラ位置パラメータを算出することができる。   When calculating the position parameters (x, y, z, θ, φ, ψ) that minimize the objective function f (x, y, z, θ, φ, ψ), the camera position parameter calculation unit 135, for example, A nonlinear optimization calculation method such as Newton's method is used. Thereby, the camera position parameter calculation unit 135 can calculate the camera position parameter using the image on which the license plate is displayed.

その他、カメラ位置パラメータ算出部135は、目的関数f(x,y, z,θ,φ,ψ)位置パラメータ(x,y, z,θ,φ,ψ)を算出する際、式(5)の目的関数に多眼無限遠領域間対応に基づく制約を加えた目的関数を用いてもよい。このような目的関数の一例を式(7)に示す。これにより、位置パラメータ(x,y, z,θ,φ,ψ)をより高い精度で算出することができる。
読み出した形状既知物体位置情報から基準画像、非基準画像に表されたナンバープレートの各頂点の座標値(X,Y)、(X,Y)を抽出する。入力された画像からナンバープレートが検出された領域は多眼無限遠領域に含まれるであるところ、抽出された各頂点の座標値をそれぞれ(XA∞,YA∞)、(XB∞,YB∞)と示す。カメラ位置パラメータ算出部135は、カメラ間の相対角度(θ,φ,ψ)の場合、座標値(XB∞,YB∞)に対応する基準画像における座標値(XBA,YBA)を、例えば式(6)を用いて算出する。
In addition, when the camera position parameter calculation unit 135 calculates the objective function f (x, y, z, θ, φ, ψ) position parameter (x, y, z, θ, φ, ψ), the expression (5) It is also possible to use an objective function obtained by adding a constraint based on the correspondence between multi-view infinity regions to the objective function. An example of such an objective function is shown in equation (7). Thereby, the position parameters (x, y, z, θ, φ, ψ) can be calculated with higher accuracy.
The coordinate values (X A , Y A ) and (X B , Y B ) of each vertex of the license plate represented in the reference image and the non-reference image are extracted from the read shape known object position information. Where regions license plate is detected from the input image which is included in the multi-view infinity region, the extracted coordinate values of the vertices respectively (X A∞, Y A∞), (X B∞, YB∞ ). In the case of relative angles (θ, φ, ψ) between cameras, the camera position parameter calculation unit 135 calculates the coordinate values (X BA , Y BA ) in the reference image corresponding to the coordinate values (X B∞ , Y B∞ ). For example, the calculation is performed using Expression (6).

Figure 2013257244
Figure 2013257244

式(6)において、P、Pは、それぞれ基準カメラ11Aと非基準カメラ11Bのカメラ内部パラメータ行列である。P、Pは、それぞれ各要素にカメラ内部パラメータを含む3列3列の行列である。
即ち、式(6)は、座標値(XB∞,YB∞)を透過変換して座標値(XBA,YBA)を算出することを示す。
カメラ位置パラメータ算出部135は、座標値(XBA,YBA)の算出、座標値(XA∞,YA∞)の抽出を、上述した過去の予め定めた回数の各々について行う。ここで、4個の頂点kn∞、回数nn∞を区別するために、これらの座標値を(XBA,nn∞,kn∞,YBA,nn∞,kn∞)、(XA∞,nn∞,kn∞,YA∞,nn∞,kn∞)と表す。
カメラ位置パラメータ算出部135は、算出した座標値(XBA,YBA)と抽出された座標値(XA∞,YA∞)との誤差の大きさが式(6)の目的関数に加えられた目的関数f(x,y, z,θ,φ,ψ)を最小化する位置パラメータ(x,y, z,θ,φ,ψ)を算出する。この誤差の大きさが加えられた目的関数f(x,y, z,θ,φ,ψ)は、式(7)で表される。
In Expression (6), P A and P B are camera internal parameter matrices of the reference camera 11A and the non-reference camera 11B, respectively. P A and P B are 3-column and 3-column matrices each including camera internal parameters in each element.
That is, equation (6) indicates that the coordinate values (X BA , Y BA ) are calculated by transparent transformation of the coordinate values (X B∞ , Y B∞ ).
The camera position parameter calculation unit 135 performs the calculation of the coordinate values (X BA , Y BA ) and the extraction of the coordinate values (X A∞ , Y A∞ ) for each of the past predetermined times described above. Here, four apexes k N∞, in order to distinguish the number n N∞, these coordinate values (X BA, nn∞, kn∞, Y BA, nn∞, kn∞), (X A∞ , Nn∞, kn∞, YA∞, nn∞ , kn∞ ).
The camera position parameter calculation unit 135 adds the magnitude of the error between the calculated coordinate values (X BA , Y BA ) and the extracted coordinate values (X A∞ , Y A∞ ) to the objective function of Expression (6). A position parameter (x, y, z, θ, φ, ψ) that minimizes the obtained objective function f (x, y, z, θ, φ, ψ) is calculated. The objective function f (x, y, z, θ, φ, ψ) to which the magnitude of this error is added is expressed by Expression (7).

Figure 2013257244
Figure 2013257244

式(7)において右辺の第2項が、加えられた誤差の大きさを表す項である。この項は、多眼無限遠領域間対応に基づく制約を与える項である。
なお、カメラ位置パラメータ算出部135は、以下の処理を実行することで、過去の予め定めた回数分について算出されたナンバープレートの位置及び多眼無限遠領域間対応情報の中から誤って算出されたものを除外することができる。ここで、カメラ位置パラメータ算出部135は、算出したカメラ位置パラメータを用いて非基準カメラ11Bに対する各ナンバープレートの相対位置に基づく基準画像におけるナンバープレートを表す領域の座標値を算出する。カメラ位置パラメータ算出部135は、算出した座標値と、入力された基準画像が表すナンバープレートを表す領域の座標値との差を算出する。
同様にして、カメラ位置パラメータ算出部135は、算出したカメラ間の相対角度値について多眼無限遠領域に含まれる座標のカメラ間における対応関係を表す対応関係情報と入力された多眼無限遠領域間対応情報との差を求める。カメラ位置パラメータ算出部135は、過去の予め定めた回数のそれぞれの回について、算出されたこれらの差の中で、最も差が大きい、もしくは、その差が予め定めた閾値を越えるような、ナンバープレートを表す領域の座標値及び対応関係情報を除外する。そして、カメラ位置パラメータ算出部135は、除外されずに残ったナンバープレートを表す領域の座標値及び対応関係情報に基づいてカメラ位置パラメータを算出する。これにより、ナンバープレートを表す領域の座標値及び対応関係情報の誤りによるカメラ位置パラメータの算出誤差を低減することができる。
In Expression (7), the second term on the right side is a term representing the magnitude of the added error. This term is a term that gives a constraint based on the correspondence between multi-view infinity regions.
The camera position parameter calculation unit 135 is erroneously calculated from the license plate position and multi-lens infinity region correspondence information calculated for the past predetermined number of times by executing the following processing. Can be excluded. Here, the camera position parameter calculation unit 135 calculates the coordinate value of the area representing the license plate in the reference image based on the relative position of each license plate with respect to the non-reference camera 11B using the calculated camera position parameter. The camera position parameter calculation unit 135 calculates the difference between the calculated coordinate value and the coordinate value of the area representing the license plate represented by the input reference image.
Similarly, the camera position parameter calculation unit 135 inputs the correspondence information indicating the correspondence between the cameras in the coordinates included in the multiview infinity region with respect to the calculated relative angle value between the cameras, and the input multiview infinity region. Find the difference with the correspondence information. The camera position parameter calculation unit 135 is a number that has the largest difference among these calculated differences for each of the predetermined number of times in the past, or that the difference exceeds a predetermined threshold. The coordinate value and correspondence information of the area representing the plate are excluded. Then, the camera position parameter calculation unit 135 calculates the camera position parameter based on the coordinate value of the area representing the license plate that remains without being excluded and the correspondence information. Thereby, the calculation error of the camera position parameter due to the error of the coordinate value of the area representing the license plate and the correspondence information can be reduced.

(カメラ位置パラメータ判定処理)
次に、本実施形態に係るカメラ位置パラメータ判定処理について説明する。
図6は、本実施形態に係るカメラ位置パラメータ判定処理を表すフローチャートである。
(ステップS51)形状既知物体位置検出部133は、入力された画像信号に基づいて、各カメラに対する形状既知物体、即ちナンバープレートの相対位置を算出する。ここで、形状既知物体位置検出部133は、各画像においてナンバープレートが表されている領域を検出する。その後、ステップS52に進む。
(ステップS52)形状既知物体位置検出部133は、検出された領域に係るナンバープレートがキャリブレーション時に用いられたナンバープレートとは異なるナンバープレートであるか否かを判断する。キャリブレーション時に用いられたナンバープレートとは、カメラ位置パラメータ記憶部137に記憶されたカメラ位置パラメータを算出するために用いた画像に表されたナンバープレートである。キャリブレーション時に用いられたナンバープレートとは異なるナンバープレートであるか否かの判断は、ナンバープレートに表示されている番号が同一かどうかをもって判断する。形状既知物体位置検出部133は、ナンバープレートに表示されている番号を、形状既知物体検出部1331が認識した文字を用いて特定する。キャリブレーション時に用いられたナンバープレートと異なるナンバープレートを用いることで、ナンバープレートの個体差や変形が考慮されるのでカメラ位置パラメータの算出精度の低下を免れる。その後、ステップS53に進む。
(Camera position parameter judgment processing)
Next, camera position parameter determination processing according to the present embodiment will be described.
FIG. 6 is a flowchart showing the camera position parameter determination process according to the present embodiment.
(Step S51) The known shape object position detection unit 133 calculates the relative position of the known shape object, that is, the license plate, with respect to each camera based on the input image signal. Here, the known shape object position detection unit 133 detects a region where the license plate is represented in each image. Thereafter, the process proceeds to step S52.
(Step S52) The known shape object position detection unit 133 determines whether or not the license plate relating to the detected region is a license plate different from the license plate used at the time of calibration. The license plate used at the time of calibration is a license plate represented in the image used for calculating the camera position parameter stored in the camera position parameter storage unit 137. Whether the license plate is different from the license plate used at the time of calibration is determined based on whether the numbers displayed on the license plate are the same. The known shape object position detection unit 133 specifies the number displayed on the license plate using the characters recognized by the known shape object detection unit 1331. By using a license plate that is different from the license plate used at the time of calibration, individual differences and deformations of the license plate are taken into account, thereby avoiding a reduction in camera position parameter calculation accuracy. Thereafter, the process proceeds to step S53.

(ステップS53)距離算出部138は、キャリブレーション前のカメラ位置パラメータを用いて基準画像及び非基準画像に表されたナンバープレートまでの距離を算出する。キャリブレーション前のカメラ位置パラメータとは、カメラ位置パラメータ記憶部137に記憶されたカメラ位置パラメータである。距離の算出において、三角測量の原理に基づく多眼距離測定方法を用いる。距離算出部138は、ナンバープレートが表示されている領域に含まれる画素毎に算出された距離を平均した平均値、又はその領域の重心点に係る画素について算出された距離を、距離の代表値として採用する。この採用された距離の代表値を距離1と呼ぶ。その後、ステップS54に進む。
(ステップS54)距離算出部138は、カメラ位置パラメータ算出部135が新たに算出したカメラ位置パラメータを用いて基準画像及び非基準画像に表されたナンバープレートまでの距離を、ステップS53で用いた方法と同じ方法で算出し、距離の代表値を採用する。この採用された距離の代表値を距離2と呼ぶ。その後、ステップS55に進む。
(ステップS55)形状既知物体位置検出部133は、基準画像及び非基準画像から検出されたナンバープレートが表示されている領域を検出し、各カメラから検出された領域に係るナンバープレートまでの相対位置に基づいて距離を算出する。形状既知物体位置検出部133は、算出した距離をカメラ間で平均した平均値を算出する。この算出された平均値を距離3と呼ぶ。その後、ステップS56に進む。
(Step S53) The distance calculation unit 138 calculates the distance to the license plate represented in the reference image and the non-reference image using the camera position parameter before calibration. The camera position parameter before calibration is a camera position parameter stored in the camera position parameter storage unit 137. In calculating the distance, a multi-eye distance measurement method based on the principle of triangulation is used. The distance calculation unit 138 uses an average value obtained by averaging the distances calculated for each pixel included in the area where the license plate is displayed, or a distance calculated for the pixels related to the barycentric point in the area as a representative value of the distance. Adopt as. The representative value of the adopted distance is called distance 1. Thereafter, the process proceeds to step S54.
(Step S54) The distance calculation unit 138 uses the distance to the license plate represented in the reference image and the non-reference image using the camera position parameter newly calculated by the camera position parameter calculation unit 135 in step S53. Calculated using the same method as, and adopts the representative value of distance. The representative value of the adopted distance is called distance 2. Thereafter, the process proceeds to step S55.
(Step S55) The known shape object position detection unit 133 detects the area where the license plate detected from the reference image and the non-reference image is displayed, and the relative position to the license plate related to the area detected from each camera. The distance is calculated based on The known shape object position detection unit 133 calculates an average value obtained by averaging the calculated distances between the cameras. This calculated average value is called distance 3. Thereafter, the process proceeds to step S56.

(ステップS56)カメラ位置パラメータ判定部136は、距離1と距離2のうち、どちらが距離3に近いかを判断する。距離1の方が距離3に近いと判断された場合、ステップS57に進む。距離2の方が距離3に近いと判断された場合、ステップS58に進む。
(ステップS57)カメラ位置パラメータ判定部136は、カメラ位置パラメータ算出部135が新たに算出したカメラ位置パラメータを採用せず、カメラ位置パラメータ記憶部137に保存される内容をそのまま変更しない。その後、処理を終了する。
(ステップS58)カメラ位置パラメータ判定部136は、カメラ位置パラメータ算出部135が新たに算出したカメラ位置パラメータをカメラ位置パラメータ記憶部137に記憶する。その後、処理を終了する。
(Step S56) The camera position parameter determination unit 136 determines which of the distance 1 and the distance 2 is closer to the distance 3. If it is determined that the distance 1 is closer to the distance 3, the process proceeds to step S57. If it is determined that the distance 2 is closer to the distance 3, the process proceeds to step S58.
(Step S57) The camera position parameter determination unit 136 does not adopt the camera position parameter newly calculated by the camera position parameter calculation unit 135, and does not change the content stored in the camera position parameter storage unit 137 as it is. Thereafter, the process ends.
(Step S58) The camera position parameter determination unit 136 stores the camera position parameter newly calculated by the camera position parameter calculation unit 135 in the camera position parameter storage unit 137. Thereafter, the process ends.

なお、本実施形態では、ナンバープレートの検出毎に上述の処理を行ってもよいが、これには限られない。予め定めた複数回のナンバープレートの検出毎にステップS51〜56を実行してもよい。この場合、ステップS56において、カメラ位置パラメータ判定部136は、距離3により近い距離が距離1、距離2である回数をそれぞれ計数する。カメラ位置パラメータ判定部136は、計数された回数が多いほうの距離を選択する。そして、選択された距離が距離1か距離2によって、ステップS57とステップS58のうち実行するステップを選択する。これにより、ステップS56の判定の安定性を向上することができる。   In the present embodiment, the above-described processing may be performed every time the license plate is detected, but is not limited thereto. Steps S51 to S56 may be executed each time a predetermined number of license plates are detected. In this case, in step S56, the camera position parameter determination unit 136 counts the number of times that the distance closer to the distance 3 is the distance 1 and the distance 2, respectively. The camera position parameter determination unit 136 selects the distance with the larger number of times counted. Then, depending on whether the selected distance is distance 1 or distance 2, a step to be executed is selected from step S57 and step S58. Thereby, stability of determination of Step S56 can be improved.

これにより、新たに算出されたカメラ位置パラメータとカメラ位置パラメータ記憶部137に保存された既存のカメラ位置パラメータが比較される。比較によって選ばれたカメラ位置パラメータがキャリブレーション結果としてカメラ位置パラメータ記憶部137に保存される。これにより、ナンバープレートの検出誤りや多眼無限遠領域間対応情報の算出誤り、振動等によるカメラ位置のずれ等によるカメラ位置パラメータの算出精度の低下を回避することができる。つまり適切なキャリブレーション結果としてのカメラ位置パラメータがカメラ位置パラメータ記憶部137に保存される。この保存されたカメラ位置パラメータを用いて、距離算出部138は、基準画像及び非基準画像が表す被写体までの距離を精度よく算出することができる。  As a result, the newly calculated camera position parameter is compared with the existing camera position parameter stored in the camera position parameter storage unit 137. The camera position parameter selected by the comparison is stored in the camera position parameter storage unit 137 as a calibration result. Thereby, it is possible to avoid a decrease in the accuracy of calculation of the camera position parameter due to a detection error of the license plate, a calculation error of the correspondence information between the multi-lens infinity regions, a shift of the camera position due to vibration, and the like. That is, the camera position parameter as an appropriate calibration result is stored in the camera position parameter storage unit 137. Using the stored camera position parameter, the distance calculation unit 138 can accurately calculate the distance to the subject represented by the reference image and the non-reference image.

(多眼距離測定方法)
次に三角測量の原理を用いた多眼距離測定方法について説明する。三角測量の原理によれば、ある基線の両端にある各点から測定対象物までの方向を測定し、その基線の長さと測定された方向に基づいてその測定対象物の位置を定めることができる。
図7は、多眼距離測定方法に用いる透視投影カメラモデルを示す概念図である。
図7において、基準カメラ11A、非基準カメラ11Bを破線で描かれた矩形で示す。
図7の中央上方の点605、608は、測定対象物の表面における各点の3次元座標605、608をそれぞれ示す。基準カメラ11A、非基準カメラ11Bに含まれる点601、602は、それぞれ基準カメラ11A、非基準カメラ11Bの焦点(視点)を示す。基準カメラ11A、非基準カメラ11Bに含まれる右斜め下に向かう線分、左斜め下に向かう線分は、それぞれイメージセンサの表面である画像面602、603である。焦点601と画像面602との間の相対位置関係、焦点604と画像面603との間の相対位置関係は、カメラ位置パラメータ、各カメラの内部パラメータによって定められる。
(Multi-eye distance measurement method)
Next, a multi-eye distance measuring method using the principle of triangulation will be described. According to the principle of triangulation, it is possible to measure the direction from each point on both ends of a baseline to the measurement object and determine the position of the measurement object based on the length of the baseline and the measured direction .
FIG. 7 is a conceptual diagram showing a perspective projection camera model used in the multi-eye distance measuring method.
In FIG. 7, the reference camera 11 </ b> A and the non-reference camera 11 </ b> B are indicated by rectangles drawn with broken lines.
Points 605 and 608 in the upper center of FIG. 7 indicate the three-dimensional coordinates 605 and 608 of the respective points on the surface of the measurement object. Points 601 and 602 included in the reference camera 11A and the non-reference camera 11B indicate the focal points (viewpoints) of the reference camera 11A and the non-reference camera 11B, respectively. The line segments going to the lower right and the line going to the lower left included in the reference camera 11A and the non-reference camera 11B are image planes 602 and 603, which are the surfaces of the image sensor, respectively. The relative positional relationship between the focal point 601 and the image plane 602 and the relative positional relationship between the focal point 604 and the image plane 603 are determined by camera position parameters and internal parameters of each camera.

焦点601ならびに3次元座標605を結ぶ線分と画像面602との交点、焦点604ならびに3次元座標605を結ぶ交点は、それぞれ、3次元座標605を表す画像の座標である画像内座標606、607を示す。
焦点601ならびに3次元座標608を結ぶ線分610と画像面602との交点、焦点604ならびに3次元座標608を結ぶ線分611と画像面603との交点は、それぞれ、3次元座標608を表す画像の座標である画像内座標606、609を示す。但し、図7に示す例では、焦点601ならびに3次元座標605を結ぶ線分と焦点601ならびに3次元座標608を結ぶ線分とが重複している。そのため、これらの線分と画像面602との交点である画像内座標606は、3次元座標605、608間で共通である。
Intersections between the line segment connecting the focal point 601 and the three-dimensional coordinate 605 and the image plane 602, and intersections connecting the focal point 604 and the three-dimensional coordinate 605 are in-image coordinates 606 and 607 which are the coordinates of the image representing the three-dimensional coordinate 605, respectively. Indicates.
The intersection of the line segment 610 connecting the focal point 601 and the three-dimensional coordinate 608 and the image plane 602, and the intersection point of the line segment 611 connecting the focal point 604 and the three-dimensional coordinate 608 and the image plane 603 are images representing the three-dimensional coordinate 608, respectively. In-image coordinates 606 and 609, which are the coordinates of. However, in the example shown in FIG. 7, the line segment connecting the focal point 601 and the three-dimensional coordinate 605 overlaps with the line segment connecting the focal point 601 and the three-dimensional coordinate 608. Therefore, the in-image coordinates 606 that are the intersections of these line segments and the image plane 602 are common between the three-dimensional coordinates 605 and 608.

3次元座標605が到来した光を各方向に均等に乱反射する物体の表面上にある場合、画像内座標606、607間で階調値は、ほぼ等しくなる。そこで、距離算出部138では、画像内座標606を通る線分610上に物体の表面が存在すると仮定し、画像内座標606における階調値と、これに対応する画像内座標607における階調値の差分が最も小さくなるような3次元座標を探索する。これにより、この差分が最小である3次元座標が物体表面の一点であることが認定される。距離算出部138、これを基準画像の座標毎に繰り返すことで被写体表面までの距離を算出することができる。
なお、この原理に基づく方法として、距離算出部138は基準画像信号と非基準画像信号との間でブロックマッチングを実行して、画素毎に視差値を算出してもよい。但し、距離算出部138は、ブロックマッチングを実行する前に基準画像信号、非基準画像信号それぞれについて、それぞれのカメラ内部パラメータに基づいて平行化する。平行化とは、各画像のエピポーラ線を水平にし、レンズによる画像の歪を補正することである。これによりブロックマッチングにおいてブロックを探索する領域(視差値の候補)を水平方向に限定することができる。距離算出部138は、算出した視差値から、カメラ内部パラメータである画素ピッチ、カメラ位置パラメータである基線長に基づいて画素毎に距離を算出する。
When the three-dimensional coordinates 605 are on the surface of an object that uniformly diffuses the incoming light in each direction, the gradation values are almost equal between the in-image coordinates 606 and 607. Therefore, the distance calculation unit 138 assumes that the surface of the object exists on a line segment 610 that passes through the in-image coordinates 606, and the gradation value in the in-image coordinates 606 and the corresponding gradation value in the in-image coordinates 607. Search for a three-dimensional coordinate that minimizes the difference. Thereby, it is recognized that the three-dimensional coordinate having the smallest difference is one point on the object surface. The distance calculation unit 138 can repeat the process for each coordinate of the reference image to calculate the distance to the subject surface.
As a method based on this principle, the distance calculation unit 138 may perform block matching between the reference image signal and the non-reference image signal to calculate a parallax value for each pixel. However, the distance calculation unit 138 parallelizes each of the reference image signal and the non-reference image signal based on each camera internal parameter before executing block matching. Parallelization means that the epipolar line of each image is leveled and the distortion of the image caused by the lens is corrected. This makes it possible to limit the area (parallax value candidate) for searching for a block in the block matching in the horizontal direction. The distance calculation unit 138 calculates a distance for each pixel based on the calculated parallax value based on the pixel pitch as a camera internal parameter and the baseline length as a camera position parameter.

上述では、形状既知物体としてナンバープレートを用いる場合を例にとって説明したが、本実施形態では、大きさ、形状が定まっている物体であれば、その他の物体、例えば、交通信号機、交通標識等を用いてもよい。
上述では、基準カメラ11Aは左側のカメラモジュールであり、非基準カメラ11Bは右側のカメラモジュールである場合を例にとって説明した。本実施形態では、基準カメラ11Aは右側のカメラモジュールであり、非基準カメラ11Bは左側のカメラモジュールであってもよい。
In the above description, the case where the license plate is used as the known shape object has been described as an example. However, in the present embodiment, if the object has a fixed size and shape, other objects such as traffic lights, traffic signs, etc. It may be used.
In the above description, the reference camera 11A is the left camera module, and the non-reference camera 11B is the right camera module. In the present embodiment, the reference camera 11A may be a right camera module, and the non-reference camera 11B may be a left camera module.

以上で説明したように、本実施形態によれば、形状既知物体によるカメラ位置パラメータの算出と、多眼無限遠領域間対応によるカメラ位置パラメータの算出を併用して、キャリブレーションの対象であるカメラ位置パラメータの算出精度を向上させることができる。算出したカメラ位置パラメータを用いることで、多視点画像による距離の算出を精度よく行うことができる。
また、本実施形態では、キャリブレーションに用いる画像を自車両の停止ごとに取得することで、被写体とカメラとの位置関係が固定されている、より多くの条件のもとで撮影された画像をキャリブレーションに利用することができる。これにより、高精度なキャリブレーションが可能となる。
また、本実施形態では、形状既知物体が多眼有限遠の距離に存在しないと判断されたときに、多眼無限遠領域間対応の検出を行う。これにより、多眼無限遠領域間対応関係を誤算出する可能性を低減し、カメラ位置パラメータの誤算出を防ぐことができる。
さらに、本実施形態では、キャリブレーションに用いた形状既知物体と異なる形状既知物体を利用してカメラ位置パラメータ算出結果を検証する。これにより、算出精度がより優れるカメラ位置パラメータを保存できるので、パラメータを誤算出による距離の算出精度の低下を防ぐことができる。以上により、カメラ位置パラメータの算出精度が向上し、より正確な距離測定が可能な距離測定装置を実現することができる。
As described above, according to the present embodiment, the camera to be calibrated by using the calculation of the camera position parameter based on the known shape object and the calculation of the camera position parameter based on the correspondence between the multi-lens infinity regions together. The calculation accuracy of the position parameter can be improved. By using the calculated camera position parameter, it is possible to accurately calculate the distance from the multi-viewpoint image.
Further, in the present embodiment, by acquiring an image used for calibration every time the host vehicle stops, an image captured under more conditions in which the positional relationship between the subject and the camera is fixed. It can be used for calibration. Thereby, highly accurate calibration becomes possible.
Further, in the present embodiment, when it is determined that an object having a known shape does not exist at a multi-lens finite distance, detection corresponding to a multi-lens infinity region is performed. Accordingly, it is possible to reduce the possibility of erroneously calculating the correspondence relationship between the multiview infinity regions, and to prevent erroneous calculation of the camera position parameter.
Furthermore, in this embodiment, the camera position parameter calculation result is verified using a known shape object different from the known shape object used for calibration. As a result, camera position parameters with higher calculation accuracy can be stored, and a decrease in distance calculation accuracy due to erroneous calculation of parameters can be prevented. As described above, the calculation accuracy of the camera position parameter is improved, and a distance measuring device capable of more accurate distance measurement can be realized.

なお、上述した実施形態における距離測定部13の一部、例えば、車両速度監視部132、形状既知物体位置検出部133、多眼無限遠対応検出部134、カメラ位置パラメータ算出部135、カメラ位置パラメータ判定部136、及び距離算出部138をコンピュータで実現するようにしても良い。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、距離測定部13に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、上述した実施形態における距離測定部13の一部、または全部を、LSI(Large Scale Integration)等の集積回路として実現しても良い。距離測定部13の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化しても良い。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いても良い。
In addition, a part of the distance measurement unit 13 in the above-described embodiment, for example, the vehicle speed monitoring unit 132, the shape known object position detection unit 133, the multi-lens infinity correspondence detection unit 134, the camera position parameter calculation unit 135, the camera position parameter The determination unit 136 and the distance calculation unit 138 may be realized by a computer. In that case, the program for realizing the control function may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read by a computer system and executed. Here, the “computer system” is a computer system built in the distance measuring unit 13 and includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” is a medium that dynamically holds a program for a short time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, In such a case, a volatile memory inside a computer system serving as a server or a client may be included and a program that holds a program for a certain period of time. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
Further, a part or all of the distance measuring unit 13 in the above-described embodiment may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each functional block of the distance measuring unit 13 may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, in the case where an integrated circuit technology that replaces LSI appears due to progress in semiconductor technology, an integrated circuit based on the technology may be used.

以上、図面を参照してこの発明の一実施形態について詳しく説明してきたが、具体的な構成は上述のものに限られることはなく、この発明の要旨を逸脱しない範囲内において様々な設計変更等をすることが可能である。   As described above, the embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above, and various design changes and the like can be made without departing from the scope of the present invention. It is possible to

1 距離測定装置
11 撮影部
11A 基準カメラ
11B 非基準カメラ
12 車両速度検出部
13 距離測定部
132 車両速度監視部
133 形状既知物体位置検出部
134 多眼無限遠対応検出部
135 カメラ位置パラメータ算出部
136 カメラ位置パラメータ判定部
137 カメラ位置パラメータ記憶部
138 距離算出部
1331 形状既知物体検出部
1332 形状既知物体位置算出部
1333 形状既知物体位置記憶部
1341 多眼無限遠領域検出部
1342 明るさ検出部
1343 照明制御部
1344 領域間対応検出部
1345 領域間対応記憶部
DESCRIPTION OF SYMBOLS 1 Distance measuring device 11 Image pick-up part 11A Reference camera 11B Non-reference camera 12 Vehicle speed detection part 13 Distance measurement part 132 Vehicle speed monitoring part 133 Shape known object position detection part 134 Multi-lens infinity correspondence detection part 135 Camera position parameter calculation part 136 Camera position parameter determination unit 137 Camera position parameter storage unit 138 Distance calculation unit 1331 Shape known object detection unit 1332 Shape known object position calculation unit 1333 Shape known object position storage unit 1341 Multi-lens infinity region detection unit 1342 Brightness detection unit 1343 Illumination Control unit 1344 Inter-region correspondence detection unit 1345 Inter-region correspondence storage unit

Claims (11)

予め定めた物体の画像に係るパターン情報を記憶しておき、複数視点の入力画像信号が表す画像に基づいて前記パターン情報に係る物体である既知物体の位置を検出する既知物体検出部と、
前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める対応検出部と、
前記既知物体検出部が検出した既知物体の位置と前記対応検出部が定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する位置パラメータ算出部と、
前記位置パラメータ算出部が算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する距離算出部と、
を備えることを特徴とする距離測定装置。
Pattern information related to an image of a predetermined object is stored, a known object detection unit that detects a position of a known object that is an object related to the pattern information based on an image represented by an input image signal of a plurality of viewpoints;
Detecting a multi-view infinity region, which is a region in an image representing an object at multi-view infinity where no significant parallax can be detected between the multiple views from each image represented by the input image signals of the plurality of views; A correspondence detection unit for defining correspondence information indicating a correspondence relationship between viewpoints in the eye infinity region;
A position parameter calculation unit that calculates a position parameter indicating a positional relationship between the plurality of viewpoints based on the position of the known object detected by the known object detection unit and the correspondence relationship information determined by the correspondence detection unit;
A distance calculation unit that calculates a distance to an object represented by the input image of the plurality of viewpoints using the position parameter calculated by the position parameter calculation unit;
A distance measuring device comprising:
入力された速度情報に基づいて前記複数視点が停止しているか否かを判断する速度監視部を備え、
前記速度監視部が、前記複数視点が停止していると判断したとき、前記位置パラメータ算出部は前記位置パラメータを算出することを特徴とする請求項1に記載の距離測定装置。
A speed monitoring unit for determining whether or not the plurality of viewpoints are stopped based on the input speed information;
The distance measuring apparatus according to claim 1, wherein when the speed monitoring unit determines that the plurality of viewpoints are stopped, the position parameter calculating unit calculates the position parameter.
前記位置パラメータ算出部が算出した位置パラメータを記憶する位置パラメータ記憶部と、
前記位置パラメータ算出部が算出した位置パラメータに基づいて算出した物体までの第1の距離と、前記位置パラメータ記憶部が記憶する位置パラメータに基づいて算出した当該物体までの第2の距離のうち、前記距離算出部が算出した当該物体までの第3の距離に前記第1の距離の方がより近似すると判定したとき、前記位置パラメータ算出部が算出した位置パラメータを前記位置パラメータ記憶部に記憶させる位置パラメータ判定部と、
を備えることを特徴とする請求項1又は2に記載の距離測定装置。
A position parameter storage unit that stores the position parameter calculated by the position parameter calculation unit;
Of the first distance to the object calculated based on the position parameter calculated by the position parameter calculation unit and the second distance to the object calculated based on the position parameter stored in the position parameter storage unit, When it is determined that the first distance is closer to the third distance to the object calculated by the distance calculation unit, the position parameter calculated by the position parameter calculation unit is stored in the position parameter storage unit A position parameter determination unit;
The distance measuring device according to claim 1, further comprising:
前記既知物体検出部が前記多眼無限遠よりも近い距離に前記複数視点の入力画像信号に基づいて前記既知物体を検出しなかったとき、前記対応検出部は前記多眼無限遠領域を検出することを特徴とする請求項1ないし3のいずれか1項に記載の距離測定装置。   When the known object detection unit does not detect the known object based on the input image signals of the plurality of viewpoints at a distance closer than the multiview infinity, the correspondence detection unit detects the multiview infinity region. The distance measuring device according to any one of claims 1 to 3, wherein 前記既知物体検出部及び前記対応検出部は、前記速度監視部において前記複数視点が停止していると判断したときに入力された複数視点の入力画像信号を用いて、それぞれ前記既知物体の位置を検出し、前記対応関係情報を定めることを特徴とする請求項2及び請求項2に従属する請求項3又は4に記載の距離測定装置。   The known object detection unit and the correspondence detection unit respectively determine the positions of the known objects using input image signals of a plurality of viewpoints that are input when the speed monitoring unit determines that the plurality of viewpoints are stopped. 5. The distance measuring device according to claim 2 or claim 3 dependent on claim 2, wherein the correspondence relationship information is determined by detection. 照明装置に対して光を放射するか否かを制御する照明制御部を備え、
前記対応検出部は、前記照明装置が光を放射したときに入力された点灯時の入力画像信号と、前記照明装置が光を放射しないときに入力された消灯時の入力画像信号とに基づいて前記多眼無限遠領域を検出することを特徴とする請求項1ないし5のいずれか1項に記載の距離測定装置。
An illumination control unit for controlling whether to emit light to the illumination device;
The correspondence detection unit is based on an input image signal at the time of lighting input when the lighting device emits light and an input image signal at the time of lighting input when the lighting device does not emit light. The distance measuring apparatus according to claim 1, wherein the multi-lens infinity region is detected.
前記点灯時の入力画像信号と前記消灯時の入力画像信号の少なくとも一方が表す画像に係る物体の明るさが、前記点灯時の入力画像信号と前記消灯時の入力画像信号との間で、信号値の差が予め定めた値よりも大きくなる明るさである場合、前記多眼無限遠領域を検出することを特徴とする請求項6に記載の距離測定装置。   The brightness of an object related to an image represented by at least one of the input image signal at the time of lighting and the input image signal at the time of turning off is a signal between the input image signal at the time of lighting and the input image signal at the time of turning off. The distance measuring device according to claim 6, wherein the multi-eye infinity region is detected when the brightness is such that a difference between the values is larger than a predetermined value. 前記対応検出部は、前記速度監視部において前記複数視点が停止していると判断する直前に入力された前記複数視点の入力画像信号もしくは前記速度監視部において前記複数視点が停止していないと判断した直後に入力された前記複数視点の入力画像信号、及び前記速度監視部が、前記複数視点が停止していると判断しているときに入力された前記複数視点の入力画像信号に基づいて、前記多眼無限遠領域を検出することを特徴とする請求項2、請求項2に従属する請求項3もしくは4のいずれか1項に記載の距離測定装置。   The correspondence detection unit determines that the multiple viewpoints are not stopped in the input image signal of the multiple viewpoints input immediately before the speed monitoring unit determines that the multiple viewpoints are stopped or the speed monitoring unit. Based on the input image signal of the plurality of viewpoints input immediately after the input, and the input image signal of the plurality of viewpoints input when the speed monitoring unit determines that the plurality of viewpoints are stopped, The distance measuring device according to any one of claims 2 and 3 or 4 depending on claim 2, wherein the multi-lens infinity region is detected. 前記予め定めた物体は、自動車登録番号標であることを特徴とする請求項1ないし8のいずれか1項に記載の距離測定装置。   The distance measuring device according to claim 1, wherein the predetermined object is an automobile registration number mark. 距離測定装置における距離測定方法において、
前記距離測定装置は、複数視点の入力画像信号が表す画像に基づいて予め定めた物体の画像に係るパターン情報に係る物体である既知物体の位置を検出する第1の過程と、
前記距離測定装置は、前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める第2の過程と、
前記距離測定装置は、前記検出した既知物体の位置と前記定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する第3の過程と、
前記距離測定装置は、前記算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する第4の過程と、
を有することを特徴とする距離測定方法。
In the distance measuring method in the distance measuring device,
The distance measuring device detects a position of a known object that is an object related to pattern information related to an image of a predetermined object based on an image represented by an input image signal of a plurality of viewpoints;
The distance measuring device is a multi-view infinity region that is a region in an image representing an object at multi-view infinity where no significant parallax can be detected between the multiple views from each image represented by the input image signals of the multiple views A second process of determining correspondence information indicating the correspondence between the viewpoints of the multi-view infinity region;
The distance measuring device calculates a position parameter indicating a positional relationship between the plurality of viewpoints based on the detected position of the known object and the determined correspondence information;
The distance measuring device calculates a distance to an object represented by the input image of the plurality of viewpoints using the calculated position parameter;
A distance measuring method characterized by comprising:
距離測定装置における距離測定プログラムにおいて、
複数視点の入力画像信号が表す画像に基づいて予め定めた物体の画像に係るパターン情報に係る物体である既知物体の位置を検出する第1の手順、
前記複数視点の入力画像信号が表す各画像から前記複数視点の間で有意な視差を検出できない多眼無限遠にある物体を表す画像内の領域である多眼無限遠領域を検出し、前記多眼無限遠領域の視点間の対応関係を示す対応関係情報を定める第2の手順、
前記検出した既知物体の位置と前記定めた対応関係情報に基づいて前記複数視点の間における位置関係を示す位置パラメータを算出する第3の手順、
前記算出した位置パラメータを用いて、前記複数視点の入力画像が表す物体までの距離を算出する第4の手順、
を実行させるための距離測定プログラム。
In the distance measurement program in the distance measurement device,
A first procedure for detecting a position of a known object that is an object related to pattern information relating to an image of a predetermined object based on an image represented by an input image signal of a plurality of viewpoints;
Detecting a multi-view infinity region, which is a region in an image representing an object at multi-view infinity where no significant parallax can be detected between the multiple views from each image represented by the input image signals of the plurality of views; A second procedure for defining correspondence information indicating a correspondence between viewpoints in an infinite eye region;
A third procedure for calculating a position parameter indicating a positional relationship between the plurality of viewpoints based on the position of the detected known object and the determined correspondence information;
A fourth procedure for calculating a distance to an object represented by the input image of the plurality of viewpoints using the calculated position parameter;
Distance measurement program to execute.
JP2012134158A 2012-06-13 2012-06-13 Distance measurement device, distance measurement method, and distance measurement program Pending JP2013257244A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012134158A JP2013257244A (en) 2012-06-13 2012-06-13 Distance measurement device, distance measurement method, and distance measurement program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012134158A JP2013257244A (en) 2012-06-13 2012-06-13 Distance measurement device, distance measurement method, and distance measurement program

Publications (1)

Publication Number Publication Date
JP2013257244A true JP2013257244A (en) 2013-12-26

Family

ID=49953793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012134158A Pending JP2013257244A (en) 2012-06-13 2012-06-13 Distance measurement device, distance measurement method, and distance measurement program

Country Status (1)

Country Link
JP (1) JP2013257244A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015175635A (en) * 2014-03-13 2015-10-05 ヤマハ発動機株式会社 Distance estimation system and vehicle including the same
WO2015182771A1 (en) * 2014-05-30 2015-12-03 日本電産エレシス株式会社 Image capturing device, image processing device, image processing method, and computer program
JP2018014544A (en) * 2016-07-19 2018-01-25 池上通信機株式会社 Vehicle number monitoring imaging apparatus
JP2018119910A (en) * 2017-01-27 2018-08-02 日立オートモティブシステムズ株式会社 Camera device
JP2019024196A (en) * 2017-07-21 2019-02-14 パナソニックIpマネジメント株式会社 Camera parameter set calculating apparatus, camera parameter set calculating method, and program
KR20190081308A (en) * 2017-12-29 2019-07-09 주식회사 세종크리에이티브 A Distance Measuring Method Using Images And Vehicle Controlling Method Thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015175635A (en) * 2014-03-13 2015-10-05 ヤマハ発動機株式会社 Distance estimation system and vehicle including the same
WO2015182771A1 (en) * 2014-05-30 2015-12-03 日本電産エレシス株式会社 Image capturing device, image processing device, image processing method, and computer program
JP2018014544A (en) * 2016-07-19 2018-01-25 池上通信機株式会社 Vehicle number monitoring imaging apparatus
JP2018119910A (en) * 2017-01-27 2018-08-02 日立オートモティブシステムズ株式会社 Camera device
WO2018139297A1 (en) * 2017-01-27 2018-08-02 日立オートモティブシステムズ株式会社 Camera device
JP2019024196A (en) * 2017-07-21 2019-02-14 パナソニックIpマネジメント株式会社 Camera parameter set calculating apparatus, camera parameter set calculating method, and program
JP7054803B2 (en) 2017-07-21 2022-04-15 パナソニックIpマネジメント株式会社 Camera parameter set calculation device, camera parameter set calculation method and program
KR20190081308A (en) * 2017-12-29 2019-07-09 주식회사 세종크리에이티브 A Distance Measuring Method Using Images And Vehicle Controlling Method Thereof
KR102633257B1 (en) * 2017-12-29 2024-02-05 김주연 A Distance Measuring Method Using Images And Vehicle Controlling Method Thereof

Similar Documents

Publication Publication Date Title
JP6036065B2 (en) Gaze position detection device and gaze position detection method
CN109831660B (en) Depth image acquisition method, depth image acquisition module and electronic equipment
JP3868876B2 (en) Obstacle detection apparatus and method
US10659762B2 (en) Stereo camera
WO2014073322A1 (en) Object detection device and object detection method
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
WO2015125298A1 (en) Local location computation device and local location computation method
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
JP5834933B2 (en) Vehicle position calculation device
TW201004818A (en) The asynchronous photography automobile-detecting apparatus
WO2015125296A1 (en) Local location computation device and local location computation method
KR101203816B1 (en) Robot fish localization system using artificial markers and method of the same
CN112889272B (en) Depth image acquisition method, depth image acquisition device and electronic device
JP5539250B2 (en) Approaching object detection device and approaching object detection method
JP2015184929A (en) Three-dimensional object detection apparatus, three-dimensional object detection method and three-dimensional object detection program
JP6396499B2 (en) Scale measurement of 3D information
JP2008309519A (en) Object detection device using image processing
US20220292703A1 (en) Image processing device, three-dimensional measurement system, and image processing method
JPH1144533A (en) Preceding vehicle detector
JP2004126905A (en) Image processor
CA2994645C (en) Step detection device and step detection method
CN111260538B (en) Positioning and vehicle-mounted terminal based on long-baseline binocular fisheye camera
JP2010286995A (en) Image processing system for vehicle
US20180307932A1 (en) Outside Recognition Device for Vehicle
JP2013190281A (en) Installation state detection system, installation state detection apparatus and installation state detection method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150514