JP7405710B2 - Processing equipment and in-vehicle camera equipment - Google Patents

Processing equipment and in-vehicle camera equipment Download PDF

Info

Publication number
JP7405710B2
JP7405710B2 JP2020121784A JP2020121784A JP7405710B2 JP 7405710 B2 JP7405710 B2 JP 7405710B2 JP 2020121784 A JP2020121784 A JP 2020121784A JP 2020121784 A JP2020121784 A JP 2020121784A JP 7405710 B2 JP7405710 B2 JP 7405710B2
Authority
JP
Japan
Prior art keywords
image
deviation
camera
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020121784A
Other languages
Japanese (ja)
Other versions
JP2022018583A (en
Inventor
利幸 青木
和良 山崎
圭一 別井
健 永崎
裕史 大塚
直也 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020121784A priority Critical patent/JP7405710B2/en
Priority to PCT/JP2021/022110 priority patent/WO2022014215A1/en
Priority to DE112021002562.7T priority patent/DE112021002562T5/en
Priority to CN202180045150.2A priority patent/CN115943636A/en
Publication of JP2022018583A publication Critical patent/JP2022018583A/en
Application granted granted Critical
Publication of JP7405710B2 publication Critical patent/JP7405710B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/10Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument
    • G01C3/14Measuring distances in line of sight; Optical rangefinders using a parallactic triangle with variable angles and a base of fixed length in the observation station, e.g. in the instrument with binocular observation at a single point, e.g. stereoscopic type
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/40Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the details of the power supply or the coupling to vehicle components
    • B60R2300/402Image calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Mechanical Engineering (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Manufacturing & Machinery (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Description

本発明は、一または複数のカメラ画像を歪のない画像に補正するデータを算出する処理装置及び車載カメラ装置に関する。 The present invention relates to a processing device and a vehicle-mounted camera device that calculate data for correcting one or more camera images into distortion-free images.

特許文献1の従来技術は、第1カメラと第2カメラを有するステレオカメラを車両に設置した後に、フロントガラス(透明体)を介して撮影した第1カメラの画像を校正する第1カメラの補正パラメータを算出する。次に、第1カメラと第2カメラの被写体の視差ずれを校正する第2カメラの補正パラメータを算出することにより、フロントガラスによる画像のずれを除去する。 The prior art disclosed in Patent Document 1 is a method for correcting a first camera that calibrates an image taken by the first camera through a windshield (transparent body) after installing a stereo camera having a first camera and a second camera in a vehicle. Calculate parameters. Next, the image shift caused by the windshield is removed by calculating a correction parameter for the second camera that calibrates the parallax shift between the subject of the first camera and the second camera.

特許文献2の従来技術は、フロントガラス(透明体)を介在したときと、介在しないときに、被写体をステレオカメラで撮影し、画像上の被写体の座標を求め、それらの座標との差をもとに、画像を構成する補正パラメータを算出する。この補正パラメータをもとに、フロントガラスによる画像のずれを除去する。 The conventional technology disclosed in Patent Document 2 photographs an object with a stereo camera with and without a windshield (transparent body) interposed, calculates the coordinates of the object on the image, and calculates the difference between these coordinates. First, the correction parameters that make up the image are calculated. Based on this correction parameter, the image shift caused by the windshield is removed.

特開2019-132855号公報JP2019-132855A 特開2015-169583号公報Japanese Patent Application Publication No. 2015-169583

カメラを取り付けた車両にチャートに対する設置ずれがある場合や、カメラに車両に対する取付ずれがある場合、フロントガラスによる画像のずれとして構成する補正パラメータに、車両の設置ずれ及びカメラの取付ずれによる画像のずれが含まれてしまう。これにより、校正のために撮影した被写体の距離と異なる距離の対象物を撮影したときに、第1カメラと第2カメラの画像上の対象物に垂直方向のずれが発生して、パターン・マッチング処理で対象物の像が正常に一致せず、正確な視差を検出できなくなる。また、第1カメラと第2カメラの画像上の対象物に水平方向のずれが発生して、視差誤差が発生する。このように視差誤差により、対象物の距離が正確に計測できない。 If the vehicle to which the camera is installed is misaligned with respect to the chart, or the camera is misaligned with respect to the vehicle, the correction parameters configured as image misalignment due to the windshield may include the image due to misalignment of the vehicle and camera. This will include deviations. As a result, when an object is photographed at a distance different from the distance of the object photographed for calibration, a vertical shift occurs between the objects on the images of the first and second cameras, resulting in pattern matching. During processing, the images of the object do not match properly, making it impossible to accurately detect parallax. Furthermore, a horizontal shift occurs between the objects on the images of the first camera and the second camera, resulting in a parallax error. As described above, due to the parallax error, the distance to the object cannot be accurately measured.

本発明の課題は、単眼カメラやステレオカメラを車両に取り付けて、校正のためのマーカを撮影したときに、車両の設置ずれやカメラの取付ずれによるマーカに対するカメラの設置ずれを検出して、この要因による画像のずれの影響を受けないように、ガラスによる画像ずれを校正して、距離を正確に計測する処理装置を提供することである。 An object of the present invention is to detect misalignment of the camera relative to the marker due to misalignment of the vehicle or misalignment of the camera when a monocular camera or a stereo camera is attached to a vehicle to photograph markers for calibration. It is an object of the present invention to provide a processing device that calibrates image shift caused by glass and accurately measures distance so as not to be affected by image shift caused by factors.

本発明による処理装置は、車載カメラからの距離が異なる複数のマーカを撮像した画像及びモデル化された車両の窓のデータから前記車載カメラの設置ずれを取得し、前記設置ずれを使用して、前記車載カメラの画像を補正するための補正データを変更する処理装置であって、前記設置ずれとは、前記マーカが存在するチャートに対して前記車載カメラが配置されるべき位置に対する位置ずれである。 The processing device according to the present invention acquires the installation deviation of the in-vehicle camera from images taken of a plurality of markers at different distances from the in-vehicle camera and modeled vehicle window data, and uses the installation deviation, A processing device that changes correction data for correcting an image of the in-vehicle camera, wherein the installation deviation is a positional deviation with respect to a position where the in-vehicle camera should be placed with respect to a chart where the marker is present. .

本発明によれば、距離の異なるマーカの画像上の間隔及び位置ずれをもとに、距離に依存しない車両のガラスのモデルの拡大率及びオフセットずれ、距離に依存するマーカとカメラ間位置及び姿勢ずれを検出することができる。そして、カメラ位置に車両設置ずれ及びカメラ取付ずれがあるとして、フロントガラスによる画像のずれを校正するように、画像を補正するデータを変更することにより、1回の撮影だけで車両設置ずれ及びカメラ取付ずれによる画像のずれを除去でき、距離を正確に計測できる。 According to the present invention, based on the distance and positional shift on the image of markers having different distances, the magnification ratio and offset shift of the vehicle glass model that does not depend on the distance, and the position and orientation between the marker and the camera that depend on the distance are determined. Misalignment can be detected. Then, by changing the image correction data to calibrate the image shift due to the windshield, assuming that there is a misalignment in the vehicle installation and the camera installation, it is possible to correct the misalignment in the vehicle installation and the camera in just one shot. Image deviations due to misalignment can be removed and distances can be measured accurately.

本発明の処理装置及び車載カメラ装置の実施形態を示す図である。1 is a diagram showing an embodiment of a processing device and a vehicle-mounted camera device of the present invention. マーカの配置領域の例を示す図である。FIG. 3 is a diagram showing an example of a marker arrangement area. 本発明の処理装置及び車載カメラ装置の実施形態を示す図である。1 is a diagram showing an embodiment of a processing device and a vehicle-mounted camera device of the present invention. 処理装置及び車載カメラ装置の動作を示す図である。It is a figure showing operation of a processing device and an in-vehicle camera device. 補正画像上のマーカの位置を示す図である。FIG. 7 is a diagram showing the positions of markers on a corrected image. マーカ、ステレオカメラ及び車両の配置を上方から見た例を示す図である。FIG. 3 is a diagram illustrating an example of the arrangement of markers, stereo cameras, and vehicles viewed from above. マーカ、ステレオカメラ及びガラスの配置を側方から見た例を示す図である。It is a figure showing an example of arrangement of a marker, a stereo camera, and a glass seen from the side. ステレオカメラの動作を示す図である。FIG. 3 is a diagram showing the operation of a stereo camera. 2つの撮像系部の補正画像上の視差を算出する例を示す図である。FIG. 7 is a diagram illustrating an example of calculating parallax on corrected images of two imaging system units. 図3に示す処理装置及び車載カメラ装置の変形例を示す図である。4 is a diagram showing a modification of the processing device and vehicle-mounted camera device shown in FIG. 3. FIG. 図3に示す処理装置及び車載カメラ装置の変形例を示す図である。4 is a diagram showing a modification of the processing device and vehicle-mounted camera device shown in FIG. 3. FIG. カメラの動作を示す図である。It is a figure showing operation of a camera. 距離計測の対象物が撮影された画像の例を示す図である。FIG. 3 is a diagram showing an example of an image in which a distance measurement target object is photographed.

(実施形態1)
図1は、本発明の一実施例の形態の画像校正装置の構成を示す図である。図2は、マーカの配置領域の例を示す図である。図3は、本発明の一実施例の形態の画像校正装置のステレオカメラの構成を示す図である。
(Embodiment 1)
FIG. 1 is a diagram showing the configuration of an image proofing device according to an embodiment of the present invention. FIG. 2 is a diagram showing an example of a marker placement area. FIG. 3 is a diagram showing the configuration of a stereo camera of an image proofing device according to an embodiment of the present invention.

本実施形態の処理装置は、たとえば画像校正装置である。画像校正装置は、フロントガラス112を通さない状態で撮影した画像の歪及びずれを補正するための画像補正データを有しており、車両111が所定の位置121及び所定の姿勢(方向122)からずれた位置及び姿勢(方向123)に設置される。ステレオカメラ104が車両111に対して所定の位置及び姿勢(方向122)からずれた位置及び姿勢(方向124)に取り付けられた状態で、車両111の設置ずれ及びステレオカメラ104の取付ずれの影響を除去して、フロントガラス112による画像ずれを補正するように、画像補正データを変更する。 The processing device of this embodiment is, for example, an image proofing device. The image correction device has image correction data for correcting distortion and deviation of images taken without passing through the windshield 112, and the image correction device has image correction data for correcting distortion and deviation of images taken without passing through the windshield 112. It is installed in a shifted position and orientation (direction 123). When the stereo camera 104 is attached to the vehicle 111 at a position and attitude (direction 124) that is deviated from the predetermined position and attitude (direction 122), the influence of the installation deviation of the vehicle 111 and the installation deviation of the stereo camera 104 is considered. The image correction data is changed so as to correct the image shift caused by the windshield 112.

図1及び図3に本発明の画像校正装置の一実施例の構成を示す。ここで、灰色で表示した補正画像記憶部316、視差画像記憶部317、距離検出部330は、画像校正装置に含まれず、立体物の距離を検出するケースで稼働する。これらの動作は後述する。 FIGS. 1 and 3 show the configuration of an embodiment of the image proofing apparatus of the present invention. Here, the corrected image storage unit 316, the parallax image storage unit 317, and the distance detection unit 330, which are displayed in gray, are not included in the image calibration device and operate in the case of detecting the distance of a three-dimensional object. These operations will be described later.

画像校正装置は、複数のマーカ、車両設置ずれ検出部105及びステレオカメラ104を備える。 The image calibration device includes a plurality of markers, a vehicle installation deviation detection section 105, and a stereo camera 104.

複数のマーカは、図2に示すように、丸の形状を有している。複数のマーカ201は車両の正面に配置され、複数のマーカ202、複数のマーカ203、複数のマーカ204及び複数のマーカ205は、複数のマーカ201に対してそれぞれ左上の手前、右上の手前、左下の手前及び右下の手前に配置されている。ここで、マーカ201、マーカ202、マーカ203、マーカ204及びマーカ205は、それぞれ、チャート206、チャート207、チャート208、チャート209及びチャート210に描かれている。また、マーカ101は、マーカ201を、マーカ102は、マーカ202または204を、マーカ203は、マーカ203またはマーカ205を表している。マーカ201~205の配置は、カメラから異なる距離に配置されていれば、図2に示す以外の配置でも構わない。 As shown in FIG. 2, the plurality of markers have a circular shape. A plurality of markers 201 are arranged in front of the vehicle, and a plurality of markers 202, a plurality of markers 203, a plurality of markers 204, and a plurality of markers 205 are arranged in front of the upper left, in front of the upper right, and lower left of the plurality of markers 201, respectively. It is placed in front of and in front of the bottom right. Here, marker 201, marker 202, marker 203, marker 204, and marker 205 are drawn on chart 206, chart 207, chart 208, chart 209, and chart 210, respectively. Further, the marker 101 represents the marker 201, the marker 102 represents the marker 202 or 204, and the marker 203 represents the marker 203 or the marker 205. The markers 201 to 205 may be arranged other than that shown in FIG. 2 as long as they are arranged at different distances from the camera.

LiDAR(Light Detection and Ranging)及び演算部などから構成される車両設置ずれ検出部105は、設計通り設置したときの車両の表面形状データ(設計値)及び車両の位置(設計位置)を有しており、車両111の表面位置(計測値)を計測して、車両111の表面形状データの設計値と車両111の表面位置の計測値を照合して、車両111の設計位置からの位置ずれ及び姿勢ずれを検出する。 The vehicle installation deviation detection unit 105, which is composed of LiDAR (Light Detection and Ranging), a calculation unit, etc., has surface shape data (design values) of the vehicle and the position of the vehicle (design position) when installed as designed. Then, the surface position (measured value) of the vehicle 111 is measured, and the design value of the surface shape data of the vehicle 111 is compared with the measured value of the surface position of the vehicle 111 to determine the positional deviation and attitude of the vehicle 111 from the designed position. Detect deviation.

ステレオカメラ104は、車両111に取り付けられており、車両111のフロントガラス112を通して、マーカ201~205を撮影する。また、ステレオカメラ104は、撮像系部300a、撮像系部300b、及び演算部310を備えており、車両位置ずれ検出部105と接続している。 The stereo camera 104 is attached to the vehicle 111 and photographs the markers 201 to 205 through the windshield 112 of the vehicle 111. Further, the stereo camera 104 includes an imaging system section 300a, an imaging system section 300b, and a calculation section 310, and is connected to the vehicle position shift detection section 105.

カメラなどの撮像系部300aは、光学素子部301a、及び撮像素子部302aを備えている。レンズなどの光学素子部301aは、光を屈折させて、撮像素子部302a上に像を結ぶ。撮像素子などの撮像素子部302aは、光学素子部301aにより屈折した光の像を受光し、その光の強さに応じた画像を生成する。 An imaging system section 300a such as a camera includes an optical element section 301a and an image sensor section 302a. The optical element section 301a such as a lens refracts light and forms an image on the image sensor section 302a. An image sensor section 302a such as an image sensor receives an image of light refracted by the optical element section 301a, and generates an image according to the intensity of the light.

カメラなどの撮像系部300bは、光学素子部301b、及び撮像素子部302bを備えている。また、撮像系部300aと撮像系部300bの焦点距離の設計値は同じである。撮像系部300aと撮像系部300bの光軸の方向は、おおむね同じである。レンズなどの光学素子部301bは、光を屈折させて、撮像素子部302b上に像を結ぶ。撮像素子などの撮像素子部302bは、光学素子部301bにより屈折した光の像を受光し、その光の強さに応じた画像を生成する。 An imaging system section 300b such as a camera includes an optical element section 301b and an image sensor section 302b. Further, the design values of the focal lengths of the imaging system section 300a and the imaging system section 300b are the same. The directions of the optical axes of the imaging system section 300a and the imaging system section 300b are generally the same. The optical element section 301b such as a lens refracts light and forms an image on the image sensor section 302b. An image sensor section 302b such as an image sensor receives an image of the light refracted by the optical element section 301b, and generates an image according to the intensity of the light.

撮像系部300aが撮像した画像は、視差画像を作成するときに基準となる画像であるため、基準画像と呼ぶ。また、撮像系部300bが撮像した画像は、視差画像を作成するときに、基準画像から抽出した領域と一致する領域を探索される画像であり、参照画像と呼ぶ。 The image captured by the imaging system unit 300a is referred to as a reference image because it is a reference image when creating a parallax image. Further, the image captured by the imaging system unit 300b is an image in which an area matching the area extracted from the reference image is searched for when creating a parallax image, and is referred to as a reference image.

CPU(central processing unit、中央演算処理装置)及びメモリなどの演算部310は、撮像画像記憶部311、画像補正情報記憶部312、校正情報記憶部313、同期信号発生部314、基準画像取込部315a、参照画像取込部315b、画像校正部320、補正画像記憶部316、視差画像記憶部317、ずれ補正記憶部318、及び距離検出部330を備えている。 The calculation unit 310, such as a CPU (central processing unit) and memory, includes a captured image storage unit 311, an image correction information storage unit 312, a calibration information storage unit 313, a synchronization signal generation unit 314, and a reference image capture unit. 315a, a reference image capture unit 315b, an image calibration unit 320, a corrected image storage unit 316, a parallax image storage unit 317, a shift correction storage unit 318, and a distance detection unit 330.

メモリなどの撮像画像記憶部311は、撮像系部300a及び撮像系部300bから出力される画像を格納する。 A captured image storage unit 311 such as a memory stores images output from the imaging system unit 300a and the imaging system unit 300b.

メモリなどの画像補正情報記憶部312は、撮像系部300aの画像及び撮像系部300bの画像について、撮影画像(歪がない画像)上の各画素に対応する補正画像(歪がある撮像後の画像)上の2次元座標(画像補正データ)を格納する。画像補正情報記憶部312は、事前に、フロントガラス112がない状態で求められた撮像系部300a及び撮像系部300bの画像補正データを格納するとともに、画像補正データ変更部が作成した、フロントガラス112越しに歪がない画像に補正する画像補正データを格納する。ここで、歪がない画像とは、ピンホールモデルで透視投影を行った画像である。この画像補正データは、撮像後の画像のレンズ歪みや光軸ずれを補正する処理に用いられ、撮像時の画像の歪を表している。 An image correction information storage unit 312 such as a memory stores a corrected image (a post-distorted image) corresponding to each pixel on the captured image (image without distortion) for the image of the imaging system unit 300a and the image of the imaging system unit 300b. The two-dimensional coordinates (image correction data) on the image) are stored. The image correction information storage unit 312 stores the image correction data of the imaging system unit 300a and the imaging system unit 300b obtained in advance without the windshield 112, and also stores the image correction data of the imaging system unit 300a and the imaging system unit 300b obtained in advance without the windshield 112. Image correction data for correcting an image without distortion is stored over the 112. Here, the image without distortion is an image obtained by perspective projection using a pinhole model. This image correction data is used for processing to correct lens distortion and optical axis deviation of the image after the image is captured, and represents the distortion of the image at the time of image capture.

メモリなどの校正情報記憶部313は、撮像系部300a及び撮像系部300bの焦点距離、画素ピッチ、撮影画像上の光軸位置、補正画像上の光軸位置、車両111にずれがないように設置したときのステレオカメラ104に対するマーカ201~205の3次元位置、撮像系部300a及び撮像系部300bにおけるフロントガラス112による画像変形モデルのデータ(ガラス変形データ)の設計値及びそのときの補正画像上の各マーカ画像、フロントガラス112による画像変形のモデルの水平方向及び垂直方向の拡大率及びオフセットずれ、車両設置の位置ずれ及び姿勢ずれ、カメラ取付の位置ずれ及び姿勢ずれが格納されている。 A calibration information storage unit 313 such as a memory stores the focal lengths of the imaging system unit 300a and the imaging system unit 300b, the pixel pitch, the optical axis position on the captured image, the optical axis position on the corrected image, and the vehicle 111 so that there is no deviation. Three-dimensional positions of markers 201 to 205 with respect to stereo camera 104 when installed, design values of image deformation model data (glass deformation data) by windshield 112 in imaging system section 300a and imaging system section 300b, and corrected image at that time Each of the above marker images, horizontal and vertical enlargement ratios and offset deviations of the model of image deformation by the windshield 112, positional deviations and posture deviations of vehicle installation, and positional deviations and posture deviations of camera installation are stored.

ここで、フロントガラス112による画像変形の水平方向及び垂直方向の拡大率及びオフセットずれ量、車両設置の位置ずれ及び姿勢ずれ、カメラ取付の位置ずれ及び姿勢ずれは、画像ずれ要因検出部322で算出されている。フロントガラス112による画像変形の水平方向及び垂直方向の拡大率の初期値は1であり、それ以外の初期値はゼロである。ガラス変形データは、フロントガラス112を通る前の画像上の各画素に対応したフロントガラス112を通った後の画像上の位置の2次元座標である。 Here, the horizontal and vertical magnification ratio and offset shift amount of the image deformation caused by the windshield 112, the positional shift and posture shift of the vehicle installation, and the positional shift and posture shift of the camera installation are calculated by the image shift factor detection unit 322. has been done. The initial values of the horizontal and vertical magnification ratios for image deformation by the windshield 112 are 1, and the other initial values are zero. The glass deformation data is the two-dimensional coordinates of the position on the image after passing through the windshield 112 corresponding to each pixel on the image before passing through the windshield 112.

同期信号発生部314は、同期信号を生成し、発信する。 The synchronization signal generator 314 generates and transmits a synchronization signal.

基準画像取込部315aは、同期信号発生部314の同期信号に合わせて、撮像素子部302aに同期信号及び露光時間の情報を送った後に、撮像素子部302aが生成する画像を取得して、画像を撮像画像記憶部311に格納する。 The reference image capture unit 315a sends a synchronization signal and exposure time information to the image sensor unit 302a in accordance with the synchronization signal from the synchronization signal generator 314, and then acquires an image generated by the image sensor unit 302a. The image is stored in the captured image storage unit 311.

参照画像取込部315bは、同期信号発生部314の同期信号に合わせて、撮像素子部302bに同期信号及び露光時間の情報を送った後に、撮像素子部302bが生成する画像を取得して、画像を撮像画像記憶部311に格納する。 The reference image capture unit 315b sends a synchronization signal and exposure time information to the image sensor unit 302b in accordance with the synchronization signal from the synchronization signal generator 314, and then acquires an image generated by the image sensor unit 302b. The image is stored in the captured image storage unit 311.

画像校正部320は、マーカ位置検出部321、画像ずれ要因検出部322、及び画像補正データ変更部323を備えている。 The image calibration section 320 includes a marker position detection section 321 , an image shift factor detection section 322 , and an image correction data change section 323 .

マーカ位置検出部321は、画像補正情報記憶部312に事前に格納されている画像補正データ、フロントガラス112による画像変形データの設計値をもとに、フロントガラス112越しの撮影画像を補正する画像補正データを算出して、その画像補正データを用いて、撮像系部300a及び撮像系部300bの撮影画像を補正する。マーカ位置検出部321は、次に、パターン・マッチング処理を行い、校正情報記憶部313に格納されているマーカ画像と、それらの補正画像上のマーカ像に一致させて、補正画像上のマーカ位置(検出位置)を検出する。 The marker position detection unit 321 corrects an image taken through the windshield 112 based on image correction data stored in advance in the image correction information storage unit 312 and design values of image deformation data due to the windshield 112. Correction data is calculated, and using the image correction data, images captured by the imaging system section 300a and the imaging system section 300b are corrected. Next, the marker position detection unit 321 performs pattern matching processing to match the marker images stored in the calibration information storage unit 313 with the marker images on those corrected images, and the marker positions on the corrected images. Detect (detection position).

画像ずれ要因検出部322は、校正情報記憶部313に格納されている撮像系部300a及び撮像系部300bの焦点距離、画素ピッチ、撮影画像上の光軸位置、補正画像上の光軸位置、車両111にずれがないように設置したときのステレオカメラ104に対するマーカの3次元位置、撮像系部300a及び撮像系部300bのガラス変形データの設計値をもとに、車両111にずれがないように設置して、フロントガラス112による画像ずれが設計値通りである場合の補正画像上のマーカ位置(設計位置)を算出する。 The image shift factor detection unit 322 stores the focal lengths and pixel pitches of the imaging system unit 300a and the imaging system unit 300b stored in the calibration information storage unit 313, the optical axis position on the captured image, the optical axis position on the corrected image, Based on the three-dimensional position of the marker with respect to the stereo camera 104 when the vehicle 111 is installed so that there is no misalignment, and the design values of the glass deformation data of the imaging system section 300a and the imaging system section 300b, the vehicle 111 is set so that there is no misalignment. The marker position (design position) on the corrected image is calculated when the image shift due to the windshield 112 is as designed.

さらに、画像ずれ要因検出部322は、補正画像上のマーカ201~205の検出位置及び設計位置をもとに、フロントガラス112による画像ずれがステレオカメラ104とマーカ201~205との間の距離に依存しないこと、カメラ設置ずれがステレオカメラ104とマーカ201~205との間の距離に依存することを利用して、フロントガラス112による画像変形の水平方向及び垂直方向の拡大率及びオフセットずれ、カメラ設置ずれを算出する。ここで、カメラ設置ずれはマーカ201~205とステレオカメラ104との間の位置ずれ及び姿勢ずれ(設計箇所からのずれ)である。次に、車両設置ずれ検出部105が検出した車両設置ずれ、画像ずれ要因検出部322が算出したカメラ設置ずれをもとに、カメラ取付ずれを算出する。ここで、カメラ取付ずれは、車両111にステレオカメラ104を取り付けたときの車両111に対するステレオカメラ104の位置ずれ及び姿勢ずれ(設計箇所からのずれ)である。 Furthermore, based on the detected positions and design positions of the markers 201 to 205 on the corrected image, the image deviation factor detection unit 322 determines that the image deviation caused by the windshield 112 is caused by the distance between the stereo camera 104 and the markers 201 to 205. By using the fact that the camera installation deviation depends on the distance between the stereo camera 104 and the markers 201 to 205, the horizontal and vertical magnification ratio and offset deviation of the image deformation by the windshield 112, the camera Calculate the installation deviation. Here, the camera installation deviation is a positional deviation and a posture deviation (deviation from a designed position) between the markers 201 to 205 and the stereo camera 104. Next, the camera installation deviation is calculated based on the vehicle installation deviation detected by the vehicle installation deviation detection unit 105 and the camera installation deviation calculated by the image deviation factor detection unit 322. Here, the camera installation deviation is a positional deviation and posture deviation (deviation from a designed position) of the stereo camera 104 with respect to the vehicle 111 when the stereo camera 104 is attached to the vehicle 111.

画像補正データ変更部323は、校正情報記憶部313に格納されている撮像系部300a及び撮像系部300bの焦点距離、画素ピッチ、撮影画像上の光軸位置、補正画像上の光軸位置、車両111にずれがないように設置したときのステレオカメラ104に対するマーカ201~205の3次元位置を読み込む。 The image correction data changing unit 323 stores the focal lengths and pixel pitches of the imaging system unit 300a and the imaging system unit 300b stored in the calibration information storage unit 313, the optical axis position on the captured image, the optical axis position on the corrected image, The three-dimensional positions of the markers 201 to 205 with respect to the stereo camera 104 when installed on the vehicle 111 without deviation are read.

また、画像補正データ変更部323は、画像ずれ要因検出部322が検出したカメラ設置ずれ、カメラ取付ずれ、フロントガラス112のモデルの水平方向及び垂直方向の拡大率、オフセットずれを用いて、カメラ設置ずれによる画像ずれを表すカメラ設置ずれデータ、カメラ取付方向ずれによる画像ずれを表すカメラ取付方向ずれデータ、フロントガラス112のモデルの水平方向及び垂直方向の拡大率、オフセットずれがあるときのガラスずれデータを算出する。 In addition, the image correction data changing unit 323 uses the camera installation deviation, camera installation deviation, horizontal and vertical enlargement ratios of the model of the windshield 112, and offset deviation detected by the image deviation factor detection unit 322 to install the camera. Camera installation deviation data representing image deviation due to deviation, camera installation direction deviation data representing image deviation due to deviation in camera installation direction, horizontal and vertical magnification ratio of the model of windshield 112, glass deviation data when there is offset deviation. Calculate.

また、画像補正データ変更部323は、2次元線形補間を用いて、カメラ取付方向ずれデータによる変換、ガラスずれデータによる変換、ガラス変形データによる変換、カメラ設置ずれデータによる変換、フロントガラス112を通さないときの画像補正データ(撮像時の画像の歪を表す)による変換を画素ごとに順次行う。これにより、画像補正データ変更部323は、カメラ設置ずれによる画素ずれを除去するとともに、車両111の進行方向を向いたときのフロントガラス112越しの画像補正データを基準画像及び参照画像について算出して、これらの画像補正データを画像補正情報記憶部312に格納する。 In addition, the image correction data changing unit 323 uses two-dimensional linear interpolation to perform conversion using camera installation direction deviation data, conversion using glass deviation data, conversion using glass deformation data, conversion using camera installation deviation data, and conversion using two-dimensional linear interpolation. Conversion using image correction data (representing image distortion at the time of imaging) is performed sequentially for each pixel. As a result, the image correction data changing unit 323 removes pixel deviation due to camera installation deviation, and calculates image correction data for the standard image and the reference image through the windshield 112 when facing the direction of travel of the vehicle 111. , these image correction data are stored in the image correction information storage section 312.

メモリなどの補正画像記憶部316は、画像補正部331が撮像系部300a及び撮像系部300bの画像補正データを用いて、それぞれの撮影画像を補正した補正画像を格納する。メモリなどの視差画像記憶部317は、視差画像を格納する。メモリなどのずれ補正情報記憶部318は、基準画像及び参照画像における縦エッジと横エッジの両方がある領域の位置の時系列データ、消失点位置の設計値、消失点位置データ(検出値)、カメラ取付ずれによる水平方向及び垂直方向の画像ずれを格納する。 A corrected image storage unit 316 such as a memory stores corrected images obtained by correcting the captured images by the image correction unit 331 using the image correction data of the imaging system unit 300a and the imaging system unit 300b. A parallax image storage unit 317 such as a memory stores parallax images. The misalignment correction information storage unit 318 such as a memory stores time-series data of the positions of areas with both vertical edges and horizontal edges in the standard image and the reference image, design values of vanishing point positions, vanishing point position data (detected values), Stores horizontal and vertical image shifts due to camera installation misalignment.

距離検出部330は、画像補正部331、視差算出部332、認識部333、及びカメラ取付ずれ検出部334を備える。 The distance detection section 330 includes an image correction section 331, a parallax calculation section 332, a recognition section 333, and a camera mounting misalignment detection section 334.

画像補正部331は、画像補正情報記憶部312から読み込んだ基準画像及び参照画像の画像補正データを用いて、撮像画像記憶部311から読み込んだ撮影時の基準画像及び参照画像を、歪のない画像に変換する。これらの補正後の基準画像及び参照画像を補正画像記憶部316に格納する。 The image correction unit 331 uses the image correction data of the standard image and reference image read from the image correction information storage unit 312 to convert the standard image and reference image at the time of shooting read from the captured image storage unit 311 into images without distortion. Convert to These corrected standard images and reference images are stored in the corrected image storage unit 316.

視差算出部332は、補正画像記憶部316から補正後の基準画像及び参照画像を読み込み、補正後の基準画像上から抽出した所定のサイズの領域(基準領域と呼ぶことにする)に対応する補正後の参照画像上の同じ高さにある領域を探索する。視差算出部332は、基準領域と一致する参照画像上の領域(参照領域と呼ぶことにする)の位置と、基準領域の位置の差すなわち視差を算出する。各基準領域について視差を算出することにより、視差画像を算出する。 The parallax calculation unit 332 reads the corrected standard image and reference image from the corrected image storage unit 316, and performs correction corresponding to an area of a predetermined size (hereinafter referred to as a reference area) extracted from the corrected standard image. Search for an area at the same height on the later reference image. The parallax calculation unit 332 calculates the difference between the position of an area on the reference image that matches the reference area (hereinafter referred to as a reference area) and the position of the reference area, that is, the parallax. A parallax image is calculated by calculating parallax for each reference area.

認識部333は、視差画像記憶部317から視差画像を読み込み、視差、撮像系部300aと撮像系部300bの焦点の距離(基線長)、焦点距離及びの1画素のサイズをもとに、撮像系部300a及び撮像系部300bの光軸方向にステレオカメラ104から画像上の対象物までの距離を算出する。認識部333は、各領域について距離を算出することにより、距離画像を算出する。 The recognition unit 333 reads the parallax image from the parallax image storage unit 317, and performs imaging based on the parallax, the focal length (baseline length) of the imaging system unit 300a and the imaging system unit 300b, the focal length, and the size of one pixel. The distance from the stereo camera 104 to the object on the image is calculated in the optical axis direction of the system section 300a and the imaging system section 300b. The recognition unit 333 calculates a distance image by calculating the distance for each area.

認識部333は、次に、補正画像記憶部316から補正後の基準画像を読み込み、補正後の基準画像及び距離画像を用いて、基準画像に写っている対象物及び基準画像上の対象物の位置を認識し、ステレオカメラ104に対する対象物の3次元の相対位置及び相対速度を算出する。ここで、ステレオカメラ104に対する3次元の相対位置座標系は、撮像系部300aの入射瞳中心を原点として、撮像系部100aに対して右方向にx座標、下方向にy座標、光軸方向にz座標をとる。また、認識部333は、ステレオカメラ104と対象物の相対位置及び相対速度をもとに衝突までに時間を算出して、所定の時間内に衝突するかどうかを判定する。 The recognition unit 333 then reads the corrected reference image from the corrected image storage unit 316, and uses the corrected reference image and distance image to identify the object in the reference image and the object on the reference image. The position is recognized, and the three-dimensional relative position and relative velocity of the object with respect to the stereo camera 104 are calculated. Here, the three-dimensional relative position coordinate system with respect to the stereo camera 104 has an origin at the center of the entrance pupil of the imaging system section 300a, an x coordinate in the right direction with respect to the imaging system section 100a, a y coordinate in the downward direction, and an optical axis direction. Take the z coordinate. Furthermore, the recognition unit 333 calculates the time until the collision based on the relative position and relative speed of the stereo camera 104 and the object, and determines whether the collision will occur within a predetermined time.

カメラ取付ずれ検出部334は、補正画像記憶部316から読み込んだ前回と今回の補正後の基準画像について、水平方向及び垂直方向のエッジ画像を作成して、縦エッジ(垂直方向のエッジ)と横エッジ(水平方向のエッジ)を両方含む領域を検出する。次に、カメラ取付ずれ検出部334は、パターン・マッチング処理を行い、今回の補正後の基準画像上の領域に対応する前回の補正後の基準画像上の領域を探索して、縦エッジと横エッジの両方を含む領域の位置の時系列データを求める。 The camera mounting misalignment detection unit 334 creates horizontal and vertical edge images for the previous and current corrected reference images read from the corrected image storage unit 316, and creates vertical edges (vertical edges) and horizontal edges. Detect areas that include both edges (horizontal edges). Next, the camera mounting misalignment detection unit 334 performs pattern matching processing, searches for the area on the reference image after the previous correction that corresponds to the area on the reference image after the current correction, and searches for vertical edges and horizontal edges. Obtain time-series data of the position of the region that includes both edges.

さらに、カメラ取付ずれ検出部334は、上記領域の位置の時系列データの近似曲線を複数求め、それらの交点をもとに、基準画像上の消失点の位置(検出値)を検出する。カメラ取付ずれ検出部334は、基準画像上の消失点の位置の検出値と設計値の差をカメラ取付ずれとして、ずれ補正情報記憶部318に格納する。最後に、カメラ取付ずれ検出部334は、画像補正情報記憶部312からを読み込んだ基準画像の画像補正データを、カメラ取付ずれだけ補正して、画像補正情報記憶部312に格納する。参照画像について、同様の処理を行う。 Further, the camera mounting misalignment detection unit 334 obtains a plurality of approximate curves of the time-series data of the position of the area, and detects the position (detected value) of the vanishing point on the reference image based on the intersection points of these curves. The camera mounting deviation detection unit 334 stores the difference between the detected value and the design value of the position of the vanishing point on the reference image as the camera mounting deviation in the deviation correction information storage unit 318. Finally, the camera mounting misalignment detection section 334 corrects the image correction data of the reference image read from the image correction information storage section 312 by the camera mounting misalignment, and stores it in the image correction information storage section 312. Similar processing is performed for the reference image.

図1~図3に示す本実施形態のステレオカメラ104の一実施例の動作手順を、図4を用いて説明する。 The operation procedure of one example of the stereo camera 104 of this embodiment shown in FIGS. 1 to 3 will be explained using FIG. 4.

ステップ401:同期信号発生部314は、同期信号を生成して、基準画像取込部315a及び参照画像取込部315bに送る。 Step 401: The synchronization signal generation section 314 generates a synchronization signal and sends it to the reference image capture section 315a and the reference image capture section 315b.

基準画像取込部315aは、同期信号発生部314からの同期信号を受け取った直後に、撮像素子部302aに同期信号及び露光時間の情報を送る。撮像素子部302aは、基準画像取込部315aからの同期信号及び露光時間の情報を受け取った直後に、光学素子部301aにより屈折した光の像を露光時間だけ受光し、その光の強さに応じた画像を生成して、基準画像取込部315aに画像を送る。基準画像取込部315aは、撮像素子部302aから画像を受け取るとともに、画像を撮像画像記憶部311に格納する。 Immediately after receiving the synchronization signal from the synchronization signal generation section 314, the reference image capture section 315a sends the synchronization signal and exposure time information to the image sensor section 302a. Immediately after receiving the synchronization signal and exposure time information from the reference image capture unit 315a, the image sensor unit 302a receives an image of the light refracted by the optical element unit 301a for the exposure time, and adjusts the intensity of the light. A corresponding image is generated and sent to the reference image capture unit 315a. The reference image capture unit 315a receives an image from the image sensor unit 302a and stores the image in the captured image storage unit 311.

参照画像取込部315bは、同期信号発生部314からの同期信号を受け取った直後に、撮像素子部302bに同期信号及び露光時間の情報を送る。撮像素子部302bは、参照画像取込部315bからの同期信号及び露光時間の情報を受け取った直後に、光学素子部301bにより屈折した光の像を露光時間だけ受光し、その光の強さに応じた画像を生成して、参照画像取込部315bに画像を送る。参照画像取込部315bは、撮像素子部302bから画像を受け取るとともに、画像を撮像画像記憶部311に格納する。 Immediately after receiving the synchronization signal from the synchronization signal generation section 314, the reference image capture section 315b sends the synchronization signal and exposure time information to the image sensor section 302b. Immediately after receiving the synchronization signal and exposure time information from the reference image capture unit 315b, the image sensor unit 302b receives an image of the light refracted by the optical element unit 301b for the exposure time, and adjusts the intensity of the light. A corresponding image is generated and sent to the reference image capture unit 315b. The reference image capture unit 315b receives an image from the image sensor unit 302b and stores the image in the captured image storage unit 311.

ステップ402:マーカ位置検出部321は、撮像画像記憶部311から撮像時の基準画像及び参照画像を、画像補正情報記憶部312から、事前に格納されている基準画像及び参照画像の画像補正データを、校正情報記憶部313から、事前に格納されている基準画像及び参照画像のガラス変形データを、それぞれ読み込む。 Step 402: The marker position detection unit 321 receives the standard image and reference image at the time of imaging from the captured image storage unit 311, and the image correction data of the standard image and reference image stored in advance from the image correction information storage unit 312. , the glass deformation data of the standard image and the reference image stored in advance are read from the calibration information storage unit 313, respectively.

フロントガラス112を通さないときの基準画像の画像補正テーブル(F12x、F12y)を式(1)及び(2)に示す。ここで、(X1、Y1)は撮影画像(光学素子を通った後)上の位置、(X2、Y2)はフロントガラス112を通さないときの補正画像(光学素子を通る前)上の位置である。 Image correction tables (F12x, F12y) for the reference image when the windshield 112 is not passed through are shown in equations (1) and (2). Here, (X1, Y1) is the position on the photographed image (after passing through the optical element), and (X2, Y2) is the position on the corrected image (before passing through the optical element) when not passing through the windshield 112. be.

X1=F12x(X2、Y2) ・・・(1)
Y1=F12y(X2、Y2) ・・・(2)
X1=F12x(X2, Y2)...(1)
Y1=F12y(X2, Y2)...(2)

式(3)及び(4)を用いて、ガラス変形データ(Gx、Gy)をもとに、フロントガラス112を通す前の補正後の基準画像上の位置(X3、Y3)に対応するフロントガラス112を通った後の補正後の基準画像上の位置(X2、Y2)を算出する。 Using equations (3) and (4), the windshield corresponding to the position (X3, Y3) on the corrected reference image before passing through the windshield 112 is determined based on the glass deformation data (Gx, Gy). The position (X2, Y2) on the corrected reference image after passing through 112 is calculated.

X2=Gx(X3、Y3) ・・・(3)
Y2=Gy(X3、Y3) ・・・(4)
X2=Gx(X3, Y3)...(3)
Y2=Gy(X3, Y3)...(4)

フロントガラス112を通った後の補正後の基準画像上の位置(X2、Y2)は実数である。そのため、位置(X2、Y2)の近傍にある値が整数となる4つの位置に対して、式(1)及び(2)を用いて、フロントガラス112を通った後の補正後(光学素子を通る前)の基準画像上の位置に対応する撮影後(光学素子を通った後)の基準画像上の位置を求め、2次元線形補間を行う。これにより、フロントガラス112越しの補正後の基準画像上の位置(X3、Y3)に対応する撮影後の基準画像上の位置を算出する。この処理を各画素について行い、撮影画像をフロントガラス112越しの補正画像に変換するための画像補正データ(式(5)及び(6))を算出する。 The position (X2, Y2) on the corrected reference image after passing through the windshield 112 is a real number. Therefore, using equations (1) and (2) for the four positions where the values near the position (X2, Y2) are integers, after the correction after passing through the windshield 112 (the optical element The position on the reference image after photographing (after passing through the optical element) corresponding to the position on the reference image before passing through the optical element is determined, and two-dimensional linear interpolation is performed. Thereby, the position on the reference image after photographing corresponding to the position (X3, Y3) on the corrected reference image through the windshield 112 is calculated. This process is performed for each pixel, and image correction data (Equations (5) and (6)) for converting the photographed image into a corrected image of the view through the windshield 112 is calculated.

X1=F13x(X3、Y3) ・・・(5)
Y1=F13y(X3、Y3) ・・・(6)
X1=F13x(X3, Y3)...(5)
Y1=F13y(X3, Y3)...(6)

この画像補正データを用いて、撮影後の基準画像の位置(X1、Y1)の周辺4画素の輝度値に2次元線形補間を実施することにより、画像補正後の基準画像の画素(X3、Y3)の輝度値を算出する。補正後の基準画像の各画素について上記の手順を実施して、設計通りのフロントガラス112である場合の補正後の基準画像の輝度値を算出する。 Using this image correction data, two-dimensional linear interpolation is performed on the luminance values of four pixels around the position (X1, Y1) of the reference image after image capture, and the pixel (X3, Y3) of the reference image after image correction is ) is calculated. The above procedure is performed for each pixel of the corrected reference image to calculate the brightness value of the corrected reference image when the windshield 112 is as designed.

マーカ位置検出部321は、校正情報記憶部313に格納されている撮像系部300a及び撮像系部300bの焦点距離、画素ピッチ、撮影画像上の光軸位置、補正画像上の光軸位置、車両111にずれがないように設置したときのステレオカメラ104に対するマーカ201~205の3次元位置を読み込む。マーカ位置検出部321は、さらに、これらのパラメータの値をもとに、ステレオカメラ104に設置ずれがなく、フロントガラス112を通さず、光学素子のゆがみがないときの補正画像上のマーカ位置(設計位置)を算出する。 The marker position detection unit 321 detects the focal lengths and pixel pitches of the imaging system unit 300a and the imaging system unit 300b stored in the calibration information storage unit 313, the optical axis position on the captured image, the optical axis position on the corrected image, and the vehicle The three-dimensional positions of the markers 201 to 205 with respect to the stereo camera 104 when the markers 111 are installed without any deviation are read. Based on the values of these parameters, the marker position detection unit 321 further determines the marker position ( design position).

次に、マーカ位置検出部321は、校正情報記憶部313に格納されている各マーカ画像を読み込み、マーカ位置の設計の付近における画像補正後の基準画像の輝度値とマーカ画像の輝度値の差の絶対値の和(SAD、Sum of Absolute Difference)を算出する。マーカ位置検出部321は、マーカ201~205の設計位置の付近でSADが最も小さい位置を求める。 Next, the marker position detection unit 321 reads each marker image stored in the calibration information storage unit 313, and calculates the difference between the luminance value of the reference image after image correction and the luminance value of the marker image in the vicinity of the designed marker position. The sum of absolute values (SAD, Sum of Absolute Difference) is calculated. The marker position detection unit 321 finds the position where the SAD is the smallest near the designed positions of the markers 201 to 205.

マーカ位置検出部321は、SADが最も小さい位置の左右の画素のSADをもとに、等角直線フィッティングを行い、画像補正後の基準画像とマーカ画像が最も一致する位置のサブピクセルを算出する。マーカ位置検出部321は、SADが最も小さい水平方向の位置にこのサブピクセルを加算することにより、マーカ201~205の水平方向の位置を算出する。 The marker position detection unit 321 performs isometric straight line fitting based on the SAD of the pixels on the left and right of the position where the SAD is the smallest, and calculates the sub-pixel at the position where the reference image after image correction and the marker image most match. . The marker position detection unit 321 calculates the horizontal positions of the markers 201 to 205 by adding this sub-pixel to the horizontal position where the SAD is the smallest.

次に、マーカ位置検出部321は、SADが最も小さい位置の上下の画素のSADをもとに、等角直線フィッティングを行い、画像補正後の基準画像とマーカ画像が最も一致する位置のサブピクセルを算出する。SADが最も小さい垂直方向の位置にこのサブピクセルを加算することにより、マーカ201~205の垂直方向の位置を算出する。同様に、他のマーカ201~205についても同様の処理を行い、補正後の基準画像上のマーカ201~205の位置を算出する。以上の処理で検出したマーカ201~205の位置を検出位置と呼ぶことにする。また、このマーカ201~205の検出位置は図5において補正画像501上のマーカ502及びマーカ504に相当する。 Next, the marker position detection unit 321 performs isometric straight line fitting based on the SAD of the pixels above and below the position where the SAD is the smallest, and performs the subpixel at the position where the reference image after image correction and the marker image most match. Calculate. By adding this subpixel to the vertical position where the SAD is the smallest, the vertical positions of the markers 201 to 205 are calculated. Similarly, similar processing is performed for the other markers 201 to 205 to calculate the positions of the markers 201 to 205 on the corrected reference image. The positions of the markers 201 to 205 detected through the above processing will be referred to as detected positions. Further, the detected positions of the markers 201 to 205 correspond to the markers 502 and 504 on the corrected image 501 in FIG.

参照画像についても、以上の画像補正及びマーカ位置検出の処理を行う。 The above image correction and marker position detection processing is also performed on the reference image.

ステップ403:画像ずれ要因検出部322は、校正情報記憶部313から撮像系部300a及び撮像系部300bの焦点距離、画素ピッチ、撮影画像上の光軸位置、補正画像上の光軸位置、車両111にずれがないように設置したときのステレオカメラ104に対するマーカ201~205の3次元位置、撮像系部300a及び撮像系部300bのガラス変形データの設計値を読み込む。これらの情報をもとに、画像ずれ要因検出部322は、車両111にずれがないように設置して、フロントガラス112による画像ずれが設計値通りである場合の補正画像上のマーカ201~205の位置(設計位置)を算出する。このマーカ201~205の設計位置は図5において補正画像501上のマーカ503及びマーカ505に相当する。 Step 403: The image shift factor detection unit 322 extracts from the calibration information storage unit 313 the focal lengths of the imaging system unit 300a and the imaging system unit 300b, the pixel pitch, the optical axis position on the captured image, the optical axis position on the corrected image, and the vehicle. The three-dimensional positions of the markers 201 to 205 with respect to the stereo camera 104 and the design values of the glass deformation data of the imaging system section 300a and the imaging system section 300b are read when the markers 201 to 205 are installed so as not to be misaligned. Based on this information, the image shift factor detection unit 322 detects the markers 201 to 205 on the corrected image when the vehicle 111 is installed so that there is no shift, and the image shift due to the windshield 112 is as designed. Calculate the position (design position). The designed positions of the markers 201 to 205 correspond to the markers 503 and 505 on the corrected image 501 in FIG.

画像ずれ要因検出部322は、上記のように算出した補正画像上のマーカ201~205の設計位置と、ステップ402で検出したマーカ201~205の検出位置をもとに、下記のように、フロントガラス112の拡大率及びカメラ設置ずれなどを推定していく。ここでは、ステレオカメラ104からの距離が異なるマーカ201~205の位置をもとに、フロントガラス112による画像ずれがステレオカメラ104とマーカ201~205間距離に依存しないこと、カメラ設置ずれがステレオカメラ104とマーカ201~205間距離に依存することを利用する。 The image shift factor detection unit 322 determines the front position as described below based on the design positions of the markers 201 to 205 on the corrected image calculated as described above and the detected positions of the markers 201 to 205 detected in step 402. The magnification ratio of the glass 112, camera installation deviation, etc. are estimated. Here, based on the positions of the markers 201 to 205 having different distances from the stereo camera 104, it is confirmed that the image shift due to the windshield 112 does not depend on the distance between the stereo camera 104 and the markers 201 to 205, and that the camera installation shift is 104 and the markers 201 to 205.

ステップ403:画像ずれ要因検出部322は、ステップ402で求めた補正画像上のマーカ201~205の設計位置及び検出位置をもとに、下記のように、フロントガラス112の拡大率及びカメラ設置ずれなどを推定していく。ここでは、ステレオカメラ104からの距離が異なるマーカ201~205の位置をもとに、フロントガラス112による画像ずれがステレオカメラ104とマーカ201~205間距離に依存しないこと、カメラ設置ずれがステレオカメラ104とマーカ201~205間距離に依存することを利用する。 Step 403: The image shift factor detection unit 322 determines the magnification ratio of the windshield 112 and the camera installation shift based on the design positions and detection positions of the markers 201 to 205 on the corrected image obtained in step 402. We will estimate the following. Here, based on the positions of the markers 201 to 205 having different distances from the stereo camera 104, it is confirmed that the image shift due to the windshield 112 does not depend on the distance between the stereo camera 104 and the markers 201 to 205, and that the camera installation shift is 104 and the markers 201 to 205.

まず、基準画像について、画像ずれ要因検出部322は、補正画像におけるチャート206上のマーカ201の検出位置及び設計位置について、水平方向及び垂直方向に隣り合うマーカ201の間隔の平均を算出する。同様にチャート207~210上のマーカ202~205の検出位置及び設計位置の間隔の平均を算出する。そこで、フロントガラス112による画像ずれがステレオカメラ104とマーカ201~205との間の距離に依存しないこと、カメラ設置ずれがステレオカメラ104とマーカ201~205との間の距離に依存することを利用する。これにより、式(7)から式(10)を用いて、フロントガラス112による水平方向及び垂直方向の拡大率Mgh、Mgv、ステレオカメラ104とマーカ201間距離dLcを算出する。ここで、遠いマーカはマーカ201、近いマーカはマーカ202~205である。 First, regarding the reference image, the image shift factor detection unit 322 calculates the average interval between horizontally and vertically adjacent markers 201 regarding the detected position and design position of the marker 201 on the chart 206 in the corrected image. Similarly, the average interval between the detected positions and designed positions of the markers 202 to 205 on the charts 207 to 210 is calculated. Therefore, we take advantage of the fact that the image shift caused by the windshield 112 does not depend on the distance between the stereo camera 104 and the markers 201 to 205, and that the camera installation shift depends on the distance between the stereo camera 104 and the markers 201 to 205. do. Thereby, using equations (7) to (10), the magnification ratios Mgh and Mgv in the horizontal and vertical directions by the windshield 112 and the distance dLc between the stereo camera 104 and the marker 201 are calculated. Here, the far marker is the marker 201, and the closer markers are the markers 202 to 205.

Mgh = Mifh Minh (Lf - Ln) / (Minh Lf - Mifh Ln) ・・・(7)
Mgv = Mifv Minv (Lf - Ln) / (Minv Lf - Mifv Ln) ・・・(8)
Mifh = Wifh / Wdfh ・・・(9)
Mifv = Wifv / Wdfv ・・・(10)
Minh = Winh / Wdnh ・・・(11)
Minv = Winv / Wdnv ・・・(12)
dLc = (dLch + dLcv) / 2 ・・・(13)
dLch = (Mifh - Minh) Lf Ln / (Minh Lf - Mifh Ln) ・・・(14)
dLcv = (Mifv - Minv) Lf Ln / (Minv Lf - Mifv Ln) ・・・(15)
・遠いマーカ201とステレオカメラ104との距離の設計値:Lf
・近いマーカ202~205とステレオカメラ104との距離の設計値:Ln
・マーカ201~205とステレオカメラ104との距離ずれ:dLc
・フロントガラス112による水平方向の拡大率:Mgh
・フロントガラス112による垂直方向の拡大率:Mgv
・補正画像上の遠いマーカ201の設計位置の水平方向の間隔の平均:Wdfh
・補正画像上の近いマーカ202~205の設計位置の水平方向の間隔の平均:Wdnh
・補正画像上の遠いマーカ201の設計位置の垂直方向の間隔の平均:Wdfv
・補正画像上の近いマーカ202~205の設計位置の垂直方向の間隔の平均:Wdnv
・補正画像上の遠いマーカ201の検出位置の水平方向の間隔の平均:Wifh
・補正画像上の近いマーカ202~205の検出位置の水平方向の間隔の平均:Winh
・補正画像上の遠いマーカ201の設計位置の検出方向の間隔の平均:Wifv
・補正画像上の近いマーカ202~205の検出位置の垂直方向の間隔の平均:Winv
・補正画像上の遠いマーカ201の間隔の水平方向の拡大率:Mifh
・補正画像上の近いマーカ202~205の間隔の水平方向の拡大率:Minh
・補正画像上の遠いマーカ201の間隔の垂直方向の拡大率:Mifv
・補正画像上の近いマーカ202~205の間隔の垂直方向の拡大率:Minv
Mgh = Mifh Minh (Lf - Ln) / (Minh Lf - Mifh Ln) ・・・(7)
Mgv = Mifv Minv (Lf - Ln) / (Minv Lf - Mifv Ln) ... (8)
Mifh = Wifh / Wdfh ... (9)
Mifv = Wifv / Wdfv ... (10)
Minh = Winh / Wdnh ... (11)
Minv = Winv / Wdnv ... (12)
dLc = (dLch + dLcv) / 2 ... (13)
dLch = (Mifh - Minh) Lf Ln / (Minh Lf - Mifh Ln) ... (14)
dLcv = (Mifv - Minv) Lf Ln / (Minv Lf - Mifv Ln) ... (15)
- Design value of distance between far marker 201 and stereo camera 104: Lf
- Design value of distance between nearby markers 202 to 205 and stereo camera 104: Ln
・Distance deviation between markers 201 to 205 and stereo camera 104: dLc
・Horizontal magnification rate by windshield 112: Mgh
・Vertical magnification rate by windshield 112: Mgv
・Average horizontal spacing of design positions of distant markers 201 on the corrected image: Wdfh
・Average horizontal distance between design positions of nearby markers 202 to 205 on the corrected image: Wdnh
- Average vertical spacing of design positions of far markers 201 on the corrected image: Wdfv
・Average vertical distance between design positions of nearby markers 202 to 205 on the corrected image: Wdnv
・Average horizontal distance between detection positions of distant markers 201 on the corrected image: Wifh
・Average horizontal distance between detection positions of nearby markers 202 to 205 on the corrected image: Winh
- Average interval in the detection direction of the design position of the far marker 201 on the corrected image: Wifv
・Average vertical distance between detection positions of nearby markers 202 to 205 on the corrected image: Winv
・Horizontal magnification rate of the distance between distant markers 201 on the corrected image: Mifh
・Horizontal magnification rate of the interval between nearby markers 202 to 205 on the corrected image: Minh
・Vertical magnification rate of the distance between distant markers 201 on the corrected image: Mifv
・Vertical magnification rate of the interval between nearby markers 202 to 205 on the corrected image: Minv

マーカ202に近い位置にあるチャート206上のマーカ201を遠いマーカとして、マーカ202を近いマーカとして、式(13)~(15)を用いて、画像上の左上にあるマーカ202とステレオカメラ104との間の距離ずれdLcluを算出する。同様の計算を行い、マーカ203~205とステレオカメラ104との間の距離ずれdLcru(画像上の右上)、dLcld(画像上の左下)、dLclu(画像上の右下)を算出する。図6に示すように、ステレオカメラ104の光軸方向601に垂直な水平方向の線602及び線603に対する左右のマーカ間の距離ずれをともに、マーカとステレオカメラ104との間のヨー角ずれを算出できる。そこで、式(16)~式(18)を用いて、マーカとステレオカメラ104との間のヨー角ずれdψcを算出する。 The marker 201 on the chart 206 located at a position close to the marker 202 is taken as a far marker, and the marker 202 is taken as a near marker. Using equations (13) to (15), the marker 202 at the upper left of the image and the stereo camera 104 are Calculate the distance deviation dLclu between. Similar calculations are performed to calculate distance deviations dLcru (upper right on the image), dLcld (lower left on the image), and dLclu (lower right on the image) between the markers 203 to 205 and the stereo camera 104. As shown in FIG. 6, both the distance deviation between the left and right markers with respect to horizontal lines 602 and 603 perpendicular to the optical axis direction 601 of the stereo camera 104 are calculated, and the yaw angle deviation between the markers and the stereo camera 104 is calculated. It can be calculated. Therefore, the yaw angle deviation dψc between the marker and the stereo camera 104 is calculated using equations (16) to (18).

dψc = atan((dLcl - dLcr) / Llr) ・・・(16)
dLcl = (dLcul + dLcdl) / 2 ・・・(17)
dLcr = (dLcur + dLcdr) / 2 ・・・(18)
・左側のマーカ202及び204の距離ずれの平均dLcl
・右側のマーカ203及び205の距離ずれの平均dLcr
・左側と右側のマーカ間の距離の設計値の平均Llr
dψc = atan((dLcl - dLcr) / Llr) ...(16)
dLcl = (dLcul + dLcdl) / 2 ... (17)
dLcr = (dLcur + dLcdr) / 2 ... (18)
・Average distance deviation dLcl of left markers 202 and 204
・Average dLcr of distance deviation of right side markers 203 and 205
・Average Llr of the design value of the distance between the left and right markers

図7に示すように、ステレオカメラ104の光軸方向703に垂直な垂直方向の線704及び線705に対する上下のマーカ間の距離ずれをともに、マーカとステレオカメラ104間のピッチ角ずれを算出できる。そこで、式(19)~式(21)を用いて、マーカとステレオカメラ104間のピッチ角ずれdφcを算出する。 As shown in FIG. 7, the pitch angle deviation between the marker and the stereo camera 104 can be calculated by both the distance deviation between the upper and lower markers with respect to the vertical line 704 and the line 705 perpendicular to the optical axis direction 703 of the stereo camera 104. . Therefore, the pitch angle deviation dφc between the marker and the stereo camera 104 is calculated using equations (19) to (21).

dφc = atan((dLcd - dLcu) / Lud) ・・・(19)
dLcu = (dLcul + dLcur) / 2 ・・・(20)
dLcd = (dLcdl + dLcdr) / 2 ・・・(21)
・上側のマーカ202及び203とステレオカメラ間の距離ずれの平均:dLcu
・下側のマーカ204及び205とステレオカメラ間の距離ずれの平均:dLcd
・上側と下側のマーカ間の距離の設計値の平均:Lud
dφc = atan((dLcd - dLcu) / Lud) ...(19)
dLcu = (dLcul + dLcur) / 2...(20)
dLcd = (dLcdl + dLcdr) / 2 ... (21)
・Average distance deviation between upper markers 202 and 203 and stereo camera: dLcu
・Average distance deviation between lower markers 204 and 205 and stereo camera: dLcd
- Average design value of distance between upper and lower markers: Lud

マーカとステレオカメラ104との間のロール角ずれは、補正画像上の光軸位置(あるいは中心位置)を中心に、マーカの検出位置と設計位置の回転ずれに相当する。そこで、補正画像上の式(22)を用いて、ロール角ずれdθcを算出する。 The roll angle deviation between the marker and the stereo camera 104 corresponds to the rotational deviation between the detected position and the designed position of the marker about the optical axis position (or center position) on the corrected image. Therefore, the roll angle deviation dθc is calculated using equation (22) on the corrected image.

dθc = - atan[Σ{(Vi - Vo)(Ud - Uo) - (Ui - Uo)(Vd - vo)} / Σ{(Ui - Uo)(Ud - Uo) + (Vi - Vo)(Vd - Vo)}] ・・・(22)
・マーカ201~205の各検出位置:(Ui、 Vi)
・マーカ201~205の各設計位置:(Ud、 Vd)
・補正画像上の光軸位置(中心位置):(Uo、 Vo)
dθc = - atan[Σ{(Vi - Vo)(Ud - Uo) - (Ui - Uo)(Vd - vo)} / Σ{(Ui - Uo)(Ud - Uo) + (Vi - Vo)(Vd - Vo)}] ...(22)
・Each detection position of markers 201 to 205: (Ui, Vi)
・Each design position of markers 201 to 205: (Ud, Vd)
・Optical axis position (center position) on corrected image: (Uo, Vo)

マーカとステレオカメラ104間の水平方向及び垂直方向の位置ずれは、ステレオカメラ104とマーカとの間の距離に依存するが、フロントガラス112によるオフセットずれはステレオカメラ104とマーカとの間の距離に依存しない。このことを利用して、式(23)~式(26)を用いて、フロントガラス112による水平方向及び主直方向のオフセットずれdUg及びdVg、マーカとステレオカメラ104間の水平方向及び垂直方向の位置ずれdXc及びdYcを算出する。ここで、遠いマーカはマーカ201に、近いマーカはマーカ202~205に相当する。 The horizontal and vertical positional deviation between the marker and the stereo camera 104 depends on the distance between the stereo camera 104 and the marker, but the offset deviation due to the windshield 112 depends on the distance between the stereo camera 104 and the marker. Not dependent. Utilizing this fact, using equations (23) to (26), the horizontal and vertical offset deviations dUg and dVg due to the windshield 112 and the horizontal and vertical offsets between the marker and the stereo camera 104 are calculated. Calculate positional deviations dXc and dYc. Here, the far marker corresponds to the marker 201, and the closer markers correspond to the markers 202 to 205.

dXc = (dUin - dUif) c Lf Ln / {f (Lf - Ln)} ・・・(23)
dYc = (dVin - dVif) c Lf Ln / {f (Lf - Ln)} ・・・(24)
dUg = (dUin Ln - dUif Lf) / (Lf - Ln) ・・・(25)
dVg = (dVin Ln - dVif Lf) / (Lf - Ln) ・・・(26)
・レンズの焦点距離:f
・撮像素子の画素ピッチ:c
・補正画像上の遠いマーカの水平方向の検出位置と設計位置の差の平均:dUif
・補正画像上の近いマーカの水平方向の検出位置と設計位置の差の平均:dUin
・補正画像上の遠いマーカの垂直方向の検出位置と設計位置の差の平均:dVif
・補正画像上の遠いマーカの垂直方向の検出位置と設計位置の差の平均:dVin
dXc = (dUin - dUif) c Lf Ln / {f (Lf - Ln)} ...(23)
dYc = (dVin - dVif) c Lf Ln / {f (Lf - Ln)} ... (24)
dUg = (dUin Ln - dUif Lf) / (Lf - Ln) ... (25)
dVg = (dVin Ln - dVif Lf) / (Lf - Ln) ... (26)
・Lens focal length: f
・Pixel pitch of image sensor: c
・Average difference between horizontal detection position and design position of distant marker on corrected image: dUif
・Average difference between horizontal detection position and design position of nearby marker on corrected image: dUin
・Average difference between vertical detection position and design position of distant marker on corrected image: dVif
・Average difference between vertical detection position and design position of distant marker on corrected image: dVin

基準画像で実施した上記の処理を、参照画像についても実施する。 The above processing performed on the reference image is also performed on the reference image.

基準画像と参照画像を用いて、算出したステレオカメラ104とマーカ間の水平方向及び垂直方向の位置ずれ、距離ずれ、ピッチ角ずれ、ヨー角ずれ、ロール角ずれの平均を算出する。これらをステレオカメラ104の設置ずれとする。また、以上の算出により、基準画像及び参照画像のフロントガラス112による水平方向及び垂直方向の拡大率及びオフセットずれが求められる。 Using the standard image and the reference image, the average of the calculated horizontal and vertical positional deviations, distance deviations, pitch angle deviations, yaw angle deviations, and roll angle deviations between the stereo camera 104 and the marker is calculated. These are assumed to be installation deviations of the stereo camera 104. Further, through the above calculation, the horizontal and vertical magnification ratios and offset deviations of the standard image and the reference image due to the windshield 112 are determined.

ステップ404:車両設置ずれ検出部105は、車両111にレーザー光を照射して、その反射光の受光時間をもとに車両111の表面の複数箇所までの距離及び受光角度を検出する。それらの距離及び受光角度をもとに、車両111の表面の複数箇所の検出位置に変換する。 Step 404: The vehicle installation deviation detection unit 105 irradiates the vehicle 111 with a laser beam, and detects the distance to a plurality of locations on the surface of the vehicle 111 and the light receiving angle based on the reception time of the reflected light. Based on these distances and light receiving angles, the detection positions are converted to multiple locations on the surface of the vehicle 111.

車両設置ずれ検出部105は、設計通り設置したときの車両111の表面形状データ及び車両111の位置(設計位置)及び姿勢(設計姿勢)を有しており、これらのデータをもとに、車両111の表面の複数箇所の設計位置を算出する。 The vehicle installation deviation detection unit 105 has surface shape data of the vehicle 111 and the position (design position) and attitude (design attitude) of the vehicle 111 when installed as designed, and based on these data, the vehicle The design positions of multiple locations on the surface of 111 are calculated.

車両111の表面の各箇所の検出位置に最も近い設計位置を探索して、その設計位置を検出位置の対応点と設定する。車両111の表面の各箇所の検出位置(Xvm、 Yvm、 Zvm)及び設計位置(Xvd、 Yvd、 Zvd)をもとに、式(27)~式(32)を用いて、車両111の位置ずれ(dXv、 dYv、 dLv)及び姿勢ずれ(dφv、 dψv、 dθv)を算出する。 The design position closest to the detected position at each location on the surface of the vehicle 111 is searched for, and the designed position is set as the corresponding point of the detected position. Based on the detected position (Xvm, Yvm, Zvm) and design position (Xvd, Yvd, Zvd) of each location on the surface of the vehicle 111, use equations (27) to (32) to calculate the positional deviation of the vehicle 111. (dXv, dYv, dLv) and posture deviation (dφv, dψv, dθv).

dXv = Σ(Xvd - Xvm) / Nm ・・・(27)
dYv = Σ(Yvd - Yvm) / Nm ・・・(28)
dLv = Σ(Zvd - Zvm) / Nm ・・・(29)
dφv = - atan[Σ{(Zvm - Zo)(Yvd - Yvo) - (Yvm - Yvo)(Zvd - Zvo)} / Σ{(Yvm - Yvo)(Yvd - Yvo) + (Zvm - Zvo)(Zvd - Zvo)}] ・・・(30)
dψv = - atan[Σ{(Xvm - Xo)(Zvd - Zvo) - (Zvm - Zvo)(Xvd - Xvo)} / Σ{(Zvm - Zvo)(Zvd - Zvo) + (Xvm - Xvo)(Xvd - Xvo)}] ・・・(31)
dθv = - atan[Σ{(Yvm - Yo)(Xvd - Xvo) - (Xvm - Xvo)(Yvd - Yvo)} / Σ{(Xvm - Xvo)(Xvd - Xvo) + (Yvm - Yvo)(Yvd - Yvo)}] ・・・(32)
・計測点の数Nm
・車両111の回転中心(Xvo、 Yvo、 Zvo)
dXv = Σ(Xvd - Xvm) / Nm...(27)
dYv = Σ(Yvd - Yvm) / Nm...(28)
dLv = Σ(Zvd - Zvm) / Nm...(29)
dφv = - atan[Σ{(Zvm - Zo)(Yvd - Yvo) - (Yvm - Yvo)(Zvd - Zvo)} / Σ{(Yvm - Yvo)(Yvd - Yvo) + (Zvm - Zvo)(Zvd - Zvo)}] ...(30)
dψv = - atan[Σ{(Xvm - Xo)(Zvd - Zvo) - (Zvm - Zvo)(Xvd - Xvo)} / Σ{(Zvm - Zvo)(Zvd - Zvo) + (Xvm - Xvo)(Xvd - Xvo)}] ...(31)
dθv = - atan[Σ{(Yvm - Yo)(Xvd - Xvo) - (Xvm - Xvo)(Yvd - Yvo)} / Σ{(Xvm - Xvo)(Xvd - Xvo) + (Yvm - Yvo)(Yvd -Yvo)}] ...(32)
・Number of measurement points Nm
・Rotation center of vehicle 111 (Xvo, Yvo, Zvo)

上記のように算出した車両111の位置ずれ及び姿勢ずれを、車両111の設計位置及び設計姿勢に加算して、車両111の表面形状データをもとに、再び、車両111の表面の複数箇所の設計位置を算出する。そして、車両111の表面の各箇所の検出位置に最も近い設計位置を探索して、その設計位置を検出位置の対応点と設定して、式(27)~式(32)を用いて、車両111の位置ずれ及び姿勢ずれを算出する処理を繰り返す。式(27)~式(32)で算出したずれの値が所定の閾値よりも小さい場合、処理を終了して、それまでのそれらのずれを加算した値を車両設置の位置ずれ及び姿勢ずれとする。 The positional deviation and posture deviation of the vehicle 111 calculated as described above are added to the designed position and designed posture of the vehicle 111, and based on the surface shape data of the vehicle 111, a plurality of positions on the surface of the vehicle 111 are again calculated. Calculate the design position. Then, the design position closest to the detection position of each location on the surface of the vehicle 111 is searched, and the design position is set as the corresponding point of the detection position, and using equations (27) to (32), the vehicle The process of calculating the positional deviation and posture deviation in step 111 is repeated. If the value of the deviation calculated using equations (27) to (32) is smaller than a predetermined threshold, the process is terminated and the value obtained by adding those deviations up to that point is calculated as the positional deviation and posture deviation of the vehicle installation. do.

ステップ405:カメラ取付ずれ検出部334は、式(33)~式(38)を用いて、カメラ設置の位置ずれ及び姿勢ずれから車両設置の位置ずれ及び姿勢ずれを引くことにより、カメラ取付の位置ずれ(dXa、 dYa、 dLa)及び姿勢ずれ(dφa、 dψa、 dθa)を算出する。 Step 405: Using equations (33) to (38), the camera installation deviation detection unit 334 calculates the camera installation position by subtracting the vehicle installation position deviation and attitude deviation from the camera installation position deviation and attitude deviation. Calculate the deviations (dXa, dYa, dLa) and posture deviations (dφa, dψa, dθa).

dXa = dXc - dXv ・・・(33)
dYa = dYc - dYv ・・・(34)
dZa = dZc - dZv ・・・(35)
dφa = dφc - dφv ・・・(36)
dψa = dψc - dψv ・・・(37)
dθa = dθc - dθv ・・・(38)
dXa = dXc - dXv...(33)
dYa = dYc - dYv...(34)
dZa = dZc - dZv...(35)
dφa = dφc - dφv ... (36)
dψa = dψc - dψv...(37)
dθa = dθc - dθv ... (38)

ステップ406:画像補正データ変更部323は、校正情報記憶部313に格納されている撮像系部300a及び撮像系部300bの焦点距離、画素ピッチ、撮影画像上の光軸位置、補正画像上の光軸位置、車両111にずれがないように設置したときのステレオカメラ104に対するマーカの3次元位置を読み込む。画像補正データ変更部323は、これらのパラメータの値をもとに、ステレオカメラ104に設置ずれがなく、フロントガラス112を通さず、光学素子の歪がないときの補正画像上のマーカ位置(設計位置)を算出する。 Step 406: The image correction data changing unit 323 uses the focal lengths of the imaging system unit 300a and the imaging system unit 300b, the pixel pitch, the optical axis position on the captured image, and the light on the corrected image stored in the calibration information storage unit 313. The axis position and the three-dimensional position of the marker relative to the stereo camera 104 when installed so that there is no deviation on the vehicle 111 are read. Based on the values of these parameters, the image correction data changing unit 323 determines the marker position (design position).

画像補正データ変更部323は、画像ずれ要因検出部322が算出したステレオカメラ104の設置の位置ずれ及び姿勢ずれをもとに、フロントガラス112を通さないときの補正画像上のマーカ位置を算出する。画像補正データ変更部323は、これらの2つの補正画像上のマーカ位置の変化をもとに、カメラ設置ずれによる画像ずれを表すカメラ設置ずれデータを作成する。 The image correction data changing unit 323 calculates the marker position on the corrected image when the windshield 112 is not passed, based on the installation positional deviation and posture deviation of the stereo camera 104 calculated by the image deviation factor detection unit 322. . The image correction data changing unit 323 creates camera installation deviation data representing image deviation due to camera installation deviation based on changes in marker positions on these two corrected images.

次に、画像補正データ変更部323は、画像ずれ要因検出部322が算出したステレオカメラ104設置の位置ずれ及び姿勢ずれがある状態から、車両111の進行方向に対するカメラの取付方向のずれだけがない(除去された)ときの補正画像上のマーカ位置を算出する。そして、画像補正データ変更部323は、ステレオカメラ設置ずれがあるときと、そこから車両111の進行方向に対するカメラの取付方向ずれをなくしたときの補正画像上のマーカ位置をもとに、カメラ取付方向ずれデータを算出する。 Next, the image correction data changing unit 323 changes from the state where there is a positional deviation and posture deviation of the stereo camera 104 installation calculated by the image deviation factor detection unit 322, there is no deviation only in the mounting direction of the camera with respect to the traveling direction of the vehicle 111. Calculate the marker position on the corrected image when (removed). Then, the image correction data changing unit 323 adjusts the camera installation based on the marker position on the corrected image when there is a deviation in the installation of the stereo camera and when the deviation in the installation direction of the camera with respect to the traveling direction of the vehicle 111 is eliminated. Calculate direction deviation data.

画像補正データ変更部323は、画像ずれ要因検出部322が算出したフロントガラス112のモデルの水平方向及び垂直方向の拡大率、オフセットずれがあるときのガラスずれデータを算出する。画像補正データ変更部323は、ステップ402に示すような2次元線形補間を用いて、カメラ取付方向ずれデータによる変換、ガラスずれデータによる変換、ガラス変形データによる変換、カメラ設置ずれデータによる変換、フロントガラス112を通さないときの画像補正データ(光学素子による歪を表す)による変換を画素ごとに順次行う。 The image correction data changing unit 323 calculates the magnification ratio in the horizontal and vertical directions of the model of the windshield 112 calculated by the image deviation factor detection unit 322, and the glass deviation data when there is an offset deviation. The image correction data changing unit 323 uses two-dimensional linear interpolation as shown in step 402 to perform conversion based on camera installation direction deviation data, conversion based on glass deviation data, conversion based on glass deformation data, conversion based on camera installation deviation data, and conversion based on camera installation deviation data. Conversion using image correction data (representing distortion caused by the optical element) when not passing through the glass 112 is performed sequentially for each pixel.

これにより、画像補正データ変更部323は、カメラ設置ずれによる画素ずれを除去するとともに、車両111の進行方向を向いたときのフロントガラス112越しの画像補正データを基準画像及び参照画像について算出する。画像補正データ変更部323は、これらの画像補正データを画像補正情報記憶部312に格納する。 Thereby, the image correction data changing unit 323 removes pixel deviation due to camera installation deviation, and calculates image correction data for the standard image and the reference image as seen through the windshield 112 when facing in the traveling direction of the vehicle 111. The image correction data changing unit 323 stores these image correction data in the image correction information storage unit 312.

図3に示す本実施形態のステレオカメラ104は、車両111が走行している間、図8に示す動作を行うことにより、作成した画像補正データを用いて、立体物の距離を検出するとともに、カメラ取付ずれを検出して、画像補正データを変更する。 The stereo camera 104 of this embodiment shown in FIG. 3 performs the operation shown in FIG. 8 while the vehicle 111 is running, and uses the created image correction data to detect the distance of a three-dimensional object. Detect camera installation misalignment and change image correction data.

ステップ801:同期信号発生部314は、同期信号を生成して、基準画像取込部315a及び参照画像取込部315bに送る。 Step 801: The synchronization signal generation section 314 generates a synchronization signal and sends it to the reference image capture section 315a and the reference image capture section 315b.

基準画像取込部315aは、同期信号発生部314からの同期信号を受け取った直後に、撮像素子部302aに同期信号及び露光時間の情報を送る。撮像素子部302aは、基準画像取込部315aからの同期信号及び露光時間の情報を受け取った直後に、光学素子部301aにより屈折した光の像を露光時間だけ受光し、その光の強さに応じた画像を生成して、基準画像取込部315aに画像を送る。基準画像取込部315aは、撮像素子部302aから画像を受け取るとともに、画像を撮像画像記憶部311に格納する。 Immediately after receiving the synchronization signal from the synchronization signal generation section 314, the reference image capture section 315a sends the synchronization signal and exposure time information to the image sensor section 302a. Immediately after receiving the synchronization signal and exposure time information from the reference image capture unit 315a, the image sensor unit 302a receives an image of the light refracted by the optical element unit 301a for the exposure time, and adjusts the intensity of the light. A corresponding image is generated and sent to the reference image capture unit 315a. The reference image capture unit 315a receives an image from the image sensor unit 302a and stores the image in the captured image storage unit 311.

参照画像取込部315bは、同期信号発生部314からの同期信号を受け取った直後に、撮像素子部302bに同期信号及び露光時間の情報を送る。撮像素子部302bは、参照画像取込部315bからの同期信号及び露光時間の情報を受け取った直後に、光学素子部301bにより屈折した光の像を露光時間だけ受光し、その光の強さに応じた画像を生成して、参照画像取込部315bに画像を送る。参照画像取込部315bは、撮像素子部302bから画像を受け取るとともに、画像を撮像画像記憶部311に格納する。 Immediately after receiving the synchronization signal from the synchronization signal generation section 314, the reference image capture section 315b sends the synchronization signal and exposure time information to the image sensor section 302b. Immediately after receiving the synchronization signal and exposure time information from the reference image capture unit 315b, the image sensor unit 302b receives an image of the light refracted by the optical element unit 301b for the exposure time, and adjusts the intensity of the light. A corresponding image is generated and sent to the reference image capture unit 315b. The reference image capture unit 315b receives an image from the image sensor unit 302b and stores the image in the captured image storage unit 311.

ステップ802:画像補正部331は、撮像画像記憶部311から撮像後の基準画像及び参照画像を読み込む。画像補正部331は、画像補正情報記憶部312から基準画像及び参照画像の画像補正データを読み込む。 Step 802: The image correction unit 331 reads the captured standard image and reference image from the captured image storage unit 311. The image correction unit 331 reads image correction data of the standard image and the reference image from the image correction information storage unit 312.

式(39)及び式(40)を用いて、補正後の基準画像上の各画素に対応する撮像後の画像上の座標(Fx(X4、Y4)、Fy(X4、Y4))をもとに、補正後の基準画像の画素(X4、Y4)に対応する撮像後の基準画像の位置(X1、Y1)を算出する。 Using equations (39) and (40), calculate the coordinates (Fx (X4, Y4), Fy (X4, Y4)) on the image after image capture corresponding to each pixel on the corrected reference image. Next, the position (X1, Y1) of the reference image after imaging corresponding to the pixel (X4, Y4) of the reference image after correction is calculated.

X1=Fx(X4、Y4) ・・・(39)
Y1=Fy(X4、Y4) ・・・(40)
X1=Fx(X4, Y4)...(39)
Y1=Fy(X4, Y4)...(40)

基準画像の位置(X1、Y1)の周辺4画素の輝度値を、2次元線形補間を実施することにより、補正後の基準画像の画素(X4、Y4)の輝度値を算出する。補正後の基準画像の各画素について上記の手順を実施して、補正後の基準画像の輝度値を算出する。また、参照画像についても上記の手順を実施して、参照画像の補正画像の輝度値を算出する。補正後の基準画像及び参照画像を補正画像記憶部316に格納する。 By performing two-dimensional linear interpolation on the luminance values of four pixels surrounding the position (X1, Y1) of the reference image, the luminance value of the pixel (X4, Y4) of the reference image after correction is calculated. The above procedure is performed for each pixel of the corrected reference image to calculate the brightness value of the corrected reference image. The above procedure is also performed for the reference image to calculate the brightness value of the corrected image of the reference image. The corrected standard image and reference image are stored in the corrected image storage unit 316.

ステップ803:視差算出部332は、補正画像記憶部316から基準画像及び参照画像の補正画像を読み込む。視差算出部332は、図9に示すように、補正後の基準画像901の所定のサイズの領域903(基準領域と呼ぶことにする)を抽出する。視差算出部332は、補正後の参照画像902で基準領域903と同じ対象物が写っている領域の画像を以下のパターン・マッチングで探索する。 Step 803: The parallax calculation unit 332 reads the corrected images of the standard image and the reference image from the corrected image storage unit 316. As shown in FIG. 9, the parallax calculation unit 332 extracts a region 903 (hereinafter referred to as a reference region) of a predetermined size from the corrected reference image 901. The parallax calculation unit 332 searches for an image of an area in the corrected reference image 902 in which the same object as the reference area 903 is captured using the following pattern matching.

視差算出部332は、基準画像903と同じ高さにある参照画像902の所定のサイズの領域904(参照領域)を抽出して、基準領域903の輝度値と参照領域904の輝度値の差の絶対値の和(SAD、Sum of Absolute Difference)を算出する。視差算出部332は、基準領域903と同じ高さにある参照画像902上の各参照領域904についてSADを算出して、SADが最も小さい値の参照領域905を探索する。視差算出部332は、参照領域905のSAD及び参照領域905から1画素の左右隣の参照領域のSADを用いて、等角直線フィッティングを行い、基準領域903と最も一致する参照画像上の参照領域905のサブピクセルを算出する。視差算出部332は、基準領域903と参照領域905の位置の差にサブピクセルを加算することにより、補正後の基準画像901上の基準領域903の視差を算出する。 The parallax calculation unit 332 extracts an area 904 (reference area) of a predetermined size of the reference image 902 that is at the same height as the reference image 903, and calculates the difference between the brightness value of the standard area 903 and the brightness value of the reference area 904. The sum of absolute values (SAD, Sum of Absolute Difference) is calculated. The parallax calculation unit 332 calculates the SAD for each reference area 904 on the reference image 902 that is at the same height as the reference area 903, and searches for the reference area 905 with the smallest SAD value. The parallax calculation unit 332 performs isometric straight line fitting using the SAD of the reference area 905 and the SAD of the reference areas adjacent to the left and right of one pixel from the reference area 905, and selects a reference area on the reference image that most matches the reference area 903. 905 sub-pixels are calculated. The parallax calculation unit 332 calculates the parallax of the reference area 903 on the corrected reference image 901 by adding subpixels to the difference in position between the reference area 903 and the reference area 905.

視差算出部332は、このような処理を画像補正後の基準画像901上の全ての領域について実施して、基準画像901の全体での視差を算出する。視差算出部332は、このようにして算出した視差画像を視差画像記憶部317に格納する。 The parallax calculation unit 332 performs such processing on all regions on the reference image 901 after image correction, and calculates the parallax of the entire reference image 901. The parallax calculation unit 332 stores the parallax image calculated in this manner in the parallax image storage unit 317.

ステップ804:認識部333は、視差画像記憶部317から視差画像を読み込む。 Step 804: The recognition unit 333 reads the parallax image from the parallax image storage unit 317.

認識部333は、式(41)を用いて、視差画像上の領域におけるステレオカメラ104との光軸方向の距離Lを算出する。ここで、fは撮像系部300a及び撮像系部300bの焦点距離の設計値、Bは撮像系部300aと撮像系部300bの主点間の距離(基線長)、dは視差、cは撮像素子部302a及び撮像素子部302bの画素ピッチである。 The recognition unit 333 calculates the distance L in the optical axis direction from the stereo camera 104 in the region on the parallax image using equation (41). Here, f is the design value of the focal length of the imaging system section 300a and the imaging system section 300b, B is the distance (baseline length) between the principal points of the imaging system section 300a and the imaging system section 300b, d is the parallax, and c is the imaging system section. This is the pixel pitch of the element section 302a and the image sensor section 302b.

L=f×B/(d×c) ・・・(41) L=f×B/(d×c) (41)

認識部333は、この処理を視差画像の全ての領域について実施して、視差画像全体におけるステレオカメラ104との光軸方向の距離を算出して、距離画像を作成する。 The recognition unit 333 performs this process on all regions of the parallax image, calculates the distance in the optical axis direction from the stereo camera 104 in the entire parallax image, and creates a distance image.

認識部333は、式(42)~式(44)を用いて、距離画像上の領域における3次元位置を算出する。ここで、3次元座標系は、ステレオカメラ104の撮像系部300aの光学素子部301aの主点から垂直に下した路面上の点を原点として、右方向にX座標を、上方向にY座標を、進行方向にZ座標をとる。また、(U、V)は、距離画像上の各位置、(U0、V0)は、基準画像上の光軸位置、Hは路面からのステレオカメラ104の取付高さである。 The recognition unit 333 uses equations (42) to (44) to calculate the three-dimensional position in the area on the distance image. Here, the three-dimensional coordinate system has an origin at a point on the road surface vertically dropped from the principal point of the optical element section 301a of the imaging system section 300a of the stereo camera 104, an X coordinate in the right direction, and a Y coordinate in the upward direction. Take the Z coordinate in the direction of travel. Moreover, (U, V) is each position on the distance image, (U0, V0) is the optical axis position on the reference image, and H is the mounting height of the stereo camera 104 from the road surface.

X=L×c×(U-U0)/f ・・・(42)
Y=H+L×c×(V-V0)/f ・・・(43)
Z=L ・・・(44)
X=L×c×(U-U0)/f...(42)
Y=H+L×c×(V-V0)/f...(43)
Z=L...(44)

認識部333は、この処理を視差画像の全ての領域について実施して、視差画像全体で3次元位置を算出する。 The recognition unit 333 performs this process on all regions of the parallax image and calculates a three-dimensional position for the entire parallax image.

認識部333は、距離画像上で距離の比率が処理の閾値以内であり、隣接する領域を検出して、その領域の面積が閾値以上であり、それらの領域の路面からの高さ(Y座標)が閾値以上である場合、立体物であると推定する。 The recognition unit 333 detects adjacent areas on the distance image where the distance ratio is within the processing threshold, the area of the area is greater than or equal to the threshold, and the height of these areas from the road surface (Y coordinate ) is greater than or equal to the threshold, it is estimated that the object is a three-dimensional object.

ステップ805:カメラ取付ずれ検出部334は、補正画像記憶部316から、前回及び今回の処理で作成した補正後の基準画像を読み込む。カメラ取付ずれ検出部334は、前回と今回の補正後の基準画像について、水平方向及び垂直方向のエッジ画像を作成する。カメラ取付ずれ検出部334は、これらのエッジ画像上の所定のサイズの領域内に縦エッジと横エッジが両方存在する領域を検出する。カメラ取付ずれ検出部334は、パターン・マッチング処理を用いて、この領域に一致する前回の補正後の基準画像上の領域を探索する。 Step 805: The camera mounting misalignment detection unit 334 reads the corrected reference images created in the previous and current processing from the corrected image storage unit 316. The camera mounting misalignment detection unit 334 creates edge images in the horizontal direction and the vertical direction for the reference images after the previous and current corrections. The camera mounting misalignment detection unit 334 detects a region where both a vertical edge and a horizontal edge exist within a region of a predetermined size on these edge images. The camera mounting misalignment detection unit 334 uses pattern matching processing to search for an area on the previously corrected reference image that matches this area.

カメラ取付ずれ検出部334は、前回と今回の補正画像上に一致するエッジを検出した場合、前回と今回のエッジ位置を検出して、ずれ補正情報記憶部318に、検出した前回のエッジ位置と一致するエッジ位置に今回のエッジ位置を追加して、格納する。カメラ取付ずれ検出部334は、前回と今回の補正画像上に一致するエッジがない場合、今回のエッジ位置を新たにずれ補正情報記憶部318に格納する。このように、カメラ取付ずれ検出部334は、エッジの時系列位置を格納していく。 When the camera mounting misalignment detection unit 334 detects a matching edge on the previous and current corrected images, it detects the previous and current edge positions and stores the detected previous edge position and the current edge position in the misalignment correction information storage unit 318. Add the current edge position to the matching edge positions and store it. If there is no matching edge on the previous and current corrected images, the camera mounting deviation detection unit 334 newly stores the current edge position in the deviation correction information storage unit 318. In this way, the camera mounting misalignment detection unit 334 stores the time-series positions of the edges.

カメラ取付ずれ検出部334は、あるエッジ位置の時系列データの数が所定の閾値以上である場合、エッジ一致の時系列データを結んだ近似直線を求める。カメラ取付ずれ検出部334は、縦エッジと横エッジの両方を含む各領域についてこの処理を実施する。カメラ取付ずれ検出部334は、これらの近似直線の組合せごとの画像上の交点の位置を求めて、それらの交点の位置を平均する。 When the number of time-series data at a certain edge position is equal to or greater than a predetermined threshold, the camera mounting misalignment detection unit 334 determines an approximate straight line connecting the time-series data of edge coincidences. The camera mounting misalignment detection unit 334 performs this process for each region including both vertical edges and horizontal edges. The camera mounting misalignment detection unit 334 determines the positions of intersections on the image for each combination of these approximate straight lines, and averages the positions of these intersections.

カメラ取付ずれ検出部334は、交点の位置の平均値が設計上の消失点位置から閾値以内の距離である場合、直進していると判定して、交点の位置の平均値を消失点位置として、消失点位置データの数を一つ増やして、ずれ補正情報記憶部318に格納する。カメラ取付ずれ検出部334は、交点の位置の平均値が設計上の消失点位置から閾値以上の距離である場合、旋回中であると判定して、その消失点位置データが正しく検出されていないと判定して、破棄する。 If the average value of the positions of the intersection points is within a threshold value from the designed vanishing point position, the camera installation deviation detection unit 334 determines that the vehicle is traveling straight, and sets the average value of the positions of the intersections as the vanishing point position. , the number of vanishing point position data is increased by one and stored in the shift correction information storage unit 318. If the average value of the positions of the intersection points is a distance greater than or equal to the threshold value from the designed vanishing point position, the camera installation deviation detection unit 334 determines that the vehicle is turning, and the vanishing point position data is not detected correctly. , and discard it.

カメラ取付ずれ検出部334は、ずれ補正情報記憶部318に格納されている消失点位置データの数が所定の閾値以上である場合、ずれ補正情報記憶部318に格納されている消失点位置データを平均して、消失点位置の検出値を求め、消失点位置の検出値と設計値の差を、カメラ取付ずれによる水平方向及び垂直方向の画像ずれとする。 When the number of vanishing point position data stored in the displacement correction information storage section 318 is greater than or equal to a predetermined threshold, the camera mounting displacement detection section 334 detects the vanishing point position data stored in the displacement correction information storage section 318. The detected value of the vanishing point position is calculated on average, and the difference between the detected value of the vanishing point position and the design value is taken as the image shift in the horizontal and vertical directions due to camera mounting misalignment.

カメラ取付ずれ検出部334は、参照画像について、上記の処理を行う。基準画像及び参照画像におけるカメラ取付ずれによる水平方向及び垂直方向の画像ずれの平均を算出して、ずれ補正情報記憶部318に格納する。 The camera mounting misalignment detection unit 334 performs the above processing on the reference image. The average of image shifts in the horizontal and vertical directions due to camera mounting misalignment in the standard image and the reference image is calculated and stored in the shift correction information storage unit 318.

ステップ806:カメラ取付ずれ検出部334は、画像補正情報記憶部312から基準画像の画像補正データを、ずれ補正情報記憶部318からカメラ取付ずれによる水平方向及び垂直方向の画像ずれを読み込む。カメラ取付ずれ検出部334は、ステップ402に示すような2次元線形補間を用いて、基準画像の画像補正データによる変換、カメラ取付ずれによる水平方向及び垂直方向の画像ずれを補正する変換を各画素ごとに順次行う。これにより、カメラ取付ずれ検出部334は、カメラ取付ずれを除去する画像補正データを算出する。 Step 806: The camera mounting misalignment detection section 334 reads the image correction data of the reference image from the image correction information storage section 312 and the image shift in the horizontal and vertical directions due to the camera mounting misalignment from the misalignment correction information storage section 318. Using two-dimensional linear interpolation as shown in step 402, the camera mounting misalignment detection unit 334 performs conversion of the reference image using image correction data, and conversion for correcting image shifts in the horizontal and vertical directions due to camera mounting misalignment, to each pixel. Perform each step sequentially. Thereby, the camera mounting misalignment detection unit 334 calculates image correction data that removes the camera mounting misalignment.

カメラ取付ずれ検出部334は、参照画像について、上記の処理を行う。カメラ取付ずれ検出部334は、このように算出した基準画像及び参照画像の画像補正データを画像補正情報記憶部312に格納する。 The camera mounting misalignment detection unit 334 performs the above processing on the reference image. The camera mounting misalignment detection unit 334 stores the image correction data of the standard image and reference image calculated in this way in the image correction information storage unit 312.

車両111にステレオカメラ104を取り付けるときに、車両設置ずれやステレオカメラ取付ずれがあると、フロントガラス112による画像ずれと区別できない。すると、車両設置ずれやステレオカメラ取付ずれによる画像ずれがフロントガラス112による画像ずれに含まれ、変更された画像補正データに誤差が発生する。そして、マーカと異なる距離にある対象物の補正後の基準画像と参照画像に水平方向及び垂直方向の画像ずれが発生する。そして、この垂直方向の画像ずれにより、パターン・マッチング処理で基準画像と参照画像の領域が一致せず、正常に視差を算出できなくなる。また、仮に垂直ずれが補正されたとしても、水平方向の画像ずれにより、視差誤差が発生する。 When the stereo camera 104 is attached to the vehicle 111, if there is a misalignment in the vehicle installation or the stereo camera installation, it cannot be distinguished from image shift due to the windshield 112. Then, the image deviation due to the vehicle installation deviation or the stereo camera installation deviation is included in the image deviation due to the windshield 112, and an error occurs in the changed image correction data. Then, image shifts occur in the horizontal and vertical directions between the corrected reference image and the reference image of the object located at a different distance from the marker. Then, due to this vertical image shift, the regions of the standard image and the reference image do not match in the pattern matching process, making it impossible to correctly calculate the parallax. Further, even if the vertical shift is corrected, a parallax error occurs due to the horizontal image shift.

本実施形態によれば、距離の異なるマーカの画像上の間隔及び位置ずれをもとに、距離に依存しない車両111のガラスのモデルの拡大率及びオフセットずれ、距離に存するマーカとカメラ間位置及び姿勢ずれを検出する。そして、カメラ位置に車両設置ずれ及びカメラ取付ずれがあるとして、フロントガラス112による画像のずれを校正するように、画像を補正するデータを変更する。これにより、1回の撮影だけで車両設置ずれ及びカメラ取付ずれによる画像のずれを除去でき、距離を正確に計測できる。 According to this embodiment, based on the distance and positional deviation on the image of markers at different distances, the magnification ratio and offset deviation of the glass model of the vehicle 111 that does not depend on the distance, the position between the marker and the camera at the distance, and the Detect posture deviation. Then, assuming that there is a vehicle installation deviation and a camera installation deviation in the camera position, data for correcting the image is changed so as to correct the image deviation due to the windshield 112. With this, it is possible to eliminate image deviations due to vehicle installation deviations and camera installation deviations, and to accurately measure distances, with just one photographing.

図3に示す本実施形態によれば、車両111が走行する間、図8に示す動作手順のステップ805及びステップ806において、カメラ取付ずれ検出部334が、補正画像上の消失点位置(検出位置)を検出する。そして、カメラ取付ずれ検出部334が、消失点の設計位置の差をもとに、カメラ取付ずれによる水平方向及び垂直方向の画像ずれとして、それらを補正するように、画像補正データを変更する。これにより、経年的に発生するステレオカメラ104の設置ずれや変形などによる補正ずれを補正できる。 According to the present embodiment shown in FIG. 3, while the vehicle 111 is traveling, in step 805 and step 806 of the operation procedure shown in FIG. ) is detected. Then, based on the difference in the designed positions of the vanishing points, the camera mounting deviation detection unit 334 changes the image correction data so as to correct the horizontal and vertical image deviations due to the camera mounting deviation. This makes it possible to correct correction deviations due to misalignment or deformation of the stereo camera 104 that occurs over time.

なお、本発明の処理装置及び車載カメラ装置は、上述の実施形態に限定されるものではなく、様々に変形して適用することができる。以下では、本発明の処理装置及び車載カメラ装置の実施形態の変形例について説明する。 Note that the processing device and vehicle-mounted camera device of the present invention are not limited to the above-described embodiments, and can be modified and applied in various ways. Modifications of the embodiments of the processing device and vehicle-mounted camera device of the present invention will be described below.

(変形例1-1)(画像校正の処理を計算部で実施する実施形態)
図1及び図10に本発明の処理装置及び車載カメラ装置の一実施形態の構成を示す。本変形例は、図1及び図3に示す処理装置及び車載カメラ装置の一実施形態において、ステレオカメラ104から校正情報記憶部313、画像校正部320を外して、新たに追加した計算部106(1000)に校正情報記憶部313、画像校正部320が備えられている。
(Modification 1-1) (Embodiment in which image calibration processing is performed by the calculation unit)
FIGS. 1 and 10 show the configuration of an embodiment of a processing device and a vehicle-mounted camera device of the present invention. This modification example removes the calibration information storage unit 313 and the image calibration unit 320 from the stereo camera 104 in the embodiment of the processing device and in-vehicle camera device shown in FIGS. 1 and 3, and newly adds the calculation unit 106 ( 1000) is provided with a calibration information storage unit 313 and an image calibration unit 320.

計算部106(1000)はステレオカメラ104及び車両設置ずれ検出部105と接続されている。各部の動作は、図1及び図3に示す処理装置及び車載カメラ装置の実施形態と同様である。このように、ステレオカメラ104から校正情報記憶部313、画像校正部320を外すことにより、画像校正処理を行う実行ファイルをステレオカメラ104から除去でき、ステレオカメラ104内で使用するメモリ量を削減できる。また、新たに追加した計算部106(1000)は、車両111に取り付ける工程に専用に設置されるものであり、計算部106(1000)の演算処理能力はステレオカメラ104よりも速い。このため、画像校正処理にかかる時間を短縮でき、時間当たりに画像を校正できる台数を増加できる。 The calculation unit 106 (1000) is connected to the stereo camera 104 and the vehicle installation deviation detection unit 105. The operations of each part are similar to those of the embodiment of the processing device and the vehicle-mounted camera device shown in FIGS. 1 and 3. In this way, by removing the calibration information storage unit 313 and the image calibration unit 320 from the stereo camera 104, the executable file that performs image calibration processing can be removed from the stereo camera 104, and the amount of memory used within the stereo camera 104 can be reduced. . Furthermore, the newly added calculation unit 106 (1000) is installed exclusively for the process of attaching to the vehicle 111, and the calculation processing capacity of the calculation unit 106 (1000) is faster than that of the stereo camera 104. Therefore, the time required for image calibration processing can be shortened, and the number of devices that can calibrate images per hour can be increased.

(変形例1-2)(カメラ設置ずれのみの検出)
本変形例は、図1及び図3に示す本発明の処理装置及び車載カメラ装置の実施形態において、車両設置ずれ検出部105を削除する。また、図4に示す動作手順におけるステップ404及びステップ405を実施しない。さらに、ステップ406において、カメラ取付方向ずれデータによる変換、ガラスずれデータによる変換、ガラス変形データによる変換、カメラ設置ずれデータによる変換、フロントガラス112を通さないときの画像補正データ(光学素子による歪を表す)による変換を各画素ごとに順次行う代わりに、ガラスずれデータによる変換、ガラス変形データによる変換、カメラ設置ずれデータによる変換、フロントガラス112を通さないときの画像補正データ(光学素子による歪を表す)による変換を各画素ごとに順次行う。
(Modification 1-2) (Detection of camera installation deviation only)
In this modification, the vehicle installation deviation detection unit 105 is deleted from the embodiment of the processing device and vehicle-mounted camera device of the present invention shown in FIGS. 1 and 3. Further, step 404 and step 405 in the operation procedure shown in FIG. 4 are not performed. Further, in step 406, conversion is performed using camera installation direction deviation data, glass deviation data, glass deformation data, camera installation deviation data, and image correction data when the windshield 112 is not passed through (distortion due to optical elements). Instead of sequentially performing conversion based on glass displacement data, glass deformation data, camera installation deviation data, and image correction data when not passing through the windshield 112 (representing distortion caused by optical elements) for each pixel, ) is performed sequentially for each pixel.

これにより、車両設置ずれ検出部105を備えなくても、車両設置ずれによるステレオカメラ104の設置ずれによる補正誤差を画像補正データから除去できる。この変形例では、ステレオカメラ取付ずれによる画像上の消失点位置に誤差が生じるが、図8に示す動作手順のステップ805及びステップ806において、カメラ取付ずれを検出して、それによる画像ずれを補正する画像補正データを算出することにより、ステレオカメラ取付ずれによる画像ずれを補正できる。 Thereby, even without providing the vehicle installation deviation detection unit 105, correction errors due to installation deviation of the stereo camera 104 due to vehicle installation deviation can be removed from the image correction data. In this modification, an error occurs in the vanishing point position on the image due to the misalignment of the stereo camera, but in steps 805 and 806 of the operation procedure shown in FIG. 8, the misalignment of the camera is detected and the resulting image shift is corrected. By calculating the image correction data, it is possible to correct image deviation due to misalignment of the stereo camera.

(変形例1-3)(マーカ中心の位置を検出する実施形態)
本変形例では、図1及び図3に示す本発明の処理装置及び車載カメラ装置の実施形態において、校正情報記憶部313は、補正画像上の各マーカ画像を格納しない。また、ステップ402で、マーカ画像を用いて、パターン・マッチング処理を行い、特徴点位置を検出する代わりに、画像補正後の基準画像及び参照画像において、所定の輝度値以下の画素を1とし、それ以外の画素を0と設定する二値化処理を行い、二値化した画像上の各マーカの重心位置を算出することにより、マーカの位置を検出する。これにより、マーカ画像を予め作成して、記憶させる作業を低減できる。
(Modification 1-3) (Embodiment that detects the position of the marker center)
In this modification, in the embodiments of the processing device and in-vehicle camera device of the present invention shown in FIGS. 1 and 3, the calibration information storage unit 313 does not store each marker image on the corrected image. In addition, in step 402, instead of performing pattern matching processing using the marker image and detecting the feature point position, pixels having a predetermined brightness value or less are set to 1 in the standard image and reference image after image correction, and Binarization processing is performed to set other pixels to 0, and the position of the marker is detected by calculating the position of the center of gravity of each marker on the binarized image. Thereby, the work of creating and storing marker images in advance can be reduced.

(変形例1-4)(単眼カメラの画像校正装置)
本変形例では、図1及び図3に示す本発明の処理装置及び車載カメラ装置の実施形態において、図1に示すステレオカメラ104を単眼カメラ104に変更して、図3に示すステレオカメラの代わりに、図11に示す単眼カメラを備え、図8に示す走行時の動作手順の代わりに、図12に示す動作手順を行うとともに、図4及び図12に示す動作手順において、各部は、撮像系部300a及び撮像系部300bの画像に関する処理を行う代わりに、撮像系部1000の画像に関する処理を行う。
(Modification 1-4) (Image calibration device for monocular camera)
In this modification, the stereo camera 104 shown in FIG. 1 is changed to a monocular camera 104 in the embodiment of the processing device and in-vehicle camera device of the present invention shown in FIGS. 1 and 3, and the stereo camera 104 shown in FIG. The system is equipped with a monocular camera shown in FIG. 11, performs the operation procedure shown in FIG. 12 instead of the operation procedure during running shown in FIG. 8, and in the operation procedures shown in FIGS. 4 and 12, each part is Instead of processing images in the imaging system section 300a and imaging system section 300b, processing on images in the imaging system section 1000 is performed.

図1及び図11に本発明の画像校正装置の一実施例の構成を示す。ここで、灰色で表示した補正画像記憶部316、距離検出部330は、本実施形態に含まれず、立体物の距離を検出するケースで稼働する。これらの動作を後述する。 FIGS. 1 and 11 show the configuration of an embodiment of the image proofing apparatus of the present invention. Here, the corrected image storage section 316 and the distance detection section 330, which are displayed in gray, are not included in this embodiment, and operate in the case of detecting the distance of a three-dimensional object. These operations will be described later.

単眼カメラは、車両111に取り付けられており、車両111のフロントガラス112を通して、マーカ201~205を撮影する。また、単眼カメラは、撮像系部1000と演算部210を備えており、車両設置ずれ検出部105と接続している。 The monocular camera is attached to the vehicle 111 and photographs the markers 201 to 205 through the windshield 112 of the vehicle 111. Further, the monocular camera includes an imaging system section 1000 and a calculation section 210, and is connected to the vehicle installation deviation detection section 105.

カメラなどの撮像系部1000は、光学素子部1001と撮像素子部1002を備えている。レンズなどの光学素子部1001は、光を屈折させて、撮像素子部1002上に像を結ぶ。撮像素子などの撮像素子部1002は、光学素子部1001により屈折した光の像を受光し、その光の強さに応じた画像を生成する。 An imaging system section 1000 such as a camera includes an optical element section 1001 and an image sensor section 1002. An optical element section 1001 such as a lens refracts light and forms an image on an image sensor section 1002. An image sensor unit 1002 such as an image sensor receives an image of light refracted by the optical element unit 1001, and generates an image according to the intensity of the light.

CPU(central processing unit、中央演算処理装置)及びメモリなどの演算部310は、撮像画像記憶部311、画像補正情報記憶部312、校正情報記憶部313、補正画像記憶部316、ずれ補正記憶部318、画像取込部1015、画像校正部320、距離検出部1030を備えている。 The calculation unit 310, such as a CPU (central processing unit) and memory, includes a captured image storage unit 311, an image correction information storage unit 312, a calibration information storage unit 313, a corrected image storage unit 316, and a deviation correction storage unit 318. , an image capture section 1015, an image proofreading section 320, and a distance detection section 1030.

距離検出部1030は、画像補正部331、認識部1032、立体物距離検出部1033、カメラ取付ずれ検出部334を備えている。 The distance detection section 1030 includes an image correction section 331 , a recognition section 1032 , a three-dimensional object distance detection section 1033 , and a camera attachment displacement detection section 334 .

メモリなどの撮像画像記憶部311、画像補正情報記憶部312、校正情報記憶部313、補正画像記憶部316、ずれ補正記憶部318は、撮像系部300a及び撮像系部300bの情報の代わりに、撮像系部1000の情報を記憶する。 A captured image storage section 311, an image correction information storage section 312, a calibration information storage section 313, a corrected image storage section 316, and a deviation correction storage section 318, such as a memory, store information in place of the information of the imaging system section 300a and the imaging system section 300b. Information about the imaging system section 1000 is stored.

画像取込部1015は、撮像素子部1002が生成する画像を取得して、画像を撮像画像記憶部311に格納する。 The image capture unit 1015 captures the image generated by the image sensor unit 1002 and stores the image in the captured image storage unit 311 .

マーカ位置検出部321、画像ずれ要因検出部322、画像補正データ変更部323、画像補正部331、カメラ取付ずれ検出部334は、撮像系部300a及び撮像系部300bの画像に関する処理を行う代わりに、撮像系部1000の画像に関する同様の処理を行う。 The marker position detection section 321, the image shift factor detection section 322, the image correction data change section 323, the image correction section 331, and the camera mounting misalignment detection section 334 perform processing related to the images of the imaging system section 300a and the imaging system section 300b. , performs similar processing on the image of the imaging system unit 1000.

認識部1032は、画像補正部331が補正した画像における各領域で車両111の特徴量を算出して、車両111の特徴と一致する領域を検出する。また、認識部1032は、補正後の画像における各領域で歩行者の特徴量を算出して、歩行者の特徴と一致する領域を検出する。 The recognition unit 1032 calculates the feature amount of the vehicle 111 in each region in the image corrected by the image correction unit 331, and detects a region that matches the feature of the vehicle 111. Furthermore, the recognition unit 1032 calculates the feature amount of the pedestrian in each region in the corrected image, and detects a region that matches the feature of the pedestrian.

立体物距離検出部1033は、車両111の領域及び歩行者の領域の下部の位置を、路面と接する位置として、路面と接する位置をもとに、車両111及び歩行者の距離を算出する。 The three-dimensional object distance detection unit 1033 calculates the distance between the vehicle 111 and the pedestrian based on the positions of the lower part of the area of the vehicle 111 and the area of the pedestrian, which are in contact with the road surface.

図1及び図11に示す本変形例は、図4に示す動作手順で動作する。ここで、ステップ401では、下記の処理を行うとともに、マーカ位置検出部321、画像ずれ要因検出部322、画像補正データ変更部323は、撮像系部300a及び撮像系部300bの画像に関する処理を行う代わりに、撮像系部1000の画像に関する処理を行うことにより、カメラ設置ずれ、車両設置ずれ、カメラ取付ずれ、フロントガラス112の水平方向及び垂直方向の拡大率を検出する。 This modified example shown in FIGS. 1 and 11 operates according to the operating procedure shown in FIG. 4. Here, in step 401, the following processing is performed, and the marker position detection section 321, image shift factor detection section 322, and image correction data change section 323 perform processing regarding the images of the imaging system section 300a and the imaging system section 300b. Instead, by performing processing on the image of the imaging system unit 1000, the camera installation deviation, vehicle installation deviation, camera installation deviation, and horizontal and vertical magnification ratios of the windshield 112 are detected.

ステップ401:画像取込部1015は、撮像素子部1002に撮像信号及び露光時間の情報を送る。撮像素子部1002は、画像取込部1015からの撮像信号及び露光時間の情報を受け取った直後に、光学素子部1001により屈折した光の像を露光時間だけ受光し、その光の強さに応じた画像を生成して、画像取込部1015に画像を送る。画像取込部1015は、撮像素子部1002から画像を受け取るとともに、画像を撮像画像記憶部311に格納する。 Step 401: The image capture unit 1015 sends the image capture signal and exposure time information to the image sensor unit 1002. Immediately after receiving the imaging signal and exposure time information from the image capture unit 1015, the image sensor unit 1002 receives an image of the light refracted by the optical element unit 1001 for the exposure time, and then adjusts the image according to the intensity of the light. The generated image is sent to the image capture unit 1015. The image capture unit 1015 receives an image from the image sensor unit 1002 and stores the image in the captured image storage unit 311.

図1及び図11に示す本変形例の単眼カメラの実施形態は、図8に示す動作手順の代わりに、図12に示す動作手順を行うことにより、立体物の距離を検出するとともに、カメラ取付ずれを検出して、画像補正データを変更する。ここで、ステップ801では、同期信号発生部を使わない変形例1-4のステップ401(上述)と同じ処理を行う。また、ステップ802及びステップ805~806では、撮像系部300a及び撮像系部300bの画像に関する処理を行う代わりに、撮像系部1000の画像に関する同様の処理を行うため、それらのステップの説明を省略して、ステップ1103及びステップ1104のみの説明を示す。 The embodiment of the monocular camera of this modification shown in FIGS. 1 and 11 performs the operation procedure shown in FIG. 12 instead of the operation procedure shown in FIG. Detect the deviation and change the image correction data. Here, in step 801, the same process as step 401 (described above) of modification 1-4, which does not use the synchronization signal generator, is performed. Furthermore, in step 802 and steps 805 to 806, similar processing is performed on the image of the imaging system section 1000 instead of processing on the image of the imaging system section 300a and the imaging system section 300b, so explanations of those steps are omitted. The explanation of only steps 1103 and 1104 will be shown below.

ステップ1103:認識部1032は、補正画像記憶部316に格納されている補正後の画像を読み込む。補正後の画像1201における各領域で車両111の特徴量を算出して、図13に示すように、車両111の特徴と一致する領域1202を検出する。また、認識部1032は、補正後の画像1201における各領域で歩行者の特徴量を算出して、歩行者の特徴と一致する領域1203を検出する。 Step 1103: The recognition unit 1032 reads the corrected image stored in the corrected image storage unit 316. The feature amount of the vehicle 111 is calculated in each region in the corrected image 1201, and a region 1202 that matches the feature of the vehicle 111 is detected as shown in FIG. Furthermore, the recognition unit 1032 calculates the characteristic amount of the pedestrian in each region in the corrected image 1201, and detects the region 1203 that matches the characteristic of the pedestrian.

ステップ1104:立体物距離検出部1034は、車両111の領域1202及び歩行者の領域1203の下部の位置を、路面と接する位置として、路面と接する位置をもとに、車両111及び歩行者の距離を算出する。 Step 1104: The three-dimensional object distance detection unit 1034 determines the distance between the vehicle 111 and the pedestrian based on the position of the lower part of the area 1202 of the vehicle 111 and the area of the pedestrian 1203 as the position in contact with the road surface. Calculate.

車両111に単眼カメラを取り付けるときに、車両設置ずれや単眼カメラ取付ずれがあると、フロントガラス112による画像ずれと区別できず、車両設置ずれや単眼カメラ取付ずれによる画像ずれがフロントガラス112による画像ずれに含まれ、変更された画像補正データに誤差が発生して、マーカと異なる距離にある対象物の補正後の画像に水平方向及び垂直方向の画像ずれが発生して、この垂直方向の画像ずれにより、それらの距離に誤差が発生する。 When installing a monocular camera on the vehicle 111, if there is a misalignment in the vehicle installation or monocular camera installation, it cannot be distinguished from an image shift caused by the windshield 112. An error occurs in the changed image correction data that is included in the deviation, and horizontal and vertical image deviation occurs in the corrected image of the target at a different distance from the marker. Due to the shift, an error occurs in those distances.

変形例1-4では、距離の異なるマーカの画像上の間隔及び位置ずれをもとに、距離に依存しない車両111のフロントガラス112のモデルの拡大率及びオフセットずれ、距離に存するマーカとカメラ間位置及び姿勢ずれを検出する。そして、カメラ位置に車両設置ずれ及びカメラ取付ずれがあるとして、フロントガラス112による画像のずれを校正するように、画像を補正するデータを変更することにより、1回の撮影だけで車両設置ずれ及びカメラ取付ずれによる画像のずれを除去でき、距離を正確に計測できる。 In Modified Example 1-4, based on the distance and positional shift on the image of markers at different distances, the magnification rate and offset shift of the model of the windshield 112 of the vehicle 111 that does not depend on distance, and the distance between the marker and the camera that exist at different distances are calculated. Detect position and orientation deviations. Then, by changing the image correction data to calibrate the image shift caused by the windshield 112, assuming that there is a vehicle installation misalignment and a camera installation misalignment in the camera position, the vehicle installation misalignment and camera installation misalignment can be corrected with just one shooting. Image deviations caused by camera installation misalignment can be removed, and distances can be measured accurately.

なお、変形例1-4の単眼カメラは、上術の実施形態に限定されるものではなく、変形例1-1~変形例1-3に示すように、様々に変形して適用することができ、同様の効果が得られる。 Note that the monocular camera of Modification 1-4 is not limited to the embodiment described above, and can be modified and applied in various ways, as shown in Modifications 1-1 to 1-3. You can get the same effect.

以上、図面を用いて本開示に係る処理装置及び車載カメラ装置の実施形態を詳述してきたが、具体的な構成はこの実施形態に限定されるものではなく、本開示の要旨を逸脱しない範囲における設計変更等があっても、それらは本開示に含まれるものである。 Although the embodiments of the processing device and the in-vehicle camera device according to the present disclosure have been described above in detail using the drawings, the specific configuration is not limited to this embodiment and is within the scope of the gist of the present disclosure. Even if there are design changes, etc., they are included in the present disclosure.

101…マーカ、102…マーカ、103…マーカ、104…ステレオカメラ、105…車両設置ずれ検出部、106…計算部、111…車両、112…フロントガラス、121…所定の車両の位置、122…所定の車両の姿勢(方向)、123…車両の姿勢(方向)、124…ステレオカメラの姿勢(方向)、201…マーカ、202…マーカ、203…マーカ、204…マーカ、205…マーカ、206…チャート、207…チャート、208…チャート、209…チャート、210…チャート、300b…撮像系部、301a…光学素子部、301b…光学素子部、302a…撮像素子部、302b…撮像素子部、310…演算部、311…撮像画像記憶部、312…画像補正情報記憶部、313…校正情報記憶部、314…同期信号発生部、315a…基準画像取込部、315b…参照画像取込部、316…補正画像記憶部、317…視差画像記憶部、318…ずれ補正情報記憶部、320…画像校正部、321…マーカ位置検出部、322…画像ずれ要因検出部、323…画像補正データ変更部、330…距離検出部、331…画像補正部、332…視差算出部、333…認識部、334…カメラ取付ずれ検出部、501…補正画像、502…マーカの検出位置、503…マーカの設計位置、504…マーカの検出位置、マーカの設計位置、601…光軸方向、602…光軸方向に垂直な水平方向の線、603…光軸方向に垂直な水平方向の線、701…マーカ、702…マーカ、703…光軸方向、704…光軸方向に垂直な垂直方向の線、705…光軸方向に垂直な垂直方向の線、901…補正後の基準画像、902…補正後の参照画像、903…基準領域、904…参照領域、905…基準領域に最も一致する参照領域、1000…計算部、1000…撮像系部、1001…光学素子部、1002…撮像素子部、画像取得部…1015、1030…距離検出部、1032…認識部、1033…立体物距離検出部、1201…補正画像、1202…車両、1203…歩行者 DESCRIPTION OF SYMBOLS 101... Marker, 102... Marker, 103... Marker, 104... Stereo camera, 105... Vehicle installation deviation detection part, 106... Calculation part, 111... Vehicle, 112... Windshield, 121... Predetermined vehicle position, 122... Predetermined Attitude (direction) of the vehicle, 123... Attitude (direction) of the vehicle, 124... Attitude (direction) of the stereo camera, 201... Marker, 202... Marker, 203... Marker, 204... Marker, 205... Marker, 206... Chart , 207...chart, 208...chart, 209...chart, 210...chart, 300b...imaging system section, 301a...optical element section, 301b...optical element section, 302a...imaging element section, 302b...imaging element section, 310...operation 311... Captured image storage section, 312... Image correction information storage section, 313... Calibration information storage section, 314... Synchronization signal generation section, 315a... Reference image capture section, 315b... Reference image capture section, 316... Correction Image storage section, 317... Parallax image storage section, 318... Misalignment correction information storage section, 320... Image proofing section, 321... Marker position detection section, 322... Image misalignment factor detection section, 323... Image correction data changing section, 330... Distance detection unit, 331... Image correction unit, 332... Parallax calculation unit, 333... Recognition unit, 334... Camera installation deviation detection unit, 501... Corrected image, 502... Marker detection position, 503... Marker design position, 504... Marker detection position, marker design position, 601...Optical axis direction, 602...Horizontal line perpendicular to the optical axis direction, 603...Horizontal line perpendicular to the optical axis direction, 701...Marker, 702...Marker, 703...Optical axis direction, 704...Vertical line perpendicular to the optical axis direction, 705...Vertical line perpendicular to the optical axis direction, 901...Reference image after correction, 902...Reference image after correction, 903... Reference area, 904...Reference area, 905...Reference area that most matches the reference area, 1000...Calculation section, 1000...Imaging system section, 1001...Optical element section, 1002...Imaging element section, Image acquisition section...1015, 1030... Distance detection unit, 1032... Recognition unit, 1033... Three-dimensional object distance detection unit, 1201... Corrected image, 1202... Vehicle, 1203... Pedestrian

Claims (6)

車載カメラからの距離が異なる複数のマーカを撮像した画像及びモデル化された車両の窓のデータから前記車載カメラの設置ずれを取得し、前記設置ずれを使用して、前記車載カメラの画像を補正するための補正データを変更する処理装置であって、
前記設置ずれとは、前記マーカが存在するチャートに対して前記車載カメラが配置されるべき位置に対する位置ずれである、処理装置。
Obtain the installation deviation of the in-vehicle camera from images taken of multiple markers at different distances from the in-vehicle camera and modeled vehicle window data, and use the installation deviation to correct the image of the in-vehicle camera. A processing device for changing correction data for
The processing device, wherein the installation deviation is a positional deviation with respect to a position where the in-vehicle camera should be placed with respect to a chart where the marker is present.
前記マーカは、上下方向に前記車載カメラからの距離が異なるよう配置されており、
前記処理装置は、前記マーカの間隔及び距離ずれをもとに前記設置ずれを取得し、
前記設置ずれは、前記車両のピッチ角ずれである、請求項1に記載の処理装置。
The markers are arranged at different distances from the in-vehicle camera in the vertical direction,
The processing device obtains the installation deviation based on the interval and distance deviation of the markers,
The processing device according to claim 1, wherein the installation deviation is a pitch angle deviation of the vehicle.
前記マーカは、左右方向に前記車載カメラからの距離が異なるよう配置されており、
前記処理装置は、前記マーカの間隔及び距離ずれをもとに、前記設置ずれを取得し、
前記設置ずれは、前記車両のヨー角ずれである、請求項1に記載の処理装置。
The markers are arranged at different distances from the in-vehicle camera in the left-right direction,
The processing device obtains the installation deviation based on the interval and distance deviation of the markers,
The processing device according to claim 1, wherein the installation deviation is a yaw angle deviation of the vehicle.
前記処理装置は、画像上の前記マーカの水平方向及び垂直方向の間隔ずれをもとに、前記窓の水平方向及び垂直方向の拡大率を取得する、請求項1に記載の処理装置。 2. The processing device according to claim 1, wherein the processing device obtains the horizontal and vertical magnification factors of the window based on the horizontal and vertical spacing deviations of the markers on the image. 前記車両の設置ずれを検出する車両設置ずれ検出部を有し、
前記車両の前記設置ずれ及び前記車載カメラの前記設置ずれをもとに、前記車両に対する前記車載カメラの取付ずれを算出して、前記車載カメラの前記設置ずれ及び前記車載カメラの前記取付ずれを使用して、前記車載カメラの画像を補正するための補正データを変更する、請求項1に記載の処理装置。
comprising a vehicle installation deviation detection unit that detects installation deviation of the vehicle;
Based on the installation deviation of the vehicle and the installation deviation of the in-vehicle camera, calculate the installation deviation of the in-vehicle camera with respect to the vehicle, and use the installation deviation of the in-vehicle camera and the installation deviation of the in-vehicle camera. The processing device according to claim 1, wherein the processing device changes correction data for correcting the image of the vehicle-mounted camera.
請求項1に記載の処理装置を備えた車載カメラ装置であって、
第1のカメラ及び第2のカメラを有し、
前記処理装置は、
前記第1のカメラが前記マーカを撮像した第1の画像及び前記第2のカメラが前記マーカを撮像した第2の画像を取得し、
前記第1の画像及び前記第2の画像から得られたマーカ間隔ずれ及び位置ずれをもとに、前記第1のカメラ及び前記第2のカメラに関する前記窓の拡大率ずれ、オフセットずれ、及び共通の車両設置ずれを取得し、
前記拡大率ずれ、前記オフセットずれ、及び前記共通の車両設置ずれをもとに、前記第1のカメラ及び前記第2のカメラのための補正データを変更する、車載カメラ装置。
An in-vehicle camera device comprising the processing device according to claim 1,
having a first camera and a second camera;
The processing device includes:
acquiring a first image of the marker taken by the first camera and a second image of the marker taken by the second camera;
Based on the marker interval deviation and positional deviation obtained from the first image and the second image, the magnification deviation, offset deviation, and common Obtain the vehicle installation deviation of
An in-vehicle camera device that changes correction data for the first camera and the second camera based on the magnification shift, the offset shift, and the common vehicle installation shift.
JP2020121784A 2020-07-16 2020-07-16 Processing equipment and in-vehicle camera equipment Active JP7405710B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020121784A JP7405710B2 (en) 2020-07-16 2020-07-16 Processing equipment and in-vehicle camera equipment
PCT/JP2021/022110 WO2022014215A1 (en) 2020-07-16 2021-06-10 Processing device and vehicle-mounted camera device
DE112021002562.7T DE112021002562T5 (en) 2020-07-16 2021-06-10 PROCESSING DEVICE AND VEHICLE MOUNTED CAMERA DEVICE
CN202180045150.2A CN115943636A (en) 2020-07-16 2021-06-10 Processing device and vehicle-mounted camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020121784A JP7405710B2 (en) 2020-07-16 2020-07-16 Processing equipment and in-vehicle camera equipment

Publications (2)

Publication Number Publication Date
JP2022018583A JP2022018583A (en) 2022-01-27
JP7405710B2 true JP7405710B2 (en) 2023-12-26

Family

ID=79555715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020121784A Active JP7405710B2 (en) 2020-07-16 2020-07-16 Processing equipment and in-vehicle camera equipment

Country Status (4)

Country Link
JP (1) JP7405710B2 (en)
CN (1) CN115943636A (en)
DE (1) DE112021002562T5 (en)
WO (1) WO2022014215A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11812128B2 (en) * 2022-01-21 2023-11-07 Motional Ad Llc Methods and systems for determination of boresight error in an optical system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013195783A (en) 2012-03-21 2013-09-30 Ricoh Co Ltd Position shift detection device, vehicle, and position shift detection method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5339124B2 (en) * 2008-09-30 2013-11-13 アイシン精機株式会社 Car camera calibration system
JP2019132855A (en) 2014-01-31 2019-08-08 株式会社リコー Stereo camera calibration method, parallax calculation device, and stereo camera
JP6427900B2 (en) 2014-03-07 2018-11-28 株式会社リコー Calibration method, calibration system, program, and moving object
JP6582683B2 (en) * 2015-07-28 2019-10-02 株式会社リコー Angle calculation system, angle calculation device, program, and angle calculation method
JP2017062198A (en) * 2015-09-25 2017-03-30 富士重工業株式会社 Geometrical distortion removal reproduction device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013195783A (en) 2012-03-21 2013-09-30 Ricoh Co Ltd Position shift detection device, vehicle, and position shift detection method

Also Published As

Publication number Publication date
CN115943636A (en) 2023-04-07
DE112021002562T5 (en) 2023-04-13
JP2022018583A (en) 2022-01-27
WO2022014215A1 (en) 2022-01-20

Similar Documents

Publication Publication Date Title
US11170466B2 (en) Dense structure from motion
KR102022388B1 (en) Calibration system and method using real-world object information
US9378553B2 (en) Stereo image processing device for vehicle
CN108692719B (en) Object detection device
US6381360B1 (en) Apparatus and method for stereoscopic image processing
JP3983573B2 (en) Stereo image characteristic inspection system
JP5898475B2 (en) In-vehicle camera system, calibration method thereof, and calibration program thereof
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
EP3505865B1 (en) On-vehicle camera, method for adjusting on-vehicle camera, and on-vehicle camera system
WO2018123642A1 (en) Stereo camera
JP2004132870A (en) Regulator for stereoscopic camera, and method of regulating stereoscopic camera
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
JP6186431B2 (en) Calibration apparatus, calibration system, and imaging apparatus
JP7308227B2 (en) Image processing device, image processing method, and program
JP2009276233A (en) Parameter calculating apparatus, parameter calculating system and program
JP6536529B2 (en) Calibration apparatus for in-vehicle camera and calibration method for in-vehicle camera
JP7405710B2 (en) Processing equipment and in-vehicle camera equipment
JP2018136739A (en) Calibration device
JP5580062B2 (en) Obstacle detection alarm device
JP5156211B2 (en) Distance measurement method from vehicle to traffic light
JPH11190611A (en) Three-dimensional measuring method and three-dimensional measuring processor using this method
CN115861439B (en) Depth information measurement method and device, computer equipment and storage medium
KR101949349B1 (en) Apparatus and method for around view monitoring
WO2020129715A1 (en) Image correction device, image correction method, and program
JP2023096279A (en) Camera calibration method and stereo camera device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231214

R150 Certificate of patent or registration of utility model

Ref document number: 7405710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150