JP7321947B2 - Image correction device and image correction method - Google Patents

Image correction device and image correction method Download PDF

Info

Publication number
JP7321947B2
JP7321947B2 JP2020006921A JP2020006921A JP7321947B2 JP 7321947 B2 JP7321947 B2 JP 7321947B2 JP 2020006921 A JP2020006921 A JP 2020006921A JP 2020006921 A JP2020006921 A JP 2020006921A JP 7321947 B2 JP7321947 B2 JP 7321947B2
Authority
JP
Japan
Prior art keywords
image
image correction
marker
correction data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020006921A
Other languages
Japanese (ja)
Other versions
JP2021114183A (en
Inventor
利幸 青木
雅幸 竹村
琢馬 大里
伊知郎 久住
健 永崎
裕史 大塚
直也 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2020006921A priority Critical patent/JP7321947B2/en
Priority to CN202080090686.1A priority patent/CN114902647A/en
Priority to PCT/JP2020/046660 priority patent/WO2021149402A1/en
Publication of JP2021114183A publication Critical patent/JP2021114183A/en
Application granted granted Critical
Publication of JP7321947B2 publication Critical patent/JP7321947B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B43/00Testing correct operation of photographic apparatus or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、1つ又は複数のカメラによって撮像された画像の歪みを補正する画像補正装置及び画像補正方法に関する。 The present invention relates to an image correction device and an image correction method for correcting distortion of images captured by one or more cameras.

従来、このような技術分野として、例えば特許文献1に記載されるものがある。特許文献1に記載の画像補正装置では、フロントガラスを介した状態と、介さない状態において、所定の格子模様が描かれた平面形状のチャートをステレオカメラでそれぞれ撮像し、撮像した画像上の格子模様の座標を求め、それらの理想座標との差をもとに画像補正データを作成する。更に、作成した画像補正データに基づいて画像の幾何学的歪みを除去する。 Conventionally, as such a technical field, there is one described in Patent Document 1, for example. In the image correction device described in Patent Document 1, a planar chart on which a predetermined grid pattern is drawn is captured by a stereo camera with and without the windshield, and the grid on the captured image is captured. The coordinates of the pattern are obtained, and the image correction data is created based on the difference from the ideal coordinates. Furthermore, the geometric distortion of the image is removed based on the generated image correction data.

特開2017-62198号公報JP 2017-62198 A

しかし、上述の画像補正装置では、以下の問題が生じている。すなわち、カメラの視野が広角である場合、平面形状のチャートのサイズが長くなり、チャートを備える装置の面積が広くなってしまう。これに対し、例えばカメラとチャートの距離を近づけることでチャートのサイズを短くすることが検討されるが、チャートのサイズを短くすると、カメラの設置ずれに起因する画像補正のずれが大きくなるので、高精度に画像を補正するデータが作成できなくなる。このため、カメラで検出した距離の精度が低下する。 However, the image correction apparatus described above has the following problems. That is, when the field of view of the camera is wide-angle, the size of the planar chart becomes long, and the area of the device including the chart becomes large. On the other hand, shortening the size of the chart by, for example, shortening the distance between the camera and the chart has been considered. Data for highly accurate image correction cannot be created. Therefore, the accuracy of the distance detected by the camera is lowered.

本発明は、このような技術課題を解決するためになされたものであって、カメラで検出する距離に要求される精度を保ちつつ、装置の面積を低減できる画像補正装置及び画像補正方法を提供することを目的とする。 The present invention has been made to solve such technical problems, and provides an image correction device and an image correction method that can reduce the area of the device while maintaining the accuracy required for the distance detected by the camera. intended to

本発明に係る画像補正装置は、複数のマーカが配置されたチャートと、フロントガラスを介して前記マーカを撮像するカメラにより撮像された画像を取得する画像取得部と、前記画像取得部により取得された画像上のマーカ位置を検出するマーカ位置検出部と、前記マーカ位置検出部により検出されたマーカ位置に基づいて、カメラにより撮像された画像の歪みを補正するためのデータを作成する画像補正データ作成部と、を備え、平面視において、カメラの撮像方向から見たときに、前記マーカは、カメラ視野角ごとの検出距離の許容誤差とカメラ設置ずれの許容誤差とが一致するマーカ配置曲線上又は前記マーカ配置曲線の後方に配置されていることを特徴としている。 An image correction device according to the present invention includes a chart on which a plurality of markers are arranged, an image acquisition section that acquires an image captured by a camera that captures an image of the markers through a windshield, and an image acquired by the image acquisition section. and image correction data for creating data for correcting distortion of an image captured by the camera based on the marker positions detected by the marker position detection unit. and a creation unit, wherein the marker is arranged on a marker arrangement curve in which, when viewed from the imaging direction of the camera in a plan view, the allowable error of the detection distance for each camera viewing angle and the allowable error of the camera installation deviation match. Alternatively, it is characterized by being arranged behind the marker arrangement curve.

本発明に係る画像補正装置では、平面視において、カメラの撮像方向から見たときに、マーカは、カメラ視野角ごとの検出距離の許容誤差とカメラ設置ずれの許容誤差とが一致するマーカ配置曲線上又は該マーカ配置曲線の後方に配置されている。これによって、視野角ごとの検出距離を許容誤差以下で検出することができるとともに、マーカを平面的に設ける場合と比べてチャートの面積を小さく抑えることができる。その結果、カメラで検出する距離に要求される精度を保ちつつ、装置の面積を低減することができる。 In the image correction device according to the present invention, when viewed from the imaging direction of the camera in a plan view, the marker has a marker arrangement curve in which the allowable error of the detection distance for each viewing angle of the camera and the allowable error of the misalignment of the camera match. placed above or behind the marker placement curve. As a result, the detection distance for each viewing angle can be detected with an allowable error or less, and the area of the chart can be reduced as compared with the case where the markers are provided on a plane. As a result, the area of the device can be reduced while maintaining the accuracy required for the distance detected by the camera.

本発明によれば、カメラで検出する距離に要求される精度を保ちつつ、装置の面積を低減することができる。 According to the present invention, the area of the device can be reduced while maintaining the accuracy required for the distance detected by the camera.

第1実施形態に係る画像補正装置の構成を示す平面図である。1 is a plan view showing the configuration of an image correction device according to a first embodiment; FIG. ステレオカメラの構成を示す図である。It is a figure which shows the structure of a stereo camera. マーカの形状を示す図である。FIG. 4 is a diagram showing the shape of a marker; 画像補正方法を示す図である。It is a figure which shows the image correction method. 歪のない画像上におけるマーカの理想位置を示す図である。Fig. 10 shows ideal positions of markers on an undistorted image; 視野角と検出距離との関係を示す図である。It is a figure which shows the relationship between a viewing angle and detection distance. 視野角と視差の許容誤差との関係を示す図である。FIG. 4 is a diagram showing the relationship between the viewing angle and parallax tolerance; ステレオカメラに対する水平方向の位置とステレオカメラからの距離との関係を示す図である。FIG. 4 is a diagram showing the relationship between the horizontal position with respect to the stereo camera and the distance from the stereo camera; 第1実施形態に係る画像補正装置と従来との比較を説明する図である。It is a figure explaining the comparison of the image correction apparatus which concerns on 1st Embodiment, and the past. 画像補正装置の変形例の構成を示す平面図である。FIG. 11 is a plan view showing the configuration of a modification of the image correction device; 変形例のステレオカメラ及び計算部の構成を示す平面図である。It is a top view which shows the structure of the stereo camera of a modification, and a calculation part. 画像補正装置の変形例を示す平面図である。It is a top view which shows the modification of an image correction apparatus. 画像補正装置の変形例を示す斜視図である。It is a perspective view which shows the modification of an image correction apparatus. 画像補正装置の変形例を示す平面図である。It is a top view which shows the modification of an image correction apparatus. 画像補正装置の変形例を示す斜視図である。It is a perspective view which shows the modification of an image correction apparatus. 画像補正装置の変形例を示す平面図である。It is a top view which shows the modification of an image correction apparatus. 画像補正装置の変形例のマーカ模様を示す図である。It is a figure which shows the marker pattern of the modification of an image correction apparatus. 画像補正装置の変形例のマーカ模様を示す図である。It is a figure which shows the marker pattern of the modification of an image correction apparatus. 第2実施形態に係る画像補正装置の構成を示す平面図である。FIG. 9 is a plan view showing the configuration of an image correction device according to a second embodiment; 単眼カメラの構成を示す図である。It is a figure which shows the structure of a monocular camera. 画像補正方法を示す図である。It is a figure which shows the image correction method. 補正画像上の車両及び歩行者を検出する状況を示す図である。It is a figure which shows the situation which detects the vehicle and pedestrian on a correction|amendment image. 視野角と画像上の垂直方向の位置ずれとの関係を示す図である。FIG. 5 is a diagram showing the relationship between viewing angle and vertical positional displacement on an image; カメラに対する水平方向の位置とカメラからの距離との関係を示す図である。FIG. 4 is a diagram showing the relationship between the horizontal position with respect to the camera and the distance from the camera; 第2実施形態に係る画像補正装置と従来との比較を説明する図である。It is a figure explaining the comparison of the image correction apparatus which concerns on 2nd Embodiment, and the past.

以下、図面を参照して本発明に係る画像補正装置及び画像補正方法の実施形態について説明する。本発明に係る画像補正装置は、例えば車に搭載されたステレオカメラや単眼カメラについて、出荷前或いは定期点検時にカメラの画像を補正するための装置である。以下の説明では、上下、左右、前後の方向及び位置は、画像を撮像するカメラ側から見たときの方向及び位置である。また、図面の説明において同一の要素には同一符号を付し、その重複説明を省略する。 Embodiments of an image correction apparatus and an image correction method according to the present invention will be described below with reference to the drawings. An image correction device according to the present invention is a device for correcting an image of a stereo camera or a monocular camera mounted on a vehicle, for example, before shipment or during periodic inspection. In the following description, the vertical, horizontal, front and rear directions and positions are the directions and positions when viewed from the side of the camera that captures the image. Also, in the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description thereof will be omitted.

[第1実施形態]
図1は第1実施形態に係る画像補正装置を示す平面図であり、図2はステレオカメラの構成を示す図である。本実施形態に係る画像補正装置10は、主に、複数のマーカ301が配置されたチャート30と、フロントガラス40を介してマーカ301を撮像するステレオカメラ20から撮像された画像を取得する画像取得部215と、画像取得部215により取得された画像上のマーカ位置を検出するマーカ位置検出部221と、マーカ位置検出部221により検出されたマーカ位置に基づいて、ステレオカメラ20により撮像された画像の歪みを補正するためのデータを作成する画像補正データ作成部222と、を備えている。
[First Embodiment]
FIG. 1 is a plan view showing an image correction device according to the first embodiment, and FIG. 2 is a diagram showing the configuration of a stereo camera. The image correction apparatus 10 according to the present embodiment mainly includes a chart 30 on which a plurality of markers 301 are arranged, and an image acquisition for acquiring an image captured by a stereo camera 20 that captures an image of the markers 301 through the windshield 40. 215, a marker position detection unit 221 that detects the marker positions on the image acquired by the image acquisition unit 215, and an image captured by the stereo camera 20 based on the marker positions detected by the marker position detection unit 221. and an image correction data creation unit 222 that creates data for correcting the distortion of the image.

マーカ301は、例えば図3に示すように、所定のパターンで配列される複数の黒丸であり、チャート30に描かれている。なお、マーカ301は印刷や貼付等でチャート30に配置されても良い。図1に示すように、平面視において、ステレオカメラ20の撮像方向から見たときに、マーカ301は、マーカ配置曲線302の線上又は該マーカ配置曲線302の後方に配置されている。 The markers 301 are a plurality of black circles arranged in a predetermined pattern and drawn on the chart 30, as shown in FIG. 3, for example. Note that the markers 301 may be arranged on the chart 30 by printing, pasting, or the like. As shown in FIG. 1 , the marker 301 is arranged on or behind the marker arrangement curve 302 when viewed from the imaging direction of the stereo camera 20 in plan view.

好ましくは、マーカ301は、マーカ配置曲線302と該マーカ配置曲線302を取り囲む矩形303とにより囲まれた領域(図1中のハッチング部分参照)304内に配置されている。マーカ配置曲線302は、ステレオカメラ20の視野角ごとの検出距離の許容誤差と、ステレオカメラ20の設置ずれの許容誤差とが一致する曲線であり、その詳細については後述する。 Preferably, the marker 301 is placed within an area 304 (see hatched portion in FIG. 1) surrounded by a marker placement curve 302 and a rectangle 303 surrounding the marker placement curve 302 . The marker placement curve 302 is a curve in which the permissible error of the detection distance for each viewing angle of the stereo camera 20 and the permissible error of the installation deviation of the stereo camera 20 are the same, the details of which will be described later.

ステレオカメラ20は、所定の距離で離れた状態で配置された左撮像系部200a及び右撮像系部200bと、ステレオカメラ20に関する各演算等を行う演算部210とを備えている。左撮像系部200aは、光学素子部201a及び撮像素子部202aを有する。光学素子部201aは、例えばレンズなどにより構成されており、光を屈折させて撮像素子部202a上に像を結ぶ。撮像素子部202aは、光学素子部201aにより屈折した光の像を受光し、その光の強さに応じた画像を生成する。 The stereo camera 20 includes a left imaging system section 200a and a right imaging system section 200b, which are separated by a predetermined distance, and a computing section 210 that performs various computations related to the stereo camera 20. FIG. The left imaging system section 200a has an optical device section 201a and an imaging device section 202a. The optical element section 201a is composed of, for example, a lens, and refracts light to form an image on the imaging element section 202a. The image sensor unit 202a receives an image of light refracted by the optical element unit 201a and generates an image according to the intensity of the light.

右撮像系部200bは、光学素子部201b及び撮像素子部202bを有する。左撮像系部200a及び右撮像系部200bの焦点距離の設計値は同じである。左撮像系部200a及び右撮像系部200bの光軸の方向はおおむね同じである。そして、光学素子部201bは、例えばレンズなどにより構成されており、光を屈折させて撮像素子部202b上に像を結ぶ。撮像素子部202bは、光学素子部201bにより屈折した光の像を受光し、その光の強さに応じた画像を生成する。 The right imaging system section 200b has an optical device section 201b and an imaging device section 202b. The design values of the focal lengths of the left imaging system section 200a and the right imaging system section 200b are the same. The directions of the optical axes of the left imaging system section 200a and the right imaging system section 200b are generally the same. The optical element section 201b is composed of, for example, a lens, and refracts light to form an image on the imaging element section 202b. The imaging element section 202b receives an image of light refracted by the optical element section 201b and generates an image according to the intensity of the light.

左撮像系部200aが撮像した画像は、視差画像を作成するときに基準となる画像であるため、基準画像と呼ぶ。右撮像系部200bが撮像した画像は、視差画像を作成するときに基準画像から抽出した領域と一致する領域を探索される画像であり、参照画像と呼ぶ。 The image captured by the left imaging system unit 200a is referred to as a reference image because it is an image that serves as a reference when creating a parallax image. The image captured by the right imaging system 200b is an image for which a region matching the region extracted from the reference image is searched for when generating the parallax image, and is called a reference image.

演算部210は、例えば、演算を実行するCPU(Central Processing Unit)と、演算のためのプログラムを記録した二次記憶装置としてのROM(Read Only Memory)と、演算経過の保存や一時的な制御変数を保存する一時記憶装置としてのRAM(Random Access Memory)とを組み合わせてなるマイクロコンピュータにより構成されている。この演算部210は、撮像画像記憶部211、画像補正情報記憶部212、マーカ情報記憶部213、同期信号発生部214、基準画像取得部215a、参照画像取得部215b、及び作成部220を備えている。 The calculation unit 210 includes, for example, a CPU (Central Processing Unit) that executes calculations, a ROM (Read Only Memory) as a secondary storage device that records programs for calculations, and storage of calculation progress and temporary control. It is composed of a microcomputer combined with a RAM (Random Access Memory) as a temporary storage device for storing variables. The calculation unit 210 includes a captured image storage unit 211, an image correction information storage unit 212, a marker information storage unit 213, a synchronization signal generation unit 214, a reference image acquisition unit 215a, a reference image acquisition unit 215b, and a creation unit 220. there is

撮像画像記憶部211は、左撮像系部200a及び右撮像系部200bから出力される画像を記憶する。 The captured image storage unit 211 stores images output from the left imaging system unit 200a and the right imaging system unit 200b.

画像補正情報記憶部212は、左撮像系部200a及び右撮像系部200bから出力される画像について、歪みのない画像上の各画素に対応する歪みのある撮像画像上の2次元座標(すなわち、画像補正データ)を記憶する。この画像補正情報記憶部212は、事前にフロントガラス4を介さない状態(すなわち、フロントガラスがない状態)において求められた左撮像系部200a及び右撮像系部200bの画像補正データを記憶するとともに、フロントガラス4を介した状態において画像補正データ作成部222で作成したフロントガラス越しに歪みのない画像に補正する画像補正データを記憶する。 The image correction information storage unit 212 stores two-dimensional coordinates (that is, image correction data). The image correction information storage unit 212 stores the image correction data of the left imaging system unit 200a and the right imaging system unit 200b obtained in advance without the windshield 4 (that is, without the windshield). , the image correction data generated by the image correction data generating unit 222 in the state of passing through the windshield 4 are stored so as to correct the image through the windshield without distortion.

本実施形態において、歪みのない画像とは、ピンホールモデルで透視投影を行った画像である。画像補正情報記憶部212に記憶された画像補正データは、撮像された画像のレンズ歪みや光軸ずれを補正する処理に用いられる。撮像された画像とは、撮像時、すなわちカメラにより撮像されて補正前の画像を指す。 In this embodiment, an image without distortion is an image that has been perspectively projected using a pinhole model. The image correction data stored in the image correction information storage unit 212 is used for processing for correcting lens distortion and optical axis deviation of the captured image. A captured image refers to an image captured by a camera at the time of capturing, that is, an image before correction.

マーカ情報記憶部213は、マーカ301とステレオカメラ20間の位置及び姿勢に誤差がなく、且つ歪みのない画像上のマーカ位置(言い換えれば、マーカの理想位置)及びマーカ画像を記憶する。 The marker information storage unit 213 stores a marker position (in other words, an ideal position of the marker) and a marker image on an image with no error in position and orientation between the marker 301 and the stereo camera 20 and without distortion.

同期信号発生部214は、同期信号を生成し、発信する。 Synchronization signal generator 214 generates and transmits a synchronization signal.

画像取得部215は、基準画像取得部215aと参照画像取得部215bとを有する。基準画像取得部215aは、同期信号発生部214の同期信号に合わせて、撮像素子部202aに同期信号及び露光時間の情報を送った後に、撮像素子部202aが生成する画像を取得し、取得した画像を撮像画像記憶部211に記憶する。参照画像取得部215bは、同期信号発生部214の同期信号に合わせて、撮像素子部202bに同期信号及び露光時間の情報を送った後に、撮像素子部202bが生成する画像を取得し、取得した画像を撮像画像記憶部211に記憶する。 The image acquisition section 215 has a reference image acquisition section 215a and a reference image acquisition section 215b. The reference image acquisition unit 215a transmits the synchronization signal and exposure time information to the imaging device unit 202a in accordance with the synchronization signal of the synchronization signal generation unit 214, and then acquires the image generated by the imaging device unit 202a. The image is stored in the captured image storage unit 211 . The reference image acquisition unit 215b transmits the synchronization signal and exposure time information to the imaging device unit 202b in accordance with the synchronization signal of the synchronization signal generation unit 214, and then acquires the image generated by the imaging device unit 202b. The image is stored in the captured image storage unit 211 .

作成部220は、マーカ位置検出部221と画像補正データ作成部222とを有する。マーカ位置検出部221は、まず、左撮像系部200a及び右撮像系部200bの撮像画像に対し、画像補正情報記憶部212に記憶されている画像補正データを用いて補正する。次に、マーカ位置検出部221は、パターン・マッチング処理を行い、補正した画像上のマーカ像(言い換えれば、補正画像上のマーカ像)とマーカ情報記憶部213に記憶されているマーカ画像とを一致させることにより、補正画像上のマーカ位置(検出位置)を検出する。 The creation unit 220 has a marker position detection unit 221 and an image correction data creation unit 222 . The marker position detection section 221 first corrects the images captured by the left imaging system section 200a and the right imaging system section 200b using the image correction data stored in the image correction information storage section 212 . Next, the marker position detection unit 221 performs pattern matching processing, and compares the marker image on the corrected image (in other words, the marker image on the corrected image) with the marker image stored in the marker information storage unit 213. By matching, the marker position (detection position) on the corrected image is detected.

画像補正データ作成部222は、マーカ位置検出部221が検出したマーカ301の検出位置と、マーカ情報記憶部213に記憶されているマーカ301の理想位置及び画像補正データとに基づいて、撮像された基準画像及び参照画像をフロントガラス越しに歪のない基準画像及び参照画像に補正する画像補正データをそれぞれ作成する。本実施形態では、フロントガラス越しに歪のない基準画像及び参照画像に補正する画像補正データは、すなわち、ステレオカメラ20により撮像された基準画像及び参照画像の歪みを補正するためのデータである。基準画像及び参照画像の歪みは、上述した画像のレンズ歪みや光軸ずれなどを含む。 The image correction data generation unit 222 detects the position of the marker 301 detected by the marker position detection unit 221, and the ideal position of the marker 301 and the image correction data stored in the marker information storage unit 213. Image correction data for correcting the standard image and the reference image to the standard image and the reference image without distortion through the windshield are created respectively. In this embodiment, the image correction data for correcting the distortion-free standard image and reference image through the windshield is data for correcting the distortion of the standard image and the reference image captured by the stereo camera 20 . The distortion of the standard image and the reference image includes the above-described lens distortion and optical axis deviation of the image.

なお、画像補正情報記憶部212に予め画像補正データが記憶される場合、画像補正データ作成部222は、作成した画像補正データを新しい画像補正データとして画像補正情報記憶部212に記憶する。すなわち、画像補正データ作成部222は、画像補正情報記憶部212に記憶される画像補正データを更新できるようになっている。 Note that when image correction data is stored in the image correction information storage unit 212 in advance, the image correction data creation unit 222 stores the created image correction data in the image correction information storage unit 212 as new image correction data. That is, the image correction data creation section 222 can update the image correction data stored in the image correction information storage section 212 .

そして、演算部210は、距離検出部230、補正画像記憶部216及び視差画像記憶部217を更に備えている。距離検出部230は、画像補正部231と視差算出部232と認識部233とを有する。距離検出部230、補正画像記憶部216及び視差画像記憶部217については後述する。 The calculation unit 210 further includes a distance detection unit 230 , a corrected image storage unit 216 and a parallax image storage unit 217 . The distance detection section 230 has an image correction section 231 , a parallax calculation section 232 and a recognition section 233 . The distance detection unit 230, the corrected image storage unit 216, and the parallax image storage unit 217 will be described later.

以下、図4を参照して画像補正装置10を用いた画像補正方法を説明する。本実施形態の画像補正方法は、画像取得ステップS101と、マーカ位置検出ステップS102と、画像補正データ作成ステップS103とを含む。 An image correction method using the image correction apparatus 10 will be described below with reference to FIG. The image correction method of this embodiment includes an image acquisition step S101, a marker position detection step S102, and an image correction data creation step S103.

画像取得ステップS101では、まず、同期信号発生部214は、同期信号を生成し、基準画像取得部215a及び参照画像取得部215bに出力する。基準画像取得部215aは、同期信号発生部214から出力された同期信号を受け取った後に、撮像素子部202aに同期信号及び露光時間の情報を出力する。撮像素子部202aは、基準画像取得部215aの同期信号及び露光時間の情報を受け取った後に、光学素子部201aにより屈折した光の像を露光時間だけ受光し、その光の強さに応じた画像を生成し、更に生成した画像を基準画像取得部215aに出力する。基準画像取得部215aは、撮像素子部202aから出力された画像を取得し、取得した画像を撮像画像記憶部211に記憶する。 In the image acquisition step S101, first, the synchronization signal generation unit 214 generates a synchronization signal and outputs it to the standard image acquisition unit 215a and the reference image acquisition unit 215b. After receiving the synchronization signal output from the synchronization signal generation unit 214, the reference image acquisition unit 215a outputs the synchronization signal and exposure time information to the imaging device unit 202a. After receiving the synchronization signal from the reference image acquisition unit 215a and the exposure time information, the image sensor unit 202a receives the image of the light refracted by the optical element unit 201a for the exposure time, and produces an image corresponding to the intensity of the light. is generated, and the generated image is output to the reference image acquisition unit 215a. The reference image acquisition unit 215a acquires an image output from the image sensor unit 202a and stores the acquired image in the captured image storage unit 211. FIG.

参照画像取得部215bは、同期信号発生部214から出力された同期信号を受け取った後に、撮像素子部202bに同期信号及び露光時間の情報を出力する。撮像素子部202bは、参照画像取得部215bから出力された同期信号及び露光時間の情報を受け取った後に、光学素子部201bにより屈折した光の像を露光時間だけ受光し、その光の強さに応じた画像を生成し、更に生成した画像を参照画像取得部215bに出力する。参照画像取得部215bは、撮像素子部202bから出力された画像を取得し、取得した画像を撮像画像記憶部211に記憶する。 After receiving the synchronization signal output from the synchronization signal generation unit 214, the reference image acquisition unit 215b outputs the synchronization signal and exposure time information to the image sensor unit 202b. After receiving the synchronizing signal and exposure time information output from the reference image acquisition unit 215b, the imaging element unit 202b receives the image of the light refracted by the optical element unit 201b for the exposure time. A corresponding image is generated, and the generated image is output to the reference image acquisition unit 215b. The reference image acquisition unit 215b acquires an image output from the image sensor unit 202b and stores the acquired image in the captured image storage unit 211. FIG.

マーカ位置検出ステップS102では、マーカ位置検出部221は、撮像画像記憶部211に記憶されている撮像された基準画像及び参照画像と、事前に画像補正情報記憶部212に記憶されている基準画像及び参照画像の画像補正データをそれぞれ読み込む。次に、マーカ位置検出部221は、式1及び式2を用いて、画像補正後の基準画像上の各画素に対応する撮像された画像上の座標(Fx(X2,Y2)、Fy(X2,Y2))(すなわち、画像補正データ)に基づき、画像補正後の基準画像の画素(X2,Y2)に対応する撮像された基準画像の位置(X1,Y1)を算出する。 In the marker position detection step S102, the marker position detection unit 221 detects the captured reference image and the reference image stored in the captured image storage unit 211, and the reference image and the reference image stored in the image correction information storage unit 212 in advance. Read the image correction data of each reference image. Next, the marker position detection unit 221 calculates the coordinates (Fx(X2, Y2), Fy(X2) on the captured image corresponding to each pixel on the reference image after the image correction, using Equations 1 and 2. , Y2)) (ie, image correction data), the position (X1, Y1) of the captured reference image corresponding to the pixel (X2, Y2) of the reference image after image correction is calculated.

X1=Fx(X2,Y2) (1)
Y1=Fy(X2,Y2) (2)
X1=Fx(X2, Y2) (1)
Y1=Fy(X2,Y2) (2)

また、マーカ位置検出部221は、基準画像の位置(X1,Y1)の周辺4画素の輝度値について2次元線形補間を実施することにより、画像補正後の基準画像の画素(X2,Y2)の輝度値を算出する。すなわち、マーカ位置検出部221は、画像補正後の基準画像の各画素について上記の手順を実施し、画像補正後の基準画像の輝度値を算出する。更に、マーカ位置検出部221は、参照画像についても上記の手順を実施して、画像補正後の参照画像の輝度値を算出する。 In addition, the marker position detection unit 221 performs two-dimensional linear interpolation on the luminance values of the four pixels surrounding the position (X1, Y1) of the reference image to obtain the pixel (X2, Y2) of the reference image after the image correction. Calculate the luminance value. That is, the marker position detection unit 221 performs the above procedure for each pixel of the reference image after image correction, and calculates the luminance value of the reference image after image correction. Furthermore, the marker position detection unit 221 also performs the above procedure for the reference image to calculate the luminance value of the reference image after image correction.

次に、マーカ位置検出部221は、マーカ情報記憶部213に記憶されているマーカの理想位置及びマーカ画像を読み込む。続いて、マーカ位置検出部221は、マーカの理想位置の付近における画像補正後の基準画像の輝度値とマーカ画像の輝度値の差の絶対値の和SAD(Sum of Absolute Difference)を算出し、マーカの理想位置の付近でSADが最も小さい位置を求める。 Next, the marker position detection unit 221 reads the ideal position of the marker and the marker image stored in the marker information storage unit 213 . Subsequently, the marker position detection unit 221 calculates the sum of absolute values SAD (Sum of Absolute Difference) of the difference between the luminance value of the reference image after the image correction and the luminance value of the marker image in the vicinity of the ideal position of the marker, Find the position with the smallest SAD in the vicinity of the ideal position of the marker.

続いて、マーカ位置検出部221は、SADが最も小さい位置の左右の画素のSADをもとに等角直線フィッティングを行い、画像補正後の基準画像とマーカ画像が最も一致する位置のサブピクセルを算出する。更に、マーカ位置検出部221は、SADが最も小さい水平方向の位置にこのサブピクセルを加算することにより、マーカの水平方向の位置を算出する。 Subsequently, the marker position detection unit 221 performs equiangular straight line fitting based on the SADs of the pixels on the left and right of the position where the SAD is the smallest, and finds the sub-pixel at the position where the reference image after image correction and the marker image most match. calculate. Furthermore, the marker position detection unit 221 calculates the horizontal position of the marker by adding this sub-pixel to the horizontal position where the SAD is the smallest.

次に、マーカ位置検出部221は、SADが最も小さい位置の上下の画素のSADをもとに等角直線フィッティングを行い、画像補正後の基準画像とマーカ画像が最も一致する位置のサブピクセルを算出する。更に、SADが最も小さい垂直方向の位置にこのサブピクセルを加算することにより、マーカの垂直方向の位置を算出する。同様に、マーカ位置検出部221は、他のマーカについても同様の処理を行い、画像補正後の基準画像上のマーカの位置を算出する。以上の処理で算出したマーカの位置はマーカの検出位置と呼ぶ。 Next, the marker position detection unit 221 performs equiangular straight line fitting based on the SADs of the pixels above and below the position where the SAD is the smallest, and finds the sub-pixel at the position where the reference image after image correction and the marker image most match. calculate. Furthermore, the vertical position of the marker is calculated by adding this sub-pixel to the vertical position where the SAD is the smallest. Similarly, the marker position detection unit 221 performs similar processing for other markers, and calculates the positions of the markers on the reference image after image correction. The position of the marker calculated by the above process is called the detection position of the marker.

また、マーカ位置検出部221は、参照画像についても、以上の画像補正及びマーカ位置算出の処理を行う。 The marker position detection unit 221 also performs the above image correction and marker position calculation processing on the reference image.

画像補正データ作成ステップS103では、画像補正データ作成部222は、まず、画像補正情報記憶部212に記憶されている基準画像及び参照画像の画像補正データと、マーカ情報記憶部213に記憶されている歪みのない基準画像及び参照画像上のマーカの理想位置とをそれぞれ読み込む。次に、画像補正データ作成部222は、読み込んだ画像補正データで補正した基準画像、すなわちフロントガラスがない状態で歪みのない画像に変換された基準画像に基づいて、フロントガラス越しに歪みのない基準画像に変換するための画像変換データを作成する。 In the image correction data creation step S103, the image correction data creation unit 222 first creates the image correction data of the standard image and the reference image stored in the image correction information storage unit 212 and the image correction data stored in the marker information storage unit 213. An undistorted reference image and the ideal position of the marker on the reference image are read, respectively. Next, the image correction data generation unit 222 generates a distortion-free image through the windshield based on the reference image corrected by the read image correction data, that is, the reference image converted into the distortion-free image without the windshield. Create image conversion data for converting to a reference image.

続いて、画像補正データ作成部222は、作成した画像変換データと、撮像された基準画像をフロントガラスがない状態で歪みのない画像に変換する画像補正データとに基づいて、撮像された基準画像をフロントガラス越しに歪みのない基準画像に補正するための画像補正データを作成する。 Subsequently, the image correction data creation unit 222 creates a reference image that is captured based on the created image conversion data and the image correction data that converts the captured reference image into an image without distortion without a windshield. image correction data for correcting to a distortion-free reference image through the windshield.

具体的には、図5に示すように、画像補正データ作成部222は、まず、基準画像上のマーカ301のうち、フロントガラス越しに歪みのない基準画像上にある画素305に対して、左上、右上、左下及び右下で最も近いマーカ301a、マーカ301b、マーカ301c及びマーカ301dを探索する。 More specifically, as shown in FIG. 5, the image correction data generation unit 222 first selects the pixel 305 on the reference image without distortion through the windshield among the markers 301 on the reference image. , the nearest markers 301a, 301b, 301c and 301d at the top right, bottom left and bottom right.

続いて、画像補正データ作成部222は、式3~10を用いて2次元線形補間を実施することにより、記憶されている画像補正データで補正した基準画像を、フロントガラス越しに歪みのない基準画像に変換し、すなわちある画素305(X,Y)の画像変換データの値(Xb,Yb)を算出する。このような計算を各画素について実施することにより、上記の画像変換データがそれぞれ算出される。 Subsequently, the image correction data creation unit 222 performs two-dimensional linear interpolation using Equations 3 to 10 to convert the reference image corrected by the stored image correction data into a distortion-free reference image through the windshield. Convert to an image, that is, calculate the value (Xb, Yb) of the image conversion data of a certain pixel 305 (X, Y). By performing such calculations for each pixel, the above image transformation data are calculated.

Yamu=(Ya1-Ya2)(X-Xa2)/(Xa1-Xa2)+Ya2 (3)
Xbmu=(Xb1-Xb2)(X-Xa2)/(Xa1-Xa2)+Xb2 (4)
Ybmu=(Yb1-Yb2)(X-Xa2)/(Xa1-Xa2)+Yb2 (5)
Yamd=(Ya3-Ya4)(X-Xa4)/(Xa3-Xa4)+Ya4 (6)
Xbmd=(Xb3-Xb4)(X-Xa4)/(Xa3-Xa4)+Xb4 (7)
Ybmd=(Yb3-Yb4)(X-Xa4)/(Xa3-Xa4)+Yb4 (8)
Yb=(Xbmd-Xbmu)(Y-Yamu)/(Yamd-Yamu)+Xbmu (9)
Xb=(Ybmd-Ybmu)(Y-Yamu)/(Yamd-Yamu)+Ybmu (10)
Yamu=(Ya1-Ya2)(X-Xa2)/(Xa1-Xa2)+Ya2 (3)
Xbmu=(Xb1-Xb2)(X-Xa2)/(Xa1-Xa2)+Xb2 (4)
Ybmu=(Yb1-Yb2)(X-Xa2)/(Xa1-Xa2)+Yb2 (5)
Yamd=(Ya3-Ya4)(X-Xa4)/(Xa3-Xa4)+Ya4 (6)
Xbmd=(Xb3-Xb4)(X-Xa4)/(Xa3-Xa4)+Xb4 (7)
Ybmd=(Yb3-Yb4)(X-Xa4)/(Xa3-Xa4)+Yb4 (8)
Yb=(Xbmd-Xbmu)(Y-Yamu)/(Yamd-Yamu)+Xbmu (9)
Xb=(Ybmd-Ybmu)(Y-Yamu)/(Yamd-Yamu)+Ybmu (10)

式3~10において、(Xa1,Ya1)はある画素に対して左上にあるマーカ301aの理想位置、(Xa2,Ya2)はある画素に対して右上にあるマーカ301bの理想位置、(Xa3,Ya3)はある画素に対して左下にあるマーカ301cの理想位置、(Xa4,Ya4)はある画素に対して右下にあるマーカ301dの理想位置をそれぞれ示す。そして、(Xb1,Yb1)はある画素に対して左上にあるマーカ301aの検出位置、(Xb2,Yb2)はある画素に対して右上にあるマーカ301bの検出位置、(Xb3,Yb3)はある画素に対して左下にあるマーカ301cの検出位置、(Xb4,Yb4)はある画素に対して右下にあるマーカ301dの検出位置をそれぞれ示す。 In Equations 3 to 10, (Xa1, Ya1) is the ideal position of the marker 301a on the upper left with respect to a certain pixel, (Xa2, Ya2) is the ideal position of the marker 301b on the upper right with respect to the certain pixel, (Xa3, Ya3 ) indicates the ideal position of the lower left marker 301c with respect to a certain pixel, and (Xa4, Ya4) indicates the ideal position of the lower right marker 301d with respect to a certain pixel. Then, (Xb1, Yb1) is the detection position of the marker 301a on the upper left of a certain pixel, (Xb2, Yb2) is the detection position of the marker 301b on the upper right of the certain pixel, and (Xb3, Yb3) is the certain pixel. (Xb4, Yb4) indicates the detection position of the marker 301d on the lower right of a certain pixel, respectively.

次に、画像補正データ作成部222は、フロントガラス越しに歪みのない基準画像上のある画素に対して、式11~18を用いて2次元線形補間を実施することにより、撮像された基準画像からフロントガラス越しに歪みのない基準画像に変換する画像補正データの値を算出する。このような計算を各画素について実施することにより、上記の画像補正データがそれぞれ算出される。 Next, the image correction data generation unit 222 performs two-dimensional linear interpolation on a certain pixel on the undistorted reference image through the windshield using Equations 11 to 18 to obtain the imaged reference image. , the value of the image correction data to be converted into a distortion-free reference image through the windshield is calculated. By performing such calculation for each pixel, the above image correction data are calculated.

Ycmu=(Yc1-Yc2)(Xb-Xc2)/(Xc1-Xc2)+Yc2 (11)
Xdmu=(Xd1-Xd2)(Xb-Xc2)/(Xc1-Xc2)+Xd2 (12)
Ydmu=(Yd1-Yb2)(Xb-Xc2)/(Xa1-Xa2)+Yb2 (13)
Ycmd=(Yc3-Yc4)(Xb-Xc4)/(Xc3-Xc4)+Yc4 (14)
Xdmd=(Xd3-Xd4)(Xb-Xc4)/(Xc3-Xc4)+Xd4 (15)
Ydmd=(Yd3-Yd4)(Xb-Xc4)/(Xc3-Xc4)+Yd4 (16)
Yd=(Xdmd-Xdmu)(Yb-Ycmu)/(Ycmd-Ycmu)+Xdmu (17)
Xd=(Ydmd-Ydmu)(Yb-Ycmu)/(Ycmd-Ycmu)+Ydmu (18)
Ycmu=(Yc1-Yc2)(Xb-Xc2)/(Xc1-Xc2)+Yc2 (11)
Xdmu=(Xd1-Xd2)(Xb-Xc2)/(Xc1-Xc2)+Xd2 (12)
Ydmu=(Yd1-Yb2)(Xb-Xc2)/(Xa1-Xa2)+Yb2 (13)
Ycmd=(Yc3-Yc4)(Xb-Xc4)/(Xc3-Xc4)+Yc4 (14)
Xdmd=(Xd3-Xd4)(Xb-Xc4)/(Xc3-Xc4)+Xd4 (15)
Ydmd=(Yd3-Yd4)(Xb-Xc4)/(Xc3-Xc4)+Yd4 (16)
Yd=(Xdmd-Xdmu)(Yb-Ycmu)/(Ycmd-Ycmu)+Xdmu (17)
Xd=(Ydmd-Ydmu)(Yb-Ycmu)/(Ycmd-Ycmu)+Ydmu (18)

式11~18において、(Xc1,Yc1)はある画素(X,Y)の画像変換データの値(Xb,Yb)に対して左上にある画素、(Xc2,Yc2)はある画素(X,Y)の画像変換データの値(Xb,Yb)に対して右上にある画素、(Xc3,Yc3)はある画素(X,Y)の画像変換データの値(Xb,Yb)に対して左下にある画素、(Xc4,Yc4)はある画素(X,Y)の画像変換データの値(Xb,Yb)に対して右下にある画素を示す。(Xd1,Yd1)は左上にある画素(Xc1,Yc1)の画像補正データの値、(Xd2,Yd2)は右上にある画素(Xc2,Yc2)の画像補正データの値、(Xd3,Yd3)は左下にある画素(Xc3,Yc3)の画像補正データの値、(Xd4,Yd4)は右下にある画素(Xc4,Yc4)の画像補正データの値を示す。 In equations 11 to 18, (Xc1, Yc1) is a pixel located on the upper left with respect to the value (Xb, Yb) of image conversion data of a certain pixel (X, Y), (Xc2, Yc2) is a certain pixel (X, Y ), and (Xc3, Yc3) is located at the lower left with respect to the image conversion data value (Xb, Yb) of a certain pixel (X, Y). A pixel (Xc4, Yc4) indicates a pixel on the lower right with respect to the image conversion data value (Xb, Yb) of a certain pixel (X, Y). (Xd1, Yd1) is the value of the image correction data of the upper left pixel (Xc1, Yc1), (Xd2, Yd2) is the value of the image correction data of the upper right pixel (Xc2, Yc2), and (Xd3, Yd3) is The value of the image correction data of the pixel (Xc3, Yc3) on the lower left, and (Xd4, Yd4) indicate the value of the image correction data of the pixel (Xc4, Yc4) on the lower right.

なお、参照画像についても、画像補正データ作成部222は基準画像と同様の上記の処理を行う。 Note that the image correction data creation unit 222 also performs the above-described processing for the reference image in the same manner as for the reference image.

そして、画像補正データ作成部222は、撮像された基準画像及び参照画像をフロントガラス越しに歪みのない基準画像及び参照画像に補正する画像補正データを、新しい画像補正データとして画像補正情報記憶部212に記憶する。すなわち、画像補正データ作成部222は、画像補正情報記憶部212に記憶される画像補正データを更新する。 Then, the image correction data creation unit 222 stores the image correction data for correcting the captured standard image and the reference image to the standard image and the reference image without distortion through the windshield as new image correction data in the image correction information storage unit 212. memorize to That is, the image correction data creating section 222 updates the image correction data stored in the image correction information storage section 212 .

次に、演算部210は、図4に示す画像補正方法によって作成された画像補正データを用いて、立体物の距離を検出する。このとき、画像補正処理で使用していない補正画像記憶部216、視差画像記憶部217、距離検出部230が用いられる。具体的には、距離検出部230の画像補正部231は、左撮像系部200aから撮像された基準画像、右撮像系部200bから撮像された参照画像をそれぞれ取得する。次に、画像補正部231は、図4に示す画像補正方法によって作成された画像補正データを用いて、撮像された基準画像及び参照画像を、フロントガラス越しに歪みのない画像にそれぞれ補正する。 Next, the calculation unit 210 detects the distance of the three-dimensional object using the image correction data created by the image correction method shown in FIG. At this time, the corrected image storage unit 216, the parallax image storage unit 217, and the distance detection unit 230, which are not used in the image correction processing, are used. Specifically, the image correction unit 231 of the distance detection unit 230 acquires a reference image captured by the left imaging system 200a and a reference image captured by the right imaging system 200b. Next, the image correction unit 231 uses the image correction data created by the image correction method shown in FIG. 4 to correct the captured standard image and reference image to images without distortion through the windshield.

続いて、視差算出部232は、パターン・マッチング処理を用いて、画像補正後の基準画像における各領域と一致する参照画像上の位置を探索して、視差を算出する。視差算出部232は、各領域の視差を算出して得られた視差画像を視差画像記憶部217に記憶する。 Subsequently, the parallax calculator 232 uses pattern matching processing to search for positions on the reference image that match each region in the reference image after image correction, and calculates parallax. The parallax calculation unit 232 stores the parallax images obtained by calculating the parallax of each region in the parallax image storage unit 217 .

続いて、認識部233は、視差画像から距離を算出して、距離の差がある範囲内である領域の面積が閾値以内である場合に立体物と判断して、画像上の立体物の位置及び距離をもとに立体物の3次元位置を算出する。 Subsequently, the recognition unit 233 calculates the distance from the parallax image, determines that the object is a three-dimensional object when the area of the area within the range of the distance difference is within the threshold value, and determines the position of the three-dimensional object on the image. And the three-dimensional position of the three-dimensional object is calculated based on the distance.

以上のように算出された立体物の3次元位置は、衝突防止などの安全支援システムや自動運転システムに利用される。例えば単路及び交差点における衝突防止のセンシングでは、図6に示すような各視野角における検出距離を要求される精度で検出することが求められる。図6では、横軸はカメラの視野角を示し、縦軸は検出距離を示している。そして、ハッチングで示す領域501は、視野角ごとの衝突防止に要求される検出距離(以下、「衝突防止に要求される検出距離」を単に「要求される検出距離」という場合がある)である。 The three-dimensional positions of three-dimensional objects calculated as described above are used in safety support systems such as collision prevention and automatic driving systems. For example, in collision prevention sensing at single roads and intersections, it is required to detect the detection distance at each viewing angle as shown in FIG. 6 with the required accuracy. In FIG. 6, the horizontal axis indicates the viewing angle of the camera, and the vertical axis indicates the detection distance. A hatched area 501 is a detection distance required for collision prevention for each viewing angle (hereinafter, "detection distance required for collision prevention" may be simply referred to as "required detection distance"). .

図6に示すように、約-30°~30°の視野角では、単路で要求される検出距離を表しており、約-60°~-30°及び約30°~60°の視野角では、交差点で要求される検出距離を表している。ここで、カメラの光軸方向を0°とする。そして、単路に比べて交差点では、車両の旋回半径が小さく、走行速度が遅いため、衝突防止に要求される検出距離が短い。 As shown in FIG. 6, viewing angles of about -30° to 30° represent the required detection distance for a single pass, and viewing angles of about -60° to -30° and about 30° to 60° represents the detection distance required at the intersection. Here, the optical axis direction of the camera is assumed to be 0°. At an intersection, the vehicle has a smaller turning radius and travels at a slower speed than on a single road, so the detection distance required for collision prevention is short.

図7はステレオカメラに求められる視野角における視差の許容誤差を示している。この視差の許容誤差は、式19を用いて、要求される検出距離及び要求される検出精度に基づいて算出することができる。なお、式19において、Bは基線長、fは焦点距離、cは画素ピッチ、Lrは要求される検出距離、Rrは要求される検出精度をそれぞれ示す。
Dr=(B f/c){1/Lr-1/((1+Rr)Lr)} (19)
FIG. 7 shows the permissible error of parallax at the viewing angle required for the stereo camera. This parallax tolerance can be calculated using Equation 19 based on the required detection distance and the required detection accuracy. In Equation 19, B is the baseline length, f is the focal length, c is the pixel pitch, Lr is the required detection distance, and Rr is the required detection accuracy.
Dr=(B f/c) {1/Lr-1/((1+Rr)Lr)} (19)

そして、絶対値が小さい視野角では、絶対値が大きい視野角に比べて要求される検出距離が長いため、視差の許容誤差は小さい。図7において、視差の誤差がハッチングで示す領域601内であれば、図6に示す衝突防止に要求される検出距離(すなわち、領域501)を要求精度で検出できる。 At a viewing angle with a small absolute value, the required detection distance is longer than at a viewing angle with a large absolute value, so the permissible error of parallax is small. In FIG. 7, if the parallax error is within a hatched area 601, the detection distance (that is, area 501) required for collision prevention shown in FIG. 6 can be detected with the required accuracy.

一方、ステレオカメラ20を車両に設置する際に、ステレオカメラの設置ずれが発生する場合がある。この設置ずれによって、画像補正の誤差が生じる。画像補正の誤差は、式20を用いて算出することができる。
Dr=(B f/c){1/Lm-1/(Lm+ΔLm)} (20)
On the other hand, when the stereo camera 20 is installed in the vehicle, the installation deviation of the stereo camera may occur. This misalignment causes an error in image correction. The image correction error can be calculated using Equation 20.
Dr=(B f/c) {1/Lm-1/(Lm+ΔLm)} (20)

式20において、Lmはステレオカメラからマーカまでの距離、ΔLmはマーカの設置誤差(設置ずれともいう)をそれぞれ示す。ここでは、ステレオカメラの設置位置とマーカ301の設置位置とが相対関係であるため、マーカの設置誤差がステレオカメラの設置ずれとして考えても良い。 In Equation 20, Lm represents the distance from the stereo camera to the marker, and ΔLm represents the installation error (also referred to as installation deviation) of the marker. Here, since the installation position of the stereo camera and the installation position of the marker 301 are in a relative relationship, the installation error of the marker may be considered as the installation deviation of the stereo camera.

そして、式19で算出される衝突防止に要求される視差の許容誤差(すなわち、ステレオカメラに要求される視野角の視差の許容誤差)と、式20で算出されるステレオカメラの設置ずれによる画像補正の誤差(すなわち、ステレオカメラ設置ずれの許容誤差)とが一致するように、ステレオカメラからマーカまでの距離を設定して、画像補正で作成された画像補正データを用いて基準画像及び参照画像を補正すれば、衝突防止に要求される検出距離を要求される精度で検出することが可能になる。 Then, the parallax tolerance required for collision prevention calculated by Equation 19 (that is, the viewing angle parallax tolerance required for the stereo camera), and the image due to the installation misalignment of the stereo camera calculated by Equation 20 The distance from the stereo camera to the marker is set so that the correction error (that is, the allowable error of the stereo camera installation misalignment) is the same, and the standard image and the reference image are created using the image correction data created by the image correction. is corrected, it becomes possible to detect the detection distance required for collision prevention with the required accuracy.

式19及び式20を用いて、ステレオカメラの設置ずれによる画像補正の誤差と、衝突防止に要求される視差の許容誤差とが一致する各視野角におけるステレオカメラとマーカ間距離を算出する式を導出すると、式21となる。
Lm={- c Dr ΔLm±√(c^2 Dr^2 ΔLm^2+4 c Dr B f ΔLm)}/(2 c Dr) (21)
Using Equations 19 and 20, an equation for calculating the distance between the stereo camera and the marker at each viewing angle where the error in image correction due to misalignment of the stereo camera and the permissible error in parallax required for collision prevention are the same. Formula 21 is obtained by derivation.
Lm={- c Dr ΔLm±√(c^2 Dr^2 ΔLm^2+4 c Dr B f ΔLm)}/(2 c Dr) (21)

式21を用いて求められたステレオカメラとマーカ間の距離を図8に示す。ステレオカメラとマーカ間の距離曲線701上又は該曲線701よりも遠い距離にマーカを設置すれば、視差誤差が図7における領域601内になるため、図6に示す衝突防止に要求される検出距離の領域501を要求精度で検出できる。好ましくは、ステレオカメラとマーカ間の距離曲線701と該曲線701を取り囲む矩形702とにより囲まれた領域703内にマーカを配置すれば、ステレオカメラで検出する距離に要求される精度を保つことができる。このステレオカメラとマーカ間の距離曲線701は、衝突防止に要求される検出距離及び検出精度を満足する曲線であり、上述のマーカ配置曲線302である。 FIG. 8 shows the distance between the stereo camera and the marker obtained using Equation (21). If the marker is placed on the distance curve 701 between the stereo camera and the marker or at a distance farther than the curve 701, the parallax error will be within the area 601 in FIG. can be detected with the required accuracy. Preferably, by arranging the marker in an area 703 surrounded by a distance curve 701 between the stereo camera and the marker and a rectangle 702 surrounding the curve 701, the accuracy required for the distance detected by the stereo camera can be maintained. can. The distance curve 701 between the stereo camera and the markers is a curve that satisfies the detection distance and detection accuracy required for collision prevention, and is the marker placement curve 302 described above.

図9は第1実施形態に係る画像補正装置と従来との比較を説明する図であり、図9において、一点鎖線で示すのは従来の画像補正装置である。図9に示すように、従来では、マーカが平面形状のチャート上に配置されている。距離範囲を要求精度で検出するには、マーカ配置曲線302よりも遠くに平面形状のチャート801を配置する必要がある。従って、検出範囲の視野角における画像を補正するには、チャート801の長手方向のサイズが長くなり、画像補正装置の面積が広くなるという問題が発生する。 FIG. 9 is a diagram for explaining a comparison between the image correcting apparatus according to the first embodiment and the conventional one. In FIG. 9, the conventional image correcting apparatus is indicated by the one-dot chain line. As shown in FIG. 9, conventionally, markers are arranged on a planar chart. In order to detect the distance range with the required accuracy, it is necessary to arrange the planar chart 801 farther than the marker arrangement curve 302 . Therefore, in order to correct the image in the viewing angle of the detection range, the size of the chart 801 in the longitudinal direction becomes long, and the area of the image correction device becomes large.

一方、本実施形態に係る画像補正装置10では、平面視において、ステレオカメラ20の撮像方向から見たときに、マーカ301は、視野角ごとの検出距離の許容誤差とステレオカメラ20設置ずれの許容誤差とが一致するマーカ配置曲線302上又は該マーカ配置曲線302の後方に配置されている。これによって、視野角ごとの検出距離を許容誤差以下で検出することができるとともに、従来と比べてチャート30の面積を小さく抑えることができる。その結果、ステレオカメラ20で検出する距離に要求される精度を保ちつつ、装置の面積を低減することができる。 On the other hand, in the image correction apparatus 10 according to the present embodiment, when viewed from the imaging direction of the stereo camera 20 in a plan view, the marker 301 has a permissible error in the detection distance for each viewing angle and a permissible deviation in the installation of the stereo camera 20. It is placed on or behind the marker placement curve 302 that coincides with the error. As a result, the detection distance for each viewing angle can be detected within the allowable error, and the area of the chart 30 can be reduced compared to the conventional case. As a result, the area of the device can be reduced while maintaining the accuracy required for the distance detected by the stereo camera 20 .

特に、マーカ配置曲線302と、該マーカ配置曲線302を取り囲む矩形303とにより囲まれた領域304内にマーカ301を配置した場合、衝突防止に要求される検出距離及び検出精度を満たすとともに、画像補正装置10の設置面積を小さくできる。 In particular, when the marker 301 is placed in an area 304 surrounded by a marker placement curve 302 and a rectangle 303 surrounding the marker placement curve 302, the detection distance and detection accuracy required for collision prevention are satisfied, and image correction is performed. The installation area of the device 10 can be reduced.

また、本実施形態に係る画像補正方法によれば、ステレオカメラ20で検出する距離に要求される精度を保つことができる。 Moreover, according to the image correction method according to the present embodiment, the accuracy required for the distance detected by the stereo camera 20 can be maintained.

なお、本実施形態の画像補正装置については、様々な変形例が考えられる。以下では、変形例の一部を説明する。なお、各変形例によれば、上述の作用効果も得られる。 It should be noted that various modifications are conceivable for the image correction apparatus of this embodiment. Some of the modifications are described below. In addition, according to each modification, the above-mentioned effect is also obtained.

[変形例1]
図10及び図11に示す変形例1では、図1及び図2に示す画像補正装置に対し、マーカ情報記憶部213及び作成部220を演算部210から外して新たに計算部240とされている。すなわち、マーカ情報記憶部213及び作成部220を有する計算部240は、演算部210とは別体で設けられている。なお、マーカ情報記憶部213、作成部220のマーカ位置検出部221及び画像補正データ作成部222の構造や役割等については、上述した内容と同じである。
[Modification 1]
10 and 11, in the image correction apparatus shown in FIGS. 1 and 2, the marker information storage unit 213 and the creation unit 220 are removed from the calculation unit 210 and newly provided as a calculation unit 240. . That is, the calculation section 240 having the marker information storage section 213 and the creation section 220 is provided separately from the calculation section 210 . The structures and roles of the marker information storage unit 213, the marker position detection unit 221 of the creation unit 220, and the image correction data creation unit 222 are the same as those described above.

このように演算部210からマーカ情報記憶部213及び作成部220を外すことにより、画像補正処理を行う実行ファイルを除去でき、演算部210内で使用するメモリ量を削減できる。また、新たに設けられた計算部240は、ステレオカメラ20を車両に取り付ける工程に専用に設置されて良い。このようにすれば、計算部240の演算処理能力が演算部210よりも速いので、画像補正処理にかかる時間を短縮でき、時間当たりに画像を補正できる台数を増加できる。 By removing the marker information storage unit 213 and the creation unit 220 from the calculation unit 210 in this way, the execution file for performing the image correction processing can be removed, and the amount of memory used in the calculation unit 210 can be reduced. Also, the newly provided calculation unit 240 may be installed exclusively for the process of mounting the stereo camera 20 on the vehicle. In this way, since the calculation processing capacity of the calculation unit 240 is faster than that of the calculation unit 210, the time required for the image correction processing can be shortened, and the number of devices capable of correcting images per hour can be increased.

[変形例2]
変形例2では、図1及び図2に示す画像補正装置に対し、マーカ情報記憶部213に歪みのない基準画像及び参照画像上のマーカの理想位置を記憶する代わりに、マーカ301と左撮像系部200a間の位置、マーカ301と右撮像系部200b間の位置、左撮像系部200a及び右撮像系部200bの焦点距離、画素ピッチサイズ及び画像上の光軸位置を記憶する。
[Modification 2]
1 and 2, instead of storing the ideal positions of the markers on the standard image and the reference image without distortion in the marker information storage unit 213, the marker 301 and the left imaging system The position between the sections 200a, the position between the marker 301 and the right imaging system section 200b, the focal lengths of the left imaging system section 200a and the right imaging system section 200b, the pixel pitch size, and the optical axis position on the image are stored.

このため、画像補正データ作成ステップS103において、画像補正データ作成部222は、マーカ情報記憶部213に記憶された歪みのない基準画像及び参照画像上のマーカの理想位置を読み込む代わりに、マーカ情報記憶部213に記憶されたマーカ301と左撮像系部200a間の位置、マーカ301と右撮像系部200b間の位置、左撮像系部200a及び右撮像系部200bの焦点距離及び画像上の光軸位置を読み込み、これらの情報に基づいて歪みのない基準画像及び参照画像上のマーカの理想位置を算出して、基準画像及び参照画像の画像補正データを作成する。 Therefore, in the image correction data creation step S103, the image correction data creation unit 222 stores the marker information instead of reading the ideal positions of the markers on the undistorted standard image and the reference image stored in the marker information storage unit 213. The position between the marker 301 and the left imaging system 200a, the position between the marker 301 and the right imaging system 200b, the focal lengths of the left imaging system 200a and the right imaging system 200b, and the optical axis on the image stored in the unit 213 The positions are read, the ideal positions of the markers on the standard image and the reference image without distortion are calculated based on this information, and image correction data for the standard image and the reference image are created.

[変形例3]
変形例3では、図1及び図2に示す画像補正装置に対し、画像補正情報記憶部212は、フロントガラスがない状態で求められた左撮像系部200a及び右撮像系部200bの画像補正データを記憶する代わりに、マーカ301と左撮像系部200a間の位置の設計値、マーカ301と右撮像系部200b間の位置の設計値、左撮像系部200a及び右撮像系部200bの歪みデータ、焦点距離、画素ピッチサイズ及び画像上の光軸位置の設計値をもとに算出した画像補正データの設計値を記憶する。
[Modification 3]
1 and 2, the image correction information storage unit 212 stores the image correction data of the left imaging system unit 200a and the right imaging system unit 200b obtained without the windshield. Instead of storing the design value of the position between the marker 301 and the left imaging system 200a, the design value of the position between the marker 301 and the right imaging system 200b, the distortion data of the left imaging system 200a and the right imaging system 200b , the design values of the image correction data calculated based on the design values of the focal length, pixel pitch size, and optical axis position on the image are stored.

このため、マーカ位置検出ステップS102及び画像補正データ作成ステップS103において、フロントガラスがない状態で求められた左撮像系部200a及び右撮像系部200bの画像補正データの代わりに、事前に算出された左撮像系部200a及び右撮像系部200bの画像補正データの設計値を用いて、撮像された基準画像及び参照画像を補正するとともに、フロントガラス越しに歪みのない画像に補正する左撮像系部200a及び右撮像系部200bの画像補正データを作成する。 Therefore, in the marker position detection step S102 and the image correction data creation step S103, instead of the image correction data of the left imaging system unit 200a and the right imaging system unit 200b obtained without the windshield, Using the design values of the image correction data of the left imaging system 200a and the right imaging system 200b, the captured reference image and the reference image are corrected, and the left imaging system corrects the distortion-free image through the windshield. 200a and image correction data for the right imaging system 200b.

この場合、フロントガラスがない状態で求められた左撮像系部200a及び右撮像系部200bの画像補正データを使用しないため、事前に別途フロントガラスがない状態で撮像して、左撮像系部200a及び右撮像系部200bの画像補正データを求める必要がなくなる。 In this case, since the image correction data of the left imaging system section 200a and the right imaging system section 200b obtained without the windshield is not used, images are separately captured in advance without the windshield, and the left imaging system section 200a is corrected. And it becomes unnecessary to obtain the image correction data of the right imaging system section 200b.

[変形例4]
変形例4では、図1及び図2に示す画像補正装置に対し、マーカ情報記憶部213は、マーカ画像を記憶せず、マーカの理想位置だけを記憶する。このため、マーカ位置検出ステップS102では以下の処理が行われる。
[Modification 4]
In Modified Example 4, the marker information storage unit 213 stores only the ideal positions of the markers, not the marker images, in contrast to the image correction apparatus shown in FIGS. Therefore, the following processing is performed in the marker position detection step S102.

マーカ位置検出ステップS102では、マーカ位置検出部221は、まず、撮像画像記憶部211に記憶されている撮像された基準画像及び参照画像を読み込む。次に、マーカ位置検出部221は、撮像された基準画像及び参照画像において、所定の輝度値以下の画素を1とし、それ以外の画素を0と設定する二値化処理を行う。更に、マーカ位置検出部221は、二値化した画像上の各マーカの重心位置を算出することにより、マーカの位置を検出する。 In the marker position detection step S<b>102 , the marker position detection unit 221 first reads the captured standard image and reference image stored in the captured image storage unit 211 . Next, the marker position detection unit 221 performs binarization processing in which pixels having a luminance value equal to or less than a predetermined luminance value are set to 1 and other pixels are set to 0 in the captured standard image and reference image. Furthermore, the marker position detection unit 221 detects the positions of the markers by calculating the center-of-gravity position of each marker on the binarized image.

[変形例5]
図6で説明したように、単路で要求された約-30°~30°の視野角の検出距離は、交差点で要求される約-60°~-30°及び約30°~60°の視野角の検出距離よりも長い。このため、約-30°~30°の視野角では、約-60°~-30°及び約30°~60°の視野角に比べて視差の許容誤差は小さい(図7参照)。また、約-60°~-30°及び約30°~60°の視野角内のマーカは、約-30°~30°の視野角内のマーカに比べて左撮像系部200a及び右撮像系部200bの近くに設置することができる(図8参照)。
[Modification 5]
As explained in FIG. 6, the detection distance for a viewing angle of about -30° to 30° required for a single pass is less than that for a viewing angle of about -60° to -30° and about 30° to 60° required for an intersection. Longer than the detection distance of the viewing angle. Thus, viewing angles of about -30° to 30° have less parallax tolerance than viewing angles of about -60° to -30° and about 30° to 60° (see Figure 7). In addition, the markers within the viewing angles of about -60° to -30° and about 30° to 60° are more likely to have the left imaging system unit 200a and the right imaging system 200a than the markers within the viewing angles of about -30° to 30°. It can be installed near the part 200b (see FIG. 8).

そこで、変形例5では、図1及び図2に示す画像補正装置のチャート30に対し、検出距離ずれの許容値に対する視差ずれの許容値が小さい約-30°~30°の視野角の領域を第1領域とし、第1領域よりも検出距離ずれの許容値に対する視差ずれの許容値が大きい約-60°~-30°及び約30°~60°の視野角の領域を第2領域とする。そして、第2領域に配置されたマーカは、第1領域に配置されたマーカよりも左撮像系部200a及び右撮像系部200bに近い位置になっている。 Therefore, in Modified Example 5, in the chart 30 of the image correction apparatus shown in FIGS. A first region is defined as a second region, and a viewing angle region of about -60° to -30° and about 30° to 60° having a larger permissible value of parallax deviation relative to the permissible value of detection distance deviation than the first region is defined as a second region. . The markers placed in the second area are closer to the left imaging system section 200a and the right imaging system section 200b than the markers placed in the first area.

この場合、マーカ配置曲線302と、このマーカ配置曲線を取り囲む矩形303(図8では矩形702)とにより囲まれた領域304(図8では領域703)にマーカを配置するため、衝突防止に要求される検出距離及び検出精度を満たすとともに、平面形状のチャート上にマーカを配置する従来技術よりも、画像補正装置の設置面積を小さくできる。 In this case, since the marker is placed in an area 304 (area 703 in FIG. 8) surrounded by the marker placement curve 302 and a rectangle 303 (rectangle 702 in FIG. 8) surrounding this marker placement curve, collision prevention is required. The required detection distance and detection accuracy can be satisfied, and the installation area of the image correction device can be made smaller than in the conventional technology in which markers are arranged on a planar chart.

[変形例6]
図12及び図13に示す変形例6では、図1及び図2に示す画像補正装置に対し、チャート30の形態を変更したものである。具体的には、図12に示すように、チャート30は、単路で用いられる約-30°~30°の視野角である第1領域30Aと、第1領域30Aの左右両側に配置され、交差点で用いられる約-60°~-30°及び約30°~60°の視野角である第2領域30Bとが分けられている。第1領域30Aには、左撮像系部200a及び右撮像系部200bの光軸にほぼ垂直に、複数のマーカ306が配置されている。第2領域30Bには、複数のマーカ307が配置されている。
[Modification 6]
In a modification 6 shown in FIGS. 12 and 13, the form of the chart 30 is changed from the image correction apparatus shown in FIGS. 1 and 2. FIG. Specifically, as shown in FIG. 12, the chart 30 is arranged on the left and right sides of the first region 30A, which has a viewing angle of about -30° to 30° used in a single pass, and the first region 30A, A second region 30B with viewing angles of about -60° to -30° and about 30° to 60° used at the intersection is separated. A plurality of markers 306 are arranged in the first area 30A substantially perpendicular to the optical axes of the left imaging system 200a and the right imaging system 200b. A plurality of markers 307 are arranged in the second area 30B.

ここで、第2領域30Bに配置されたマーカ307は、第1領域30Aに配置されたマーカ306よりも左撮像系部200a及び右撮像系部200bに対して近くに位置する。そして、チャート30は、図13に示す形状である。 Here, the marker 307 arranged in the second area 30B is positioned closer to the left imaging system section 200a and the right imaging system section 200b than the marker 306 arranged in the first area 30A. The chart 30 has the shape shown in FIG.

このため、画像補正データ作成ステップS103では、画像補正データ作成部222は、基準画像上のチャート30の第1領域30A及び第2領域30Bについて、上述した処理と同様に、マーカの検出位置を用いて撮像された基準画像上の第1領域30A及び第2領域30Bから、フロントガラス越しに歪みのない基準画像の第1領域30A及び第2領域30Bに変換する画像補正データをそれぞれ算出する。続いて、画像補正データ作成部222は、スプライン補間を用いて、水平方向に基準画像の画像補正データの第1領域30Aと第2領域30Bの境界の画像補正データを算出する。次に、画像補正データ作成部222は、第1領域30Aの画像補正データ、第2領域30Bの画像補正データ、及びそれらの領域の境界の画像補正データを結合して、基準画像全体の画像補正データを作成する。なお、参照画像についても、画像補正データ作成部222は同様な処理を行う。 Therefore, in the image correction data creation step S103, the image correction data creation unit 222 uses the detection positions of the markers for the first area 30A and the second area 30B of the chart 30 on the reference image, as in the above-described process. Image correction data for converting the first region 30A and the second region 30B on the reference image captured through the windshield into the distortion-free first region 30A and the second region 30B of the reference image through the windshield are calculated, respectively. Subsequently, the image correction data creation unit 222 calculates image correction data for the boundary between the first region 30A and the second region 30B of the image correction data of the reference image in the horizontal direction using spline interpolation. Next, the image correction data generation unit 222 combines the image correction data of the first area 30A, the image correction data of the second area 30B, and the image correction data of the boundary between these areas, and performs image correction of the entire reference image. Create data. Note that the image correction data creation unit 222 performs similar processing on the reference image as well.

[変形例7]
図14及び図15に示す変形例7では、図1及び図2に示す画像補正装置に対し、チャート30の形態を変更したものである。具体的には、図14に示すように、領域304内において、矩形303の長辺303A及び対向する一対の短辺303B,303Cにはマーカがそれぞれ配置されている。より具体的には、長辺303Aにマーカ308、短辺303Bにマーカ309、短辺303Cにマーカ310がそれぞれ配置されている。そして、チャート30は、図15に示す形状である。
[Modification 7]
In a modification 7 shown in FIGS. 14 and 15, the form of the chart 30 is changed from the image correction apparatus shown in FIGS. 1 and 2. FIG. Specifically, as shown in FIG. 14, markers are arranged on a long side 303A of a rectangle 303 and a pair of opposing short sides 303B and 303C in a region 304, respectively. More specifically, a marker 308 is arranged on the long side 303A, a marker 309 is arranged on the short side 303B, and a marker 310 is arranged on the short side 303C. The chart 30 has the shape shown in FIG.

このため、画像補正データ作成ステップS103では、画像上のチャート30の長辺303A及び短辺303B,303Cの領域について、画像補正データ作成部222は、上述の処理と同様に、マーカの検出位置を用いて、撮像された基準画像の長辺303A及び短辺303B,303Cの領域から、フロントガラス越しに歪がない基準画像の長辺303A及び短辺303B,303Cの領域に変換する画像補正データをそれぞれ算出して、スプライン補間を用いて、水平方向に基準画像の画像補正データの長辺303Aと短辺303B間、長辺303Aと短辺303C間の各境界を算出する。更に、画像補正データ作成部222は、長辺303A及び短辺303B,303Cの領域及びそれらの領域の境界の画像補正データを合わせて、基準画像全体の画像補正データを作成する。なお、参照画像についても、画像補正データ作成部222は同様な処理を行う。 For this reason, in the image correction data creation step S103, the image correction data creation unit 222 calculates the detection positions of the markers for the regions of the long side 303A and the short sides 303B and 303C of the chart 30 on the image, as in the above-described process. image correction data for converting the area of the long side 303A and the short sides 303B and 303C of the imaged reference image to the area of the long side 303A and the short sides 303B and 303C of the reference image without distortion through the windshield. Using spline interpolation, horizontal boundaries between the long side 303A and the short side 303B and between the long side 303A and the short side 303C of the image correction data of the reference image are calculated. Furthermore, the image correction data creating unit 222 creates image correction data for the entire reference image by combining the image correction data for the areas of the long side 303A and the short sides 303B and 303C and the boundaries of these areas. Note that the image correction data creation unit 222 performs similar processing on the reference image as well.

[変形例8]
図16に示す変形例8では、図1及び図2に示す画像補正装置に対し、チャート30の形態を変更したものである。具体的には、図16に示すように、チャート30は、単路で用いられる約-30°~30°の視野角である第1領域30Aと、第1領域30Aの左右両側に配置され、交差点で用いられる約-60°~-30°及び約30°~60°の視野角である第2領域30Bとに分けられている。第1領域30Aでは、左撮像系部200a及び右撮像系部200bの基準画像と参照画像が重なっており、すなわちステレオ視となっている。一方、第2領域30Bでは、左撮像系部200a及び右撮像系部200bの基準画像と参照画像が重なっておらず、すなわち単眼視となっている。
[Modification 8]
In a modified example 8 shown in FIG. 16, the form of the chart 30 is changed with respect to the image correction apparatus shown in FIGS. Specifically, as shown in FIG. 16, the chart 30 is arranged on the left and right sides of the first region 30A, which has a viewing angle of about -30° to 30° used in a single pass, and the first region 30A, and a second region 30B with viewing angles of about -60° to -30° and about 30° to 60° used at crossings. In the first area 30A, the standard image and the reference image of the left imaging system section 200a and the right imaging system section 200b are superimposed, that is, stereo vision is achieved. On the other hand, in the second region 30B, the standard image and the reference image of the left imaging system 200a and the right imaging system 200b do not overlap, that is, monocular vision.

このため、認識部233は、第1領域30Aについては上述したように視差画像から距離を算出し、第2領域30Bについては第2実施形態で述べる方法で距離を算出する。また、この場合のマーカ配置曲線は、第1領域30Aにあるマーカ配置曲線302Aと、第2領域30Bにあるマーカ配置曲線302Bに分けられる。 Therefore, the recognition unit 233 calculates the distance from the parallax image for the first area 30A as described above, and calculates the distance for the second area 30B by the method described in the second embodiment. Also, the marker placement curve in this case is divided into a marker placement curve 302A in the first region 30A and a marker placement curve 302B in the second region 30B.

マーカ配置曲線302Aは、上述の式19~21を用いて、単路で要求される検出距離及びその許容誤差をもとに算出される。マーカ配置曲線302Bは、後述する式22~25を用いて、交差点で要求される検出距離及びその許容誤差をもとに算出される。そして、マーカ301は、マーカ配置曲線302A,302Bとマーカ配置曲線302A,302Bを取り囲む矩形303とにより囲まれた領域304内に配置されている。 The marker placement curve 302A is calculated based on the detection distance required for a single pass and its tolerance using Equations 19-21 above. The marker placement curve 302B is calculated using Equations 22 to 25, which will be described later, based on the detection distance required at the intersection and its allowable error. The marker 301 is placed within an area 304 surrounded by marker placement curves 302A and 302B and a rectangle 303 surrounding the marker placement curves 302A and 302B.

この場合、画像補正データ作成ステップS103において、画像補正データ作成部222は、第1領域30Aのステレオ視と第2領域30Bの単眼視とに基づいて、ステレオカメラ20の画像補正データを作成する。 In this case, in the image correction data creation step S103, the image correction data creation unit 222 creates the image correction data of the stereo camera 20 based on the stereo vision of the first area 30A and the monocular vision of the second area 30B.

[変形例9]
チャートに配置されるマーカの形状は、上述の黒丸に限らずに、例えば図17に示す格子模様、或いは図18に示す市松模様にしても良い。図17に示す格子模様の場合、マーカ位置検出部221は水平方向の線と垂直方向の線が交わった箇所の位置を検出する。図18に示す市松模様の場合、マーカ位置検出部221は正方形の角の位置を検出する。
[Modification 9]
The shape of the markers arranged on the chart is not limited to the black circles described above, and may be, for example, a lattice pattern as shown in FIG. 17 or a checkerboard pattern as shown in FIG. In the case of the grid pattern shown in FIG. 17, the marker position detection unit 221 detects the position of the intersection of the horizontal line and the vertical line. In the case of the checkered pattern shown in FIG. 18, the marker position detector 221 detects the positions of the corners of the square.

[第2実施形態]
以下、図19及び図25を参照して画像補正装置及び画像補正方法の第2実施形態を説明する。本実施形態の画像補正装置及び画像補正方法は、単眼カメラにより撮像された画像を補正する点において、上述した第1実施形態と相違している。以下、その相違点を中心に説明する。
[Second embodiment]
A second embodiment of the image correction apparatus and image correction method will be described below with reference to FIGS. 19 and 25. FIG. The image correction apparatus and image correction method of this embodiment are different from those of the above-described first embodiment in that an image captured by a monocular camera is corrected. The difference will be mainly described below.

図19及び図20に示すように、本実施形態に係る画像補正装置100は、複数のマーカ301が配置されたチャート30と、フロントガラス40を介してマーカ301を撮像する単眼カメラ120から撮像された画像を取得する画像取得部1214と、画像取得部1214により取得された画像上のマーカ位置を検出するマーカ位置検出部1221と、マーカ位置検出部1221により検出されたマーカ位置に基づいて、単眼カメラ120により撮像された画像の歪みを補正するためのデータを作成する画像補正データ作成部1222と、を備えている。 As shown in FIGS. 19 and 20 , the image correction apparatus 100 according to the present embodiment has a chart 30 on which a plurality of markers 301 are arranged, and a monocular camera 120 that captures the markers 301 through the windshield 40 . a marker position detection unit 1221 that detects the marker position on the image acquired by the image acquisition unit 1214; and an image correction data creation unit 1222 that creates data for correcting distortion of an image captured by the camera 120 .

マーカ301は、第1実施形態で述べたように、所定のパターンで配列される複数の黒丸であり、チャート30に配置されている。図19に示すように、平面視において、単眼カメラ120の撮像方向から見たときに、マーカ301は、マーカ配置曲線311の線上又は該マーカ配置曲線311の後方に配置されている。 The markers 301 are, as described in the first embodiment, a plurality of black dots arranged in a predetermined pattern and arranged on the chart 30 . As shown in FIG. 19 , the marker 301 is arranged on or behind the marker placement curve 311 when viewed from the imaging direction of the monocular camera 120 in plan view.

好ましくは、マーカ301は、マーカ配置曲線311と該マーカ配置曲線311を取り囲む矩形303とにより囲まれた領域304内に配置されている。マーカ配置曲線311は、単眼カメラ120の視野角ごとの検出距離の許容誤差と、単眼カメラ120の設置ずれの許容誤差とが一致する曲線であり、その詳細については後述する。 Preferably, marker 301 is positioned within area 304 bounded by marker placement curve 311 and rectangle 303 surrounding marker placement curve 311 . The marker placement curve 311 is a curve in which the permissible error of the detection distance for each viewing angle of the monocular camera 120 and the permissible error of the installation deviation of the monocular camera 120 are the same, the details of which will be described later.

単眼カメラ120は、撮像系部1200と、単眼カメラ120に関する各演算等を行う演算部1210とを備えている。撮像系部1200は、光学素子部1201及び撮像素子部1202を有する。光学素子部1201は、例えばレンズなどにより構成されており、光を屈折させて撮像素子部1202上に像を結ぶ。撮像素子部1202は、光学素子部1201により屈折した光の像を受光し、その光の強さに応じた画像を生成する。 The monocular camera 120 includes an imaging system section 1200 and a calculation section 1210 that performs various calculations related to the monocular camera 120 . The imaging system section 1200 has an optical element section 1201 and an imaging element section 1202 . The optical element unit 1201 is composed of, for example, a lens, and refracts light to form an image on the imaging element unit 1202 . The imaging device unit 1202 receives the image of the light refracted by the optical device unit 1201 and generates an image according to the intensity of the light.

演算部1210は、例えば、演算を実行するCPU(Central Processing Unit)と、演算のためのプログラムを記録した二次記憶装置としてのROM(Read Only Memory)と、演算経過の保存や一時的な制御変数を保存する一時記憶装置としてのRAM(Random Access Memory)とを組み合わせてなるマイクロコンピュータにより構成されている。この演算部1210は、撮像画像記憶部1211、画像補正情報記憶部1212、マーカ情報記憶部1213、画像取得部1214、及び作成部1220を備えている。 The computation unit 1210 includes, for example, a CPU (Central Processing Unit) that executes computation, a ROM (Read Only Memory) as a secondary storage device that records a program for computation, and storage of computation progress and temporary control. It is composed of a microcomputer combined with a RAM (Random Access Memory) as a temporary storage device for storing variables. The calculation unit 1210 includes a captured image storage unit 1211 , an image correction information storage unit 1212 , a marker information storage unit 1213 , an image acquisition unit 1214 and a creation unit 1220 .

撮像画像記憶部1211は、撮像系部1200から出力される画像を記憶する。 The captured image storage unit 1211 stores images output from the imaging system unit 1200 .

画像補正情報記憶部1212は、撮像系部1200から出力される画像について、歪みのない画像上の各画素に対応する歪みのある撮像画像上の2次元座標(すなわち、画像補正データ)を記憶する。この画像補正情報記憶部1212は、事前にフロントガラス4を介さない状態(すなわち、フロントガラスがない状態)において求められた撮像系部1200の画像補正データを記憶するとともに、フロントガラス4を介した状態において画像補正データ作成部1222で作成したフロントガラス越しに歪みのない画像に補正する画像補正データを記憶する。 The image correction information storage unit 1212 stores two-dimensional coordinates (that is, image correction data) on the distorted captured image corresponding to each pixel on the undistorted image for the image output from the imaging system unit 1200. . This image correction information storage unit 1212 stores the image correction data of the imaging system unit 1200 obtained in advance without the windshield 4 (that is, without the windshield), and also stores the image correction data obtained through the windshield 4. The image correction data created by the image correction data creating unit 1222 in the state is stored to correct the image through the windshield without distortion.

本実施形態において、歪みのない画像とは、ピンホールモデルで透視投影を行った画像である。画像補正情報記憶部1212に記憶された画像補正データは、撮像された画像のレンズ歪みや光軸ずれを補正する処理に用いられる。撮像された画像とは、撮像時、すなわちカメラにより撮像されて補正前の画像を指す。 In this embodiment, an image without distortion is an image that has been perspectively projected using a pinhole model. The image correction data stored in the image correction information storage unit 1212 is used for processing for correcting lens distortion and optical axis deviation of the captured image. A captured image refers to an image captured by a camera at the time of capturing, that is, an image before correction.

マーカ情報記憶部1213は、マーカ301と単眼カメラ120間の位置及び姿勢に誤差がなく、且つ歪みのない画像上のマーカ位置(言い換えれば、マーカの理想位置)及びマーカ画像を記憶する。 The marker information storage unit 1213 stores a marker position (in other words, an ideal position of the marker) and a marker image on an image without errors in position and orientation between the marker 301 and the monocular camera 120 and without distortion.

画像取得部1214は、撮像素子部1202に撮像信号及び露光時間の情報を送った後に、撮像素子部1202が生成する画像を取得し、取得した画像を撮像画像記憶部1211に記憶する。 The image acquisition unit 1214 acquires an image generated by the image sensor unit 1202 after sending the imaging signal and exposure time information to the image sensor unit 1202 and stores the acquired image in the captured image storage unit 1211 .

作成部1220は、マーカ位置検出部1221と画像補正データ作成部1222とを有する。マーカ位置検出部1221は、まず、撮像系部1200の撮像画像に対し、画像補正情報記憶部1212に記憶されている画像補正データを用いて補正する。次に、マーカ位置検出部1221は、パターン・マッチング処理を行い、補正した画像上のマーカ像(言い換えれば、補正画像上のマーカ像)とマーカ情報記憶部1213に記憶されているマーカ画像とを一致させることにより、補正画像上のマーカ位置(検出位置)を検出する。 Creation unit 1220 has marker position detection unit 1221 and image correction data creation unit 1222 . The marker position detection unit 1221 first corrects the captured image of the imaging system unit 1200 using the image correction data stored in the image correction information storage unit 1212 . Next, the marker position detection unit 1221 performs pattern matching processing, and compares the marker image on the corrected image (in other words, the marker image on the corrected image) with the marker image stored in the marker information storage unit 1213. By matching, the marker position (detection position) on the corrected image is detected.

画像補正データ作成部1222は、マーカ位置検出部1221が検出したマーカ301の検出位置と、マーカ情報記憶部1213に記憶されているマーカ301の理想位置及び画像補正データとに基づいて、撮像された画像をフロントガラス越しに歪のない画像に補正する画像補正データをそれぞれ作成する。本実施形態では、フロントガラス越しに歪のない画像に補正する画像補正データは、すなわち、単眼カメラ120により撮像された画像の歪みを補正するためのデータである。画像の歪みは、上述した画像のレンズ歪みや光軸ずれなどを含む。 The image correction data creation unit 1222 detects the position of the marker 301 detected by the marker position detection unit 1221, and the ideal position of the marker 301 and the image correction data stored in the marker information storage unit 1213. Create image correction data for correcting the image through the windshield to an image without distortion. In this embodiment, the image correction data for correcting the distortion-free image through the windshield is data for correcting the distortion of the image captured by the monocular camera 120 . Image distortion includes lens distortion and optical axis deviation of the image described above.

なお、画像補正情報記憶部1212に予め画像補正データが記憶される場合、画像補正データ作成部1222は、作成した画像補正データを新しい画像補正データとして画像補正情報記憶部1212に記憶する。すなわち、画像補正データ作成部1222は、画像補正情報記憶部1212に記憶される画像補正データを更新できるようになっている。 Note that when image correction data is stored in advance in the image correction information storage unit 1212, the image correction data creation unit 1222 stores the created image correction data in the image correction information storage unit 1212 as new image correction data. That is, the image correction data creating section 1222 can update the image correction data stored in the image correction information storage section 1212 .

そして、演算部1210は、距離検出部1230及び補正画像記憶部1215を更に備えている。距離検出部1230は、画像補正部1231、認識部1232及び立体物距離検出部1233を有する。画像補正部1231、認識部1232及び立体物距離検出部1233については後述する。 The calculation unit 1210 further includes a distance detection unit 1230 and a corrected image storage unit 1215 . The distance detection unit 1230 has an image correction unit 1231 , a recognition unit 1232 and a three-dimensional object distance detection unit 1233 . The image correction unit 1231, the recognition unit 1232, and the three-dimensional object distance detection unit 1233 will be described later.

以下、図21を参照して画像補正装置100を用いた画像補正方法を説明する。本実施形態の画像補正方法は、画像取得ステップS1101と、マーカ位置検出ステップS1102と、画像補正データ作成ステップS1103とを含む。 An image correction method using the image correction apparatus 100 will be described below with reference to FIG. The image correction method of this embodiment includes an image acquisition step S1101, a marker position detection step S1102, and an image correction data creation step S1103.

画像取得ステップS1101では、まず、画像取得部1214は、撮像素子部1202に撮像信号及び露光時間の情報を出力する。撮像素子部1202は、画像取得部1214からの撮像信号及び露光時間の情報を受け取った後に、光学素子部1201により屈折した光の像を露光時間だけ受光し、その光の強さに応じた画像を生成し、更に生成した画像を画像取得部1214に出力する。画像取得部1214は、撮像素子部1202から出力された画像を取得し、取得した画像を撮像画像記憶部1211に記憶する。 In image acquisition step S<b>1101 , first, the image acquisition unit 1214 outputs an imaging signal and exposure time information to the image sensor unit 1202 . After receiving the imaging signal and exposure time information from the image acquisition unit 1214, the image sensor unit 1202 receives an image of light refracted by the optical element unit 1201 for the exposure time, and produces an image corresponding to the intensity of the light. , and outputs the generated image to the image acquisition unit 1214 . The image acquisition unit 1214 acquires an image output from the image sensor unit 1202 and stores the acquired image in the captured image storage unit 1211 .

マーカ位置検出ステップS1102では、マーカ位置検出部1221は、撮像画像記憶部1211に記憶されている撮像された画像と、事前に画像補正情報記憶部1212に記憶されている画像補正データをそれぞれ読み込む。次に、マーカ位置検出部1221は、上述の式1及び式2を用いて、画像補正後の画像上の各画素に対応する撮像された画像上の座標(Fx(X2,Y2)、Fy(X2,Y2))(すなわち、画像補正データ)に基づき、画像補正後の画像の画素(X2,Y2)に対応する撮像された画像の位置(X1,Y1)を算出する。 In marker position detection step S1102, the marker position detection unit 1221 reads the captured image stored in the captured image storage unit 1211 and the image correction data stored in the image correction information storage unit 1212 in advance. Next, the marker position detection unit 1221 calculates the coordinates (Fx(X2, Y2), Fy( X2, Y2)) (ie, image correction data), the position (X1, Y1) of the captured image corresponding to the pixel (X2, Y2) of the image after image correction is calculated.

また、マーカ位置検出部1221は、画像の位置(X1,Y1)の周辺4画素の輝度値について2次元線形補間を実施することにより、画像補正後の画像の画素(X2,Y2)の輝度値を算出する。すなわち、マーカ位置検出部1221は、画像補正後の画像の各画素について上記の手順を実施し、画像補正後の画像の輝度値を算出する。 In addition, the marker position detection unit 1221 performs two-dimensional linear interpolation on the luminance values of four pixels around the position (X1, Y1) of the image to obtain the luminance value of the pixel (X2, Y2) of the image after image correction. Calculate That is, the marker position detection unit 1221 performs the above procedure for each pixel of the image after image correction, and calculates the luminance value of the image after image correction.

次に、マーカ位置検出部1221は、マーカ情報記憶部1213に記憶されているマーカの理想位置及びマーカ画像を読み込む。続いて、マーカ位置検出部1221は、マーカの理想位置の付近における画像補正後の画像の輝度値とマーカ画像の輝度値の差の絶対値の和SAD(Sum of Absolute Difference)を算出し、マーカの理想位置の付近でSADが最も小さい位置を求める。 Next, the marker position detection unit 1221 reads the ideal position of the marker and the marker image stored in the marker information storage unit 1213 . Subsequently, the marker position detection unit 1221 calculates the sum of absolute values SAD (Sum of Absolute Difference) of the difference between the luminance value of the image after image correction and the luminance value of the marker image in the vicinity of the ideal position of the marker. A position with the smallest SAD is found in the vicinity of the ideal position of .

続いて、マーカ位置検出部1221は、SADが最も小さい位置の左右の画素のSADをもとに等角直線フィッティングを行い、画像補正後の画像とマーカ画像が最も一致する位置のサブピクセルを算出する。更に、マーカ位置検出部1221は、SADが最も小さい水平方向の位置にこのサブピクセルを加算することにより、マーカの水平方向の位置を算出する。 Subsequently, the marker position detection unit 1221 performs equiangular straight line fitting based on the SADs of the pixels on the left and right of the position where the SAD is the smallest, and calculates the sub-pixel at the position where the image after image correction and the marker image most match. do. Furthermore, the marker position detection unit 1221 calculates the horizontal position of the marker by adding this sub-pixel to the horizontal position where the SAD is the smallest.

次に、マーカ位置検出部1221は、SADが最も小さい位置の上下の画素のSADをもとに等角直線フィッティングを行い、画像補正後の画像とマーカ画像が最も一致する位置のサブピクセルを算出する。更に、SADが最も小さい垂直方向の位置にこのサブピクセルを加算することにより、マーカの垂直方向の位置を算出する。同様に、マーカ位置検出部1221は、他のマーカについても同様の処理を行い、画像補正後の画像上のマーカの位置を算出する。以上の処理で算出したマーカの位置はマーカの検出位置と呼ぶ。 Next, the marker position detection unit 1221 performs equiangular straight line fitting based on the SADs of the pixels above and below the position where the SAD is the smallest, and calculates the sub-pixel at the position where the image after image correction and the marker image most match. do. Furthermore, the vertical position of the marker is calculated by adding this sub-pixel to the vertical position where the SAD is the smallest. Similarly, the marker position detection unit 1221 performs similar processing for other markers, and calculates the position of the marker on the image after image correction. The position of the marker calculated by the above process is called the detection position of the marker.

画像補正データ作成ステップS1103では、画像補正データ作成部1222は、まず、画像補正情報記憶部1212に記憶されている画像の画像補正データと、マーカ情報記憶部1213に記憶されている歪みのない画像上のマーカの理想位置とをそれぞれ読み込む。次に、画像補正データ作成部1222は、読み込んだ画像補正データで補正した画像、すなわちフロントガラスがない状態で歪みのない画像に変換された画像に基づいて、フロントガラス越しに歪みのない画像に変換するための画像変換データを作成する。 In image correction data generation step S1103, the image correction data generation unit 1222 first generates image correction data for an image stored in the image correction information storage unit 1212 and an undistorted image stored in the marker information storage unit 1213. Read the ideal position of the upper marker, respectively. Next, the image correction data generation unit 1222 converts the image corrected by the read image correction data, that is, the image converted into the distortion-free image without the windshield, to the distortion-free image through the windshield. Create image conversion data for conversion.

続いて、画像補正データ作成部1222は、作成した画像変換データと、撮像された画像をフロントガラスがない状態で歪みのない画像に変換する画像補正データとに基づいて、撮像された画像をフロントガラス越しに歪みのない画像に補正するための画像補正データを作成する。 Subsequently, the image correction data creation unit 1222 converts the captured image to the front windshield based on the created image conversion data and the image correction data for converting the captured image into an image without distortion without the windshield. To create image correction data for correcting an image without distortion through glass.

具体的には、上記図5に示すように、画像補正データ作成部1222は、まず、画像上のマーカ301のうち、フロントガラス越しに歪みのない画像上にある画素305に対して、左上、右上、左下及び右下で最も近いマーカ301a、マーカ301b、マーカ301c及びマーカ301dを探索する。 Specifically, as shown in FIG. 5 above, the image correction data creation unit 1222 first, among the markers 301 on the image, for the pixel 305 on the image without distortion through the windshield, the upper left, Search the nearest markers 301a, 301b, 301c and 301d in the upper right, lower left and lower right.

続いて、画像補正データ作成部1222は、上述の式3~10を用いて2次元線形補間を実施することにより、記憶されている画像補正データで補正した画像を、フロントガラス越しに歪みのない画像に変換し、すなわちある画素305(X,Y)の画像変換データの値(Xb,Yb)を算出する。このような計算を各画素について実施することにより、上記の画像変換データがそれぞれ算出される。 Subsequently, the image correction data creation unit 1222 performs two-dimensional linear interpolation using the above-described equations 3 to 10 to generate an image corrected by the stored image correction data through the windshield without distortion. Convert to an image, that is, calculate the value (Xb, Yb) of the image conversion data of a certain pixel 305 (X, Y). By performing such calculations for each pixel, the above image transformation data are calculated.

次に、画像補正データ作成部1222は、フロントガラス越しに歪みのない画像上のある画素に対して、上述の式11~18を用いて2次元線形補間を実施することにより、撮像された画像からフロントガラス越しに歪みのない画像に変換する画像補正データの値を算出する。このような計算を各画素について実施することにより、上記の画像補正データがそれぞれ算出される。 Next, the image correction data creation unit 1222 performs two-dimensional linear interpolation on a certain pixel on the undistorted image through the windshield using the above equations 11 to 18, so that the captured image is , the value of the image correction data for converting the image through the windshield into a distortion-free image is calculated. By performing such calculation for each pixel, the above image correction data are calculated.

更に、画像補正データ作成部1222は、撮像された画像をフロントガラス越しに歪みのない画像に補正する画像補正データを、新しい画像補正データとして画像補正情報記憶部1212に記憶する。すなわち、画像補正データ作成部1222は、画像補正情報記憶部1212に記憶される画像補正データを更新する。 Furthermore, the image correction data creation unit 1222 stores image correction data for correcting the image captured through the windshield into an image without distortion as new image correction data in the image correction information storage unit 1212 . That is, the image correction data creation unit 1222 updates the image correction data stored in the image correction information storage unit 1212. FIG.

次に、演算部1210は、図21に示す画像補正方法によって作成された画像補正データを用いて、立体物の距離を検出する。このとき、画像補正処理で使用していない補正画像記憶部1215及び距離検出部1230が用いられる。具体的には、距離検出部1230の画像補正部1231は、撮像系部1200から撮像された画像を取得し、図21に示す画像補正方法によって作成された画像補正データを用いて、撮像された画像をフロントガラス越しに歪みのない画像に補正する。 Next, the calculation unit 1210 detects the distance of the three-dimensional object using the image correction data created by the image correction method shown in FIG. At this time, the corrected image storage unit 1215 and the distance detection unit 1230 that are not used in image correction processing are used. Specifically, the image correction unit 1231 of the distance detection unit 1230 acquires the captured image from the imaging system unit 1200, and uses the image correction data created by the image correction method shown in FIG. Corrects the image through the windshield to an image without distortion.

続いて、認識部1232は、例えば図22に示すように、画像1401上の各領域で車両の特徴量を算出し、車両の特徴と一致する領域1402を検出する。また、認識部1232は、画像1401上で各領域の歩行者の特徴量を算出して、歩行者の特徴と一致する領域1403を検出する。立体物距離検出部1233は、車両の領域1402及び歩行者の領域1403の下部の位置を路面と接する位置として、路面と接する位置をもとに車両及び歩行者の距離を算出する。 Subsequently, as shown in FIG. 22, the recognition unit 1232 calculates the feature amount of the vehicle in each area on the image 1401, and detects an area 1402 that matches the feature of the vehicle. The recognition unit 1232 also calculates the feature amount of the pedestrian in each area on the image 1401 and detects an area 1403 that matches the feature of the pedestrian. The three-dimensional object distance detection unit 1233 calculates the distance between the vehicle and the pedestrian based on the position where the vehicle area 1402 and the pedestrian area 1403 are in contact with the road surface.

以上のように算出された立体物の3次元位置は、衝突防止などの安全支援システムや自動運転システムに利用される。例えば単路及び交差点における衝突防止のセンシングでは、上記図6に示すような各視野角における検出距離を要求される精度で検出することが求められる。 The three-dimensional positions of three-dimensional objects calculated as described above are used in safety support systems such as collision prevention and automatic driving systems. For example, in collision prevention sensing at single roads and intersections, it is required to detect the detection distance at each viewing angle as shown in FIG. 6 with the required accuracy.

図23は単眼カメラに求められる視野角における垂直方向の位置の許容誤差を示している。この垂直方向の位置の許容誤差は、式22を用いて、要求される検出距離及び要求される検出精度に基づいて算出することができる。なお、式22において、Hは単眼カメラの設置高さ、fは焦点距離、cは画素ピッチ、Lrは要求される検出距離、Rrは要求される検出精度をそれぞれ示す。
Gr=(H f/c)(1/Lr-1/(Rr Lr)) (22)
FIG. 23 shows the vertical positional tolerance for viewing angles required for a monocular camera. This vertical position tolerance can be calculated using Equation 22 based on the required sensing distance and required sensing accuracy. In Expression 22, H is the installation height of the monocular camera, f is the focal length, c is the pixel pitch, Lr is the required detection distance, and Rr is the required detection accuracy.
Gr=(Hf/c)(1/Lr-1/(RrLr)) (22)

そして、絶対値が小さい視野角では、絶対値が大きい視野角に比べて要求される検出距離が長いため、垂直方向の位置の許容誤差は小さい。図23において、垂直方向の位置の誤差がハッチングで示す領域1501内であれば、上記図6に示す衝突防止に要求される検出距離(すなわち、領域501)を要求精度で検出できる。 At a viewing angle with a small absolute value, the required detection distance is longer than at a viewing angle with a large absolute value, so the vertical positional tolerance is small. In FIG. 23, if the vertical positional error is within a hatched area 1501, the detection distance (that is, area 501) required for collision prevention shown in FIG. 6 can be detected with the required accuracy.

一方、単眼カメラ120を車両に設置する際に、単眼カメラ120の設置ずれが発生する場合がある。この設置ずれによって、画像補正の誤差が生じる。画像補正の誤差は、式23を用いて算出することができる。
Gr-(f ΔYm/(c(Lm+ΔLm))=(f Hm/c)(1/Lm-1/(Lm+ΔLm)) (23)
Hm=H Lm/L (24)
On the other hand, when the monocular camera 120 is installed in the vehicle, the monocular camera 120 may be installed out of alignment. This misalignment causes an error in image correction. The image correction error can be calculated using Equation 23.
Gr-(fΔYm/(c(Lm+ΔLm))=(fHm/c)(1/Lm-1/(Lm+ΔLm)) (23)
Hm=H Lm/L (24)

式23と式24において、Lmは単眼カメラからマーカまでの距離、ΔLmはマーカ設置の距離誤差、ΔYmはマーカ設置の位置誤差、Hmはマーカ高さをそれぞれ示す。 In Equations 23 and 24, Lm is the distance from the monocular camera to the marker, ΔLm is the distance error in setting the marker, ΔYm is the positional error in setting the marker, and Hm is the height of the marker.

そして、式22で算出される衝突防止に求められる垂直方向の位置の許容誤差(すなわち、単眼カメラに要求される視野角の垂直方向の位置の許容誤差)と、式23で算出される単眼カメラの設置ずれによる画像補正の誤差(すなわち、単眼カメラ設置ずれの許容誤差)とが一致するように、単眼カメラからマーカまでの距離を設定して、画像補正で作成された画像補正データを用いて画像を補正すれば、衝突防止に要求される検出距離を要求される精度で検出することが可能になる。 Then, the vertical position tolerance required for collision prevention calculated by Equation 22 (that is, the vertical position tolerance of the viewing angle required for the monocular camera) and the monocular camera calculated by Equation 23 Set the distance from the monocular camera to the marker so that the error in image correction due to installation misalignment (that is, the tolerance for monocular camera installation misalignment) matches, and use the image correction data created by image correction By correcting the image, it becomes possible to detect the detection distance required for collision prevention with the required accuracy.

式22及び式23を用いて、単眼カメラの設置ずれによる画像補正の誤差と、衝突防止に要求される垂直方向の位置の許容誤差とが一致する各視野角における単眼カメラとマーカ間距離を算出する式を導出すると、式25となる。
Lm=f(H ΔLm+ΔYm L)/(c Gr L) (25)
Using Equations 22 and 23, calculate the distance between the monocular camera and the marker at each viewing angle where the image correction error due to misalignment of the monocular camera and the vertical position tolerance required for collision prevention match. Equation 25 is obtained by deriving an equation for
Lm=f(HΔLm+ΔYmL)/(cGrL) (25)

式25を用いて求められた単眼カメラとマーカ間の距離を図24に示す。単眼カメラとマーカ間の距離曲線1601上又は該曲線1601よりも遠い距離にマーカを設置すれば、垂直方向の位置誤差が図23における領域1501内になるため、図6に示す衝突防止に要求される検出距離の領域501を要求精度で検出できる。好ましくは、単眼カメラとマーカ間の距離曲線1601と該曲線1601を取り囲む矩形1602とにより囲まれた領域1603内にマーカを配置すれば、単眼カメラで検出する距離に要求される精度を保つことができる。この単眼カメラとマーカ間の距離曲線1601は、衝突防止に要求される検出距離及び検出精度を満足する曲線であり、上述のマーカ配置曲線311である。 FIG. 24 shows the distance between the monocular camera and the marker obtained using Equation 25. In FIG. If the marker is placed on the distance curve 1601 between the monocular camera and the marker or at a distance farther than the curve 1601, the positional error in the vertical direction falls within the region 1501 in FIG. A detection distance region 501 can be detected with the required accuracy. Preferably, by arranging the marker within an area 1603 surrounded by a distance curve 1601 between the monocular camera and the marker and a rectangle 1602 surrounding the curve 1601, it is possible to maintain the accuracy required for the distance detected by the monocular camera. can. The distance curve 1601 between the monocular camera and the marker is a curve that satisfies the detection distance and detection accuracy required for collision prevention, and is the marker placement curve 311 described above.

図25は第2実施形態に係る画像補正装置と従来との比較を説明する図であり、図25において、一点鎖線で示すのは従来の画像補正装置である。従来では、マーカが平面形状のチャート上に配置されている。距離範囲を要求精度で検出するには、マーカ配置曲線311よりも遠くに平面形状のチャート1701を配置する必要がある。従って、検出範囲の視野角における画像を補正するには、チャート1701の長手方向のサイズが長くなり、画像補正装置の面積が広くなるという問題が発生する。 FIG. 25 is a diagram for explaining a comparison between the image correcting apparatus according to the second embodiment and the conventional one. In FIG. 25, the conventional image correcting apparatus is indicated by a dashed line. Conventionally, markers are arranged on a planar chart. In order to detect the distance range with the required accuracy, it is necessary to arrange the planar chart 1701 farther than the marker arrangement curve 311 . Therefore, in order to correct the image in the viewing angle of the detection range, the size of the chart 1701 in the longitudinal direction becomes long, and the area of the image correction device becomes large.

一方、本実施形態に係る画像補正装置100では、平面視において、単眼カメラ120の撮像方向から見たときに、マーカ301は、視野角ごとの検出距離の許容誤差と単眼カメラ120設置ずれの許容誤差とが一致するマーカ配置曲線311上又は該マーカ配置曲線311の後方に配置されている。これによって、視野角ごとの検出距離を許容誤差以下で検出することができるとともに、従来と比べてチャート30の面積を小さく抑えることができる。その結果、単眼カメラ120で検出する距離に要求される精度を保ちつつ、装置の面積を低減することができる。 On the other hand, in the image correction apparatus 100 according to the present embodiment, when viewed from the imaging direction of the monocular camera 120 in a plan view, the marker 301 has an allowable error in detection distance for each viewing angle and an allowable deviation in installation of the monocular camera 120. It is placed on or behind the marker placement curve 311 that coincides with the error. As a result, the detection distance for each viewing angle can be detected within the allowable error, and the area of the chart 30 can be reduced compared to the conventional case. As a result, the area of the device can be reduced while maintaining the accuracy required for the distance detected by the monocular camera 120 .

特に、マーカ配置曲線311と、該マーカ配置曲線311を取り囲む矩形303とにより囲まれた領域304内にマーカ301を配置した場合、衝突防止に要求される検出距離及び検出精度を満たすとともに、画像補正装置100の設置面積を小さくできる。 In particular, when the marker 301 is placed in the area 304 surrounded by the marker placement curve 311 and the rectangle 303 surrounding the marker placement curve 311, the detection distance and detection accuracy required for collision prevention are satisfied, and image correction is performed. The installation area of the device 100 can be reduced.

また、本実施形態に係る画像補正方法によれば、単眼カメラ120で検出する距離に要求される精度を保つことができる。 Further, according to the image correction method according to the present embodiment, the accuracy required for the distance detected by the monocular camera 120 can be maintained.

なお、本実施形態の画像補正装置100について、第1実施形態と同様に様々な変形例が考えられる。例えば上述の変形例1~7、9は、本実施形態の画像補正装置100にも適用される。ここではその詳細説明を省略する。 As with the first embodiment, various modifications can be considered for the image correction apparatus 100 of the present embodiment. For example, Modifications 1 to 7 and 9 described above are also applied to the image correction apparatus 100 of this embodiment. A detailed description thereof is omitted here.

以上、本発明の実施形態について詳述したが、本発明は、上述の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の精神を逸脱しない範囲で、種々の設計変更を行うことができるものである。 Although the embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described embodiments, and various designs can be made without departing from the spirit of the invention described in the claims. Changes can be made.

1,100 画像補正装置
20 ステレオカメラ
30 チャート
30A 第1領域
30B 第2領域
40 フロントガラス
120 単眼カメラ
200a 左撮像系部
200b 右撮像系部
210,1210 演算部
211,1211 撮像画像記憶部
212,1212 画像補正情報記憶部
213,1213 マーカ情報記憶部
214 同期信号発生部
215,1214 画像取得部
215a 基準画像取得部
215b 参照画像取得部
216,1215 補正画像記憶部
217 視差画像記憶部
220,1220 作成部
221,1221 マーカ位置検出部
222,1222 画像補正データ作成部
230,1230 距離検出部
231,1231 画像補正部
232 視差算出部
233,1232 認識部
240 計算部
301,306,307,308,309,310 マーカ
302,302A,302B,311 マーカ配置曲線
303 矩形
304 領域
1233 立体物距離検出部
1,100 image correction device 20 stereo camera 30 chart 30A first area 30B second area 40 windshield 120 monocular camera 200a left imaging system 200b right imaging system 210, 1210 arithmetic units 211, 1211 captured image storage units 212, 1212 Image correction information storage unit 213, 1213 Marker information storage unit 214 Synchronization signal generation unit 215, 1214 Image acquisition unit 215a Reference image acquisition unit 215b Reference image acquisition unit 216, 1215 Corrected image storage unit 217 Parallax image storage unit 220, 1220 Creation unit 221, 1221 marker position detection units 222, 1222 image correction data creation units 230, 1230 distance detection units 231, 1231 image correction unit 232 parallax calculation units 233, 1232 recognition unit 240 calculation units 301, 306, 307, 308, 309, 310 Markers 302, 302A, 302B, 311 Marker arrangement curve 303 Rectangle 304 Area 1233 Three-dimensional object distance detector

Claims (10)

複数のマーカが配置されたチャートと、
フロントガラスを介して前記マーカを撮像するカメラにより撮像された画像を取得する画像取得部と、
前記画像取得部により取得された画像上のマーカ位置を検出するマーカ位置検出部と、
前記マーカ位置検出部により検出されたマーカ位置に基づいて、カメラにより撮像された画像の歪みを補正するためのデータを作成する画像補正データ作成部と、
を備え、
平面視において、カメラの撮像方向から見たときに、前記マーカは、カメラ視野角ごとの検出距離の許容誤差とカメラ設置ずれの許容誤差とが一致するマーカ配置曲線上又は前記マーカ配置曲線の後方に配置されていることを特徴とする画像補正装置。
a chart on which a plurality of markers are arranged;
an image acquisition unit that acquires an image captured by a camera that captures an image of the marker through the windshield;
a marker position detection unit that detects a marker position on the image acquired by the image acquisition unit;
an image correction data creation unit that creates data for correcting distortion of an image captured by a camera based on the marker position detected by the marker position detection unit;
with
In a plan view, when viewed from the imaging direction of the camera, the marker is located on or behind the marker arrangement curve where the allowable error of the detection distance for each camera viewing angle and the allowable error of the camera installation deviation match. An image correction device, characterized in that it is arranged in a
平面視において、前記マーカは、前記マーカ配置曲線と前記マーカ配置曲線を取り囲む矩形とにより囲まれた領域内に配置されている請求項1に記載の画像補正装置。 2. The image correction device according to claim 1, wherein, in plan view, the marker is arranged within a region surrounded by the marker arrangement curve and a rectangle surrounding the marker arrangement curve. 前記カメラがステレオカメラの場合、前記マーカ配置曲線は、ステレオカメラに要求される視野角の視差の許容誤差とステレオカメラ設置ずれの許容誤差とが一致する曲線である請求項1又は2に記載の画像補正装置。 3. The method according to claim 1, wherein, when the camera is a stereo camera, the marker arrangement curve is a curve in which a viewing angle parallax tolerance required for the stereo camera and a stereo camera installation deviation tolerance are the same. Image corrector. 前記カメラが単眼カメラの場合、前記マーカ配置曲線は、単眼カメラに要求される視野角の垂直方向の位置の許容誤差と単眼カメラ設置ずれの許容誤差とが一致する曲線である請求項1又は2に記載の画像補正装置。 3. When the camera is a monocular camera, the marker placement curve is a curve in which a vertical positional tolerance of a viewing angle required for the monocular camera and a tolerance of monocular camera installation deviation are the same. The image correction device according to . 画像補正データを記憶する画像補正情報記憶部を更に備え、
前記マーカ位置検出部は、予め前記画像補正情報記憶部に記憶されている画像補正データを用いて画像を補正し、補正画像上のマーカ位置を検出し、
前記画像補正データ作成部は、前記マーカ位置検出部により検出された補正画像上のマーカ位置と、歪みを補正した画像上のマーカの理想位置とのずれに基づいて画像補正データを作成し、作成した画像補正データを新しい画像補正データとして前記画像補正情報記憶部に記憶する請求項1~4のいずれか一項に記載の画像補正装置。
further comprising an image correction information storage unit for storing image correction data,
The marker position detection unit corrects the image using image correction data stored in advance in the image correction information storage unit, detects the marker position on the corrected image,
The image correction data creation unit creates image correction data based on the deviation between the marker position on the corrected image detected by the marker position detection unit and the ideal position of the marker on the distortion-corrected image. 5. The image correction apparatus according to any one of claims 1 to 4, wherein the corrected image correction data is stored as new image correction data in said image correction information storage unit.
前記チャートは、カメラ視野角ごとの検出距離の許容誤差が比較的に小さい第1領域と、カメラ視野角ごとの検出距離の許容誤差が比較的に大きい第2領域とを有し、
前記第2領域に配置されたマーカは、前記第1領域に配置されたマーカよりもカメラに近い請求項1~5のいずれか一項に記載の画像補正装置。
The chart has a first region with a relatively small tolerance of detection distance for each camera viewing angle and a second region with a relatively large tolerance of detection distance for each camera viewing angle,
The image correction device according to any one of claims 1 to 5, wherein the markers arranged in the second area are closer to the camera than the markers arranged in the first area.
前記画像補正データ作成部は、前記マーカ位置検出部により検出された前記第1領域のマーカ位置に基づいて前記第1領域の画像の歪みを補正する画像補正データと、前記マーカ位置検出部により検出された前記第2領域のマーカ位置に基づいて前記第2領域の画像の歪みを補正する画像補正データとをそれぞれ算出し、前記第1領域の画像補正データ及び前記第2領域の画像補正データに基づいて前記第1領域と前記第2領域の境界の画像補正データを算出し、前記第1領域の画像補正データ、前記第2領域の画像補正データ及び境界の画像補正データを合わせて画像全体の画像補正データを作成する請求項6に記載の画像補正装置。 The image correction data creation unit is configured to provide image correction data for correcting distortion of the image of the first area based on the marker positions of the first area detected by the marker position detection unit, and the image correction data detected by the marker position detection unit. image correction data for correcting the distortion of the image of the second area based on the marker position of the second area, and calculating the image correction data of the first area and the image correction data of the second area; The image correction data of the boundary between the first region and the second region is calculated based on the above, and the image correction data of the first region, the image correction data of the second region, and the image correction data of the boundary are combined to obtain the image of the entire image. 7. The image correction device according to claim 6, which creates image correction data. 前記画像取得部は、2つのカメラを有するステレオカメラから画像を取得し、
前記第1領域は、2つのカメラの撮像領域が重なる領域であり、
前記第2領域は、2つのカメラの撮像領域が重ならない領域である請求項6又は7に記載の画像補正装置。
The image acquisition unit acquires an image from a stereo camera having two cameras,
The first area is an area where the imaging areas of the two cameras overlap,
8. The image correcting device according to claim 6, wherein the second area is an area where imaging areas of two cameras do not overlap.
フロントガラスを介し、カメラ視野角ごとの検出距離の許容誤差とカメラ設置ずれの許容誤差とが一致するマーカ配置曲線上又は前記マーカ配置曲線の後方に配置されるマーカをカメラで撮像し、撮像した画像を取得する画像取得ステップと、
前記画像取得ステップで取得した画像上のマーカ位置を検出するマーカ位置検出ステップと、
前記マーカ位置検出ステップで検出したマーカ位置に基づいて、カメラにより撮像された画像の歪みを補正するためのデータを作成する画像補正データ作成ステップと、
を含むことを特徴とする画像補正方法。
Through the windshield, a camera was used to capture an image of a marker placed on or behind the marker arrangement curve where the allowable error of the detection distance for each camera viewing angle and the allowable error of the camera installation deviation match. an image acquisition step of acquiring an image;
a marker position detection step of detecting marker positions on the image acquired in the image acquisition step;
an image correction data creating step of creating data for correcting distortion of an image captured by a camera based on the marker positions detected in the marker position detecting step;
An image correction method comprising:
前記マーカ位置検出ステップにおいて、予め記憶されている画像補正データを用いて画像を補正し、補正画像上のマーカ位置を検出し、
前記画像補正データ作成ステップにおいて、前記マーカ位置検出ステップで検出した補正画像上のマーカ位置と、歪みを補正した画像上のマーカの理想位置とのずれに基づいて画像補正データを作成し、作成した画像補正データを新しい画像補正データとする請求項9に記載の画像補正方法。
in the marker position detection step, correcting the image using pre-stored image correction data to detect the marker position on the corrected image;
In the image correction data creation step, image correction data is created based on the deviation between the marker position on the corrected image detected in the marker position detection step and the ideal position of the marker on the distortion-corrected image. 10. The image correction method according to claim 9, wherein the image correction data is new image correction data.
JP2020006921A 2020-01-20 2020-01-20 Image correction device and image correction method Active JP7321947B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020006921A JP7321947B2 (en) 2020-01-20 2020-01-20 Image correction device and image correction method
CN202080090686.1A CN114902647A (en) 2020-01-20 2020-12-15 Image correction device and image correction method
PCT/JP2020/046660 WO2021149402A1 (en) 2020-01-20 2020-12-15 Image correction device and image correction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020006921A JP7321947B2 (en) 2020-01-20 2020-01-20 Image correction device and image correction method

Publications (2)

Publication Number Publication Date
JP2021114183A JP2021114183A (en) 2021-08-05
JP7321947B2 true JP7321947B2 (en) 2023-08-07

Family

ID=76992568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020006921A Active JP7321947B2 (en) 2020-01-20 2020-01-20 Image correction device and image correction method

Country Status (3)

Country Link
JP (1) JP7321947B2 (en)
CN (1) CN114902647A (en)
WO (1) WO2021149402A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007192832A (en) 2007-03-06 2007-08-02 Iwate Univ Calibrating method of fish eye camera
JP2011101265A (en) 2009-11-06 2011-05-19 Nippon Seiki Co Ltd Method and device for calculation of calibration information, and wide angle image processing apparatus
JP2016006406A (en) 2014-01-28 2016-01-14 株式会社リコー Calibration method, calibration device, measuring instrument and program
WO2019008402A1 (en) 2017-07-05 2019-01-10 Almotive Kft. Method, system and computer-readable medium for camera calibration

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3261115B2 (en) * 1999-09-22 2002-02-25 富士重工業株式会社 Stereo image processing device
JP4150924B2 (en) * 2003-07-02 2008-09-17 セイコーエプソン株式会社 Image processing system, projector, program, information storage medium, and image processing method
JP4224260B2 (en) * 2002-02-18 2009-02-12 株式会社トプコン Calibration apparatus, method, result diagnosis apparatus, and calibration chart
JP2005064699A (en) * 2003-08-08 2005-03-10 Olympus Corp Camera
JP2007010736A (en) * 2005-06-28 2007-01-18 Fujifilm Holdings Corp Image position measuring device and exposure device
WO2013018575A1 (en) * 2011-08-03 2013-02-07 株式会社日立メディコ Image diagnostic device and image correction method
JP6443502B2 (en) * 2012-03-21 2018-12-26 株式会社リコー Image processing apparatus, photographing apparatus, control system, moving object, and program
JP5959311B2 (en) * 2012-05-25 2016-08-02 富士通テン株式会社 Data deriving apparatus and data deriving method
WO2016136353A1 (en) * 2015-02-26 2016-09-01 オリンパス株式会社 Endoscope system and endoscope calibration method
CN105260985B (en) * 2015-09-25 2019-08-09 北京奇艺世纪科技有限公司 A kind of video broadcasting method and device
JP7148855B2 (en) * 2018-03-26 2022-10-06 カシオ計算機株式会社 PROJECTION CONTROL DEVICE, PROJECTION DEVICE, PROJECTION METHOD AND PROGRAM
CN109615663A (en) * 2018-12-12 2019-04-12 深圳市至高通信技术发展有限公司 Panoramic video bearing calibration and terminal
CN109752627A (en) * 2019-01-21 2019-05-14 山东大学 A method of the ca bin socket state automatic identification based on machine vision
CN109544484B (en) * 2019-02-20 2019-06-07 上海赫千电子科技有限公司 A kind of method for correcting image and device
CN110490940A (en) * 2019-08-15 2019-11-22 北京迈格威科技有限公司 Camera calibration method and apparatus based on gridiron pattern single image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007192832A (en) 2007-03-06 2007-08-02 Iwate Univ Calibrating method of fish eye camera
JP2011101265A (en) 2009-11-06 2011-05-19 Nippon Seiki Co Ltd Method and device for calculation of calibration information, and wide angle image processing apparatus
JP2016006406A (en) 2014-01-28 2016-01-14 株式会社リコー Calibration method, calibration device, measuring instrument and program
WO2019008402A1 (en) 2017-07-05 2019-01-10 Almotive Kft. Method, system and computer-readable medium for camera calibration

Also Published As

Publication number Publication date
JP2021114183A (en) 2021-08-05
CN114902647A (en) 2022-08-12
WO2021149402A1 (en) 2021-07-29

Similar Documents

Publication Publication Date Title
JP5635218B1 (en) Pattern alignment method and system for spatially encoded slide images
JP5729158B2 (en) Parking assistance device and parking assistance method
US10810762B2 (en) Image processing apparatus
CN104949619A (en) Stereo image processing device for vehicle
JP4958279B2 (en) Object detection device
JP2008187564A (en) Camera calibration apparatus and method, and vehicle
JP6177006B2 (en) Camera calibration apparatus and camera calibration method
JP6377970B2 (en) Parallax image generation apparatus and parallax image generation method
JP6602982B2 (en) In-vehicle camera, in-vehicle camera adjustment method, in-vehicle camera system
JP7102890B2 (en) Path simulation device
EP3438603A1 (en) Road surface displacement detection device and suspension control method
WO2014069169A1 (en) Image processing device
JP7321947B2 (en) Image correction device and image correction method
JP6838225B2 (en) Stereo camera
JP7272334B2 (en) Map generation device and map generation method
WO2022014215A1 (en) Processing device and vehicle-mounted camera device
JP6983740B2 (en) Stereo camera system and distance measurement method
WO2020235249A1 (en) Stereo camera system and distance measurement method
JP6567384B2 (en) Information recognition apparatus, information recognition method, and program
KR20110082873A (en) Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same
JP7083014B2 (en) Stereo camera
JP4409217B2 (en) Planar detector using stereo camera
WO2023017635A1 (en) Computing device, monitoring system and parallax calculation method
JP7422057B2 (en) 3D image processing device
US20220415031A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230726

R150 Certificate of patent or registration of utility model

Ref document number: 7321947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150