JP2025070540A - Image processing system and image processing method - Google Patents

Image processing system and image processing method Download PDF

Info

Publication number
JP2025070540A
JP2025070540A JP2023180943A JP2023180943A JP2025070540A JP 2025070540 A JP2025070540 A JP 2025070540A JP 2023180943 A JP2023180943 A JP 2023180943A JP 2023180943 A JP2023180943 A JP 2023180943A JP 2025070540 A JP2025070540 A JP 2025070540A
Authority
JP
Japan
Prior art keywords
image processing
image
distance
screen
correction value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023180943A
Other languages
Japanese (ja)
Inventor
学 川辺
盛彦 坂野
雅幸 竹村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2023180943A priority Critical patent/JP2025070540A/en
Priority to PCT/JP2024/035719 priority patent/WO2025084174A1/en
Publication of JP2025070540A publication Critical patent/JP2025070540A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Figure 2025070540000001

【課題】カメラ間の相対関係が不明なステレオカメラにおいて、視差誤差が少なく精度の高い距離測定が可能となる手段を提供する。
【解決手段】複数の撮像装置と、第一のチャート板と、第二のチャート板と、画像処理装置と、を備える画像処理システムであって、画像処理装置は、複数の撮像装置の各々の位置および角度を推定する位置角度推定部と、画像処理によって複数の撮像装置の光軸を平行化させる平行化光軸作成部と、複数の撮像装置が撮像する画像を平行化させた画像を作成する平行化画像作成部と、複数の撮像装置が撮像する画像を第二のチャート板に対して正対化させる正対化処理部と、複数の撮像装置の各々から第二のチャート板までの距離の測定値を補正する距離差補正部と、複数の撮像装置が撮像する画像の視差を算出する視差算出部と、複数の撮像装置の間の相対角度誤差補正値を計算する相対角度補正値計算部と、を備える。
【選択図】図1

Figure 2025070540000001

The present invention provides a means for enabling highly accurate distance measurement with little parallax error in a stereo camera in which the relative relationship between the cameras is unknown.
[Solution] An image processing system comprising multiple imaging devices, a first screen, a second screen, and an image processing device. The image processing device comprises a position and angle estimator which estimates the position and angle of each of the multiple imaging devices, a parallelized optical axis creator which parallelizes the optical axes of the multiple imaging devices by image processing, a parallelized image creator which creates parallelized images of images captured by the multiple imaging devices, a direction correction processor which orthogonally aligns the images captured by the multiple imaging devices with respect to the second screen, a distance difference corrector which corrects the measured distance from each of the multiple imaging devices to the second screen, a parallax calculator which calculates the parallax of images captured by the multiple imaging devices, and a relative angle correction value calculator which calculates a relative angle error correction value between the multiple imaging devices.
[Selected Figure] Figure 1

Description

本発明は、車載ステレオカメラの校正に用いる画像処理システム及び方法に関するものである。 The present invention relates to an image processing system and method used to calibrate an in-vehicle stereo camera.

通常車載ステレオカメラは左右カメラ間の距離すなわち基線長が長い方が測距において有利である。また車載ステレオカメラは自動運転のセンサとして用いる場合、2つのカメラの光軸が高い精度でそろっていなければならない。2つのカメラが同一の小さな筐体に収められている場合は、筐体の剛性により光軸向きを精度良く同一方向に保つことができるが、長い基線長を実現するには2つのカメラを別の筐体に収める必要があり、光軸を物理的にそろえることが困難となる。この問題に対し特許文献1ではカメラに映る画像からカメラの光軸ずれを判断し、物理的にカメラを移動する方法を行っている。また、特許文献2では基線長に合わせた間隔で同一図柄の画像をカメラで写すことで光軸のずれを検出している。 Normally, for in-vehicle stereo cameras, the longer the distance between the left and right cameras, i.e. the longer the baseline length, the more advantageous it is for distance measurement. Furthermore, when in-vehicle stereo cameras are used as sensors for autonomous driving, the optical axes of the two cameras must be aligned with high precision. If the two cameras are housed in the same small housing, the rigidity of the housing allows the optical axes to be precisely kept in the same direction, but to achieve a long baseline length, the two cameras must be housed in separate housings, making it difficult to physically align the optical axes. To address this issue, Patent Document 1 uses a method in which the optical axis misalignment of the camera is determined from the image captured by the camera and the camera is physically moved. Furthermore, Patent Document 2 detects the misalignment of the optical axis by capturing images of the same pattern with the camera at intervals that match the baseline length.

特開2018-031733号公報JP 2018-031733 A 国際公開第2019/087253号International Publication No. 2019/087253

しかしながら、車載ステレオカメラに特許文献1に示すようなカメラを動かす動力機構を設けることは価格の上昇につながる。また特許文献2に示す方法は基線長と同じ間隔で2枚のチャート板を置く必要があり、正確な基線長が未知の場合は用いることができず、また2つのカメラがほぼチャート板に正対している必要がある。このように、基線長が不明な車載ステレオカメラに対して光軸ずれを修正して精度の高い距離測定を実現する技術が求められている。 However, providing an on-board stereo camera with a power mechanism for moving the cameras as shown in Patent Document 1 leads to an increase in cost. In addition, the method shown in Patent Document 2 requires two charts to be placed at a distance equal to the baseline length, which means that it cannot be used when the exact baseline length is unknown, and the two cameras must be almost directly facing the charts. Thus, there is a demand for technology that can correct the optical axis misalignment for on-board stereo cameras with unknown baseline lengths to achieve highly accurate distance measurements.

本発明は上記課題を鑑みてなされたものであり、カメラ間の相対関係が不明なステレオカメラにおいて、視差誤差が少なく精度の高い距離測定が可能となる手段を提供することを目的とする。 The present invention was made in consideration of the above problems, and aims to provide a means for enabling highly accurate distance measurement with little parallax error in a stereo camera where the relative relationship between the cameras is unknown.

上記課題を解決するために、本発明に係る画像処理システムは、複数の撮像装置と、繰り返しパターンが描かれた、複数の撮像装置から第一の距離を隔てた位置に配置された第一のチャート板と、繰り返しパターン及び非繰り返しパターンが描かれた、複数の撮像装置から第二の距離を隔てた位置に配置された第二のチャート板と、画像処理装置と、を備える画像処理システムであって、画像処理装置は、複数の撮像装置が撮像した繰り返しパターンの撮像結果に基づいて、複数の撮像装置の各々の位置および角度を推定する位置角度推定部と、位置角度推定部の推定結果を用いて、画像処理によって複数の撮像装置の光軸を平行化させる平行化光軸作成部と、平行化光軸作成部の処理結果に基づいて、複数の撮像装置が撮像する画像を平行化させた画像を作成する平行化画像作成部と、平行化画像作成部が作成した画像を用いて、複数の撮像装置が撮像する画像を第二のチャート板に対して正対化させる正対化処理部と、位置角度推定部の推定結果を用いて、正対化された画像の倍率を調整することで、複数の撮像装置の各々から第二のチャート板までの距離の測定値を補正する距離差補正部と、距離差補正部の処理結果を反映させた非繰り返しパターンの撮像結果に基づいて、複数の撮像装置が撮像する画像の視差を算出する視差算出部と、視差算出部の演算結果と、第二の距離と、に基づいて、複数の撮像装置の間の相対角度誤差補正値を計算する相対角度補正値計算部と、を備える。 In order to solve the above problem, the image processing system of the present invention is an image processing system comprising a plurality of imaging devices, a first screen on which a repeating pattern is drawn and which is positioned at a first distance from the plurality of imaging devices, a second screen on which a repeating pattern and a non-repeating pattern are drawn and which is positioned at a second distance from the plurality of imaging devices, and an image processing device, in which the image processing device includes a position and angle estimation unit that estimates the position and angle of each of the plurality of imaging devices based on the imaging results of the repeating pattern captured by the plurality of imaging devices, a parallelization optical axis creation unit that parallelizes the optical axes of the plurality of imaging devices by image processing using the estimation results of the position and angle estimation unit, and a parallelization optical axis creation unit that performs image processing based on the processing results of the parallelization optical axis creation unit. The system includes a parallelized image creation unit that creates parallelized images of images captured by the multiple image capture devices, a parallelization processing unit that uses the images created by the parallelized image creation unit to parallelize the images captured by the multiple image capture devices with respect to the second screen, a distance difference correction unit that corrects the measured value of the distance from each of the multiple image capture devices to the second screen by adjusting the magnification of the parallelized image using the estimation result of the position angle estimation unit, a parallax calculation unit that calculates the parallax of the images captured by the multiple image capture devices based on the imaging result of the non-repeating pattern that reflects the processing result of the distance difference correction unit, and a relative angle correction value calculation unit that calculates a relative angle error correction value between the multiple image capture devices based on the calculation result of the parallax calculation unit and the second distance.

本発明を用いることによって、カメラ間の相対関係が不明なステレオカメラにおいて、視差誤差が少なく精度の高い距離測定が可能となる手段を提供することができる。
本発明に関連する更なる特徴は、本明細書の記述、添付図面から明らかになるものである。また、上記した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
By using the present invention, it is possible to provide a means for enabling highly accurate distance measurement with little parallax error in a stereo camera in which the relative relationship between the cameras is unknown.
Further features related to the present invention will become apparent from the description of the present specification and the accompanying drawings. Furthermore, the objects, configurations and effects other than those described above will become apparent from the following description of the embodiments.

本発明の一実施例に係る画像処理システムの機能構成を示すブロック図。FIG. 1 is a block diagram showing a functional configuration of an image processing system according to an embodiment of the present invention. 本発明の一実施例に係る画像処理システムが実行する処理を示すフローチャート。4 is a flowchart showing a process executed by an image processing system according to an embodiment of the present invention. 本発明の一実施例におけるチャート板配置を示す図。FIG. 2 shows a screen arrangement according to one embodiment of the present invention. 本発明に用いられるチャート配置の一例。1 is an example of a chart arrangement used in the present invention. 本発明に用いられるチャート配置の他の例。13 is another example of a chart arrangement used in the present invention.

以下、図面を参照しながら本発明の実施例を説明する。図1は本発明の一実施例に係る画像処理システム全体の機能構成を示すブロック図である。画像処理システムは、車載カメラ101及び102、画像処理装置100、並びに複数のチャート板を有している。複数のチャート板とは、具体的には図3に示された、カメラユニット304及び305から第一の距離を隔てた位置に配置された、繰り返しパターンが描かれた第一のチャート板302及び303と、カメラユニット304及び305から、第一の距離より遠い第二の距離を隔てた位置に配置された、繰り返しパターン及び非繰り返しパターンが描かれた第二のチャート板301のことを指す。画像処理装置100は例えばCPU(Central Processing Unit)およびメモリを備えたコンピュータから構成され、具備する機能部は以下の通りである。 Below, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the overall functional configuration of an image processing system according to an embodiment of the present invention. The image processing system includes vehicle-mounted cameras 101 and 102, an image processing device 100, and multiple screens. The multiple screens specifically refer to the first screens 302 and 303, which are arranged at a first distance from the camera units 304 and 305 and on which a repeating pattern is drawn, and the second screen 301, which is arranged at a second distance from the camera units 304 and 305 that is farther than the first distance and on which a repeating pattern and a non-repeating pattern are drawn, as shown in FIG. 3. The image processing device 100 is composed of a computer equipped with a CPU (Central Processing Unit) and memory, and has the following functional units:

すなわち、画像処理装置100は、広角カメラのレンズ歪みを補正する歪み除去部103及び104、歪み除去後の画像から校正に用いる繰り返しパターンを検出する繰り返しパターン検出部105及び106、繰り返しパターンからカメラの角度と位置を推定するカメラ位置角度推定部107及び108(特許請求の範囲における位置角度推定部に相当)、2つのカメラの相対位置と相対角度を計算する相対パラメータ計算部109、相対位置と相対角度から平行化光軸を求め、平行化のための回転行列を作成する平行化光軸作成部110、歪み除去画像に対して平行化処理を行い、平行化画像を作成する平行化画像作成部111及び112、平行化画像をチャート板に対して正対化させる処理を行う正対化処理部113及び114、2つのカメラからチャート板までの距離を合わせる距離差補正部115及び116、正対化した2つの画像から非繰り返しパターンの視差を計算する視差算出部117、視差から撮像装置間の相対角度誤差補正値を計算する相対角度補正値計算部118、補正値を用いて相対角度を補正する補正値反映部119、並びに補正後の相対パラメータを校正値として出力する出力端子120を備えている。 That is, the image processing device 100 includes distortion removal units 103 and 104 that correct the lens distortion of the wide-angle camera, repeating pattern detection units 105 and 106 that detect a repeating pattern used for calibration from the image after distortion removal, camera position angle estimation units 107 and 108 (corresponding to the position angle estimation unit in the claims) that estimate the angle and position of the camera from the repeating pattern, a relative parameter calculation unit 109 that calculates the relative position and relative angle of the two cameras, a parallelization optical axis creation unit 110 that determines the parallelization optical axis from the relative position and relative angle and creates a rotation matrix for parallelization, and a parallelization unit 120 that performs parallelization on the distortion-removed image. It is equipped with parallelized image creation units 111 and 112 that perform parallelization processing to create parallelized images, orientation processing units 113 and 114 that perform processing to orient the parallelized images relative to the screen, distance difference correction units 115 and 116 that adjust the distance from the two cameras to the screen, parallax calculation unit 117 that calculates the parallax of the non-repeating pattern from the two orientated images, relative angle correction value calculation unit 118 that calculates a correction value for the relative angle error between the imaging devices from the parallax, correction value reflection unit 119 that corrects the relative angle using the correction value, and an output terminal 120 that outputs the corrected relative parameters as calibration values.

次に各部の動作を説明する。車載ステレオカメラは2つ以上のカメラユニットを持つが、本実施例においては2個のカメラで説明する。2つのカメラは異なる位置、通常は左右に配置される。また、カメラの撮像結果が入力されたり演算結果を出力したりする機能部である歪み除去部103~出力端子120は、それぞれ別個の装置として独立して配置されていてもよいし、一部あるいは全部が1つの筐体内に収められたパッケージとして配置されてもよい。すなわち、本実施例に係る画像処理システムは、本実施例においては全体として1つの装置を構成しているが、複数の装置が組み合わされた構成を有する場合もある。また、車載ステレオカメラは、長い基線長を実現するために2つのカメラを別の筐体に収めて車両に搭載される場合があり、本実施例において「セパレート型カメラ」と呼称する。 Next, the operation of each part will be described. An in-vehicle stereo camera has two or more camera units, but in this embodiment, two cameras will be described. The two cameras are placed in different positions, usually on the left and right. In addition, the distortion removal unit 103 to the output terminal 120, which are functional units that input the image capture results of the cameras and output the calculation results, may be placed independently as separate devices, or may be placed as a package in which some or all of them are contained in a single housing. In other words, the image processing system according to this embodiment constitutes a single device as a whole in this embodiment, but it may also have a configuration in which multiple devices are combined. In addition, in order to achieve a long baseline length, the in-vehicle stereo camera may be mounted on the vehicle with the two cameras housed in separate housings, and this is referred to as a "separate camera" in this embodiment.

後述するように2つの車載カメラ101及び102では繰り返しパターンと非繰り返しパターンを含んだ画像が撮影されるが、得られる画像は広角レンズによる歪みを含んだ画像として出力される。この歪みはカメラユニット固有のものであるので、補正テーブルなどを用いて歪み除去部103及び104で歪みのない画像に変換される。 As described below, the two vehicle-mounted cameras 101 and 102 capture images containing repeating and non-repeating patterns, but the resulting images are output as images containing distortion caused by the wide-angle lens. Since this distortion is specific to the camera unit, it is converted into a distortion-free image by distortion removal units 103 and 104 using a correction table or the like.

歪みの除去された画像は、繰り返しパターン検出部105及び106に送られ、それぞれの画像に対して既知の繰り返しパターンが検出される。この繰り返しパターンは、既知のマーカーが繰り返し配置されており、各マーカーの画像上の位置が検出される。また、後述のように繰り返しパターンは、複数の距離に配置され、さらに、少なくとも一つの繰り返しパターンは非繰り返しパターンと同一平面上に描かれている。 The images with distortion removed are sent to repeating pattern detection units 105 and 106, which detect a known repeating pattern in each image. This repeating pattern has known markers arranged repeatedly, and the position of each marker on the image is detected. As described below, the repeating patterns are arranged at multiple distances, and at least one repeating pattern is drawn on the same plane as a non-repeating pattern.

複数の距離に配置された繰り返しパターンが検出された画像はカメラ位置角度推定部107及び108に送られる。画像空間上のマーカーの位置が既知であるので、マーカーが3点以上あればカメラ位置角度推定部107及び108によってカメラの3次元位置と3つの角度を計算することができる。計算方法は例えば初期値として設計上の位置と角度を与え、そのパラメータを用いて撮像面への投影位置を計算し、実際のマーカー検出位置との差分を誤差関数として、誤差関数が減少する方向へパラメータを修正して収束させる方法を使うことができるが、この方法に限るものではない。 Images in which repeating patterns arranged at multiple distances are detected are sent to camera position angle estimation units 107 and 108. Since the positions of the markers in the image space are known, if there are three or more markers, the three-dimensional position and three angles of the camera can be calculated by camera position angle estimation units 107 and 108. The calculation method can be, for example, a method in which a design position and angle are given as initial values, and the projected position on the imaging surface is calculated using these parameters, and the difference from the actual marker detection position is used as an error function, and the parameters are modified to converge in the direction that reduces the error function, but the method is not limited to this.

カメラ位置角度推定部107及び108が推定した2つのカメラの位置と角度は、相対パラメータ計算部109に送られる。相対パラメータ計算部109では2つのカメラの位置と角度の差分が計算され、それを相対パラメータとして平行化光軸作成部110に出力する。 The positions and angles of the two cameras estimated by the camera position angle estimation units 107 and 108 are sent to a relative parameter calculation unit 109. The relative parameter calculation unit 109 calculates the difference between the positions and angles of the two cameras and outputs it as a relative parameter to the parallelization optical axis creation unit 110.

2つのカメラ101と102の光軸は物理的には異なる方向を向いており、視差を正しく求めるには光軸方向をそろえる必要がある。物理的にカメラの向きを変えるには高精度の向き制御が必要であり、車載ステレオカメラでは現実的ではなく、カメラの物理的な向きを変えずに画像処理によって左右カメラの向きのそろった画像を作成する方法を用いる。この処理を平行化処理と言い、平行化処理後の仮想的な光軸の向きを作成するのが、平行化光軸作成部110である。 The optical axes of the two cameras 101 and 102 are physically oriented in different directions, and the optical axis directions must be aligned to correctly calculate parallax. Physically changing the orientation of the cameras requires highly accurate orientation control, which is not realistic for an in-vehicle stereo camera, so a method is used in which images with aligned orientations for the left and right cameras are created by image processing without changing the physical orientation of the cameras. This processing is called parallelization processing, and the parallelized optical axis creation unit 110 creates the orientation of the virtual optical axes after parallelization processing.

平行化光軸の向きは、左右カメラの一方を基準カメラとしてもう一方を合わせる方法や、2つの光軸の向きの中間を取る方法を用いることができる。平行化処理後は、元のカメラの光軸と仮想的な平行化光軸との角度差から回転行列を作成する。この回転行列は、平行化画像作成部111及び112へ送られる。平行化画像作成部111及び112は歪み除去部103及び104から出力される歪みの無い画像に対して、平行化光軸作成部110から送られる回転行列を適用して、仮想的な平行化光軸の向きに合わせた画像を作成する。作成した画像は、正対化処理部113及び114に送られる。 The direction of the parallelization optical axis can be determined by using one of the left and right cameras as a reference camera and aligning the other camera, or by taking the middle point between the directions of the two optical axes. After parallelization processing, a rotation matrix is created from the angle difference between the optical axis of the original camera and the virtual parallelization optical axis. This rotation matrix is sent to parallelization image creation units 111 and 112. The parallelization image creation units 111 and 112 apply the rotation matrix sent from the parallelization optical axis creation unit 110 to the distortion-free images output from the distortion removal units 103 and 104 to create images aligned with the direction of the virtual parallelization optical axis. The created images are sent to the orientation processing units 113 and 114.

正対化処理部113及び114は、仮想的な平行化光軸とチャート板の向きの差分から回転行列を作成し、その回転行列に従って画像変換を行うことで、2つのカメラが撮像した画像を、チャート板に正対し、かつ左右カメラの向きがそろった画像に変換する。このとき、2つのカメラが撮像した画像を、非繰り返しパターンと繰り返しパターンが同一平面上に描かれたチャート板に対して正対させる。特に、セパレート型カメラの場合、1つの筐体に2つのカメラが収容される態様と異なり、2つのカメラ間の相対関係を物理的に保証することが困難になるため、2つのカメラ間の相対関係(相対角度等)のずれが生じる場合がある。正対化処理部113及び114による正対化処理により、2つのカメラがそれぞれチャート板に対して正対していない状態であっても、2つのカメラを非繰り返しパターンが描かれたチャート板に対して正対化させることができ、後段の視差算出部117による高精度な視差の算出が可能となる。ひいては、相対角度補正値計算部118による高精度な相対角度補正値の算出が可能となる。なお、平行化処理と正対化処理は、ここでは別処理として記載したが、どちらも回転行列処理なので、両方をまとめた回転行列を作成して、一度に画像変換することも可能である。 The orientation processing units 113 and 114 create a rotation matrix from the difference between the virtual parallel optical axis and the orientation of the screen, and convert the images according to the rotation matrix to convert the images captured by the two cameras into images that are directly facing the screen and have the same orientation for the left and right cameras. At this time, the images captured by the two cameras are directly facing the screen on which the non-repeating pattern and the repeating pattern are drawn on the same plane. In particular, in the case of a separate type camera, unlike a case in which two cameras are housed in one housing, it is difficult to physically guarantee the relative relationship between the two cameras, so there may be a deviation in the relative relationship (relative angle, etc.) between the two cameras. The orientation processing by the orientation processing units 113 and 114 makes it possible to orient the two cameras to the screen on which the non-repeating pattern is drawn, even if the two cameras are not directly facing the screen, and enables the parallax calculation unit 117 to calculate the parallax with high accuracy in the subsequent stage. This enables the relative angle correction value calculation unit 118 to calculate a highly accurate relative angle correction value. Note that although the parallelization process and the rectification process are described here as separate processes, since both are rotation matrix processes, it is also possible to create a rotation matrix that combines both processes and perform image transformation at once.

正対化処理を行った画像は、2つのカメラからチャート板までの距離が異なるので、画像の拡大または縮小を行う必要がある。この処理を行うのが距離差補正部115及び116である。距離差補正部115及び116は具体的には、正対化された画像のうち一方の倍率を他方の画像の倍率に合わせることによって両者を等倍の画像とすることで実質的に2つのカメラとチャート板との間の距離を調整するのと同一の処理を行う。 Since the distances from the two cameras to the screen are different for images that have been subjected to the normalization process, the images need to be enlarged or reduced. This process is carried out by the distance difference correction units 115 and 116. Specifically, the distance difference correction units 115 and 116 match the magnification of one of the normalized images to that of the other image, thereby making both images equal in size, which is essentially the same process as adjusting the distance between the two cameras and the screen.

距離差補正処理が終わった画像は視差算出部117に送られる。視差算出部117では、非繰り返しパターンを用いて視差を検出する。ここで視差とは左右のカメラから撮像対象までの見え方の違いを表す指標であり、その求め方は例えばSGM(Semi Global Matching)方式やSAD(Sum of Absolute Difference)方式等が知られている。これらの計算方法はすでに既知であるため細かい説明は省略する。非繰り返しパターンは既知パターンであるので、左右それぞれのカメラから得られた画像から既知パターンを相関処理などで探し出し、その位置の差を求めることによって視差が計算される。この視差は原理的にはカメラから非繰り返しパターンのチャート板までの距離で理論値が決まるが、実際に測定される視差値には角度推定誤差による差分が生じる。この視差差分を角度に換算することによって、2つのカメラの相対角度を補正することができる。この計算を行うのが相対角度補正値計算部118である。 The image after the distance difference correction process is sent to the parallax calculation unit 117. The parallax calculation unit 117 detects parallax using the non-repeating pattern. Here, parallax is an index that indicates the difference in how the imaged object looks from the left and right cameras, and methods for calculating it are known, such as the SGM (Semi Global Matching) method and the SAD (Sum of Absolute Difference) method. These calculation methods are already known, so a detailed explanation will be omitted. Since the non-repeating pattern is a known pattern, the known pattern is found from the images obtained from the left and right cameras by correlation processing, and the parallax is calculated by finding the difference in their positions. In principle, the theoretical value of this parallax is determined by the distance from the camera to the screen of the non-repeating pattern, but the actually measured parallax value has a difference due to the angle estimation error. The relative angle of the two cameras can be corrected by converting this parallax difference into an angle. This calculation is performed by the relative angle correction value calculation unit 118.

この補正値は補正値反映部119に送られ、相対角度補正値計算部118が計算した補正値を反映した相対パラメータが最終的な出力として出力端子120から出力される。補正値として反映される角度は通常は微小な角度であるが、この補正値が大きい場合は、相対パラメータ計算部109で計算された値の信頼性が低いと考えられるので、補正値があらかじめ定められた閾値を超える場合は補正後の値は出力せずにエラーを出力することも可能である。この場合は画像取得からやり直す、あるいはカメラの再取り付けを行うなどの工程のトリガとして用いるなどの異常処理に入ることが可能である。 This correction value is sent to the correction value reflection unit 119, and the relative parameter reflecting the correction value calculated by the relative angle correction value calculation unit 118 is output from the output terminal 120 as the final output. The angle reflected as the correction value is usually a small angle, but if this correction value is large, the reliability of the value calculated by the relative parameter calculation unit 109 is considered to be low, so if the correction value exceeds a predetermined threshold, it is possible to output an error without outputting the corrected value. In this case, it is possible to start abnormal processing, such as starting over from image acquisition, or using it as a trigger for a process such as reattaching the camera.

補正値反映部119で補正された値は、そのまま出力端子120から出力することも可能であるが、補正後の値をもう一度非繰り返しパターンを用いて検証することも可能である。繰り返し検証するときの動作を図2に示す処理フローに従って説明する。なお本フローにおいてもカメラとして撮像対象であるチャート板に向かって左右方向に並べられた2台のカメラを想定する。 The value corrected by the correction value reflection unit 119 can be output directly from the output terminal 120, but it is also possible to verify the corrected value again using a non-repeated pattern. The operation when performing repeated verification will be explained according to the process flow shown in Figure 2. Note that in this flow, two cameras are assumed to be arranged in a left-right direction facing the screen that is the subject of the image capture.

まず左右の両カメラで撮像された画像が歪み除去部103に入力されて歪みの除去された画像が生成されたとする。そしてステップ201は、後述する複数の距離に配置されたチャート板に描かれた繰り返しパターンを用いたカメラ位置とカメラ角度の初期推定処理である。これは繰り返しパターン検出部105及び106、カメラ位置角度推定部107及び108、並びに相対パラメータ計算部109における処理に該当する。ステップ201の処理を実行後はステップ202へ進む。 First, the images captured by both the left and right cameras are input to the distortion removal unit 103, and an image with distortion removed is generated. Then, step 201 is an initial estimation process for the camera position and camera angle using a repeating pattern drawn on a chart placed at multiple distances, which will be described later. This corresponds to the processing in the repeating pattern detection units 105 and 106, the camera position angle estimation units 107 and 108, and the relative parameter calculation unit 109. After executing the processing in step 201, the process proceeds to step 202.

ステップ202はステップ201で得られた結果に基づいて左右カメラ画像の平行化処理を行う。これは平行化光軸作成部110並びに平行化画像作成部111及び112の処理に該当する。その後移行するステップ203では後述する繰り返しパターン及び非繰り返しパターンの両方が描かれたチャート板に対する正対化処理を行う。これは正対化処理部113及び114の処理に該当する。 In step 202, the left and right camera images are parallelized based on the results obtained in step 201. This corresponds to the processing performed by the parallelization optical axis creation unit 110 and parallelized image creation units 111 and 112. In step 203, which follows, a straightening process is performed on the screen on which both repeating and non-repeating patterns are drawn, as described below. This corresponds to the processing performed by the straightening units 113 and 114.

ステップ204ではステップ201で求めたカメラ位置から後述する繰り返しパターン及び非繰り返しパターンの両方が描かれたチャート板までの距離を計算し、左右カメラの距離差を無くすように画像変換を行う。これは距離差補正部115及び116の処理に該当する。続くステップ205の処理では、視差算出部117が、距離差に対する補正が終わった画像を用いて、ステップ203で正対化処理が行われた非繰り返しパターンを用いた視差計算を行う。 In step 204, the distance from the camera position determined in step 201 to the screen on which both the repeating pattern and the non-repeating pattern described below are drawn is calculated, and image conversion is performed to eliminate the distance difference between the left and right cameras. This corresponds to the processing of distance difference correction units 115 and 116. In the subsequent processing of step 205, parallax calculation unit 117 uses the image that has been corrected for the distance difference to perform parallax calculation using the non-repeating pattern that has been subjected to the orientation processing in step 203.

視差の理論値はカメラからステップ203で正対化処理が行われた非繰り返しパターンまでの距離によって決まるため、ステップ201で求めたカメラ位置から理論値が計算される。この理論値と実際に画像から得られた視差値は、ステップ201で求めたカメラ位置と角度が正しければ一致するが、誤差が存在するとそれに応じた差分が発生する。この差分が相対角度の補正値となり、補正するパラメータはカメラ位置と角度の2つのみであるので高い精度が得られる。この補正値の計算は相対角度補正値計算部118によって実行される。 Since the theoretical value of parallax is determined by the distance from the camera to the non-repeating pattern that has been subjected to the orientation process in step 203, the theoretical value is calculated from the camera position found in step 201. This theoretical value and the parallax value actually obtained from the image will match if the camera position and angle found in step 201 are correct, but if an error exists, a difference will occur accordingly. This difference becomes the correction value for the relative angle, and high accuracy can be achieved because there are only two parameters to be corrected, the camera position and angle. The calculation of this correction value is performed by relative angle correction value calculation unit 118.

ステップ206ではその差分の判定を行い、差分があらかじめ決められた規定値未満であれば、ステップ201で求めたカメラ位置と角度が正しいものと判断する。次のステップ207では補正値反映部119は、差分に相当する相対角度をステップ201で求めた角度に反映して終了する。この反映した値が最終的な出力となる。 In step 206, the difference is judged, and if the difference is less than a predetermined value, it is determined that the camera position and angle found in step 201 are correct. In the next step 207, the correction value reflection unit 119 reflects the relative angle corresponding to the difference in the angle found in step 201, and the process ends. This reflected value becomes the final output.

ステップ206で差分が規定値以上の場合、補正値反映部119はステップ208においてそれまでの繰り返し回数をカウントする。繰り返し回数が予め定めた規定値以上である場合は、それまでに生じた誤差が最早補正不可能なほど大きくなっているものと判断し、失敗として処理を終了する。繰り返し回数が規定値未満である場合にはステップ209に移行し、補正値反映部119はステップ205で求めた差分をカメラ角度に反映する。この新しいカメラ角度に対してステップ202からステップ205までの処理を再び行い、ステップ206で理論値と画像から得られた視差値の差分を計算する。ふたたび差分が規定値以上であれば、さらに差分を反映した上でステップ202からステップ205までの処理を繰り返す。一定回数以上繰り返しても差分が規定値未満におさまらない場合はステップ208での判定によって失敗として終了する。 If the difference is equal to or greater than the specified value in step 206, the correction value reflection unit 119 counts the number of repetitions up to that point in step 208. If the number of repetitions is equal to or greater than a predetermined specified value, it is determined that the error that has occurred up to that point has become so large that it can no longer be corrected, and the process ends as a failure. If the number of repetitions is less than the specified value, the process proceeds to step 209, where the correction value reflection unit 119 reflects the difference calculated in step 205 in the camera angle. The process from step 202 to step 205 is performed again for this new camera angle, and the difference between the theoretical value and the parallax value obtained from the image is calculated in step 206. If the difference is again equal to or greater than the specified value, the difference is further reflected and the process from step 202 to step 205 is repeated. If the difference does not fall below the specified value even after a certain number of repetitions, the process ends as a failure based on the judgment in step 208.

以上説明したフローにより、複数の距離に配置された繰り返しパターンを用いてカメラの位置角度の初期推定をした後、撮像画像を繰り返しパターンと非繰り返しパターンが両方描かれたパネルに対して正対化させて左右カメラの距離差を補正し、カメラ間の相対角度誤差を補正している。これにより、例えば、セパレート型カメラのように2つのカメラを別の筐体に収めて車両に搭載する場合など、左右カメラの相対関係が不明な車載ステレオカメラシステムであっても、精度の高い視差補正を行って正確なキャリブレーションを実行することが可能になる。 The flow described above uses repeating patterns arranged at multiple distances to make an initial estimate of the camera position angle, then the captured image is aligned with a panel on which both repeating and non-repeating patterns are drawn to correct the distance difference between the left and right cameras, thereby correcting the relative angle error between the cameras. This makes it possible to perform highly accurate parallax correction and perform accurate calibration, even in an in-vehicle stereo camera system where the relative relationship between the left and right cameras is unknown, such as when two cameras are mounted on a vehicle in separate housings, such as a separate camera.

図3に本発明の一実施例で使用するチャート板配置の一例を示す。図3は上方から俯瞰した配置図である。本実施例においては、既述の通り301は繰り返しパターンと非繰り返しパターンとが配置された第二のチャート板、302及び303は繰り返しパターンのみが配置された第一のチャート板であり、304及び305はカメラユニットである。 Figure 3 shows an example of a screen layout used in one embodiment of the present invention. Figure 3 is a diagram of the layout as seen from above. In this embodiment, as mentioned above, 301 is a second screen on which a repeating pattern and a non-repeating pattern are arranged, 302 and 303 are first screens on which only a repeating pattern is arranged, and 304 and 305 are camera units.

第二のチャート板301に配置される繰り返しパターンと非繰り返しパターンの例を図4及び図5に示す。まず図4において、401及び402は繰り返しパターン、403は非繰り返しパターンである。また図5において501及び502は非繰り返しパターン、503は繰り返しパターンである。非繰り返しパターンは繰り返しパターンの1つと同一平面上にある必要があるため、図3で説明した、複数配置されるチャートの1つは繰り返しパターンと非繰り返しパターンが描かれたチャートになる。第二のチャート板301に非繰り返しパターンと繰り返しパターンが同一平面上に描かれていることで、繰り返しパターンが描かれたチャート板に対する正対化処理を行うと同時に非繰り返しパターンに対する正対化処理を行うことができ、視差算出部117による非繰り返しパターンを用いた視差算出精度を高めることができる。結果として、カメラ間の相対角度誤差を高精度に求めることができる。さらに、本実施例において非繰り返しパターンが描かれた第二のチャート板301は繰り返しパターンのみが描かれた第一のチャート板302及び303よりもカメラから遠い位置に配置されている。これは、非繰り返しパターンはカメラの視差測定に用いられるものであるが、カメラから非繰り返しパターンまでの距離が遠ければ遠いほど視差測定の精度が高まるからである。 Examples of repeating and non-repeating patterns arranged on the second screen 301 are shown in Fig. 4 and Fig. 5. First, in Fig. 4, 401 and 402 are repeating patterns, and 403 is a non-repeating pattern. Also, in Fig. 5, 501 and 502 are non-repeating patterns, and 503 is a repeating pattern. Since the non-repeating pattern needs to be on the same plane as one of the repeating patterns, one of the charts arranged in Fig. 3 is a chart with repeating and non-repeating patterns drawn on it. By drawing the non-repeating and repeating patterns on the same plane on the second screen 301, it is possible to perform a normalization process on the screen with the repeating pattern and a normalization process on the non-repeating pattern at the same time, and the accuracy of the parallax calculation using the non-repeating pattern by the parallax calculation unit 117 can be improved. As a result, the relative angle error between the cameras can be calculated with high accuracy. Furthermore, in this embodiment, the second screen 301 with the non-repeating pattern drawn on it is placed farther from the camera than the first screens 302 and 303 with only the repeating pattern drawn on them. This is because the non-repeating pattern is used to measure the camera's disparity, and the greater the distance between the camera and the non-repeating pattern, the more accurate the disparity measurement.

なお繰り返しパターンは図4では円模様を格子状に並べたものであり、図5ではチェスボードタイプの格子模様であるが、特徴となる点の検出が容易で、規則正しく多数を並べることによって画像上での検出誤差が出にくいパターンであれば、これらの例に限られるものではない。また非繰り返しパターンは図4、図5ともに非繰り返しパターンであるが、同一パターンが複数個所に発生しにくいパターンであれば問題はない。図4は繰り返しパターンが2か所で非繰り返しパターンが1か所の例であり、図5は逆に繰り返しパターンが1か所で非繰り返しパターンが2か所の例であるが、パターンの数はこれに限るものではない。さらに図3においてチャート板302と303は繰り返しパターンのみで構成されるので、図4及び図5に示した繰り返しパターンと同じものとなる。繰り返しパターンの図柄は全てのチャートで同じであれば同じ検出方法を用いることができるので、同一にすることが望ましいが、異なる図柄を用いることも可能である。 The repeating pattern in Fig. 4 is a grid of circles, and in Fig. 5 is a chessboard-type grid pattern, but it is not limited to these examples as long as the pattern is easy to detect the characteristic points and is arranged in a regular pattern so that detection errors on the image are unlikely to occur. The non-repeating patterns in both Fig. 4 and Fig. 5 are non-repeating patterns, but there is no problem as long as the same pattern is unlikely to occur in multiple places. Fig. 4 is an example of two repeating patterns and one non-repeating pattern, and Fig. 5 is an example of one repeating pattern and two non-repeating patterns, but the number of patterns is not limited to these. Furthermore, in Fig. 3, chart boards 302 and 303 are composed only of repeating patterns, so they are the same as the repeating patterns shown in Figs. 4 and 5. If the design of the repeating patterns is the same for all charts, the same detection method can be used, so it is preferable to make them the same, but it is also possible to use different designs.

図3ではカメラの向きがチャート板にほぼ正対するように、全てのチャート板が床に垂直に立つ構成としたが、繰り返しパターンのみで構成される第一のチャート板(図3における302及び303)はカメラに対して正対化しなくても良いので、垂直に立てる必要はない。例えば床面や天井面に張り付けるような配置とすることも可能である。横方向に十分な空間が存在しない場合は、壁面に張り付けることも可能である。 In Figure 3, all screens are set up vertically on the floor so that the camera faces them almost directly, but the first screen (302 and 303 in Figure 3), which is made up only of a repeating pattern, does not need to be set up vertically as it does not need to be directly facing the camera. For example, it is also possible to attach it to the floor or ceiling. If there is not enough space horizontally, it is also possible to attach it to the wall.

以上で説明した本発明の実施例により、以下の作用効果が得られる。 The above-described embodiment of the present invention provides the following effects:

(1)本発明に係る画像処理システムは、複数の撮像装置と、繰り返しパターンである第一のチャートが描かれた、複数の撮像装置から第一の距離を隔てた位置に配置された第一のチャート板と、繰り返しパターン及び非繰り返しパターンが描かれた、複数の撮像装置から第二の距離を隔てた位置に配置された第二のチャート板と、画像処理装置と、を備える画像処理システムであって、画像処理装置は、複数の撮像装置が撮像した繰り返しパターンの撮像結果に基づいて、複数の撮像装置の各々の位置および角度を推定する位置角度推定部と、位置角度推定部の推定結果を用いて、画像処理によって複数の撮像装置の光軸を平行化させる平行化光軸作成部と、平行化光軸作成部の処理結果に基づいて、複数の撮像装置が撮像する画像を平行化させた画像を作成する平行化画像作成部と、平行化画像作成部が作成した画像を用いて、複数の撮像装置が撮像する画像を第二のチャート板に対して正対化させる正対化処理部と、位置角度推定部の推定結果を用いて、正対化された画像の倍率を調整することで、複数の撮像装置の各々から第二のチャート板までの距離の測定値を補正する距離差補正部と、距離差補正部の処理結果を反映させた非繰り返しパターンの撮像結果に基づいて、複数の撮像装置が撮像する画像の視差を算出する視差算出部と、視差算出部の演算結果と、第二の距離と、に基づいて、複数の撮像装置の間の相対角度誤差補正値を計算する相対角度補正値計算部と、を備える。 (1) The image processing system of the present invention is an image processing system comprising a plurality of imaging devices, a first screen on which a first chart, which is a repeating pattern, is drawn and which is positioned at a first distance from the plurality of imaging devices, a second screen on which a repeating pattern and a non-repeating pattern are drawn and which is positioned at a second distance from the plurality of imaging devices, and an image processing device, in which the image processing device includes a position and angle estimation unit that estimates the position and angle of each of the plurality of imaging devices based on the imaging results of the repeating pattern captured by the plurality of imaging devices, a parallelization optical axis creation unit that parallelizes the optical axes of the plurality of imaging devices by image processing using the estimation results of the position and angle estimation unit, and a parallelization optical axis creation unit that performs image processing based on the processing results of the parallelization optical axis creation unit. The system includes a parallelized image creation unit that creates parallelized images of images captured by the multiple image capture devices, a parallelization processing unit that uses the images created by the parallelized image creation unit to parallelize the images captured by the multiple image capture devices with respect to the second screen, a distance difference correction unit that corrects the measured value of the distance from each of the multiple image capture devices to the second screen by adjusting the magnification of the parallelized image using the estimation result of the position angle estimation unit, a parallax calculation unit that calculates the parallax of the images captured by the multiple image capture devices based on the imaging result of the non-repeating pattern that reflects the processing result of the distance difference correction unit, and a relative angle correction value calculation unit that calculates a relative angle error correction value between the multiple image capture devices based on the calculation result of the parallax calculation unit and the second distance.

上記構成により、カメラ間の相対関係が不明なステレオカメラにおいて、視差誤差が少なく精度の高い距離測定が可能となる手段を提供することができる。 The above configuration provides a means for enabling highly accurate distance measurement with minimal parallax error in a stereo camera where the relative relationship between the cameras is unknown.

(2)第二の距離は前記第一の距離よりも遠い。第二のチャートが配置される第二の距離が第一の距離よりも遠いことで、撮像装置間の視差をより正確に測定することが可能になるため、結果として撮像装置間の相対誤差をより正確に補正することが可能になる。 (2) The second distance is greater than the first distance. By placing the second chart at a distance greater than the first distance, it becomes possible to measure the parallax between the imaging devices more accurately, and as a result, it becomes possible to correct the relative error between the imaging devices more accurately.

(3)画像処理装置は、相対角度補正値計算部が計算した相対角度誤差補正値が所定の閾値より大きい場合、エラーを発出する。これにより、当該補正値を破棄して画像取得からやり直す等の判断をすることが可能になる。 (3) If the relative angle error correction value calculated by the relative angle correction value calculation unit is greater than a predetermined threshold, the image processing device issues an error. This makes it possible to decide whether to discard the correction value and start over from image acquisition.

(4)画像処理装置は、相対角度補正値計算部が計算した相対角度誤差補正値が所定の閾値より大きい場合、該相対角度誤差補正値を複数の撮像装置に反映させた後、再度画像処理を実行する。これにより、撮像装置の微調整を繰り返し、補正の精度を高めることが可能になる。 (4) When the relative angle error correction value calculated by the relative angle correction value calculation unit is greater than a predetermined threshold, the image processing device reflects the relative angle error correction value in the multiple image capture devices and then executes image processing again. This makes it possible to repeatedly fine-tune the image capture devices and improve the accuracy of the correction.

(5)また、本発明に係る画像処理方法は、複数の撮像装置が撮像した、該複数の撮像装置から第一の距離および第二の距離を隔てた位置に配置された第一のチャート板及び第二のチャート板に描かれた、繰り返しパターンの撮像結果に基づいて、複数の撮像装置の各々の位置および角度を推定し、推定の結果を用いて、複数の撮像装置の光軸を平行化させ、平行化の結果を用いて、複数の撮像装置が撮像する画像を第二のチャート板に対して正対化させ、推定の結果を用いて、正対化された画像の倍率を調整することで複数の撮像装置の各々から第二のチャート板までの距離の測定値を補正し、距離の測定値が補正された、第二のチャート板に描かれた非繰り返しパターンの撮像結果に基づいて、複数の撮像装置が撮像する画像の視差を算出し、算出された視差と、第二の距離と、に基づいて、複数の撮像装置の間の相対角度誤差補正値を計算する。これにより、(1)と同様の効果が期待できる。また、本発明に係る方法は、(2)~(4)と同様の構成・効果をも有する。 (5) The image processing method according to the present invention estimates the position and angle of each of the multiple imaging devices based on the results of imaging a repeating pattern depicted on a first screen and a second screen located a first distance and a second distance away from the multiple imaging devices, collimates the optical axes of the multiple imaging devices using the estimation results, orients the images captured by the multiple imaging devices relative to the second screen using the results of collimation, corrects the measured value of the distance from each of the multiple imaging devices to the second screen by adjusting the magnification of the orientated image using the estimation results, calculates the parallax of the images captured by the multiple imaging devices based on the results of imaging a non-repeating pattern depicted on the second screen with the distance measurement corrected, and calculates a correction value for the relative angle error between the multiple imaging devices based on the calculated parallax and the second distance. This is expected to have the same effect as (1). The method according to the present invention also has the same configuration and effect as (2) to (4).

なお、本発明は、上記の実施例に限定されるものではなく、様々な変形が可能である。例えば、上記の実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明は、必ずしも説明した全ての構成を備える態様に限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能である。また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、削除したり、他の構成を追加・置換したりすることが可能である。 The present invention is not limited to the above-mentioned examples, and various modifications are possible. For example, the above-mentioned examples have been described in detail to clearly explain the present invention, and the present invention is not necessarily limited to an embodiment that includes all of the configurations described. It is also possible to replace part of the configuration of one example with the configuration of another example. It is also possible to add the configuration of another example to the configuration of one example. It is also possible to delete part of the configuration of each example, or to add or replace other configurations.

101,102 カメラ(撮像装置)、107,108 カメラ位置角度推定部(位置角度推定部)、110 平行化光軸作成部、111,112 平行化画像作成部、113,114 正対化処理部、115,116 距離差補正部、117 視差算出部、118 相対角度補正値計算部、301 第二のチャート板 302,303 第一のチャート板 101, 102 Camera (imaging device), 107, 108 Camera position angle estimation unit (position angle estimation unit), 110 Parallel optical axis creation unit, 111, 112 Parallel image creation unit, 113, 114 Orientation processing unit, 115, 116 Distance difference correction unit, 117 Parallax calculation unit, 118 Relative angle correction value calculation unit, 301 Second screen 302, 303 First screen

Claims (8)

複数の撮像装置と、
繰り返しパターンが描かれた、前記複数の撮像装置から第一の距離を隔てた位置に配置された第一のチャート板と、繰り返しパターン及び非繰り返しパターンが描かれた、前記複数の撮像装置から第二の距離を隔てた位置に配置された第二のチャート板と、
画像処理装置と、を備える画像処理システムであって、
前記画像処理装置は、
前記複数の撮像装置が撮像した前記繰り返しパターンの撮像結果に基づいて、前記複数の撮像装置の各々の位置および角度を推定する位置角度推定部と、
前記位置角度推定部の推定結果を用いて、画像処理によって前記複数の撮像装置の光軸を平行化させる平行化光軸作成部と、
前記平行化光軸作成部の処理結果に基づいて、前記複数の撮像装置が撮像する画像を平行化させた画像を作成する平行化画像作成部と、
前記平行化画像作成部が作成した画像を用いて、前記複数の撮像装置が撮像する画像を前記第二のチャート板に対して正対化させる正対化処理部と、
前記位置角度推定部の推定結果を用いて、前記正対化された画像の倍率を調整することで、前記複数の撮像装置の各々から前記第二のチャート板までの距離の測定値を補正する距離差補正部と、
前記距離差補正部の処理結果を反映させた前記非繰り返しパターンの撮像結果に基づいて、前記複数の撮像装置が撮像する画像の視差を算出する視差算出部と、
前記視差算出部の演算結果と、前記第二の距離と、に基づいて、前記複数の撮像装置の間の相対角度誤差補正値を計算する相対角度補正値計算部と、を備える、
ことを特徴とする画像処理システム。
A plurality of imaging devices;
a first screen having a repeating pattern and positioned a first distance from the plurality of image capture devices; and a second screen having a repeating pattern and a non-repeating pattern and positioned a second distance from the plurality of image capture devices.
An image processing system comprising:
The image processing device includes:
a position and angle estimation unit that estimates a position and an angle of each of the plurality of imaging devices based on an imaging result of the repeating pattern captured by the plurality of imaging devices;
a parallelized optical axis creation unit that parallelizes the optical axes of the plurality of image capture devices by image processing using the estimation result of the position angle estimation unit;
a parallelized image creation unit that creates a parallelized image by parallelizing the images captured by the plurality of image capture devices based on a processing result of the parallelization optical axis creation unit;
a rectification unit which rectifies the images captured by the plurality of image capture devices relative to the second screen using the images created by the rectification image creation unit;
a distance difference correction section which corrects the measured distance from each of the plurality of image capture devices to the second screen by adjusting the magnification of the orthogonalized image using the result of estimation by the position and angle estimator;
a parallax calculation unit that calculates parallax of images captured by the plurality of imaging devices based on an imaging result of the non-repeated pattern reflecting a processing result of the distance difference correction unit;
a relative angle correction value calculation unit that calculates a relative angle error correction value between the plurality of image capture devices based on a calculation result of the parallax calculation unit and the second distance.
1. An image processing system comprising:
請求項1に記載された画像処理システムであって、
前記第二の距離は前記第一の距離よりも遠い、
ことを特徴とする画像処理システム。
2. The image processing system according to claim 1,
the second distance is greater than the first distance;
1. An image processing system comprising:
請求項1に記載の画像処理システムであって、
前記画像処理装置は、前記相対角度補正値計算部が計算した前記相対角度誤差補正値が所定の閾値より大きい場合、エラーを発出する、
ことを特徴とする画像処理システム。
2. The image processing system according to claim 1,
The image processing device issues an error when the relative angle error correction value calculated by the relative angle correction value calculation unit is greater than a predetermined threshold value.
1. An image processing system comprising:
請求項1に記載の画像処理システムであって、
前記画像処理装置は、前記相対角度補正値計算部が計算した前記相対角度誤差補正値が所定の閾値より大きい場合、該相対角度誤差補正値を前記複数の撮像装置に反映させた後、再度画像処理を実行する、
ことを特徴とする画像処理システム。
2. The image processing system according to claim 1,
when the relative angle error correction value calculated by the relative angle correction value calculation unit is greater than a predetermined threshold value, the image processing device reflects the relative angle error correction value in the plurality of image capturing devices and then performs image processing again.
1. An image processing system comprising:
画像処理システムにより実行される画像処理方法であって、
複数の撮像装置が撮像した、該複数の撮像装置から第一の距離および第二の距離を隔てた位置に配置された第一のチャート板及び第二のチャート板に描かれた、繰り返しパターンの撮像結果に基づいて、前記複数の撮像装置の各々の位置および角度を推定し、
前記推定の結果を用いて、前記複数の撮像装置の光軸を平行化させ、
前記平行化の結果を用いて、前記複数の撮像装置が撮像する画像を前記第二のチャート板に対して正対化させ、
前記推定の結果を用いて、前記正対化された画像の倍率を調整することで前記複数の撮像装置の各々から前記第二のチャート板までの距離の測定値を補正し、
前記距離の測定値が補正された、前記第二のチャート板に描かれた非繰り返しパターンの撮像結果に基づいて、前記複数の撮像装置が撮像する画像の視差を算出し、
算出された前記視差と、前記第二の距離と、に基づいて、前記複数の撮像装置の間の相対角度誤差補正値を計算する、
ことを特徴とする画像処理方法。
1. An image processing method performed by an image processing system, comprising:
estimating the position and angle of each of the plurality of image capturing devices based on the captured images of a repeating pattern depicted on a first screen and a second screen that are positioned at a first distance and a second distance from the plurality of image capturing devices;
Using the result of the estimation, the optical axes of the plurality of imaging devices are collimated;
Using the result of the parallelization, the images captured by the plurality of image capturing devices are aligned in a normal direction relative to the second screen;
using the result of said estimation to correct a measurement of the distance from each of said plurality of image capture devices to said second screen by adjusting a magnification of said orthogonalized image;
calculating a parallax of the images captured by the plurality of image capture devices based on the image capture results of the non-repeating pattern drawn on the second screen after the distance measurement values have been corrected;
calculating a relative angle error correction value between the plurality of image capturing devices based on the calculated parallax and the second distance;
13. An image processing method comprising:
請求項5に記載の画像処理方法であって、
前記第二の距離は前記第一の距離よりも長い、
ことを特徴とする画像処理方法。
6. The image processing method according to claim 5,
The second distance is greater than the first distance.
13. An image processing method comprising:
請求項5に記載の画像処理方法であって、
計算された前記相対角度誤差補正値が所定の閾値より大きい場合、エラーを発出する、
ことを特徴とする画像処理方法。
6. The image processing method according to claim 5,
if the calculated relative angle error correction value is greater than a predetermined threshold, issue an error.
13. An image processing method comprising:
請求項5に記載の画像処理方法であって、
計算された前記相対角度誤差補正値が所定の閾値より大きい場合、該相対角度誤差補正値を前記複数の撮像装置に反映させた後、画像処理を再度実行する、
ことを特徴とする画像処理方法。
6. The image processing method according to claim 5,
if the calculated relative angle error correction value is greater than a predetermined threshold, the relative angle error correction value is reflected in the plurality of image capture devices, and then image processing is performed again.
13. An image processing method comprising:
JP2023180943A 2023-10-20 2023-10-20 Image processing system and image processing method Pending JP2025070540A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023180943A JP2025070540A (en) 2023-10-20 2023-10-20 Image processing system and image processing method
PCT/JP2024/035719 WO2025084174A1 (en) 2023-10-20 2024-10-07 Image processing system and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023180943A JP2025070540A (en) 2023-10-20 2023-10-20 Image processing system and image processing method

Publications (1)

Publication Number Publication Date
JP2025070540A true JP2025070540A (en) 2025-05-02

Family

ID=95448292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023180943A Pending JP2025070540A (en) 2023-10-20 2023-10-20 Image processing system and image processing method

Country Status (2)

Country Link
JP (1) JP2025070540A (en)
WO (1) WO2025084174A1 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8400505B2 (en) * 2008-05-19 2013-03-19 Panasonic Corporation Calibration method, calibration device, and calibration system including the device
JP5589823B2 (en) * 2010-12-21 2014-09-17 株式会社リコー Stereo camera calibration apparatus and calibration method
JP2018031733A (en) * 2016-08-26 2018-03-01 株式会社豊田中央研究所 Distance measuring device and distance measuring method
WO2019087253A1 (en) * 2017-10-30 2019-05-09 オリンパス株式会社 Stereo camera calibration method

Also Published As

Publication number Publication date
WO2025084174A1 (en) 2025-04-24

Similar Documents

Publication Publication Date Title
US9928595B2 (en) Devices, systems, and methods for high-resolution multi-view camera calibration
JP6041513B2 (en) Image processing apparatus, image processing method, and program
US9858684B2 (en) Image processing method and apparatus for calibrating depth of depth sensor
KR101259835B1 (en) Apparatus and method for generating depth information
US11985292B1 (en) Residual error mitigation in multiview calibration
JP2012167944A (en) Stereo camera calibration method and device
CN106548489A (en) The method for registering of a kind of depth image and coloured image, three-dimensional image acquisition apparatus
US11295478B2 (en) Stereo camera calibration method and image processing device for stereo camera
US10499038B2 (en) Method and system for recalibrating sensing devices without familiar targets
CN116071433A (en) Camera calibration method and system, and computer-readable storage medium
CN115170434B (en) Error correction method and device for line structured light 3D camera
CN115063468B (en) Binocular stereo matching method, computer storage medium and electronic equipment
CN105066962A (en) Multiresolution large visual field angle high precision photogrammetry apparatus
JP2011086111A (en) Imaging apparatus calibration method and image synthesis device
MX2012010894A (en) Three dimensional distance measuring device and method.
CN113362399B (en) Calibration method for positions and postures of focusing mirror and screen in deflection measurement system
JP4837538B2 (en) End position measuring method and dimension measuring method
CN114926538B (en) External parameter calibration method and device for monocular laser speckle projection system
JP2008224323A (en) Stereoscopic photograph measuring instrument, stereoscopic photograph measuring method, and stereoscopic photograph measuring program
Ricolfe-Viala et al. Optimal conditions for camera calibration using a planar template
JP2025070540A (en) Image processing system and image processing method
JP5648159B2 (en) Three-dimensional relative coordinate measuring apparatus and method
Okatani et al. Easy calibration of a multi-projector display system
JP5901379B2 (en) Imaging apparatus calibration method and image composition apparatus
CN110232715B (en) Method, device and system for self calibration of multi-depth camera