JP5201356B2 - On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device - Google Patents

On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device Download PDF

Info

Publication number
JP5201356B2
JP5201356B2 JP2009033228A JP2009033228A JP5201356B2 JP 5201356 B2 JP5201356 B2 JP 5201356B2 JP 2009033228 A JP2009033228 A JP 2009033228A JP 2009033228 A JP2009033228 A JP 2009033228A JP 5201356 B2 JP5201356 B2 JP 5201356B2
Authority
JP
Japan
Prior art keywords
image data
calibration
calibration support
evaluation value
vehicle camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009033228A
Other languages
Japanese (ja)
Other versions
JP2010193016A (en
Inventor
剛 丸山
亮介 笠原
剛 木邊
洋義 関口
哲哉 佐々木
雅彦 伊藤
雪 李
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2009033228A priority Critical patent/JP5201356B2/en
Publication of JP2010193016A publication Critical patent/JP2010193016A/en
Application granted granted Critical
Publication of JP5201356B2 publication Critical patent/JP5201356B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本発明は、車に設置して用いられる車載カメラ装置のキャリブレーションを利用者が簡単に行えるようにするキャリブレーション支援方法及びキャリブレーション支援装置、並びにそれを備えた車載カメラ装置に関する。   The present invention relates to a calibration support method, a calibration support apparatus, and an in-vehicle camera apparatus including the calibration support method that enable a user to easily perform calibration of an in-vehicle camera apparatus used by being installed in a car.

従来から駐車時における車両後退動作等を支援するため、車両の後方部等に設置して車両の後方周辺等を撮影し、その撮像画像を車内に設置した表示装置にモニタ表示する車載カメラが知られている。   Conventionally, an in-vehicle camera is known that is installed in the rear part of a vehicle to take a picture of the rear periphery of the vehicle, and displays the captured image on a display device installed in the vehicle in order to support the backward movement of the vehicle during parking. It has been.

従来、このような車載カメラのキャリブレーション方法としては、地面に設置されたターゲットバーや基準マーカー等の指標を車載カメラで撮像して表示装置上に表示し、該指標の表示に所定のウィンドウやマーカー等を重ね合わせてカメラの姿勢パラメータや設置情報を算出し、それをもとに画像処理を行って撮像画像を調整して、車載カメラの設置誤差をソフト的に吸収する方法が提案されている(例えば、特許文献1、特許文献2)。   Conventionally, as a method for calibrating such an in-vehicle camera, an index such as a target bar or a reference marker installed on the ground is imaged by the in-vehicle camera and displayed on a display device. A method has been proposed in which camera orientation parameters and installation information are calculated by overlaying markers, etc., and image processing is performed based on that to adjust the captured image to absorb installation errors of in-vehicle cameras in software. (For example, Patent Document 1 and Patent Document 2).

従来技術の、地面に設置されたターゲットバーや基準マーカー等の指標を車載カメラで撮像し、画像処理を行って、車載カメラの設置誤差をソフト的に吸収するキャリブレーション方法は、ターゲットバーや基準マーカー等の指標を必要とすることに加えて、回路規模や処理が増加し、コスト高になるという問題があった。   The calibration method in the prior art that captures the target bar or reference marker installed on the ground with the in-vehicle camera, performs image processing, and softly absorbs the installation error of the in-vehicle camera is the target bar or reference In addition to requiring an index such as a marker, there is a problem that the circuit scale and processing increase, resulting in high costs.

コストを軽減するためには、車載カメラの設置誤差をソフト的に吸収するキャリブレーション機能を装置に備えることをやめ、利用者が手作業でキャリブレーションを行えばよい。車載カメラの利用を考えると、その設置精度は極端に厳密である必要はなく、利用者が手作業でキャリブレーションを行っても、通常、支障をきたすことはない。手作業でキャリブレーションを行う際の問題は、試行錯誤で行うため、面倒くさく、時間が掛かることである。   In order to reduce the cost, the apparatus is not provided with a calibration function that softly absorbs the installation error of the in-vehicle camera, and the user may perform calibration manually. Considering the use of in-vehicle cameras, the installation accuracy does not need to be extremely strict, and even if a user performs calibration manually, there is usually no problem. The problem with performing calibration manually is that it is troublesome and time consuming because of trial and error.

本発明は、利用者が面倒くさがることなく、簡単に車載カメラのキャリブレーションを行うことができるキャリブレーション支援方法及びキャリブレーション支援装置、並びに低コストの車載カメラ装置を提供することにある。   An object of the present invention is to provide a calibration support method, a calibration support apparatus, and a low-cost in-vehicle camera apparatus that can easily calibrate an in-vehicle camera without being troublesome for a user.

本発明は、車載カメラで撮影された、駐車枠やそれに類似の標識を含む路面の画像データを取得し、該画像データからこれを左右反転した反転画像データを生成し、画像データと反転画像データ内の駐車枠やそれに類似の標識をもとに、車載カメラの水平方向の取り付け誤差を評価する評価値を計算し、該評価値を基に、利用者にキャリブレーション操作を通知することを主要な特徴としている。   The present invention obtains image data of a road surface including a parking frame and a similar sign taken with an in-vehicle camera, generates inverted image data obtained by horizontally inverting the image data, and generates image data and inverted image data. It is important to calculate an evaluation value for evaluating the mounting error in the horizontal direction of the in-vehicle camera based on the parking frame in the car and a similar sign, and to notify the user of the calibration operation based on the evaluation value. Features.

また、本発明は、車載カメラで撮影された画像の下半分を切り取ることで、駐車枠やそれに類似の標識を含む路面の画像データを取得することを特徴とする。   Further, the present invention is characterized in that image data of a road surface including a parking frame and a similar sign is obtained by cutting out a lower half of an image photographed by an in-vehicle camera.

また、本発明は、画像データを2値化して、それを画像データAとし、該画像データAを左右反転して反転画像データを生成して、それを画像データBとし、画像データAと画像データB内の白領域に着目して評価値を計算することを特徴としている。   In the present invention, the image data is binarized and converted into image data A. The image data A is inverted horizontally to generate inverted image data, which is converted into image data B. The image data A and the image data The evaluation value is calculated by paying attention to the white area in the data B.

また、本発明は、画像データAと画像データBとを重ね合わせた画像データCを生成し、前記画像データCを用いて、白領域の重複する割合、白領域の位置関係を計算することを特徴としている。   Further, the present invention generates image data C obtained by superimposing image data A and image data B, and uses the image data C to calculate a white area overlapping ratio and a white area positional relationship. It is a feature.

また、本発明は、表示装置及び/または音声出力装置を用いて、利用者にキャリブレーション操作を通知することを特徴としている。   In addition, the present invention is characterized in that a calibration operation is notified to a user using a display device and / or an audio output device.

また、本発明は、利用者にキャリブレーション操作を通知するメッセージ情報を複数のパターン、あらかじめ記憶装置に記憶しておき、評価値に基づいて、記憶装置から所望のパターンのメッセージ情報を読み出して通知することを特徴としている。   The present invention also stores message information for notifying the user of the calibration operation in a plurality of patterns in advance in the storage device, and reads out the message information of a desired pattern from the storage device based on the evaluation value and notifies it. It is characterized by doing.

本発明によれば、利用者が面倒くさがることなく、簡単に、しかも、所望の精度でもって、車載カメラのキャリブレーションを行うことができる。したがって、車載カメラ装置は、その設置誤差をソフト的に吸収する機能を備える必要がなく、低コスト化が達成できる。   According to the present invention, a vehicle-mounted camera can be calibrated easily and with a desired accuracy without bothering the user. Therefore, the in-vehicle camera device does not need to have a function of absorbing the installation error in software, and can achieve cost reduction.

本発明の車載カメラ装置の一実施形態の全体構成図である。1 is an overall configuration diagram of an embodiment of an in-vehicle camera device of the present invention. 図1中の校正支援処理部の一実施例のフローチャートである。It is a flowchart of one Example of the calibration assistance process part in FIG. 本発明の適用条件を説明する図である。It is a figure explaining the application conditions of this invention. 画像データAとこれを左右反転した画像データBの第1の例を示す図である。It is a figure which shows the 1st example of the image data A and the image data B which reversed this horizontally. 画像データAとこれを左右反転した画像データBの第2の例を示す図である。It is a figure which shows the 2nd example of the image data A and the image data B which reversed this horizontally. 画像データAとこれを左右反転した画像データBの第3の例を示す図である。It is a figure which shows the 3rd example of the image data A and the image data B which reversed this horizontally. 図4の画像データAと画像データBとを重ね合わせた画像データCを示す図である。FIG. 5 is a diagram showing image data C obtained by superimposing image data A and image data B in FIG. 4. 図5の画像データAと画像データBとを重ね合わせた画像データCを示す図である。FIG. 6 is a diagram illustrating image data C obtained by superimposing image data A and image data B in FIG. 5. 図6の画像データAと画像データBとを重ね合わせた画像データCを示す図である。It is a figure which shows the image data C which overlap | superposed the image data A and the image data B of FIG. キャリブレーション操作メッセージの一例を示す図である。It is a figure which shows an example of a calibration operation message. 図8に評価値の位置関係を付加した図である。It is the figure which added the positional relationship of the evaluation value to FIG. 図9に評価値の位置関係を付加した図である。It is the figure which added the positional relationship of the evaluation value to FIG.

図1は、本発明のキャリブレーション支援機能を適用した車載カメラ装置の一実施形態の全体構成図を示す。図1において、撮像装置10と処理装置20と記憶装置30は一般に一つの筐体内に構成され、車の後部等に設置される。表示装置50は車内の前面部、音声出力装置60は車内の後部などに設置され、処理装置20とはケーブル等で接続される。処理装置20と操作部40とはケーブルあるいは無線で接続される。操作部40はナビゲーション装置のリモコンが兼ねてもよい。表示装置50もナビゲーション装置の表示部が兼ねてもよい。また、音声出力装置は、音響機器のスピーカーが兼ねてもよい。   FIG. 1 is an overall configuration diagram of an embodiment of an in-vehicle camera device to which a calibration support function of the present invention is applied. In FIG. 1, the imaging device 10, the processing device 20, and the storage device 30 are generally configured in one housing and are installed at the rear of the vehicle. The display device 50 is installed in the front portion of the vehicle, the audio output device 60 is installed in the rear of the vehicle, and the like, and is connected to the processing device 20 by a cable or the like. The processing device 20 and the operation unit 40 are connected by a cable or wirelessly. The operation unit 40 may also serve as a remote controller for the navigation device. The display device 50 may also serve as a display unit of the navigation device. The audio output device may also serve as a speaker of the audio device.

撮像装置10は、車の後方等を撮影し、撮像画像データを取得する。具体的には、該撮像装置10は、広角のレンズ光学系、撮像素子、オートゲインコントロール(AGC)回路、アナログ・デジタル変換器などからなる。撮像素子は、CCDセンサやCMOSセンサなどで構成され、光学系により集光された光学像を、その光強度に応じて強弱を持った電気信号(アナログ信号)に変換する。撮像素子から出力されたアナログ信号は、AGC回路でゲイン調整された後、アナログ・デジタル変換器によりデジタル信号(撮像画像データ)に変換される。一般に撮像素子にはベイヤー配列などの色フィルタが設けられており、撮像装置10から出力されるデータは、ベイヤー配列などの撮像画像データである。なお、撮像装置10は、モノクロ撮像画像データを出力する構成でも構わない。   The imaging device 10 captures the rear of a car and acquires captured image data. Specifically, the imaging device 10 includes a wide-angle lens optical system, an imaging device, an auto gain control (AGC) circuit, an analog / digital converter, and the like. The imaging device is composed of a CCD sensor, a CMOS sensor, or the like, and converts an optical image collected by the optical system into an electric signal (analog signal) having strength according to the light intensity. The analog signal output from the image sensor is gain-adjusted by an AGC circuit and then converted to a digital signal (captured image data) by an analog / digital converter. In general, an image sensor is provided with a color filter such as a Bayer array, and data output from the imaging device 10 is captured image data such as a Bayer array. Note that the imaging apparatus 10 may be configured to output monochrome captured image data.

処理装置20は、FPGAやASIC、DSPなどで構成され、画像処理部210、校正支援処理部220、及び、これら処理部の動作を制御する制御部230などからなる。他に処理装置20は、処理部210、220や制御部230で使用される作業用メモリとしてのRAMなどを備えているが、図1では省略してある。   The processing device 20 includes an FPGA, an ASIC, a DSP, and the like, and includes an image processing unit 210, a calibration support processing unit 220, and a control unit 230 that controls operations of these processing units. In addition, the processing device 20 includes a RAM as a working memory used in the processing units 210 and 220 and the control unit 230, but is omitted in FIG.

画像処理部210は、撮像装置10から出力された撮像画像データについて、ベイヤー補完処理、倍率色収差補正処理、色空間変換処理(RGB/YCC変換)、MTF補正処理、歪曲収差補正処理、ガンマ補正処理等の所定の画像処理を実施する。画像処理部210で所定の処理を施された撮像画像データは、NTSC方式の映像信号に変換された後、表示装置50に表示される。NTSCエンコーダは、処理装置20あるいは表示装置50のいずれか備えてもよい。画像処理部210の構成は、従来と基本的に同様であるので、これ以上の詳細な説明は省略する。   The image processing unit 210 performs Bayer interpolation processing, magnification chromatic aberration correction processing, color space conversion processing (RGB / YCC conversion), MTF correction processing, distortion aberration correction processing, and gamma correction processing on the captured image data output from the imaging device 10. The predetermined image processing such as is performed. The captured image data that has been subjected to predetermined processing by the image processing unit 210 is converted into an NTSC video signal and then displayed on the display device 50. The NTSC encoder may be provided with either the processing device 20 or the display device 50. Since the configuration of the image processing unit 210 is basically the same as the conventional one, further detailed description is omitted.

校正(キャリブレーション)支援処理部220は、キャリブレーション操作時、撮像装置10から出力された撮像画像データを入力して、それを左右反転した画像データを生成し、撮像画像データと反転画像データとを比較してカメラの取り付け状態(左右の傾き)を評価する評価値を求め、該評価値に基づき利用者にキャリブレーション操作を通知する。具体的には、撮像画像データとの反転画像データ中の路上の駐車枠などの位置関係を比較して評価値を求める。利用者へのキャリブレーション操作の通知は、表示装置50及び/又は音声出力装置60によって行う。この校正支援処理部220が本発明の主要な特徴であり、その具体的処理については後述する。   The calibration support processing unit 220 receives the captured image data output from the imaging device 10 during the calibration operation, generates image data obtained by horizontally inverting the captured image data, and captures the captured image data, the inverted image data, and the like. Are compared to obtain an evaluation value for evaluating the camera mounting state (left-right inclination), and the calibration operation is notified to the user based on the evaluation value. Specifically, the evaluation value is obtained by comparing the positional relationship of the parking frame on the road in the reverse image data with the captured image data. Notification of the calibration operation to the user is performed by the display device 50 and / or the audio output device 60. The calibration support processing unit 220 is a main feature of the present invention, and specific processing will be described later.

なお、図1では、撮像装置10から出力された撮像画像データを校正支援処理部220に直接入力するとしたが、画像処理部210の途中の撮像画像データ(例えば、ベイヤー補完処理後の撮像画像データ等)、あるいは、画像処理部210から出力される画像処理後の撮像画像データを入力することでもよい。要は、評価値の演算に用いる路上の駐車枠などの基準となる白線等が認識できればよい。   In FIG. 1, the captured image data output from the imaging device 10 is directly input to the calibration support processing unit 220. However, the captured image data in the middle of the image processing unit 210 (for example, captured image data after Bayer interpolation processing). Or the like, or captured image data after image processing output from the image processing unit 210 may be input. In short, it is only necessary to recognize a white line or the like as a reference such as a parking frame on the road used for calculating the evaluation value.

記憶装置30は、PROMなどの書き換え可能な不揮発性メモリであり、処理装置20の処理部210、220や制御部230での処理や制御に必要なプログラム、種々のパラメータ、その他の情報を記憶する。後述するように、記憶装置30には、校正支援処理部220が評価値に基づいて利用者に通知するキャリブレーション操作のメッセージ情報が予め記憶されている。   The storage device 30 is a rewritable nonvolatile memory such as a PROM, and stores programs, various parameters, and other information necessary for processing and control in the processing units 210 and 220 and the control unit 230 of the processing device 20. . As will be described later, the storage device 30 stores in advance message information of a calibration operation that the calibration support processing unit 220 notifies the user of based on the evaluation value.

操作部40は、利用者が制御部230に対して種々の動作を指示するユーザインターフェースである。制御部230は、操作部40からの指示を受けて、校正支援処理部220を起動することになる。先に述べたように、車にナビゲーション装置が装備されている場合、そのリモコンが操作部40を兼ねることができる。   The operation unit 40 is a user interface that allows the user to instruct the control unit 230 to perform various operations. The control unit 230 activates the calibration support processing unit 220 in response to an instruction from the operation unit 40. As described above, when the vehicle is equipped with a navigation device, the remote controller can also serve as the operation unit 40.

図2は、本発明の主要構成である校正支援処理部(キャリブレーション支援装置)220の一実施形態の処理フローチャートを示している。以下、図2に従って校正支援処理部220の処理を詳述する。   FIG. 2 shows a process flowchart of an embodiment of the calibration support processing unit (calibration support apparatus) 220 which is the main configuration of the present invention. Hereinafter, the processing of the calibration support processing unit 220 will be described in detail with reference to FIG.

ここで、図3に示すように、車載カメラは車の中心軸上に取り付けられ、車は該車の中心軸と路上の駐車枠の中心とが略一致するように駐車しているとする。もちろん、駐車枠である必要はなく、車幅線などでもよい。キャリブレーション支援対象は、車載カメラの左右の向きの調整とし、俯角の調整は対象外とする。一般に車載カメラの俯角は、取り付ける高さにも関係し、極端でない限り任意に決めてよいものである。   Here, as shown in FIG. 3, it is assumed that the in-vehicle camera is mounted on the center axis of the car, and the car is parked so that the center axis of the car and the center of the parking frame on the road substantially coincide. Of course, the parking frame need not be a vehicle width line. The calibration support target is the adjustment of the left-right direction of the in-vehicle camera, and the adjustment of the depression angle is excluded. In general, the depression angle of the in-vehicle camera is related to the height of attachment, and can be arbitrarily determined unless it is extreme.

校正支援処理部220は、制御部230から起動されると、撮像装置10が出力する撮像画像データを入力する(ステップ1001)。先に述べたように、撮像装置10から出力される撮像画像データを直接入力するかわりに、画像処理部210の途中の画像データや画像処理部210から出力される画像データを入力することでもよい。   When the calibration support processing unit 220 is activated from the control unit 230, the calibration support processing unit 220 inputs captured image data output from the imaging device 10 (step 1001). As described above, instead of directly inputting the captured image data output from the imaging device 10, image data in the middle of the image processing unit 210 or image data output from the image processing unit 210 may be input. .

次に、校正支援処理部220は、入力した撮像画像データの下半分を切り出す。すなわち、駐車枠が含まれている路面画像部分を切り出す(ステップ1002)。そして、この切り出した路面画像部分を2値化し、画像データAとする(ステップ1003)。画像データAは、基本的に駐車枠の領域は白、それ以外の領域は黒で表わされる。なお、車載のカメラが取り付けられている高さや俯角によっては、ステップ1002を省略して、入力した撮像画像データを直接2値化し、それを画像データAとすることでもよい。   Next, the calibration support processing unit 220 cuts out the lower half of the input captured image data. That is, the road surface image portion including the parking frame is cut out (step 1002). Then, the cut-out road surface image portion is binarized to obtain image data A (step 1003). In the image data A, the parking frame area is basically expressed in white, and the other areas are expressed in black. Note that, depending on the height and depression angle at which the vehicle-mounted camera is attached, step 1002 may be omitted, and the input captured image data may be directly binarized and used as image data A.

次に、校正支援処理部220は、駐車枠を含む路面の撮像画像の2値化画像である画像データAを左右反転した反転画像データを生成し、それを画像データBとする(ステップ1004)。この処理は、単純な座標変換で実現可能であるため、詳しい説明は省略する。   Next, the calibration support processing unit 220 generates inverted image data obtained by horizontally inverting the image data A, which is a binarized image of the captured image of the road surface including the parking frame, and sets the image data B as image data B (step 1004). . Since this process can be realized by simple coordinate conversion, detailed description thereof is omitted.

図4乃至図6は画像データAとこれを左右反転した画像データBの一例を模式的に示した図である。ここで、図4は車載カメラの水平方向の向きがほぼ正常である場合の例である。また、図5は車載カメラが左方向を向いている場合の例、図6は逆に右方向を向いている場合の例である。   FIGS. 4 to 6 are diagrams schematically showing an example of the image data A and the image data B obtained by inverting the left and right. Here, FIG. 4 is an example when the horizontal direction of the in-vehicle camera is almost normal. FIG. 5 shows an example when the in-vehicle camera is facing left, and FIG. 6 is an example when the camera is facing right.

校正支援処理部220は、画像データAとそれを左右反転した画像データBとを重ね合わせて、画像データCを生成する(ステップ1005)。具体的には、例えば、画像データAの白領域(駐車枠領域)には「2」を、画像データBの白領域には「1」を割り当て、画像データAと画像データBの各画素ごとに足し算を行い、画像データCを生成する。画像データAと画像データBの黒領域は「0」とする。したがって、画像データCは、全ての画素が0〜3の値で構成されることになる。   The calibration support processing unit 220 generates image data C by superimposing the image data A and the image data B obtained by reversing the image data A (step 1005). Specifically, for example, “2” is assigned to the white area (parking frame area) of image data A, and “1” is assigned to the white area of image data B, and each pixel of image data A and image data B is assigned. Is added to generate image data C. The black areas of the image data A and the image data B are “0”. Therefore, in the image data C, all the pixels are configured with values of 0 to 3.

なお、逆に画像データBの白領域に「2」を割り当て、画像データAの白領域に「1」を割り当てることでよい。また、割り当てる値は「2」や「1」でなくてもよい。すなわち、画像データAと画像データBの白領域が区別できればよく、値は何でもよい。同様に、黒領域も「0」でなくてもよい。   Conversely, “2” may be assigned to the white area of the image data B, and “1” may be assigned to the white area of the image data A. Further, the value to be assigned may not be “2” or “1”. That is, it is sufficient that the white areas of the image data A and the image data B can be distinguished, and any value can be used. Similarly, the black area may not be “0”.

図7は、図4(a),(b)の画像データAと画像データBとを重ねわせた場合の画像データCを模式的に示したものである。ここで、aとa’は画像データAの白領域に対応し、bとb’は画像データBの白領域に対応する。画像データAと画像データBの白領域の重なる部分の各画素の画素値は「3」であり、重ならない部分は、画像データAの白領域に対応する各画素の画素値は「2」、画像データBの白領域に対応する各画素の画素値は「1」である。   FIG. 7 schematically shows the image data C when the image data A and the image data B in FIGS. 4A and 4B are overlapped. Here, a and a 'correspond to the white area of the image data A, and b and b' correspond to the white area of the image data B. The pixel value of each pixel in the overlapping portion of the white area of the image data A and the image data B is “3”, and the pixel value of each pixel corresponding to the white area of the image data A is “2”. The pixel value of each pixel corresponding to the white area of the image data B is “1”.

図8は、図5(a),(b)の画像データAと画像データBとを重ね合わせた場合の画像データCを模式的に示したものである。ここでも、aとa’は画像データAの白領域に対応し、bとb’は画像データBの白領域に対応する。図8では、画像データAと画像データBの白領域の重なる部分はなく、画像データAの白領域a,a’の各画素の画素値は「2」、画像データBの白領域b,b’の各画素の画素値は「1」である。   FIG. 8 schematically shows the image data C when the image data A and the image data B in FIGS. 5A and 5B are superimposed. Again, a and a 'correspond to the white area of the image data A, and b and b' correspond to the white area of the image data B. In FIG. 8, there is no overlapping portion of the white areas of the image data A and the image data B, the pixel value of each pixel of the white areas a and a ′ of the image data A is “2”, and the white areas b and b of the image data B The pixel value of each pixel 'is “1”.

図9は、図6(a),(b)の画像データAと画像データBとを重ね合わせた場合の画像データCを模式的に示したものである。ここでも、aとa’は画像データAの白領域に対応し、bとb’は画素データBの白領域に対応する。先の図8との相違は基本的に、aとa’と、bとb’との位置関係が逆になっているだけである。すなわち、画像データAと画像データBとを重ね合わせ、両者の白領域(駐車枠領域)の位置関係を比較することで、車載カメラが左右いずれの方向を向いているか、さらにどの程度向いているか、判別することができる。   FIG. 9 schematically shows the image data C when the image data A and the image data B in FIGS. 6A and 6B are superimposed. Again, a and a 'correspond to the white area of the image data A, and b and b' correspond to the white area of the pixel data B. The difference from FIG. 8 is basically that the positional relationship between a and a 'and b and b' is reversed. That is, by superimposing the image data A and the image data B and comparing the positional relationship between the white areas (parking frame areas) of the two, the in-vehicle camera is facing in the left or right direction, and to what extent it is facing. Can be discriminated.

校正支援処理部220は、画像データAと画像データBとを重ね合わせた画像データCを用いて、車載カメラの取り付け誤差(車載カメラが左右いずれの方向を向いているか、どの程度向いているか等)を評価する評価値で計算し(ステップ1006)、該評価値に基づいてキャリブレーション・パターンを判別する(ステップ1007)。ここでは、キャリブレーション・パターンは、図10に示す3種類とする。図10は単なる一例であり、どの程度回転させるかなど、さらに細かく分けることが可能である。以下に、ステップ1006、1007の一実施形態を説明する。   The calibration support processing unit 220 uses the image data C obtained by superimposing the image data A and the image data B, and uses the mounting error of the in-vehicle camera (whether the in-vehicle camera is facing in the left or right direction, how much is facing, etc. ) Is calculated with the evaluation value to be evaluated (step 1006), and the calibration pattern is determined based on the evaluation value (step 1007). Here, there are three types of calibration patterns shown in FIG. FIG. 10 is merely an example, and it is possible to further subdivide the degree of rotation. Hereinafter, an embodiment of steps 1006 and 1007 will be described.

校正支援処理部220では、まず、画像データCを用いて、評価値Aとして、
A=画素値3の画素の総数/(画素値2の画素の総数+画素値3の画素の総数)
を計算する。そして、評価値Aが所定の閾値(パーセント)以上の場合、パターン1と判別する。すなわち、車載カメラの向きは正常(取り付け完了)とする。図7は、このケースを示している。
The calibration support processing unit 220 first uses the image data C as the evaluation value A,
A = total number of pixels with pixel value 3 / (total number of pixels with pixel value 2 + total number of pixels with pixel value 3)
Calculate When the evaluation value A is equal to or greater than a predetermined threshold (percent), the pattern 1 is determined. That is, the direction of the in-vehicle camera is normal (attachment complete). FIG. 7 shows this case.

パターン1でない場合、次に校正支援処理部220では、評価値B,Cとして
B=画素値2の画素のX座標の平均値
C=画素値1の画素のX座標の平均値
を計算する。具体的には、画像パターンCについて、画素値が2の全画素の平均座標を求め(重心)、そのX座標値を評価値Bとする。同様に、画像パターンCについて、画素値が1の全画素の平均座標を求め(重心)、そのX座標値を評価値Cとする。座標系の原点は、例えば、画面の左上隅、中央などのいずれでもよい。
If the pattern is not 1, the calibration support processing unit 220 calculates the average value of the X coordinate of the pixel having the pixel value 2 as C = the average value of the X coordinate of the pixel having the pixel value 1 as the evaluation values B and C. Specifically, for the image pattern C, the average coordinates of all the pixels having a pixel value of 2 are obtained (center of gravity), and the X coordinate value is set as the evaluation value B. Similarly, for the image pattern C, the average coordinate of all the pixels having a pixel value of 1 is obtained (center of gravity), and the X coordinate value is set as the evaluation value C. The origin of the coordinate system may be, for example, the upper left corner or the center of the screen.

そして、この評価値Bと評価値Cの大小関係を比較して、B>Cであれば、パターン2と判別する。すなわち、車載カメラは左の方向を向いていると判別する。図8はこのケースを示している。また、図11は、この場合の評価値BとCの位置関係を示したものである。   Then, the magnitude relationship between the evaluation value B and the evaluation value C is compared. If B> C, the pattern 2 is determined. That is, it is determined that the in-vehicle camera is facing the left direction. FIG. 8 shows this case. FIG. 11 shows the positional relationship between the evaluation values B and C in this case.

逆に、C>Bであれば、パターン3と判別する。すなわち、車載カメラは右の方向を向いていると判別する。図9はこのケースを示している。また、図12は、この場合の評価値BとCの位置関係を示したものである。   Conversely, if C> B, the pattern 3 is determined. That is, it is determined that the in-vehicle camera is facing the right direction. FIG. 9 shows this case. FIG. 12 shows the positional relationship between the evaluation values B and C in this case.

図8及び図9は、分かりやすいように、傾きが大きく、画像データAとその左右反転の画像データBの白領域が全く重ならない場合を示したが、傾きが小さく、両者の白領域が一部重なる場合でも、同様にして評価値BとCを求め、その大小関係を比較することで、傾いている方向を判別することができる。また、評価値BとCの差を求めれば、どの程度傾いてるかも判別することができる。   FIGS. 8 and 9 show a case where the inclination is large and the white area of the image data A and the horizontally inverted image data B do not overlap at all. Even in the case of overlapping, the evaluation values B and C are obtained in the same manner, and the direction of inclination can be determined by comparing the magnitude relationship. Further, if the difference between the evaluation values B and C is obtained, it is possible to determine how much it is inclined.

なお、評価値A,B,Cは、画面の左や右半分に着目して計算することでもよい。車載カメラの左右の傾きが小さい場合、これでも同様の作用効果を得ることができる。   The evaluation values A, B, and C may be calculated by paying attention to the left and right halves of the screen. When the left-right inclination of the in-vehicle camera is small, the same effect can be obtained even with this.

校正支援処理部220は、判別されたパターンをもとに、利用者にキャリブレーションの操作を通知する(ステップ1008)。通知は、表示装置50や音声出力装置60を用いて行う。具体的には、例えば、図10のようなテーブルをあらかじめ記憶装置30に用意しておき、パターン1,2,3をもとに、対応するメッセージを読み出し、表示装置50に表示して通知するか、音声出力装置60から音声で通知する。先にのべたように、図10は単なる一例であり、さらに細かく分けることが可能である。例えば、パターン2は、(1)カメラが左に大きく向いています、右に大きく回転してください、(2)カメラが左に少し向いています、右に若干回転してください、などに細分することができる。これは、評価値BとCの差を求めることで、容易に可能である。   The calibration support processing unit 220 notifies the user of the calibration operation based on the determined pattern (step 1008). Notification is performed using the display device 50 and the audio output device 60. Specifically, for example, a table as shown in FIG. 10 is prepared in the storage device 30 in advance, and a corresponding message is read based on the patterns 1, 2, and 3, and displayed on the display device 50 for notification. Alternatively, the voice output device 60 notifies the user by voice. As described above, FIG. 10 is merely an example, and can be further divided. For example, pattern 2 is subdivided into (1) the camera is facing the left greatly, rotate it to the right, (2) the camera is facing a little to the left, rotate it slightly to the right, etc. be able to. This is easily possible by obtaining the difference between the evaluation values B and C.

なお、校正支援処理部220は、判別したパターンを制御部230に送り、制御部230が記憶装置30から該当するメッセージを読み出して表示装置50や音声装置60に出力することでもよい。   Note that the calibration support processing unit 220 may send the determined pattern to the control unit 230, and the control unit 230 may read out the corresponding message from the storage device 30 and output it to the display device 50 or the audio device 60.

以上、本発明の一実施形態について説明したが、もちろん、本発明は、図1の構成や図2の処理に限定されるものではなく、後述の特許請求の範囲の記載の範囲内において種々の変更が可能である。   As mentioned above, although one embodiment of the present invention has been described, of course, the present invention is not limited to the configuration of FIG. 1 and the processing of FIG. It can be changed.

10 撮像装置
20 処理装置
30 記憶装置
40 操作部
50 表示装置
60 音声出力装置
210 画像処理部
220 校正支援処理部
230 制御部
DESCRIPTION OF SYMBOLS 10 Imaging device 20 Processing apparatus 30 Storage apparatus 40 Operation part 50 Display apparatus 60 Audio | voice output apparatus 210 Image processing part 220 Calibration support processing part 230 Control part

特開2001−245326号公報JP 2001-245326 A 特開2004−200819号公報JP 2004-200819 A

Claims (13)

利用者による車載カメラのキャリブレーションを支援するキャリブレーション支援方法であって、
車載カメラで撮影された、駐車枠やそれに類似の標識を含む路面の画像データを取得し、
前記画像データから、該画像データを左右反転した反転画像データを生成し、
前記画像データと前記反転画像データ内の駐車枠やそれに類似の標識をもとに、車載カメラの水平方向の取り付け誤差を評価する評価値を計算し、
前記評価値を基に、利用者にキャリブレーション操作を通知する、
ことを特徴とするキャリブレーション支援方法。
A calibration support method for supporting calibration of a vehicle-mounted camera by a user,
Obtain image data of the road surface, including parking frames and similar signs, taken with the in-vehicle camera,
From the image data, generate inverted image data obtained by horizontally inverting the image data,
Based on the parking frame in the image data and the reverse image data and a similar sign to it, an evaluation value for evaluating the mounting error in the horizontal direction of the in-vehicle camera is calculated,
Based on the evaluation value, a calibration operation is notified to the user.
A calibration support method characterized by the above.
車載カメラで撮影された画像の下半分を切り取ることで、駐車枠やそれに類似の標識を含む路面の画像データを取得することを特徴とする請求項1に記載のキャリブレーション支援方法。   The calibration support method according to claim 1, wherein image data of a road surface including a parking frame and a similar sign is obtained by cutting out a lower half of an image photographed by an in-vehicle camera. 前記画像データを2値化して、それを画像データAとし、
前記画像データAを左右反転して反転画像データを生成して、それを画像データBとし、
前記画像データAと前記画像データB内の白領域に着目して評価値を計算する、
ことを特徴とする請求項1又は2に記載のキャリブレーション支援方法。
The image data is binarized and used as image data A,
The image data A is reversed left and right to generate inverted image data, which is set as image data B,
The evaluation value is calculated by paying attention to the white area in the image data A and the image data B.
The calibration support method according to claim 1 or 2, characterized in that
前記画像データAと前記画像データBとを重ね合わせた画像データCを生成し、
前記画像データCを用いて、白領域の重複する割合、白領域の位置関係を計算する、
ことを特徴とする請求項3に記載のキャリブレーション支援方法。
Generating image data C obtained by superimposing the image data A and the image data B;
Using the image data C, the white area overlap ratio and the white area positional relationship are calculated.
The calibration support method according to claim 3.
表示装置及び/または音声出力装置を用いて、利用者にキャリブレーション操作を通知する、
ことを特徴とする請求項1乃至4のいずれか1項に記載のキャリブレーション支援方法。
Notifying the user of the calibration operation using the display device and / or the audio output device,
The calibration support method according to any one of claims 1 to 4, wherein:
利用者にキャリブレーション操作を通知するメッセージ情報を複数のパターン、あらかじめ記憶手段に記憶しておき、評価値に基づいて、前記記憶手段から所望のパターンのメッセージ情報を読み出して通知する、
ことを特徴とする請求項1乃至5のいずれか1項に記載のキャリブレーション支援方法。
Message information for notifying the user of the calibration operation is stored in a plurality of patterns in advance in the storage unit, and based on the evaluation value, the message information of a desired pattern is read from the storage unit and notified.
The calibration support method according to any one of claims 1 to 5, wherein:
利用者による車載カメラのキャリブレーションを支援するキャリブレーション支援装置であって、
車載カメラで撮影された、駐車枠やそれに類似の標識を含む路面の画像データを取得する手段と、
前記画像データから、該画像データを左右反転した反転画像データを生成する手段と、
前記画像データと前記反転画像データ内の駐車枠やそれに類似の標識をもとに、車載カメラの水平方向の取り付け誤差を評価する評価値を計算する手段と、
前記評価値を基に、利用者にキャリブレーション操作を通知する手段と、
を有することを特徴とするキャリブレーション支援装置。
A calibration support device for supporting calibration of a vehicle-mounted camera by a user,
Means for acquiring image data of a road surface including a parking frame or a similar sign taken by an in-vehicle camera;
Means for generating, from the image data, inverted image data obtained by horizontally inverting the image data;
Means for calculating an evaluation value for evaluating a mounting error in a horizontal direction of the in-vehicle camera, based on a parking frame in the image data and the reverse image data or a sign similar thereto;
Means for notifying the user of the calibration operation based on the evaluation value;
A calibration support apparatus characterized by comprising:
前記画像データを取得する手段は、車載カメラで撮影された画像の下半分を切り取ることで、駐車枠やそれに類似の標識を含む路面の画像データを取得することを特徴とする請求項7に記載のキャリブレーション支援装置。   The said image data acquisition means acquires the image data of the road surface containing a parking frame and its similar mark by cutting out the lower half of the image image | photographed with the vehicle-mounted camera. Calibration support device. 前記画像データを取得する手段は、前記画像データを2値化して、それを画像データAとし、
前記反転画像データを生成する手段は、前記画像データAを左右反転して反転画像データを生成して、それを画像データBとし、
前記評価値を計算する手段は、前記画像データAと前記画像データB内の白領域に着目して評価値を計算する、
ことを特徴とする請求項7又は8に記載のキャリブレーション支援装置。
The means for acquiring the image data binarizes the image data and sets it as image data A,
The means for generating the inverted image data generates the inverted image data by horizontally inverting the image data A, which is set as the image data B,
The means for calculating the evaluation value calculates the evaluation value by paying attention to white areas in the image data A and the image data B.
The calibration support apparatus according to claim 7 or 8, characterized in that
前記画像データAと前記画像データBとを重ね合わせた画像データCを生成する手段をさらに有し、
前記評価値を計算する手段は、前記画像データCを用いて、白領域の重複する割合、白領域の位置関係を計算する、
ことを特徴とする請求項9に記載のキャリブレーション支援装置。
Means for generating image data C obtained by superimposing the image data A and the image data B;
The means for calculating the evaluation value uses the image data C to calculate a white area overlapping ratio and a white area positional relationship.
The calibration support apparatus according to claim 9.
前記利用者にキャリブレーション操作を通知する手段は、表示装置及び/または音声出力装置を用いて通知する、
ことを特徴とする請求項7乃至10のいずれか1項に記載のキャリブレーション支援装置。
The means for notifying the user of the calibration operation is notified using a display device and / or an audio output device.
The calibration support device according to claim 7, wherein the calibration support device is a calibration support device.
利用者にキャリブレーション操作を通知するメッセージ情報を複数のパターン、あらかじめ記憶した記憶手段を有し、
前記利用者にキャリブレーション操作を通知する手段は、評価値に基づいて、前記記憶手段から所望のパターンのメッセージ情報を読み出して通知する、
ことを特徴とする請求項7乃至11のいずれか1項に記載のキャリブレーション支援装置。
A plurality of patterns of message information for notifying the user of the calibration operation, storage means for storing in advance,
The means for notifying the user of the calibration operation reads out and notifies the message information of a desired pattern from the storage means based on the evaluation value.
The calibration support apparatus according to any one of claims 7 to 11, wherein
車に取り付け、車の周囲を撮影し、撮影した画像を処理し、表示装置に表示する車載カメラ装置であって、
請求項7乃至12のいずれか1項に記載のキャリブレーション支援装置を備えていることを特徴とする車載カメラ装置。
An in-vehicle camera device that is attached to a car, photographs the surroundings of the car, processes the captured image, and displays the image on a display device,
An in-vehicle camera device comprising the calibration support device according to any one of claims 7 to 12.
JP2009033228A 2009-02-16 2009-02-16 On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device Expired - Fee Related JP5201356B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009033228A JP5201356B2 (en) 2009-02-16 2009-02-16 On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009033228A JP5201356B2 (en) 2009-02-16 2009-02-16 On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device

Publications (2)

Publication Number Publication Date
JP2010193016A JP2010193016A (en) 2010-09-02
JP5201356B2 true JP5201356B2 (en) 2013-06-05

Family

ID=42818617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009033228A Expired - Fee Related JP5201356B2 (en) 2009-02-16 2009-02-16 On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device

Country Status (1)

Country Link
JP (1) JP5201356B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116176576B (en) * 2023-04-25 2023-07-14 巨野金牛车业有限公司 Trailer collision intelligent early warning system and method based on artificial intelligence

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1141521A (en) * 1997-05-20 1999-02-12 Matsushita Electric Ind Co Ltd Image pickup device, instrument and method for measuring distance between vehicles
JP3551920B2 (en) * 1999-12-24 2004-08-11 アイシン精機株式会社 In-vehicle camera calibration device and calibration method
JP2004200819A (en) * 2002-12-17 2004-07-15 Clarion Co Ltd Method of calibrating mounted camera and calibrator
JP4238663B2 (en) * 2003-08-29 2009-03-18 トヨタ自動車株式会社 On-vehicle camera calibration method and calibration apparatus
JP4820221B2 (en) * 2006-06-29 2011-11-24 日立オートモティブシステムズ株式会社 Car camera calibration device and program
US20100007734A1 (en) * 2007-01-16 2010-01-14 Pioneer Corporation Vehicular image processing device, and vehicular image processing program
JP4863922B2 (en) * 2007-04-18 2012-01-25 三洋電機株式会社 Driving support system and vehicle

Also Published As

Publication number Publication date
JP2010193016A (en) 2010-09-02

Similar Documents

Publication Publication Date Title
JP4861034B2 (en) Car camera calibration system
JP5316805B2 (en) In-vehicle camera device image adjustment device and in-vehicle camera device
US8036482B2 (en) Image processing apparatus and method, program, and recording medium
JP5615441B2 (en) Image processing apparatus and image processing method
JP4975592B2 (en) Imaging device
JP5505764B2 (en) On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device
JP5493340B2 (en) Projection display apparatus and arrangement relation detection method
JP2010283567A (en) Imaging apparatus and device for providing vehicle peripheral image
JP2007189369A (en) Device for detecting dirt of camera lens, and image display system
JP2010016805A (en) Image processing apparatus, driving support system, and image processing method
JP2012156672A (en) Vehicle periphery monitoring device
JP2010188765A (en) Device and method for determining photometric region
JP5201356B2 (en) On-vehicle camera device calibration support method, calibration support device, and on-vehicle camera device
JP2007158639A (en) Car driving support apparatus
JP2007266703A (en) Display control apparatus
JP2009123131A (en) Imaging apparatus
WO2016157873A1 (en) Image capturing device, image capturing system, and vehicle
JP2010183294A (en) Image processing apparatus, method of processing image, and program
JP2007189361A (en) Image sensor and camera using the same
KR20100019605A (en) Rear camera display system
JP2023046930A (en) Method for installing camera unit, movable body, image processing system, image processing method, and computer program
JP4747670B2 (en) Image processing device
JP4611898B2 (en) Image display system
JP2007295028A (en) Stereoscopic image imaging apparatus
JP5606774B2 (en) Video display device and video display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130129

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160222

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees