JP4710653B2 - In-vehicle image processing apparatus and vehicle image processing method - Google Patents

In-vehicle image processing apparatus and vehicle image processing method Download PDF

Info

Publication number
JP4710653B2
JP4710653B2 JP2006056573A JP2006056573A JP4710653B2 JP 4710653 B2 JP4710653 B2 JP 4710653B2 JP 2006056573 A JP2006056573 A JP 2006056573A JP 2006056573 A JP2006056573 A JP 2006056573A JP 4710653 B2 JP4710653 B2 JP 4710653B2
Authority
JP
Japan
Prior art keywords
camera
conversion table
address conversion
vehicle
address
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006056573A
Other languages
Japanese (ja)
Other versions
JP2006277738A (en
Inventor
政康 鈴木
大泉  謙
健 赤塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2006056573A priority Critical patent/JP4710653B2/en
Publication of JP2006277738A publication Critical patent/JP2006277738A/en
Application granted granted Critical
Publication of JP4710653B2 publication Critical patent/JP4710653B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Image Input (AREA)
  • Image Processing (AREA)

Description

本発明は、車両周囲を撮像して、当該画像を視点変換し、車両周囲の俯瞰画像を運転者等に提示する車載画像処理装置及び車両用画像処理方法に関する。   The present invention relates to an in-vehicle image processing apparatus and a vehicle image processing method for capturing an image of a vehicle periphery, converting the viewpoint of the image, and presenting an overhead image of the vehicle periphery to a driver or the like.

従来より、車両に取り付けられたカメラにより撮像された画像データを、俯瞰画像データに変換して、当該俯瞰画像を車両内のモニタに表示するための技術としては、下記の特許文献1などに記載された車載画像処理装置が知られている。   Conventionally, a technique for converting image data captured by a camera attached to a vehicle into overhead image data and displaying the overhead image on a monitor in the vehicle is described in Patent Document 1 below. An in-vehicle image processing apparatus is known.

この車載画像処理装置は、路面と車体に取り付けられたカメラとの角度を、グローバル座標系(カメラ座標系)におけるピッチ角[deg]として検出し、当該ピッチ角に基づいて、カメラで撮像されたカメラ画像データを俯瞰画像データに変換するためのアドレス変換テーブルを作成している。すなわち、この車載画像処理装置では、カメラの車体に対する取り付け状態を表すグローバル座標系(カメラ座標系)におけるピッチ角に基づいてアドレス変換テーブルを作成し、このピッチ角に基づき作成したアドレス変換テーブルを用いてカメラの画像データを俯瞰画像データに変換することによって、カメラの車体に対する取り付け状態に応じた最適な俯瞰画像をモニタに表示できるとしている。
特開2004−64441号公報
This in-vehicle image processing apparatus detects an angle between a road surface and a camera attached to a vehicle body as a pitch angle [deg] in a global coordinate system (camera coordinate system), and is imaged by the camera based on the pitch angle. An address conversion table for converting camera image data to overhead image data is created. That is, in this in-vehicle image processing device, an address conversion table is created based on a pitch angle in a global coordinate system (camera coordinate system) that represents the mounting state of the camera on the vehicle body, and the address conversion table created based on this pitch angle is used. By converting the image data of the camera to the overhead image data, it is possible to display an optimal overhead image according to the attachment state of the camera to the vehicle body on the monitor.
JP 2004-64441 A

ところで、上述の車載画像処理装置において、車両の前後左右方向のそれぞれを撮像方向とした4台のカメラを使用して車両周囲全域を車両上方の仮想視点から見下ろした俯瞰画像を表示させるためには、4台のカメラのそれぞれの各画素データを、アドレス変換テーブルを用いて俯瞰画像を構成する各画素にそれぞれ置き換えて俯瞰画像データを作成する必要がある。すなわち、車両周囲全域を車両上方の仮想視点から見下ろした俯瞰画像を作成するためのアドレス変換テーブルは、4台それぞれのカメラのカメラ番号と、4枚のカメラ画像データを入力するそれぞれの入力バッファ上のアドレスと、モニタに俯瞰画像データを出力するための出力バッファ上のアドレスとの対応表となり、上述の車載画像処理装置では、このようなアドレス変換テーブルを装置内部で作成する必要がある。   By the way, in the above-mentioned in-vehicle image processing device, in order to display an overhead image in which the entire area around the vehicle is looked down from a virtual viewpoint above the vehicle using four cameras having the imaging directions in the front-rear and left-right directions of the vehicle. It is necessary to replace the respective pixel data of the four cameras with the respective pixels constituting the overhead image using the address conversion table to create the overhead image data. That is, the address conversion table for creating a bird's-eye view looking down from the virtual viewpoint above the vehicle on the entire area around the vehicle is on the respective input buffers for inputting the camera numbers of the four cameras and the four camera image data. And the address on the output buffer for outputting the overhead image data to the monitor. In the above-described in-vehicle image processing apparatus, it is necessary to create such an address conversion table inside the apparatus.

以上のような車両周囲全域を車両上方の仮想視点から見下ろした俯瞰画像を作成する場合、4枚のカメラ画像を組み合わせて、画像間の継ぎ目が一致し、且つ歪みのない完全な俯瞰画像を作成するためには、それぞれのカメラの車体への実際の取付位置、それぞれのカメラの実際の取付方向と、アドレス変換テーブルを作成する際に算出されるカメラ取付位置、カメラ取付方向、レンズファイルとが、誤差無く完全に一致している必要がある。つまり、カメラの取付位置及び取付方向にずれが生じている状態で、正規の取付位置及び取付方向で撮像したカメラ画像データを変換するアドレス変換テーブルを使用して俯瞰画像を作成した場合には、各カメラ画像データを変換した俯瞰画像内の継ぎ目の不一致や歪みが発生してしまう。このような俯瞰画像の歪み等の原因となるカメラ取付位置及び取付方向のずれは、工場やディーラなどにおけるカメラ取付作業において車両ごとに必ず生じてしまうものである。   When creating a bird's-eye view looking down from the virtual viewpoint above the vehicle as described above, the four camera images are combined to create a complete bird's-eye view with matching seams between the images and without distortion. To do this, the actual mounting position of each camera on the vehicle body, the actual mounting direction of each camera, and the camera mounting position, camera mounting direction, and lens file calculated when creating the address conversion table are , It must match perfectly without error. In other words, when an overhead view image is created using an address conversion table that converts camera image data captured at the normal mounting position and mounting direction in a state where there is a shift in the camera mounting position and mounting direction, A mismatch or distortion of the seam in the overhead image obtained by converting each camera image data occurs. Such a shift in the camera mounting position and mounting direction that causes distortion of the overhead view image or the like is inevitably caused for each vehicle in a camera mounting operation in a factory or a dealer.

これに対し、上述した特許文献1に記載の車載画像処理装置では、カメラの車体に対する取付状態に応じたアドレス変換テーブルを装置内部で作成するようにしているので、カメラ取付位置及び取付方向のずれに起因する俯瞰画像のずれや歪みを大幅に低減させることはできるが、カメラの取付誤差を検出して、当該取付誤差に基づいてアドレス変換テーブルを装置内部で再計算するには、車載画像処理装置の処理負荷が高くなり、且つ演算時間を多く要する。したがって、特許文献1に記載の車載画像処理装置では、処理能力の高い演算装置を使用する必要があった。   On the other hand, in the in-vehicle image processing apparatus described in Patent Document 1 described above, an address conversion table corresponding to the mounting state of the camera with respect to the vehicle body is created inside the apparatus. In-vehicle image processing is used to detect camera mounting errors and recalculate the address conversion table inside the device based on the mounting errors. The processing load of the apparatus becomes high and a long calculation time is required. Therefore, the in-vehicle image processing apparatus described in Patent Document 1 needs to use an arithmetic device with high processing capability.

また、演算量を減らすためにカメラの取付誤差に対応した複数のアドレス変換テーブルを装置内部に記憶させ、実際の取付誤差に応じて何れかのアドレス変換テーブルを選択する場合であっても、少ない演算量でカメラの取付誤差を修正して俯瞰画像を作成することができるが、装置内部のメモリ容量が膨大となり、装置が高コストとなってしまう問題があった。   In addition, even if a plurality of address conversion tables corresponding to camera mounting errors are stored in the apparatus in order to reduce the amount of calculation and any one of the address conversion tables is selected according to the actual mounting error, the number is small. Although it is possible to create a bird's-eye view image by correcting the camera mounting error with the amount of calculation, there is a problem that the memory capacity inside the apparatus becomes enormous and the apparatus becomes expensive.

そこで、本発明は、上述した実情に鑑みて提案されたものであり、複数の画像から俯瞰画像を作成するためにメモリ容量が膨大となることなく、且つ簡単な処理で複数の画像から俯瞰画像を作成することができる車載画像処理装置及び車両用画像処理方法を提供することを目的とする。   Therefore, the present invention has been proposed in view of the above-described circumstances, and the overhead capacity image is created from a plurality of images with a simple process without enlarging the memory capacity for creating the overhead image from the plurality of images. It is an object of the present invention to provide an in-vehicle image processing apparatus and a vehicle image processing method.

本発明は、車両周囲を撮像する複数のカメラモジュールで生成されたカメラ画像データのそれぞれを視点変換して、車両周囲の俯瞰画像を表示手段に表示させるために、複数のカメラモジュールに対応した複数の入力バッファを備える入力手段と、俯瞰画像を格納する出力バッファを備えてこの出力バッファに格納された俯瞰画像を表示手段に出力する出力手段と、俯瞰画像の作成に用いられるアドレス変換テーブルを記憶する記憶手段と、アドレス変換テーブルに従って入力バッファからカメラ画像データを取り出して出力バッファに格納することで俯瞰画像を作成する画像処理手段とを備える。   In the present invention, a plurality of camera modules corresponding to a plurality of camera modules are used to convert viewpoints of camera image data generated by a plurality of camera modules that capture the periphery of the vehicle and display an overhead image around the vehicle on the display unit. An input means having an input buffer, an output buffer for storing an overhead image, an output means for outputting the overhead image stored in the output buffer to a display means, and an address conversion table used for creating the overhead image Storage means for extracting the camera image data from the input buffer according to the address conversion table, and storing the image data in the output buffer to store the overhead image.

そして、本発明では、記憶手段に記憶されているアドレス変換テーブルが、カメラモジュールの車両に対する取付誤差が無い状態でのカメラ画像データを用いて俯瞰画像を作成するための初期状態のアドレス変換テーブルを、カメラモジュールの車両に対する取付誤差を修正するパラメータに従ってテーブル再構成手段により再構成させたアドレス変換テーブルであり、当該アドレス変換テーブルに従って画像処理手段によってカメラ画像データを出力バッファに格納させる。テーブル再構成手段は、カメラモジュールの車両に対する取付誤差であるカメラ座標系のヨー角の誤差量に応じたパラメータに従って、初期状態のアドレス変換テーブルにおける入力アドレス情報が指定するアドレス位置を画像座標系の横方向にシフトさせる。または、テーブル再構成手段は、カメラモジュールの車両に対する取付誤差であるカメラ座標系のピッチ角の誤差量に応じたパラメータに従って、初期状態のアドレス変換テーブルにおける入力アドレス情報が指定するアドレス位置を画像座標系の縦方向にシフトさせる。あるいは、テーブル再構成手段は、カメラモジュールの車両に対する取付誤差であるカメラ座標系のロール角の誤差量に応じたパラメータに従って、初期状態のアドレス変換テーブルにおける入力アドレス情報が指定するアドレス位置を、画像座標系の任意の座標を回転中心とする回転方向に移動させる。 And in this invention, the address conversion table memorize | stored in the memory | storage means is an address conversion table of the initial state for creating a bird's-eye view image using the camera image data in the state without the attachment error with respect to the vehicle of a camera module. an address conversion table is reconstructed by the table reconstruction means according to the parameters for correcting the mounting error with respect to the vehicle of the camera module, Ru is stored camera image data to the output buffer by the image processing means in accordance with the address conversion table. The table reconstruction means determines the address position specified by the input address information in the address conversion table in the initial state according to the parameter corresponding to the error amount of the yaw angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle. Shift horizontally. Alternatively, the table reconstructing means determines the address position specified by the input address information in the address conversion table in the initial state according to the parameter corresponding to the error amount of the pitch angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle. Shift in the vertical direction of the system. Alternatively, the table reconstructing means may image the address position specified by the input address information in the address conversion table in the initial state according to the parameter corresponding to the error amount of the roll angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle. Move in the rotation direction with the arbitrary coordinate of the coordinate system as the rotation center.

また、他の発明は、車両周囲を撮像する複数のカメラモジュールで生成されたカメラ画像データのそれぞれを視点変換して、車両周囲の俯瞰画像を表示手段に表示させるために、カメラ画像データを用いて俯瞰画像を作成するためのアドレス変換テーブルであって、カメラモジュールの車両に対する取付誤差が無い状態でのカメラ画像データを用いて俯瞰画像を作成するための初期状態のアドレス変換テーブルを、カメラモジュールの車両に対する取付誤差を修正するパラメータに従って再構成させたアドレス変換テーブルを記憶手段に記憶させるステップと、複数のカメラモジュールで生成されたカメラ画像データを、各カメラモジュールに対応した複数の入力バッファにそれぞれ格納するステップと、記憶手段に記憶されたアドレス変換テーブルに従って入力バッファからカメラ画像データを取り出し、当該カメラ画像データを、記憶手段に記憶されたアドレス変換テーブルに従って出力バッファに格納して、俯瞰画像を作成するステップと、初期状態のアドレス変換テーブルを、カメラモジュールの車両に対する取付誤差を修正するパラメータに従って再構成させて、記憶手段に記憶させるアドレス変換テーブルを作成するステップを有する。
記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、初期状態のアドレス変換テーブルにおける入力アドレス情報を、カメラモジュールの車両に対する取付誤差を修正するパラメータに従って変更して、記憶手段に記憶させるアドレス変換テーブルとし、カメラモジュールの車両に対する取付誤差であるカメラ座標系のヨー角の誤差量に応じたパラメータに従って、初期状態のアドレス変換テーブルにおける入力アドレス情報が指定するアドレス位置を画像座標系の横方向にシフトさせる。または、記記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、カメラモジュールの車両に対する取付誤差であるカメラ座標系のピッチ角の誤差量に応じたパラメータに従って、初期状態のアドレス変換テーブルにおける入力アドレス情報が指定するアドレス位置を画像座標系の縦方向にシフトさせる。あるいは、記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、カメラモジュールの車両に対する取付誤差であるカメラ座標系のロール角の誤差量に応じたパラメータに従って、初期状態のアドレス変換テーブルにおける入力アドレス情報が指定するアドレス位置を、画像座標系の任意の座標を回転中心とする回転方向に移動させる。
In another aspect of the invention , the camera image data is used to convert the viewpoint of each of the camera image data generated by the plurality of camera modules that capture the vehicle periphery and to display the overhead image around the vehicle on the display means. An address conversion table for creating a bird's-eye view image, which is an initial state address conversion table for creating a bird's-eye view image using camera image data with no camera module mounting error. Storing the address conversion table reconstructed according to the parameter for correcting the mounting error of the vehicle in the storage means, and the camera image data generated by the plurality of camera modules in a plurality of input buffers corresponding to each camera module Each storing step and address conversion stored in the storage means The camera image data is extracted from the input buffer according to the table, the camera image data is stored in the output buffer according to the address conversion table stored in the storage means, and an overhead view image is created, and the initial address conversion table includes: The method includes a step of creating an address conversion table that is reconfigured according to a parameter for correcting an attachment error of the camera module to the vehicle and stored in the storage unit.
In the step of creating the address conversion table to be stored in the storage means, the input address information in the address conversion table in the initial state is changed according to the parameter for correcting the mounting error of the camera module to the vehicle, and is stored in the storage means The address position specified by the input address information in the address conversion table in the initial state is shifted in the horizontal direction of the image coordinate system according to the parameter corresponding to the error amount of the yaw angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle. Let Alternatively, in the step of creating the address conversion table to be stored in the storage means, the input address in the address conversion table in the initial state is determined according to the parameter corresponding to the error amount of the pitch angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle The address position specified by the information is shifted in the vertical direction of the image coordinate system. Alternatively, in the step of creating the address conversion table to be stored in the storage means, the input address information in the address conversion table in the initial state according to the parameter corresponding to the error amount of the roll angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle Is moved in the rotation direction with an arbitrary coordinate in the image coordinate system as the rotation center.

本発明によれば、実際に俯瞰画像を作成するに際して多くの処理を行うことなく、初期状態のアドレス変換テーブルの再構成という簡単な処理で、カメラモジュールの車両に対する取付誤差を吸収することができ、複数のカメラモジュールの何れかに取付誤差が生じていたとしても、複数のカメラ画像データを視点変換して作成する俯瞰画像を、ずれや歪みを低減させた適切な俯瞰画像とすることができる。また、車両固有のカメラモジュールの取付誤差からアドレス変換テーブルを再構成するので、当該アドレス変換テーブルを記憶する記憶手段のメモリ容量が膨大となることがない。   According to the present invention, it is possible to absorb the mounting error of the camera module with respect to the vehicle by a simple process of reconfiguring the address conversion table in the initial state without performing many processes when actually creating the overhead view image. Even if there is an attachment error in any of the plurality of camera modules, the overhead image created by converting the viewpoints of the plurality of camera image data can be an appropriate overhead image with reduced displacement and distortion. . In addition, since the address conversion table is reconstructed from the mounting error of the camera module unique to the vehicle, the memory capacity of the storage means for storing the address conversion table does not become enormous.

また、他の発明によれば、実際に俯瞰画像を作成するに際して多くの処理を行うことなく、入力バッファに格納されるカメラ画像データの調整という簡単な処理で、カメラモジュールの車両に対する取付誤差を吸収することができ、複数のカメラモジュールの何れかに取付誤差が生じていたとしても、複数のカメラ画像データを視点変換して作成する俯瞰画像を、ずれや歪みを低減させた適切な俯瞰画像とすることができる。また、入力バッファに格納されるカメラ画像データの調整によりカメラモジュールの車両に対する取付誤差が吸収されるので、アドレス変換テーブルを記憶する記憶手段のメモリ容量が膨大となることがない。   According to another invention, the mounting error of the camera module with respect to the vehicle can be reduced by a simple process of adjusting the camera image data stored in the input buffer without performing many processes when actually creating the overhead view image. Appropriate bird's-eye view image with reduced misalignment and distortion, even if there is a mounting error in any of the camera modules It can be. Further, the adjustment of the camera image data stored in the input buffer absorbs the mounting error of the camera module with respect to the vehicle, so that the memory capacity of the storage means for storing the address conversion table does not become enormous.

[第1の実施形態]
以下、本発明の第1の実施形態について図面を参照して説明する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

本発明は、例えば図1に示すように構成された車載画像処理装置1に適用される。この車載画像処理装置1は、カメラモジュール2A,2B,2C,2Dで撮像した車両周囲のカメラ画像データを、それぞれのカメラモジュール2A,2B,2C,2Dに対応した入力バッファ12A,12B,12C,12Dで入力し、CPU13及び画像変換部14によって、テーブル記憶部15に記憶されたアドレス変換テーブルを使用して視点変換処理を行って車両周囲の俯瞰画像を作成し、出力バッファ16に俯瞰画像データを記憶させてモニタ3に出力するものである。この車載画像処理装置1は、例えば図2に示すような機能部41〜43によって、デフォルトのアドレス変換テーブル、すなわち、カメラモジュール2A,2B,2C,2Dの車両に対する取付誤差が無い状態でのカメラ画像データを用いて俯瞰画像を作成するための初期状態のアドレス変換テーブルを再構成させて、カメラモジュール2A,2B,2C,2Dの取付誤差に起因する俯瞰画像の歪みや、俯瞰画像を構成する各画像間のずれを抑制し、1つの連続した画像として違和感のない適切な俯瞰画像をモニタ3に表示させる。   The present invention is applied to an in-vehicle image processing apparatus 1 configured as shown in FIG. 1, for example. This in-vehicle image processing apparatus 1 uses camera modules 2A, 2B, 2C, and 2D to capture camera image data around the vehicle and input buffers 12A, 12B, 12C, and 2D corresponding to the camera modules 2A, 2B, 2C, and 2D, respectively. 12D, the CPU 13 and the image conversion unit 14 perform a viewpoint conversion process using the address conversion table stored in the table storage unit 15 to create a bird's-eye view image around the vehicle, and the overhead image data in the output buffer 16 Is stored and output to the monitor 3. The in-vehicle image processing apparatus 1 is a camera in which there is no error in mounting the default address conversion table, that is, the camera modules 2A, 2B, 2C, and 2D, for example, by function units 41 to 43 as shown in FIG. By reconstructing an address conversion table in an initial state for creating a bird's-eye view image using the image data, a bird's-eye view image distortion caused by an attachment error of the camera modules 2A, 2B, 2C, and 2D and a bird's-eye view image are configured. A shift between the images is suppressed, and an appropriate overhead image without any sense of incongruity is displayed on the monitor 3 as one continuous image.

具体的には、図3に示すように、車両周囲の俯瞰画像30を作成するために、カメラモジュール2Aによって前方カメラ画像31Aを撮像し、カメラモジュール2Bによって後方カメラ画像31Bを撮像し、カメラモジュール2Cによって左側方カメラ画像31Cを撮像し、カメラモジュール2Dによって右側方カメラ画像31Dを撮像する。ここで、カメラ画像31Aは車体33と路面に描かれた白線L1,L3,L5を含み、カメラ画像31Bは車体33と白線L2,L3,L5を含み、カメラ画像31Cは車体33と白線L3,L4を含み、カメラ画像31Dは車体33と白線L5,L6を含んでいる。なお、各カメラ画像に現れる白線は、俯瞰画像30に発生する歪みや画像間のずれを説明するために、路面に描かれてカメラモジュール2A,2B,2C,2Dで撮像させるものである。   Specifically, as shown in FIG. 3, in order to create a bird's-eye view image 30 around the vehicle, the camera module 2A images the front camera image 31A, the camera module 2B images the rear camera image 31B, and the camera module. The left side camera image 31C is imaged by 2C, and the right side camera image 31D is imaged by the camera module 2D. Here, the camera image 31A includes the vehicle body 33 and white lines L1, L3, and L5 drawn on the road surface, the camera image 31B includes the vehicle body 33 and white lines L2, L3, and L5, and the camera image 31C includes the vehicle body 33 and the white lines L3 and L3. L4 is included, and the camera image 31D includes the vehicle body 33 and white lines L5 and L6. Note that white lines appearing in each camera image are drawn on the road surface and imaged by the camera modules 2A, 2B, 2C, and 2D in order to explain the distortion generated in the overhead image 30 and the shift between the images.

そして、車載画像処理装置1は、各カメラ画像31A,31B,31C,31Dをそれぞれ上方からの視点に変換した前方画像32A、後方画像32B、左側方画像32C、右側方画像32Dを繋ぎ合わせるとともに、コンピュータグラフィックス等よりなる自車両オブジェクト33’を中心に配し、俯瞰画像30を構成する画像間に跨ってずれや歪みがない俯瞰画像30を作成する。   The in-vehicle image processing apparatus 1 connects the front image 32A, the rear image 32B, the left side image 32C, and the right side image 32D obtained by converting the camera images 31A, 31B, 31C, and 31D into viewpoints from above. The own vehicle object 33 ′ made of computer graphics or the like is arranged at the center, and the overhead image 30 having no shift or distortion is created across the images constituting the overhead image 30.

一方、カメラモジュール2A,2B,2C,2Dの取付位置に誤差がある場合には、図4に示すように、視点変換後の前方画像32Aの白線L1が自車両オブジェクト33’と平衡性が保たれていないような結果となったり、白線L3が歪んだり、俯瞰画像30を構成する画像32A、32B、32C間に跨って白線L1,L2,L3のずれが生じたりする。これに対し、以下に説明する車載画像処理装置1では、当該カメラモジュール2A,2B,2C,2Dの取付誤差に起因する俯瞰画像30のずれや歪みを補正するための処理を行い、カメラモジュール2A,2B,2C,2Dに取付誤差があった場合であっても、俯瞰画像30のずれや歪みを抑制した俯瞰画像30を作成する。   On the other hand, when there is an error in the mounting position of the camera modules 2A, 2B, 2C, 2D, as shown in FIG. 4, the white line L1 of the front image 32A after the viewpoint conversion is balanced with the host vehicle object 33 ′. As a result, the white line L3 may be distorted, or the white lines L1, L2, and L3 may be displaced across the images 32A, 32B, and 32C that form the overhead image 30. On the other hand, in the in-vehicle image processing apparatus 1 described below, a process for correcting the shift and distortion of the overhead image 30 caused by the mounting error of the camera modules 2A, 2B, 2C, 2D is performed, and the camera module 2A , 2B, 2C, 2D, even if there is an attachment error, the bird's-eye view image 30 that suppresses the shift or distortion of the bird's-eye view image 30 is created.

このように、各カメラ画像31A,31B,31C,31Dから、歪みやずれを抑制した俯瞰画像30を作成するための車載画像処理装置1の構成及び動作について、以下に説明する。   In this way, the configuration and operation of the in-vehicle image processing apparatus 1 for creating the bird's-eye view image 30 in which distortion and deviation are suppressed from the camera images 31A, 31B, 31C, and 31D will be described below.

<車載画像処理装置の構成及び動作>
この車載画像処理装置1を含む車両周囲表示システムは、図1に示すように、車載画像処理装置1に、4台のカメラモジュール2A,2B,2C,2D(以下、総称する場合には、単に「カメラモジュール2」と呼ぶ。)及びモニタ3を接続して構成されている。この車載画像処理装置1は、カメラモジュール2A,2B,2C,2Dのそれぞれで撮像したカメラ画像データを入力とし、当該それぞれのカメラ画像データを組み合わせて、車両上方から見た場合の俯瞰画像30を作成するものである。本例では、上述したように車体の前方、後方、右側方、左側方をそれぞれの撮像方向とした4台のカメラモジュール2A,2B,2C,2Dが設けられており、自車両の上方を視点とした俯瞰画像30を作成する場合について説明する。
<Configuration and operation of in-vehicle image processing apparatus>
As shown in FIG. 1, the vehicle surrounding display system including the in-vehicle image processing apparatus 1 includes four camera modules 2A, 2B, 2C, and 2D (hereinafter simply referred to as generic names). The camera module 2 is connected to a monitor 3. The in-vehicle image processing apparatus 1 receives camera image data captured by each of the camera modules 2A, 2B, 2C, and 2D, and combines the respective camera image data to produce an overhead image 30 when viewed from above the vehicle. To create. In this example, as described above, the four camera modules 2A, 2B, 2C, and 2D having the respective imaging directions on the front, rear, right side, and left side of the vehicle body are provided. A case where the overhead image 30 is created will be described.

カメラモジュール2A,2B,2C,2Dは、それぞれ車体の異なる部分に設置され、それぞれが固定された異なる撮像方向となっている。カメラモジュール2は、撮像用レンズ21及びCCD(電荷結合素子)22から構成される。このカメラモジュール2は、例えばNTSC(National Television System Committee)カメラからなり、それぞれ、NTSC方式に従って画像データを車載画像処理装置1に出力する。   The camera modules 2A, 2B, 2C, and 2D are installed in different parts of the vehicle body, and have different imaging directions that are fixed to each other. The camera module 2 includes an imaging lens 21 and a CCD (charge coupled device) 22. The camera module 2 includes, for example, an NTSC (National Television System Committee) camera, and outputs image data to the in-vehicle image processing apparatus 1 according to the NTSC system.

車載画像処理装置1は、内部バス11に、カメラモジュール2A,2B,2C,2Dのそれぞれに接続された入力バッファ12A,12B,12C,12D(以下、総称する場合には単位「入力バッファ12」と呼ぶ。)と、CPU(Central Processing Unit)13と、画像変換部14と、テーブル記憶部15と、及びモニタ3と接続された出力バッファ16とが接続されて構成されている。   The in-vehicle image processing apparatus 1 includes an input buffer 12A, 12B, 12C, and 12D (hereinafter collectively referred to as a unit "input buffer 12") connected to the internal bus 11 in each of the camera modules 2A, 2B, 2C, and 2D. And a CPU (Central Processing Unit) 13, an image conversion unit 14, a table storage unit 15, and an output buffer 16 connected to the monitor 3.

入力バッファ12は、カメラモジュール2の個数に対応して設けられ、入力バッファ12Aはカメラモジュール2Aと接続され、入力バッファ12Bはカメラモジュール2Bと接続され、入力バッファ12Cはカメラモジュール2Cと接続され、入力バッファ12Dはカメラモジュール2Dと接続される。入力バッファ12は、NTSC方式のカメラ画像データを一旦格納し、CPU13の制御に従って、画像変換部14による画像変換タイミングでカメラ画像データが読み出される。   The input buffer 12 is provided corresponding to the number of camera modules 2, the input buffer 12A is connected to the camera module 2A, the input buffer 12B is connected to the camera module 2B, and the input buffer 12C is connected to the camera module 2C. The input buffer 12D is connected to the camera module 2D. The input buffer 12 temporarily stores camera image data of the NTSC system, and the camera image data is read at the image conversion timing by the image conversion unit 14 under the control of the CPU 13.

テーブル記憶部15は、ドライバーに提示する画像レイアウトごとのアドレス変換テーブル15a、15b、15c、・・・を記憶している。ここで、本例では、4枚のカメラ画像データを組み合わせて、1枚の俯瞰画像30を作成する場合について説明するので、テーブル記憶部15には、少なくとも入力バッファ12A,12B,12C,12Dに格納されたそれぞれのカメラ画像データから俯瞰画像30を作成する画像レイアウトのアドレス変換テーブルが記憶されている。   The table storage unit 15 stores address conversion tables 15a, 15b, 15c,... For each image layout presented to the driver. Here, in this example, a case where a single bird's-eye view image 30 is created by combining four camera image data will be described. Therefore, at least the input buffers 12A, 12B, 12C, and 12D are stored in the table storage unit 15. An address conversion table of an image layout for creating the overhead image 30 from each stored camera image data is stored.

このテーブル記憶部15に記憶されるアドレス変換テーブルは、カメラモジュール2に対応した入力バッファ12を指定するカメラ番号と、俯瞰画像を作成するためのカメラ画像データを取り出す入力バッファ12上のアドレスを指定する入力アドレス情報と、入力バッファ12上のアドレスから取り出したカメラ画像データを格納する出力バッファ16上のアドレスを指定する出力アドレス情報との対応関係を記述したテーブルである。すなわち、アドレス変換テーブルは、出力バッファ16上のメモリアドレス、すなわちモニタ3の表示座標と、各カメラモジュール2に対応した入力バッファ12上のメモリアドレス、すなわち各カメラモジュール2毎のカメラ画像上の座標との対応関係を記述している。このようなアドレス変換テーブルは、カメラモジュール2A,2B,2C,2Dのスペック、取付位置及び撮像方向の向き(光軸)等に基づいて作成される。   The address conversion table stored in the table storage unit 15 specifies a camera number for specifying the input buffer 12 corresponding to the camera module 2 and an address on the input buffer 12 for extracting camera image data for creating an overhead image. 3 is a table describing the correspondence between input address information to be output and output address information for designating an address on the output buffer 16 for storing camera image data extracted from an address on the input buffer 12. That is, the address conversion table includes the memory address on the output buffer 16, that is, the display coordinates of the monitor 3, and the memory address on the input buffer 12 corresponding to each camera module 2, that is, the coordinates on the camera image for each camera module 2. Is described. Such an address conversion table is created based on the specifications of the camera modules 2A, 2B, 2C, and 2D, the mounting position, the orientation in the imaging direction (optical axis), and the like.

画像変換部14は、CPU13の制御に従って、テーブル記憶部15からアドレス変換テーブルを読み出し、当該アドレス変換テーブルを参照して、アドレス変換テーブルで指定されたカメラモジュール2の画像データを、アドレス変換テーブルで指定された入力バッファ12上の入力アドレスから読み出して、アドレス変換テーブルで指定された出力バッファ16上の出力アドレスに記憶させる。ここで、アドレス変換テーブルは、画像レイアウトに従って出力バッファ16のメモリアドレスを記述しているので、画像変換部14によって出力バッファ16に置き換えられた俯瞰画像データは、使用したアドレス変換テーブルと同じ画像レイアウトに画像変換されている。なお、画像変換部14は、LSI(Large Scale Integrated Circuit)やFPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)等で構成されていても良く、CPU13で行っても良い。   The image conversion unit 14 reads the address conversion table from the table storage unit 15 according to the control of the CPU 13, refers to the address conversion table, and converts the image data of the camera module 2 specified by the address conversion table into the address conversion table. The data is read from the input address on the designated input buffer 12 and stored in the output address on the output buffer 16 designated by the address conversion table. Here, since the address conversion table describes the memory address of the output buffer 16 according to the image layout, the overhead image data replaced by the output buffer 16 by the image conversion unit 14 has the same image layout as the used address conversion table. The image has been converted. The image conversion unit 14 may be configured by an LSI (Large Scale Integrated Circuit), an FPGA (Field Programmable Gate Array), a DSP (Digital Signal Processor), or the like, or may be performed by the CPU 13.

後述するが、アドレス変換テーブルは、車載画像処理装置1の製造時などに、カメラモジュール2それぞれの取付誤差(グローバル座標系であるカメラ座標系におけるピッチ角、ヨー角、ロール角の誤差)に応じて、当該取付誤差を修正した俯瞰画像30を表示させるように、デフォルト(初期状態)のアドレス変換テーブルを再構成することで作成されている。すなわち、画像変換部14による視点変換処理によって入力バッファ12のカメラ画像データが読み出されて、出力バッファ16に格納された俯瞰画像データの歪みや俯瞰画像30を構成する画像間のずれを抑制するように、アドレス変換テーブルは再構成される。   As will be described later, the address conversion table depends on each mounting error of the camera module 2 (pitch angle, yaw angle, roll angle error in the camera coordinate system which is a global coordinate system) at the time of manufacturing the in-vehicle image processing apparatus 1 or the like. Thus, the default (initial state) address conversion table is reconfigured so as to display the overhead image 30 in which the mounting error is corrected. That is, camera image data in the input buffer 12 is read out by viewpoint conversion processing by the image conversion unit 14, and distortion of the overhead image data stored in the output buffer 16 and deviation between images constituting the overhead image 30 are suppressed. Thus, the address translation table is reconstructed.

出力バッファ16は、画像変換部14によって視点変換された4枚のカメラ画像データからなる俯瞰画像データを格納し、当該俯瞰画像データをCPU13の制御に従ってモニタ3に出力する。   The output buffer 16 stores the bird's-eye view image data composed of the four pieces of camera image data whose viewpoint is converted by the image conversion unit 14, and outputs the bird's-eye view image data to the monitor 3 under the control of the CPU 13.

CPU13は、図示しない操作入力部がドライバーに操作されて決定された画像レイアウト指示や画像切り換え指示を認識して画像変換部14での画像変換処理に使用するアドレス変換テーブルを決定する。また、CPU13は、画像変換部14の入力バッファ12からの画像変換タイミング及び出力バッファ16のモニタ3へのデータ出力タイミングを制御することによって、連続的に俯瞰画像30を出力バッファ16に格納させると共に、連続的にモニタ3に表示させる俯瞰画像30を切り換える。   The CPU 13 recognizes an image layout instruction or an image switching instruction determined by operating an operation input unit (not shown) by the driver, and determines an address conversion table used for image conversion processing in the image conversion unit 14. Further, the CPU 13 continuously stores the overhead image 30 in the output buffer 16 by controlling the image conversion timing from the input buffer 12 of the image conversion unit 14 and the data output timing of the output buffer 16 to the monitor 3. Then, the overhead image 30 to be continuously displayed on the monitor 3 is switched.

また、CPU13は、図2に示すように、自車両の出荷時に行われる誤差検出を行う誤差検出部41、デフォルトのアドレス変換テーブルを修正するパラメータを算出するパラメータ算出部42、テーブル記憶部15に記憶されるアドレス変換テーブルを再構成するテーブル再構成部43とを備える。なお、本例では、誤差検出部41、パラメータ算出部42及びテーブル再構成部43といったテーブル記憶部15に記憶するアドレス変換テーブルを再構成するための機能部を車載画像処理装置1内に備えるものとするが、外部で再構成したアドレス変換テーブルをテーブル記憶部15に記憶させても良い。   Further, as shown in FIG. 2, the CPU 13 stores an error detection unit 41 that performs error detection performed at the time of shipment of the host vehicle, a parameter calculation unit 42 that calculates parameters for correcting a default address conversion table, and a table storage unit 15. And a table reconstruction unit 43 for reconstructing the stored address conversion table. In this example, the in-vehicle image processing apparatus 1 includes functional units for reconfiguring the address conversion table stored in the table storage unit 15 such as the error detection unit 41, the parameter calculation unit 42, and the table reconstruction unit 43. However, an externally reconstructed address conversion table may be stored in the table storage unit 15.

誤差検出部41は、例えば車両出荷検査時などにおいてカメラモジュール2A,2B,2C,2Dのカメラ座標系における取付誤差を検出する。この検査時において、誤差検出部41は、所定の白線が描かれた路面上の所定位置に自車両が停車され、当該停車位置から白線を撮像した時のカメラモジュール2A,2B,2C,2Dのカメラ画像データをそれぞれ取得する。そして、誤差検出部41は、取得したそれぞれのカメラ画像データと、カメラモジュール2A,2B,2C,2Dの取付誤差が無い時に撮像されるべきテンプレート画像と比較する。   The error detection unit 41 detects an installation error in the camera coordinate system of the camera modules 2A, 2B, 2C, and 2D at the time of vehicle shipment inspection, for example. At the time of this inspection, the error detection unit 41 stops the own vehicle at a predetermined position on the road surface on which a predetermined white line is drawn, and the camera modules 2A, 2B, 2C, 2D when the white line is imaged from the stop position. Each camera image data is acquired. Then, the error detection unit 41 compares each acquired camera image data with a template image to be imaged when there is no attachment error of the camera modules 2A, 2B, 2C, and 2D.

そして、カメラ画像データの画像内縦方向に延びる白線と、テンプレート画像の縦方向に延びる白線とが画像内横方向にずれている場合には、当該ずれ量をカメラ座標系におけるヨー角の誤差[deg]として算出する。また、カメラ画像データの画像内横方向に延びる白線と、テンプレートとなる画像内横方向に延びる白線とが画像内縦方向にずれている場合には、当該ずれ量をカメラ座標系におけるピッチ角の誤差[deg]として算出する。更に、カメラ画像データとテンプレート画像とが回転方向、つまり画像内のある点を中心として画像を回転させる方向にずれている場合には、当該ずれ量をカメラ座標系におけるロール角の誤差[deg]として算出する。これにより、カメラモジュール2A,2B,2C,2Dの取付誤差として、カメラ座標系(グローバル座標系)のヨー角の誤差[deg]、ピッチ角の誤差[deg]、ロール角の誤差[deg]をそれぞれ検出することができる。   If the white line extending in the vertical direction of the image of the camera image data and the white line extending in the vertical direction of the template image are shifted in the horizontal direction in the image, the amount of shift is calculated as an error of the yaw angle in the camera coordinate system [ deg]. In addition, when the white line extending in the horizontal direction in the image of the camera image data and the white line extending in the horizontal direction in the image serving as the template are shifted in the vertical direction in the image, the amount of shift is represented by the pitch angle in the camera coordinate system. Calculated as error [deg]. Further, when the camera image data and the template image are shifted in the rotation direction, that is, in the direction in which the image is rotated around a certain point in the image, the shift amount is determined as the roll angle error [deg] in the camera coordinate system. Calculate as As a result, the camera module 2A, 2B, 2C, 2D mounting error includes the camera coordinate system (global coordinate system) yaw angle error [deg], pitch angle error [deg], and roll angle error [deg]. Each can be detected.

パラメータ算出部42は、誤差検出部41で検出されたカメラ座標系におけるヨー角の誤差、カメラ座標系におけるピッチ角の誤差、カメラ座標系におけるロール角の誤差から、カメラモジュール2A,2B,2C,2Dの取付誤差が無い状態でのカメラ画像データを用いて俯瞰画像を作成するための初期状態のアドレス変換テーブル、すなわちデフォルトのアドレス変換テーブルに対する補正量(パラメータ)を算出する。   The parameter calculation unit 42 calculates the camera modules 2A, 2B, 2C, and the like from the yaw angle error in the camera coordinate system, the pitch angle error in the camera coordinate system, and the roll angle error in the camera coordinate system detected by the error detection unit 41. A correction amount (parameter) for an initial address conversion table for creating a bird's-eye view image, that is, a default address conversion table, is calculated using camera image data in a state where there is no 2D mounting error.

このとき、パラメータ算出部42は、ヨー角の誤差が大きいほど、アドレス変換テーブルによるカメラ画像データのアドレス変換対象領域を画素単位で左右方向に大きくずらす左右方向シフト量dx[pixel]を求める。また、パラメータ算出部42は、ピッチ角の誤差の誤差が大きいほど、アドレス変換テーブルによるカメラ画像データのアドレス変換対象領域を画素単位で上下方向に大きくずらす上下方向シフト量dy[pixel]を求める。このようなシフト量dx、dy[pixel]は、カメラモジュール2A,2B,2C,2Dの取付誤差のそれぞれを修正するためのパラメータとなる。   At this time, the parameter calculation unit 42 obtains a left-right shift amount dx [pixel] that greatly shifts the address conversion target area of the camera image data in the address conversion table in the left-right direction as the yaw angle error increases. The parameter calculation unit 42 obtains a vertical shift amount dy [pixel] by which the address conversion target area of the camera image data by the address conversion table is largely shifted in the vertical direction as the pitch angle error is larger. Such shift amounts dx, dy [pixel] are parameters for correcting each of the mounting errors of the camera modules 2A, 2B, 2C, 2D.

更に、パラメータ算出部42は、ロール角の誤差[deg]から、カメラ画像データのアドレス変換対象領域を回転させる回転量dθ[deg]を求める。ここで、カメラ画像データのグラフィックス座標系(画像座標系)において、任意の座標(ox,oy)を中心にr[deg]のロール角の誤差が発生していた場合について、カメラ画像データのアドレス変換対象領域を回転させる回転量dθ[deg]を求める処理を説明する。なお、座標(ox,oy)は、入力バッファ12A,12B,12C,12Dの中心座標に設定することで、回転による画素の欠損を最小限に抑えることができる。また、カメラのずれ量の差によらず回転中心を座標中心の一意の点にすることで計算を簡単化することができる。   Further, the parameter calculation unit 42 obtains a rotation amount dθ [deg] for rotating the address conversion target area of the camera image data from the roll angle error [deg]. Here, in the graphics coordinate system (image coordinate system) of the camera image data, when an error of the roll angle of r [deg] occurs around an arbitrary coordinate (ox, oy), the camera image data Processing for obtaining the rotation amount dθ [deg] for rotating the address conversion target area will be described. The coordinates (ox, oy) are set to the center coordinates of the input buffers 12A, 12B, 12C, and 12D, so that pixel loss due to rotation can be minimized. In addition, the calculation can be simplified by making the center of rotation a unique point of the coordinate center regardless of the difference in camera displacement.

先ず、ロール角の誤差を補正する前であってロール角の誤差によってカメラ画像上に現れた回転前の座標(sx1, sy1)は、ロール角の誤差に応じて補正した後の回転後の座標(x1, y1)を用いて以下の式1,式2で求めることができる。   First, before correcting the roll angle error, the coordinates (sx1, sy1) before the rotation appearing on the camera image due to the roll angle error are the coordinates after the rotation after correcting according to the roll angle error. Using (x1, y1), it can be obtained by the following equations 1 and 2.

sx1=(x1−ox)*cos(−r)+(y1−oy)*sin(−r)+ox (式1)
sy1=(y1−oy)*cos(−r)−(x1−ox)*sin(−r)+oy (式2)
回転後座標(x1,y1)に対してx方向で隣り合った回転後座標(x1+1,y)にも、上記の式1,2が適用できるので、回転前の座標(sx1, sy1)に対してx方向で隣り合った回転前座標(sx2, sy2)は、
sx2=(x1+1−ox)*cos(−r)+(y1−oy)*sin(−r)+ox (式3)
sy2=(y1−oy)*cos(−r)+(x1+1−ox)*sin(−r)+oy (式4)
と表現される。
sx1 = (x1−ox) * cos (−r) + (y1−oy) * sin (−r) + ox (Formula 1)
sy1 = (y1−oy) * cos (−r) − (x1−ox) * sin (−r) + oy (Formula 2)
Since the above formulas 1 and 2 can be applied to the post-rotation coordinates (x1, y1) and the post-rotation coordinates (x1 + 1, y) adjacent to each other in the x direction, the coordinates (sx1, sy1) before the rotation can be applied. The pre-rotation coordinates (sx2, sy2) that are adjacent in the x direction are
sx2 = (x1 + 1−ox) * cos (−r) + (y1−oy) * sin (−r) + ox (Formula 3)
sy2 = (y1−oy) * cos (−r) + (x1 + 1−ox) * sin (−r) + oy (Formula 4)
It is expressed.

ここで、dxx=sx2−sx1、dyx=sy2−sy1とおくと、dxx、dyxはそれぞれ、上記式1,2と式3,4とを用いて、
dxx=sx2−sx1=cos(−r) (式5)
dyx=sy2−sy1= −sin(−r) (式6)
となる。すると、x方向に連続した座標(x1+n,y1)の回転後の座標は、sx1,sy1,dxx,dyxを用いて表現すると、
sx=sx1+dxx*n (式7)
sy=sy1+dyx*n (式8)
となる。したがって、座標(x1+n,y1)の回転後の座標は、sx1,sy1にそれぞれdxy,dyyを加算していくことで計算できることがわかる。ここで、式7,8は、式5,6のように三角関数を含むために、小数値を含む回転量dθ[deg]となる。
Here, when dxx = sx2-sx1 and dyx = sy2-sy1 are set, dxx and dyx are obtained by using the above equations 1, 2, and 3, 4, respectively.
dxx = sx2-sx1 = cos (-r) (Formula 5)
dyx = sy2-sy1 = -sin (-r) (Formula 6)
It becomes. Then, the coordinates after rotation of coordinates (x1 + n, y1) continuous in the x direction are expressed using sx1, sy1, dxx, dyx,
sx = sx1 + dxx * n (Formula 7)
sy = sy1 + dyx * n (Formula 8)
It becomes. Therefore, it can be seen that the coordinates after rotation of the coordinates (x1 + n, y1) can be calculated by adding dxy and dyy to sx1 and sy1, respectively. Here, since Expressions 7 and 8 include a trigonometric function like Expressions 5 and 6, the rotation amount dθ [deg] including a decimal value is obtained.

次に、回転後の座標(x1,y1)の、y方向で隣り合った座標(x1,y1+1)の場合も上述と同様に、
sx3=(x1−ox)*cos(−r)+(y1+1−oy)*sin(−r)+ox (式9)
sy3=(y1+1−oy)*cos(−r)−(x1−ox)*sin(−r)+oy (式10)
と表現される。ここで、dxy=sx3−sx1, dyy=sy3−sy1とおくと、dxy、dyyはそれぞれ、上記式9,式10を用いて、
dxx=sx3−sx1=sin(−r)
dyx=sy3−sy1=cos(−r)
となり、y方向に連続した座標(x1,y1+n)の回転後の座標は、sx1,sy1にそれぞれdxy,dyyを加算していくことで計算できる。また、このように求めた回転後の座標は、小数値を含む回転量dθ[deg]となる。
Next, in the case of the coordinates (x1, y1 + 1) adjacent in the y direction of the coordinates (x1, y1) after rotation,
sx3 = (x1−ox) * cos (−r) + (y1 + 1−oy) * sin (−r) + ox (Formula 9)
sy3 = (y1 + 1-oy) * cos (-r)-(x1-ox) * sin (-r) + oy (Formula 10)
It is expressed. Here, if dxy = sx3−sx1, dyy = sy3−sy1, dxy and dyy are obtained by using the above equations 9 and 10, respectively.
dxx = sx3−sx1 = sin (−r)
dyx = sy3−sy1 = cos (−r)
Thus, the coordinates after rotation of coordinates (x1, y1 + n) continuous in the y direction can be calculated by adding dxy and dyy to sx1 and sy1, respectively. Further, the coordinates after rotation obtained in this way are the rotation amount dθ [deg] including a decimal value.

これらより、入力バッファ12A,12B,12C,12Dに格納されるカメラ画像データの座標系であるグラフィックス座標系の左上座標について、一度だけ上述の回転後座標を計算することにより、残りのカメラ画像データの画素については、加算計算を行って回転させることになる。   From these, the above-mentioned post-rotation coordinates are calculated only once for the upper left coordinates of the graphics coordinate system, which is the coordinate system of the camera image data stored in the input buffers 12A, 12B, 12C, and 12D. Data pixels are rotated by performing addition calculation.

ここで、上述の演算におけるcos(−r)及びsin(−r)の値が共通であるので、この2つの値を一度だけ求め、当該求めた結果を使用して回転量dθ[deg]を求める。そして、回転後の座標のうち、一対の回転前座標と回転後座標との対応関係を記憶しておけば、三角関数の演算を必要とせずに、ロール角の誤差を修正するためのパラメータである回転量dθ[deg]を求めることができる。   Here, since the values of cos (−r) and sin (−r) in the above calculation are common, these two values are obtained only once, and the rotation amount dθ [deg] is calculated using the obtained results. Ask. If the correspondence between the pair of pre-rotation coordinates and the post-rotation coordinates among the coordinates after rotation is stored, it is a parameter for correcting the roll angle error without requiring the calculation of trigonometric functions. A certain rotation amount dθ [deg] can be obtained.

ここで、誤差検出部41及びパラメータ算出部42における動作の具体例について、図5及び図6を参照して説明する。なお、図5は誤差検出部41及びパラメータ算出部42によってカメラモジュール2のカメラ座標系における取付誤差を検出して当該誤差を修正するパラメータを算出する際の一連の手順を示すフローチャートであり、図6は図5のフローチャートで示す一連の手順を説明するための、カメラモジュール2Cにより撮像された自車両の左側方のカメラ画像を示す図である。   Here, specific examples of operations in the error detection unit 41 and the parameter calculation unit 42 will be described with reference to FIGS. 5 and 6. FIG. 5 is a flowchart showing a series of procedures when the error detection unit 41 and the parameter calculation unit 42 detect an attachment error in the camera coordinate system of the camera module 2 and calculate a parameter for correcting the error. 6 is a diagram showing a camera image on the left side of the host vehicle captured by the camera module 2C for explaining a series of procedures shown in the flowchart of FIG.

カメラモジュール2のカメラ座標系における取付誤差の検出及びパラメータの算出を行うに際しては、まず、ステップS1において、車両に対して正確な位置にテンプレートを準備する。本例ではテンプレートとして、例えば地面上に引いた幅50mmのT字形線を用いたが、テンプレートの位置や形状は特に限定されるものではなく、例えば、チェッカーフラッグのような格子模様等の形状のテンプレートを地面上に設置するようにしてもよい。なお、本例では、地面上に引いた幅50mmのT字形線のテンプレートは、図6に示す自車両左側方のカメラ画像上において、実線で示す位置P1に映り込んでいるものとする。   When detecting the mounting error in the camera coordinate system of the camera module 2 and calculating the parameters, first, in step S1, a template is prepared at an accurate position with respect to the vehicle. In this example, for example, a T-shaped line having a width of 50 mm drawn on the ground is used as the template. However, the position and shape of the template are not particularly limited. For example, the template has a lattice pattern such as a checkered flag. You may make it install a template on the ground. In this example, it is assumed that a T-shaped line template having a width of 50 mm drawn on the ground is reflected at a position P1 indicated by a solid line on the camera image on the left side of the host vehicle shown in FIG.

次に、ステップS2において、誤差検出部41は、図6に示す自車両左側方のカメラ画像上において、カメラモジュール2Cの取付誤差が無い場合にテンプレートが画面上映り込むはずの位置にマーカ線テンプレートを描画し、自車両左側方のカメラ画像にマーカ線テンプレート重畳する。なお、本例では、マーカ線テンプレートは、図6に示す自車両左側方のカメラ画像上において、破線で示す位置P2にマーカ線テンプレートが重畳されるものとする。   Next, in step S2, the error detection unit 41 sets the marker line template at a position where the template should appear on the screen when there is no mounting error of the camera module 2C on the left-side camera image shown in FIG. And the marker line template is superimposed on the camera image on the left side of the host vehicle. In this example, it is assumed that the marker line template is superimposed on a position P2 indicated by a broken line on the camera image on the left side of the host vehicle shown in FIG.

次に、ステップS3において、誤差検出部41は、自車両左側方のカメラ画像の中心を観点中心として、このカメラ画像上に重畳したマーカ線テンプレートを回転させて、このカメラ画像上に映り込んでいるテンプレートとマーカ線テンプレートとの傾きが合うように調整する。そして、パラメータ算出部42が、このときのカメラ画像の回転量を、カメラ座標系におけるロール角の誤差を修正するためのパラメータとしての回転量dθ[deg]として算出する。   Next, in step S3, the error detection unit 41 rotates the marker line template superimposed on the camera image around the center of the camera image on the left side of the host vehicle and reflects it on the camera image. Make adjustments so that the template and the marker line template match. Then, the parameter calculation unit 42 calculates the rotation amount of the camera image at this time as a rotation amount dθ [deg] as a parameter for correcting a roll angle error in the camera coordinate system.

次に、ステップS4において、誤差検出部41は、自車両左側方のカメラ画像上のマーカ線テンプレートを上下左右方向にピクセルシフトさせて、このカメラ画像上に映り込んでいるテンプレートとマーカ線テンプレートとの位置が合うように調整する。そして、パラメータ算出部42が、このときの画像座標系におけるX軸方向のシフト量を、カメラ座標系におけるヨー角の誤差を修正するためのパラメータとしての左右方向シフト量dx[pixel]として算出し、画像座標系におけるY軸方向のシフト量を、カメラ座標系におけるピッチ角の誤差を修正するためのパラメータとしての上下方向シフト量dy[pixel]として算出する。   Next, in step S4, the error detection unit 41 shifts the marker line template on the camera image on the left side of the host vehicle in the vertical and horizontal directions, and displays the template and marker line template reflected on the camera image. Adjust so that the position of is correct. Then, the parameter calculation unit 42 calculates the shift amount in the X-axis direction in the image coordinate system at this time as a left-right shift amount dx [pixel] as a parameter for correcting the error of the yaw angle in the camera coordinate system. The shift amount in the Y-axis direction in the image coordinate system is calculated as a vertical shift amount dy [pixel] as a parameter for correcting a pitch angle error in the camera coordinate system.

以上のように、本例では、カメラモジュール2で撮像されたカメラ画像に実際に映り込むテンプレートの位置と、カメラ画像上の本来テンプレートが映り込むはずの位置に描画したマーカ線テンプレートとのカメラ画像上における位置ずれ、すなわち画像座標系である2次元座標上におけるテンプレートとマーカ線テンプレートの位置ずれを、カメラ座標系におけるカメラモジュール2の取付誤差を修正するためのパラメータとして算出するようにしている。なお、以上は、自車両の左側方の画像を撮像するカメラモジュール2Cに取付誤差が生じている場合を例示したが、他のカメラモジュールに取付誤差が生じている場合も、同様の手法により取付誤差を修正するためのパラメータを算出できる。   As described above, in this example, the camera image of the position of the template actually reflected in the camera image captured by the camera module 2 and the marker line template drawn at the position on the camera image where the original template should be reflected. The positional deviation above, that is, the positional deviation between the template and the marker line template on the two-dimensional coordinate which is the image coordinate system is calculated as a parameter for correcting the mounting error of the camera module 2 in the camera coordinate system. In the above, the case where an attachment error has occurred in the camera module 2C that captures an image on the left side of the host vehicle has been illustrated. However, when an attachment error has occurred in another camera module, the attachment is performed in the same manner. Parameters for correcting the error can be calculated.

テーブル再構成部43は、パラメータ算出部42で求められたカメラ座標系におけるヨー角の誤差を修正するための左右方向シフト量dx[pixel]、カメラ座標系におけるピッチ角の誤差を修正するための上下方向シフト量dy[pixel]、カメラ座標系におけるロール角の誤差を修正するための回転量dθ[deg]を用いて、テーブル記憶部15に記憶されたデフォルトのアドレス変換テーブルに対して再構成を行い、新たなアドレス変換テーブルを作成する。このテーブル再構成部43は、先ず、左右方向シフト量dx[pixel]分だけアドレス変換対象領域をずらすと共に上下方向シフト量dy[pixel]分だけアドレス変換対象領域をずらす。その後、テーブル再構成部43は、回転量dθ[deg]に相当する画素数分だけ、左右方向シフト量dx及び上下方向シフト量dy分ずらされたアドレス変換対象領域を回転させる。回転操作は、上述したように回転前の座標と回転後の座標の対応関係をその都度計算するようにしてもよいし、テーブルとして備えていてもよい。   The table reconstruction unit 43 corrects the left-right shift amount dx [pixel] for correcting the error of the yaw angle in the camera coordinate system obtained by the parameter calculation unit 42, and the pitch angle error in the camera coordinate system. Using the vertical shift amount dy [pixel] and the rotation amount dθ [deg] for correcting the roll angle error in the camera coordinate system, the default address conversion table stored in the table storage unit 15 is reconstructed. To create a new address conversion table. The table reconstruction unit 43 first shifts the address conversion target area by the horizontal shift amount dx [pixel] and shifts the address conversion target area by the vertical shift amount dy [pixel]. After that, the table reconstruction unit 43 rotates the address conversion target area shifted by the horizontal shift amount dx and the vertical shift amount dy by the number of pixels corresponding to the rotation amount dθ [deg]. As described above, the rotation operation may be performed by calculating the correspondence between the coordinates before rotation and the coordinates after rotation, or may be provided as a table.

以上のように、テーブル再構成部43は、左右方向及び上下方向にアドレス変換対象領域をずらした後に、当該ずらした後のアドレス変換対象領域を回転させる。このように先に左右方向及び上下方向にアドレス変換対象領域をずらして、その後に回転させるのは、アドレス変換対象領域である入力バッファ12A,12B,12C,12Dの読み出しアドレスが実数値であることに対し、回転量dθ[deg]は小数値を含むことから、当該回転量dθ[deg]に対して回転後のアドレス変換対象領域に丸め誤差を生じるからである。したがって、テーブル再構成部43は、丸め誤差を生じない左右及び上下のシフトを先に行い、その後に回転させることで、丸め誤差の影響を最低限に抑える。また、アドレス変換対象領域を回転させた後に、上下及び左右にアドレス変換対象領域をシフトさせた場合、シフト量[pixel]が、前の回転量に含まれるcos成分とsin成分とに分解されてしまい、パラメータ算出部42で求めたシフト量[pixel]と実際のシフト量[pixel]とが異なる値になってしまうことが懸念されるが、左右方向及び上下方向のシフトを先に行ってその後に回転操作を行うことで、以上のような不都合は回避できる。また、左右方向及び上下方向のシフトを先に行ってその後に回転操作を行うことで、カメラモジュール2の取付誤差量の差によらず、回転中心を座標中心の一意の点にして計算を簡単化できる。   As described above, the table reconstruction unit 43 rotates the address conversion target area after shifting the address conversion target area in the horizontal direction and the vertical direction. As described above, the address conversion target area is shifted in the horizontal direction and the vertical direction first, and then rotated. The read addresses of the input buffers 12A, 12B, 12C, and 12D that are the address conversion target areas are real numbers. On the other hand, since the rotation amount dθ [deg] includes a decimal value, a rounding error occurs in the address conversion target area after the rotation with respect to the rotation amount dθ [deg]. Therefore, the table reconstruction unit 43 performs the left and right and up and down shifts that do not cause a rounding error first, and then rotates them to minimize the influence of the rounding error. In addition, when the address conversion target area is shifted vertically and horizontally after rotating the address conversion target area, the shift amount [pixel] is decomposed into the cos component and the sin component included in the previous rotation amount. Therefore, there is a concern that the shift amount [pixel] obtained by the parameter calculation unit 42 and the actual shift amount [pixel] may be different from each other. The above inconveniences can be avoided by performing the rotation operation. In addition, by performing the shift in the horizontal direction and the vertical direction first and then performing the rotation operation, the calculation can be easily performed with the rotation center as a unique point of the coordinate center regardless of the difference in the mounting error amount of the camera module 2. Can be

なお、本実施形態では、カメラ座標系におけるロール角の誤差に起因する画像のずれや歪みを抑制するためにアドレス変換対象領域の回転量dθを演算してアドレス変換テーブルの再構成を行っているが、当該ロール角の誤差が少なければ、アドレス変換対象領域の上下及び左右のシフトのみでヨー角の誤差及びピッチ角の誤差に起因する画像のずれや歪みを抑制できることは勿論である。このように、上下方向シフト量dy及び左右方向シフト量dxのみを用いたアドレス変換テーブルの再構成は、出力アドレスをAddrとし、入力バッファ12の縦方向画素数をXiとし、カメラモジュール2の取付誤差がないと仮定した初期状態時の横方向の入力アドレスをdefAddrとした場合には、
Addr=(defAddr+dx)+Xi・dy
という単純な加減算で表現できる。
In the present embodiment, the address conversion table is reconstructed by calculating the rotation amount dθ of the address conversion target area in order to suppress image displacement and distortion caused by the roll angle error in the camera coordinate system. However, if the roll angle error is small, it is a matter of course that image shift and distortion caused by the yaw angle error and the pitch angle error can be suppressed only by shifting the address conversion target area up and down and left and right. As described above, the reconstruction of the address conversion table using only the vertical shift amount dy and the horizontal shift amount dx is performed by setting the output address as Addr, the number of vertical pixels in the input buffer 12 as Xi, and mounting the camera module 2. When defAddr is the horizontal input address in the initial state assuming no error,
Addr = (defAddr + dx) + Xi · dy
It can be expressed by simple addition and subtraction.

そして、テーブル再構成部43は、アドレス変換対象領域をずらすことにより、入力バッファ12A,12B,12C,12Dのうち、アドレス変換対象領域として取り出す入力バッファ12上のアドレス(入力アドレス情報)を変更したアドレス変換テーブルを再構成して、テーブル記憶部15に格納する。   Then, the table reconstruction unit 43 changes the address (input address information) on the input buffer 12 to be taken out as the address conversion target area among the input buffers 12A, 12B, 12C, and 12D by shifting the address conversion target area. The address conversion table is reconstructed and stored in the table storage unit 15.

このように、アドレス変換テーブルを再構成する処理は、カメラモジュール2A,2B,2C,2Dの取付誤差がない状態にあることを前提として作成された、図7に示すようなデフォルトのアドレス変換テーブルに対して行われる。なお、この図7に示す例では、要点を分かりやすく説明するために、例えば任意のカメラモジュール2に対応した入力バッファ12上の入力アドレスのうち、アドレス変換対象領域が、入力アドレス「1」〜「16」の4画像×4画像ブロックとなっているものとする。また、デフォルトのアドレス変換テーブルは、入力アドレス「1」〜「16」のうちの入力アドレス「6」、「7」、「10」、「11」からカメラ画像データを取り出して、入力アドレス「6」から取り出したカメラ画像データを出力バッファ16上の出力アドレス「1」に格納し、入力アドレス「7」から取り出したカメラ画像データを出力バッファ16の出力アドレス「2」に格納し、入力アドレス「10」から取り出したカメラ画像データを出力バッファ16上の出力アドレス「3」に格納し、入力アドレス「11」から取り出したカメラ画像データを出力バッファ16上の出力アドレス「4」に格納することを示している。   In this way, the process of reconfiguring the address conversion table is a default address conversion table as shown in FIG. 7 that is created on the assumption that there is no mounting error of the camera modules 2A, 2B, 2C, and 2D. To be done. In the example shown in FIG. 7, in order to explain the main points in an easy-to-understand manner, for example, among the input addresses on the input buffer 12 corresponding to an arbitrary camera module 2, the address conversion target area has input addresses “1” to “1”. It is assumed that “16” is a 4 image × 4 image block. The default address conversion table extracts camera image data from the input addresses “6”, “7”, “10”, and “11” among the input addresses “1” to “16”, and inputs the input address “6”. The camera image data fetched from the output buffer 16 is stored at the output address “1”, the camera image data fetched from the input address “7” is stored at the output address “2” of the output buffer 16, and the input address “ The camera image data extracted from “10” is stored in the output address “3” on the output buffer 16, and the camera image data extracted from the input address “11” is stored in the output address “4” on the output buffer 16. Show.

これによって、カメラモジュール2で撮像した車両周囲の特定場所のカメラ画像データを、出力バッファ16に格納してモニタ3に表示させることができる。   Thereby, the camera image data of a specific place around the vehicle imaged by the camera module 2 can be stored in the output buffer 16 and displayed on the monitor 3.

一方、カメラモジュール2A,2B,2C,2Dの取付誤差がある場合にはカメラ画像データで撮像する範囲に誤差が発生するので、図8(a)に示すように、入力バッファ12のうち、図7の入力アドレス「6」、「7」、「10」、「11」に格納されるはずのカメラ画像データが、入力アドレス「1」、「2」、「5」、「6」にずれて格納される状態となる。そして、上述と同様に入力アドレス「6」、「7」、「10」、「11」のカメラ画像データを取り出して、出力アドレス「1」〜「4」に格納すると、本来モニタ3に表示するべき車両周囲の特定場所とは異なる場所の画像を表示させてしまう。   On the other hand, when there is an attachment error of the camera modules 2A, 2B, 2C, and 2D, an error occurs in the range imaged with the camera image data. Therefore, as shown in FIG. The camera image data that should be stored in the input addresses “6”, “7”, “10”, “11” of 7 shifts to the input addresses “1”, “2”, “5”, “6”. It will be stored. Similarly to the above, when the camera image data of the input addresses “6”, “7”, “10”, “11” are extracted and stored in the output addresses “1” to “4”, they are originally displayed on the monitor 3. The image of the place different from the specific place around the vehicle should be displayed.

これに対し、上述したように上下方向シフト量dyを−1[1アドレス分]とし、左右方向シフト量dxを−1[1アドレス分]と決定して、アドレス変換対象領域をずらすアドレス変換テーブルの再構成を行うと、図8(b)のように、入力アドレス「1」、「2」、「5」、「6」を取り出すように変更することができる。なお、以上の例はカメラモジュール2にヨー角及びピッチ角の誤差が生じている場合であるが、さらにロール角の誤差も生じている場合には、アドレス対象領域を上下左右方向にシフトした後に、上述したロール角の誤差に応じた回転量dθに相当する画素数分だけアドレス対象領域を回転させる操作を行えばよい。   On the other hand, as described above, the vertical shift amount dy is set to -1 [one address], and the horizontal shift amount dx is determined to be -1 [one address] to shift the address conversion target area. As shown in FIG. 8B, the input addresses “1”, “2”, “5”, and “6” can be taken out. The above example is a case where the camera module 2 has an error in the yaw angle and the pitch angle. However, if an error in the roll angle is also generated, the address target area is shifted in the vertical and horizontal directions. The address target area may be rotated by the number of pixels corresponding to the rotation amount dθ according to the roll angle error described above.

このようなアドレス変換テーブルの再構成処理は、上述のように複数台のカメラモジュール2が車載画像処理装置1に接続される場合には、図9に示すようなステップS11〜ステップS13の処理を、カメラモジュール2の台数回繰り返すことにより行われる。   Such an address conversion table reconstruction process is performed by performing steps S11 to S13 as shown in FIG. 9 when a plurality of camera modules 2 are connected to the in-vehicle image processing apparatus 1 as described above. This is performed by repeating the number of camera modules 2 times.

すなわち、ステップS11においては、先ず任意のカメラモジュール2について、誤差検出部41によりカメラ座標系におけるヨー角の誤差[deg]、ピッチ角の誤差[deg]、ロール角の誤差[deg]を求め、パラメータ算出部42により、各誤差[deg]から、上下方向シフト量dy[pixel]、左右方向シフト量dx[pixel]、回転量dθ[deg]を求める。   That is, in step S11, first, for an arbitrary camera module 2, the error detection unit 41 obtains the yaw angle error [deg], the pitch angle error [deg], and the roll angle error [deg] in the camera coordinate system, The parameter calculation unit 42 obtains the vertical shift amount dy [pixel], the horizontal shift amount dx [pixel], and the rotation amount dθ [deg] from each error [deg].

次のステップS12においては、デフォルトの俯瞰画像作成用となるアドレス変換テーブルのうち、任意のカメラモジュール2により撮像されたカメラ画像データが格納される入力バッファ12上のアドレス(入力アドレス)を上下方向シフト量dy及び左右方向シフト量dxだけ加減算し、その後に、ロール角の誤差[deg]に基づく回転量dθ分だけアドレス変換テーブルの入力アドレス全体(アドレス変換対象領域の全体)を回転させる。   In the next step S12, the address (input address) on the input buffer 12 where the camera image data captured by an arbitrary camera module 2 is stored in the vertical direction in the address conversion table for creating a default overhead image. Addition / subtraction is performed by the shift amount dy and the left / right shift amount dx, and then the entire input address (the entire address conversion target area) of the address conversion table is rotated by the rotation amount dθ based on the roll angle error [deg].

次のステップS13においては、ステップS12で再構成されたアドレス変換テーブルを、テーブル記憶部15に格納する。ここで、テーブル記憶部15には、デフォルトのアドレス変換テーブルとは別個のメモリ領域に再構成後のアドレス変換テーブルを記憶させても良く、デフォルトのアドレス変換テーブルに、再構成後のアドレス変換テーブルを上書きしても良い。   In the next step S13, the address conversion table reconstructed in step S12 is stored in the table storage unit 15. Here, the table storage unit 15 may store the reconfigured address conversion table in a memory area different from the default address conversion table, and the reconfigured address conversion table in the default address conversion table. May be overwritten.

これにより、カメラモジュール2それぞれの取付誤差[deg]から、それぞれのアドレス変換テーブルの補正量[pixel]及び回転量を求めて、単純なグラフィックス座標系における画素単位の加減算及び回転のみで、グローバル座標系(カメラ座標系)の誤差を補正することができる。   As a result, the correction amount [pixel] and the rotation amount of each address conversion table are obtained from the mounting error [deg] of each camera module 2, and only the addition and subtraction and rotation in pixel units in a simple graphics coordinate system are performed. An error in the coordinate system (camera coordinate system) can be corrected.

<実施形態の効果>
以上詳細に説明したように、本発明を適用した第1の実施形態の車載画像処理装置1によれば、車両周囲を撮像する複数のカメラモジュール2の何れかに自車両に対する取付誤差が生じていたとしても、テーブル記憶部15に記憶されているデフォルトのアドレス変換テーブルを再構成することにより、取付誤差に起因する画像間のずれや歪みが効果的に抑制された車両周囲の俯瞰画像をモニタ3に表示させることができる。
<Effect of embodiment>
As described above in detail, according to the in-vehicle image processing apparatus 1 of the first embodiment to which the present invention is applied, an attachment error with respect to the own vehicle is generated in any of the plurality of camera modules 2 that capture the vehicle periphery. Even so, by reconstructing the default address conversion table stored in the table storage unit 15, it is possible to monitor a bird's-eye view image around the vehicle in which displacement and distortion between images due to mounting errors are effectively suppressed. 3 can be displayed.

すなわち、この車載画像処理装置1によれば、例えば図10に示すように、自車両の左側方を撮像方向としたカメラモジュール2(左サイドカメラ)の取付位置又は方向に誤差があって、この誤差に起因して、モニタ3に表示されるべき図10(a)に示すような俯瞰画像が表示されずに、図10(b)に示すように、白線L3,L4に歪みが生じたり、隣接する前方画像及び後方画像との継ぎ目で白線L3がずれているような違和感のある俯瞰画像がモニタ3に表示されてしまうといった不都合を有効に抑制することができる。例えば、カメラモジュール2の取付誤差がカメラ座標系におけるヨー角の誤差である場合には、デフォルトのアドレス変換テーブルを用いて俯瞰画像を作成すると、図10(b)に示すように白線L3の平行度が保たれていない俯瞰画像30がモニタ3に表示されることになるが、ヨー角の誤差量に応じたパラメータである左右方向シフト量dx[pixel]に従ってデフォルトのアドレス変換テーブルの入力アドレスを左右方向にシフトさせるだけで、図10(a)のように、白線L3の平行度が保たれた俯瞰画像30をモニタ3に表示させることができる。具体的には、自車両の左側方を撮像するカメラモジュール2にヨー角の誤差が3度あり、画像上で23ピクセル、実際で約30cmのずれがある場合であっても、VGAのモニタ3(Y軸)に換算して、23/480[pixel]のずれを1/480に抑えることができる。   That is, according to this in-vehicle image processing apparatus 1, for example, as shown in FIG. 10, there is an error in the mounting position or direction of the camera module 2 (left side camera) with the left side of the host vehicle as the imaging direction. Due to the error, the overhead image as shown in FIG. 10A to be displayed on the monitor 3 is not displayed, and the white lines L3 and L4 are distorted as shown in FIG. It is possible to effectively suppress the inconvenience that an unpleasant overhead view image in which the white line L3 is shifted at the joint between the adjacent front image and the rear image is displayed on the monitor 3. For example, when the mounting error of the camera module 2 is a yaw angle error in the camera coordinate system, when an overhead image is created using the default address conversion table, the white line L3 is parallel as shown in FIG. A bird's-eye view image 30 in which the degree is not maintained is displayed on the monitor 3, but the input address of the default address conversion table is set according to the horizontal shift amount dx [pixel] which is a parameter corresponding to the error amount of the yaw angle. By simply shifting in the left-right direction, the overhead image 30 in which the parallelism of the white line L3 is maintained can be displayed on the monitor 3, as shown in FIG. Specifically, the camera module 2 that captures the left side of the host vehicle has an error in yaw angle of 3 degrees, and even if there is a deviation of 23 pixels on the image and an actual displacement of about 30 cm, the VGA monitor 3 In terms of (Y axis), the shift of 23/480 [pixel] can be suppressed to 1/480.

また、本実施形態の車載画像処理装置1によれば、カメラモジュール2の車両に対する取付誤差が無い状態で俯瞰画像30を作成するためのデフォルトのアドレス変換テーブルを、カメラモジュール2の車両に対する取付誤差を修正するパラメータに従って再構成して、この再構成したアドレス変換テーブルに従ってカメラ画像データを出力バッファに格納させるので、アドレス変換テーブルの入力アドレス情報を変更するのみで、実際に俯瞰画像30を作成するに際して多くの処理を行うことなく簡単な処理で適切な俯瞰画像30を作成することができる。また、車両固有のカメラモジュール2の取付誤差からアドレス変換テーブルを再構成するので、当該アドレス変換テーブルを記憶するテーブル記憶部15のメモリ容量が膨大となることがない。   In addition, according to the in-vehicle image processing apparatus 1 of the present embodiment, the default address conversion table for creating the bird's-eye view image 30 in the state where there is no attachment error of the camera module 2 to the vehicle, the attachment error of the camera module 2 to the vehicle. Since the camera image data is stored in the output buffer according to the reconstructed address conversion table, the overhead image 30 is actually created simply by changing the input address information in the address conversion table. At this time, an appropriate overhead image 30 can be created by a simple process without performing many processes. Further, since the address conversion table is reconstructed from the mounting error of the camera module 2 unique to the vehicle, the memory capacity of the table storage unit 15 that stores the address conversion table does not become enormous.

具体的には、テーブル記憶部15には、カメラモジュール2に対応した入力バッファ12を指定するカメラ番号と、俯瞰画像30を作成するためのカメラ画像データを取り出す入力バッファ12上のアドレスを指定する入力アドレス情報と、当該入力バッファ12上のアドレスから取り出したカメラ画像データを格納する出力バッファ16上のアドレスを指定する出力アドレス情報との対応関係を記述したアドレス変換テーブルが記憶されており、画像変換部14によって、アドレス変換テーブルで指定されたカメラ番号及び入力アドレス情報に従って入力バッファ12からカメラ画像データを取り出し、当該カメラ画像データをアドレス変換テーブルで指定された出力バッファ16上のアドレスに格納する処理のみで、カメラモジュール2の取付誤差に拘わらず歪みやずれを抑制した俯瞰画像30を表示させることができる。   Specifically, the table storage unit 15 designates the camera number for designating the input buffer 12 corresponding to the camera module 2 and the address on the input buffer 12 from which the camera image data for creating the overhead image 30 is extracted. An address conversion table describing a correspondence relationship between input address information and output address information for designating an address on the output buffer 16 for storing camera image data extracted from the address on the input buffer 12 is stored. The conversion unit 14 extracts the camera image data from the input buffer 12 according to the camera number and input address information specified in the address conversion table, and stores the camera image data at the address on the output buffer 16 specified in the address conversion table. Camera module 2 by processing only Distortion and displacement regardless attachment error can be displayed overhead image 30 was suppressed.

また、本実施形態の車載画像処理装置1では、図2の誤差検出部41、パラメータ算出部42及びテーブル再構成部43を備えることにより、カメラ座標系の誤差に起因する画像座標系の誤差を修正するためのアドレス変換テーブルを再構成することができる。すなわち、画像座標系の横方向に入力アドレスをシフトさせるのみで、カメラモジュール2の車両に対する取付誤差であるカメラ座標系のヨー角の誤差に起因するずれを抑制した俯瞰画像30を表示させることができる。また、画像座標系の縦方向に入力アドレスをシフトさせるのみで、カメラモジュール2の車両に対する取付誤差であるピッチ角の誤差に起因するずれを抑制した俯瞰画像30を表示させることができる。更に、画像座標系の任意の座標を回転中心とする回転方向に入力アドレスを移動させるのみで、カメラモジュール2の車両に対する取付誤差であるカメラ座標系のロール角の誤差に起因するずれを抑制した俯瞰画像30を表示させることができる。   Further, the in-vehicle image processing apparatus 1 according to the present embodiment includes the error detection unit 41, the parameter calculation unit 42, and the table reconstruction unit 43 illustrated in FIG. 2, thereby reducing the image coordinate system error caused by the camera coordinate system error. An address conversion table for correction can be reconfigured. That is, only by shifting the input address in the horizontal direction of the image coordinate system, it is possible to display the bird's-eye view image 30 that suppresses the shift caused by the error in the yaw angle of the camera coordinate system, which is an attachment error of the camera module 2 to the vehicle. it can. Moreover, the overhead image 30 in which the shift due to the error of the pitch angle, which is the mounting error of the camera module 2 with respect to the vehicle, is suppressed can be displayed only by shifting the input address in the vertical direction of the image coordinate system. Furthermore, the shift caused by the error in the roll angle of the camera coordinate system, which is the mounting error of the camera module 2 with respect to the vehicle, is suppressed only by moving the input address in the rotation direction with the arbitrary coordinates of the image coordinate system as the rotation center. The overhead image 30 can be displayed.

更にまた、本実施形態の車載画像処理装置1によれば、カメラモジュール2のヨー角の誤差やピッチ角の誤差に起因する画像のずれと、カメラモジュール2のロール角の誤差に起因する画像のずれとを合わせて修正できるようにアドレス変換テーブルを再構成する場合に、先にヨー角の誤差量に応じた左右方向のシフト補正やピッチ角の誤差量に応じた上下方向のシフト補正を行い、その後に、ロール角の誤差量に応じた回転操作を行ってアドレス変換テーブルを再構成することにより、ロール角の誤差[deg]による回転量dθ[deg]の演算結果に小数値が含まれる場合であっても、当該小数値により現れる丸め誤差の影響を最低限に抑えることができる。   Furthermore, according to the in-vehicle image processing apparatus 1 of the present embodiment, the image shift caused by the error of the yaw angle or the pitch angle of the camera module 2 and the error of the roll angle of the camera module 2 is prevented. When reconstructing the address conversion table so that it can be corrected together with the deviation, the shift correction in the horizontal direction according to the error amount of the yaw angle and the shift correction in the vertical direction according to the error amount of the pitch angle are performed first. Thereafter, by performing a rotation operation according to the roll angle error amount and reconfiguring the address conversion table, the calculation result of the rotation amount dθ [deg] based on the roll angle error [deg] includes a decimal value. Even in this case, it is possible to minimize the influence of the rounding error that appears due to the decimal value.

なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。   The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.

例えば、テ−ブル記憶部15には、例えば右側方画像と左側方画像とをモニタ3に一画面で表示させるためのアドレス変換テーブルや、右後側方画像と左後側方画像と下方画像とを一画面で表示させるためのアドレス変換テーブルなどが他にも記憶されていても良い。このようなアドレス変換テーブルによって複数のカメラ画像データを連続的な1枚の画像にする場合あっても、上述したように、カメラモジュール2の取付誤差であるヨー角の誤差量、ピッチ角の誤差量、ロール角の誤差量に応じたパラメータに従ってアドレス変換テーブルを再構成することにより、表示用の画像に、画像間のずれや歪みを抑制することができる。   For example, the table storage unit 15 stores, for example, an address conversion table for displaying a right side image and a left side image on the monitor 3 on one screen, a right rear side image, a left rear side image, and a lower image. In addition, an address conversion table or the like may be stored. Even when a plurality of camera image data is converted into one continuous image by such an address conversion table, as described above, the error amount of the yaw angle and the error of the pitch angle, which are the mounting errors of the camera module 2. By reconstructing the address conversion table according to the parameters according to the amount and the error amount of the roll angle, it is possible to suppress the shift and distortion between images in the display image.

[第2の実施形態]
次に、本発明の第2の実施形態について図面を参照して説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to the drawings.

本実施形態は、第1の実施形態で説明したようにカメラモジュールの車両に対する取付誤差を修正するパラメータに従ってアドレス変換テーブルを再構成するのではなく、視点変換処理にはデフォルトのアドレス変換テーブルを用い、入力バッファに格納される各カメラモジュールのカメラ画像データを前記パラメータに従って調整することで、カメラモジュールに取付誤差が生じていてもずれや歪みのない適切な俯瞰画像をモニタに表示できるようにするものである。なお、以下では、本実施形態に特徴的な部分を中心に説明することとし、第1の実施形態と同様の構成要素については同一の符号を付して詳細な説明は省略する。   In this embodiment, as described in the first embodiment, the address conversion table is not reconfigured according to the parameter for correcting the attachment error of the camera module to the vehicle, but the default address conversion table is used for the viewpoint conversion processing. By adjusting the camera image data of each camera module stored in the input buffer according to the above parameters, it is possible to display an appropriate overhead image without any deviation or distortion even if an installation error occurs in the camera module. Is. In the following, description will be made centering on the characteristic parts of the present embodiment, and the same components as those in the first embodiment will be denoted by the same reference numerals and detailed description thereof will be omitted.

図11は、本発明を適用した第2の実施形態の車載画像処理装置50の構成を示す図である。この車載画像処理装置50は、CPU13によって例えば図12に示すような機能部41、42、44が実現されることで、各カメラモジュール2から入力バッファ12に入力されるカメラ画像データを入力バッファ12上でシフト、回転調整することでカメラモジュール2の取付誤差に起因する俯瞰画像上のずれや歪みを抑制して、適切な俯瞰画像をモニタ3に表示させる。   FIG. 11 is a diagram showing a configuration of an in-vehicle image processing apparatus 50 according to the second embodiment to which the present invention is applied. The in-vehicle image processing apparatus 50 realizes the function units 41, 42, and 44 as shown in FIG. 12 by the CPU 13, for example, so that the camera image data input from each camera module 2 to the input buffer 12 is input to the input buffer 12. The shift and rotation adjustment above suppresses the shift and distortion on the overhead view image caused by the mounting error of the camera module 2 and causes the monitor 3 to display an appropriate overhead view image.

<車載画像処理装置の構成及び動作>
CPU13は、図12に示すように、第1の実施形態で説明したテーブル再構成手段43に代えて、入力バッファ12上のカメラ画像データを調整する画像調整部44を備える。なお、誤差検出部41やパラメータ算出部42は、基本的には第1の実施形態と同様であるが、本実施形態におけるパラメータ算出部42は、誤差検出部41で検出されるカメラモジュール2の取付誤差に応じて、各カメラモジュール2のカメラ画像データを入力バッファ12上で調整するためのパラメータを算出する。
<Configuration and operation of in-vehicle image processing apparatus>
As shown in FIG. 12, the CPU 13 includes an image adjustment unit 44 that adjusts the camera image data on the input buffer 12 instead of the table reconstruction unit 43 described in the first embodiment. The error detection unit 41 and the parameter calculation unit 42 are basically the same as those in the first embodiment, but the parameter calculation unit 42 in the present embodiment is the camera module 2 detected by the error detection unit 41. Parameters for adjusting the camera image data of each camera module 2 on the input buffer 12 are calculated according to the mounting error.

誤差検出部41及びパラメータ算出部42の動作は、第1の実施形態と同様であり、カメラモジュール2の3次元的なずれであるカメラ座標系におけるヨー角[deg]、ピッチ角[deg]、ロール角[deg]の誤差を、2次元座標系である画像座標系の横方向(左右方向)のシフト量dx[pixel]、縦方向(上下方向)のシフト量dy[pixel]、画面中心の回転量dθ[deg]として算出する。   The operations of the error detection unit 41 and the parameter calculation unit 42 are the same as in the first embodiment, and the yaw angle [deg], pitch angle [deg], The error of the roll angle [deg] is determined by shifting the horizontal (horizontal) shift amount dx [pixel], the vertical (vertical) shift amount dy [pixel], and the center of the screen in the image coordinate system which is a two-dimensional coordinate system. The rotation amount is calculated as dθ [deg].

画像調整部44は、パラメータ算出部42で求められたヨー角の誤差を修正するための左右方向シフト量dx、ピッチ角の誤差を修正するための上下方向シフト量dy、ロール角の誤差を修正するための回転量dθのそれぞれの正負逆の値を用いて、各カメラモジュール2から入力されて入力バッファ12に格納されたカメラ画像データを調整する。この画像調整部44は、先ず、左右方向シフト量−dxだけ入力バッファ12に格納されたカメラ画像データをずらすと共に上下方向シフト量−dyだけ入力バッファ12に格納されたカメラ画像データをずらす。その後、画像調整部44は、回転量−dθに相当する画素数だけ、左右方向シフト量−dx及び上下方向シフト量−dyだけずらされた入力バッファ12内のカメラ画像データを回転させる。すなわち、画像調整部44は、左右方向及び上下方向に入力バッファ12内のカメラ画像データをずらした後に、当該ずらした後のカメラ画像データを回転させる。このように先に左右方向及び上下方向にカメラ画像データをずらして、その後に回転させる理由は第1の実施形態と同様である。   The image adjustment unit 44 corrects the horizontal shift amount dx for correcting the yaw angle error obtained by the parameter calculation unit 42, the vertical shift amount dy for correcting the pitch angle error, and the roll angle error. The camera image data input from each camera module 2 and stored in the input buffer 12 is adjusted using the respective positive and negative values of the rotation amount dθ for the adjustment. The image adjustment unit 44 first shifts the camera image data stored in the input buffer 12 by the left-right direction shift amount −dx and shifts the camera image data stored in the input buffer 12 by the vertical direction shift amount −dy. Thereafter, the image adjustment unit 44 rotates the camera image data in the input buffer 12 shifted by the horizontal shift amount −dx and the vertical shift amount −dy by the number of pixels corresponding to the rotation amount −dθ. That is, the image adjustment unit 44 shifts the camera image data in the input buffer 12 in the horizontal direction and the vertical direction, and then rotates the shifted camera image data. The reason why the camera image data is first shifted in the left-right direction and the up-down direction and then rotated is the same as in the first embodiment.

なお、本実施形態では、カメラ座標系におけるロール角の誤差に起因する画像のずれや歪みを抑制するために入力バッファ12内のカメラ画像データの回転量dθを演算してカメラ画像データの調整を行っているが、当該ロール角の誤差が少なければ、入力バッファ12上におけるカメラ画像データの上下及び左右のシフトのみでヨー角の誤差及びピッチ角の誤差に起因する画像のずれや歪みを抑制できることは勿論である。   In the present embodiment, the camera image data is adjusted by calculating the rotation amount dθ of the camera image data in the input buffer 12 in order to suppress the image shift and distortion caused by the roll angle error in the camera coordinate system. If the roll angle error is small, image shift and distortion due to yaw angle error and pitch angle error can be suppressed only by shifting the camera image data up and down and left and right on the input buffer 12. Of course.

入力バッファ12上でカメラ画像データを調整する処理のイメージを図13に模式的に示す。なお、この図13に示す例は、第1の実施形態で説明した図7の状態をカメラモジュール2の取付誤差がない状態とし、この図7の状態に対して、カメラモジュール2にヨー角及びピッチ角の誤差が生じた場合の例である。   An image of processing for adjusting camera image data on the input buffer 12 is schematically shown in FIG. In the example shown in FIG. 13, the state of FIG. 7 described in the first embodiment is set to a state where there is no mounting error of the camera module 2, and the yaw angle and the camera module 2 are compared with the state of FIG. This is an example when a pitch angle error occurs.

カメラモジュール2に取付誤差が生じている場合には、カメラモジュール2で撮像する範囲に誤差が発生するので、図13(a)に示すように、入力バッファ12のうち、図7の入力アドレス「6」、「7」、「10」、「11」に格納されるはずのカメラ画像データが、入力アドレス「1」、「2」、「5」、「6」にずれて格納される状態となる。そして、このままの状態で、アドレス変換テーブルに従って入力アドレス「6」、「7」、「10」、「11」のカメラ画像データを取り出して、出力アドレス「1」〜「4」に格納すると、本来モニタ3に表示するべき車両周囲の特定場所とは異なる場所の画像を表示させてしまう。   If there is an attachment error in the camera module 2, an error occurs in the range captured by the camera module 2, and therefore, as shown in FIG. 13A, the input address “ The camera image data that should be stored in “6”, “7”, “10”, and “11” are stored in a state shifted to the input addresses “1”, “2”, “5”, and “6”. Become. In this state, when the camera image data of the input addresses “6”, “7”, “10”, “11” is extracted according to the address conversion table and stored in the output addresses “1” to “4”, An image of a place different from a specific place around the vehicle to be displayed on the monitor 3 is displayed.

これに対し、上述したようにパラメータdx=−1、dy=−1からその正負逆の値である上下方向シフト量−dyを+1[1アドレス分]とし、左右方向シフト量−dxを+1[1アドレス分]と決定して、入力バッファ12内の画素情報を移動させると、図13(b)に示すように、デフォルトのアドレス変換テーブルを使いつつ、元々入力アドレス「1」、「2」、「5」、「6」に格納されていたカメラ画像データを取り出すよう変更することができる。本例では、調整前の入力アドレス「1」に格納されていたカメラ画像データ「R」が、調整後には入力アドレス「6」に格納するよう画素全体がシフトされている。なお、カメラ画像データの移動により情報がなくなった部分に関しては、例えば色情報を格納する等で対応する。また、以上の例はカメラモジュール2にヨー角及びピッチ角の誤差が生じている場合であるが、さらにロール角の誤差も生じている場合には、入力バッファ12内の画素情報を上下左右方向にシフトした後に、上述したロール角の誤差に応じた回転量の逆数−dθに相当する画素数分だけ入力バッファ12上でカメラ画像データを回転させる操作を行えばよい。   On the other hand, as described above, from the parameters dx = −1 and dy = −1, the vertical shift amount −dy, which is the opposite value, is +1 [one address], and the horizontal shift amount −dx is +1 [ 1 address] and the pixel information in the input buffer 12 is moved, the input addresses “1” and “2” are originally used while using the default address conversion table as shown in FIG. , “5”, “6” can be changed so as to take out the camera image data. In this example, the entire pixel is shifted so that the camera image data “R” stored at the input address “1” before adjustment is stored at the input address “6” after adjustment. Note that a portion where information is lost due to movement of camera image data is dealt with by storing color information, for example. Further, the above example is a case where the camera module 2 has errors in the yaw angle and the pitch angle, but when there is also an error in the roll angle, the pixel information in the input buffer 12 is changed in the vertical and horizontal directions. After the shift to, the camera image data may be rotated on the input buffer 12 by the number of pixels corresponding to the reciprocal -dθ of the rotation amount corresponding to the roll angle error described above.

ここで、本実施形態の車載用画像処理装置50において、カメラモジュール2から入力されるカメラ画像データを入力バッファ12上で調整し、デフォルトのアドレス変換テーブルを用いて俯瞰画像を作成する動作の概要について、図14及び図15を参照して説明する。なお、図14は一連の動作の流れを示すフローチャートであり、図15は画像調整部44での処理のイメージを表す図である。   Here, in the in-vehicle image processing apparatus 50 according to the present embodiment, an outline of an operation for adjusting camera image data input from the camera module 2 on the input buffer 12 and creating an overhead image using a default address conversion table. Will be described with reference to FIGS. 14 and 15. 14 is a flowchart showing a flow of a series of operations, and FIG. 15 is a diagram showing an image of processing in the image adjustment unit 44.

図14のフローが開始されると、まず、ステップS21において、誤差検出部41によりカメラ座標系におけるヨー角の誤差[deg]、ピッチ角の誤差[deg]、ロール角の誤差[deg]を求め、パラメータ算出部42により、各誤差[deg]から、上下方向シフト量dy[pixel]、左右方向シフト量dx[pixel]、回転量dθ[deg]を求める。なお、これら誤差検出部41及びパラメータ算出部42による処理内容は、上述した第1の実施形態と同様である。   When the flow of FIG. 14 is started, first, in step S21, the error detection unit 41 obtains the yaw angle error [deg], the pitch angle error [deg], and the roll angle error [deg] in the camera coordinate system. The parameter calculation unit 42 obtains the vertical shift amount dy [pixel], the horizontal shift amount dx [pixel], and the rotation amount dθ [deg] from each error [deg]. The processing contents by the error detection unit 41 and the parameter calculation unit 42 are the same as those in the first embodiment described above.

次に、ステップS22において、画像調整部44により、カメラモジュール2から入力されて車載用画像処理装置50内の入力バッファ12に格納されたカメラ画像データを、入力バッファ12上で、ステップS21で検出したパラメータdx、dyの正負逆の値(−dx、−dy)分だけシフトする処理を行う。本処理は、図15中の「シフト調整」部分での演算により実現される。   Next, in step S22, camera image data input from the camera module 2 and stored in the input buffer 12 in the in-vehicle image processing device 50 is detected by the image adjustment unit 44 on the input buffer 12 in step S21. Shifting is performed by the positive and negative values (−dx, −dy) of the parameters dx, dy. This processing is realized by calculation in the “shift adjustment” portion in FIG.

次に、ステップS23において、画像調整部44により、ステップS22でシフト調整を行ったカメラ画像データを、入力バッファ12上で、ステップS21で検出したパラメータdθの逆数(−dθ)分だけ回転させる処理を行う。本処理は、図15中の「回転操作」部分での演算により実現される。なお、カメラ画像データを回転させる操作は、第1の実施形態で説明したように回転前の座標と回転後の座標の対応関係をその都度計算するようにしてもよいし、テーブルとして備えていてもよい。また、調整後のカメラ画像データは、入力バッファ12上の元々格納してあったバッファ領域に上書きしてもよいし、新たな領域に格納してもよい。   Next, in step S23, the image adjustment unit 44 rotates the camera image data subjected to the shift adjustment in step S22 by the reciprocal (−dθ) of the parameter dθ detected in step S21 on the input buffer 12. I do. This processing is realized by calculation in the “rotation operation” portion in FIG. The operation of rotating the camera image data may be calculated as the correspondence between the coordinates before the rotation and the coordinates after the rotation as described in the first embodiment, or provided as a table. Also good. Further, the adjusted camera image data may be overwritten on the buffer area originally stored on the input buffer 12 or may be stored in a new area.

以上のステップS21〜ステップS23の処理は、取付誤差が生じている全てのカメラモジュール2から入力されるカメラ画像データに対して繰り返し行われる。すなわち、ステップS24において、取付誤差が生じている全てのカメラモジュール2からのカメラ画像データに対する調整が終了したかどうかが判断され、取付誤差が生じている全てのカメラモジュール2からのカメラ画像データに対する調整が終了した段階で次のステップS25に進む。   The processes in steps S21 to S23 are repeatedly performed on the camera image data input from all the camera modules 2 in which the attachment error has occurred. That is, in step S24, it is determined whether or not the adjustment for the camera image data from all the camera modules 2 in which the mounting error has occurred is completed, and the camera image data from all the camera modules 2 in which the mounting error has occurred is determined. When the adjustment is completed, the process proceeds to the next step S25.

ステップS25では、画像変換部14がCPU13の制御に従って、テーブル記憶部15に記憶されているデフォルトのアドレス変換テーブルを読み出し、当該アドレス変換テーブルに従って、入力バッファ12上で調整が行われた各カメラ画像データを読み出して出力バッファ16に格納し、俯瞰画像を作成する。そして、出力バッファ16からモニタ6へと俯瞰画像が出力される。   In step S25, the image conversion unit 14 reads a default address conversion table stored in the table storage unit 15 according to the control of the CPU 13, and each camera image adjusted on the input buffer 12 according to the address conversion table. Data is read out and stored in the output buffer 16 to create an overhead image. Then, an overhead image is output from the output buffer 16 to the monitor 6.

以上の一連の処理により、カメラモジュール2それぞれの取付誤差[deg]から、それぞれのカメラ画像データの入力バッファ12上でのシフト量[pixel]及び回転量を求めて、単純なグラフィックス座標系における画素単位の加減算及び回転のみで、グローバル座標系(カメラ座標系)の誤差を補正して、ずれや歪みのない適切な俯瞰画像をモニタ6に表示することができる。   Through the above-described series of processing, the shift amount [pixel] and the rotation amount of each camera image data on the input buffer 12 are obtained from the mounting error [deg] of each camera module 2, and in a simple graphics coordinate system. An error in the global coordinate system (camera coordinate system) can be corrected only by addition / subtraction and rotation in units of pixels, and an appropriate overhead image without any deviation or distortion can be displayed on the monitor 6.

なお、上述した入力バッファ12内におけるカメラ画像データのシフト処理及び回転処理は統合して一度に行ってもよい。また、上述した画像調整処理は、車載用画像処理装置50内で行わず、カメラモジュール2内で行い、車載用画像処理装置50は該カメラモジュール2で調整されたカメラ画像データを入力バッファ12に格納して、デフォルトのアドレス変換テーブルに従って変換処理を行うようにしてもよい。この場合には、CPU13で実現される誤差検出部41、パラメータ算出部42、画像調整部44の各機能のうちの少なくとも画像調整部44としての機能を、各カメラモジュール2内部又は各カメラモジュール2に接続された制御装置で実現させるようにすればよく、上述した例と同様の効果を得ることができる。   The above-described shift processing and rotation processing of the camera image data in the input buffer 12 may be integrated and performed at a time. The above-described image adjustment processing is not performed in the in-vehicle image processing apparatus 50 but in the camera module 2, and the in-vehicle image processing apparatus 50 stores the camera image data adjusted in the camera module 2 in the input buffer 12. It may be stored and the conversion process may be performed according to a default address conversion table. In this case, at least the function as the image adjustment unit 44 among the functions of the error detection unit 41, the parameter calculation unit 42, and the image adjustment unit 44 realized by the CPU 13 is set in each camera module 2 or in each camera module 2. What is necessary is just to implement | achieve with the control apparatus connected to this, and the effect similar to the example mentioned above can be acquired.

<実施形態の効果>
以上詳細に説明したように、本発明を適用した第2の実施形態の車載画像処理装置50によれば、車両周囲を撮像する複数のカメラモジュール2の何れかに自車両に対する取付誤差が生じていたとしても、当該カメラモジュール2のカメラ画像データを入力バッファ12上で調整することにより、テーブル記憶部15に記憶されているデフォルトのアドレス変換テーブルを用いて、取付誤差に起因する画像間のずれや歪みが効果的に抑制された車両周囲の俯瞰画像を作成してモニタ3に表示させることができる。
<Effect of embodiment>
As described above in detail, according to the in-vehicle image processing apparatus 50 according to the second embodiment to which the present invention is applied, an attachment error with respect to the own vehicle occurs in any of the plurality of camera modules 2 that capture the vehicle periphery. Even if the camera image data of the camera module 2 is adjusted on the input buffer 12, the default address conversion table stored in the table storage unit 15 is used to shift the image between the images due to the mounting error. It is possible to create a bird's-eye view image around the vehicle in which distortion and distortion are effectively suppressed and display them on the monitor 3.

また、本実施形態の車載画像処理装置50によれば、車両固有のカメラモジュール2の取付誤差に応じてカメラ画像データを調整し、アドレス変換テーブルとしてはデフォルトのアドレス変換テーブルを用いて俯瞰画像を作成するので、当該アドレス変換テーブルを記憶するテーブル記憶部15のメモリ容量が膨大となることがない。   Moreover, according to the vehicle-mounted image processing apparatus 50 of this embodiment, camera image data is adjusted according to the attachment error of the camera module 2 intrinsic | native to a vehicle, and a bird's-eye view image is used as an address conversion table using a default address conversion table. Since it is created, the memory capacity of the table storage unit 15 for storing the address conversion table does not become enormous.

また、本実施形態の車載画像処理装置50では、図12の誤差検出部41、パラメータ算出部42及び画像調整部44を備えることにより、カメラ座標系の誤差に起因する画像座標系の誤差を修正することができる。すなわち、カメラモジュール2のカメラ画像データを入力バッファ12上で横方向にシフトさせるのみで、カメラモジュール2の車両に対する取付誤差であるカメラ座標系のヨー角の誤差に起因するずれを抑制した俯瞰画像30を表示させることができる。また、カメラモジュール2のカメラ画像データを入力バッファ12上で縦方向にシフトさせるのみで、カメラモジュール2の車両に対する取付誤差であるピッチ角の誤差に起因するずれを抑制した俯瞰画像30を表示させることができる。更に、カメラモジュール2のカメラ画像データを入力バッファ12上で画像座標系の任意の座標を回転中心とする回転方向に移動させるのみで、カメラモジュール2の車両に対する取付誤差であるカメラ座標系のロール角の誤差に起因するずれを抑制した俯瞰画像30を表示させることができる。   In addition, the in-vehicle image processing apparatus 50 according to the present embodiment includes the error detection unit 41, the parameter calculation unit 42, and the image adjustment unit 44 illustrated in FIG. 12, thereby correcting an error in the image coordinate system due to an error in the camera coordinate system. can do. That is, a bird's-eye view image in which a shift caused by an error in the yaw angle of the camera coordinate system, which is an attachment error of the camera module 2 to the vehicle, is suppressed only by shifting the camera image data of the camera module 2 horizontally on the input buffer 12. 30 can be displayed. Further, only by shifting the camera image data of the camera module 2 in the vertical direction on the input buffer 12, the overhead image 30 is displayed in which a shift due to a pitch angle error, which is an attachment error of the camera module 2 to the vehicle, is suppressed. be able to. Furthermore, the camera coordinate system roll, which is an attachment error of the camera module 2 with respect to the vehicle, can be obtained simply by moving the camera image data of the camera module 2 on the input buffer 12 in the rotation direction with an arbitrary coordinate of the image coordinate system as the rotation center. It is possible to display the bird's-eye view image 30 in which the shift due to the corner error is suppressed.

更にまた、本実施形態の車載画像処理装置50によれば、カメラモジュール2のヨー角の誤差やピッチ角の誤差に起因する画像のずれと、カメラモジュール2のロール角の誤差に起因する画像のずれとを合わせて修正できるように入力バッファ12上でカメラ画像データを調整する場合に、先にヨー角の誤差量に応じた左右方向のシフトやピッチ角の誤差量に応じた上下方向のシフトを行い、その後に、ロール角の誤差量に応じた回転操作を行うことにより、ロール角の誤差[deg]による回転量dθ[deg]の演算結果に小数値が含まれる場合であっても、当該小数値により現れる丸め誤差の影響を最低限に抑えることができる。   Furthermore, according to the in-vehicle image processing apparatus 50 of the present embodiment, the image shift caused by the error in the yaw angle or the pitch angle of the camera module 2 and the error in the roll angle of the camera module 2 are detected. When the camera image data is adjusted on the input buffer 12 so that it can be corrected together with the shift, the shift in the left-right direction according to the yaw angle error amount or the vertical shift according to the pitch angle error amount is performed first. After that, by performing a rotation operation according to the roll angle error amount, even if the calculation result of the rotation amount dθ [deg] due to the roll angle error [deg] includes a decimal value, The influence of the rounding error that appears due to the decimal value can be minimized.

本発明を適用した第1の実施形態の車載画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image processing apparatus of 1st Embodiment to which this invention is applied. アドレス変換テーブルを再構成するための構成を示すブロック図である。It is a block diagram which shows the structure for reconfiguring an address conversion table. それぞれ撮像方向が異なるカメラ画像データに対して視点変換処理を行って、俯瞰画像を作成する処理を説明するための図である。It is a figure for demonstrating the process which performs a viewpoint conversion process with respect to the camera image data from which each imaging direction differs, and produces a bird's-eye view image. それぞれ撮像方向が異なるカメラ画像データに対して視点変換処理を行って、俯瞰画像を作成する処理であって、カメラモジュールの取付誤差がある場合の課題を説明するための図である。It is a figure for demonstrating the subject when it is a process which performs a viewpoint conversion process with respect to the camera image data from which each imaging direction differs, and produces a bird's-eye view image, and there exists an attachment error of a camera module. 誤差検出部及びパラメータ算出部によってカメラモジュールのカメラ座標系における取付誤差を検出して当該誤差を修正するパラメータを算出する際の一連の手順を示すフローチャートである。It is a flowchart which shows a series of procedures at the time of detecting the attachment error in the camera coordinate system of a camera module and calculating the parameter which corrects the said error by an error detection part and a parameter calculation part. カメラモジュールのカメラ座標系における取付誤差を検出して当該誤差を修正するパラメータを算出する処理を説明するための図であり、カメラモジュールにより撮像された自車両の左側方のカメラ画像を示す図である。It is a figure for demonstrating the process which calculates the parameter which detects the attachment error in the camera coordinate system of a camera module, and corrects the said error, and is a figure which shows the camera image of the left side of the own vehicle imaged with the camera module. is there. カメラモジュールの取付誤差が無い場合のアドレス変換テーブルを用いた俯瞰画像の作成処理を説明するための図である。It is a figure for demonstrating the creation process of the bird's-eye view image using the address conversion table when there is no attachment error of a camera module. カメラモジュールの取付誤差がある場合に、アドレス変換テーブルを再構成して俯瞰画像の作成を行う処理を説明するための図である。It is a figure for demonstrating the process which reconfigure | reconstructs an address conversion table and produces a bird's-eye view image, when there exists a mounting error of a camera module. アドレス変換テーブルの再構成処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the reconstruction process of an address conversion table. ヨー角の誤差が有る場合に表示される俯瞰画像について説明するための図であって、実施の形態の効果を説明するための図である。It is a figure for demonstrating the bird's-eye view image displayed when there exists a yaw angle error, Comprising: It is a figure for demonstrating the effect of embodiment. 本発明を適用した第2の実施形態の車載画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted image processing apparatus of 2nd Embodiment to which this invention is applied. カメラ画像データを入力バッファ上で調整するための構成を示すブロック図である。It is a block diagram which shows the structure for adjusting camera image data on an input buffer. カメラモジュールの取付誤差がある場合に、カメラ画像データを入力バッファ上で調整して俯瞰画像の作成を行う処理を説明するための図である。It is a figure for demonstrating the process which adjusts camera image data on an input buffer, and produces a bird's-eye view image, when there exists a mounting error of a camera module. カメラモジュールから入力されるカメラ画像データを入力バッファ上で調整して俯瞰画像を作成する際の一連の動作の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of operation | movement at the time of adjusting the camera image data input from a camera module on an input buffer, and producing a bird's-eye view image. 画像調整部によりカメラ画像データを調整する処理のイメージを表す図である。It is a figure showing the image of the process which adjusts camera image data by an image adjustment part.

符号の説明Explanation of symbols

1,50 車載画像処理装置
2A,2B,2C,2D カメラモジュール
3 モニタ
12A,12B,12C,12D 入力バッファ
13 CPU
14 画像変換部
15 テーブル記憶部
16 出力バッファ
30 俯瞰画像
41 誤差検出部
42 パラメータ算出部
43 テーブル再構成部
44 画像調整部
1,50 In-vehicle image processing device 2A, 2B, 2C, 2D Camera module 3 Monitor 12A, 12B, 12C, 12D Input buffer 13 CPU
DESCRIPTION OF SYMBOLS 14 Image conversion part 15 Table memory | storage part 16 Output buffer 30 Overhead image 41 Error detection part 42 Parameter calculation part 43 Table reconstruction part 44 Image adjustment part

Claims (12)

車両周囲を撮像してカメラ画像データを生成する複数のカメラモジュールと接続され、当該カメラ画像データのそれぞれを視点変換して、車両周囲の俯瞰画像を表示手段に表示させる車載画像処理装置であって、
前記複数のカメラモジュールで生成されたカメラ画像データを格納する複数の入力バッファを備える入力手段と、
前記複数の入力バッファのそれぞれから取り出されたカメラ画像データを用いて作成された俯瞰画像を格納する出力バッファを備え、当該俯瞰画像を前記表示手段に出力する出力手段と、
前記カメラモジュールに対応した入力バッファを指定するカメラ番号と、前記俯瞰画像を作成するためのカメラ画像データを取り出す前記入力バッファ上のアドレスを指定する入力アドレス情報と、当該入力バッファ上のアドレスから取り出したカメラ画像データを格納する出力バッファ上のアドレスを指定する出力アドレス情報との対応関係を記述したアドレス変換テーブルを記憶する記憶手段と、
前記記憶手段に記憶されたアドレス変換テーブルに従って前記入力バッファからカメラ画像データを取り出し、当該カメラ画像データを、前記記憶手段に記憶されたアドレス変換テーブルに従って前記出力バッファに格納して、前記俯瞰画像を作成する画像処理手段とを備え、
前記記憶手段に記憶されているアドレス変換テーブルは、前記カメラモジュールの前記車両に対する取付誤差が無い状態でのカメラ画像データを用いて前記俯瞰画像を作成するための初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させたアドレス変換テーブルであり、
前記初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させて前記記憶手段に記憶させるテーブル再構成手段を備え、
前記テーブル再構成手段は、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報を、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って変更して、前記記憶手段に記憶させるアドレス変換テーブルを再構成し、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のヨー角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の横方向にシフトさせることを特徴とする車載画像処理装置。
An in-vehicle image processing apparatus that is connected to a plurality of camera modules that capture a vehicle periphery and generate camera image data, converts the viewpoint of each of the camera image data, and displays an overhead image of the vehicle periphery on a display unit. ,
Input means comprising a plurality of input buffers for storing camera image data generated by the plurality of camera modules;
An output buffer for storing an overhead image created using camera image data extracted from each of the plurality of input buffers, and an output means for outputting the overhead image to the display means;
Extracted from the camera number specifying the input buffer corresponding to the camera module, the input address information specifying the address on the input buffer from which the camera image data for creating the overhead image is extracted, and the address on the input buffer Storage means for storing an address conversion table describing a correspondence relationship with output address information for designating an address on an output buffer for storing camera image data;
Camera image data is extracted from the input buffer according to the address conversion table stored in the storage means, the camera image data is stored in the output buffer according to the address conversion table stored in the storage means, and the overhead image is stored. Image processing means for creating,
The address conversion table stored in the storage means is an initial state address conversion table for creating the bird's-eye view image using camera image data in a state where there is no attachment error of the camera module to the vehicle. address conversion table der which was reconstituted according to the parameters to correct mounting error for the vehicle of the camera module is,
A table reconstructing means for reconfiguring the address conversion table in the initial state according to a parameter for correcting an attachment error of the camera module to the vehicle and storing the table in the storage means;
The table reconstruction means changes the input address information in the address conversion table in the initial state according to a parameter for correcting an attachment error of the camera module to the vehicle, and re-stores the address conversion table to be stored in the storage means. The image coordinate system is configured to specify an address position specified by the input address information in the address conversion table in the initial state in accordance with a parameter according to a yaw angle error amount of the camera coordinate system, which is an installation error of the camera module to the vehicle. A vehicle-mounted image processing apparatus characterized by shifting in the horizontal direction .
車両周囲を撮像してカメラ画像データを生成する複数のカメラモジュールと接続され、当該カメラ画像データのそれぞれを視点変換して、車両周囲の俯瞰画像を表示手段に表示させる車載画像処理装置であって、
前記複数のカメラモジュールで生成されたカメラ画像データを格納する複数の入力バッファを備える入力手段と、
前記複数の入力バッファのそれぞれから取り出されたカメラ画像データを用いて作成された俯瞰画像を格納する出力バッファを備え、当該俯瞰画像を前記表示手段に出力する出力手段と、
前記カメラモジュールに対応した入力バッファを指定するカメラ番号と、前記俯瞰画像を作成するためのカメラ画像データを取り出す前記入力バッファ上のアドレスを指定する入力アドレス情報と、当該入力バッファ上のアドレスから取り出したカメラ画像データを格納する出力バッファ上のアドレスを指定する出力アドレス情報との対応関係を記述したアドレス変換テーブルを記憶する記憶手段と、
前記記憶手段に記憶されたアドレス変換テーブルに従って前記入力バッファからカメラ画像データを取り出し、当該カメラ画像データを、前記記憶手段に記憶されたアドレス変換テーブルに従って前記出力バッファに格納して、前記俯瞰画像を作成する画像処理手段とを備え、
前記記憶手段に記憶されているアドレス変換テーブルは、前記カメラモジュールの前記車両に対する取付誤差が無い状態でのカメラ画像データを用いて前記俯瞰画像を作成するための初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させたアドレス変換テーブルであり、
前記初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させて前記記憶手段に記憶させるテーブル再構成手段を備え、
前記テーブル再構成手段は、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報を、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って変更して、前記記憶手段に記憶させるアドレス変換テーブルを再構成し、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のピッチ角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の縦方向にシフトさせることを特徴とする車載画像処理装置。
An in-vehicle image processing apparatus that is connected to a plurality of camera modules that capture a vehicle periphery and generate camera image data, converts the viewpoint of each of the camera image data, and displays an overhead image of the vehicle periphery on a display unit. ,
Input means comprising a plurality of input buffers for storing camera image data generated by the plurality of camera modules;
An output buffer for storing an overhead image created using camera image data extracted from each of the plurality of input buffers, and an output means for outputting the overhead image to the display means;
Extracted from the camera number specifying the input buffer corresponding to the camera module, the input address information specifying the address on the input buffer from which the camera image data for creating the overhead image is extracted, and the address on the input buffer Storage means for storing an address conversion table describing a correspondence relationship with output address information for designating an address on an output buffer for storing camera image data;
Camera image data is extracted from the input buffer according to the address conversion table stored in the storage means, the camera image data is stored in the output buffer according to the address conversion table stored in the storage means, and the overhead image is stored. Image processing means for creating,
The address conversion table stored in the storage means is an initial state address conversion table for creating the bird's-eye view image using camera image data in a state where there is no attachment error of the camera module to the vehicle. An address conversion table reconfigured according to a parameter for correcting an attachment error of the camera module to the vehicle ,
A table reconstructing means for reconfiguring the address conversion table in the initial state according to a parameter for correcting an attachment error of the camera module to the vehicle and storing the table in the storage means;
The table reconstruction means changes the input address information in the address conversion table in the initial state according to a parameter for correcting an attachment error of the camera module to the vehicle, and re-stores the address conversion table to be stored in the storage means. The image coordinate system is configured to specify an address position specified by the input address information in the address conversion table in the initial state in accordance with a parameter according to a pitch angle error amount of the camera coordinate system, which is an installation error of the camera module to the vehicle. car mounting image processing apparatus, wherein the shifting in the longitudinal direction of.
車両周囲を撮像してカメラ画像データを生成する複数のカメラモジュールと接続され、当該カメラ画像データのそれぞれを視点変換して、車両周囲の俯瞰画像を表示手段に表示させる車載画像処理装置であって、
前記複数のカメラモジュールで生成されたカメラ画像データを格納する複数の入力バッファを備える入力手段と、
前記複数の入力バッファのそれぞれから取り出されたカメラ画像データを用いて作成された俯瞰画像を格納する出力バッファを備え、当該俯瞰画像を前記表示手段に出力する出力手段と、
前記カメラモジュールに対応した入力バッファを指定するカメラ番号と、前記俯瞰画像を作成するためのカメラ画像データを取り出す前記入力バッファ上のアドレスを指定する入力アドレス情報と、当該入力バッファ上のアドレスから取り出したカメラ画像データを格納する出力バッファ上のアドレスを指定する出力アドレス情報との対応関係を記述したアドレス変換テーブルを記憶する記憶手段と、
前記記憶手段に記憶されたアドレス変換テーブルに従って前記入力バッファからカメラ画像データを取り出し、当該カメラ画像データを、前記記憶手段に記憶されたアドレス変換テーブルに従って前記出力バッファに格納して、前記俯瞰画像を作成する画像処理手段とを備え、
前記記憶手段に記憶されているアドレス変換テーブルは、前記カメラモジュールの前記車両に対する取付誤差が無い状態でのカメラ画像データを用いて前記俯瞰画像を作成するための初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させたアドレス変換テーブルであり、
前記初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させて前記記憶手段に記憶させるテーブル再構成手段を備え
前記テーブル再構成手段は、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報を、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って変更して、前記記憶手段に記憶させるアドレス変換テーブルを再構成し、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のロール角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を、画像座標系の任意の座標を回転中心とする回転方向に移動させることを特徴とする車載画像処理装置。
An in-vehicle image processing apparatus that is connected to a plurality of camera modules that capture a vehicle periphery and generate camera image data, converts the viewpoint of each of the camera image data, and displays an overhead image of the vehicle periphery on a display unit. ,
Input means comprising a plurality of input buffers for storing camera image data generated by the plurality of camera modules;
An output buffer for storing an overhead image created using camera image data extracted from each of the plurality of input buffers, and an output means for outputting the overhead image to the display means;
Extracted from the camera number specifying the input buffer corresponding to the camera module, the input address information specifying the address on the input buffer from which the camera image data for creating the overhead image is extracted, and the address on the input buffer Storage means for storing an address conversion table describing a correspondence relationship with output address information for designating an address on an output buffer for storing camera image data;
Camera image data is extracted from the input buffer according to the address conversion table stored in the storage means, the camera image data is stored in the output buffer according to the address conversion table stored in the storage means, and the overhead image is stored. Image processing means for creating,
The address conversion table stored in the storage means is an initial state address conversion table for creating the bird's-eye view image using camera image data in a state where there is no attachment error of the camera module to the vehicle. An address conversion table reconfigured according to a parameter for correcting an attachment error of the camera module to the vehicle,
A table reconstructing means for reconfiguring the address conversion table in the initial state according to a parameter for correcting an attachment error of the camera module to the vehicle and storing the table in the storage means ;
The table reconstruction means changes the input address information in the address conversion table in the initial state according to a parameter for correcting an attachment error of the camera module to the vehicle, and re-stores the address conversion table to be stored in the storage means. The address position specified by the input address information in the address conversion table in the initial state according to a parameter according to a roll angle error amount of the camera coordinate system, which is an installation error of the camera module with respect to the vehicle. car mounting image processing apparatus is characterized in that moving the arbitrary coordinate system in the direction of rotation and the rotation center.
前記テーブル再構成手段は、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のピッチ角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の縦方向にシフトさせることを特徴とする請求項に記載の車載画像処理装置。 The table reconstructing means is an address position specified by the input address information in the address conversion table in the initial state according to a parameter corresponding to a pitch angle error amount of a camera coordinate system, which is an attachment error of the camera module to the vehicle. vehicle image processing apparatus according to claim 1, characterized in Rukoto is shifted in the vertical direction of the image coordinate system. 前記テーブル再構成手段は、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のロール角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を、画像座標系の任意の座標を回転中心とする回転方向に移動させることを特徴とする請求項1,2,4の何れか1項に記載の車載画像処理装置。 The table reconstructing means is an address position designated by the input address information in the address conversion table in the initial state according to a parameter corresponding to an error amount of a roll angle of a camera coordinate system that is an attachment error of the camera module to the vehicle. the claim 1, 2, characterized in that to move the arbitrary coordinates of the image coordinate system into the rotational direction of the rotation center, the in-vehicle image processing apparatus according to any one of 4. 前記テーブル再構成手段は、前記カメラ座標系のヨー角の誤差量に応じたパラメータに従って前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の横方向にシフトさせる処理及び/又は記カメラ座標系のピッチ角の誤差量に応じたパラメータに従って前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の縦方向にシフトさせる処理を行った後に、前記カメラ座標系のロール角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を、画像座標系の任意の座標を回転中心とする回転方向に移動させる処理を行うことを特徴とする請求項又は5に記載の車載画像処理装置。 The table reconstruction means is a process for shifting the address position specified by the input address information in the address conversion table in the initial state in the horizontal direction of the image coordinate system in accordance with a parameter corresponding to the error amount of the yaw angle of the camera coordinate system. and shifting the address position in the longitudinal direction of the image coordinate system in which the input address information is specified in the address conversion table of the previous SL initial state in accordance with the parameter corresponding to the error amount of the pitch angle of / or pre-listen camera coordinate system After performing the processing, according to the parameter corresponding to the roll angle error amount of the camera coordinate system, the address position specified by the input address information in the address conversion table in the initial state is rotated to an arbitrary coordinate of the image coordinate system. according to claim 3 or 5, characterized in that the process of moving in the rotational direction around In-vehicle image processing apparatus. 車両周囲を撮像する複数のカメラモジュールで生成されたカメラ画像データのそれぞれを視点変換して、車両周囲の俯瞰画像を表示手段に表示させる車両用画像処理方法であって、
前記カメラ画像データを用いて前記俯瞰画像を作成するためのアドレス変換テーブルであって、前記カメラモジュールの前記車両に対する取付誤差が無い状態でのカメラ画像データを用いて前記俯瞰画像を作成するための初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させたアドレス変換テーブルを記憶手段に記憶させるステップと、
前記複数のカメラモジュールで生成されたカメラ画像データを、各カメラモジュールに対応した複数の入力バッファにそれぞれ格納するステップと、
前記記憶手段に記憶されたアドレス変換テーブルに従って前記入力バッファからカメラ画像データを取り出し、当該カメラ画像データを、前記記憶手段に記憶されたアドレス変換テーブルに従って出力バッファに格納して、前記俯瞰画像を作成するステップと、
前記初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させて、前記記憶手段に記憶させるアドレス変換テーブルを作成するステップを有し、
前記記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報を、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って変更して、前記記憶手段に記憶させるアドレス変換テーブルとし、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のヨー角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の横方向にシフトさせることを特徴とする車両用画像処理方法
An image processing method for a vehicle that converts a viewpoint of each of camera image data generated by a plurality of camera modules that capture the vehicle periphery and displays an overhead image of the vehicle periphery on a display means,
An address conversion table for creating the bird's-eye view image using the camera image data for creating the bird's-eye view image using camera image data in a state where there is no attachment error of the camera module to the vehicle. Storing the address conversion table in the initial state in the storage means, the address conversion table reconfigured according to the parameter for correcting the mounting error of the camera module to the vehicle;
Storing camera image data generated by the plurality of camera modules in a plurality of input buffers corresponding to each camera module;
The camera image data is extracted from the input buffer according to the address conversion table stored in the storage means, and the camera image data is stored in the output buffer according to the address conversion table stored in the storage means to create the overhead image. And steps to
Reconfiguring the address conversion table in the initial state according to a parameter for correcting an attachment error of the camera module to the vehicle, and creating an address conversion table to be stored in the storage unit;
In the step of creating an address conversion table to be stored in the storage means, the input address information in the address conversion table in the initial state is changed according to a parameter for correcting an attachment error of the camera module to the vehicle, and the storage means The address specified by the input address information in the initial address conversion table according to a parameter corresponding to an error amount of a yaw angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle vehicular image processing how to said shifting position in the transverse direction of the images coordinate system.
車両周囲を撮像する複数のカメラモジュールで生成されたカメラ画像データのそれぞれを視点変換して、車両周囲の俯瞰画像を表示手段に表示させる車両用画像処理方法であって、
前記カメラ画像データを用いて前記俯瞰画像を作成するためのアドレス変換テーブルであって、前記カメラモジュールの前記車両に対する取付誤差が無い状態でのカメラ画像データを用いて前記俯瞰画像を作成するための初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させたアドレス変換テーブルを記憶手段に記憶させるステップと、
前記複数のカメラモジュールで生成されたカメラ画像データを、各カメラモジュールに対応した複数の入力バッファにそれぞれ格納するステップと、
前記記憶手段に記憶されたアドレス変換テーブルに従って前記入力バッファからカメラ画像データを取り出し、当該カメラ画像データを、前記記憶手段に記憶されたアドレス変換テーブルに従って出力バッファに格納して、前記俯瞰画像を作成するステップと、
前記初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させて、前記記憶手段に記憶させるアドレス変換テーブルを作成するステップを有し、
前記記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報を、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って変更して、前記記憶手段に記憶させるアドレス変換テーブルとし、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のピッチ角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の縦方向にシフトさせることを特徴とする車両用画像処理方法
An image processing method for a vehicle that converts a viewpoint of each of camera image data generated by a plurality of camera modules that capture the vehicle periphery and displays an overhead image of the vehicle periphery on a display means,
An address conversion table for creating the bird's-eye view image using the camera image data for creating the bird's-eye view image using camera image data in a state where there is no attachment error of the camera module to the vehicle. Storing the address conversion table in the initial state in the storage means, the address conversion table reconfigured according to the parameter for correcting the mounting error of the camera module to the vehicle;
Storing camera image data generated by the plurality of camera modules in a plurality of input buffers corresponding to each camera module;
The camera image data is extracted from the input buffer according to the address conversion table stored in the storage means, and the camera image data is stored in the output buffer according to the address conversion table stored in the storage means to create the overhead image. And steps to
Reconfiguring the address conversion table in the initial state according to a parameter for correcting an attachment error of the camera module to the vehicle, and creating an address conversion table to be stored in the storage unit;
In the step of creating an address conversion table to be stored in the storage means, the input address information in the address conversion table in the initial state is changed according to a parameter for correcting an attachment error of the camera module to the vehicle, and the storage means The address specified by the input address information in the address conversion table in the initial state according to a parameter corresponding to an error amount of the pitch angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle vehicular image processing how to said shifting position in the longitudinal direction of the image coordinate system.
車両周囲を撮像する複数のカメラモジュールで生成されたカメラ画像データのそれぞれを視点変換して、車両周囲の俯瞰画像を表示手段に表示させる車両用画像処理方法であって、
前記カメラ画像データを用いて前記俯瞰画像を作成するためのアドレス変換テーブルであって、前記カメラモジュールの前記車両に対する取付誤差が無い状態でのカメラ画像データを用いて前記俯瞰画像を作成するための初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させたアドレス変換テーブルを記憶手段に記憶させるステップと、
前記複数のカメラモジュールで生成されたカメラ画像データを、各カメラモジュールに対応した複数の入力バッファにそれぞれ格納するステップと、
前記記憶手段に記憶されたアドレス変換テーブルに従って前記入力バッファからカメラ画像データを取り出し、当該カメラ画像データを、前記記憶手段に記憶されたアドレス変換テーブルに従って出力バッファに格納して、前記俯瞰画像を作成するステップと
前記初期状態のアドレス変換テーブルを、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って再構成させて、前記記憶手段に記憶させるアドレス変換テーブルを作成するステップを有し、
前記記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報を、前記カメラモジュールの前記車両に対する取付誤差を修正するパラメータに従って変更して、前記記憶手段に記憶させるアドレス変換テーブルとし、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のロール角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を、画像座標系の任意の座標を回転中心とする回転方向に移動させることを特徴とする車両用画像処理方法。
An image processing method for a vehicle that converts a viewpoint of each of camera image data generated by a plurality of camera modules that capture the vehicle periphery and displays an overhead image of the vehicle periphery on a display means,
An address conversion table for creating the bird's-eye view image using the camera image data for creating the bird's-eye view image using camera image data in a state where there is no attachment error of the camera module to the vehicle. Storing the address conversion table in the initial state in the storage means, the address conversion table reconfigured according to the parameter for correcting the mounting error of the camera module to the vehicle;
Storing camera image data generated by the plurality of camera modules in a plurality of input buffers corresponding to each camera module;
The camera image data is extracted from the input buffer according to the address conversion table stored in the storage means, and the camera image data is stored in the output buffer according to the address conversion table stored in the storage means to create the overhead image. the method comprising the steps of,
Wherein the address conversion table in the initial state, and reconstituted according to the parameters to correct mounting error for the vehicle of the camera module, have a step of creating an address conversion table to be stored in the storage means,
In the step of creating an address conversion table to be stored in the storage means, the input address information in the address conversion table in the initial state is changed according to a parameter for correcting an attachment error of the camera module to the vehicle, and the storage means The address specified by the input address information in the address conversion table in the initial state according to a parameter corresponding to an error amount of a roll angle of the camera coordinate system, which is an attachment error of the camera module to the vehicle position, vehicular image processing method comprising Rukoto move any coordinate of an image coordinate system into the rotational direction of the rotation center.
前記記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のピッチ角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の縦方向にシフトさせることを特徴とする請求項に記載の車両用画像処理方法。 In the step of creating an address conversion table to be stored in the storage means, the address conversion table in the initial state according to a parameter corresponding to an error amount of a pitch angle of a camera coordinate system that is an attachment error of the camera module to the vehicle. vehicular image processing method according to claim 7, characterized in Rukoto shifting the address where the input address information is designated in the vertical direction of the image coordinate system. 前記記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、前記カメラモジュールの前記車両に対する取付誤差であるカメラ座標系のロール角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を、画像座標系の任意の座標を回転中心とする回転方向に移動させることを特徴とする請求項7,8,10の何れか1項に記載の車両用画像処理方法。 In the step of creating an address conversion table to be stored in said storage means, in accordance with the parameters according to the error amount of the roll angle of the camera coordinate system is a mounting error with respect to the vehicle in front Symbol camera module, in the address conversion table of the initial state the vehicle according to the address position where the input address information is specified, claim 7, 8, characterized in Rukoto move any coordinate of an image coordinate system into the rotational direction of the rotation center, in any one of the 10 Image processing method. 前記記憶手段に記憶させるアドレス変換テーブルを作成するステップでは、前記カメラ座標系のヨー角の誤差量に応じたパラメータに従って前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の横方向にシフトさせる処理及び/又は前記カメラ座標系のピッチ角の誤差量に応じたパラメータに従って前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を画像座標系の縦方向にシフトさせる処理を行った後に、前記カメラ座標系のロール角の誤差量に応じたパラメータに従って、前記初期状態のアドレス変換テーブルにおける前記入力アドレス情報が指定するアドレス位置を、画像座標系の任意の座標を回転中心とする回転方向に移動させる処理を行うことを特徴とする請求項9又は11に記載の車両用画像処理方法。 In the step of creating an address conversion table to be stored in the storage means, the input address information is specified in the address conversion table of the previous SL initial state in accordance with the parameter corresponding to the error amount of the yaw angle before hear camera coordinate system The address position specified by the input address information in the address conversion table in the initial state is imaged according to a process for shifting the address position in the horizontal direction of the image coordinate system and / or a parameter corresponding to the error amount of the pitch angle of the camera coordinate system. After performing the process of shifting in the vertical direction of the coordinate system, the address position specified by the input address information in the address conversion table in the initial state is determined according to the parameter corresponding to the roll angle error amount of the camera coordinate system. Processing to move in the rotation direction around the arbitrary coordinate of the coordinate system Vehicular image processing method according to claim 9 or 11, characterized in that.
JP2006056573A 2005-03-03 2006-03-02 In-vehicle image processing apparatus and vehicle image processing method Active JP4710653B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006056573A JP4710653B2 (en) 2005-03-03 2006-03-02 In-vehicle image processing apparatus and vehicle image processing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005058692 2005-03-03
JP2005058692 2005-03-03
JP2006056573A JP4710653B2 (en) 2005-03-03 2006-03-02 In-vehicle image processing apparatus and vehicle image processing method

Publications (2)

Publication Number Publication Date
JP2006277738A JP2006277738A (en) 2006-10-12
JP4710653B2 true JP4710653B2 (en) 2011-06-29

Family

ID=37212377

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006056573A Active JP4710653B2 (en) 2005-03-03 2006-03-02 In-vehicle image processing apparatus and vehicle image processing method

Country Status (1)

Country Link
JP (1) JP4710653B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4859652B2 (en) 2006-12-15 2012-01-25 アルパイン株式会社 Image display device
JP4832321B2 (en) * 2007-01-26 2011-12-07 三洋電機株式会社 Camera posture estimation apparatus, vehicle, and camera posture estimation method
JP5072576B2 (en) * 2007-12-20 2012-11-14 アルパイン株式会社 Image display method and image display apparatus
JP5523730B2 (en) * 2009-04-07 2014-06-18 アルパイン株式会社 In-vehicle peripheral image display device
US8896699B2 (en) 2010-07-14 2014-11-25 Mitsubishi Electric Corporation Image synthesis device
JP5898475B2 (en) * 2011-11-28 2016-04-06 クラリオン株式会社 In-vehicle camera system, calibration method thereof, and calibration program thereof
JP5971939B2 (en) * 2011-12-21 2016-08-17 アルパイン株式会社 Image display device, imaging camera calibration method in image display device, and calibration program
JP6085212B2 (en) * 2013-03-28 2017-02-22 本田技研工業株式会社 Driving assistance device
JP6432033B2 (en) * 2014-05-29 2018-12-05 パナソニックIpマネジメント株式会社 In-vehicle device
JP6471522B2 (en) * 2015-02-10 2019-02-20 株式会社デンソー Camera parameter adjustment device
JP2016201585A (en) * 2015-04-07 2016-12-01 株式会社ソシオネクスト Image processing apparatus and image processing apparatus control method
JP6614042B2 (en) * 2016-06-15 2019-12-04 株式会社Jvcケンウッド Posture change determination device, overhead view video generation device, overhead view video generation system, posture change determination method, and program
US10670725B2 (en) * 2017-07-25 2020-06-02 Waymo Llc Determining yaw error from map data, lasers, and cameras
CN117499601B (en) * 2024-01-02 2024-04-05 上海励驰半导体有限公司 Method for calling multi-camera data for SoC

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH077656A (en) * 1993-06-18 1995-01-10 Olympus Optical Co Ltd Picture handling device
JP2002051331A (en) * 2000-05-24 2002-02-15 Matsushita Electric Ind Co Ltd Imaging device
JP2003087781A (en) * 2001-06-29 2003-03-20 Honda Motor Co Ltd Vehicle peripheral environment display device
JP2004274701A (en) * 2003-02-21 2004-09-30 Canon Inc Image processor and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH077656A (en) * 1993-06-18 1995-01-10 Olympus Optical Co Ltd Picture handling device
JP2002051331A (en) * 2000-05-24 2002-02-15 Matsushita Electric Ind Co Ltd Imaging device
JP2003087781A (en) * 2001-06-29 2003-03-20 Honda Motor Co Ltd Vehicle peripheral environment display device
JP2004274701A (en) * 2003-02-21 2004-09-30 Canon Inc Image processor and image processing method

Also Published As

Publication number Publication date
JP2006277738A (en) 2006-10-12

Similar Documents

Publication Publication Date Title
JP4710653B2 (en) In-vehicle image processing apparatus and vehicle image processing method
US7782374B2 (en) Processor and processing method for generating a panoramic image for a vehicle
US11303806B2 (en) Three dimensional rendering for surround view using predetermined viewpoint lookup tables
JP5491235B2 (en) Camera calibration device
JP4874280B2 (en) Image processing apparatus and method, driving support system, and vehicle
US20060038895A1 (en) Image processing device
JP5316805B2 (en) In-vehicle camera device image adjustment device and in-vehicle camera device
JP6277652B2 (en) Vehicle peripheral image display device and camera adjustment method
JP4975592B2 (en) Imaging device
JP2009017020A (en) Image processor and method for generating display image
US9994157B2 (en) Periphery monitoring apparatus and periphery monitoring system
JP2008187564A (en) Camera calibration apparatus and method, and vehicle
US9852494B2 (en) Overhead image generation apparatus
CN113853633A (en) Enhanced rendering of surround view images
JP4682830B2 (en) In-vehicle image processing device
JP2020100388A (en) Circuit device, electronic device, and vehicle
JP2010187161A (en) On-board camera system and image processing method
JP2009123131A (en) Imaging apparatus
JP5488338B2 (en) Vehicle periphery monitoring device
WO2010007960A1 (en) View-point conversion video image system for camera mounted on vehicle and method for acquiring view-point conversion video image
KR101825343B1 (en) Apparatus and system for processing rear view video of a car
WO2018016274A1 (en) Image processing device
JP5047912B2 (en) In-vehicle image processing apparatus and image processing method thereof
JP2012065228A (en) Image processing apparatus, image display system, and image display method
KR20110082873A (en) Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110222

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110307

R150 Certificate of patent or registration of utility model

Ref document number: 4710653

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150