JP2011013929A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2011013929A
JP2011013929A JP2009157472A JP2009157472A JP2011013929A JP 2011013929 A JP2011013929 A JP 2011013929A JP 2009157472 A JP2009157472 A JP 2009157472A JP 2009157472 A JP2009157472 A JP 2009157472A JP 2011013929 A JP2011013929 A JP 2011013929A
Authority
JP
Japan
Prior art keywords
bird
bev
image
images
luminance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009157472A
Other languages
Japanese (ja)
Inventor
Shugo Yamashita
周悟 山下
Hiroshi Kano
浩 蚊野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2009157472A priority Critical patent/JP2011013929A/en
Publication of JP2011013929A publication Critical patent/JP2011013929A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processing device capable of improving the quality of a composited image.SOLUTION: Cameras CM_0 to CM_3 attached to a vehicle 100 obliquely capture a road surface by attitudes that partially have common vidual fields CVW_0 to CVM_3. A CPU converts field images P_0 to P_3, outputted from these cameras CM_0 to CM_3, into bird's-eye images BEV_0 to BEV_3 expressing the states of viewing the load surface from upper positions. Furthermore, the CPU detects positions of images expressing solid objects existing in the common visual field CVW_0 to CVM_3, as excluding the positions from respective bird's-eye images BEV_0 to BEV_3 and excludes the images on the excluding positions from the bird's-eye images BEV_0 to BEV_3, in common. Furthermore, the CPU combines the bird's-eye images BEV_0 to BEV_3, in a mode for suppressing the differences in luminances and/or chromaticities among a plurality of images left after the excluding processing. According to the present invention, quality of the combined bird's-eye image is improved.

Description

この発明は、画像処理装置に関し、特に、共通視野を部分的に有する姿勢で基準面を斜めから捉える複数のカメラの各々から出力された被写界像を鳥瞰画像に変換する、画像処理装置に関する。   The present invention relates to an image processing apparatus, and more particularly, to an image processing apparatus that converts a scene image output from each of a plurality of cameras that capture a reference plane obliquely with a posture partially having a common visual field into a bird's-eye view image. .

この種の装置の一例が、特許文献1に開示されている。この背景技術によれば、共通視野を部分的に有する2つのカメラ画像の輝度値が圧縮部で圧縮される。また、共通視野を表す部分画像の輝度差は、輝度差分析部によって求められる。シフト部は、注目する2つのカメラ画像の少なくとも一方の輝度値を、輝度差分析部で求められた輝度差が解消されるようにシフトさせる。シフトされた輝度値は、全画素の輝度値が絶対白レベルと絶対黒レベルとの間に収まるように、伸張部によって伸張される。これによって、共通視野における輝度レベルの差が抑制されるとともに、補正後の輝度レベルが絶対白レベルから絶対黒レベルまでの範囲に収められる。   An example of this type of device is disclosed in Patent Document 1. According to this background art, the luminance values of two camera images partially having a common visual field are compressed by the compression unit. Further, the luminance difference of the partial images representing the common visual field is obtained by the luminance difference analysis unit. The shift unit shifts the luminance value of at least one of the two camera images of interest so that the luminance difference obtained by the luminance difference analysis unit is eliminated. The shifted luminance value is expanded by the expansion unit so that the luminance value of all pixels falls within the absolute white level and the absolute black level. As a result, the difference in luminance level in the common visual field is suppressed, and the corrected luminance level is within the range from the absolute white level to the absolute black level.

特開2007−72750号公報JP 2007-72750 A

しかし、輝度レベルを補正するにあたって、立体物が共通視野に存在するか否かが考慮されることはない。このため、背景技術では、合成画像の品質に限界がある。   However, in correcting the luminance level, it is not considered whether the three-dimensional object exists in the common visual field. For this reason, in the background art, the quality of the composite image is limited.

それゆえに、この発明の主たる目的は、合成画像の品質を向上させることができる、画像処理装置を提供することである。   Therefore, a main object of the present invention is to provide an image processing apparatus capable of improving the quality of a composite image.

この発明に従う画像処理装置(10:実施例で相当する参照符号。以下同じ)は、共通視野を部分的に有する姿勢で基準面を斜めから捉える複数のカメラ(CM_0~CM_3)から出力された複数の被写界像を基準面に対する複数の鳥瞰画像に変換する変換手段(S3)、共通視野に存在する立体物を表す画像の位置を変換手段によって変換された複数の鳥瞰画像の各々から排除位置として検出する第1検出手段(S23~S25, S39~S41)、変換手段によって変換された複数の鳥瞰画像から排除位置の画像を共通的に排除する排除手段(S27, S33)、および変換手段によって変換された複数の鳥瞰画像を排除手段の排除処理の後に残った複数の画像間の輝度および/または色度の相違が抑制される態様で合成する合成手段(S7~S11)を備える。   An image processing apparatus according to the present invention (10: reference numeral corresponding to the embodiment; the same applies hereinafter) includes a plurality of images output from a plurality of cameras (CM_0 to CM_3) that capture the reference plane obliquely with a posture partially having a common visual field. Converting means (S3) for converting the object scene image into a plurality of bird's-eye images relative to the reference plane, the position of the image representing the three-dimensional object existing in the common visual field excluded from each of the plurality of bird's-eye images converted by the converting means First detection means (S23 to S25, S39 to S41) for detecting as, a removal means (S27, S33) for commonly removing images at exclusion positions from a plurality of bird's-eye images converted by the conversion means, and a conversion means Combining means (S7 to S11) for synthesizing the converted plurality of bird's-eye view images in such a manner that the difference in luminance and / or chromaticity between the plurality of images remaining after the removing process of the removing means is suppressed.

好ましくは、排除位置は複数の鳥瞰画像間の輝度差および/または色度差が第1基準を上回る画素の位置に相当する。   Preferably, the exclusion position corresponds to a pixel position where a luminance difference and / or a chromaticity difference between the plurality of bird's-eye images exceeds the first reference.

好ましくは、共通視野に対応して表われた鮮鋭画像の位置を排除位置として検出する第2検出手段(S23, S31, S39~S41)がさらに備えられる。   Preferably, a second detection means (S23, S31, S39 to S41) for detecting the position of the sharp image corresponding to the common visual field as the exclusion position is further provided.

さらに好ましくは、画像の鮮鋭度に関連する第2基準を複数のカメラの各々から出力された被写界像の輝度を参照して調整する調整手段(S29)がさらに備えられ、第2検出手段は第2基準を参照して検出処理を実行する。   More preferably, it further comprises adjusting means (S29) for adjusting the second standard related to the sharpness of the image with reference to the luminance of the object scene image output from each of the plurality of cameras, and the second detecting means. Performs the detection process with reference to the second standard.

好ましくは、合成手段は、排除手段の排除処理の後に残った複数の画像の間の輝度および/または色度の相違を共通視野に対応して検出する検出手段(S53~S59, S65, S81~S87, S93, S111~S121, S141~S151)、および複数の鳥瞰画像の輝度および/または色度を検出手段によって検出された相違に基づいて調整する調整手段(S69~S79, S97~S107, S123~S139, S153~S169)を含む。   Preferably, the synthesis means detects detection means (S53 to S59, S65, S81 ... S87, S93, S111 to S121, S141 to S151), and adjusting means (S69 to S79, S97 to S107, S123) for adjusting the luminance and / or chromaticity of a plurality of bird's-eye images based on the differences detected by the detecting means ~ S139, S153 ~ S169).

さらに好ましくは、調整手段は排除手段の排除処理の後に残った複数の画像の画素数を参照して輝度の調整範囲を定義する定義手段(S67, S95)を含む。   More preferably, the adjustment means includes definition means (S67, S95) for defining the brightness adjustment range with reference to the number of pixels of the plurality of images remaining after the exclusion process of the exclusion means.

この発明によれば、複数のカメラは共通視野を部分的に有する姿勢で斜めから基準面を捉えるため、共通視野に現れた立体物の姿勢は複数のカメラにそれぞれ対応する複数の鳥瞰画像の間で相違する。共通視野に現れた立体物の位置はこのような複数の鳥瞰画像の各々から検出され、検出された位置の画像は複数の鳥瞰画像から共通的に排除される。複数の鳥瞰画像の合成処理は、このような排除処理の後に残った複数の画像間の輝度および/または色の相違が抑制される態様で実行される。これによって、合成された鳥瞰画像の品質を向上させることができる。   According to the present invention, since the plurality of cameras capture the reference plane obliquely with an attitude partially having a common visual field, the posture of the three-dimensional object that appears in the common visual field is between the bird's-eye images respectively corresponding to the multiple cameras. Is different. The position of the three-dimensional object appearing in the common visual field is detected from each of the plurality of bird's-eye images, and the image at the detected position is commonly excluded from the plurality of bird's-eye images. The synthesis processing of the plurality of bird's-eye images is executed in such a manner that the difference in luminance and / or color between the plurality of images remaining after such exclusion processing is suppressed. Thereby, the quality of the synthesized bird's-eye view image can be improved.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

この発明の基本的構成を示すブロック図である。It is a block diagram which shows the basic composition of this invention. この発明の一実施例の構成を示すブロック図である。It is a block diagram which shows the structure of one Example of this invention. 図2実施例が搭載された車両の一例を示す斜視図である。FIG. 3 is a perspective view showing an example of a vehicle on which the embodiment in FIG. 2 is mounted. 車両に取り付けられた複数のカメラによって捉えられる視野を示す図解図である。It is an illustration figure which shows the visual field captured by the some camera attached to the vehicle. カメラの出力に基づく鳥瞰画像の作成動作の一部を示す図解図である。It is an illustration figure which shows a part of creation operation | movement of the bird's-eye view image based on the output of a camera. 表示装置によって表示される運転支援画像の一例を示す図解図である。It is an illustration figure which shows an example of the driving assistance image displayed by a display apparatus. 画素選別動作のために参照されるエリアの一例を示す図解図である。It is an illustration figure which shows an example of the area referred for pixel selection operation | movement. 画素選別動作のために参照される部分重複エリアの画像の一例を示す図解図である。It is an illustration figure which shows an example of the image of the partial overlap area referred for pixel selection operation | movement. (A)は鳥瞰画像BEV_0に対する画素選別動作の一例を示す図解図であり、(B)は鳥瞰画像BEV_1に対する画素選別動作の一例を示す図解図である。(A) is an illustration figure which shows an example of the pixel selection operation | movement with respect to the bird's-eye view image BEV_0, (B) is an illustration figure which shows an example of the pixel selection operation | movement with respect to the bird's-eye view image BEV_1. 色度に注目した画素選別動作の一部を示す図解図である。It is an illustration figure which shows a part of pixel selection operation | movement paying attention to chromaticity. 輝度に注目した画素選別動作の一部を示す図解図である。It is an illustration figure which shows a part of pixel selection operation | movement paying attention to a brightness | luminance. 輝度に注目した画素選別動作の他の一部を示す図解図である。It is an illustration figure which shows another part of pixel selection operation | movement which paid its attention to the brightness | luminance. 輝度を補正するためのゲインの算出動作の一部を示す図解図である。It is an illustration figure which shows a part of gain calculation operation | movement for correct | amending a brightness | luminance. 輝度補正特性の一例を示す図解図である。It is an illustration figure which shows an example of a brightness correction characteristic. 色度を補正するためのオフセットの算出動作の一部を示す図解図である。It is an illustration figure which shows a part of calculation operation | movement of the offset for correct | amending chromaticity. 図2実施例に適用されるCPUの動作の一部を示すフロー図である。It is a flowchart which shows a part of operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example. 図2実施例に適用されるCPUの動作のその他の一部を示すフロー図である。FIG. 11 is a flowchart showing still another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作のさらにその他の一部を示すフロー図である。FIG. 10 is a flowchart showing yet another portion of behavior of the CPU applied to the embodiment in FIG. 2; 図2実施例に適用されるCPUの動作の他の一部を示すフロー図である。It is a flowchart which shows a part of other operation | movement of CPU applied to the FIG. 2 Example.

以下、この発明の実施の形態を図面を参照しながら説明する。
[基本的構成]
Embodiments of the present invention will be described below with reference to the drawings.
[Basic configuration]

図1を参照して、この発明の画像処理装置は、基本的に次のように構成される。変換手段2は、共通視野を部分的に有する姿勢で基準面を斜めから捉える複数のカメラ1,1,…から出力された複数の被写界像を、基準面に対する複数の鳥瞰画像に変換する。第1検出手段3は、共通視野に存在する立体物を表す画像の位置を、変換手段2によって変換された複数の鳥瞰画像の各々から排除位置として検出する。排除手段4は、変換手段2によって変換された複数の鳥瞰画像から排除位置の画像を共通的に排除する。合成手段5は、変換手段2によって変換された複数の鳥瞰画像を、排除手段4の排除処理の後に残った複数の画像間の輝度および/または色度の相違が抑制される態様で合成する。   Referring to FIG. 1, the image processing apparatus of the present invention is basically configured as follows. The converting means 2 converts a plurality of object scene images output from a plurality of cameras 1, 1,... Capturing the reference plane obliquely with an attitude partially having a common visual field into a plurality of bird's-eye images with respect to the reference plane. . The first detection unit 3 detects the position of the image representing the three-dimensional object existing in the common visual field from each of the plurality of bird's-eye images converted by the conversion unit 2 as an exclusion position. The exclusion unit 4 commonly excludes the image at the exclusion position from the plurality of bird's-eye images converted by the conversion unit 2. The synthesizing unit 5 synthesizes the plurality of bird's-eye images converted by the converting unit 2 in a manner in which differences in luminance and / or chromaticity between the plurality of images remaining after the exclusion process of the excluding unit 4 are suppressed.

複数のカメラ1,1,…は共通視野を部分的に有する姿勢で斜めから基準面を捉えるため、共通視野に現れた立体物の姿勢は複数のカメラ1,1,…にそれぞれ対応する複数の鳥瞰画像の間で相違する。共通視野に現れた立体物の位置はこのような複数の鳥瞰画像の各々から検出され、検出された位置の画像は複数の鳥瞰画像から共通的に排除される。複数の鳥瞰画像の合成処理は、このような排除処理の後に残った複数の画像間の輝度および/または色の相違が抑制される態様で実行される。これによって、合成された鳥瞰画像の品質を向上させることができる。
[実施例]
Since the plurality of cameras 1, 1,... Capture the reference plane from an angle with an attitude that partially has a common field of view, the posture of the three-dimensional object that appears in the common field of view corresponds to the plurality of cameras 1, 1,. It differs between bird's-eye images. The position of the three-dimensional object appearing in the common visual field is detected from each of the plurality of bird's-eye images, and the image at the detected position is commonly excluded from the plurality of bird's-eye images. The synthesis processing of the plurality of bird's-eye images is executed in such a manner that the difference in luminance and / or color between the plurality of images remaining after such exclusion processing is suppressed. Thereby, the quality of the synthesized bird's-eye view image can be improved.
[Example]

図2に示すこの実施例の操縦支援装置10は、4個のカメラCM_0〜CM_3を含む。カメラCM_0〜CM_3はそれぞれ、被写界像P_0〜P_3を1/30秒毎に出力する。出力された被写界像P_0〜P_3は、画像処理回路12に与えられる。   The steering assistance device 10 of this embodiment shown in FIG. 2 includes four cameras CM_0 to CM_3. The cameras CM_0 to CM_3 respectively output the object scene images P_0 to P_3 every 1/30 seconds. The outputted scene images P_0 to P_3 are given to the image processing circuit 12.

図3を参照して、カメラCM_0は、カメラCM_0の光軸が車両100の前方斜め下向きに延びる姿勢で、車両100の前上側部に設置される。カメラCM_1は、カメラCM_1の光軸が車両100の右方斜め下向きに延びる姿勢で、車両100の右上側部に設置される。カメラCM_2は、カメラCM_2の光軸が車両100の後方斜め下向きに延びる姿勢で、車両100の後上側部に設置される。カメラCM_3は、カメラCM_3の光軸が車両100の左方斜め下向きに延びる姿勢で、車両100の左上側部に設置される。車両100の周辺の被写界は、このようなカメラCM_0〜CM_3によって、路面に斜めに交差する方向から捉えられる。   Referring to FIG. 3, camera CM_0 is installed on the front upper side portion of vehicle 100 in a posture in which the optical axis of camera CM_0 extends obliquely downward in front of vehicle 100. The camera CM_1 is installed on the upper right side of the vehicle 100 in a posture in which the optical axis of the camera CM_1 extends obliquely downward to the right of the vehicle 100. The camera CM_2 is installed on the rear upper side of the vehicle 100 in a posture in which the optical axis of the camera CM_2 extends obliquely downward rearward of the vehicle 100. The camera CM_3 is installed on the upper left side of the vehicle 100 so that the optical axis of the camera CM_3 extends obliquely downward to the left of the vehicle 100. The field around the vehicle 100 is captured from such a direction that obliquely intersects the road surface by the cameras CM_0 to CM_3.

図4に示すように、カメラCM_0は車両100の前方向を捉える視野VW_0を有し、カメラCM_1は車両100の右方向を捉える視野VW_1を有し、カメラCM_2は車両100の後方向を捉える視野VW_2を有し、そしてカメラCM_3は車両100の左方向を捉える視野VW_3を有する。なお、視野VW_0およびVW_1は共通視野CVW_0を有し、視野VW_1およびVW_2は共通視野CVW_1を有し、視野VW_2およびVW_3は共通視野CVW_2を有し、そして視野VW_3およびVW_0は共通視野CVW_3を有する。   As shown in FIG. 4, the camera CM_0 has a visual field VW_0 that captures the front direction of the vehicle 100, the camera CM_1 has a visual field VW_1 that captures the right direction of the vehicle 100, and the camera CM_2 has a visual field that captures the backward direction of the vehicle 100. VW_2, and the camera CM_3 has a field of view VW_3 that captures the left direction of the vehicle 100. The visual fields VW_0 and VW_1 have a common visual field CVW_0, the visual fields VW_1 and VW_2 have a common visual field CVW_1, the visual fields VW_2 and VW_3 have a common visual field CVW_2, and the visual fields VW_3 and VW_0 have a common visual field CVW_3.

図2に戻って、画像処理回路12に設けられたCPU12pは、カメラCM_0から出力された被写界像P_0に基づいて鳥瞰画像BEV_0を生成し、カメラCM_1から出力された被写界像P_1に基づいて鳥瞰画像BEV_1を生成する。CPU12pはまた、カメラC_2から出力された被写界像P_2に基づいて鳥瞰画像BEV_2を生成し、カメラC_3から出力された被写界像P_3に基づいて鳥瞰画像BEV_3を生成する。   Returning to FIG. 2, the CPU 12p provided in the image processing circuit 12 generates a bird's-eye view image BEV_0 based on the object scene image P_0 output from the camera CM_0, and generates the object scene image P_1 output from the camera CM_1. Based on this, a bird's-eye view image BEV_1 is generated. The CPU 12p also generates a bird's-eye image BEV_2 based on the object scene image P_2 output from the camera C_2, and generates a bird's-eye image BEV_3 based on the object scene image P_3 output from the camera C_3.

図5から分かるように、鳥瞰画像BEV_0は視野VW_0を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰画像BEV_1は視野VW_1を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。また、鳥瞰画像BEV_2は視野VW_2を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当し、鳥瞰画像BEV_3は視野VW_3を鉛直方向に見下ろす仮想カメラによって捉えられた画像に相当する。生成された鳥瞰画像BEV_0〜BEV_3は、メモリ12mに保持される。   As can be seen from FIG. 5, the bird's-eye view image BEV_0 corresponds to an image captured by a virtual camera looking down the visual field VW_0 in the vertical direction, and the bird's-eye view image BEV_1 corresponds to an image captured by a virtual camera looking down the visual field VW_1. . The bird's-eye view image BEV_2 corresponds to an image captured by a virtual camera looking down the visual field VW_2 in the vertical direction, and the bird's-eye view image BEV_3 corresponds to an image captured by a virtual camera looking down the visual field VW_3 in the vertical direction. The generated bird's-eye view images BEV_0 to BEV_3 are held in the memory 12m.

CPU12pは続いて、図4に示す再現ブロックBLKに対応する切り出し線CT_0〜CT_3を鳥瞰画像BEV_0〜BEV_3上で定義し、定義された切り出し線CT_0〜CT_3よりも内側に存在する一部の画像を合成して全周鳥瞰画像を作成する。作成された全周鳥瞰画像の中央には、車両100の上部を模した車両画像GL1が貼り付けられる。これによって、図6に示す運転支援画像が完成する。   Subsequently, the CPU 12p defines cutout lines CT_0 to CT_3 corresponding to the reproduction block BLK shown in FIG. 4 on the bird's-eye view images BEV_0 to BEV_3, and a part of the images existing inside the defined cutout lines CT_0 to CT_3. Create an all-around bird's-eye view image. A vehicle image GL1 simulating the upper part of the vehicle 100 is attached to the center of the created all-around bird's-eye view image. Thereby, the driving assistance image shown in FIG. 6 is completed.

図6によれば、重複エリアDP_0が共通視野CVW_0に対応して形成され、重複エリアDP_1が共通視野CVW_1に対応して形成される。また、重複エリアDP_2が共通視野CVW_2に対応して形成され、重複エリアDP_3が共通視野CVW_3に対応して形成される。作成された運転支援画像は、表示装置14のモニタ画面に表示される。表示装置14は運転席に設置され、ドライバはモニタ画面を参照しながら車両100を操縦する。   According to FIG. 6, the overlapping area DP_0 is formed corresponding to the common visual field CVW_0, and the overlapping area DP_1 is formed corresponding to the common visual field CVW_1. Further, the overlapping area DP_2 is formed corresponding to the common visual field CVW_2, and the overlapping area DP_3 is formed corresponding to the common visual field CVW_3. The created driving assistance image is displayed on the monitor screen of the display device 14. The display device 14 is installed in the driver's seat, and the driver controls the vehicle 100 while referring to the monitor screen.

鳥瞰画像BEV_0〜BEV_3は、カメラCM_0〜CM_3の設定の誤差などに起因する輝度差および/または色度差を有する。そこで、この実施例では、全周鳥瞰画像を作成する前に、鳥瞰画像BEV_0〜BEV_3の輝度および/または色度を以下に述べる要領で補正するようにしている。
参照エリアの位置的な制限
The bird's-eye view images BEV_0 to BEV_3 have a luminance difference and / or a chromaticity difference due to an error in setting of the cameras CM_0 to CM_3. Therefore, in this embodiment, before the all-round bird's-eye view image is created, the brightness and / or chromaticity of the bird's-eye view images BEV_0 to BEV_3 are corrected as described below.
Restriction of reference area location

車両100の周囲には、再現ブロックBLKの広がりよりも小さい広がりを有する評価エリアEVAが、図7に示す要領で定義される。鳥瞰画像BEV_0〜BEV_3は、評価エリアEVAに対応して図8に示すように再現される。また、重複エリアDP_0〜DP_3のうち評価エリアEVAに属する一部のエリアは、部分重複エリアPDP_0〜PDP_3と定義される。
輝度および/または色度補正のために参照される画素の選別
An evaluation area EVA having an extent smaller than the extent of the reproduction block BLK is defined around the vehicle 100 as shown in FIG. Bird's-eye view images BEV_0 to BEV_3 are reproduced as shown in FIG. 8 corresponding to the evaluation area EVA. Moreover, some areas belonging to the evaluation area EVA among the overlapping areas DP_0 to DP_3 are defined as partial overlapping areas PDP_0 to PDP_3.
Selection of pixels to be referenced for luminance and / or chromaticity correction

鳥瞰画像BEV_0〜BEV_3は路面を基準とする鳥瞰変換によって作成されるため、たとえば部分重複エリアPDP_0に立体物OBJが存在すれば、この立体物OBJの姿勢は図9(A)〜図9(B)に示すように鳥瞰画像BEV_0およびBEV_1の間で相違する。本手法では、隣接するカメラに写る同一物体の同一箇所の輝度差を比較することで輝度や彩度、色の補正を行うことを主眼としているので、このような立体物を表す画像は、輝度および/または色度補正の精度を低下させるおそれがある。また、画像内の輝度変化が激しい部分や、ハレーション等によって極端に高い輝度を有する部分、低照度によって極端に低い輝度を有する部分なども、輝度および/または色度補正の精度を低下させるおそれがある。   Since the bird's-eye view images BEV_0 to BEV_3 are created by bird's-eye conversion based on the road surface, for example, if a three-dimensional object OBJ exists in the partial overlap area PDP_0, the posture of the three-dimensional object OBJ is as shown in FIGS. ), There is a difference between the bird's-eye images BEV_0 and BEV_1. In this method, the main object is to correct the luminance, saturation, and color by comparing the luminance difference of the same object in the adjacent camera. In addition, the accuracy of chromaticity correction may be reduced. In addition, there is a possibility that the accuracy of luminance and / or chromaticity correction may be reduced in a portion where the luminance change is sharp in the image, a portion having extremely high luminance due to halation, a portion having extremely low luminance due to low illuminance, etc. is there.

このような補正精度の低下を引き起こすおそれのある画素は、以下の要領で検出され、かつ参照画素から排除される。
(1)立体物を表す画素の検出と排除
Pixels that may cause such a reduction in correction accuracy are detected in the following manner and excluded from the reference pixels.
(1) Detection and exclusion of pixels representing solid objects

2つの鳥瞰画像BEV_jおよびBEV_j+1(j:0〜3)の間の色度差が閾値Cthを上回るか否かが、部分重複エリアPDP_i(i:0〜3)の座標(x,y)に存在する2つの画素に注目して判別される。   Whether or not the chromaticity difference between the two bird's-eye images BEV_j and BEV_j + 1 (j: 0 to 3) exceeds the threshold Cth exists in the coordinates (x, y) of the partial overlap area PDP_i (i: 0 to 3) The determination is made by paying attention to the two pixels.

図10に示すように、部分重複エリアPDP_0については鳥瞰画像BEV_0およびBEV_1の間の色度差が閾値Cthと比較され、部分重複エリアPDP_1については鳥瞰画像BEV_1およびBEV_2の間の色度差が閾値Cthと比較される。また、部分重複エリアPDP_2については鳥瞰画像BEV_2およびBEV_3の間の色度差が閾値Cthと比較され、部分重複エリアPDP_3については鳥瞰画像BEV_3およびBEV_0の間の色度差が閾値Cthと比較される。   As shown in FIG. 10, the chromaticity difference between the bird's-eye images BEV_0 and BEV_1 is compared with the threshold Cth for the partially overlapping area PDP_0, and the chromaticity difference between the bird's-eye images BEV_1 and BEV_2 is the threshold for the partially overlapping area PDP_1. Compared with Cth. Further, for the partial overlap area PDP_2, the chromaticity difference between the bird's-eye images BEV_2 and BEV_3 is compared with the threshold Cth, and for the partial overlap area PDP_3, the chromaticity difference between the bird's-eye images BEV_3 and BEV_0 is compared with the threshold Cth. .

具体的には、数1が満足されるか否かが判別される。数1において、“Uijxy”および“Vijxy”はそれぞれ、部分重複エリアPDP_iの座標(x,y)に存在する鳥瞰画像BEV_jのU系色度およびV系色度を表す。また、“Ui(j+1)xy”および“Vi(j+1)xy”はそれぞれ、部分重複エリアPDP_iの座標(x,y)に存在する鳥瞰画像BEV_j+1のU系色度およびV系色度を表す。

Figure 2011013929
Specifically, it is determined whether or not Equation 1 is satisfied. In Equation 1, “Uijxy” and “Vijxy” represent the U-system chromaticity and the V-system chromaticity of the bird's-eye view image BEV_j existing at the coordinates (x, y) of the partial overlap area PDP_i, respectively. “Ui (j + 1) xy” and “Vi (j + 1) xy” represent the U-system chromaticity and the V-system chromaticity of the bird's-eye view image BEV_j + 1 existing at the coordinates (x, y) of the partial overlap area PDP_i, respectively.
Figure 2011013929

座標(x,y)に存在する2画素の色度差が大きければ、この2画素の少なくとも一方は立体物を表す画素である可能性が高い。このため、色度差が閾値Cthを上回る2画素は、鳥瞰画像BEV_jおよびBEV_j+1からそれぞれ排除される。排除された後の鳥瞰画像BEV_jおよびBEV_j+1の形状は、図9(A)および図9(B)に示すように互いに一致する。
(2)鮮鋭度が高い画素(画像内の輝度変化が激しい部分)の排除
If the chromaticity difference between the two pixels present at the coordinates (x, y) is large, it is highly possible that at least one of the two pixels is a pixel representing a three-dimensional object. For this reason, two pixels whose chromaticity difference exceeds the threshold value Cth are excluded from the bird's-eye view images BEV_j and BEV_j + 1, respectively. The shapes of the bird's-eye view images BEV_j and BEV_j + 1 after being excluded match each other as shown in FIGS. 9 (A) and 9 (B).
(2) Eliminating pixels with high sharpness (parts where the brightness changes drastically in the image)

鳥瞰画像BEV_jの平坦度および鳥瞰画像BEV_j+1の鮮鋭度の和が閾値Ythを上回るか否かが、部分重複エリアPDP_i(i:0〜3)の座標(x,y)に存在する2つの画素に注目して判別される。   Whether or not the sum of the flatness of the bird's-eye image BEV_j and the sharpness of the bird's-eye image BEV_j + 1 exceeds the threshold Yth is determined by the two pixels existing at the coordinates (x, y) of the partial overlap area PDP_i (i: 0 to 3). Discriminated with attention.

図11に示すように、部分重複エリアPDP_0については鳥瞰画像BEV_0の鮮鋭度および鳥瞰画像BEV_1の鮮鋭度の和が閾値Ythと比較され、部分重複エリアPDP_1については鳥瞰画像BEV_1の鮮鋭度および鳥瞰画像BEV_2の鮮鋭度の和が閾値Ythと比較される。また、部分重複エリアPDP_2については鳥瞰画像BEV_2の鮮鋭度および鳥瞰画像BEV_2の鮮鋭度の和が閾値Ythと比較され、部分重複エリアPDP_3については鳥瞰画像BEV_3の鮮鋭度および鳥瞰画像BEV_0の鮮鋭度の和が閾値Ythと比較される。   As shown in FIG. 11, for the partial overlap area PDP_0, the sum of the sharpness of the bird's-eye image BEV_0 and the sharpness of the bird's-eye image BEV_1 is compared with a threshold Yth, and for the partial overlap area PDP_1, the sharpness of the bird's-eye image BEV_1 The sum of the sharpness of BEV_2 is compared with the threshold value Yth. For the partial overlap area PDP_2, the sum of the sharpness of the bird's-eye image BEV_2 and the sharpness of the bird's-eye image BEV_2 is compared with the threshold Yth, and for the partial overlap area PDP_2, the sharpness of the bird's-eye image BEV_3 and the sharpness of the bird's-eye image BEV_0. The sum is compared with the threshold Yth.

具体的には、数2が満足されるか否かが判別される。数2において、“Yijxy”は部分重複エリアPDP_iの座標(x,y)に存在する鳥瞰画像BEV_jの輝度を表し、“Yi(j+1)xy”は部分重複エリアPDP_iの座標(x,y)に存在する鳥瞰画像BEV_j+1の輝度を表す。

Figure 2011013929
Specifically, it is determined whether or not Expression 2 is satisfied. In Equation 2, “Yijxy” represents the brightness of the bird's-eye view image BEV_j existing at the coordinates (x, y) of the partial overlap area PDP_i, and “Yi (j + 1) xy” is at the coordinates (x, y) of the partial overlap area PDP_i. This represents the luminance of the existing bird's-eye view image BEV_j + 1.
Figure 2011013929

数2を満足する2画素は、鮮鋭度の高い画素であるとして、鳥瞰画像BEV_jおよびBEV_j+1からそれぞれ排除される。   Two pixels satisfying Equation 2 are excluded from the bird's-eye view images BEV_j and BEV_j + 1, assuming that the pixels have high sharpness.

なお、閾値Ythの大きさが固定であれば、輝度の低下とともに判別能力が低下する。このため、閾値Ythの大きさは数3に従って算出される(傾きSは数4に従って算出)。

Figure 2011013929
Figure 2011013929
If the threshold value Yth is fixed, the discrimination ability decreases as the luminance decreases. For this reason, the magnitude of the threshold Yth is calculated according to Equation 3 (the slope S is calculated according to Equation 4).
Figure 2011013929
Figure 2011013929

これによって、図12に示す網掛け部分の輝度を有する画素が鳥瞰画像BEV_jおよびBEV_j+1から排除される。図示は省略するが、上述と同様、排除された後の鳥瞰画像BEV_jおよびBEV_j+1の形状は互いに一致する。   Thereby, pixels having the luminance of the shaded portion shown in FIG. 12 are excluded from the bird's-eye view images BEV_j and BEV_j + 1. Although illustration is omitted, the shapes of the bird's-eye view images BEV_j and BEV_j + 1 after being excluded are identical to each other as described above.

なお、本実施例では説明を簡単にするため、“Yijxy”は部分重複エリアPDP_iの座標(x,y)に存在する鳥瞰画像BEV_jの輝度を表すとしている。ハードウェアの実装によっては、本実施例のようにカメラ毎に鳥瞰画像に変換したものを一旦メモリに蓄えずに現画像から直接全周鳥瞰画像を生成する場合がある。   In the present embodiment, for simplification of description, “Yijxy” represents the brightness of the bird's-eye view image BEV_j existing at the coordinates (x, y) of the partial overlap area PDP_i. Depending on the implementation of the hardware, there is a case where the all-round bird's-eye view image is directly generated from the current image without temporarily storing the image converted into the bird's-eye view image for each camera as in this embodiment.

この場合、数2における“Yijxy”は部分重複エリアPDP_iの座標(x,y)に存在する鳥瞰画像BEV_jの輝度を表すが、Yijxyの周辺画素値Yij(x+m)(y+n)は現画像内におけるYijxyの周辺画素であってもよい。要は、Yijxy近辺の輝度変動の激しい部分を除外できればよい。
(3)高輝度画素と低輝度画素の排除
In this case, “Yijxy” in Equation 2 represents the luminance of the bird's-eye view image BEV_j existing at the coordinates (x, y) of the partial overlap area PDP_i, but the peripheral pixel value Yij (x + m) (y + n) of Yijxy is in the current image. It may be a peripheral pixel of Yijxy. In short, it is only necessary to exclude a portion where the luminance variation near Yijxy is intense.
(3) Eliminating high and low luminance pixels

鳥瞰画像BEV_jを形成する各画素の輝度が、閾値S_lowおよびS_highの各々と比較される。閾値S_lowを下回る輝度を有する画素または閾値S_highを上回る輝度を有する画素(図12にハッチングで示す範囲に属する画素)が検出されると、この検出画素が鳥瞰画像BEV_jから排除されるとともに、この検出画素に共通する画素が鳥瞰画像BEV_j+1から排除される。図示は省略するが、上述と同様、排除された後の鳥瞰画像BEV_jおよびBEV_j+1の形状は互いに一致する。
総輝度の算出
The brightness of each pixel forming the bird's-eye view image BEV_j is compared with each of the threshold values S_low and S_high. When a pixel having a luminance lower than the threshold value S_low or a pixel having a luminance higher than the threshold value S_high (a pixel belonging to a range indicated by hatching in FIG. 12) is detected, the detected pixel is excluded from the bird's-eye view image BEV_j and this detection is performed. Pixels common to the pixels are excluded from the bird's-eye view image BEV_j + 1. Although illustration is omitted, the shapes of the bird's-eye view images BEV_j and BEV_j + 1 after being excluded are identical to each other as described above.
Calculation of total brightness

鳥瞰画像BEV_jのうち重複エリアPDP_iに属する一部の画像の総輝度は、上述の画素選別処理(排除処理)の後に残った画素を対象とする数5の演算によって、“SUM_Yij”として算出される。

Figure 2011013929
基準輝度ゲインの算出 The total luminance of some of the images belonging to the overlapping area PDP_i in the bird's-eye view image BEV_j is calculated as “SUM_Yij” by the calculation of Expression 5 for pixels remaining after the pixel selection process (exclusion process) described above. .
Figure 2011013929
Calculation of reference luminance gain

図13を参照して、再現ブロックBLKのうち車両100の前方に対応する短辺の右側をエッジEDG_FRと定義し、再現ブロックBLKのうち車両100の後方に対応する短辺の右側をエッジEDG_BRと定義する。また、再現ブロックBLKのうち車両100の前方に対応する短辺の左側をエッジEDG_FLと定義し、再現ブロックBLKのうち車両100の後方に対応する短辺の右側をエッジEDG_FLと定義する。   Referring to FIG. 13, the right side of the short side corresponding to the front of the vehicle 100 in the reproduction block BLK is defined as an edge EDG_FR, and the right side of the short side corresponding to the rear of the vehicle 100 in the reproduction block BLK is defined as an edge EDG_BR. Define. Further, the left side of the short side corresponding to the front of the vehicle 100 in the reproduction block BLK is defined as an edge EDG_FL, and the right side of the short side corresponding to the rear of the vehicle 100 in the reproduction block BLK is defined as an edge EDG_FL.

さらに、エッジEDG_FRにおける基準輝度ゲインを“Gy_FR”と定義し、エッジEDG_BRにおける基準輝度ゲインを“Gy_BR”と定義する。また、エッジEDG_FLにおける基準輝度ゲインを“Gy_FL”と定義し、エッジEDG_BLにおける基準輝度ゲインを“Gy_BL”と定義する。すると、ゲインGy_FR〜Gy_BLは、数6に従って算出される。

Figure 2011013929
Further, the reference luminance gain at the edge EDG_FR is defined as “Gy_FR”, and the reference luminance gain at the edge EDG_BR is defined as “Gy_BR”. Further, the reference luminance gain at the edge EDG_FL is defined as “Gy_FL”, and the reference luminance gain at the edge EDG_BL is defined as “Gy_BL”. Then, the gains Gy_FR to Gy_BL are calculated according to Equation 6.
Figure 2011013929

数6によれば、基準輝度ゲインGy_FRは総輝度SUM_Y00およびSUM_Y01の相違に対応する大きさを示し、基準輝度ゲインGy_BRは総輝度SUM_Y12およびSUM_Y11の相違に対応する大きさを示す。また、基準輝度ゲインGy_FLは総輝度SUM_Y30およびSUM_Y33の相違に対応する大きさを示し、基準輝度ゲインGy_BLは総輝度SUM_Y22およびSUM_Y23の相違に対応する大きさを示す。
目標輝度ゲインの算出
According to Equation 6, the reference luminance gain Gy_FR indicates a magnitude corresponding to the difference between the total luminances SUM_Y00 and SUM_Y01, and the reference luminance gain Gy_BR indicates a magnitude corresponding to the difference between the total luminances SUM_Y12 and SUM_Y11. The reference luminance gain Gy_FL indicates a magnitude corresponding to the difference between the total luminances SUM_Y30 and SUM_Y33, and the reference luminance gain Gy_BL indicates a magnitude corresponding to the difference between the total luminances SUM_Y22 and SUM_Y23.
Calculation of target brightness gain

車両100の右側を表す鳥瞰画像BEV_1の各画素に付与する目標輝度ゲインを“Gy_R”と定義し、車両100の左側を表す鳥瞰画像BEV_3の各画素に付与する目標輝度ゲインを“Gy_L”と定義する。すると、目標輝度ゲインGy_Rは基準輝度ゲインGy_FRおよびGy_BRと注目画素の位置とを参照した線形補間によって算出され、目標輝度ゲインGy_LはゲインGy_FLおよびGy_BLと注目画素の位置とを参照した線形補間によって算出する。具体的には、目標輝度ゲインGy_Rは数7に従って算出され、目標輝度ゲインGy_Lは数8に従って算出される。

Figure 2011013929
Figure 2011013929
The target luminance gain to be given to each pixel of the bird's-eye image BEV_1 representing the right side of the vehicle 100 is defined as “Gy_R”, and the target luminance gain to be given to each pixel of the bird's-eye image BEV_3 representing the left side of the vehicle 100 is defined as “Gy_L”. To do. Then, the target luminance gain Gy_R is calculated by linear interpolation with reference to the reference luminance gains Gy_FR and Gy_BR and the position of the target pixel, and the target luminance gain Gy_L is calculated by linear interpolation with reference to the gains Gy_FL and Gy_BL and the position of the target pixel. To do. Specifically, the target luminance gain Gy_R is calculated according to Equation 7, and the target luminance gain Gy_L is calculated according to Equation 8.
Figure 2011013929
Figure 2011013929

車両100の右側に対応する目標輝度ゲインGy_Rと車両100の左側に対応する目標輝度ゲインGy_Lとを別々算出することで、車両100の右側を別の車両が通過し、車両の左側に単調な模様の路面があるような場合に、ゲインの大きさの信頼性が確保される。
目標輝度ゲインの大きさの制限
By separately calculating the target luminance gain Gy_R corresponding to the right side of the vehicle 100 and the target luminance gain Gy_L corresponding to the left side of the vehicle 100, another vehicle passes through the right side of the vehicle 100, and the monotonous pattern on the left side of the vehicle 100 When there is a road surface, the reliability of the gain is ensured.
Limiting the target luminance gain

目標輝度ゲインの大きさが“1”から著しく外れる場合、その大きさが誤りであれば、全周鳥瞰画像の品質が大きく低下する。このような現象を回避するために、目標輝度ゲインを付与された画素の輝度レベル(補正輝度レベル)の上限および下限が図14に示す範囲に収まるように、目標輝度ゲインの大きさが制限される。   If the target luminance gain is significantly different from “1”, if the magnitude is incorrect, the quality of the all-around bird's-eye view image is greatly degraded. In order to avoid such a phenomenon, the size of the target luminance gain is limited so that the upper and lower limits of the luminance level (corrected luminance level) of the pixel to which the target luminance gain is given fall within the range shown in FIG. The

ただし、画素選別処理の後に残った画素の数が小さければ、重複エリアPDP_iに立体物が存在する可能性が高い。このような状態では、算出した目標輝度ゲインが正しいとは言い難く、目標輝度ゲインの大きさを抑制する方がより好ましいと言える。また、車両100周辺状況の変動量は車両100が移動速度の増大に伴って増大し、目標輝度ゲインを参照した輝度補正の精度もまた車両100の移動速度の増大に伴って低下する。   However, if the number of pixels remaining after the pixel selection process is small, there is a high possibility that a three-dimensional object exists in the overlapping area PDP_i. In such a state, it can hardly be said that the calculated target luminance gain is correct, and it can be said that it is more preferable to suppress the size of the target luminance gain. Further, the fluctuation amount of the situation around the vehicle 100 increases as the moving speed of the vehicle 100 increases, and the accuracy of luminance correction referring to the target luminance gain also decreases as the moving speed of the vehicle 100 increases.

そこで、補正輝度レベルの上限および下限は、画素選別処理の後に残った画素の数と速度センサ18によって検知された車両100の移動速度とに基づいて適応的に調整される。つまり、目標輝度ゲインの大きさは、画素選別処理の後に残った画素の数の低減および/または車両100の移動速度の増大に伴って“1”に近づく。
平均色度の算出
Therefore, the upper limit and the lower limit of the corrected luminance level are adaptively adjusted based on the number of pixels remaining after the pixel selection process and the moving speed of the vehicle 100 detected by the speed sensor 18. That is, the magnitude of the target luminance gain approaches “1” as the number of pixels remaining after the pixel selection process is reduced and / or the moving speed of the vehicle 100 is increased.
Calculation of average chromaticity

鳥瞰画像BEV_jのうち重複エリアPDP_iに属する一部の画像のU系総色度は、上述の画素選別処理の後に残った画素を対象とする数9の演算によって、“SUM_Uij”として算出される。同様に、鳥瞰画像BEV_jのうち重複エリアPDP_iに属する一部の画像のV系総色度は、上述の画素選別処理の後に残った画素を対象とする数10の演算によって、“SUM_Vij”として算出される。

Figure 2011013929
Figure 2011013929
The U-system total chromaticity of a part of the images belonging to the overlapping area PDP_i in the bird's-eye view image BEV_j is calculated as “SUM_Uij” by the calculation of Expression 9 for pixels remaining after the pixel selection process described above. Similarly, the V-system total chromaticity of a part of the images belonging to the overlapping area PDP_i in the bird's-eye image BEV_j is calculated as “SUM_Vij” by the calculation of Expression 10 for the pixels remaining after the pixel selection process described above. Is done.
Figure 2011013929
Figure 2011013929

さらに、鳥瞰画像BEV_jのうち重複エリアPDP_iに属する一部の画像のU系平均色度は、数11の演算によって“AVE_Uij”として算出される。同様に、鳥瞰画像BEV_jのうち重複エリアPDP_iに属する一部の画像のV系平均色度は、数12の演算によって“AVE_Uij”として算出される。なお、“CNTi”は、重複エリアPDP_iにおける画素選別処理の後に残った画素の数に相当する。

Figure 2011013929
Figure 2011013929
基準オフセットの算出 Further, the U-system average chromaticity of some images belonging to the overlapping area PDP_i in the bird's-eye view image BEV_j is calculated as “AVE_Uij” by the calculation of Equation 11. Similarly, the V-system average chromaticity of some images belonging to the overlapping area PDP_i in the bird's-eye view image BEV_j is calculated as “AVE_Uij” by the calculation of Expression 12. Note that “CNTi” corresponds to the number of pixels remaining after pixel selection processing in the overlapping area PDP_i.
Figure 2011013929
Figure 2011013929
Calculation of reference offset

図15を参照して、エッジEDG_FRにおけるU系基準オフセットを“OFSTu_FR”と定義し、エッジEDG_BRにおけるU系基準オフセットを“OFSTu_BR”と定義する。また、エッジEDG_FLにおけるU系基準オフセットを“OFSTu_FL”と定義し、エッジEDG_BLにおけるU系基準オフセットを“OFSTu_BL”と定義する。すると、U系基準オフセットOFSTu_FR〜OFSTu_BLは、数13に従って算出される。

Figure 2011013929
Referring to FIG. 15, the U-system reference offset at edge EDG_FR is defined as “OFSTu_FR”, and the U-system reference offset at edge EDG_BR is defined as “OFSTu_BR”. Further, the U-system reference offset at the edge EDG_FL is defined as “OFSTu_FL”, and the U-system reference offset at the edge EDG_BL is defined as “OFSTu_BL”. Then, the U-system reference offsets OFSTu_FR to OFSTu_BL are calculated according to Equation 13.
Figure 2011013929

数13によれば、U系基準オフセットOFSTu_FRはU系平均色度AVE_U00およびAVE_U01の相違に対応する大きさを示し、U系基準オフセットOFSTu_BRはU系平均色度AVE_U12およびAVE_U11の相違に対応する大きさを示す。また、U系基準オフセットOFSTu_FLはU系平均色度AVE_U30およびAVE_U33の相違に対応する大きさを示し、U系基準オフセットOFSTu_BLはU系平均色度AVE_U22およびAVE_U23の相違に対応する大きさを示す。   According to Equation 13, the U-system reference offset OFSTu_FR indicates a magnitude corresponding to the difference between the U-system average chromaticity AVE_U00 and AVE_U01, and the U-system reference offset OFSTu_BR is a magnitude corresponding to the difference between the U-system average chromaticity AVE_U12 and AVE_U11. It shows. The U-system reference offset OFSTu_FL indicates a magnitude corresponding to the difference between the U-system average chromaticity AVE_U30 and AVE_U33, and the U-system reference offset OFSTu_BL indicates a magnitude corresponding to the difference between the U-system average chromaticity AVE_U22 and AVE_U23.

同様に、エッジEDG_FRにおけるV系基準オフセットを“OFSTv_FR”と定義し、エッジEDG_BRにおけるV系基準オフセットを“OFSTv_BR”と定義する。また、エッジEDG_FLにおけるV系基準オフセットを“OFSTv_FL”と定義し、エッジEDG_BLにおけるV系基準オフセットを“OFSTv_BL”と定義する。すると、V系基準オフセットOFSTv_FR〜OFSTv_BLは、数14に従って算出される。

Figure 2011013929
Similarly, the V system reference offset at the edge EDG_FR is defined as “OFSTv_FR”, and the V system reference offset at the edge EDG_BR is defined as “OFSTv_BR”. Further, the V-system reference offset at the edge EDG_FL is defined as “OFSTv_FL”, and the V-system reference offset at the edge EDG_BL is defined as “OFSTv_BL”. Then, the V system reference offsets OFSTv_FR to OFSTv_BL are calculated according to Equation 14.
Figure 2011013929

数14によれば、V系基準オフセットOFSTv_FRはV系平均色度AVE_V00およびAVE_V01の相違に対応する大きさを示し、V系基準オフセットOFSTv_BRはV系平均色度AVE_V12およびAVE_V11の相違に対応する大きさを示す。また、V系基準オフセットOFSTv_FLはV系平均色度AVE_V30およびAVE_V33の相違に対応する大きさを示し、V系基準オフセットOFSTv_BLはV系平均色度AVE_V22およびAVE_V23の相違に対応する大きさを示す。
目標オフセットの算出
According to Equation 14, the V-system reference offset OFSTv_FR indicates a magnitude corresponding to the difference between the V-system average chromaticity AVE_V00 and AVE_V01, and the V-system reference offset OFSTv_BR is a magnitude corresponding to the difference between the V-system average chromaticity AVE_V12 and AVE_V11. It shows. The V-system reference offset OFSTv_FL indicates a magnitude corresponding to the difference between the V-system average chromaticity AVE_V30 and AVE_V33, and the V-system reference offset OFSTv_BL indicates a magnitude corresponding to the difference between the V-system average chromaticity AVE_V22 and AVE_V23.
Target offset calculation

車両100の右側を表す鳥瞰画像BEV_1の各画素に付与するU系目標オフセットおよびV系目標オフセットをそれぞれ“OFSTu_R”および“OFSTv_R”と定義する。すると、U系目標オフセット“OFSTu_R”はU系基準オフセットOFSTu_FRおよびOFSTu_BRと注目画素の位置とを参照した線形補間によって算出され、V系目標オフセット“OFSTv_R”はV系基準オフセットOFSTv_FRおよびOFSTv_BRと注目画素の位置とを参照した線形補間によって算出される。具体的には、U系目標オフセットOFSTu_Rは数15に従って算出され、V系目標オフセットOFSTv_Rは数16に従って算出される。

Figure 2011013929
Figure 2011013929
The U-system target offset and the V-system target offset to be assigned to each pixel of the bird's-eye view image BEV_1 representing the right side of the vehicle 100 are defined as “OFSTu_R” and “OFSTv_R”, respectively. Then, the U-system target offset “OFSTu_R” is calculated by linear interpolation with reference to the U-system reference offsets OFSTu_FR and OFSTu_BR and the position of the target pixel, and the V-system target offset “OFSTv_R” is calculated using the V-system reference offsets OFSTv_FR and OFSTv_BR and the target pixel. It is calculated by linear interpolation with reference to the position of. Specifically, the U-system target offset OFSTu_R is calculated according to Expression 15, and the V-system target offset OFSTv_R is calculated according to Expression 16.
Figure 2011013929
Figure 2011013929

同様に、車両100の左側を表す鳥瞰画像BEV_3の各画素に付与するU系目標オフセットおよびV系目標オフセットをそれぞれ“OFSTu_L”および“OFSTv_L”と定義する。すると、U系目標オフセット“OFSTu_L”はU系基準オフセットOFSTu_FLおよびOFSTu_BLと注目画素の位置とを参照した線形補間によって算出され、V系目標オフセット“OFSTv_L”はV系基準オフセットOFSTv_FLおよびOFSTv_BLと注目画素の位置とを参照した線形補間によって算出される。具体的には、U系目標オフセットOFSTu_Lは数17に従って算出され、V系目標オフセットOFSTv_Lは数18に従って算出される。

Figure 2011013929
Figure 2011013929
色ゲインの算出 Similarly, a U-system target offset and a V-system target offset to be assigned to each pixel of the bird's-eye view image BEV_3 representing the left side of the vehicle 100 are defined as “OFSTu_L” and “OFSTv_L”, respectively. Then, the U-system target offset “OFSTu_L” is calculated by linear interpolation with reference to the U-system reference offsets OFSTu_FL and OFSTu_BL and the position of the target pixel, and the V-system target offset “OFSTv_L” is calculated using the V-system reference offsets OFSTv_FL and OFSTv_BL and the target pixel. It is calculated by linear interpolation with reference to the position of. Specifically, the U-system target offset OFSTu_L is calculated according to Equation 17, and the V-system target offset OFSTv_L is calculated according to Equation 18.
Figure 2011013929
Figure 2011013929
Color gain calculation

色に対するゲイン補正は、色オフセット補正を行った画像に対して、彩度を変更する形で行う。カメラCM_0〜CM_3の間の露光量の相違に起因する彩度の相違を補正するためには、好ましくは彩度ゲインは輝度ゲインと同一にする必要がある。しかし、輝度ゲインは非線形であるため、単純に彩度ゲインを輝度ゲインに合せるのでは、隣接画素との間でU系色度の大小関係またはV系色度の大小関係が逆転する場合が発生し易くなる。また、U系色度またはV系色度が飽和する場合が出てくる。そこで、U系色度およびV系色度に付与する色ゲイン(彩度ゲイン)は輝度ゲインのK倍(K:たとえば0.3)とし、飽和はクリッピングによって解消する。   The gain correction for the color is performed by changing the saturation of the image subjected to the color offset correction. In order to correct a difference in saturation due to a difference in exposure amount between the cameras CM_0 to CM_3, it is preferable that the saturation gain is the same as the luminance gain. However, since the luminance gain is non-linear, if the saturation gain is simply matched to the luminance gain, the U-type chromaticity magnitude relationship or the V-type chromaticity magnitude relationship may be reversed between adjacent pixels. It becomes easy to do. Further, there are cases where the U-type chromaticity or the V-type chromaticity is saturated. Therefore, the color gain (saturation gain) applied to the U-system chromaticity and the V-system chromaticity is set to K times the luminance gain (K: 0.3, for example), and saturation is eliminated by clipping.

図6に示す運転支援画像は、このような輝度補正および/または色度補正が完了した後に作成される。このとき、重複エリアDP_0については、鳥瞰画像BEV_0の重み付け量が“0”に設定され、鳥瞰画像BEV_1の重み付け量が“1”に設定される。また、重複エリアDP_1については、鳥瞰画像BEV_1の重み付け量が“1”に設定され、鳥瞰画像BEV_2の重み付け量が“0”に設定される。   The driving assistance image shown in FIG. 6 is created after completing such luminance correction and / or chromaticity correction. At this time, for the overlapping area DP_0, the weighting amount of the bird's-eye image BEV_0 is set to “0”, and the weighting amount of the bird's-eye image BEV_1 is set to “1”. For the overlapping area DP_1, the weighting amount of the bird's-eye view image BEV_1 is set to “1”, and the weighting amount of the bird's-eye view image BEV_2 is set to “0”.

さらに、重複エリアDP_2については、鳥瞰画像BEV_2の重み付け量が“0”に設定され、鳥瞰画像BEV_3の重み付け量が“1”に設定される。また、重複エリアDP_4については、鳥瞰画像BEV_3の重み付け量が“1”に設定され、鳥瞰画像BEV_0の重み付け量が“0”に設定される。   Furthermore, for the overlapping area DP_2, the weighting amount of the bird's-eye image BEV_2 is set to “0”, and the weighting amount of the bird's-eye image BEV_3 is set to “1”. For the overlapping area DP_4, the weighting amount of the bird's-eye image BEV_3 is set to “1”, and the weighting amount of the bird's-eye image BEV_0 is set to “0”.

CPU12pは、具体的には、図16〜図26に示すフロー図に従う処理を実行する。なお、これらのフロー図に対応する制御プログラムは、フラッシュメモリ16に記憶される。   Specifically, the CPU 12p executes processing according to the flowcharts shown in FIGS. A control program corresponding to these flowcharts is stored in the flash memory 16.

図16を参照して、ステップS1では内部同期のための垂直同期信号Vsyncが発生したか否かを判別する。判別結果がNOからYESに更新されるとステップS3に進み、メモリ12mに格納された被写界像P_0〜P_3を鳥瞰画像BEV_0〜BEV_3に変換する。続いて、ステップS5で画素選別処理を実行し、ステップS7で輝度補正処理を実行し、そしてステップS9で色度補正処理を実行する。ステップS9の処理が完了すると、ステップS11で全周鳥瞰画像を作成し、その後にステップS1に戻る。   Referring to FIG. 16, in step S1, it is determined whether or not a vertical synchronization signal Vsync for internal synchronization has occurred. When the determination result is updated from NO to YES, the process proceeds to step S3, and the object scene images P_0 to P_3 stored in the memory 12m are converted into the bird's-eye view images BEV_0 to BEV_3. Subsequently, pixel selection processing is executed in step S5, luminance correction processing is executed in step S7, and chromaticity correction processing is executed in step S9. When the process of step S9 is completed, an all-around bird's-eye image is created in step S11, and then the process returns to step S1.

ステップS5の画素選別処理は、図17〜図18に示すサブルーチンに従って実行される。まずステップS21で変数iを“0”に設定し、ステップS23で部分重複エリアPDP_iの先頭画素を指定する。ステップS25では、上述した数1が満足されるか否かを判別する。判別結果がNOであればそのままステップS29に進む一方、判別結果がYESであればステップS27の処理を経てステップS29に進む。ステップS27では、鳥瞰画像BEV_jおよびBEV_j+1の両方から指定画素を排除する。   The pixel selection process in step S5 is executed according to a subroutine shown in FIGS. First, in step S21, the variable i is set to “0”, and in step S23, the top pixel of the partial overlap area PDP_i is designated. In step S25, it is determined whether or not the above equation 1 is satisfied. If a determination result is NO, it will progress to step S29 as it is, and if a determination result is YES, it will progress to step S29 through the process of step S27. In step S27, the designated pixel is excluded from both the bird's-eye view images BEV_j and BEV_j + 1.

ステップS29では、数3および数4を参照して閾値Ythを算出し、ステップS31では数2が満足されるか否かを判別する。判別結果がNOであればそのままステップS35に進む一方、判別結果がYESであればステップS33でステップS27と同様の排除処理を実行してからステップS35に進む。   In step S29, the threshold value Yth is calculated with reference to equations 3 and 4, and in step S31, it is determined whether equation 2 is satisfied. If the determination result is NO, the process proceeds directly to step S35, whereas if the determination result is YES, the same exclusion process as in step S27 is executed in step S33, and then the process proceeds to step S35.

ステップS35では、鳥瞰画像BEV_j上の指定画素の輝度が既定の輝度範囲(S_low〜S_highの範囲)から外れるか否かを判別する。判別結果がNOであればそのままステップS39に進む一方、判別結果がYESであればステップS37でステップS27と同様の排除処理を実行してからステップS39に進む。   In step S35, it is determined whether or not the luminance of the designated pixel on the bird's-eye view image BEV_j is out of a predetermined luminance range (range of S_low to S_high). If the determination result is NO, the process proceeds to step S39 as it is, while if the determination result is YES, the same exclusion process as in step S27 is executed in step S37, and then the process proceeds to step S39.

ステップS39では指定画像が重複エリアPDP_iの末尾画素であるか否かを判別し、ステップS43では変数iが“3”であるか否かを判別する。ステップS39でNOであれば、ステップS41で重複エリアPDP_iの次画素を指定し、その後にステップS25に戻る。ステップS39でYESでかつステップS41でNOであれば、ステップS45で変数iおよびjをインクリメントし、その後にステップS23に戻る。なお、変数iおよびjはいずれも“0”〜“3”の間で循環する数値を示し、変数jが“3”を示すとき、変数“j+1”は“0”を示す。ステップS39およびS43のいずれもYESであれば、上階層のルーチンに復帰する。   In step S39, it is determined whether or not the designated image is the last pixel of the overlapping area PDP_i. In step S43, it is determined whether or not the variable i is “3”. If “NO” in the step S39, the next pixel of the overlapping area PDP_i is designated in a step S41, and thereafter, the process returns to the step S25. If “YES” in the step S39 and “NO” in the step S41, the variables i and j are incremented in a step S45, and thereafter, the process returns to the step S23. Variables i and j both represent a numerical value that circulates between “0” and “3”. When variable j indicates “3”, variable “j + 1” indicates “0”. If both steps S39 and S43 are YES, the process returns to the upper hierarchy routine.

図16に示すステップS7の輝度補正処理は、図19〜図22に示すサブルーチンに従って実行される。   The brightness correction process in step S7 shown in FIG. 16 is executed according to a subroutine shown in FIGS.

まずステップS51で、速度センサ18の出力に基づいて車両100の移動速度を“SPD”として検出する。ステップS53では鳥瞰画像BEV_0から部分重複エリアPDP_0に対応する一部の画像を特定し、特定された画像の総輝度を“SUM_Y00”として算出する。ステップS55では鳥瞰画像BEV_1から部分重複エリアPDP_0に対応する一部の画像を特定し、特定された画像の総輝度を“SUM_Y01”として算出する。   First, in step S51, the moving speed of the vehicle 100 is detected as "SPD" based on the output of the speed sensor 18. In step S53, a part of the image corresponding to the partial overlap area PDP_0 is specified from the bird's-eye view image BEV_0, and the total luminance of the specified image is calculated as “SUM_Y00”. In step S55, a part of the image corresponding to the partial overlap area PDP_0 is specified from the bird's-eye view image BEV_1, and the total luminance of the specified image is calculated as “SUM_Y01”.

ステップS57では鳥瞰画像BEV_1から部分重複エリアPDP_1に対応する一部の画像を特定し、特定された画像の総輝度を“SUM_Y11”として算出する。ステップS59では鳥瞰画像BEV_2から部分重複エリアPDP_1に対応する一部の画像を特定し、特定された画像の総輝度を“SUM_Y12”として算出する。   In step S57, a part of the image corresponding to the partial overlap area PDP_1 is specified from the bird's-eye view image BEV_1, and the total luminance of the specified image is calculated as “SUM_Y11”. In step S59, a part of the image corresponding to the partial overlap area PDP_1 is specified from the bird's-eye view image BEV_2, and the total luminance of the specified image is calculated as “SUM_Y12”.

なお、総輝度“SUM_Y00”,“SUM_Y01”,“SUM_Y11”,“SUM_Y12”はいずれも、上述のステップS27,S33およびS37の排除処理の後に残った画素の輝度の総和に相当し、上述の数5を参照して算出される。   Note that the total luminances “SUM_Y00”, “SUM_Y01”, “SUM_Y11”, and “SUM_Y12” all correspond to the sum of the luminances of the pixels remaining after the exclusion processing in steps S27, S33, and S37 described above. 5 with reference to FIG.

ステップS61では、部分重複エリアPDP_0に対する排除処理の後に残った画素の数を“CNT1”として検出する。また、ステップS63では、部分重複エリアPDP_1に対する排除処理の後に残った画素の数を“CNT2”として検出する。   In step S61, the number of pixels remaining after the exclusion process for the partial overlap area PDP_0 is detected as “CNT1”. In step S63, the number of pixels remaining after the exclusion process for the partial overlap area PDP_1 is detected as “CNT2”.

ステップS65では、エッジEGD_FRに対応する基準輝度ゲインGy_FRとエッジEGD_BRに対応する基準輝度ゲインGy_BRとを、数6を参照して算出する。ステップS67では、移動速度SPDと画素数CNT0およびCNT1とに基づいて、図14に示す補正輝度レベルの上限および下限(輝度補正範囲)を決定する。輝度補正範囲は、移動速度SPDが増大するほど、或いは画素数CNT0および/またはCNT1が減少するほど、狭くなる。   In step S65, a reference luminance gain Gy_FR corresponding to the edge EGD_FR and a reference luminance gain Gy_BR corresponding to the edge EGD_BR are calculated with reference to Equation 6. In step S67, the upper limit and the lower limit (luminance correction range) of the corrected luminance level shown in FIG. 14 are determined based on the moving speed SPD and the pixel numbers CNT0 and CNT1. The brightness correction range becomes narrower as the moving speed SPD increases or the number of pixels CNT0 and / or CNT1 decreases.

ステップS67の処理が完了すると、ステップS69で鳥瞰画像BEV_1の先頭画素を指定する。ステップS71では、指定画素に対応する目標輝度ゲインGy_Rを数7に従って算出する。ステップS73では、算出された目標輝度ゲインGy_RをステップS67で決定された輝度補正範囲を参照して補正する。ステップS75では、補正されたゲインGy_R’を指定画素の輝度に付与する。ステップS77では指定画素が鳥瞰画像BEV_1の末尾画素であるか否かを判別する。判別結果がNOであれば、ステップS79で鳥瞰画像BEV_1の次画素を指定し、その後にステップS71に戻る。判別結果がYESであれば、ステップS81に進む。   When the process of step S67 is completed, the top pixel of the bird's-eye view image BEV_1 is designated in step S69. In step S71, the target luminance gain Gy_R corresponding to the designated pixel is calculated according to Equation 7. In step S73, the calculated target luminance gain Gy_R is corrected with reference to the luminance correction range determined in step S67. In step S75, the corrected gain Gy_R ′ is given to the luminance of the designated pixel. In step S77, it is determined whether or not the designated pixel is the end pixel of the bird's-eye view image BEV_1. If the determination result is NO, the next pixel of the bird's-eye view image BEV_1 is designated in step S79, and then the process returns to step S71. If a determination result is YES, it will progress to Step S81.

ステップS81では鳥瞰画像BEV_2から部分重複エリアPDP_2に対応する一部の画像を特定し、特定された画像の総輝度を“SUM_Y22”として算出する。ステップS83では鳥瞰画像BEV_3から部分重複エリアPDP_2に対応する一部の画像を特定し、特定された画像の総輝度を“SUM_Y23”として算出する。   In step S81, a part of the image corresponding to the partial overlap area PDP_2 is identified from the bird's-eye view image BEV_2, and the total luminance of the identified image is calculated as “SUM_Y22”. In step S83, a part of the image corresponding to the partial overlap area PDP_2 is specified from the bird's-eye view image BEV_3, and the total luminance of the specified image is calculated as “SUM_Y23”.

ステップS85では鳥瞰画像BEV_0から部分重複エリアPDP_3に対応する一部の画像を特定し、特定された画像の総輝度を“SUM_Y30”として算出する。ステップS87では鳥瞰画像BEV_3から部分重複エリアPDP_3に対応する一部の画像を特定し、特定された画像の総輝度を“SUM_Y33”として算出する。   In step S85, a part of the image corresponding to the partial overlap area PDP_3 is specified from the bird's-eye view image BEV_0, and the total luminance of the specified image is calculated as “SUM_Y30”. In step S87, a part of the image corresponding to the partial overlap area PDP_3 is specified from the bird's-eye view image BEV_3, and the total luminance of the specified image is calculated as “SUM_Y33”.

上述と同様、総輝度“SUM_Y22”,“SUM_Y23”,“SUM_Y30”,“SUM_Y33”も、ステップS27,S33およびS37の排除処理の後に残った画素の輝度の総和に相当し、上述の数5を参照して算出される。   As described above, the total luminances “SUM_Y22”, “SUM_Y23”, “SUM_Y30”, and “SUM_Y33” correspond to the sum of the luminances of the pixels remaining after the exclusion processing in steps S27, S33, and S37. Calculated by reference.

ステップS89では、部分重複エリアPDP_2に対する排除処理の後に残った画素の数を“CNT2”として検出する。また、ステップS91では、部分重複エリアPDP_3に対する排除処理の後に残った画素の数を“CNT3”として検出する。   In step S89, the number of pixels remaining after the exclusion process for the partial overlap area PDP_2 is detected as “CNT2”. In step S91, the number of pixels remaining after the exclusion process for the partial overlap area PDP_3 is detected as “CNT3”.

ステップS93では、エッジEGD_FLに対応する基準輝度ゲインGy_FLとエッジEGD_BLに対応する基準輝度ゲインGy_BLとを、数6を参照して算出する。ステップS95では、移動速度SPDと画素数CNT2およびCNT3とに基づいて輝度補正範囲を決定する。   In step S93, the reference luminance gain Gy_FL corresponding to the edge EGD_FL and the reference luminance gain Gy_BL corresponding to the edge EGD_BL are calculated with reference to Equation 6. In step S95, the luminance correction range is determined based on the moving speed SPD and the number of pixels CNT2 and CNT3.

ステップS95の処理が完了すると、ステップS97で鳥瞰画像BEV_3の先頭画素を指定する。ステップS99では、指定画素に対応する目標輝度ゲインGy_Lを数8に従って算出する。ステップS101では、算出された目標輝度ゲインGy_LをステップS95で決定された輝度補正範囲を参照して補正する。ステップS103では、補正されたゲインGy_L’を指定画素の輝度に付与する。ステップS105では指定画素が鳥瞰画像BEV_3の末尾画素であるか否かを判別する。判別結果がNOであれば、ステップS107で鳥瞰画像BEV_3の次画素を指定し、その後にステップS99に戻る。判別結果がYESであれば、上階層のルーチンに復帰する。   When the process in step S95 is completed, the top pixel of the bird's-eye view image BEV_3 is designated in step S97. In step S99, the target luminance gain Gy_L corresponding to the designated pixel is calculated according to Equation 8. In step S101, the calculated target luminance gain Gy_L is corrected with reference to the luminance correction range determined in step S95. In step S103, the corrected gain Gy_L ′ is given to the luminance of the designated pixel. In step S105, it is determined whether or not the designated pixel is the end pixel of the bird's-eye view image BEV_3. If the determination result is NO, the next pixel of the bird's-eye view image BEV_3 is designated in step S107, and then the process returns to step S99. If the determination result is YES, the process returns to the upper hierarchy routine.

図16に示すステップS9の色度補正処理は、図23〜図26に示すサブルーチンに従って実行される。   The chromaticity correction process in step S9 shown in FIG. 16 is executed according to a subroutine shown in FIGS.

ステップS111では、鳥瞰画像BEV_0から部分重複エリアPDP_0に対応する一部の画像を特定し、特定された画像のU系平均色度およびV系平均色度を“AVE_U00”および“AVE_V00”として算出する。ステップS113では、鳥瞰画像BEV_1から部分重複エリアPDP_0に対応する一部の画像を特定し、特定された画像のU系平均色度およびV系平均色度を“AVE_U01”および“AVE_V01”として算出する。   In step S111, a part of the image corresponding to the partial overlap area PDP_0 is specified from the bird's-eye view image BEV_0, and the U-system average chromaticity and the V-system average chromaticity of the specified image are calculated as “AVE_U00” and “AVE_V00”. . In step S113, a part of the image corresponding to the partial overlap area PDP_0 is identified from the bird's-eye view image BEV_1, and the U-system average chromaticity and the V-system average chromaticity of the identified image are calculated as “AVE_U01” and “AVE_V01”. .

ステップS115では、鳥瞰画像BEV_1から部分重複エリアPDP_1に対応する一部の画像を特定し、特定された画像のU系平均色度およびV系平均色度を“AVE_U11”および“AVE_V11”として算出する。ステップS117では、鳥瞰画像BEV_2から部分重複エリアPDP_1に対応する一部の画像を特定し、特定された画像のU系平均色度およびV系平均色度を“AVE_U12”および“AVE_V12”として算出する。   In step S115, a part of the image corresponding to the partial overlap area PDP_1 is specified from the bird's-eye view image BEV_1, and the U-system average chromaticity and the V-system average chromaticity of the specified image are calculated as “AVE_U11” and “AVE_V11”. . In step S117, a part of the image corresponding to the partial overlap area PDP_1 is identified from the bird's-eye view image BEV_2, and the U-system average chromaticity and the V-system average chromaticity of the identified image are calculated as “AVE_U12” and “AVE_V12”. .

なお、U系平均色度“SUM_U00”,“SUM_U01”,“SUM_U11”,“SUM_U12”はいずれも、上述のステップS27,S33およびS37の排除処理の後に残った画素を形成するU成分の平均値に相当し、上述の数9および数11を参照して算出される。   Note that the U-system average chromaticity “SUM_U00”, “SUM_U01”, “SUM_U11”, and “SUM_U12” are all the average values of U components that form the remaining pixels after the above-described steps S27, S33, and S37. And is calculated with reference to Equation 9 and Equation 11 above.

同様に、V系平均色度“SUM_V00”,“SUM_V01”,“SUM_V11”,“SUM_V12”はいずれも、上述のステップS27,S33およびS37の排除処理の後に残った画素を形成するV成分の平均値に相当し、上述の数10および数12を参照して算出される。   Similarly, the V-system average chromaticities “SUM_V00”, “SUM_V01”, “SUM_V11”, and “SUM_V12” are all the averages of the V components that form the remaining pixels after the above-described steps S27, S33, and S37. It corresponds to a value and is calculated with reference to the above-mentioned formulas 10 and 12.

ステップS119では、エッジEGD_FRに対応するU系基準オフセットOFSTu_FRとエッジEGD_BRに対応するU系基準オフセットOFSTu_BRとを、数13を参照して算出する。ステップS121では、エッジEGD_FRに対応するV系基準オフセットOFSTv_FRとエッジEGD_BRに対応するV系基準オフセットOFSTv_BRとを、数14を参照して算出する。   In step S119, the U-system reference offset OFSTu_FR corresponding to the edge EGD_FR and the U-system reference offset OFSTu_BR corresponding to the edge EGD_BR are calculated with reference to Equation 13. In step S121, the V-system reference offset OFSTv_FR corresponding to the edge EGD_FR and the V-system reference offset OFSTv_BR corresponding to the edge EGD_BR are calculated with reference to Equation 14.

ステップS123では、鳥瞰画像BEV_1の先頭画素を指定する。ステップS125では指定画素に対応するU系目標オフセットOFSTu_Rを数15を参照して算出し、ステップS127では指定画素に対応するV系目標オフセットOFSTv_Rを数16を参照して算出する。ステップS129では算出されたU系目標オフセットOFSTu_Rを指定画素のU系色度に付加し、ステップS131では算出されたV系目標オフセットOFSTv_Rを指定画素のV系色度に付加する。   In step S123, the top pixel of the bird's-eye view image BEV_1 is designated. In step S125, the U-system target offset OFSTu_R corresponding to the designated pixel is calculated with reference to Equation 15, and in Step S127, the V-system target offset OFSTv_R corresponding to the designated pixel is calculated with reference to Equation 16. In step S129, the calculated U system target offset OFSTu_R is added to the U system chromaticity of the designated pixel, and in step S131, the calculated V system target offset OFSTv_R is added to the V system chromaticity of the designated pixel.

ステップS133ではUオフセットOFSTu_Rが付加されたU系色度にゲインGu_Rを付与し、ステップS135ではVオフセットOFSTy_Rが付加されたV系色度にゲインGv_Rを付与する。ここで、ゲインGu_RおよびGv_Rの各々は、同じ画素に付与されたゲインGy_RのK倍に相当する。   In step S133, the gain Gu_R is added to the U system chromaticity to which the U offset OFSTu_R is added. In step S135, the gain Gv_R is applied to the V system chromaticity to which the V offset OFSTy_R is added. Here, each of the gains Gu_R and Gv_R corresponds to K times the gain Gy_R applied to the same pixel.

ステップS137では、指定画素が鳥瞰画像BEV_1の末尾画素であるか否かを判別する。判別結果がNOであれば、ステップS139で鳥瞰画像BEV_1の次画素を指定し、その後にステップS125に戻る。これに対して、判別結果がYESであれば、ステップS141に進む。   In step S137, it is determined whether or not the designated pixel is the last pixel of the bird's-eye view image BEV_1. If the determination result is NO, the next pixel of the bird's-eye view image BEV_1 is designated in step S139, and then the process returns to step S125. On the other hand, if a determination result is YES, it will progress to Step S141.

ステップS141では、鳥瞰画像BEV_2から部分重複エリアPDP_2に対応する一部の画像を特定し、特定された画像のU系平均色度およびV系平均色度を“AVE_U22”および“AVE_V22”として算出する。ステップS143では、鳥瞰画像BEV_3から部分重複エリアPDP_2に対応する一部の画像を特定し、特定された画像のU系平均色度およびV系平均色度を“AVE_U23”および“AVE_V23”として算出する。   In step S141, a part of the image corresponding to the partial overlap area PDP_2 is identified from the bird's-eye view image BEV_2, and the U-system average chromaticity and the V-system average chromaticity of the identified image are calculated as “AVE_U22” and “AVE_V22”. . In step S143, a part of the image corresponding to the partial overlap area PDP_2 is identified from the bird's-eye view image BEV_3, and the U-system average chromaticity and the V-system average chromaticity of the identified image are calculated as “AVE_U23” and “AVE_V23”. .

ステップS145では、鳥瞰画像BEV_0から部分重複エリアPDP_3に対応する一部の画像を特定し、特定された画像のU系平均色度およびV系平均色度を“AVE_U30”および“AVE_V30”として算出する。ステップS147では、鳥瞰画像BEV_3から部分重複エリアPDP_3に対応する一部の画像を特定し、特定された画像のU系平均色度およびV系平均色度を“AVE_U33”および“AVE_V33”として算出する。   In step S145, a part of the image corresponding to the partial overlap area PDP_3 is identified from the bird's-eye view image BEV_0, and the U-system average chromaticity and the V-system average chromaticity of the identified image are calculated as “AVE_U30” and “AVE_V30”. . In step S147, a part of the image corresponding to the partial overlap area PDP_3 is specified from the bird's-eye view image BEV_3, and the U-system average chromaticity and the V-system average chromaticity of the specified image are calculated as “AVE_U33” and “AVE_V33”. .

なお、U系平均色度“SUM_U22”,“SUM_U23”,“SUM_U30”,“SUM_U33”はいずれも、上述のステップS27,S33およびS37の排除処理の後に残った画素を形成するU成分の平均値に相当し、上述の数9および数11を参照して算出される。   The U-system average chromaticity “SUM_U22”, “SUM_U23”, “SUM_U30”, and “SUM_U33” are all average values of U components that form the remaining pixels after the above-described steps S27, S33, and S37. And is calculated with reference to Equation 9 and Equation 11 above.

同様に、V系平均色度“SUM_V22”,“SUM_V23”,“SUM_V30”,“SUM_V33”はいずれも、上述のステップS27,S33およびS37の排除処理の後に残った画素を形成するV成分の平均値に相当し、上述の数10および数12を参照して算出される。   Similarly, the V-system average chromaticities “SUM_V22”, “SUM_V23”, “SUM_V30”, and “SUM_V33” are all averages of V components that form the remaining pixels after the above-described steps S27, S33, and S37. It corresponds to a value and is calculated with reference to the above-mentioned formulas 10 and 12.

ステップS149では、エッジEGD_FLに対応するU系基準オフセットOFSTu_FLとエッジEGD_BLに対応するU系基準オフセットOFSTu_BLとを、数13を参照して算出する。ステップS151では、エッジEGD_FLに対応するV系基準オフセットOFSTv_FLとエッジEGD_BLに対応するV系基準オフセットOFSTv_BLとを、数14を参照して算出する。   In step S149, the U-system reference offset OFSTu_FL corresponding to the edge EGD_FL and the U-system reference offset OFSTu_BL corresponding to the edge EGD_BL are calculated with reference to Equation 13. In step S151, the V-system reference offset OFSTv_FL corresponding to the edge EGD_FL and the V-system reference offset OFSTv_BL corresponding to the edge EGD_BL are calculated with reference to Equation 14.

ステップS153では、鳥瞰画像BEV_3の先頭画素を指定する。ステップS155では指定画素に対応するU系目標オフセットOFSTu_Lを数17を参照して算出し、ステップS157では指定画素に対応するV系目標オフセットOFSTv_Lを数18を参照して算出する。ステップS159では算出されたU系目標オフセットOFSTu_Lを指定画素のU系色度に付加し、ステップS161では算出されたV系目標オフセットOFSTv_Lを指定画素のV系色度に付加する。   In step S153, the top pixel of the bird's-eye view image BEV_3 is designated. In step S155, the U-system target offset OFSTu_L corresponding to the designated pixel is calculated with reference to Equation 17, and in Step S157, the V-system target offset OFSTv_L corresponding to the designated pixel is calculated with reference to Equation 18. In step S159, the calculated U system target offset OFSTu_L is added to the U system chromaticity of the designated pixel, and in step S161, the calculated V system target offset OFSTv_L is added to the V system chromaticity of the designated pixel.

ステップS163ではU系目標オフセットOFSTu_Lが付加されたU系色度にゲインGu_Lを付与し、ステップS165ではV系目標オフセットOFSTy_Lが付加されたV系色度にゲインGv_Lを付与する。ここで、ゲインGu_LおよびGv_Lの各々は、同じ画素に付与されたゲインGy_LのK倍に相当する。   In step S163, the gain Gu_L is added to the U-system chromaticity to which the U-system target offset OFSTu_L is added, and in step S165, the gain Gv_L is applied to the V-system chromaticity to which the V system target offset OFSTy_L is added. Here, each of the gains Gu_L and Gv_L corresponds to K times the gain Gy_L applied to the same pixel.

ステップS177では、指定画素が鳥瞰画像BEV_3の末尾画素であるか否かを判別する。判別結果がNOであれば、ステップS169で鳥瞰画像BEV_3の次画素を指定し、その後にステップS155に戻る。これに対して、判別結果がYESであれば、上位階層のルーチンに復帰する。   In step S177, it is determined whether or not the designated pixel is the last pixel of the bird's-eye view image BEV_3. If the determination result is NO, in step S169, the next pixel of the bird's-eye view image BEV_3 is designated, and thereafter, the process returns to step S155. On the other hand, if the determination result is YES, the process returns to the upper layer routine.

以上の説明から分かるように、車両100に設けられたカメラCM_0〜CM_3は、共通視野CVW_0〜CVW_3を部分的に有する姿勢で路面を斜めから捉える。CPU12pは、このようなカメラCM_0〜CM_3から出力された被写界像P_0〜P_3を、路面を上方から眺めた状態を表す鳥瞰画像BEV_0〜BEV_3に変換する(S3)。CPU12pはまた、共通視野CVW_0〜CVW_3に存在する立体物を表す画像の位置を、鳥瞰画像BEV_0〜BEV_3の各々から排除位置として検出し(S23~S25, S39~S41)、排除位置の画像を鳥瞰画像BEV_0〜BEV_3から共通的に排除する(S27, S33)。CPU12pはさらに、排除処理の後に残った複数の画像間の輝度および/または色度の相違が抑制される態様で、鳥瞰画像BEV_0〜BEV_3を合成する(S7~S11)。   As can be seen from the above description, the cameras CM_0 to CM_3 provided in the vehicle 100 capture the road surface obliquely with a posture partially having the common visual field CVW_0 to CVW_3. The CPU 12p converts the object scene images P_0 to P_3 output from the cameras CM_0 to CM_3 into bird's-eye images BEV_0 to BEV_3 representing a state in which the road surface is viewed from above (S3). The CPU 12p also detects the position of the image representing the three-dimensional object existing in the common visual field CVW_0 to CVW_3 as the exclusion position from each of the bird's-eye images BEV_0 to BEV_3 (S23 to S25, S39 to S41), and the image at the exclusion position is a bird's-eye view. The images BEV_0 to BEV_3 are commonly excluded (S27, S33). The CPU 12p further synthesizes the bird's-eye view images BEV_0 to BEV_3 in such a manner that the difference in luminance and / or chromaticity between the plurality of images remaining after the exclusion process is suppressed (S7 to S11).

カメラCM_0〜CM_3は共通視野CVW_0〜CVW_3を部分的に有する姿勢で斜めから基準面を捉えるため、共通視野CVW_0〜CVW_3に現れた立体物の姿勢はカメラCM_0〜CM_3にそれぞれ対応する鳥瞰画像BEV_0〜BEV_3の間で相違する。共通視野CVW_0〜CVW_3に現れた立体物の位置はこのような鳥瞰画像BEV_0〜BEV_3の各々から検出され、検出された位置の画像は鳥瞰画像BEV_0〜BEV_3から共通的に排除される。鳥瞰画像BEV_0〜BEV_3の合成処理は、このような排除処理の後に残った複数の画像間の輝度および/または色の相違が抑制される態様で実行される。これによって、合成された鳥瞰画像の品質を向上させることができる。   Since the cameras CM_0 to CM_3 capture the reference plane obliquely with an attitude partially having the common visual field CVW_0 to CVW_3, the posture of the three-dimensional object that appears in the common visual fields CVW_0 to CVW_3 is the bird's-eye view image BEV_0 corresponding to each of the cameras CM_0 to CM_3. It differs between BEV_3. The positions of the three-dimensional objects appearing in the common visual fields CVW_0 to CVW_3 are detected from each of the bird's-eye images BEV_0 to BEV_3, and the images at the detected positions are commonly excluded from the bird's-eye images BEV_0 to BEV_3. The synthesis process of the bird's-eye view images BEV_0 to BEV_3 is executed in a manner in which a difference in luminance and / or color between a plurality of images remaining after such an exclusion process is suppressed. Thereby, the quality of the synthesized bird's-eye view image can be improved.

なお、この実施例では、色オフセット補正の後に色に対するゲイン補正を行うようにしている。しかし、色オフセット補正の前に色に対するゲイン補正を行うようにしてもよい。   In this embodiment, the gain correction for the color is performed after the color offset correction. However, gain correction for colors may be performed before color offset correction.

また、本実施例では、車用の全周鳥瞰表示を例に説明したが、本手法は、路面等の基準面に対する鳥瞰変換(視点変換)を行うマルチカメラシステムにおいても適応可能である。   In this embodiment, the all-round bird's-eye display for a vehicle is described as an example. However, the present technique can also be applied to a multi-camera system that performs bird's-eye conversion (viewpoint conversion) on a reference surface such as a road surface.

10 …操縦支援装置
CM_0〜CM_3 …カメラ
12 …画像処理回路
12m …メモリ
12p …CPU
14 …表示装置
16 …フラッシュメモリ
18 …速度センサ
100 …車両
DESCRIPTION OF SYMBOLS 10 ... Steering assistance apparatus CM_0-CM_3 ... Camera 12 ... Image processing circuit 12m ... Memory 12p ... CPU
DESCRIPTION OF SYMBOLS 14 ... Display apparatus 16 ... Flash memory 18 ... Speed sensor 100 ... Vehicle

Claims (6)

共通視野を部分的に有する姿勢で基準面を斜めから捉える複数のカメラから出力された複数の被写界像を前記基準面に対する複数の鳥瞰画像に変換する変換手段、
前記共通視野に存在する立体物を表す画像の位置を前記変換手段によって変換された複数の鳥瞰画像の各々から排除位置として検出する第1検出手段、
前記変換手段によって変換された複数の鳥瞰画像から前記排除位置の画像を共通的に排除する排除手段、および
前記変換手段によって変換された複数の鳥瞰画像を前記排除手段の排除処理の後に残った複数の画像間の輝度および/または色度の相違が抑制される態様で合成する合成手段を備える、画像処理装置。
Conversion means for converting a plurality of object scene images output from a plurality of cameras capturing the reference plane obliquely with a posture having a common visual field partially into a plurality of bird's-eye images with respect to the reference plane;
First detection means for detecting the position of an image representing a three-dimensional object existing in the common visual field as an exclusion position from each of a plurality of bird's-eye images converted by the conversion means;
Exclusion means for commonly removing the image at the exclusion position from a plurality of bird's-eye images converted by the conversion means, and a plurality of bird's-eye images converted by the conversion means left after the exclusion processing of the exclusion means An image processing apparatus comprising combining means for combining in such a manner that differences in luminance and / or chromaticity between the images are suppressed.
前記排除位置は前記複数の鳥瞰画像間の輝度差および/または色度差が第1基準を上回る画素の位置に相当する、請求項1記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the exclusion position corresponds to a pixel position where a luminance difference and / or a chromaticity difference between the plurality of bird's-eye images exceeds a first reference. 前記共通視野に対応して表われた鮮鋭画像の位置を前記排除位置として検出する第2検出手段をさらに備える、請求項1または2記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising second detection means for detecting a position of a sharp image corresponding to the common visual field as the exclusion position. 画像の鮮鋭度に関連する第2基準を前記複数のカメラの各々から出力された被写界像の輝度を参照して調整する調整手段をさらに備え、
前記第2検出手段は前記第2基準を参照して検出処理を実行する、請求項3記載の画像処理装置。
Adjusting means for adjusting a second standard related to the sharpness of the image with reference to the luminance of the object scene image output from each of the plurality of cameras;
The image processing apparatus according to claim 3, wherein the second detection unit performs detection processing with reference to the second reference.
前記合成手段は、前記排除手段の排除処理の後に残った複数の画像の間の輝度および/または色度の相違を前記共通視野に対応して検出する検出手段、および前記複数の鳥瞰画像の輝度および/または色度を前記検出手段によって検出された相違に基づいて調整する調整手段を含む、請求項1ないし4のいずれかに記載の画像処理装置。   The synthesizing unit detects a luminance and / or chromaticity difference between a plurality of images remaining after the exclusion process of the exclusion unit corresponding to the common visual field, and luminances of the plurality of bird's-eye images 5. The image processing apparatus according to claim 1, further comprising adjustment means for adjusting chromaticity based on a difference detected by the detection means. 前記調整手段は前記排除手段の排除処理の後に残った複数の画像の画素数を参照して前記輝度の調整範囲を定義する定義手段を含む、請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the adjustment unit includes a definition unit that defines the luminance adjustment range with reference to the number of pixels of a plurality of images remaining after the exclusion process of the exclusion unit.
JP2009157472A 2009-07-02 2009-07-02 Image processing device Withdrawn JP2011013929A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009157472A JP2011013929A (en) 2009-07-02 2009-07-02 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009157472A JP2011013929A (en) 2009-07-02 2009-07-02 Image processing device

Publications (1)

Publication Number Publication Date
JP2011013929A true JP2011013929A (en) 2011-01-20

Family

ID=43592739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009157472A Withdrawn JP2011013929A (en) 2009-07-02 2009-07-02 Image processing device

Country Status (1)

Country Link
JP (1) JP2011013929A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091371A (en) * 2014-11-06 2016-05-23 株式会社リコー Image processor, image processing method, image processing system, program, and recording medium
CN109040517A (en) * 2017-06-09 2018-12-18 爱信精机株式会社 Image processing apparatus
JP2019004449A (en) * 2017-06-09 2019-01-10 アイシン精機株式会社 Image processing system
WO2019073589A1 (en) * 2017-10-13 2019-04-18 三菱電機株式会社 Image combination device and image combination method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091371A (en) * 2014-11-06 2016-05-23 株式会社リコー Image processor, image processing method, image processing system, program, and recording medium
CN109040517A (en) * 2017-06-09 2018-12-18 爱信精机株式会社 Image processing apparatus
JP2018206323A (en) * 2017-06-09 2018-12-27 アイシン精機株式会社 Image processing apparatus
JP2019004449A (en) * 2017-06-09 2019-01-10 アイシン精機株式会社 Image processing system
JP7013287B2 (en) 2017-06-09 2022-01-31 株式会社アイシン Image processing equipment
WO2019073589A1 (en) * 2017-10-13 2019-04-18 三菱電機株式会社 Image combination device and image combination method
CN111194549A (en) * 2017-10-13 2020-05-22 三菱电机株式会社 Image synthesizing apparatus and image synthesizing method
JPWO2019073589A1 (en) * 2017-10-13 2020-08-13 三菱電機株式会社 Image synthesizing apparatus and image synthesizing method
US11006087B2 (en) 2017-10-13 2021-05-11 Mitsubishi Electric Corporation Image synthesizing device and image synthesizing method
CN111194549B (en) * 2017-10-13 2022-01-28 三菱电机株式会社 Image synthesizing apparatus and image synthesizing method

Similar Documents

Publication Publication Date Title
KR101643122B1 (en) Image processing device, image processing method and recording medium
US20140085473A1 (en) In-vehicle camera apparatus
JP5767485B2 (en) Image processing apparatus and control method
JP4717863B2 (en) Calibration method and apparatus for compound eye imaging apparatus and calibration chart used therefor
EP3249605A1 (en) Inverse tone mapping method and corresponding device
KR101428169B1 (en) Apparatus and method for correcting image distortion of rear camera
JPWO2017159312A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
WO2013032008A1 (en) Image processing device and program
CN103108122B (en) Image synthesizer and image recording process
CN105744248A (en) Image Capturing Method
KR101239740B1 (en) An apparatus for generating around view image of vehicle using polygon mapping and multi look-up table
EP1583349A3 (en) Defective pixel correcting method and image processing system for implementing the method
KR100956228B1 (en) Image processing apparatus having function of correctting distortion of image
JP2011013929A (en) Image processing device
CN112640413A (en) Method, control device and vehicle for displaying a model of a surroundings
US9342895B2 (en) Device and method for detecting a plant against a background using photographs with different levels of brightness
CN110958361B (en) Image pickup apparatus capable of HDR composition, control method therefor, and storage medium
JP4681432B2 (en) In-vehicle peripheral image display device
JP5633733B2 (en) Dark region noise correction device
JP2007028088A (en) Imaging apparatus and image processing method
JP2009289185A (en) Image processing apparatus
JP4814752B2 (en) Display control device
JP2017219566A (en) Display device and display method
JP5050141B2 (en) Color image exposure evaluation method
JP2009069114A (en) Stereo image adjusting method, stereo image adjusting system, and stereo image adjusting program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120904