JP2010146082A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2010146082A
JP2010146082A JP2008319798A JP2008319798A JP2010146082A JP 2010146082 A JP2010146082 A JP 2010146082A JP 2008319798 A JP2008319798 A JP 2008319798A JP 2008319798 A JP2008319798 A JP 2008319798A JP 2010146082 A JP2010146082 A JP 2010146082A
Authority
JP
Japan
Prior art keywords
image
road surface
surface area
target
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008319798A
Other languages
Japanese (ja)
Other versions
JP4900377B2 (en
Inventor
Yasushi Sakai
裕史 酒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2008319798A priority Critical patent/JP4900377B2/en
Publication of JP2010146082A publication Critical patent/JP2010146082A/en
Application granted granted Critical
Publication of JP4900377B2 publication Critical patent/JP4900377B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor allowing suitable suppression of influence of road surface reflection light in a pickup image. <P>SOLUTION: Of a plurality of imaging devices imaging an identical road surface area from different positions, one imaging device is set as a reference imaging device, and the other imaging devices are set as target imaging devices, the respective pickup images are obtained from the imaging devices. Of the respective obtained pickup images, the image by the reference imaging device is set as a reference image, the images by the target imaging devices are set as target images, each target image is performed with viewpoint conversion such that the road surface area in the target image (a target road surface area) accords with the road surface area in the reference image (a reference road surface area), and the target images after the conversion and the reference image are composed. The road surface area in the composite image (a composite road surface area) is extracted, and the reference road surface area of the reference image is replaced with the composite road surface area. Accordingly, a luminance of an object (the road surface reflection light) having height (minus height) with the road surface area as a reference plane is reduced inside the image road surface area in the replaced image. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、車両に搭載されて撮像装置により撮像される画像の処理を行う画像処理装置に関する。   The present invention relates to an image processing apparatus that processes an image mounted on a vehicle and picked up by an image pickup apparatus.

従来より、車両に搭載された車載カメラにより撮像される画像を車内のディスプレイに表示する車載表示システムや、路側に設置された路側カメラにより撮像される画像に基づいて渋滞や事故等の状況を示す各種の交通情報を生成し、これら交通情報を走行道路上の各車両に提供する情報提供システムが知られている。なお、一般的に情報提供システムでは、路側カメラにより走行道路(路面)を含む所定の領域を撮像することで、リアルタイムに得られる画像(撮像画像)と、路面上に車両が通行していないときに得られる画像(道路画像)とを比較して、路面上の車両を抽出(検出)する車両検出処理を行う。   Conventionally, on-vehicle display system that displays an image captured by an in-vehicle camera mounted on a vehicle on a display inside the vehicle, and a situation such as a traffic jam or an accident based on an image captured by a roadside camera installed on the roadside There is known an information providing system that generates various types of traffic information and provides the traffic information to each vehicle on a traveling road. In general, in an information providing system, an image (captured image) obtained in real time by imaging a predetermined area including a traveling road (road surface) with a roadside camera, and when a vehicle is not passing on the road surface A vehicle detection process for extracting (detecting) a vehicle on the road surface is performed by comparing the obtained image (road image).

この種の車載表示システムや情報提供システムでは、夜間や暗い場所(例えば、トンネル)において路面に反射する反射像(路面反射光)の影響により、ディスプレイの視認性や車両検出処理の精度が低下してしまうことが問題視されている。   In this type of in-vehicle display system and information provision system, the visibility of the display and the accuracy of the vehicle detection process decrease due to the influence of the reflected image (road surface reflected light) reflected on the road surface at night or in dark places (for example, tunnels). It is regarded as a problem.

このため、例えば情報提供システムにおいて、撮像画像から車灯だけを抽出して路面上の車両を検出するために、周知の二値化処理およびラベリング処理によって撮像画像から抽出された高輝度領域の円形度を算出し、その円形度に基づいて高輝度領域を車灯領域と路面反射領域とに識別する画像処理装置が提案されている(例えば、特許文献1参照)。また、例えば車載表示システムでは、この画像処理装置により識別された路面反射領域の輝度を低下させることにより、ディスプレイの視認性を向上させることが考えられる。
特開2007−193702号公報
For this reason, for example, in an information providing system, in order to extract only a vehicle light from a captured image and detect a vehicle on the road surface, a circular shape of a high-intensity region extracted from the captured image by known binarization processing and labeling processing There has been proposed an image processing device that calculates a degree and discriminates a high luminance area into a vehicle lamp area and a road surface reflection area based on the circularity (see, for example, Patent Document 1). Further, for example, in an in-vehicle display system, it is conceivable to improve the visibility of the display by reducing the luminance of the road surface reflection area identified by the image processing apparatus.
JP 2007-193702 A

しかし、従来の車載表示システムでは、画像処理装置により路面反射領域を認識する必要があるため、その認識が必ずしも正しいとは限らず、撮像画像から路面反射光を適切に除去することができない場合があるという問題があった。   However, in the conventional in-vehicle display system, since it is necessary to recognize the road surface reflection area by the image processing device, the recognition is not always correct, and the road surface reflected light may not be appropriately removed from the captured image. There was a problem that there was.

本発明は、上記問題点を解決するために、撮像画像における路面反射光の影響を好適に抑制可能な画像処理装置を提供することを目的とする。   In order to solve the above-described problems, an object of the present invention is to provide an image processing apparatus that can suitably suppress the influence of road surface reflected light in a captured image.

上記目的を達成するためになされた発明である請求項1に記載の画像処理装置は、車両に搭載される装置であり、同一の路面領域を異なる位置から撮像する複数の撮像装置に接続されて構成されている。なお、以下では、複数の撮像装置のうち、予め決められた一つの装置を基準撮像装置、その撮像装置以外の一つ又は複数の装置を対象撮像装置と呼ぶことにする。   The image processing apparatus according to claim 1, which is an invention made to achieve the above object, is an apparatus mounted on a vehicle, and is connected to a plurality of imaging apparatuses that image the same road surface region from different positions. It is configured. In the following, one of the plurality of imaging devices is referred to as a reference imaging device, and one or more devices other than the imaging device are referred to as target imaging devices.

具体的に本発明の画像処理装置では、以下で詳述する基本原理に着目している。つまり、図7に示すように、3次元空間内で例えば互いに平行な3つの面(平面I,平面II,平面III)、平面I,平面II上にそれぞれ配置された物体X,Y、物体X,Yを平面III上の異なる位置から撮像する撮像装置E,撮像装置Fを仮定する。そして、画像Bにおける物体Xが画像Aにおける物体Xに一致するように画像Bを並進(平行移動)させて画像Aに合成すると、合成画像において平面Iが基準平面となり、基準平面上の物体が一致することになるが、基準平面と異なる平面II上の物体Yが一致しなく(ずれることに)なる。逆に、画像Aにおける物体Yに画像B上の物体Yを合わせると、合成画像において平面IIが基準平面となり、基準平面と異なる平面I上の物体Xがずれることになる。   Specifically, the image processing apparatus of the present invention focuses on the basic principle described in detail below. That is, as shown in FIG. 7, for example, three surfaces (plane I, plane II, plane III) parallel to each other in the three-dimensional space, objects X, Y, and object X arranged on the plane I and plane II, respectively. , Y is assumed to be an image pickup device E and an image pickup device F that pick up images from different positions on the plane III. Then, when the image B is translated (translated) and synthesized with the image A so that the object X in the image B matches the object X in the image A, the plane I becomes the reference plane in the synthesized image, and the object on the reference plane becomes Although they match, the object Y on the plane II different from the reference plane does not match (shifts). On the contrary, when the object Y on the image B is matched with the object Y on the image A, the plane II becomes the reference plane in the composite image, and the object X on the plane I different from the reference plane is shifted.

このような基本原理を本発明に適用すると、以下のようになる。なお、前述した複数の撮像装置による各撮像画像のうち、基準撮像装置による撮像画像を基準画像、対象撮像装置による撮像画像を対象画像、各撮像画像(基準画像および対象画像)において、路面領域に対応する画像領域を画像路面領域、このうち、基準画像における画像路面領域を基準路面領域、対象画像における画像路面領域を対象路面領域と定義する。   When such a basic principle is applied to the present invention, it is as follows. Of the captured images obtained by the plurality of imaging devices described above, the captured image by the reference imaging device is the reference image, the captured image by the target imaging device is the target image, and each captured image (reference image and target image) is the road surface area. A corresponding image area is defined as an image road surface area. Of these, an image road surface area in the reference image is defined as a reference road surface area, and an image road surface area in the target image is defined as a target road surface area.

つまり、本発明の画像処理装置では、画像取得手段が複数の撮像装置(基準撮像装置および対象撮像装置)から各撮像画像を取得し、画像合成手段が、対象路面領域と基準路面領域とが一致するように対象画像を視点変換し、その変換後の対象画像を変換画像として、その変換画像を合成する処理(以下、合成処理という)を行う。なお、合成処理は、変換画像と基準画像とを合成する処理に限らず、複数の変換画像だけを合成する処理であってもよい。   That is, in the image processing device of the present invention, the image acquisition unit acquires each captured image from a plurality of imaging devices (reference imaging device and target imaging device), and the image synthesis unit matches the target road surface area and the reference road surface area. As described above, the target image is subjected to viewpoint conversion, and the converted target image is used as a converted image to perform a process of combining the converted image (hereinafter referred to as a combining process). The combining process is not limited to the process of combining the converted image and the reference image, and may be a process of combining only a plurality of converted images.

このように3次元空間内の路面領域を基準平面とすることにより、合成画像において基準平面と異なる平面上の物体がずれることになる。ここで重要なことは、基準平面に対して、正(プラス)の高さを有する物体(街灯光を含む)だけでなく、負(マイナス)の高さを有する物体(路面反射光を含む)もずれることである(図8参照)。   Thus, by setting the road surface area in the three-dimensional space as the reference plane, an object on a plane different from the reference plane is shifted in the synthesized image. What is important here is not only an object having a positive height (including street light) but also a object having a negative height (including road surface reflected light) with respect to the reference plane. (See FIG. 8).

この理由をわかりやすく説明すると、図9に示すように、例えば撮像画像における路面反射光は、路面領域(基準平面)上に形成されているが、基準平面に対して、プラスの高さを有する街灯光から反射(及び、乱反射)されて撮像装置に投影されたものであり、マイナスの同じ高さを有する街灯光から直接撮像装置に投影されたものと言い換えることができるためである。このため、視点変換後の合成画像において路面領域上の区画線(例えば、白線)等が一致するのに対して、路面反射光がずれることになる(図8参照)。   To explain this reason in an easy-to-understand manner, as shown in FIG. 9, for example, road surface reflected light in a captured image is formed on a road surface region (reference plane), but has a positive height with respect to the reference plane. This is because the light is reflected (and irregularly reflected) from the streetlight and projected onto the imaging device, and can be rephrased as that projected directly from the streetlight having the same negative height onto the imaging device. For this reason, in the synthesized image after the viewpoint conversion, the division lines (for example, white lines) on the road surface area coincide with each other, but the road surface reflected light is shifted (see FIG. 8).

なお、視点変換とは、周知の「並進」(平行移動),「剛体変換」(回転と平行移動),「相似変換」(回転と平行移動とスケール変化),「アフィン変換」(相似変換に斜めに歪みを加えたもの)等を部分群とする画像変換をいう。また、合成画像とは、一般的に合成前の撮像画像(基準画像および変換画像)の数をNとして、各撮像画像(基準画像および変換画像)を1/Nの合成割合で合成することを指す。   Note that the viewpoint transformation is the well-known “translation” (translation), “rigid transformation” (rotation and translation), “similar transformation” (rotation, translation and scale change), “affine transformation” (similar transformation) This is an image conversion in which a subgroup is a slanted distortion). In addition, a synthesized image generally means that each captured image (reference image and converted image) is synthesized at a 1 / N composition ratio, where N is the number of captured images (reference image and converted image) before synthesis. Point to.

さらに、本発明の画像処理装置では、画像合成手段により合成された画像を合成画像、その合成画像における画像路面領域を合成路面領域として、基準画像のうち基準路面領域を合成路面領域に置換する処理(以下、置換処理という)を行うことにより画像を生成する。   Further, in the image processing apparatus of the present invention, the image synthesized by the image synthesizing means is the synthesized image, the image road surface area in the synthesized image is the synthesized road surface area, and the reference road surface area in the reference image is replaced with the synthesized road surface area. An image is generated by performing (hereinafter referred to as a replacement process).

このように構成された画像処理装置では、路面領域が基準平面となり、合成画像において、基準平面と異なる平面上の物体(街灯光や路面反射光など)がずれることにより、その物体の輝度が所定の合成割合(1/N)で薄まる。そして、合成画像における路面領域を合成路面領域として、基準画像において路面領域だけが合成路面領域に置換することで画像が生成されるため、その生成画像において路面領域以外の領域には、基準画像における物体(街灯光等)が合成前の状態で残る。   In the image processing apparatus configured as described above, the road surface area becomes a reference plane, and an object on a plane different from the reference plane (such as street lamp light or road surface reflected light) is shifted in the composite image, whereby the brightness of the object is predetermined. It is diluted with the synthesis ratio (1 / N). Then, since the road surface area in the composite image is used as a composite road surface area, and only the road surface area is replaced with the composite road surface area in the reference image, an area other than the road surface area in the generated image has an area in the reference image. An object (such as a streetlight) remains in the state before synthesis.

したがって、本発明の画像処理装置によれば、生成画像において路面領域内の物体(路面反射光など)の輝度だけが低下(分散)することになり、ひいては、撮像画像における路面反射光の影響を好適に抑制することができる。   Therefore, according to the image processing apparatus of the present invention, only the brightness of an object (road surface reflected light or the like) in the road surface area is reduced (dispersed) in the generated image, and consequently the influence of the road surface reflected light on the captured image is reduced. It can suppress suitably.

なお、撮像装置は、例えば路側に設置されて(又は、他車両に搭載されて)、撮像画像を車両に送信するように構成されてもよいが、請求項2に記載のように、車両(自車両)に搭載されることが望ましい。   The imaging device may be configured, for example, to be installed on the roadside (or mounted on another vehicle) and transmit the captured image to the vehicle. It is desirable to be mounted on the own vehicle.

この場合、車両外部から撮像画像を受信せずに済むため、通信エラーや画像劣化、通信速度の低下等を考慮する必要がなく、ひいては、画像処理に係る精度や処理速度の低下を抑制することができる。   In this case, since it is not necessary to receive a captured image from the outside of the vehicle, there is no need to consider communication errors, image degradation, a reduction in communication speed, and the like, and consequently, a reduction in accuracy and processing speed related to image processing is suppressed. Can do.

ところで、例えば本発明の画像処理装置が車載表示システムに用いられる場合、生成画像において路面領域内の物体に路面反射光以外の物体(例えば、他車両等;以下、障害物と総称する)が含まれていると、ディスプレイを視認する上で運転者にとって重要な情報が除去されてしまうことになる。   By the way, for example, when the image processing apparatus of the present invention is used in an in-vehicle display system, objects other than road surface reflected light (for example, other vehicles, etc .; hereinafter collectively referred to as obstacles) are included in the generated image. If this happens, information important to the driver when viewing the display will be removed.

そこで、請求項3に記載のように、画像処理装置は、路面領域上の障害物を検出する障害物検出装置に接続され、距離取得手段が、障害物と車両との相対距離を表す情報(距離情報)を取得し、置換禁止手段が、距離取得手段により取得した距離情報に基づいて、基準路面領域上の位置が上記の相対距離を越える領域に対しては画像置換手段による置換処理を禁止するように構成されることが望ましい。なお、基準路面領域上の位置は、複数の撮像装置のキャリブレーション(周知のカメラキャリブレーション)に基づいて、車両を起点とする路面領域上の距離に予め対応付けられていることを前提とする。   Therefore, as described in claim 3, the image processing apparatus is connected to an obstacle detection apparatus that detects an obstacle on the road surface area, and the distance acquisition unit is information indicating a relative distance between the obstacle and the vehicle ( The replacement prohibiting means prohibits the replacement process by the image replacement means for the area whose position on the reference road surface area exceeds the above relative distance based on the distance information acquired by the distance acquiring means. It is desirable to be configured to do so. It is assumed that the position on the reference road surface area is associated in advance with a distance on the road area starting from the vehicle based on calibration of a plurality of imaging devices (known camera calibration). .

この場合、例えばディスプレイの表示画像において路面反射光の影響だけを抑制し、車両等の障害物を合成前の状態で残すことができる。なお、障害物検出装置としては、周知のミリ波や超音波を用いたレーダ装置等を利用すればよい。また、基準路面領域上の位置は、予め障害物検出装置とカメラ画像とのキャリブレーション、及びカメラの取り付け位置情報により算出される。   In this case, for example, it is possible to suppress only the influence of road surface reflected light in the display image of the display and leave an obstacle such as a vehicle in a state before synthesis. As the obstacle detection device, a known radar device using millimeter waves or ultrasonic waves may be used. In addition, the position on the reference road surface area is calculated in advance from the calibration of the obstacle detection device and the camera image, and camera mounting position information.

ここで、請求項4に記載のように、画像路面領域は、撮像装置の内部パラメータ及び外部パラメータ(即ち、カメラパラメータ)に基づいて、撮像装置毎に固定されてもよい。なお、カメラパラメータとは、カメラキャリブレーションにより予め特定されるものであり、このうち内部パラメータが撮像装置の焦点距離等に基づくものを指し、外部パラメータが撮像装置の位置や姿勢等に基づくものを指す。   Here, as described in claim 4, the image road surface area may be fixed for each imaging device based on an internal parameter and an external parameter (that is, a camera parameter) of the imaging device. The camera parameter is specified in advance by camera calibration. Among these, the internal parameter refers to the one based on the focal length of the imaging device, and the external parameter refers to the one based on the position or orientation of the imaging device. Point to.

この場合、各撮像画像において予め固定された路面領域(固定路面領域)に基づいて対象画像を視点変換すればよいことになるため、例えば固定路面領域上の区画線(白線等)やその区画線の消失点が一致するように画像変換することが考えられ、ひいては画像処理を容易にすることができる。その一方で例えば車両のカーブ走行時に、実際の撮像画像における路面領域が固定路面領域に対してずれてしまうことが懸念される。   In this case, since it is only necessary to perform viewpoint conversion of the target image based on a road surface area (fixed road surface area) fixed in advance in each captured image, for example, a lane line (white line or the like) on the fixed road surface area or its lane line It is conceivable that image conversion is performed so that the vanishing points coincide with each other, and image processing can be facilitated. On the other hand, for example, when the vehicle is traveling on a curve, there is a concern that the road surface area in the actual captured image may be shifted from the fixed road surface area.

そこで、請求項5に記載のように、画像処理装置は、路面領域上の区画線を検出する区画線検出手段を備え、画像路面領域が、区画線検出手段により検出した区画線に基づいて撮像画像毎に設定されることが望ましい。なお、区画線検出手段としては、一般的に周知のエッジ検出やHough変換等を用いて特徴点を抽出し、撮像画像全体における特徴点の繋がりに基づき区画線を検出する処理(検出処理)を行う。また、このような区画線検出手段は、全ての撮像画像に対して区画線を検出するようにしてもよい。或いは、それら撮像画像のうちの一つ(例えば、基準画像)に対して区画線が検出されれば、その他の撮像画像(例えば、対象画像)における画像路面領域(例えば、対象路面領域)については、各撮像装置のカメラパラメータに基づいて設定され得る。   Therefore, as described in claim 5, the image processing apparatus includes a lane marking detection unit that detects a lane marking on the road surface area, and the image road surface area is imaged based on the lane marking detected by the lane marking detection unit. It is desirable to set for each image. In addition, as the lane marking detection means, a feature point is generally extracted by using well-known edge detection, Hough transform, or the like, and a lane marking is detected based on the connection of the feature points in the entire captured image (detection processing). Do. Further, such a lane marking detection unit may detect lane markings for all captured images. Alternatively, if a lane marking is detected for one of the captured images (for example, the reference image), the image road surface area (for example, the target road surface area) in the other captured image (for example, the target image) And can be set based on the camera parameters of each imaging apparatus.

これらの場合、車両の挙動にかかわらずに撮像画像における路面反射光の影響を好適に抑制することができる。その一方で例えば本発明の画像処理装置が、駐車支援や車線維持といった車両の走行支援に係る制御を行う車両制御システムに用いられる場合、撮像画像における路面反射光の影響により、上記の検出処理の精度が低下する虞があるため、区画線等を適切に検出できないことが考えられる。   In these cases, the influence of the road surface reflected light in the captured image can be suitably suppressed regardless of the behavior of the vehicle. On the other hand, for example, when the image processing apparatus of the present invention is used in a vehicle control system that performs control related to driving support of a vehicle such as parking support or lane keeping, the above detection processing is performed due to the influence of road surface reflected light in a captured image. Since there is a possibility that the accuracy may decrease, it may be possible that the lane markings cannot be detected properly.

そこで、請求項6に記載のように、画像処理装置では、路面標示検出手段が、画像置換手段により置換された画像(置換画像)又は合成画像に基づいて、路面領域上の路面標示を検出するように構成されてもよい。なお、路面標示とは、路面上にペイントされたものを総称し、速度制限や一次停止などを表す道路標示や、白線等のように走行車線の境界を表す区画線を含むものをいう。   Accordingly, in the image processing apparatus, the road marking detection unit detects the road marking on the road surface area based on the image replaced by the image replacement unit (replacement image) or the composite image. It may be configured as follows. The road marking is a generic term for what has been painted on the road surface, and includes road markings representing speed limits, primary stops, etc., and lane markings representing the boundaries of traveling lanes such as white lines.

このように構成された画像処理装置では、路面標示を検出する際に、画像置換手段により路面反射光の影響が抑制された画像を用いるため、その検出精度を向上させることができる。従って、車両制御システムでは、画像処理装置による処理結果に基づいて、例えば白線位置や速度制限、一時停止などの路面情報を運転者に適切に報知したり、或いは路面情報に基づいて各種の走行制御を適切に行ったりすることができる。   In the image processing apparatus configured as described above, when detecting the road marking, an image in which the influence of the road surface reflected light is suppressed by the image replacement unit is used, so that the detection accuracy can be improved. Therefore, in the vehicle control system, based on the processing result by the image processing device, for example, the road surface information such as the position of the white line, the speed limit, and the temporary stop is appropriately notified to the driver, or various travel controls are performed based on the road surface information. Can be performed appropriately.

以下に、本発明の実施形態を図面と共に説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<全体構成>
図1は、本発明が適用された画像処理装置を備える車両制御システム1の全体構成を示すブロック図、図2は、車両制御システム1の構成要素としてのカメラアレイ10の配置を示す概略図である。
<Overall configuration>
FIG. 1 is a block diagram illustrating an overall configuration of a vehicle control system 1 including an image processing apparatus to which the present invention is applied, and FIG. 2 is a schematic diagram illustrating an arrangement of a camera array 10 as a component of the vehicle control system 1. is there.

図1に示すように、車両制御システム1は、車両の前方側(車両前方)の路面を含む画像を撮像する複数(本実施形態では、9台)の撮像装置(例えば、CCDカメラ)11〜19からなるカメラアレイ10と、車両前方の所定検出範囲内に位置する物体を検知するレーダ装置20と、カメラアレイ10により撮像される画像(撮像画像)の処理を行う画像処理装置30と、各種画像を表示する表示装置40と、車両の走行支援に係る各種制御を行う制御装置50とを備え、これら装置10〜50が映像線や車内LAN(Local Area Network)等の通信線を介して接続されて構成されている。   As illustrated in FIG. 1, the vehicle control system 1 includes a plurality (9 in this embodiment) of imaging devices (for example, CCD cameras) 11 that capture an image including a road surface on the front side (front of the vehicle) of the vehicle. 19, a radar apparatus 20 that detects an object located within a predetermined detection range in front of the vehicle, an image processing apparatus 30 that processes an image (captured image) captured by the camera array 10, and various types A display device 40 that displays an image and a control device 50 that performs various controls related to driving support of the vehicle, and these devices 10 to 50 are connected via a communication line such as a video line or an in-vehicle LAN (Local Area Network). Has been configured.

このうち、カメラアレイ10は、図2に示すように、複数の撮像装置11〜19が一直線上に配置された状態で、その配列方向が車幅方向(車両の横方向)となるように例えば車内の天井部に、各撮像装置11〜19がフロントガラス越しに同一の路面領域を異なる位置から撮像するように取り付けられている。そして、これら各撮像装置11〜19による各撮像画像を画像処理装置30に出力するように構成されている。なお、各撮像装置11〜19の内部パラメータ(カメラの焦点距離等に基づくパラメータ)及び外部パラメータ(カメラの位置や姿勢等に基づくパラメータ)は、周知のカメラキャリブレーションにより予め設定されている。   Among these, as shown in FIG. 2, for example, the camera array 10 has a plurality of imaging devices 11 to 19 arranged in a straight line so that the arrangement direction thereof is the vehicle width direction (the lateral direction of the vehicle), for example. Each imaging device 11-19 is attached to the ceiling part in a vehicle so that the same road surface area may be imaged from a different position through a windshield. And it is comprised so that each captured image by these each imaging devices 11-19 may be output to the image processing apparatus 30. FIG. Note that internal parameters (parameters based on the focal length of the camera) and external parameters (parameters based on the camera position, orientation, etc.) of each of the imaging devices 11 to 19 are set in advance by well-known camera calibration.

図1に戻り、レーダ装置20は、例えばFMCW方式のいわゆる「ミリ波レーダ」として構成されたものである。具体的には、周波数変調されたミリ波帯のレーダ波を送受信することにより、車両の前方における他車両や障害物、歩行者等の対象物(以下、前方障害物と総称する)を検出(認識)し、これらの認識結果に基づき、前方障害物に関するターゲット情報を作成して、このターゲット情報を画像処理装置30に出力する。   Returning to FIG. 1, the radar apparatus 20 is configured as a so-called “millimeter wave radar” of the FMCW system, for example. Specifically, by transmitting and receiving a frequency-modulated millimeter-wave band radar wave, objects such as other vehicles, obstacles, and pedestrians (hereinafter collectively referred to as forward obstacles) in front of the vehicle are detected ( And target information related to the front obstacle is generated based on the recognition results, and the target information is output to the image processing apparatus 30.

表示装置40は、周知の液晶ディスプレイ,有機ELディスプレイ,CRT,ヘッドアップディスプレイ等のいずれかとして構成されたものであり、画像処理装置30(及び制御装置50)からの入力画像を表示する。   The display device 40 is configured as any of a known liquid crystal display, organic EL display, CRT, head-up display, and the like, and displays an input image from the image processing device 30 (and the control device 50).

制御装置50は、画像処理装置30から入力される路面情報(後述する)に基づき、生成した画像を表示装置40に出力したり、路面情報と、図示しない各種センサ(車速センサ,加速度センサ,ステアリングセンサ等)による検出結果とに基づき、車線維持制御を行ったりする。なお、制御装置50は、車線維持制御として、例えば車両が走行車線を逸脱する可能性(逸脱可能性)を予測し、その逸脱可能性に応じて、注意喚起を表す注意画像を表示装置40に出力したり、ステアリングに対して警報用の弱い操舵トルクを逸脱方向の反対側方向に付加したりする。   The control device 50 outputs a generated image to the display device 40 based on road surface information (described later) input from the image processing device 30, or road surface information and various sensors (a vehicle speed sensor, an acceleration sensor, a steering wheel) (not shown). Lane maintenance control is performed based on the detection result by a sensor or the like. Note that, as the lane keeping control, the control device 50 predicts, for example, the possibility that the vehicle departs from the traveling lane (probability of departure), and displays a caution image representing a warning on the display device 40 according to the possibility of departure. Or a weak steering torque for warning is applied to the steering in the direction opposite to the departure direction.

<画像処理装置の構成>
次に、図3は、本発明が適用された画像処理装置の構成を示すブロック図である。
<Configuration of image processing apparatus>
Next, FIG. 3 is a block diagram showing a configuration of an image processing apparatus to which the present invention is applied.

図3に示すように、画像処理装置30は、カメラアレイ10における撮像装置11〜19からの各撮像画像(映像信号)を入力するための画像入力部31と、画像入力部31を介して入力される映像信号(アナログ信号)をデジタル信号に変換して出力するA/D変換部32と、A/D変換部32から出力されるデジタル信号を画像データとして一時的に保持する画像メモリ部33と、画像メモリ部33から画像データを読み出して処理する画像処理部30aと、画像処理部30aによる処理結果を表示装置40(及び制御装置50)に出力するためのインターフェース(I/F)部34とを備えている。そして、画像処理装置30(詳しくは、画像処理部30a)には、ヨーレートセンサやステアリングセンサ等のように車両の挙動を検出するための各種の挙動検出センサ35が接続されている。   As shown in FIG. 3, the image processing device 30 is input via the image input unit 31 and an image input unit 31 for inputting each captured image (video signal) from the imaging devices 11 to 19 in the camera array 10. A / D conversion unit 32 that converts the video signal (analog signal) to be converted into a digital signal and outputs the digital signal, and an image memory unit 33 that temporarily holds the digital signal output from the A / D conversion unit 32 as image data An image processing unit 30a that reads and processes image data from the image memory unit 33, and an interface (I / F) unit 34 for outputting a processing result by the image processing unit 30a to the display device 40 (and the control device 50). And. Various behavior detection sensors 35 for detecting the behavior of the vehicle, such as a yaw rate sensor and a steering sensor, are connected to the image processing device 30 (specifically, the image processing unit 30a).

画像処理部30aは、CPU,ROM,RAM,I/O及びバスライン等からなる周知のマイクロコンピュータを中心に構成されており、このうちCPUが、RAMを作業エリアとして、ROMに記憶されたプログラムに基づき、以下で詳述する画像制御処理を実行する。なお、ROMには、カメラアレイ10における撮像装置11〜19毎のカメラパラメータ(内部パラメータ及び外部パラメータ)が記憶されている。また、RAMは、画像メモリ部33から読み出された撮像画像,後述する変換画像,合成画像を一時的に保持するための読出画像領域,変換画像領域,合成画像領域をそれぞれ有している。   The image processing unit 30a is configured around a known microcomputer including a CPU, ROM, RAM, I / O, bus line, and the like. Among these, the CPU stores a program stored in the ROM using the RAM as a work area. Based on the above, the image control process described in detail below is executed. In the ROM, camera parameters (internal parameters and external parameters) for each of the imaging devices 11 to 19 in the camera array 10 are stored. The RAM also has a captured image read from the image memory unit 33, a converted image described later, a read image region for temporarily holding a composite image, a converted image region, and a composite image region.

<画像制御処理>
次に、図4は、画像処理部30aのCPUが実行する画像制御処理の詳細を示すフローチャートである。なお、本処理は、画像処理装置30(又は制御装置50)の電源がオンにされると起動されて、その電源(又は車両のIGスイッチ)がオフにされるまで繰り返し実行される。
<Image control processing>
Next, FIG. 4 is a flowchart showing details of image control processing executed by the CPU of the image processing unit 30a. This process is started when the image processing apparatus 30 (or the control apparatus 50) is turned on, and is repeatedly executed until the power supply (or the IG switch of the vehicle) is turned off.

まず、本処理が開始されると、S110では、カメラアレイ10における撮像装置11〜19による各撮像画像(図5参照)を、画像メモリ部33から読み出して、RAMの読出画像領域に記憶し、S120に移行する。なお、画像記憶領域には、カメラアレイ10における撮像装置11〜19うち、予め決められた一つの装置(以下、基準撮像装置という)10aによる撮像画像(以下、基準画像という;図5参照)と、基準撮像装置10a以外の複数(本実施形態では、8台)の装置(以下、対象撮像装置という)10bによる各撮像画像(以下、対象画像という)がそれぞれ識別可能に記憶される。   First, when this process is started, in S110, each captured image (see FIG. 5) by the imaging devices 11 to 19 in the camera array 10 is read from the image memory unit 33 and stored in the read image area of the RAM. The process proceeds to S120. In the image storage area, an image picked up by one predetermined device (hereinafter referred to as a reference image pickup device) 10a among the image pickup devices 11 to 19 in the camera array 10 (hereinafter referred to as a reference image; see FIG. 5) and Each of the captured images (hereinafter referred to as target images) by a plurality (eight in the present embodiment) of devices (hereinafter referred to as target imaging devices) 10b other than the reference imaging device 10a is stored so as to be identifiable.

S120では、レーダ装置20からターゲット情報を取得し、S130に移行する。なお、ターゲット情報には、前方障害物の検出または非検出を表す有無情報や、検出時の前方障害物と車両との相対距離を表す距離情報が含まれる。   In S120, target information is acquired from the radar apparatus 20, and the process proceeds to S130. The target information includes presence / absence information indicating detection or non-detection of a front obstacle and distance information indicating a relative distance between the front obstacle and the vehicle at the time of detection.

S130では、S110で記憶した各撮像画像(基準画像および対象画像)において、路面領域に対応する画像領域(以下、画像路面領域という)を、ROMに記憶されているカメラパラメータに基づいて予め設定された領域に設定し、その設定した画像路面領域に基づいて、対象路面領域が基準路面領域に一致するように、RAMの読出画像領域に記憶されている各対象画像を視点変換する変換処理を行う。なお、対象路面領域とは、対象画像における画像路面領域を指し、基準路面領域とは、基準画像における画像路面領域を指す。また、変換処理では、例えば画像路面領域上の白線やその白線の消失点が一致するように画像変換する。このような画像変換については、周知であるため(例えば、特開2002−352225号公報参照)、その詳細については説明を省略する。さらに、ここで変換された対象画像(以下、変換画像という)は、RAMの変換画像領域に記憶される。   In S130, in each captured image (reference image and target image) stored in S110, an image area corresponding to a road surface area (hereinafter referred to as an image road surface area) is preset based on camera parameters stored in the ROM. And converting the viewpoint of each target image stored in the read image area of the RAM so that the target road area matches the reference road area based on the set image road area. . The target road surface area refers to the image road surface area in the target image, and the reference road surface area refers to the image road surface area in the reference image. In the conversion process, for example, image conversion is performed so that the white line on the image road surface region and the vanishing point of the white line coincide. Since such image conversion is well known (see, for example, Japanese Patent Application Laid-Open No. 2002-352225), description thereof is omitted. Further, the target image converted here (hereinafter referred to as a converted image) is stored in a converted image area of the RAM.

続くS140では、RAMの変換画像領域に記憶されている(S130で生成された)変換画像と、RAMの読出画像領域に記憶されている(S110で読み出された)基準画像とを合成する処理(以下、合成処理という)を行う。なお、合成処理では、合成前の撮像画像(基準画像および変換画像)の数(本実施形態では、9枚)に等しい合成比率で各撮像画像(基準画像および変換画像)を合成する。また、ここで合成された撮像画像(以下、合成画像という;図5参照)は、RAMの合成画像領域に記憶される。   In subsequent S140, a process of combining the converted image stored in the converted image area of the RAM (generated in S130) and the reference image stored in the read image area of the RAM (read out in S110). (Hereinafter referred to as synthesis processing). In the combining process, each captured image (reference image and converted image) is combined at a combining ratio equal to the number of captured images (reference image and converted image) before combining (9 images in the present embodiment). The captured image synthesized here (hereinafter referred to as a synthesized image; see FIG. 5) is stored in a synthesized image area of the RAM.

続くS150では、挙動検出センサ35から入力される各種信号に基づいて、車両の挙動を示す検出値(例えば、ヨーレート)が所定の閾値を下回るか否かを判断し、ここで肯定判断した場合には、車両が直進または停止している(画像路面領域が固定されている)とみなして、S160に移行する。一方、否定判断した場合には、車両がカーブ走行している(画像路面領域が変動している)とみなして、S170に移行する。   In subsequent S150, based on various signals input from the behavior detection sensor 35, it is determined whether or not a detection value (for example, yaw rate) indicating the behavior of the vehicle is below a predetermined threshold value, and when an affirmative determination is made here. Since the vehicle is traveling straight or stopped (the image road surface area is fixed), the process proceeds to S160. On the other hand, if a negative determination is made, it is assumed that the vehicle is traveling on a curve (the image road surface area is changing), and the process proceeds to S170.

S160では、S130で設定した画像路面領域をそのまま固定させた状態にして、S190に移行する。つまり、S140で合成した合成画像において、路面領域に対応する画像領域(以下、合成路面領域という;基準路面領域および対象路面領域を含む)を、ROMに記憶されているカメラパラメータに基づいて予め固定された領域(以下、固定路面領域という)とする。なお、固定路面領域は、カメラアレイ10(撮像装置11〜19)の位置や姿勢、焦点距離などに基づいて予め特定されている。   In S160, the image road surface area set in S130 is fixed as it is, and the process proceeds to S190. That is, in the synthesized image synthesized in S140, an image area corresponding to the road surface area (hereinafter referred to as a synthesized road area; including the reference road area and the target road area) is fixed in advance based on the camera parameters stored in the ROM. Area (hereinafter referred to as a fixed road surface area). The fixed road surface area is specified in advance based on the position and orientation of the camera array 10 (imaging devices 11 to 19), the focal length, and the like.

一方、S170では、S140で合成した合成画像に基づいて、路面領域上の白線位置を検出する白線検出処理を行う。なお、白線検出処理では、例えば合成画像における水平ライン毎に輝度レベルが所定の閾値以上のレベル差を伴って変化する画素点(エッジ点)を抽出し、隣接する二つのエッジ点に挟まれる領域のうち輝度レベルが高い側の領域に属する画素点を白線候補点に設定する。そして、基準画像全体における白線候補点の繋がりに基づき白線位置を推定する。つまり、ここでは、白線以外の輝度が相対的に薄くなっている合成画像を用いることにより、エッジ点の抽出を行いやすくなることが適用される。   On the other hand, in S170, a white line detection process for detecting a white line position on the road surface area is performed based on the composite image synthesized in S140. In the white line detection process, for example, a pixel point (edge point) whose luminance level changes with a level difference equal to or greater than a predetermined threshold for each horizontal line in the composite image is extracted, and is sandwiched between two adjacent edge points Among these, pixel points belonging to the region with the higher luminance level are set as white line candidate points. Then, the white line position is estimated based on the connection of white line candidate points in the entire reference image. That is, here, it is applied that edge points can be easily extracted by using a composite image in which the luminance other than the white line is relatively thin.

続くS180では、S170の白線検出処理による処理結果に基づいて、S130で設定した画像路面領域を変更する。具体的には、例えば基準画像における複数の白線位置(及び白線の消失点)により囲まれる領域を特定することにより、基準画像における画像路面領域(基準路面領域)を設定する。また、この設定された基準路面領域と、ROMに記憶されている各カメラパラメータ間の相対関係とに基づいて、S140で合成した合成画像において基準路面領域に対応する画素点を特定することにより、対象画像における画像路面領域(対象路面領域)を設定し、S190に移行する。   In subsequent S180, the image road surface area set in S130 is changed based on the processing result of the white line detection processing in S170. Specifically, for example, an image road surface area (reference road surface area) in the reference image is set by specifying an area surrounded by a plurality of white line positions (and white line vanishing points) in the reference image. Further, by specifying the pixel point corresponding to the reference road surface area in the composite image synthesized in S140 based on the set reference road surface area and the relative relationship between each camera parameter stored in the ROM, An image road surface area (target road surface area) in the target image is set, and the process proceeds to S190.

S190では、RAMの合成画像領域に記憶されている(S140で生成された)合成画像から、S160又はS180で設定された合成路面領域を、後述する置換処理において画像の置換対象となる領域(以下、置換路面領域という)として抽出し、S200に移行する。   In S190, the composite road surface area set in S160 or S180 from the composite image stored in the composite image area of the RAM (generated in S140) is an image replacement target area (hereinafter referred to as “image replacement target”). , Referred to as a replacement road surface area), and the process proceeds to S200.

S200では、S120で取得したターゲット情報(詳しくは、有無情報)に基づいて、路面領域上に前方障害物が存在するか否かを判断し、ここで肯定判断した場合にはS210に移行し、否定判断した場合にはS220に移行する。   In S200, based on the target information (specifically, presence / absence information) acquired in S120, it is determined whether or not a forward obstacle exists on the road surface area. If an affirmative determination is made here, the process proceeds to S210. If a negative determination is made, the process proceeds to S220.

S210では、S120で取得したターゲット情報(詳しくは、距離情報)に基づいて、S190で抽出された置換路面領域から、その置換路面領域上の画素点(位置)が、路面領域上の前方障害物と車両との相対距離を越える領域(つまり、上側の領域)を削除(カット)することにより、置換路面領域に前方障害物が含まれないように調整して、S220に移行する。   In S210, based on the target information (specifically, distance information) acquired in S120, a pixel point (position) on the replacement road surface area extracted from S190 is a front obstacle on the road surface area. By removing (cutting) the area exceeding the relative distance between the vehicle and the vehicle (that is, the upper area), the replacement road surface area is adjusted so that no front obstacle is included, and the process proceeds to S220.

S220では、RAMの読出画像領域に記憶されている基準画像のうち、基準路面領域を、S190を経て抽出された置換路面領域に置換する処理(以下、置換処理という)を行って、S230に移行する。なお、ここでの置換対象となる基準路面領域には、例えばS210で置換路面領域が調整されている場合、その置換路面領域と同様に上側の領域がカットされた領域が適用される。   In S220, a process of replacing the reference road area in the reference image stored in the read image area of the RAM with the replacement road area extracted in S190 (hereinafter referred to as a replacement process) is performed, and the process proceeds to S230. To do. Here, for example, when the replacement road surface area is adjusted in S210, an area in which the upper area is cut is applied to the reference road surface area to be replaced here, as in the case of the replacement road surface area.

S230では、S220で置換された画像(以下、置換画像という;図5参照)を、I/F部34を介して表示装置40に出力して、S110に移行する。なお、ここでは、表示装置40への出力に加えて、置換画像に基づきS150と同様の白線検出処理を行い、路面領域上の白線位置などを表す路面情報を生成し、その路面情報を制御装置50に出力することも行う。   In S230, the image replaced in S220 (hereinafter referred to as a replacement image; see FIG. 5) is output to the display device 40 via the I / F unit 34, and the process proceeds to S110. Here, in addition to the output to the display device 40, white line detection processing similar to that in S150 is performed based on the replacement image, road surface information representing the position of the white line on the road surface region, etc. is generated, and the road surface information is used as the control device. 50 is also output.

なお、上記実施形態において、S110が画像取得手段、S130及びS140が画像合成手段、S190及びS220が画像置換手段、S120が距離取得手段、S210が置換禁止手段、白線検出処理(S170,S230)が区画線検出手段,路面標示検出手段に相当する。   In the above embodiment, S110 is an image acquisition unit, S130 and S140 are image synthesis units, S190 and S220 are image replacement units, S120 is a distance acquisition unit, S210 is a replacement prohibition unit, and white line detection processing (S170, S230) is performed. It corresponds to lane marking detection means and road marking detection means.

<効果>
以上説明したように、本実施形態の画像処理装置30では、3次元空間内の路面領域を基準平面として各対象画像を視点変換し(S130)、各変換画像と基準画像とを合成することにより(S140)、基準平面に対してプラスの高さを有する物体(街灯台,街灯光,他車両等)、及びマイナスの高さを有する物体(路面反射光など)がずれて、これら物体の輝度が所定の合成割合(本実施形態では、1/9)に低減される。
<Effect>
As described above, in the image processing apparatus 30 according to the present embodiment, each target image is subjected to viewpoint conversion using the road surface area in the three-dimensional space as a reference plane (S130), and each converted image and the reference image are synthesized. (S140), the objects having a positive height with respect to the reference plane (such as streetlights, streetlights, and other vehicles) and the objects having a negative height (such as road surface reflected light) are shifted, and the brightness of these objects Is reduced to a predetermined synthesis ratio (in this embodiment, 1/9).

そして、合成画像における路面領域(置換路面領域)を抽出することにより(S190,及び必要に応じてS210)、基準平面に対してプラスの高さを有する物体(街灯台,街灯光,他車両等)が合成画像から除去され、基準画像における基準路面領域を合成路面領域に置換することにより(S220)、置換画像を生成する。   Then, by extracting a road surface area (replacement road surface area) in the composite image (S190, and if necessary, S210), an object having a positive height with respect to the reference plane (a streetlight, a streetlight, other vehicles, etc.) ) Is removed from the composite image, and the reference road surface area in the reference image is replaced with the composite road surface area (S220), thereby generating a replacement image.

したがって、本実施形態の画像処理装置30によれば、基準平面に対してマイナスの高さを有する物体(路面反射光など)の輝度だけが低減された置換画像を生成することが可能となり、ひいては、撮像画像における路面反射光の影響を好適に抑制することができる。   Therefore, according to the image processing apparatus 30 of the present embodiment, it is possible to generate a replacement image in which only the brightness of an object (such as road surface reflected light) having a negative height with respect to the reference plane is reduced, and consequently. The influence of the road surface reflected light in the captured image can be suitably suppressed.

また、画像処理装置30では、車両が直進(又は、停止)していれば(S150;YES)、撮像画像毎に予め固定された画像路面領域を基準として(S160)、車両がカーブ走行していれば(S150;NO)、白線認識処理により撮像画像毎に設定される画像路面領域を基準として(S170,S180)、このうち対象路面領域が基準路面領域に一致するように、各対象画像を視点変換することになる。   Further, in the image processing apparatus 30, if the vehicle is traveling straight (or stopped) (S150; YES), the vehicle is traveling in a curve on the basis of an image road surface area fixed in advance for each captured image (S160). If so (S150; NO), the image road surface area set for each captured image by the white line recognition process is used as a reference (S170, S180), and each target image is selected so that the target road surface area matches the reference road surface area. The viewpoint will be changed.

したがって、画像処理装置30によれば、車両の挙動に応じて、画像路面領域(基準路面領域および対象路面領域)の設定方法を好適に変更することができ、ひいては、画像処理に係る余計な制御を省略しつつ、路面反射光の影響を精度よく抑制することができる。   Therefore, according to the image processing device 30, the setting method of the image road surface area (the reference road surface area and the target road surface area) can be suitably changed in accordance with the behavior of the vehicle. The effect of road surface reflected light can be accurately suppressed.

さらに、画像処理装置30では、路面反射光の輝度が低減された置換画像に基づき白線検出処理を行うため、その検出精度を向上させることができ、ひいては、その検出結果に基づいて制御装置50が行う各種制御(車線維持制御など)に係る精度を向上させることができる。   Furthermore, since the image processing device 30 performs the white line detection process based on the replacement image in which the brightness of the road surface reflected light is reduced, the detection accuracy can be improved. As a result, the control device 50 determines the detection result based on the detection result. It is possible to improve the accuracy of various controls (lane maintenance control, etc.) to be performed.

[他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.

例えば、上記実施形態のカメラアレイ10は、9台の撮像装置11〜19が車両の前方側における同一の路面領域をフロントガラス越しに撮像するように一直線上に配列されて構成されているが、これに限らす、2台以上の複数の撮像装置が車両の外部における同一の路面領域(少なくともその一部)を撮像するように配置されていればよい。   For example, the camera array 10 of the above-described embodiment is configured to be arranged in a straight line so that the nine imaging devices 11 to 19 image the same road surface area on the front side of the vehicle through the windshield. However, the present invention is not limited to this, and it is only necessary that two or more imaging devices are arranged so as to image the same road surface area (at least a part thereof) outside the vehicle.

なお、このような撮像装置が多く設置される(即ち、撮像画像の数が多い)ほど、画像制御処理による生成画像(置換画像)において路面反射光の輝度をより低減させることができるが、その場合、製造コストを含む設置コストが膨らんでしまうことが考えられる。   In addition, as the number of such imaging devices is installed (that is, the number of captured images is large), the brightness of the road surface reflected light can be further reduced in the generated image (replacement image) by the image control process. In this case, it is conceivable that the installation cost including the manufacturing cost will increase.

このため、例えば図5に示すように、車両の中央部,及び左右のサイドミラーに各1台の撮像装置を設置し、このうち中央部の撮像装置を基準撮像装置として、各サイドミラーの撮像装置(対象撮像装置)による撮像画像(対象画像)を、上記実施形態と同様に視点変換,合成,置換の各処理(画像制御処理)を行うようにしてもよい。この場合、各サイドミラーのいずれかの撮像装置により路面反射光が撮像されていれば、画像制御処理により生成される画像(生成画像)において、その路面反射光の輝度が低減されることになる。また、左右のサイドミラーの撮像装置は、路面領域のうち少なくとも左側半分,右側半分をそれぞれ撮像可能に設置されるとよい。この場合、中央部の撮像装置による撮像画像(基準画像)に路面反射光が撮像されていれば、左右いずれかのサイドミラーの撮像装置がその路面反射光を撮像していることになり、生成画像において路面反射光による影響を確実に抑制することができる。   Therefore, for example, as shown in FIG. 5, one image pickup device is installed in each of the central portion of the vehicle and the left and right side mirrors. The captured image (target image) by the device (target image capturing device) may be subjected to viewpoint conversion, synthesis, and replacement processing (image control processing) in the same manner as in the above embodiment. In this case, if the road surface reflected light is imaged by any imaging device of each side mirror, the brightness of the road surface reflected light is reduced in the image (generated image) generated by the image control process. . The left and right side mirror imaging devices may be installed so that at least the left half and the right half of the road surface area can be imaged. In this case, if the road surface reflected light is captured in the captured image (reference image) by the imaging device in the center, the imaging device of either the left or right side mirror captures the road surface reflected light. It is possible to reliably suppress the influence of road surface reflected light on the image.

また、これら撮像装置(上記実施形態のカメラアレイ10を含む)は、例えば車両の後方側における同一の路面領域を撮像するように設置されてもよい。この場合、車両制御システム1は、制御装置50が、画像処理装置30から入力される路面情報に基づいて、例えば車両の後進に対する走行制御を行うことにより、周知の駐車支援制御システムとして適用され得る。   Moreover, these imaging devices (including the camera array 10 of the above embodiment) may be installed so as to image the same road surface area on the rear side of the vehicle, for example. In this case, the vehicle control system 1 can be applied as a well-known parking assistance control system, for example, when the control device 50 performs travel control for the reverse of the vehicle based on the road surface information input from the image processing device 30. .

なお、複数の撮像装置の設置に関しては、例えばカメラアレイ10において撮像装置11〜19の設置間隔が大きいほど、生成画像において路面反射光のずれが大きくなり、その設置間隔が小さいほど、生成画像において路面反射光が集積するので、これらのバランスを考慮して適宜調整されるとよい。例えば、表示装置40における画像の視認性を優先させて、車両から所定距離の光源(街灯光)に対する路面反射光が画像合成時に適度に集積するように調整されてもよいし、白線認識処理(路面情報の生成)等を優先させて、上記の路面反射光が確実に分散するように調整されてもよい。   Regarding the installation of a plurality of imaging devices, for example, the larger the installation interval of the imaging devices 11 to 19 in the camera array 10, the greater the deviation of the road surface reflected light in the generated image, and the smaller the installation interval, Since road surface reflected light accumulates, it is preferable to adjust appropriately considering these balances. For example, priority may be given to the visibility of the image in the display apparatus 40, and it may be adjusted so that the road surface reflected light with respect to the light source (streetlight light) of the predetermined distance from a vehicle may be collected | stacked moderately at the time of an image synthesis, or a white line recognition process ( The road surface reflected light may be adjusted so as to be surely dispersed by giving priority to generation of road surface information).

本発明が適用された画像処理装置30を備える車両制御システム1の全体構成を示すブロック図。1 is a block diagram illustrating an overall configuration of a vehicle control system 1 including an image processing device 30 to which the present invention is applied. 車両制御システム1の構成要素としてのカメラアレイ10の配置を示す概略図。FIG. 2 is a schematic diagram showing an arrangement of a camera array 10 as a component of the vehicle control system 1. 本発明が適用された画像処理装置30の構成を示すブロック図。1 is a block diagram showing a configuration of an image processing apparatus 30 to which the present invention is applied. 画像処理部30aのCPUが実行する画像制御処理の詳細を示すフローチャート。The flowchart which shows the detail of the image control process which CPU of the image process part 30a performs. 画像制御処理により生成される画像(合成画像,置換画像)を説明するためのイメージ図。The image figure for demonstrating the image (composite image, replacement image) produced | generated by image control processing. 他の実施形態における撮像装置の設置位置、各撮像画像、及び置換画像を説明するための概略図およびイメージ図。The schematic diagram and image figure for demonstrating the installation position of each imaging device, each captured image, and replacement image in other embodiment. 本発明の基本原理を説明するための第一の説明図。The first explanatory view for explaining the basic principle of the present invention. 本発明の基本原理を説明するための第二の説明図。The 2nd explanatory view for explaining the basic principle of the present invention. 本発明の基本原理を説明するための第三の説明図。The 3rd explanatory view for demonstrating the basic principle of this invention.

符号の説明Explanation of symbols

1…車両制御システム、10…カメラアレイ、20…レーダ装置、30…画像処理装置、30a…画像処理部、31…画像入力部、32…A/D変換部、33…画像メモリ部、34…I/F部、35…挙動検出センサ、40…表示装置、50…制御装置。   DESCRIPTION OF SYMBOLS 1 ... Vehicle control system, 10 ... Camera array, 20 ... Radar apparatus, 30 ... Image processing apparatus, 30a ... Image processing part, 31 ... Image input part, 32 ... A / D conversion part, 33 ... Image memory part, 34 ... I / F section, 35 ... behavior detection sensor, 40 ... display device, 50 ... control device.

Claims (6)

車両に搭載される画像処理装置において、
同一の路面領域を異なる位置から撮像する複数の撮像装置から各撮像画像を取得する画像取得手段と、
前記画像取得手段により取得した各撮像画像において前記路面領域に対応する画像領域を画像路面領域、前記複数の撮像装置のうち一つの撮像装置を基準撮像装置、該基準撮像装置による撮像画像を基準画像、該基準画像における前記画像路面領域を基準路面領域、前記複数の撮像装置のうち前記基準撮像装置以外の撮像装置による撮像画像を対象画像として、
前記対象画像における前記画像路面領域である対象路面領域が前記基準路面領域と一致するように前記対象画像を視点変換し、その変換後の前記対象画像である変換画像を合成する画像合成手段と、
前記画像合成手段により合成された画像を合成画像、該合成画像における前記画像路面領域を合成路面領域として、前記基準画像のうち前記基準路面領域を該合成路面領域に置換する置換処理を行う画像置換手段と、
を備えることを特徴とする画像処理装置。
In an image processing apparatus mounted on a vehicle,
Image acquisition means for acquiring each captured image from a plurality of imaging devices that capture the same road surface region from different positions;
In each captured image acquired by the image acquisition unit, an image region corresponding to the road surface region is an image road surface region, one of the plurality of imaging devices is a reference imaging device, and an image captured by the reference imaging device is a reference image. The image road surface area in the reference image is a reference road surface area, and an image captured by an imaging device other than the reference imaging device among the plurality of imaging devices is used as a target image.
Image synthesizing means for performing viewpoint conversion of the target image such that the target road surface area that is the image road surface area in the target image matches the reference road surface area, and synthesizing the converted image that is the target image after the conversion;
Image replacement is performed for replacing the reference road surface area of the reference image with the combined road surface area, using the image combined by the image combining means as a combined image, the image road surface area in the combined image as a combined road surface area. Means,
An image processing apparatus comprising:
前記複数の撮像装置は、前記車両に搭載されていることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the plurality of imaging devices are mounted on the vehicle. 前記基準路面領域上の位置は、前記複数の撮像装置のキャリブレーションに基づいて、前記車両を起点とする前記路面領域上の距離に予め対応付けられ、
前記路面領域上の障害物を検出する障害物検出装置から、該障害物と前記車両との相対距離を取得する距離取得手段と、
前記基準路面領域上の位置が前記距離取得手段により取得した相対距離を越える領域に対して、前記画像置換手段による置換処理を禁止する置換禁止手段と、
を備えることを特徴とする請求項2に記載の画像処理装置。
The position on the reference road surface area is associated in advance with a distance on the road surface area starting from the vehicle based on calibration of the plurality of imaging devices,
Distance acquisition means for acquiring a relative distance between the obstacle and the vehicle from an obstacle detection device that detects an obstacle on the road surface area;
Replacement prohibiting means for prohibiting replacement processing by the image replacement means for an area where the position on the reference road surface area exceeds the relative distance acquired by the distance acquisition means;
The image processing apparatus according to claim 2, further comprising:
前記画像路面領域は、前記撮像装置の内部パラメータ及び外部パラメータに基づいて、前記撮像画像毎に固定されていることを特徴とする請求項1ないし請求項3のいずれかに記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image road surface area is fixed for each captured image based on an internal parameter and an external parameter of the imaging apparatus. 前記路面領域上の区画線を検出する区画線検出手段を備え、
前記画像路面領域は、前記区画線検出手段により検出した区画線に基づいて前記撮像画像毎に設定されることを特徴とする請求項2または請求項3に記載の画像処理装置。
Comprising lane marking detection means for detecting a lane marking on the road surface area;
The image processing apparatus according to claim 2, wherein the image road surface area is set for each of the captured images based on a lane line detected by the lane line detection unit.
前記画像置換手段により置換された画像を置換画像として、該置換画像または前記合成画像に基づいて前記路面領域上の路面標示を検出する路面標示検出手段を備えることを特徴とする請求項1ないし請求項4のいずれかに記載の画像処理装置。   The road marking detection means for detecting a road marking on the road area based on the replacement image or the composite image using the image replaced by the image replacement means as a replacement image. Item 5. The image processing device according to any one of Items 4 to 5.
JP2008319798A 2008-12-16 2008-12-16 Image processing device Expired - Fee Related JP4900377B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008319798A JP4900377B2 (en) 2008-12-16 2008-12-16 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008319798A JP4900377B2 (en) 2008-12-16 2008-12-16 Image processing device

Publications (2)

Publication Number Publication Date
JP2010146082A true JP2010146082A (en) 2010-07-01
JP4900377B2 JP4900377B2 (en) 2012-03-21

Family

ID=42566503

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008319798A Expired - Fee Related JP4900377B2 (en) 2008-12-16 2008-12-16 Image processing device

Country Status (1)

Country Link
JP (1) JP4900377B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016146118A (en) * 2015-02-09 2016-08-12 トヨタ自動車株式会社 Road surface detection apparatus and road surface detection method
US10309908B2 (en) * 2017-01-11 2019-06-04 Applied Vision Corporation Light field illumination container inspection system
US10899138B2 (en) 2017-01-11 2021-01-26 Applied Vision Corporation Container inspection system controlling printheads to correct for detected ink thickness errors

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203446A (en) * 1998-01-12 1999-07-30 Toyota Motor Corp Photographing object recognizing device
JP2002352225A (en) * 2001-05-23 2002-12-06 Toshiba Corp Obstacle detector and its method
JP2006053890A (en) * 2004-07-13 2006-02-23 Toshiba Corp Obstacle detection apparatus and method therefor
JP2007048071A (en) * 2005-08-10 2007-02-22 Nissan Motor Co Ltd Image processor and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11203446A (en) * 1998-01-12 1999-07-30 Toyota Motor Corp Photographing object recognizing device
JP2002352225A (en) * 2001-05-23 2002-12-06 Toshiba Corp Obstacle detector and its method
JP2006053890A (en) * 2004-07-13 2006-02-23 Toshiba Corp Obstacle detection apparatus and method therefor
JP2007048071A (en) * 2005-08-10 2007-02-22 Nissan Motor Co Ltd Image processor and image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016146118A (en) * 2015-02-09 2016-08-12 トヨタ自動車株式会社 Road surface detection apparatus and road surface detection method
US10309908B2 (en) * 2017-01-11 2019-06-04 Applied Vision Corporation Light field illumination container inspection system
US10899138B2 (en) 2017-01-11 2021-01-26 Applied Vision Corporation Container inspection system controlling printheads to correct for detected ink thickness errors

Also Published As

Publication number Publication date
JP4900377B2 (en) 2012-03-21

Similar Documents

Publication Publication Date Title
JP6176028B2 (en) Vehicle control system, image sensor
JP5680573B2 (en) Vehicle driving environment recognition device
CN106331446B (en) Camera device and in-vehicle system
JP5022609B2 (en) Imaging environment recognition device
JP6137081B2 (en) Car equipment
JP6471528B2 (en) Object recognition apparatus and object recognition method
JP2009146217A (en) Stereo camera device
JP2007172035A (en) Onboard image recognition device, onboard imaging device, onboard imaging controller, warning processor, image recognition method, imaging method and imaging control method
US20150120160A1 (en) Method and device for detecting a braking situation
JP2011118482A (en) In-vehicle device and recognition support system
JP2008021196A (en) Surrounding recognition device and system for vehicle
JP5680436B2 (en) Foreign matter adhesion determination device for in-vehicle camera lens
US10750085B2 (en) Camera device for capturing a surrounding area of a driver&#39;s own vehicle and method for providing a driver assistance function
JP2008250503A (en) Operation support device
JP2008037361A (en) Obstacle recognition device
JP4848644B2 (en) Obstacle recognition system
JP2007293672A (en) Photographing apparatus for vehicle and soiling detection method for photographing apparatus for vehicle
JP4900377B2 (en) Image processing device
JP2017129543A (en) Stereo camera device and vehicle
WO2016072300A1 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2014130429A (en) Photographing device and three-dimensional object area detection program
US20230415734A1 (en) Vehicular driving assist system using radar sensors and cameras
JP3988551B2 (en) Vehicle perimeter monitoring device
JP2006344133A (en) Road division line detector
JP2007310591A (en) Image processor and parking space determination method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111206

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111219

R151 Written notification of patent or utility model registration

Ref document number: 4900377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150113

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees