JP2007156807A - Vehicle operation support device and operation support method - Google Patents

Vehicle operation support device and operation support method Download PDF

Info

Publication number
JP2007156807A
JP2007156807A JP2005350834A JP2005350834A JP2007156807A JP 2007156807 A JP2007156807 A JP 2007156807A JP 2005350834 A JP2005350834 A JP 2005350834A JP 2005350834 A JP2005350834 A JP 2005350834A JP 2007156807 A JP2007156807 A JP 2007156807A
Authority
JP
Japan
Prior art keywords
vehicle
color information
image
boundary line
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005350834A
Other languages
Japanese (ja)
Inventor
Ken Oizumi
大泉  謙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2005350834A priority Critical patent/JP2007156807A/en
Publication of JP2007156807A publication Critical patent/JP2007156807A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To keep excellent visibility of a border line superimposed on a pick-up image and displayed. <P>SOLUTION: A pick-up image including a vehicle area where a part of a vehicle is imaged, and a peripheral area where a periphery of the vehicle is imaged is imaged with a camera 1, and a border line which indicates a boundary between the vehicle area and the peripheral area is superimposed and drawn to the pickup image by an image processor 2, and a processed image processed by the image processor 2 is displayed on a display unit 3. The image processor 2 decides a drawing mode of the border line which is superimposed and drawn on the boundary part of the vehicle area and the peripheral area in a photographed image of the camera 1 based on the pick-up image of the camera 1 to which the border line is superimposed. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車両周辺の画像を表示して運転者の運転操作を支援する車両用運転支援装置及び運転支援方法に関する。   The present invention relates to a vehicle driving support device and a driving support method that display an image around a vehicle and assist a driver's driving operation.

従来、車両に搭載されたCCDカメラなどの撮像装置で車両周辺の画像を撮像し、この撮像装置で撮像した画像を車室内に設置された液晶ディスプレイなどの表示装置に表示することで、運転者の運転操作を支援する技術が提案されている。車両周辺の様子を画像として表示する場合、表示された画像に現れる物体等が車両に対してどのような位置にあるかを、運転者が適切に認識できるようにすることが重要である。このような観点から、通常は、撮像装置で車両の一部が映り込むように車両周辺の領域の画像を撮像し、表示装置に車両の一部を含む画像を表示させるようにしている。   Conventionally, an image pickup device such as a CCD camera mounted on a vehicle picks up an image around the vehicle, and the driver picks up the image picked up by the image pickup device on a display device such as a liquid crystal display installed in the passenger compartment. Technologies that support driving operations have been proposed. When displaying the situation around the vehicle as an image, it is important that the driver can appropriately recognize the position of the object or the like appearing in the displayed image with respect to the vehicle. From such a viewpoint, normally, an image of an area around the vehicle is captured so that a part of the vehicle is reflected by the imaging device, and an image including a part of the vehicle is displayed on the display device.

また、このように車両の一部を含む画像を表示装置に表示させる際には、車両部分と車両周囲領域との境界が明確であることが望ましく、このような観点から、撮像装置で撮像された画像における車両部分と車両周囲領域との境界に境界線を重畳して描画し、境界線が重畳された画像を表示装置に表示させる試みもなされている(例えば、特許文献1参照。)。
特開2000−227999号公報
Further, when displaying an image including a part of the vehicle on the display device in this way, it is desirable that the boundary between the vehicle portion and the vehicle surrounding region is clear. From such a viewpoint, the image is captured by the imaging device. Attempts have also been made to draw a boundary line superimposed on the boundary between the vehicle portion and the vehicle surrounding area in the image and display the image on which the boundary line is superimposed on a display device (for example, see Patent Document 1).
JP 2000-227999 A

しかしながら、特許文献1に記載されている技術では、車両部分と車両周囲領域との境界に重畳する境界線を、予め定めた所定の描画形態で描画するようにしているので、車両周囲の環境によっては、境界線の視認性が悪化するという問題がある。すなわち、車両周囲の環境は様々に変化するものであり、撮像装置で撮像された画像内における車両周囲領域の色や明るさは一定ではない。また、車両周囲の照明状態によっては、撮像装置で撮像された画像内における車両の色が変化することもあり、また、車両に対して上空の青空や雲、或いは駐車場の天井などの映り込みが生じる影響により、画像内における車両の色や明るさなども様々に変化する場合がある。このため、車両周囲の環境によっては、画像に重畳して描画した境界線が車両や周囲領域と同化して、その視認性が悪化してしまい、適切な運転支援を行う上で障害になるという問題があった。   However, in the technique described in Patent Document 1, the boundary line that overlaps the boundary between the vehicle portion and the vehicle surrounding area is drawn in a predetermined drawing form. Has a problem that the visibility of the boundary line deteriorates. That is, the environment around the vehicle changes variously, and the color and brightness of the vehicle surrounding area in the image captured by the imaging device are not constant. Also, depending on the lighting conditions around the vehicle, the color of the vehicle in the image captured by the imaging device may change, and the blue sky or clouds above the vehicle or the ceiling of the parking lot may be reflected in the vehicle. In some cases, the color and brightness of the vehicle in the image may change variously due to the effect of the occurrence of. For this reason, depending on the environment around the vehicle, the boundary line drawn superimposed on the image is assimilated with the vehicle and the surrounding area, and the visibility deteriorates, which is an obstacle to providing appropriate driving support. There was a problem.

本発明は、以上のような従来の実情に鑑みて創案されたものであって、車両周囲の環境によらず、画像に重畳して表示する境界線の視認性を良好に保つことが可能な車両用運転支援装置及び運転支援方法を提供することを目的とする。   The present invention was devised in view of the conventional situation as described above, and it is possible to maintain good visibility of the boundary line displayed superimposed on the image regardless of the environment around the vehicle. It is an object of the present invention to provide a vehicle driving support device and a driving support method.

本発明は、前記目的を達成するために、撮影手段で撮影された画像における車両領域と周辺領域との境界部分に境界線を重畳して描画するにあたって、当該境界線の描画形態を、当該境界線が重畳される画像に基づいて決定するようにした。   In order to achieve the above-mentioned object, the present invention provides a drawing form of the boundary line when the boundary line is drawn on the boundary part between the vehicle area and the peripheral area in the image photographed by the photographing means. The determination is made based on the image on which the line is superimposed.

本発明によれば、撮影手段で撮影された画像に重畳して描画される境界線の描画形態を、当該境界線が重畳される画像に基づいて決定するようにしているので、車両周囲の環境に応じた最適な描画形態で境界線を描画することができ、境界線の視認性を向上させることができる。   According to the present invention, since the drawing form of the boundary line drawn superimposed on the image photographed by the photographing means is determined based on the image on which the boundary line is superimposed, the environment around the vehicle The boundary line can be drawn in an optimum drawing form corresponding to the above, and the visibility of the boundary line can be improved.

以下、本発明の具体的な実施形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明を適用した車両用運転支援装置の概略構成を示すブロック図である。本実施形態の車両用運転支援装置は、図1に示すように、車両に設置されて車両周辺の領域の画像を撮像するカメラ1と、カメラ1により撮像された画像に対して各種画像処理を施す画像処理装置2と、車両の車室内に設置され、画像処理装置2から出力された処理画像を表示する表示装置3とを備えて構成される。   FIG. 1 is a block diagram showing a schematic configuration of a vehicle driving support apparatus to which the present invention is applied. As shown in FIG. 1, the vehicle driving support device according to the present embodiment is installed in a vehicle and captures an image of an area around the vehicle, and performs various image processing on the image captured by the camera 1. The image processing apparatus 2 to be applied and the display apparatus 3 that is installed in the vehicle cabin of the vehicle and displays the processed image output from the image processing apparatus 2 are configured.

カメラ1は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)型素子を撮像素子として備え、車両周辺の領域の画像を撮像して電気信号に変換し、映像信号として画像処理装置2に出力する。なお、本実施形態では、図2に示すように、カメラ1が車両100の後部に取り付けられて、車両100後部の領域の画像を撮像するものとして説明するが、カメラ1の取り付け位置は、画像として表示することが望まれる車両周辺領域の位置に合わせて任意に設定すればよく、また、複数の領域に合わせて複数台のカメラ1を設置するようにしてもよい。   The camera 1 includes, for example, a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) type element as an image pickup device, picks up an image of a region around the vehicle, converts it into an electric signal, and converts it into an electric signal, and an image processor Output to 2. In the present embodiment, as illustrated in FIG. 2, the camera 1 is described as being attached to the rear portion of the vehicle 100 and capturing an image of the region at the rear of the vehicle 100. It may be arbitrarily set according to the position of the vehicle peripheral area that is desired to be displayed, and a plurality of cameras 1 may be installed in accordance with a plurality of areas.

図3は、カメラ1により撮像されて表示装置3に表示される車両後部の領域の画像の一例を示す図である。本実施形態の運転支援装置において、カメラ1は、図3に示すように、車両の一部(本例では、車両後部の一部)が撮像された車両領域R1と、車両の周辺部(車両後方の外部領域)が撮像された周辺領域R2とを含む画像を撮像する。このように、車両領域R1と周辺領域R2とを含む画像をカメラ1で撮像して、表示装置3に表示させることによって、運転者は、周辺領域R2内に存在する物体が車両に対してどのような位置関係にあるかを、画像に含まれる車両領域R1を目安として判断することができるので、運転操作を支援するための画像として非常に有効である。   FIG. 3 is a diagram illustrating an example of an image of the rear region of the vehicle that is captured by the camera 1 and displayed on the display device 3. In the driving support device of the present embodiment, as shown in FIG. 3, the camera 1 includes a vehicle region R1 in which a part of the vehicle (in this example, a part of the rear part of the vehicle) is imaged, and a peripheral part of the vehicle (vehicle An image including the peripheral region R2 in which the rear external region) is captured is captured. In this way, by capturing an image including the vehicle region R1 and the peripheral region R2 with the camera 1 and displaying the image on the display device 3, the driver can determine which object in the peripheral region R2 is on the vehicle. Whether such a positional relationship is present can be determined using the vehicle region R1 included in the image as a guideline, which is very effective as an image for supporting driving operation.

画像処理装置2は、カメラ1で撮像されて映像信号として入力された車両後部の領域の画像に対して、車両領域R1と周辺領域R2との境界部分に境界線L(図3参照)を重畳して描画する処理を行ない、処理画像として表示装置3に出力するものであり、例えば、各種の電気・電子素子によって構成された映像処理回路や、半導体チップによって構成されたデジタル画像処理回路などによって構成されている。   The image processing device 2 superimposes a boundary line L (see FIG. 3) on the boundary portion between the vehicle region R1 and the peripheral region R2 on the image of the rear region of the vehicle that is captured by the camera 1 and input as a video signal. The image is drawn and output to the display device 3 as a processed image. For example, by a video processing circuit constituted by various electric / electronic elements, a digital image processing circuit constituted by a semiconductor chip, etc. It is configured.

特に、この画像処理装置2は、本発明に関わる部分として、図1に示すように、カメラ1から映像信号として入力された画像をフレーム毎に一時的に保持する入力フレームバッファ11と、入力フレームバッファ11に保持されたカメラ1の撮像画像についての色情報を測定する色情報測定部12と、色情報測定部12によって測定された色情報に基づいて、カメラ1の撮影画像における車両領域R1と周辺領域R2との境界を示す境界線の描画形態を決定する描画形態決定部13と、描画形態決定部13によって決定された描画形態に従ってカメラ1の撮像画像に境界線を重畳する描画重畳部14と、描画重畳部14によって境界線が描画された処理画像をフレーム毎に一時保持する出力フレームバッファ15とを有し、出力フレームバッファ15に保持された処理画像を表示装置3に出力する。   Particularly, as shown in FIG. 1, the image processing apparatus 2 includes an input frame buffer 11 that temporarily stores an image input as a video signal from the camera 1 for each frame, and an input frame as shown in FIG. Based on the color information measured by the color information measuring unit 12, the color information measuring unit 12 that measures color information about the captured image of the camera 1 held in the buffer 11, and the vehicle region R 1 in the captured image of the camera 1 A drawing form determining unit 13 that determines a drawing form of a boundary line that indicates the boundary with the peripheral region R2, and a drawing superimposing unit 14 that superimposes the boundary line on the captured image of the camera 1 according to the drawing form determined by the drawing form determining unit 13. And an output frame buffer 15 for temporarily storing the processed image in which the boundary line is drawn by the drawing superimposing unit 14 for each frame. And outputs the processed image stored in § 15 to the display device 3.

表示装置3は、例えば液晶表示パネルや有機ELパネルなどの表示パネルを備え、画像処理装置2から出力された処理画像を表示する。表示装置3は、車両の車室内において運転席に着座した運転者から視認可能な位置に配設される。なお、この表示装置3としては、車両用運転支援装置について専用のものを用いてもよいが、例えば車両にナビゲーション装置などが搭載されている場合には、このナビゲーション装置などが備える表示装置を利用し、運転者の操作などに応じて、必要な場合にこの表示装置に車両周囲の画像を表示するようにしてもよい。   The display device 3 includes a display panel such as a liquid crystal display panel or an organic EL panel, for example, and displays the processed image output from the image processing device 2. The display device 3 is disposed at a position that is visible from the driver seated in the driver's seat in the vehicle cabin. As the display device 3, a dedicated vehicle driving support device may be used. For example, when a navigation device or the like is mounted on the vehicle, a display device provided in the navigation device or the like is used. Then, an image around the vehicle may be displayed on this display device when necessary according to the driver's operation.

以上のような車両用運転支援装置が搭載された車両の運転者は、表示装置3に表示された画像を参照しながら車両と車両周辺に存在する物体との距離や方向を把握する。このとき、車両領域R1と周辺領域R2との色が似ているような状況の下では、車両領域R1と周辺領域R2との境界を判別しにくくなり、結果的に車両と車両周辺に存在する物体との位置関係が把握しにくくなるといった事態が生じることが考えられる。また、カメラ1のピントおよび露光調整は、一般に周辺領域R2の撮像に最適化されているため、車両領域R1として撮像された車両の一部については、輪郭にぼけが生じやすく最適な露光状態で撮像されていない場合がある。このような事情も、結果的に車両と車両周辺の物体との位置関係を把握しにくくする要因となる。   A driver of a vehicle equipped with the vehicle driving support device as described above grasps the distance and direction between the vehicle and an object existing around the vehicle while referring to an image displayed on the display device 3. At this time, under a situation where the colors of the vehicle region R1 and the peripheral region R2 are similar, it becomes difficult to distinguish the boundary between the vehicle region R1 and the peripheral region R2, and as a result, the vehicle region R1 exists around the vehicle. It is conceivable that a situation may occur in which the positional relationship with the object becomes difficult to grasp. In addition, since the focus and exposure adjustment of the camera 1 are generally optimized for imaging the peripheral area R2, the outline of a part of the vehicle imaged as the vehicle area R1 is likely to be blurred in an optimal exposure state. In some cases, the image is not captured. Such a situation also becomes a factor that makes it difficult to grasp the positional relationship between the vehicle and objects around the vehicle.

そこで、本実施形態の車両用運転支援装置においては、カメラ1によって撮像された撮像画像に対して画像処理装置2によって境界線Lを重畳して描画する際に、画像処理装置2がカメラ1の撮像画像に基づいて境界線Lの描画形態を決定し、決定された描画形態に従って境界線Lを重畳描画するようにしている。これにより、本実施形態の車両用運転支援装置では、どのような外部環境の下においても、カメラ1の撮像画像に応じて視認性が高い描画形態で境界線Lを描画することができ、結果として表示装置3に表示される画像における車両領域R1と周辺領域R2との境界の視認性を向上させることができる。   Therefore, in the vehicle driving support device of the present embodiment, when the image processing device 2 superimposes and draws the boundary line L on the captured image captured by the camera 1, the image processing device 2 uses the camera 1. A drawing form of the boundary line L is determined based on the captured image, and the boundary line L is drawn in a superimposed manner according to the determined drawing form. Thereby, in the vehicle driving support device of the present embodiment, the boundary line L can be drawn in a drawing form with high visibility according to the captured image of the camera 1 under any external environment. As a result, the visibility of the boundary between the vehicle region R1 and the peripheral region R2 in the image displayed on the display device 3 can be improved.

ここで、本実施形態の車両用運転支援装置における画像処理装置2で実行される画像処理の一例について、図4に示すフローチャートを参照しながら説明する。   Here, an example of image processing executed by the image processing device 2 in the vehicle driving support device of the present embodiment will be described with reference to a flowchart shown in FIG.

車両用運転支援装置の動作が開始すると、カメラ1によって車両周辺領域(本実施形態においては車両後方領域)の画像が撮像されて、映像信号として画像処理装置2に入力される(ステップS1)。画像処理装置2は、カメラ1の撮像画像が映像信号として入力されると、この撮影画像をフレーム毎に入力フレームバッファ11に一時的に保持する。   When the operation of the vehicle driving support device starts, an image of the vehicle peripheral region (vehicle rear region in the present embodiment) is captured by the camera 1 and input to the image processing device 2 as a video signal (step S1). When the captured image of the camera 1 is input as a video signal, the image processing device 2 temporarily stores the captured image in the input frame buffer 11 for each frame.

次に、色情報測定部12が、入力フレームバッファ11に保持されたカメラ1の撮像画像についての色情報を測定する(ステップS2)。このとき、色情報測定部12は、図2に例示したような車両領域R1と周辺領域R2とについてそれぞれ色情報の測定を行い、各領域についてそれぞれ色情報Aと色情報Bとを得る。   Next, the color information measuring unit 12 measures the color information about the captured image of the camera 1 held in the input frame buffer 11 (step S2). At this time, the color information measuring unit 12 measures the color information for each of the vehicle region R1 and the peripheral region R2 illustrated in FIG. 2, and obtains color information A and color information B for each region.

なお、色情報A及び色情報Bの取得手法は任意であるが、例えば、入力フレームバッファ11に保持されるカメラ1の撮像画像が、各画素(ピクセル)毎に色データとして24ビットのR(赤),G(緑),B(青)値を有する画像形式である場合には、各領域R1,R2に含まれる全画素の色データの平均値を算出することにより、色情報A,Bを得ることができる。   The acquisition method of the color information A and the color information B is arbitrary. For example, the captured image of the camera 1 held in the input frame buffer 11 is a 24-bit R (color data) for each pixel (pixel). In the case of an image format having red, G (green), and B (blue) values, the color information A and B is calculated by calculating the average value of the color data of all the pixels included in each of the regions R1 and R2. Can be obtained.

また、各領域R1,R2内で特徴的な画素を所定数だけ予め処理対象として抜き出し、抜き出した画素についての色データの平均値を算出することによって色情報A,Bを得るようにしてもよい。具体的には、例えば、各領域R1,R2について、予め縦4ピクセル横4ピクセルの16ピクセルを一単位として分割し、各単位について左上の点の色を各単位を代表する色情報とする。そして、各単位の色情報の平均を算出することで、各領域R1,R2についての色情報A,Bを得るとしてもよい。これにより、色情報測定部12によって処理する画素数が全ての画素を対象とする場合の1/16となるため、色情報測定部12の画像処理能力が比較的低い場合であっても、短時間で色情報A,Bを算出することができる。   In addition, a predetermined number of characteristic pixels in each of the regions R1 and R2 may be extracted in advance as a processing target, and color information A and B may be obtained by calculating an average value of color data for the extracted pixels. . Specifically, for example, for each of the regions R1 and R2, 16 pixels of 4 pixels in the vertical direction and 4 pixels in the horizontal direction are divided in advance as one unit, and the color of the upper left point for each unit is set as color information representing each unit. Then, the color information A and B for each of the regions R1 and R2 may be obtained by calculating the average of the color information for each unit. As a result, the number of pixels processed by the color information measuring unit 12 is 1/16 of that for all pixels, so even if the image processing capability of the color information measuring unit 12 is relatively low, The color information A and B can be calculated with time.

また、色情報測定部12における色情報の取得処理としては、例えば図5に示すように、描画する境界線Lの近傍に色情報の取得対象とする所定の領域R3を予め設定し、この領域R3内の画素についてのみ色情報の算出処理を施すとしてもよい。具体的には、図5に示すように、領域R3内において、車両領域R1と重なる部分を領域R1’とし、周辺領域R2と重なる部分を領域R2’とする。そして、各領域R1’,R2’内の画素のみについて色情報の平均を算出することで、それぞれ色情報A,Bを得る。   Further, as color information acquisition processing in the color information measurement unit 12, for example, as shown in FIG. 5, a predetermined region R3 to be acquired for color information is set in the vicinity of the boundary line L to be drawn, and this region is set. Color information calculation processing may be performed only for the pixels in R3. Specifically, as shown in FIG. 5, in the region R3, a portion that overlaps the vehicle region R1 is a region R1 ', and a portion that overlaps the peripheral region R2 is a region R2'. Then, the color information A and B are obtained by calculating the average of the color information for only the pixels in the regions R1 'and R2'.

このように、色情報の算出処理を施す範囲を予め限定しておくことにより、色情報測定部12によって処理する画素数を低減することができるため、色情報測定部12の画像処理能力が比較的低い場合であっても短時間で色情報A,Bを算出することができる。また、境界線Lの近傍部分についての画素のみを色情報の算出対象とすることにより、境界線Lの描画形態をより効果的に決定することができ、境界線Lの視認性をより効果的に向上させることができる。   As described above, since the number of pixels to be processed by the color information measuring unit 12 can be reduced by previously limiting the range in which the color information calculation processing is performed, the image information processing capability of the color information measuring unit 12 is compared. The color information A and B can be calculated in a short time even when the target is low. In addition, since only the pixels in the vicinity of the boundary line L are subject to color information calculation, the drawing form of the boundary line L can be determined more effectively, and the visibility of the boundary line L is more effective. Can be improved.

次に、以上のようにして取得された車両領域R1と周辺領域R2とについての色情報A,Bに基づいて、描画形態決定部13は、境界線Lの描画形態を決定する。   Next, the drawing form determination unit 13 determines the drawing form of the boundary line L based on the color information A and B about the vehicle region R1 and the peripheral region R2 acquired as described above.

ここで、色情報Aと色情報Bとの距離CLを以下に示す式1によって定義する。   Here, the distance CL between the color information A and the color information B is defined by Expression 1 shown below.

CL=|R1−R2|+|G1−G2|+|B1−B2| ・・・(式1)
なお、色情報測定部12によって測定された色情報A,Bは、それぞれ24ビットのRGBデータとして表現された色情報を有しているものとする。また、色情報AのR,G,B値をそれぞれR1,G1,B1とし、色情報BのR,G,B値をそれぞれR2,G2,B2とする。描画形態決定部13は、まず、上記の式1に基づいて、色情報Aと色情報Bとの差(距離)CLを算出する(ステップS3)。
CL = | R1-R2 | + | G1-G2 | + | B1-B2 | (Formula 1)
Note that the color information A and B measured by the color information measuring unit 12 has color information expressed as 24-bit RGB data. In addition, the R, G, and B values of the color information A are R1, G1, and B1, respectively, and the R, G, and B values of the color information B are R2, G2, and B2, respectively. The drawing form determination unit 13 first calculates a difference (distance) CL between the color information A and the color information B based on the above formula 1 (step S3).

次に、描画形態決定部13は、算出した色情報Aと色情報Bとの差CLに基づいて境界線Lの描画色を決定する(ステップS4)。このとき、境界線Lの描画色として、車両領域R1の代表色である色情報Aと、周辺領域R2の代表色である色情報Bとからともに離れた距離にある色を決定することにより、境界線Lの視認性を向上させることができるため、色情報Aと色情報Bとの双方から予め定めた基準距離以上の距離だけ離れた色を、境界線Lの描画色として決定する。   Next, the drawing form determination unit 13 determines the drawing color of the boundary line L based on the calculated difference CL between the color information A and the color information B (step S4). At this time, as the drawing color of the boundary line L, by determining the color that is at a distance from the color information A that is the representative color of the vehicle region R1 and the color information B that is the representative color of the peripheral region R2, Since the visibility of the boundary line L can be improved, a color that is separated from both the color information A and the color information B by a predetermined distance or more is determined as the drawing color of the boundary line L.

なお、境界線Lの描画色は、例えば上記の式1などに基づいて、カメラ1の撮像画像の各フレーム毎に動的に決定するとしてもよいが、予め数パターンの描画色を用意しておき、用意された描画色のうちから、色情報Aと色情報Bとから基準距離以上離れた色を選択的に決定するとしてもよい。これにより、境界線Lの描画色の決定に要する演算量を大幅に削減することができる。   The drawing color of the boundary line L may be dynamically determined for each frame of the captured image of the camera 1 based on, for example, the above formula 1, but several drawing colors are prepared in advance. Alternatively, among the prepared drawing colors, a color separated from the color information A and the color information B by a reference distance or more may be selectively determined. Thereby, the amount of calculation required for determining the drawing color of the boundary line L can be significantly reduced.

また、本実施形態においては、境界線Lの描画色を決定するに際して色情報Aと色情報Bとの双方を利用しているが、車両領域R1の代表色である色情報Aと、周辺領域R2の代表色である色情報Bとのうち、いずれか一方のみに基づいて境界線Lの描画色を決定するようにしてもよい。また、色情報A,Bの双方を利用する場合においても、例えば、色情報A,Bのうちのどちらを優先して境界線Lの描画色を決定するかを予め決めておき、色情報Aと色情報Bとの双方に対して基準距離以上離れた色を選択することが不能な場合には、優先する色情報から基準距離だけ離れた色を選択するとしてもよい。   In this embodiment, both the color information A and the color information B are used when determining the drawing color of the boundary line L. However, the color information A that is the representative color of the vehicle area R1 and the peripheral area The drawing color of the boundary line L may be determined based on only one of the color information B that is the representative color of R2. Further, when both the color information A and B are used, for example, it is determined in advance which of the color information A and B is to be given priority and the drawing color of the boundary line L is determined. When it is impossible to select a color that is more than the reference distance with respect to both the color information B and the color information B, a color that is separated from the priority color information by the reference distance may be selected.

また、色情報A,B間の距離が離れている場合には、車両領域R1と周辺領域R2との視認性がもともと高い状態にあると推測されるため、境界線Lの描画色を殊更に目立たせる必要がないと考えられる。この場合には、色情報Aと色情報Bとの差に反比例するような数式に基づいて基準距離を算出し、算出された基準距離に基づいて境界線Lの描画色を決定するとしてもよい。この場合、色情報Aと色情報Bとの距離が大きく離れている場合には基準距離が小さくなり、色情報Aと色情報Bとの距離が接近している場合には基準距離を大きくとることで、画像処理装置2に入力される撮像画像に応じて、適切な描画色を決定することが可能となる。   When the distance between the color information A and B is far, it is presumed that the visibility of the vehicle area R1 and the peripheral area R2 is originally high. There is no need to make it stand out. In this case, the reference distance may be calculated based on an equation that is inversely proportional to the difference between the color information A and the color information B, and the drawing color of the boundary line L may be determined based on the calculated reference distance. . In this case, when the distance between the color information A and the color information B is large, the reference distance is small. When the distance between the color information A and the color information B is close, the reference distance is large. Thus, an appropriate drawing color can be determined according to the captured image input to the image processing apparatus 2.

さらに、本実施形態においては、境界線Lを必ず描画する場合を想定しているが、例えば、色情報A,B間の距離が十分に離れている場合には、描画形態決定部13によって境界線Lの描画を不要と判定し、境界線Lの描画をしないことを決定するとしてもよい。   Furthermore, in the present embodiment, it is assumed that the boundary line L is always drawn. For example, when the distance between the color information A and B is sufficiently large, the drawing form determination unit 13 performs the boundary. It may be determined that drawing of the line L is unnecessary and it is determined not to draw the boundary line L.

以上のように境界線Lの描画色が決定されると、描画形態決定部13は、次に、色情報Aと色情報Bとの差CLに基づいて、境界線Lの描画濃度を決定する(ステップS5)。具体的には、色情報Aと色情報Bとの差CLが大きいほど濃度が低く、色情報Aと色情報Bとの差CLが小さいほど濃度が高くなるように、境界線Lの描画濃度を決定する。次に、描画形態決定部52は、色情報Aと色情報Bとの差CLに基づいて、境界線Lの描画太さを決定する(ステップS6)。具体的には、色情報Aと色情報Bとの差CLが大きいほど細い線、色情報Aと色情報Bとの差CLが小さいほど太い線となるように、境界線Lの描画太さを決定する。   When the drawing color of the boundary line L is determined as described above, the drawing form determination unit 13 next determines the drawing density of the boundary line L based on the difference CL between the color information A and the color information B. (Step S5). Specifically, the drawing density of the boundary line L is such that the density is lower as the difference CL between the color information A and the color information B is larger and the density is higher as the difference CL between the color information A and the color information B is smaller. To decide. Next, the drawing form determination unit 52 determines the drawing thickness of the boundary line L based on the difference CL between the color information A and the color information B (step S6). Specifically, the drawing thickness of the boundary line L is such that the larger the difference CL between the color information A and the color information B, the thinner the line, and the smaller the difference CL between the color information A and the color information B, the thicker the line. To decide.

なお、ステップS5及びステップS6における処理においても、上述したステップS4における処理と同様に、車両領域R1の代表色である色情報Aと、周辺領域R2の代表色である色情報Bとのうち、いずれか一方のみに基づいて境界線Lの描画濃度や描画太さを決定するとしてもよい。   In the processing in step S5 and step S6, as in the processing in step S4 described above, among the color information A that is the representative color of the vehicle region R1 and the color information B that is the representative color of the peripheral region R2, The drawing density and drawing thickness of the boundary line L may be determined based on only one of them.

以上のようにして描画形態決定部13により境界線Lの描画形態が決定されると、次に、描画重畳部14が、描画形態決定部13によって決定された描画形態に従って、カメラ1の撮像画像における車両領域R1と周辺領域R2との境界部分に、境界線Lを重畳して描画する(ステップS7)。なお、このステップS7における描画処理は、画像処理の分野で一般的な技術を利用することができるため、ここでの詳細な説明は割愛する。なお、描画形態決定部13によって、境界線Lを描画しないと判断された場合には、ステップS5からステップS7までの処理は省略される。   When the drawing form of the boundary line L is determined by the drawing form determining unit 13 as described above, the drawing superimposing unit 14 then takes a captured image of the camera 1 according to the drawing form determined by the drawing form determining unit 13. The boundary line L is superimposed and drawn on the boundary portion between the vehicle region R1 and the peripheral region R2 (step S7). Note that the drawing process in step S7 can use a general technique in the field of image processing, and thus a detailed description thereof will be omitted. If the drawing form determination unit 13 determines that the boundary line L is not drawn, the processing from step S5 to step S7 is omitted.

描画重畳部14によって境界線Lが描画された処理画像は、出力フレームバッファ15に送られて、フレーム毎に出力フレームバッファ15に一時的に保持される。そして、この出力フレームバッファ15に一時保持された処理画像が表示装置3に出力されることにより(ステップS8)、表示装置3に図2に例示したような画像が表示される。   The processed image in which the boundary line L is drawn by the drawing superimposing unit 14 is sent to the output frame buffer 15 and temporarily held in the output frame buffer 15 for each frame. Then, the processed image temporarily stored in the output frame buffer 15 is output to the display device 3 (step S8), whereby the image as illustrated in FIG.

以上、具体的な例を挙げながら詳細に説明したように、本実施形態の車両用運転支援装置では、カメラ1によって撮像された撮像画像に基づいて、当該撮影画像における車両領域R1と周辺領域R2との境界部分に重畳して描画する境界線Lの描画形態を決定するようにしているので、車両の外部環境に応じて変化する車両自体の撮像色や車両周辺領域の撮像色に応じて最適な描画形態で境界線Lを描画することができる。したがって、本実施形態の車両用運転支援装置によれば、どのような外部環境の下においても、車両領域R1と周辺領域R2との境界部分に視認性が良好な境界線Lを重畳した車両周囲の画像を表示装置3に表示させることができ、運転者による運転操作を適切に支援することができる。   As described above in detail with reference to specific examples, in the vehicle driving support device of the present embodiment, based on the captured image captured by the camera 1, the vehicle region R1 and the peripheral region R2 in the captured image. Is determined in accordance with the imaging color of the vehicle itself and the imaging color of the surrounding area of the vehicle, which changes according to the external environment of the vehicle. The boundary line L can be drawn in a simple drawing form. Therefore, according to the vehicle driving support apparatus of the present embodiment, the vehicle periphery in which the boundary line L with good visibility is superimposed on the boundary portion between the vehicle region R1 and the peripheral region R2 under any external environment. These images can be displayed on the display device 3, and the driving operation by the driver can be appropriately supported.

なお、以上で説明した実施形態においては、境界線Lの描画形態として、描画色、描画濃度、描画太さをそれぞれ決定し、決定された描画色、描画濃度、描画太さに基づいて境界線Lを描画しているが、描画色、描画濃度、描画太さのうちの少なくともひとつを色情報A,Bに基づいて動的に決定し、残りは予め設定された規定値を用いて境界線Lを描画するとしてもよい。また、描画形態としては、描画色、描画濃度、或いは描画太さに限定されるものではなく、例えば、境界線Lをアニメーション表示させる場合などにおいては、アニメーションの形態や、点滅表示の早さなどを描画形態として撮像画像に基づいて決定するとしてもよい。   In the embodiment described above, the drawing color, drawing density, and drawing thickness are determined as the drawing form of the boundary line L, respectively, and the boundary line is determined based on the determined drawing color, drawing density, and drawing thickness. L is drawn, but at least one of drawing color, drawing density, and drawing thickness is dynamically determined based on the color information A and B, and the rest is a boundary line using a predetermined value set in advance. L may be drawn. Further, the drawing form is not limited to the drawing color, drawing density, or drawing thickness. For example, when the boundary line L is displayed as an animation, the animation form, the speed of blinking display, etc. May be determined based on the captured image as a drawing form.

本発明を適用した車両用運転支援装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the driving assistance device for vehicles to which this invention is applied. カメラの取り付け位置の一例を説明する模式図である。It is a schematic diagram explaining an example of the attachment position of a camera. カメラにより撮像されて表示装置に表示される車両後方画像の一例を示す図である。It is a figure which shows an example of the vehicle back image imaged with a camera and displayed on a display apparatus. 画像処理装置において実行される画像処理の一例を示すフローチャートである。It is a flowchart which shows an example of the image process performed in an image processing apparatus. 画像処理装置における画像処理手法のバリエーションを説明する図であり、撮像画像における境界線近傍の領域を処理対象とする例を説明する図である。It is a figure explaining the variation of the image processing method in an image processing apparatus, and is a figure explaining the example which makes the process target the area | region of the boundary line vicinity in a captured image.

符号の説明Explanation of symbols

1 カメラ
2 画像処理装置
3 表示装置
11 入力フレームバッファ
12 色情報測定部
13 描画形態決定部
14 描画重畳部
15 出力フレームバッファ
100 車両
R1 車両領域
R2 周辺領域
L 境界線
DESCRIPTION OF SYMBOLS 1 Camera 2 Image processing apparatus 3 Display apparatus 11 Input frame buffer 12 Color information measurement part 13 Drawing form determination part 14 Drawing superimposition part 15 Output frame buffer 100 Vehicle R1 Vehicle area R2 Peripheral area L Boundary line

Claims (8)

車両周辺の画像を表示して運転者の運転操作を支援する車両用運転支援装置において、
前記車両の一部が撮像された車両領域と前記車両の周辺部が撮像された周辺領域とを含む画像を撮像する撮像手段と、
前記撮像手段で撮像された画像に対して前記車両領域と前記周辺領域との境界を示す境界線を重畳して描画し、処理画像を出力する画像処理手段と、
前記画像処理手段から出力された前記処理画像を表示する表示手段とを備え、
前記画像処理手段は、前記撮像手段で撮像された画像に基づいて、前記境界線の描画形態を決定することを特徴とする車両用運転支援装置。
In a vehicle driving assistance device that displays an image around a vehicle and assists the driving operation of the driver,
Imaging means for imaging an image including a vehicle area in which a part of the vehicle is imaged and a peripheral area in which a peripheral portion of the vehicle is imaged;
Image processing means for superimposing and drawing a boundary line indicating a boundary between the vehicle area and the peripheral area on the image captured by the imaging means, and outputting a processed image;
Display means for displaying the processed image output from the image processing means,
The vehicle processing support apparatus, wherein the image processing unit determines a drawing form of the boundary line based on an image captured by the imaging unit.
前記画像処理手段は、前記車両領域の色情報と前記周辺領域の色情報とのうちの少なくともいずれかに基づいて、前記境界線の描画形態を決定することを特徴とする請求項1に記載の車両用運転支援装置。   The said image processing means determines the drawing form of the said boundary line based on at least any one of the color information of the said vehicle area | region, and the color information of the said surrounding area | region. Vehicle driving support device. 前記画像処理手段は、前記車両領域の色情報と前記周辺領域の色情報とを比較し、これら色情報の差異の大きさに応じて、前記境界線を描画するか否かを決定することを特徴とする請求項2に記載の車両用運転支援装置。   The image processing means compares the color information of the vehicle area and the color information of the peripheral area, and determines whether or not to draw the boundary line according to the magnitude of the difference between the color information. The driving support apparatus for a vehicle according to claim 2, wherein the driving support apparatus is for a vehicle. 前記画像処理手段は、前記車両領域の色情報と前記周辺領域の色情報とを比較し、これら色情報の差異の大きさに応じて、前記境界線の描画色を決定することを特徴とする請求項2に記載の車両用運転支援装置。   The image processing means compares the color information of the vehicle area and the color information of the peripheral area, and determines the drawing color of the boundary line according to the magnitude of the difference between the color information. The vehicle driving support device according to claim 2. 前記画像処理手段は、前記車両領域の色情報と前記周辺領域の色情報とを比較し、これら色情報の差異の大きさに応じて、前記境界線の描画濃度を決定することを特徴とする請求項2に記載の車両用運転支援装置。   The image processing means compares the color information of the vehicle area and the color information of the peripheral area, and determines the drawing density of the boundary line according to the difference in the color information. The vehicle driving support device according to claim 2. 前記画像処理手段は、前記車両領域の色情報と前記周辺領域の色情報とを比較し、これら色情報の差異の大きさに応じて、前記境界線の描画太さを決定することを特徴とする請求項2に記載の車両用運転支援装置。   The image processing means compares the color information of the vehicle area and the color information of the peripheral area, and determines the drawing thickness of the boundary line according to the difference in the color information. The vehicle driving support device according to claim 2. 前記画像処理手段は、前記境界線の描画形態を決定するに際して、前記車両領域と前記周辺領域の少なくともいずれかにおける前記境界線の近傍部の色情報に基づいて、前記描画形態を決定することを特徴とする請求項2に記載の車両用運転支援装置。   The image processing means, when determining the drawing form of the boundary line, determines the drawing form based on color information of the vicinity of the boundary line in at least one of the vehicle area and the peripheral area. The driving support apparatus for a vehicle according to claim 2, wherein the driving support apparatus is for a vehicle. 車両周辺の画像を表示して運転者の運転操作を支援する運転支援方法において、
前記車両の一部が撮像された車両領域と前記車両の周辺部が撮像された周辺領域とを含む画像を撮像する撮像ステップと、
前記撮像ステップで撮像した画像に基づいて、前記車両領域と前記周辺領域との境界を示す境界線の描画形態を決定する描画形態決定ステップと、
前記画像撮像ステップで撮像した画像に対して、前記描画形態決定ステップで決定した描画形態で前記境界線を重畳して描画する描画ステップと、
前記描画ステップで境界線が描画された画像を表示する表示ステップとを有することを特徴とする運転支援方法。
In a driving support method for supporting a driver's driving operation by displaying an image around the vehicle,
An imaging step of capturing an image including a vehicle region in which a part of the vehicle is imaged and a peripheral region in which a peripheral portion of the vehicle is imaged;
A drawing form determining step for determining a drawing form of a boundary line indicating a boundary between the vehicle area and the peripheral area based on the image captured in the imaging step;
A drawing step of superimposing and drawing the boundary line in the drawing mode determined in the drawing mode determining step on the image captured in the image capturing step;
And a display step for displaying the image in which the boundary line is drawn in the drawing step.
JP2005350834A 2005-12-05 2005-12-05 Vehicle operation support device and operation support method Pending JP2007156807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005350834A JP2007156807A (en) 2005-12-05 2005-12-05 Vehicle operation support device and operation support method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005350834A JP2007156807A (en) 2005-12-05 2005-12-05 Vehicle operation support device and operation support method

Publications (1)

Publication Number Publication Date
JP2007156807A true JP2007156807A (en) 2007-06-21

Family

ID=38241098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005350834A Pending JP2007156807A (en) 2005-12-05 2005-12-05 Vehicle operation support device and operation support method

Country Status (1)

Country Link
JP (1) JP2007156807A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101387548B1 (en) 2011-12-12 2014-04-29 자동차부품연구원 Vehicle image system and vehicle sensor system
CN104709178A (en) * 2015-01-15 2015-06-17 浪潮电子信息产业股份有限公司 Back-up image display method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101387548B1 (en) 2011-12-12 2014-04-29 자동차부품연구원 Vehicle image system and vehicle sensor system
CN104709178A (en) * 2015-01-15 2015-06-17 浪潮电子信息产业股份有限公司 Back-up image display method

Similar Documents

Publication Publication Date Title
JP5108840B2 (en) Vehicle periphery monitoring device and vehicle periphery image display method
JP4611899B2 (en) Camera lens dirt detection device and image display system
JP2010098358A (en) Imaging element and imaging apparatus
JP2009017020A (en) Image processor and method for generating display image
US20100020176A1 (en) Image processing system, imaging device, image processing method, and computer program
JP2011250376A (en) Vehicle periphery image display device
JP2005223605A (en) Image processing method, image processing system and image processor
JP5208790B2 (en) Image processing apparatus, image processing method, and program
JP2007156807A (en) Vehicle operation support device and operation support method
US20170364765A1 (en) Image processing apparatus, image processing system, vehicle, imaging apparatus and image processing method
JP2010288199A (en) On-vehicle monitor system, parking support device using the same, and color adjustment device of the on-vehicle monitor system
WO2017187508A1 (en) Display processing device and imaging device
JP5166111B2 (en) Vehicle periphery monitoring device
JP4814752B2 (en) Display control device
US10242460B2 (en) Imaging apparatus, car, and variation detection method
JP7148384B2 (en) Semiconductor device, image processing method and program
JP4846627B2 (en) Display control device
JP2006178667A (en) Video correcting apparatus and method for vehicle
JP2008270983A (en) Camera shake correction device and camera shake correction method
JP5585808B2 (en) Monitoring device
JP2009260514A (en) Imaging apparatus
US11381757B2 (en) Imaging system and method
JP5606774B2 (en) Video display device and video display method
US20220294996A1 (en) Imaging system and method
JP2011061588A (en) Image processor, image processing method, and on-vehicle camera device