JP2005123914A - Information display device and information display method - Google Patents

Information display device and information display method Download PDF

Info

Publication number
JP2005123914A
JP2005123914A JP2003357205A JP2003357205A JP2005123914A JP 2005123914 A JP2005123914 A JP 2005123914A JP 2003357205 A JP2003357205 A JP 2003357205A JP 2003357205 A JP2003357205 A JP 2003357205A JP 2005123914 A JP2005123914 A JP 2005123914A
Authority
JP
Japan
Prior art keywords
information
color
display
display device
color information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003357205A
Other languages
Japanese (ja)
Other versions
JP4398216B2 (en
Inventor
Tsutomu Tanzawa
勉 丹沢
Hideaki Tsuchiya
英明 土屋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2003357205A priority Critical patent/JP4398216B2/en
Priority to US10/965,126 priority patent/US7356408B2/en
Priority to DE602004011164T priority patent/DE602004011164T2/en
Priority to EP04024625A priority patent/EP1524638B9/en
Publication of JP2005123914A publication Critical patent/JP2005123914A/en
Application granted granted Critical
Publication of JP4398216B2 publication Critical patent/JP4398216B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve convenience of a user in an information display device for displaying running situations together with navigation information. <P>SOLUTION: A recognition part 12 recognizes an object existing in front of its own vehicle on the basis of a color picture outputted by a camera and outputs color information on the object by picking up scenery in front of its own vehicle. A control unit 13 controls the display device so that a symbol showing the recognized object is displayed superimposed upon the navigation information. In doing this, the control unit 13 controls a display device 15 so as to display the symbol by using a display color corresponding to the color information of the outputted object. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、情報表示装置および情報表示方法に係り、特に、自車両前方の走行状況をナビゲーション情報に重ねて表示する手法に関する。   The present invention relates to an information display device and an information display method, and more particularly, to a method for displaying a traveling situation ahead of the host vehicle on navigation information.

従来より、車両に設けられたディスプレイに、ナビゲーション情報とともに、前方の走行状況を表示する情報表示装置が知られている。例えば、特許文献1には、赤外線カメラによって撮影された赤外画像のうち、自車両が走行する領域に対応する部分画像を、地図画像に重ね合わせて表示画面上に表示する車両用表示装置が開示されている。この特許文献1によれば、必要性の低い部分がカットされた赤外画像を地図画像に重ね合わせることにより、障害物の種類や大きさなどの認知性の向上を図ることができる。また、特許文献2には、クルーズコントロール装置において、地図情報から生成した道路形状に周辺車両や追従車両の位置情報を重ねて表示する情報表示装置が開示されている。この特許文献2によれば、自車位置を示すマーク、追従車の位置を示すマーク、および追従車両以外の周辺車両位置を示すマークが、それぞれ色や模様を変えて道路上に重ねて表示される。
特開平11−250396号公報 特開2002−46504号公報
2. Description of the Related Art Conventionally, there is known an information display device that displays a traveling state ahead along with navigation information on a display provided in a vehicle. For example, Patent Document 1 discloses a vehicle display device that displays, on a display screen, a partial image corresponding to a region where a host vehicle travels, among infrared images captured by an infrared camera, superimposed on a map image. It is disclosed. According to this Patent Document 1, it is possible to improve the cognitive properties such as the type and size of an obstacle by superimposing an infrared image with a less necessary part cut on a map image. Patent Document 2 discloses an information display device that displays the position information of surrounding vehicles and following vehicles on a road shape generated from map information in a cruise control device. According to this Patent Document 2, a mark indicating the position of the own vehicle, a mark indicating the position of the following vehicle, and a mark indicating the surrounding vehicle position other than the following vehicle are displayed on the road in different colors and patterns, respectively. The
JP-A-11-250396 JP 2002-46504 A

しかしながら、上記の特許文献1および2に開示された手法によれば、実際に前方に存在する対象物の色と、表示装置に表示される対象物の色とが対応しないことがある。そのため、この両者の色彩的な違いが、利用者に違和感を与える可能性がある。このような情報表示装置は、安全かつ快適なドライブを楽しむための装置であり、利用者にとっての使い勝手のよさが付加価値となり、購買意欲があおられることになる。そのため、この類の装置では、使い勝手がよく、かつ、その装置にユニークな機能が求められている。   However, according to the methods disclosed in Patent Documents 1 and 2 described above, the color of the object that actually exists in front may not correspond to the color of the object displayed on the display device. Therefore, there is a possibility that the color difference between the two may give the user a sense of incongruity. Such an information display device is a device for enjoying a safe and comfortable drive, and ease of use for the user adds value and motivates purchase. For this reason, this type of device is easy to use and requires a unique function.

本発明は、かかる事情に鑑みてなされたものであり、その目的は、ナビゲーション情報とともに前方の走行状況を表示する情報表示装置において、利用者の利便性の向上を図ることである。   The present invention has been made in view of such circumstances, and an object of the present invention is to improve user convenience in an information display device that displays a traveling situation in front of navigation information.

かかる課題を解決するために、第1の発明は、自車両前方の景色を撮像することにより、カラー画像を出力するカメラと、自車両の走行に応じたナビゲーション情報を出力するナビゲーションシステムと、出力されたカラー画像に基づいて、自車両前方に存在する対象物を認識するとともに、認識された対象物の色情報を出力する認識部と、情報を表示する表示装置と、認識された対象物を示すシンボルを、出力されたナビゲーション情報に重ねて表示するように表示装置を制御するとともに、出力された対象物の色情報に対応する表示カラーを用いてシンボルを表示するように表示装置を制御する制御部とを有する情報表示装置を提供する。   In order to solve such a problem, the first invention is to capture a scenery in front of the host vehicle and output a color image, a navigation system that outputs navigation information according to the traveling of the host vehicle, and an output A recognition unit for recognizing an object existing ahead of the host vehicle based on the color image thus obtained, outputting color information of the recognized object, a display device for displaying the information, and a recognized object The display device is controlled so that the symbol to be displayed is superimposed on the output navigation information, and the display device is controlled to display the symbol using a display color corresponding to the color information of the output object. An information display device having a control unit is provided.

ここで、第1の発明において、自車両前方の距離の二次元的な分布を示す距離データを出力するセンサをさらに有していてもよい。この場合、認識部は、距離データに基づいて、対象物の位置を認識し、制御部は、認識部により認識された対象物の位置に基づいて、実空間における対象物の位置に対応させてシンボルを表示するように表示装置を制御することが好ましい。また、第1の発明において、前記カメラを第1のカメラとし、自車両前方の景色を撮像することにより、カラー画像を出力し、かつ、第1のカメラと協働することによってステレオカメラとして機能する第2のカメラをさらに有していてもよい。この場合、センサは、第1のカメラから出力されるカラー画像と、第2のカメラから出力されるカラー画像とに基づき、ステレオマッチングによって、距離データを出力することが好ましい。   Here, in the first invention, a sensor that outputs distance data indicating a two-dimensional distribution of the distance ahead of the host vehicle may be further included. In this case, the recognition unit recognizes the position of the object based on the distance data, and the control unit associates the position of the object in the real space with the position of the object recognized by the recognition unit. It is preferable to control the display device to display the symbols. In the first invention, the camera is the first camera, and a color image is output by capturing a scene in front of the host vehicle, and the camera functions as a stereo camera by cooperating with the first camera. You may further have the 2nd camera to do. In this case, the sensor preferably outputs the distance data by stereo matching based on the color image output from the first camera and the color image output from the second camera.

さらに、第1の発明において、認識部は、出力された対象物の色情報が、対象物の実際の色とは異なるような走行状況であると判断した場合には、経時的に前に出力された対象物の色情報に基づいて、対象物の色情報を特定し、制御部は、特定された色情報に対応する表示カラーを用いてシンボルを表示するように表示装置を制御することが好ましい。また、第1の発明において、制御部は、認識部から色情報が出力されていない対象物について、対象物を示すシンボルを予め設定された所定の表示カラーを用いて表示するように表示装置を制御することが好ましい。   Furthermore, in the first invention, when the recognition unit determines that the output color information of the object is different from the actual color of the object, the recognition unit outputs the object in advance over time. The color information of the target object is specified based on the color information of the target object, and the control unit may control the display device to display a symbol using a display color corresponding to the specified color information. preferable. In the first invention, the control unit displays a display device for displaying a symbol indicating the object using a predetermined display color for an object for which color information is not output from the recognition unit. It is preferable to control.

また、第2の発明は、コンピュータが、自車両前方の景色が撮像されたカラー画像に基づいて、自車両前方に存在する対象物を認識するとともに、認識された対象物の色情報を生成する第1のステップと、コンピュータが、自車両の走行に応じたナビゲーション情報を取得する第2のステップと、コンピュータが、認識された対象物を示すシンボルを、ナビゲーション情報に重ねて表示するように表示装置を制御するとともに、生成された対象物の色情報に対応する表示カラーを用いてシンボルを表示するように表示装置を制御する第3のステップとを有する情報表示方法を提供する。   In the second invention, the computer recognizes an object existing ahead of the host vehicle and generates color information of the recognized object based on a color image obtained by capturing a scene in front of the host vehicle. A first step, a second step in which the computer obtains navigation information according to the traveling of the host vehicle, and a display in which the computer displays a symbol indicating the recognized object superimposed on the navigation information. And a third step of controlling the display device so as to display a symbol using a display color corresponding to the color information of the generated object.

ここで、第2の発明において、この情報表示方法は、自車両前方の距離の二次元的な分布を示す距離データに基づいて、対象物の位置を認識する第4のステップをさらに有していてもよい。この場合、第3のステップは、認識された対象物の位置に基づいて、実空間における対象物の位置に対応させてシンボルを表示するように表示装置を制御するステップを含むことが好ましい。   Here, in the second invention, the information display method further includes a fourth step of recognizing the position of the object based on distance data indicating a two-dimensional distribution of distances ahead of the host vehicle. May be. In this case, it is preferable that the third step includes a step of controlling the display device so as to display a symbol corresponding to the position of the object in the real space, based on the recognized position of the object.

また、第2の発明において、第1のステップは、生成された対象物の色情報が、対象物の実際の色とは異なるような走行状況であると判断した場合には、経時的に前に生成された対象物の色情報に基づいて、対象物の色情報を特定するステップを含み、第3のステップは、特定された色情報に対応する表示カラーを用いてシンボルを表示するように表示装置を制御するステップであることが好ましい。さらに、第2の発明において、第3のステップは、色情報が生成されていない対象物について、対象物を示すシンボルを予め設定された所定の表示カラーを用いて表示するように表示装置を制御するステップであることが好ましい。   In the second invention, if the first step determines that the color information of the generated object is a running situation that is different from the actual color of the object, The step of specifying the color information of the target object based on the color information of the target object generated in step (3) includes displaying a symbol using a display color corresponding to the specified color information. Preferably, this is a step of controlling the display device. Furthermore, in the second invention, in the third step, the display device is controlled so that a symbol indicating the object is displayed using a predetermined display color for the object for which color information is not generated. It is preferable that it is a step to perform.

本発明によれば、前方の景色が撮像されたカラー画像に基づいて、自車両前方に存在する対象物が認識されるとともに、その対象物の色情報が出力される。そして、この認識された対象物を示すシンボルが、ナビゲーション情報に重ねて表示されるように表示装置が制御される。この場合、表示されるシンボルは、出力された対象物の色情報に対応する表示カラーを用いて表示される。そのため、実際にドライバーが認識する走行状況と、表示装置に表示されるシンボルとが色的に対応することとなり、両者の間に生じる色彩的な相違感を低減することができる。よって、利用者の認視性の向上を図ることができるので、利用者の利便性の向上を図ることができる。   According to the present invention, an object existing in front of the host vehicle is recognized and color information of the object is output based on a color image obtained by capturing a front scene. Then, the display device is controlled so that the symbol indicating the recognized object is displayed so as to overlap the navigation information. In this case, the displayed symbol is displayed using a display color corresponding to the color information of the output object. Therefore, the driving situation actually recognized by the driver and the symbol displayed on the display device correspond to each other in color, and the color difference between them can be reduced. Therefore, since the visibility of the user can be improved, the convenience of the user can be improved.

図1は、本実施形態にかかる情報表示装置1の全体構成を示すブロック図である。自車両前方の景色を撮像するステレオカメラは、例えば、ルームミラー近傍に取付けられている。このステレオカメラは、一対のカメラ2,3で構成されており、メインカメラ2は、ステレオ画像処理を行う際に必要な基準画像を撮像し、サブカメラ3は、比較画像を撮像する。それぞれのカメラ2,3には、赤緑青のそれぞれに別個のイメージセンサが内蔵されており(例えば、3板式カラーCCD)、各カメラ2,3から、赤画像、緑画像および青画像の3つの原色画像が出力される。したがって、一対のカメラ2,3が1回の撮影タイミングで出力する画像は合計6枚になる。互いの同期が取れている状態において、カメラ2,3から出力された各アナログ画像は、A/Dコンバータ4,5により、所定の輝度階調(例えば、256階調のグレースケール)のデジタル画像に変換される。   FIG. 1 is a block diagram showing the overall configuration of the information display apparatus 1 according to the present embodiment. A stereo camera that captures a scene in front of the host vehicle is attached, for example, in the vicinity of a room mirror. This stereo camera is composed of a pair of cameras 2 and 3. The main camera 2 captures a reference image necessary for performing stereo image processing, and the sub camera 3 captures a comparative image. Each of the cameras 2 and 3 has a separate image sensor for each of red, green, and blue (for example, a three-plate color CCD), and from each of the cameras 2 and 3, three images of a red image, a green image, and a blue image are provided. A primary color image is output. Therefore, a total of six images are output by the pair of cameras 2 and 3 at one shooting timing. In a state where each other is synchronized, each analog image output from the cameras 2 and 3 is converted into a digital image of a predetermined luminance gradation (for example, 256 gradation gray scale) by the A / D converters 4 and 5. Is converted to

画像補正部6は、デジタル化された3つの原色画像対(計6つの原色画像)のそれぞれについて、輝度の補正や画像の幾何学的な変換等を行う。通常、一対のカメラ2,3の取付位置は、程度の差はあるものの誤差が存在するため、それに起因したずれが左右の各画像対に生じている。このずれを補正するために、アフィン変換等を用いて、画像の回転や平行移動等の幾何学的な変換が行われる。   The image correction unit 6 performs brightness correction, image geometric conversion, and the like for each of the three digitized primary color image pairs (total of six primary color images). Usually, there is an error in the mounting position of the pair of cameras 2 and 3 although there is a difference in degree. Therefore, a shift caused by the error occurs in the left and right image pairs. In order to correct this deviation, geometrical transformation such as image rotation or translation is performed using affine transformation or the like.

このような画像処理を経て、メインカメラ2より3つの原色画像に対応する基準画像データが得られ、サブカメラ3より3つの原色画像に対応する比較画像データが得られる。これらの画像データは、各画素の輝度値(0〜255)の集合である。ここで、画像データによって規定される画像平面は、i−j座標系で表現され、画像の左下隅を原点として、水平方向をi座標軸、垂直方向をj座標軸とする。一フレーム相当の基準画像データと比較画像データとは、後段のステレオ画像処理部7に出力されるとともに、画像データメモリ9に格納される。   Through such image processing, reference image data corresponding to the three primary color images is obtained from the main camera 2, and comparison image data corresponding to the three primary color images is obtained from the sub camera 3. These image data are a set of luminance values (0 to 255) of each pixel. Here, the image plane defined by the image data is expressed in the ij coordinate system, with the lower left corner of the image as the origin, the horizontal direction as the i coordinate axis, and the vertical direction as the j coordinate axis. The reference image data corresponding to one frame and the comparison image data are output to the subsequent stereo image processing unit 7 and stored in the image data memory 9.

ステレオ画像処理部7は、基準画像データと比較画像データとに基づいて、一フレーム相当の撮像画像に関する距離データを算出する。ここで、「距離データ」とは、画像データによって規定される画像平面において小領域毎に算出された視差の集合であり、個々の視差は画像平面上の位置(i,j)と対応付けられている。それぞれの視差は、基準画像平面の一部を構成する所定面積(例えば、4×4画素)の画素ブロック毎に1つ算出される。それぞれのカメラ2,3から3つの原色画像が出力される本実施形態において、このステレオマッチングは、同一色の原色画像毎に、別個に行われる。   The stereo image processing unit 7 calculates distance data related to a captured image corresponding to one frame based on the reference image data and the comparison image data. Here, the “distance data” is a set of parallaxes calculated for each small area on the image plane defined by the image data, and each parallax is associated with a position (i, j) on the image plane. ing. Each parallax is calculated for each pixel block of a predetermined area (for example, 4 × 4 pixels) constituting a part of the reference image plane. In this embodiment in which three primary color images are output from the respective cameras 2 and 3, this stereo matching is performed separately for each primary color image of the same color.

ある画素ブロック(相関元)に関する視差を算出する場合、この画素ブロックの輝度特性と相関を有する領域(相関先)を比較画像において特定する。カメラ2,3から対象物までの距離は、基準画像と比較画像との間における水平方向のずれ量として現れる。したがって、比較画像において相関先を探索する場合、相関元となる画素ブロックのj座標と同じ水平線(エピポーラライン)上を探索すればよい。ステレオ画像処理部7は、相関元のi座標を基準に設定された所定の探索範囲内において、エピポーラライン上を一画素ずつシフトしながら、相関元と相関先の候補との間の相関性を順次評価する(ステレオマッチング)。そして、原則として、最も相関が高いと判断される相関先(相関先の候補の内のいずれか)の水平方向のずれ量を、その画素ブロックの視差とする。換言すれば、距離データは、自車両前方の距離の二次元的な分布である。そして、ステレオ画像処理部7は、同一色の原色画像同士でステレオマッチングをそれぞれ行い、後段の融合処理部8に出力する。これにより、基準画像における一画素ブロックに関して、3つの視差(以下、それぞれを「原色視差」という)が算出される。   When calculating the parallax regarding a certain pixel block (correlation source), a region (correlation destination) having a correlation with the luminance characteristic of this pixel block is specified in the comparison image. The distance from the cameras 2 and 3 to the object appears as an amount of horizontal displacement between the reference image and the comparison image. Therefore, when searching for the correlation destination in the comparison image, it is only necessary to search on the same horizontal line (epipolar line) as the j coordinate of the pixel block as the correlation source. The stereo image processing unit 7 shifts the correlation between the correlation source candidate and the correlation destination candidate while shifting one pixel at a time on the epipolar line within a predetermined search range set based on the i coordinate of the correlation source. Sequential evaluation (stereo matching). In principle, the amount of horizontal deviation of the correlation destination (one of the correlation destination candidates) determined to have the highest correlation is defined as the parallax of the pixel block. In other words, the distance data is a two-dimensional distribution of the distance ahead of the host vehicle. Then, the stereo image processing unit 7 performs stereo matching between the primary color images of the same color, and outputs the result to the subsequent fusion processing unit 8. Thereby, three parallaxes (hereinafter, referred to as “primary color parallax”) are calculated for one pixel block in the reference image.

融合処理部8は、ある画素ブロックに関して算出された3つの原色視差を融合し、その画素ブロックに関する統一的な視差Niを算出する。原色視差の融合は、検出対象選定部8aより得られるパラメータ(具体的には各色の重み係数)に基づき、積和演算によって行われる。このようにして求められた視差Niの一フレーム分の集合は、距離データとして距離データメモリ10に格納される。なお、融合処理部8および検出対象選定部8aの詳細なシステム構成およびシステム処理については、本出願人によって既に出願されている特願2001−343801号に開示されているので、必要ならば参照されたい。   The fusion processing unit 8 fuses the three primary color parallaxes calculated for a certain pixel block, and calculates a uniform parallax Ni for the pixel block. Fusion of primary color parallax is performed by a product-sum operation based on a parameter (specifically, a weighting factor for each color) obtained from the detection target selection unit 8a. A set for one frame of the parallax Ni thus obtained is stored in the distance data memory 10 as distance data. The detailed system configuration and system processing of the fusion processing unit 8 and the detection target selecting unit 8a are disclosed in Japanese Patent Application No. 2001-343801 already filed by the present applicant, and are referred to if necessary. I want.

マイクロコンピュータ11は、CPU、ROM、RAM、入出力インターフェース等で構成されているが、これを機能的に捉えた場合、認識部12と、制御部13とを有する。認識部12は、画像データメモリ9に格納された原色画像に基づいて、自車両前方に存在する対象物を認識するとともに、この認識された対象物の色情報を生成する。認識部12が認識すべき対象物は、典型的に、立体物であり、自動車、二輪車、歩行者などがこれに該当する。認識部12によって認識された対象物の情報、および生成された色情報は、制御部13に対して出力される。制御部13は、認識部12によって認識された対象物を示すシンボルを、ナビゲーション情報に重ねて表示するように、後段に設けられた表示装置15を制御する。この場合、この対象物に対応するシンボルは、出力された対象物の色情報に対応する表示カラーを用いて表示される。   The microcomputer 11 includes a CPU, a ROM, a RAM, an input / output interface, and the like, and includes a recognition unit 12 and a control unit 13 when functionally grasping this. Based on the primary color image stored in the image data memory 9, the recognition unit 12 recognizes an object existing ahead of the host vehicle, and generates color information of the recognized object. The object to be recognized by the recognition unit 12 is typically a three-dimensional object, and examples thereof include automobiles, two-wheeled vehicles, and pedestrians. Information on the object recognized by the recognition unit 12 and the generated color information are output to the control unit 13. The control unit 13 controls the display device 15 provided in the subsequent stage so as to display a symbol indicating the object recognized by the recognition unit 12 so as to overlap the navigation information. In this case, the symbol corresponding to the object is displayed using a display color corresponding to the color information of the output object.

ここで、ナビゲーション情報は、自車両の現在位置や自車両の予定経路を地図情報とともに表示装置15に表示するために必要な情報であり、周知のナビゲーションシステム14から取得することができる。このナビゲーションシステム14は、図1には明示されていないが、車速センサ、ジャイロスコープ、GPS受信機、地図データ入力部、およびナビ制御部を主体に構成されている。車速センサは車両の速度を検出するセンサであり、ジャイロスコープは車両に加わる回転運動の角速度に基づいて車両の方位角変化量を検出する。GPS受信機は、アンテナを介し、GPS用の人工衛星から送信された電波を受信し、車両の位置、方位(進行方向)などといった測位情報を検出する。地図データ入力部は、一般にCD−ROMやDVDといった記録媒体に格納された地図情報のデータ(以下「地図データ」という)をシステム14に入力するための装置である。ナビ制御部は、GPS受信機から得られる測位情報、或いは車速に応じた車両の移動距離および車両の方位変化量に基づいて、車両の現在位置を算出する。算出された現在位置、およびこの現在位置に対応した地図データは、走行状況に応じ、ナビゲーション情報としてナビゲーションシステム14からマイクロコンピュータ11に対して出力される。   Here, the navigation information is information necessary for displaying the current position of the host vehicle and the planned route of the host vehicle together with the map information on the display device 15, and can be acquired from the known navigation system 14. Although not shown in FIG. 1, the navigation system 14 is mainly configured by a vehicle speed sensor, a gyroscope, a GPS receiver, a map data input unit, and a navigation control unit. The vehicle speed sensor is a sensor that detects the speed of the vehicle, and the gyroscope detects the amount of change in the azimuth angle of the vehicle based on the angular velocity of the rotational motion applied to the vehicle. The GPS receiver receives radio waves transmitted from a GPS artificial satellite via an antenna and detects positioning information such as the position and direction (traveling direction) of the vehicle. The map data input unit is a device for inputting map information data (hereinafter referred to as “map data”) stored in a recording medium such as a CD-ROM or DVD to the system 14. The navigation control unit calculates the current position of the vehicle on the basis of the positioning information obtained from the GPS receiver or the moving distance of the vehicle and the direction change amount of the vehicle according to the vehicle speed. The calculated current position and the map data corresponding to the current position are output from the navigation system 14 to the microcomputer 11 as navigation information in accordance with the driving situation.

図2は、本実施形態にかかる情報表示処理の手順を示したフローチャートである。このフローチャートに示すルーチンは所定間隔毎に呼び出され、マイクロコンピュータ11によって実行される。まず、ステップ1において、距離データおよび画像データ(例えば基準画像データ)が読み込まれる。それぞれのカメラ2,3によって3つの原色画像が出力される本実施形態では、各原色画像に対応する3つの画像データ(以下、それぞれを「原色画像データ」という)がそれぞれ読み込まれる。   FIG. 2 is a flowchart showing a procedure of information display processing according to the present embodiment. The routine shown in this flowchart is called at predetermined intervals and executed by the microcomputer 11. First, in step 1, distance data and image data (for example, reference image data) are read. In the present embodiment in which three primary color images are output by the respective cameras 2 and 3, three image data corresponding to the respective primary color images (hereinafter referred to as “primary color image data”) are read.

ステップ2において、自車両前方に存在する立体物が認識される。立体物認識では、まず、グループフィルタ処理によって距離データに含まれるノイズ、すなわち、信頼性が低いと思われる視差Niが除去される。ノイズ等の影響によるミスマッチにより生じた視差Niは、周囲の視差Niの値と大きく異なり、かつ、その視差Niと同様の値を有するグループの面積が比較的小さくなるという特性がある。そこで、それぞれの画素ブロックに関して算出された視差Niについて、その上下および左右方向に隣接した画素ブロックにおける視差Niとの変化量が所定のしきい値以内のものをグループ化する。そして、グループの面積の大きさが検出され、所定の大きさ(例えば2画素ブロック)よりも大きな面積を有するグループが有効グループと判断される。一方、所定の大きさ以下の面積を有するグループに属する視差Niは、算出された視差Niの信頼性が低いと判断され、距離データから除去される。   In step 2, a three-dimensional object existing in front of the host vehicle is recognized. In the three-dimensional object recognition, first, noise included in the distance data, that is, the parallax Ni that seems to be low in reliability is removed by the group filter processing. The parallax Ni generated by the mismatch due to the influence of noise or the like has a characteristic that the area of the group having the same value as the parallax Ni is relatively small and the area of the group having the same value as the parallax Ni is relatively small. Therefore, the parallax Ni calculated for each pixel block is grouped so that the amount of change from the parallax Ni in the pixel blocks adjacent in the vertical and horizontal directions is within a predetermined threshold. Then, the size of the area of the group is detected, and a group having an area larger than a predetermined size (for example, two pixel blocks) is determined as an effective group. On the other hand, the parallax Ni belonging to a group having an area of a predetermined size or less is determined to have low reliability of the calculated parallax Ni and is removed from the distance data.

つぎに、グループフィルタ処理によって抽出された視差Niと、この視差に対応する画像平面上の座標位置とに基づいて、周知の座標変換式を用いて、実空間上の位置が算出される。そして、算出された実空間上の位置と、道路面の位置とを比較することにより、道路面よりも上に位置する視差Ni、すなわち、立体物に相当する視差(以下「立体物視差」という)Niが抽出される。道路面の位置は、道路形状を規定する道路モデルを算出することにより、特定可能である。道路モデルは、実空間の座標系において、水平方向および垂直方向における直線式で表現され、この直線式のパラメータを実際の道路形状に合致するような値に設定することにより、算出される。路面上に描かれた白線は道路面と比較して高輝度であるという知得に基づき、画像データが参照される。この画像データに基づいて、道路の幅方向の輝度変化を評価することにより、画像平面上の左右の白線の位置が特定される。白線の位置を特定する場合、3つの原色画像データのそれぞれについて輝度変化を評価してもよいが、例えば、赤画像のみ、或いは、赤画像および青画像のみといったように、ある特定の原色画像データについて輝度変化を評価してもよい。そして、白線の画像平面上の位置に基づき、距離データを用いて白線の実空間上の位置が検出される。道路モデルは、道路上の白線を距離方向に複数区間に分割し、各区間における左右の白線を三次元の直線で近似し、これらを折れ線状に連結することにより、算出される。   Next, based on the parallax Ni extracted by the group filter processing and the coordinate position on the image plane corresponding to the parallax, a position in the real space is calculated using a well-known coordinate conversion formula. Then, by comparing the calculated position in the real space with the position of the road surface, the disparity Ni located above the road surface, that is, the disparity corresponding to the three-dimensional object (hereinafter referred to as “three-dimensional object parallax”). ) Ni is extracted. The position of the road surface can be specified by calculating a road model that defines the road shape. The road model is expressed by a linear equation in the horizontal direction and the vertical direction in the coordinate system of the real space, and is calculated by setting the parameters of the linear equation to values that match the actual road shape. Based on the knowledge that the white line drawn on the road surface is higher in luminance than the road surface, the image data is referred to. Based on this image data, the position of the left and right white lines on the image plane is specified by evaluating the luminance change in the width direction of the road. When the position of the white line is specified, the luminance change may be evaluated for each of the three primary color image data. For example, a specific primary color image data such as only a red image or only a red image and a blue image may be evaluated. The brightness change may be evaluated for. Based on the position of the white line on the image plane, the position of the white line in the real space is detected using the distance data. The road model is calculated by dividing the white line on the road into a plurality of sections in the distance direction, approximating the left and right white lines in each section with a three-dimensional straight line, and connecting them in a polygonal line shape.

つぎに、距離データが格子状に区分され、この格子状の区分毎に、各区分に属する立体物視差Niに関するヒストグラムが作成される。このヒストグラムは単位区分あたりに含まれる立体物視差Niの頻度の分布を示しており、このヒストグラムにおいて、ある立体物を示す視差Niの頻度は高くなる。そのため、作成されたヒストグラムにおいて、度数が判定値以上となる立体物視差Niを検出し、この検出された立体物視差Niが自車両前方に存在する立体物の候補として検出される。この際、立体物の候補までの距離も算出される。つぎに、隣接する区分において、算出された距離が近接する立体物の候補同士がグループ化され、各グループが立体物として認識される。認識された立体物は、左右の端部位置、中心位置および距離などがパラメータとして対応付けられる。なお、グループフィルタにおける具体的な処理手順、および立体物認識の具体的な処理手順については、特開平10−285582号公報に開示されているので、必要ならば参照されたい。   Next, the distance data is sectioned in a grid pattern, and a histogram related to the three-dimensional object parallax Ni belonging to each section is created for each grid pattern section. This histogram shows the distribution of the frequency of the three-dimensional object parallax Ni included per unit section. In this histogram, the frequency of the parallax Ni indicating a certain three-dimensional object is high. Therefore, in the created histogram, the three-dimensional object parallax Ni whose frequency is equal to or higher than the determination value is detected, and the detected three-dimensional object parallax Ni is detected as a candidate for a three-dimensional object existing in front of the host vehicle. At this time, the distance to the candidate for the three-dimensional object is also calculated. Next, three-dimensional object candidates whose calculated distances are close to each other are grouped in adjacent sections, and each group is recognized as a three-dimensional object. The recognized three-dimensional object is associated with the left and right end positions, the center position, the distance, and the like as parameters. A specific processing procedure in the group filter and a specific processing procedure for three-dimensional object recognition are disclosed in Japanese Patent Laid-Open No. 10-285582, so refer to them if necessary.

ステップ3において、現在の走行状況が立体物の色情報を生成するのに適した状況であるか否かが判断される。後述するように、立体物の色情報は、各原色画像データの輝度値に基づいて、生成される。通常の走行状況において、原色画像データをベースに生成された色情報は、立体物の実際の色を精度よく再現することができる。しかしながら、自車両がトンネル内を走行しているといったケースでは、トンネル内の照明や照度の低下に起因して、画像ベースで生成される立体物の色情報が、実際のそれと相違することがある。そこで、色情報を誤って生成することを回避すべく、ステップ4の認識処理の前に、ステップ3の判断が設けられている。自車両がトンネル内を走行しているか否かの判断は、時系列的に出力される各原色画像データの輝度特性が低輝領域にシフトしたこと、ヘッドライトの点灯状態などから判断することができる。なお、ヘッドライトについてはランプ切れといった事態も考えられるため、ヘッドライトの点灯状態ではなく、ヘッドライトの操作スイッチの状態を検出してもよい。   In step 3, it is determined whether or not the current traveling state is a state suitable for generating color information of a three-dimensional object. As will be described later, the color information of the three-dimensional object is generated based on the luminance value of each primary color image data. In normal driving conditions, color information generated based on primary color image data can accurately reproduce the actual color of a three-dimensional object. However, in the case where the host vehicle is traveling in a tunnel, the color information of the three-dimensional object generated on the image base may be different from the actual color information due to a decrease in illumination or illuminance in the tunnel. . Therefore, in order to avoid erroneous generation of color information, the determination in step 3 is provided before the recognition process in step 4. Whether the host vehicle is traveling in the tunnel can be determined from the fact that the luminance characteristics of each primary color image data output in time series are shifted to the low brightness area, the lighting state of the headlights, and the like. it can. Since the headlight may be out of lamp, the headlight operation switch state may be detected instead of the headlight lighting state.

ステップ3において肯定判定された場合、すなわち、色情報を生成するのに適した走行状況である場合には、ステップ4に進む。そして、ステップ4において、認識された立体物のそれぞれを処理対象として、色情報が生成される。この色情報の生成処理では、まず、距離データによって規定される二次元平面(ij平面)において、立体物と認識されたグループに該当する立体物視差Niに対応付けられた画像平面上の位置群((i,j)の集合)が特定される。つぎに、各原色画像データにおいて、この特定された位置群の輝度値が検出される。3つの原色画像データを用いる本実施形態では、赤画像における位置群の輝度値(以下「R輝度値」という)、緑画像における位置群の輝度値(以下「G輝度値」という)、および青画像における位置群の輝度値(以下「B輝度値」という)がそれぞれ検出される。そして、その立体物の特徴的な色を特定すべく、各原色画像データにおいて検出された輝度値(正確には、位置群に該当する輝度値の集合)に基づいて、最頻輝度値、または位置群の輝度平均値が、その立体物の色情報として認識される。そのため、本実施形態において、立体物の色情報は、R輝度値、G輝度値およびB輝度値の3つの色成分の集合となる。例えば、ボディーカラーが白色の先行車、或いは白い服装の歩行者は、その色情報が、R輝度値「255」、G輝度値「255」およびB輝度値「255」として生成されるといった如くである。   If an affirmative determination is made in step 3, that is, if the driving situation is suitable for generating color information, the process proceeds to step 4. In step 4, color information is generated for each recognized solid object as a processing target. In this color information generation process, first, in a two-dimensional plane (ij plane) defined by distance data, a position group on an image plane associated with a three-dimensional object parallax Ni corresponding to a group recognized as a three-dimensional object. (A set of (i, j)) is specified. Next, the luminance value of the specified position group is detected in each primary color image data. In this embodiment using three primary color image data, the luminance value of the position group in the red image (hereinafter referred to as “R luminance value”), the luminance value of the position group in the green image (hereinafter referred to as “G luminance value”), and blue The luminance value of the position group in the image (hereinafter referred to as “B luminance value”) is detected. Then, in order to identify the characteristic color of the three-dimensional object, based on the luminance value detected in each primary color image data (more precisely, a set of luminance values corresponding to the position group), The average luminance value of the position group is recognized as the color information of the three-dimensional object. Therefore, in the present embodiment, the color information of the three-dimensional object is a set of three color components of the R luminance value, the G luminance value, and the B luminance value. For example, for a preceding vehicle with a white body color or a pedestrian in white clothes, the color information is generated as an R luminance value “255”, a G luminance value “255”, and a B luminance value “255”. is there.

一方、このステップ3において否定判定された場合、すなわち、色情報を生成するのに不適な走行状況である場合には、ステップ5に進む。このケースでは、適切な走行状況で生成された立体物の色情報、すなわち、経時的に前に生成された色情報に基づいて、立体物の色情報が特定される(ステップ5)。まず、現在認識された立体物について、その立体物が以前に実行されたサイクルのなかで認識されているか否かが判断される。具体的には、現在認識された立体物の中から順次立体物が選択され、所定時間前に認識された立体物との位置的な比較が行われる。通常、走行状況が経時的に変化したとしても、同一の立体物に関する車幅方向の移動量、および車高方向の移動量が大きく変化する可能性は低い。そこで、立体物の車幅方向への移動量(更には車高方向への移動量)が所定の判定値以下であるか否かを判定することにより、以前に実行されたサイクルのなかで認識された立体物であるか否かが判断される(すなわち、異なる時間で認識された立体物の同一性の判断)。   On the other hand, if a negative determination is made in step 3, that is, if the driving situation is inappropriate for generating color information, the process proceeds to step 5. In this case, the color information of the three-dimensional object is specified based on the color information of the three-dimensional object generated in an appropriate traveling situation, that is, the color information generated previously with time (step 5). First, it is determined whether or not the three-dimensional object currently recognized is recognized in the cycle executed previously. Specifically, a three-dimensional object is sequentially selected from currently recognized three-dimensional objects, and a positional comparison with a three-dimensional object recognized a predetermined time ago is performed. In general, even if the traveling state changes with time, it is unlikely that the amount of movement in the vehicle width direction and the amount of movement in the vehicle height direction for the same three-dimensional object will change significantly. Therefore, it is recognized in a previously executed cycle by determining whether or not the amount of movement of the three-dimensional object in the vehicle width direction (and also the amount of movement in the vehicle height direction) is equal to or less than a predetermined determination value. It is determined whether or not it is a three-dimensional object (ie, determination of the identity of a three-dimensional object recognized at different times).

この判断において、所定時間前に認識された立体物と同一の対象物がない、すなわち、本サイクルにおいて初めて認識された立体物について、その色情報が「認識不能」と特定される。一方、以前のサイクルから引き続き認識されている立体物について、既に生成されている色情報が、その色情報として特定される。この場合、適切な走行状況で色情報が生成されている立体物については、既にステップ4の処理において色情報が得られているため、この生成された色情報が、立体物の色情報として特定される。一方、トンネル内を走行している途中に認識された立体物については、以前のサイクルにおいて色情報が生成されていないので、引き続き、その色情報が「認識不能」のままとなる。   In this determination, the color information of the three-dimensional object recognized for the first time in this cycle is identified as “unrecognizable” when there is no object identical to the three-dimensional object recognized a predetermined time ago. On the other hand, already generated color information is specified as the color information for the three-dimensional object that is continuously recognized from the previous cycle. In this case, since the color information has already been obtained in the process of step 4 for the three-dimensional object for which the color information is generated in an appropriate traveling situation, the generated color information is specified as the color information for the three-dimensional object. Is done. On the other hand, for the three-dimensional object recognized while traveling in the tunnel, since the color information has not been generated in the previous cycle, the color information remains “unrecognizable”.

ステップ6において、ナビゲーション情報と、認識部12による認識結果とに基づいて、表示処理が行われる。具体的には、制御部13は、次の(1),(2)に示す表示形態となるように表示装置15を制御する。
(1) 立体物を示すシンボルをナビゲーション情報に重ねて表示する
距離データを用いた立体物認識において、立体物の位置は、自車両を原点位置とした座標系(本実施形態では三次元座標系)で表現される。そこで、制御部13は、立体物を示すシンボルを、ナビゲーションシステム14から得られる自車両の現在位置を基準に、認識された対象物の位置に基づいて、実空間における対象物の位置に対応させた上で、地図データ上に重ね合わせる。この場合、道路モデルを参照し、地図データ上の道路位置と、道路モデルを基準とした立体物の位置との対応させることにより、より正確な位置にシンボルを表示することができる。
(2) シンボルを所定の表示カラーで表示する
地図データに重ね合わせて表示されるシンボルは、その対象物について生成・出力された色情報に対応する表示カラーで表示される。すなわち、赤色の色情報(例えば、R輝度値「255」、G輝度値「0」、B輝度値「0」)が出力されている立体物を示すシンボルは、この出力された色情報と同じ表示カラーで表示される。また、その色情報が生成・特定されていない立体物(「認識不能」)を示すシンボルについては、予め設定された表示カラーを用いて表示する。この表示カラーは、交通環境において認識され得る色情報とは異なるような色であることが好ましく、例えば、紫色などが挙げられる。
In step 6, display processing is performed based on the navigation information and the recognition result by the recognition unit 12. Specifically, the control unit 13 controls the display device 15 so that the display forms shown in the following (1) and (2) are obtained.
(1) In three-dimensional object recognition using distance data in which a symbol representing a three-dimensional object is displayed superimposed on navigation information, the position of the three-dimensional object is a coordinate system (in the present embodiment, a three-dimensional coordinate system). ). Therefore, the control unit 13 associates the symbol indicating the three-dimensional object with the position of the object in the real space based on the position of the recognized object based on the current position of the host vehicle obtained from the navigation system 14. And overlay it on the map data. In this case, the symbol can be displayed at a more accurate position by referring to the road model and making the road position on the map data correspond to the position of the three-dimensional object based on the road model.
(2) Symbols that are displayed by being superimposed on map data for displaying symbols in a predetermined display color are displayed in a display color corresponding to the color information generated and output for the object. That is, a symbol indicating a three-dimensional object to which red color information (for example, R luminance value “255”, G luminance value “0”, and B luminance value “0”) is output is the same as the output color information. Displayed in display color. Further, a symbol indicating a three-dimensional object (“unrecognizable”) for which color information is not generated or specified is displayed using a preset display color. The display color is preferably a color different from the color information that can be recognized in a traffic environment, for example, purple.

図3は表示装置15の表示状態を示す説明図である。図4は実際の走行状態を示す模式図であり、自車両前方に存在する立体物と、その立体物の色(例えば、ボディーカラーなど)とが示されている。図3には、立体物として自動車が3台、二輪車が1台だけ認識されるケースにおいて(図4参照)、いわゆる、ドライバーズアイと呼ばれる手法を用いて地図データが表示されており、その上に各立体物を示すシンボルが重ねて表示されている。図3において、立体物を示すシンボルは、一例として、立方体を模したデザインが用いられており、認識された立体物の色情報に対応する表示カラーによって表示されることとなる。   FIG. 3 is an explanatory diagram showing a display state of the display device 15. FIG. 4 is a schematic diagram showing an actual running state, in which a three-dimensional object existing in front of the host vehicle and a color of the three-dimensional object (for example, a body color) are shown. In FIG. 3, in the case where only three automobiles and one two-wheeled vehicle are recognized as a three-dimensional object (see FIG. 4), map data is displayed using a so-called driver's eye technique. Symbols indicating each three-dimensional object are displayed in an overlapping manner. In FIG. 3, as an example, a symbol representing a three-dimensional object uses a design simulating a cube, and is displayed with a display color corresponding to the color information of the recognized three-dimensional object.

また、制御部13は、上記の(1),(2)の条件以外にも、同図に示すように、認識された立体物の大きさに応じて、表示されるシンボルの大きさが相対的に異なるように表示装置15を表示してもよい。また、シンボルに遠近感が表現されるように、表示装置15を制御してもよい。このケースでは、認識された立体物から自車両までの距離に応じ、遠方に存在する立体物ほど、そのシンボルの表示サイズが小さくなるように表示される。さらに、制御部13は、位置的に遠方に表示されるシンボルと、それよりも近い位置に表示されるシンボルとがオーバーラップするようなケースでは、前者のシンボルが後者のシンボルよりも上面側に表示されるように、表示装置15を制御してもよい。これにより、遠方のシンボルが、近傍のシンボルによって覆い隠されるため、シンボルが見やすくなるとともに、シンボル間の位置的な前後関係を表現することができる。   In addition to the above conditions (1) and (2), the control unit 13 may change the size of the displayed symbol relative to the size of the recognized three-dimensional object, as shown in FIG. The display device 15 may be displayed differently. Further, the display device 15 may be controlled so that a sense of perspective is expressed in the symbol. In this case, according to the distance from the recognized three-dimensional object to the host vehicle, the three-dimensional object that is far away is displayed so that the display size of the symbol becomes smaller. Further, in the case where the symbol displayed far away in position overlaps with the symbol displayed at a position closer thereto, the control unit 13 places the former symbol on the upper side of the latter symbol. The display device 15 may be controlled so as to be displayed. As a result, distant symbols are obscured by nearby symbols, making it easier to see the symbols and expressing the positional context between the symbols.

このように、本実施形態によれば、カラー画像に基づいて、自車両前方に存在する対象物(本実施形態では、立体物)が認識されるとともに、この立体物の色情報が生成・出力される。そして、この認識された対象物を示すシンボルが、ナビゲーション情報に重ねて表示される。この場合、表示されるシンボルは、対象物について出力された色情報に対応した表示カラーとなるように表示装置15が制御される。そのため、実際にドライバーが認識する走行状況と、表示装置15に表示されるシンボルとが色的に対応することとなり、両者の間に生じる色彩的な相違感を低減することができる。また、表示と実際の走行環境の色彩とを対応させることにより、利用者(典型的には、ドライバー)による認視性の向上を図ることができる。その結果、従来にはない機能により、利便性の向上を図ることができるので、ユーザーフレンドリーといった観点から、商品訴求力の向上を図ることができる。   As described above, according to the present embodiment, an object (a three-dimensional object in the present embodiment) existing in front of the host vehicle is recognized based on a color image, and color information of the three-dimensional object is generated and output. Is done. A symbol indicating the recognized object is displayed so as to overlap the navigation information. In this case, the display device 15 is controlled so that the displayed symbol has a display color corresponding to the color information output for the object. Therefore, the driving situation actually recognized by the driver and the symbol displayed on the display device 15 correspond to each other in color, and the color difference that occurs between them can be reduced. Further, by making the display correspond to the color of the actual driving environment, it is possible to improve the visibility by the user (typically a driver). As a result, it is possible to improve convenience by using a function that is not present in the past, and therefore it is possible to improve the appeal of the product from the viewpoint of user friendliness.

なお、認識されたすべての立体物に対応するシンボルをすべて表示した場合、走行状況を詳細に表示するといった点で有利であるものの、画面上に表示される情報量が増える。すなわち、自車両から遠方に存在する先行車のように、運転に直接関係のない情報までも表示していることもある。そこで、不要な情報を排除するといった観点から、自車両から近い複数個の立体物を選択し、この選択された立体物に対応するシンボルのみを表示してもよい。   Note that displaying all the symbols corresponding to all recognized three-dimensional objects is advantageous in that the driving situation is displayed in detail, but the amount of information displayed on the screen increases. That is, information that is not directly related to driving may be displayed, such as a preceding vehicle that is far away from the host vehicle. Therefore, from the viewpoint of eliminating unnecessary information, a plurality of three-dimensional objects close to the host vehicle may be selected, and only symbols corresponding to the selected three-dimensional objects may be displayed.

また、本実施形態では、シンボルを表示する場合、生成された色情報の色成分(すなわち、R輝度値、G輝度値およびB輝度値)と完全に一致した表示カラーを用いて表示を行うことに限定されない。すなわち、利用者の視覚的な相違がないと想定される範囲内において、適宜その表示カラーを調整してもよい。さらに、ドライバーズアイといった表示手法以外にも、その他の鳥瞰図的な手法(例えば、バードビュー)や、平面図的な手法を用いた表示手法にも本発明を適用することができる。   In this embodiment, when displaying a symbol, the display is performed using a display color that completely matches the color component of the generated color information (that is, the R luminance value, the G luminance value, and the B luminance value). It is not limited to. That is, the display color may be adjusted as appropriate within a range where there is no visual difference between the users. Furthermore, in addition to the display method such as the driver's eye, the present invention can be applied to other bird's-eye view methods (for example, bird view) and display methods using a plan view method.

また、カラー画像を出力する一対のカメラによってステレオカメラを構成することにより、カラー画像を出力するカメラとしての機能、および、この後段の画像処理系によって距離データを出力するセンサとしての機能を両立しているが、本発明はこれに限定されるものではない。これ以外にも、カラー画像を出力する単眼カメラと、レーザレーダやミリ波レーダといった距離データを算出し得る周知のセンサとを併用することにより、本実施形態と同様の機能を得ることができる。また、単に自車両前方に存在する立体物の色情報を認識し、この認識された立体物の色情報に対応する表示カラーを用いてシンボルを表示するのであれば、距離データを出力するセンサを必ずしも設ける必要はない。このケースでは、オプティカルフローなどの周知の画像処理技術、或いは路面とは異なる色成分を検出するなどといった手法を用いることにより、画像データから立体物を認識することができる。ただし、距離データを用いることにより、立体物の位置情報を精度よく認識することができる。そのため、この位置情報を表示処理に反映させることで、表示における実際の走行状況の再現性を向上させることができる。   In addition, by configuring a stereo camera with a pair of cameras that output a color image, both a function as a camera that outputs a color image and a function as a sensor that outputs distance data by the image processing system in the subsequent stage are achieved. However, the present invention is not limited to this. In addition to this, by using a monocular camera that outputs a color image and a known sensor that can calculate distance data, such as a laser radar or a millimeter wave radar, the same function as in the present embodiment can be obtained. Further, if the color information of the three-dimensional object existing in front of the host vehicle is recognized and the symbol is displayed using the display color corresponding to the color information of the recognized three-dimensional object, a sensor that outputs distance data is provided. It is not always necessary to provide it. In this case, a three-dimensional object can be recognized from the image data by using a well-known image processing technique such as an optical flow or a method of detecting a color component different from the road surface. However, by using the distance data, the position information of the three-dimensional object can be accurately recognized. Therefore, the reproducibility of the actual driving situation in the display can be improved by reflecting this position information in the display process.

また、認識部12は、対象物の認識結果に基づいて、ドライバーへの警報が必要と判定した場合には、表示装置15やスピーカ16を動作させ、ドライバーに注意喚起を促すことができる。また、認識部12は、必要に応じて制御装置17を制御し、シフトダウン、ブレーキコントロールなどの車両制御を行ってもよい。   Further, when the recognition unit 12 determines that an alarm to the driver is necessary based on the recognition result of the object, the recognition unit 12 can operate the display device 15 or the speaker 16 to prompt the driver to call attention. Moreover, the recognition part 12 may control the control apparatus 17 as needed, and may perform vehicle control, such as downshift and brake control.

本実施形態にかかる情報表示装置の全体構成を示すブロック図The block diagram which shows the whole structure of the information display apparatus concerning this embodiment 本実施形態にかかる情報表示処理の手順を示したフローチャートThe flowchart which showed the procedure of the information display process concerning this embodiment 表示装置の表示状態を示す説明図Explanatory drawing which shows the display state of a display apparatus 前方の走行状況を示した模式図Schematic diagram showing the driving situation ahead

符号の説明Explanation of symbols

1 情報表示装置
2,3 カメラ
4,5 A/Dコンバータ
6 画像補正部
7 ステレオ画像処理部
8 融合処理部
9 画像データメモリ
10 距離データメモリ
11 マイクロコンピュータ
12 認識部
13 制御部
14 ナビゲーションシステム
15 表示装置
16 スピーカ
17 制御装置
DESCRIPTION OF SYMBOLS 1 Information display apparatus 2,3 Camera 4,5 A / D converter 6 Image correction part 7 Stereo image processing part 8 Fusion processing part 9 Image data memory 10 Distance data memory 11 Microcomputer 12 Recognition part 13 Control part 14 Navigation system 15 Display Device 16 Speaker 17 Control device

Claims (9)

情報表示装置において、
前記自車両前方の景色を撮像することにより、カラー画像を出力するカメラと、
前記自車両の走行に応じたナビゲーション情報を出力するナビゲーションシステムと、
前記出力されたカラー画像に基づいて、前記自車両前方に存在する対象物を認識するとともに、当該認識された対象物の色情報を出力する認識部と、
情報を表示する表示装置と、
前記認識された対象物を示すシンボルを、前記出力されたナビゲーション情報に重ねて表示するように前記表示装置を制御するとともに、前記出力された対象物の色情報に対応する表示カラーを用いて前記シンボルを表示するように前記表示装置を制御する制御部と
を有することを特徴とする情報表示装置。
In the information display device,
A camera that outputs a color image by imaging the scenery in front of the host vehicle;
A navigation system that outputs navigation information according to the travel of the host vehicle;
Recognizing an object existing ahead of the host vehicle based on the output color image, and a recognition unit that outputs color information of the recognized object;
A display device for displaying information;
The display device is controlled to display a symbol indicating the recognized object superimposed on the output navigation information, and the display color corresponding to the color information of the output object is used to control the display device. And a control unit that controls the display device to display symbols.
前記自車両前方の距離の二次元的な分布を示す距離データを出力するセンサをさらに有し、
前記認識部は、前記距離データに基づいて、前記対象物の位置を認識し、
前記制御部は、前記認識部により認識された前記対象物の位置に基づいて、実空間における前記対象物の位置に対応させて前記シンボルを表示するように前記表示装置を制御することを特徴とする請求項1に記載された情報表示装置。
A sensor that outputs distance data indicating a two-dimensional distribution of the distance ahead of the vehicle;
The recognizing unit recognizes the position of the object based on the distance data;
The control unit controls the display device to display the symbol corresponding to the position of the object in real space based on the position of the object recognized by the recognition unit. The information display device according to claim 1.
前記カメラを第1のカメラとし、前記自車両前方の景色を撮像することにより、カラー画像を出力し、かつ、前記第1のカメラと協働することによってステレオカメラとして機能する第2のカメラをさらに有し、
前記センサは、前記第1のカメラから出力されるカラー画像と、前記第2のカメラから出力されるカラー画像とに基づき、ステレオマッチングによって、前記距離データを出力することを特徴とする請求項2に記載された情報表示装置。
A second camera functioning as a stereo camera by outputting a color image by imaging the scenery in front of the host vehicle and cooperating with the first camera. In addition,
3. The sensor outputs the distance data by stereo matching based on a color image output from the first camera and a color image output from the second camera. Information display device described in 1.
前記認識部は、前記出力された対象物の色情報が、前記対象物の実際の色とは異なるような走行状況であると判断した場合には、経時的に前に出力された前記対象物の色情報に基づいて、前記対象物の色情報を特定し、
前記制御部は、前記特定された色情報に対応する表示カラーを用いて前記シンボルを表示するように前記表示装置を制御することを特徴とする請求項1から3のいずれかに記載された情報表示装置。
When the recognition unit determines that the output color information of the target object is different from the actual color of the target object, the target object output before time Based on the color information of the object, the color information of the object is specified,
4. The information according to claim 1, wherein the control unit controls the display device to display the symbol using a display color corresponding to the specified color information. 5. Display device.
前記制御部は、前記認識部から色情報が出力されていない対象物について、当該対象物を示す前記シンボルを予め設定された所定の表示カラーを用いて表示するように前記表示装置を制御することを特徴とする請求項1から4のいずれかに記載された情報表示装置。   The control unit controls the display device to display the symbol indicating the target object using a predetermined display color for the target object for which color information is not output from the recognition unit. The information display device according to claim 1, wherein: 情報表示方法において、
コンピュータが、自車両前方の景色が撮像されたカラー画像に基づいて、前記自車両前方に存在する対象物を認識するとともに、当該認識された対象物の色情報を生成する第1のステップと、
前記コンピュータが、自車両の走行に応じたナビゲーション情報を取得する第2のステップと、
前記コンピュータが、前記認識された対象物を示すシンボルを、前記ナビゲーション情報に重ねて表示するように表示装置を制御するとともに、前記生成された対象物の色情報に対応する表示カラーを用いて前記シンボルを表示するように前記表示装置を制御する第3のステップと
を有することを特徴とする情報表示方法。
In the information display method,
A first step in which a computer recognizes an object existing ahead of the host vehicle based on a color image obtained by capturing a scene in front of the host vehicle, and generates color information of the recognized object;
A second step in which the computer acquires navigation information according to the travel of the host vehicle;
The computer controls a display device to display a symbol indicating the recognized object superimposed on the navigation information, and uses a display color corresponding to the color information of the generated object. And a third step of controlling the display device to display symbols.
前記自車両前方の距離の二次元的な分布を示す距離データに基づいて、前記対象物の位置を認識する第4のステップをさらに有し、
前記第3のステップは、前記認識された対象物の位置に基づいて、実空間における前記対象物の位置に対応させて前記シンボルを表示するように前記表示装置を制御するステップを含むことを特徴とする請求項6に記載された情報表示方法。
A fourth step of recognizing the position of the object based on distance data indicating a two-dimensional distribution of the distance ahead of the host vehicle;
The third step includes a step of controlling the display device to display the symbol corresponding to the position of the object in real space based on the position of the recognized object. The information display method according to claim 6.
前記第1のステップは、前記生成された対象物の色情報が、前記対象物の実際の色とは異なるような走行状況であると判断した場合には、経時的に前に生成された前記対象物の色情報に基づいて、前記対象物の色情報を特定するステップを含み、
前記第3のステップは、前記特定された色情報に対応する表示カラーを用いて前記シンボルを表示するように前記表示装置を制御するステップであることを特徴とする請求項6または7に記載された情報表示方法。
In the first step, when it is determined that the color information of the generated object is a traveling situation that is different from the actual color of the object, the first information generated before Identifying the color information of the object based on the color information of the object,
8. The method according to claim 6, wherein the third step is a step of controlling the display device to display the symbol using a display color corresponding to the specified color information. Information display method.
前記第3のステップは、前記色情報が生成されていない対象物について、当該対象物を示す前記シンボルを予め設定された所定の表示カラーを用いて表示するように前記表示装置を制御するステップであることを特徴とする請求項6から8のいずれかに記載された情報表示方法。   The third step is a step of controlling the display device so as to display the symbol indicating the target object using a predetermined display color for the target object for which the color information is not generated. 9. The information display method according to claim 6, wherein the information display method is provided.
JP2003357205A 2003-10-17 2003-10-17 Information display device and information display method Expired - Fee Related JP4398216B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2003357205A JP4398216B2 (en) 2003-10-17 2003-10-17 Information display device and information display method
US10/965,126 US7356408B2 (en) 2003-10-17 2004-10-14 Information display apparatus and information display method
DE602004011164T DE602004011164T2 (en) 2003-10-17 2004-10-15 Device and method for displaying information
EP04024625A EP1524638B9 (en) 2003-10-17 2004-10-15 Information display apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003357205A JP4398216B2 (en) 2003-10-17 2003-10-17 Information display device and information display method

Publications (2)

Publication Number Publication Date
JP2005123914A true JP2005123914A (en) 2005-05-12
JP4398216B2 JP4398216B2 (en) 2010-01-13

Family

ID=34614161

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003357205A Expired - Fee Related JP4398216B2 (en) 2003-10-17 2003-10-17 Information display device and information display method

Country Status (1)

Country Link
JP (1) JP4398216B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010105443A (en) * 2008-10-28 2010-05-13 Denso Corp Visual assistive device
JP2010234857A (en) * 2009-03-30 2010-10-21 Denso Corp Display device for vehicle
JP2014507906A (en) * 2011-02-23 2014-03-27 モビクリップ Device and method for managing the position of a focal plane in a stereoscopic scene
JP2014083921A (en) * 2012-10-22 2014-05-12 Denso Corp Display device
JP2017109614A (en) * 2015-12-16 2017-06-22 株式会社デンソー Headup display device
CN113950432A (en) * 2019-06-11 2022-01-18 株式会社小糸制作所 Head-up display device and head-up display system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010105443A (en) * 2008-10-28 2010-05-13 Denso Corp Visual assistive device
JP2010234857A (en) * 2009-03-30 2010-10-21 Denso Corp Display device for vehicle
JP2014507906A (en) * 2011-02-23 2014-03-27 モビクリップ Device and method for managing the position of a focal plane in a stereoscopic scene
JP2014083921A (en) * 2012-10-22 2014-05-12 Denso Corp Display device
JP2017109614A (en) * 2015-12-16 2017-06-22 株式会社デンソー Headup display device
CN113950432A (en) * 2019-06-11 2022-01-18 株式会社小糸制作所 Head-up display device and head-up display system

Also Published As

Publication number Publication date
JP4398216B2 (en) 2010-01-13

Similar Documents

Publication Publication Date Title
US8036823B2 (en) Navigation system
US8305431B2 (en) Device intended to support the driving of a motor vehicle comprising a system capable of capturing stereoscopic images
EP1524638B9 (en) Information display apparatus and method
JP5127182B2 (en) Object detection device
JP5591730B2 (en) Environment recognition device
WO2009087716A1 (en) Image transformation method, image display method, image transformation apparatus and image display apparatus
JP2002319091A (en) Device for recognizing following vehicle
JP4893212B2 (en) Perimeter monitoring device
JP5516998B2 (en) Image generation device
JP2007198962A (en) Guidance display device for vehicle
KR20200126365A (en) Surround view system with adjusted projection plane
JP2008128827A (en) Navigation device, navigation method, and program thereof
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
JP5188429B2 (en) Environment recognition device
US8170284B2 (en) Apparatus and method for displaying image of view in front of vehicle
JP5825713B2 (en) Dangerous scene reproduction device for vehicles
JP2004265396A (en) Image forming system and image forming method
JP2005038225A (en) Lane follow-up device
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP2014106739A (en) In-vehicle image processing device
JP2000293693A (en) Obstacle detecting method and device
JP4398216B2 (en) Information display device and information display method
JPH0981734A (en) Image processor
JP2007256048A (en) Navigation system
JP2019128153A (en) Distance calculation device and vehicle control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090928

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091022

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4398216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121030

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131030

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees