JP2007172541A - Driving support device - Google Patents

Driving support device Download PDF

Info

Publication number
JP2007172541A
JP2007172541A JP2005372895A JP2005372895A JP2007172541A JP 2007172541 A JP2007172541 A JP 2007172541A JP 2005372895 A JP2005372895 A JP 2005372895A JP 2005372895 A JP2005372895 A JP 2005372895A JP 2007172541 A JP2007172541 A JP 2007172541A
Authority
JP
Japan
Prior art keywords
image
vehicle
information
environment
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005372895A
Other languages
Japanese (ja)
Inventor
Takashi Inoue
貴司 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005372895A priority Critical patent/JP2007172541A/en
Publication of JP2007172541A publication Critical patent/JP2007172541A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To effectively notify a driver of information on an object that cannot be directly visually recognized or hardly visually recognized by the driver. <P>SOLUTION: This driving support device displaying environment information showing peripheral environment of a vehicle to support the driver of the vehicle from a sight aspect has: an environment image generation means generating an environment image three-dimensionally expressing the peripheral environment of the vehicle; an object information acquisition means acquiring the object information related to the object present around the vehicle; an object image generation means generating an object image expressing the object around the vehicle; a composite image generation means drawing the object image inside the three-dimensional peripheral environment drawn in the environment image on the basis of position information included in the acquired object information; and an output means outputting a composite image generated by the composite image generation means. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、車両の周辺環境を表す環境情報を表示して車両の運転者を視覚面から支援する運転支援装置に関する。   The present invention relates to a driving support apparatus that displays environmental information representing a surrounding environment of a vehicle and assists the driver of the vehicle from a visual aspect.

従来から、前方に存在する障害物の自車両に対する相対的な位置関係を検出する障害物検出手段と、前記自車両のドライバの注視点を検出する注視点検出手段と、前記注視点検出手段によって検出された注視点を基準とする所定範囲を設定する範囲設定手段と、前方に存在する障害物について前記障害物検出手段によって位置関係が検出されているときに、その障害物が、前記範囲設定手段によって設定されている所定範囲内に相当する位置に存在するか否かに応じて、その障害物に関する情報提供の態様を変更する情報提供手段と、を備えることを特徴とする車両用情報提供装置が知られている(例えば、特許文献1参照)。
特開2001−357498号公報
Conventionally, by obstacle detection means for detecting the relative positional relationship of an obstacle present ahead with respect to the own vehicle, gazing point detection means for detecting the gazing point of the driver of the own vehicle, and the gazing point detection means Range setting means for setting a predetermined range based on the detected gazing point, and when the positional relationship is detected by the obstacle detection means for an obstacle existing ahead, the obstacle is set in the range. Information providing means for changing the manner of providing information related to the obstacle according to whether or not the vehicle is located at a position corresponding to a predetermined range set by the means. An apparatus is known (see, for example, Patent Document 1).
JP 2001-357498 A

ところで、カメラや通信等を介して得られる車両周囲の環境情報を用いて、車両の運転者を視覚面から支援する運転支援装置において、特に運転者にその存在を知らせる必要性の高い物体は、運転者の注視点を中心とした視界の範囲外に存在するような物体である。しかしながら、このような物体は、例えば見通しの悪い交差点における通行車両や歩行者といったように、運転者がその注視点を変更しても直接的に視認することができない又は視認することが困難な物体が多い。従って、かかる物体が検出された場合には、当該物体の存在と共にその位置を情報として通知するのが有効である。   By the way, in the driving support device that supports the driver of the vehicle from the visual surface by using the environmental information of the vehicle surrounding obtained through a camera, communication, etc., an object that is particularly necessary to inform the driver of its existence is It is an object that exists outside the field of view centered on the driver's gaze point. However, such an object cannot be directly visually recognized or difficult to visually recognize even if the driver changes its point of sight, such as a passing vehicle or a pedestrian at an intersection with poor visibility. There are many. Therefore, when such an object is detected, it is effective to notify the position of the object along with its presence as information.

この点、上述の従来技術には、歩行者の存在を知らせるガイダンス画面を表示する構成も開示されているが、このようなガイダンス画面のみでは、歩行者が存在するという情報以上の情報(例えば、周囲環境のどの位置に歩行者が存在するのか)を知ることが困難である。   In this regard, the above-described conventional technology also discloses a configuration for displaying a guidance screen that informs the presence of a pedestrian, but only such guidance screen is more information than the information that a pedestrian exists (for example, It is difficult to know where the pedestrian is in the surrounding environment.

そこで、本発明は、運転者が直接的に視認することができない又は視認することが困難な物体の情報を効果的に運転者に知らせることができる運転支援装置の提供を目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a driving support device that can effectively inform a driver of information on an object that cannot be directly viewed by a driver or is difficult to view.

上記目的を達成するため、第1の発明は、車両の周辺環境を表す環境情報を表示して車両の運転者を視覚面から支援する運転支援装置において、
車両の周辺環境を3次元で表現する環境画像を生成する環境画像生成手段と、
車両の周辺に存在する物体に関する少なくとも位置情報を含む物体情報を取得する物体情報取得手段と、
車両の周辺に存在する物体を表現する物体画像を生成する物体画像生成手段と、
前記取得される物体の位置情報に基づいて、前記環境画像に描かれる3次元の周辺環境内に前記物体画像を描画する合成画像生成手段と、
前記合成画像生成手段により生成される合成画像を出力する出力手段と、を備えることを特徴とする。
In order to achieve the above object, a first invention provides a driving support device that displays environmental information representing a surrounding environment of a vehicle and assists the driver of the vehicle from a visual aspect.
Environmental image generation means for generating an environmental image representing the surrounding environment of the vehicle in three dimensions;
Object information acquisition means for acquiring object information including at least position information regarding an object existing around the vehicle;
An object image generating means for generating an object image representing an object existing around the vehicle;
Synthetic image generation means for drawing the object image in a three-dimensional surrounding environment drawn on the environment image based on the acquired position information of the object;
Output means for outputting a composite image generated by the composite image generation means.

第2の発明は、第1の発明に係る運転支援装置において、
前記環境画像に描かれる周辺環境を表す3次元物体のうち、前記物体よりも車両に近い側に位置する3次元物体の画像の少なくとも一部は、前記物体画像が見えるように加工されることを特徴とする。
A second aspect of the invention is the driving support apparatus according to the first aspect of the invention,
Among the three-dimensional objects representing the surrounding environment depicted in the environment image, at least a part of the image of the three-dimensional object located closer to the vehicle than the object is processed so that the object image can be seen. Features.

第3の発明は、第2の発明に係る運転支援装置において、
前記3次元物体の画像の前記少なくとも一部は、前記物体画像が透過して見えるように、透明又は半透明に描画されることを特徴とする。
A third aspect of the invention is the driving support apparatus according to the second aspect of the invention,
The at least part of the image of the three-dimensional object is drawn transparently or translucently so that the object image can be seen through.

第4の発明は、第1〜3の何れかの発明に係る運転支援装置において、
ナビゲーション装置で用いられる地図データを格納する記憶部が接続され、
前記環境画像生成手段は、前記地図データに基づいて前記環境画像を生成することを特徴とする。
4th invention is the driving assistance device which concerns on any one of 1st-3rd invention,
A storage unit for storing map data used in the navigation device is connected,
The environment image generation means generates the environment image based on the map data.

第5の発明は、第1〜3の何れかの発明に係る運転支援装置において、
車両の周辺環境を撮影するカメラが接続され、
前記環境画像生成手段は、前記カメラにより取得される映像データに基づいて前記環境画像を生成することを特徴とする。
A fifth aspect of the present invention is the driving support apparatus according to any one of the first to third aspects of the invention,
A camera that captures the surrounding environment of the vehicle is connected,
The environment image generation means generates the environment image based on video data acquired by the camera.

第6の発明は、第1〜5の何れかの発明に係る運転支援装置において、
前記物体情報取得手段により取得される物体情報に基づいて、該物体の属性を判断する物体属性判断手段を備え、
前記物体画像生成手段は、前記物体属性判断手段により判断される物体の属性に応じた物体画像を生成することを特徴とする。
6th invention is the driving assistance device which concerns on any invention of 1-5,
Based on object information acquired by the object information acquisition means, comprising object attribute determination means for determining the attribute of the object,
The object image generation means generates an object image corresponding to the attribute of the object determined by the object attribute determination means.

第7の発明は、第1〜6の何れかの発明に係る運転支援装置において、
前記物体情報取得手段により取得される物体情報に基づいて、該物体の車両に対する危険度レベルを判断し、該判断した危険度レベルに基づいて、該物体の物体画像の前記合成画像における描画態様を決定する表示制御手段を備えることを特徴とする。
A seventh aspect of the present invention is the driving support apparatus according to any one of the first to sixth aspects,
Based on the object information acquired by the object information acquisition means, the risk level of the object with respect to the vehicle is determined, and based on the determined risk level, the drawing mode of the object image of the object in the composite image is changed. The display control means for determining is provided.

第8の発明は、第6の発明に係る運転支援装置において、
前記物体情報取得手段により取得される物体情報を、物体の属性に応じた分類で随時格納していくデータベースを備え、
前記物体属性判断手段は、前記物体情報取得手段により取得される物体情報と、前記データベース内のデータとの対応関係に基づいて、前記物体情報取得手段により取得される物体情報に係る物体の属性を判断することを特徴とする。
The eighth invention is the driving support apparatus according to the sixth invention,
A database that stores object information acquired by the object information acquisition means at any time in a classification according to the attribute of the object;
The object attribute determination unit is configured to determine an object attribute related to the object information acquired by the object information acquisition unit based on a correspondence relationship between the object information acquired by the object information acquisition unit and data in the database. It is characterized by judging.

本発明によれば、運転者が直接的に視認することができない又は視認することが困難な物体の情報を効果的に運転者に知らせることができる運転支援装置を得ることができる。   ADVANTAGE OF THE INVENTION According to this invention, the driving assistance apparatus which can notify a driver | operator effectively the information of the object which a driver cannot visually recognize directly or it is difficult to visually recognize can be obtained.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明による運転支援装置の一実施例を示すシステム構成図である。運転支援装置は、車両に搭載され、以下の各機能を実現するハードウェア及びソフトウェアにより実現される。   FIG. 1 is a system configuration diagram showing an embodiment of a driving support apparatus according to the present invention. The driving support device is mounted on a vehicle and is realized by hardware and software that realize the following functions.

運転支援装置は、アンテナ及び通信回路(増幅器、フィルタや復調器等)を備える通信モジュール10を備える。通信モジュール10は、通信を介して外部から外部情報を受信する。具体的には、他車との車車間通信により、当該他車の走行情報(位置や速度等)や、当該他車が取得したその他の他車の同走行情報等が取得される。車車間通信は、無線周波数帯の電波(例えば、60GHz帯のミリ波)を送受信することにより実現されてよい。通信方式には、CDMAやOFDM等の適切な伝送方式が採用されてよい。通信対象は、特に示さない限り、複数の車両(二輪車を含む)のみならず、人(例えば、歩行者)、自転車に乗る人、車椅子に乗る人等が含まれる。車両以外の場合、人が持つ通信端末(例えば携帯電話)との通信により、当該人の情報(位置や速度等)が取得される。   The driving support apparatus includes a communication module 10 including an antenna and a communication circuit (amplifier, filter, demodulator, etc.). The communication module 10 receives external information from the outside through communication. Specifically, travel information (position, speed, etc.) of the other vehicle, travel information of the other vehicle acquired by the other vehicle, and the like are acquired by inter-vehicle communication with the other vehicle. Vehicle-to-vehicle communication may be realized by transmitting and receiving radio waves in a radio frequency band (for example, 60 GHz band millimeter waves). An appropriate transmission method such as CDMA or OFDM may be adopted as the communication method. Unless otherwise indicated, the communication target includes not only a plurality of vehicles (including two-wheeled vehicles) but also people (for example, pedestrians), bicycle riders, wheelchair riders, and the like. In a case other than a vehicle, information (position, speed, etc.) of the person is acquired through communication with a communication terminal (for example, a mobile phone) held by the person.

また、運転支援装置においては、信号機等に設けられる路側のインフラ設備(例えばビーコン送信機)との路車間通信により、同様の他車の走行情報や歩行者の情報が取得される。また、運転支援装置においては、センタ(外部情報提供設備)との広域通信(無線通信のみならず、FM放送等による放送電波の受信を含む)により、同様の他車の走行情報や歩行者の情報が取得される。尚、情報取得源は、以上の全てである必要はなく、何れか1つであってもよい。通信モジュール10の復調器及びコード解読部では、上述の如く外部から受信される受信信号が復号され、受信信号に含まれる情報が解読される。   Further, in the driving support device, similar driving information and pedestrian information of other vehicles are acquired by road-to-vehicle communication with roadside infrastructure equipment (for example, a beacon transmitter) provided in a traffic light or the like. In addition, in the driving support device, by using wide area communication (including not only wireless communication but also reception of broadcast radio waves by FM broadcasting etc.) with the center (external information providing facility) Information is acquired. The information acquisition source need not be all of the above, and may be any one. In the demodulator and code decoding unit of the communication module 10, the received signal received from the outside is decoded as described above, and the information included in the received signal is decoded.

尚、車車間通信を介して送受される信号のデータ構造は、好ましくは、ベーシック・データ部と、それにそれぞれ先行及び後続するヘッダー部及びフッター部とを有する。ベーシック・データ部には、必須情報としてIDコードが含められる。IDコードは、車両毎に付与された固有のコードであり、例えばIPアドレスであってよい。また、人や自転車等の場合のIDコードは、当該人が所持している携帯機若しくは自転車等に備え付けられる携帯機に付与された固有コードであってよい。ベーシック・データ部には、好ましくは、自車(受信する側にとっては他車)の位置情報、速度情報及び車種情報が含められる。自車の位置情報は、現時点の自車の位置を示す情報であり、GPS信号に基づいて測位される。測位方法は、単独測位や相対測位(干渉測位を含む。)等の如何なる方法であってもよいが、好ましくは精度の高い相対測位が用いられる。この際、自車の位置情報は、車速センサやジャイロセンサ等の各種センサの出力や、ビーコン受信機及びFM多重受信機を介して受信される各種情報に基づいて補正されてよい。また、自車の位置情報は、公知のマップマッチング技術により、地図データベース内の地図情報を用いて適宜補正されてよい。人や自転車等の場合の位置情報は、ベーシック・データ部に含まれなくてもよい。但し、人や自転車等がGPS受信機を備えている場合(例えば、当該人がGPS受信機を内蔵する携帯電話を所持している場合)には、ベーシック・データ部に位置情報を含めることは可能である。速度情報は、現時点の自車の速度ベクトルを表す情報であり、車速センサ等に基づいて導出される。車種情報は、自車の車種を受信側が判別可能なコードであり、例えば、四輪車にはナンバープレートの車種番号であってよく、二輪車の場合には排気量別に割り当てられた特定の英数字であってよく、人や自転車等の場合にも特定の英数字であってよい。   The data structure of a signal transmitted / received via inter-vehicle communication preferably includes a basic data portion, and a header portion and a footer portion that precede and follow, respectively. The basic data portion includes an ID code as essential information. The ID code is a unique code assigned to each vehicle, and may be, for example, an IP address. Further, the ID code in the case of a person, a bicycle, or the like may be a unique code assigned to a portable device possessed by the person or a portable device provided to the bicycle. The basic data section preferably includes position information, speed information, and vehicle type information of the own vehicle (other vehicle for the receiving side). The position information of the own vehicle is information indicating the current position of the own vehicle, and is measured based on the GPS signal. The positioning method may be any method such as independent positioning or relative positioning (including interference positioning), but preferably relative positioning with high accuracy is used. At this time, the position information of the own vehicle may be corrected based on outputs of various sensors such as a vehicle speed sensor and a gyro sensor, and various information received via the beacon receiver and the FM multiplex receiver. Further, the position information of the own vehicle may be appropriately corrected using the map information in the map database by a known map matching technique. The position information in the case of a person or a bicycle may not be included in the basic data part. However, if a person or bicycle is equipped with a GPS receiver (for example, if the person has a mobile phone with a built-in GPS receiver), location information may not be included in the basic data section. Is possible. The speed information is information representing the current speed vector of the host vehicle, and is derived based on a vehicle speed sensor or the like. The vehicle type information is a code that allows the receiver to determine the vehicle type of the vehicle. For example, for a four-wheeled vehicle, the model number of the license plate may be used. It may be a specific alphanumeric character even in the case of a person or a bicycle.

通信モジュール10には、適切なインターフェースを介して情報処理装置200が接続される。情報処理装置200には、車両の周辺環境を表す環境情報を表示するための情報出力装置300が接続される。情報出力装置300は、例えば車両のインストルメントパネルに設けられるディスプレイであってよい。或いは、情報出力装置300は、車両前方の風景を撮像する赤外線カメラにより得られた撮像画像を車両のフロントガラス上に表示するヘッドアップディスプレイであってもよい。   The information processing apparatus 200 is connected to the communication module 10 via an appropriate interface. An information output device 300 for displaying environmental information representing the surrounding environment of the vehicle is connected to the information processing device 200. The information output device 300 may be a display provided on an instrument panel of a vehicle, for example. Alternatively, the information output device 300 may be a head-up display that displays a captured image obtained by an infrared camera that captures a landscape in front of the vehicle on a windshield of the vehicle.

情報処理装置200は、マイクロコンピューターを中心に構成され、メイン処理を行うCPU,各種メモリ等を備え、その他、描画処理や3Dオーサリング処理を行う描画エンジン(描画IC)や画像処理回路(例えばFPGA(Field Programmable Gate Array)を有してもよい。   The information processing apparatus 200 is mainly composed of a microcomputer, and includes a CPU that performs main processing, various memories, and the like. In addition, a drawing engine (drawing IC) that performs drawing processing and 3D authoring processing and an image processing circuit (for example, FPGA ( Field Programmable Gate Array).

情報処理装置200は、その主要な構成要素として、物体検知/物体情報生成部22と、物体表示判断部23と、表示管理部24と、3Dオーサリング判断部26、3Dオーサリング部28、3D地図描画部30、物体画像生成部32、3Dレイアウト決定部34、及び、合成描画部36を備える。   The information processing apparatus 200 includes, as main components, an object detection / object information generation unit 22, an object display determination unit 23, a display management unit 24, a 3D authoring determination unit 26, a 3D authoring unit 28, and a 3D map drawing. A unit 30, an object image generation unit 32, a 3D layout determination unit 34, and a composite drawing unit 36.

物体検知/物体情報生成部22は、通信モジュール10から供給される外部情報に基づいて、他車や歩行者等の移動物の存在を検知する共に、当該物体に関する情報(以下、「物体情報」という。)を生成する。例えば、車車間通信により他車との通信が確立された場合には、当該他車からの通信データに含まれる走行情報(位置や速度等)に基づいて、物体情報が生成される。物体情報には、好ましくは、所定のデータフォーマットで形成され、例えば、物体の属性に関する情報が含められる。物体の属性は、例えば物体の名称、位置、速度、形状等であり、属性は可変であってもよい(必要に応じて追加・変更されてもよい)。物体の名称とは、車、人のような大きな区分けであってよく、或いは、車の場合、車種(二輪車、トラック等の大型車、緊急車両等の区別)が含まれてよい。   The object detection / object information generation unit 22 detects the presence of a moving object such as another vehicle or a pedestrian based on the external information supplied from the communication module 10, and information related to the object (hereinafter “object information”). Is generated). For example, when communication with another vehicle is established by inter-vehicle communication, object information is generated based on travel information (position, speed, etc.) included in communication data from the other vehicle. The object information is preferably formed in a predetermined data format and includes, for example, information related to the attribute of the object. The attribute of the object is, for example, the name, position, speed, shape, etc. of the object, and the attribute may be variable (may be added / changed as necessary). The name of the object may be a large division such as a car or a person, or in the case of a car, may include a vehicle type (a distinction between a motorcycle, a large vehicle such as a truck, an emergency vehicle, etc.).

物体表示判断部23は、物体検知/物体情報生成部22から供給される物体情報に基づいて、情報出力装置300で表示すべき物体(表示対象)を選別する。物体表示判断部23は、例えば、自車と交錯の可能性のある物体を選択する。ここで、交錯の可能性のある車両の具体例を挙げると、例えば、自車に対して同じ車線を同じ方向に走行中の車両、自車が交差点を直進する場合の対向車両、自車の走行道路と立体交差した道路を走行中の車両、道路以外の場所を走行中の(例えば道路沿いの駐車場内を徐行中の)車両、及び、交差点から遠ざかって行っている車両などは表示対象外となり、自車と同様、交差点に向かって進行中の車両であって、自車との速度ベクトルの内積が0又は0に近い車両が表示対象となる。尚、本明細書中において、交差点とは、信号機の存在しない又は機能していない交差点であり、T字の交差点や、周辺施設(例えば店の駐車場)から道路への合流点を含む。   The object display determination unit 23 selects an object (display target) to be displayed by the information output device 300 based on the object information supplied from the object detection / object information generation unit 22. The object display determination unit 23 selects, for example, an object that may intersect with the own vehicle. Here, specific examples of vehicles with the possibility of crossing include, for example, a vehicle that is traveling in the same direction in the same lane with respect to the own vehicle, an oncoming vehicle when the own vehicle goes straight through an intersection, Vehicles traveling on a road that intersects with the traveling road, vehicles traveling on a place other than the road (for example, slowly traveling in a parking lot along the road), and vehicles moving away from the intersection are not displayed. As in the case of the own vehicle, a vehicle that is proceeding toward the intersection and the inner product of the velocity vectors with the own vehicle is 0 or close to 0 is displayed. In this specification, an intersection is an intersection where a traffic light does not exist or does not function, and includes a T-shaped intersection and a junction from a peripheral facility (for example, a parking lot of a store) to a road.

物体表示判断部23は、更に、自車と交錯の可能性のある物体の危険度レベル(緊急度レベル)を評価し、自車と交錯の可能性のある物体のうち、危険度レベルが所定レベルを超える物体を表示対象として選別してもよい。例えば、物体表示判断部23は、物体からの通信データに含まれる物体の位置情報の履歴、及び、自車の位置情報の履歴に基づいて、物体と自車との衝突の可能性を危険度レベルとして評価する。この危険度レベルは、物体の交差点に到達するまでの推定時間と、自車の交差点に到達するまでの推定時間との差異に応じて決定され、当該差異が小さいほど高く設定され、当該推定時間が少ないほど高く設定される。従って、例えば自車の交差点に到達するまでの推定時間が非常に短い(即ち、交差点の直前)場合には、危険度レベルは最も高い値に設定される。尚、物体の危険度レベルに関する情報は、車車間通信を介して得られる外部情報に含まれたもの(他車両側で判断された危険度レベル)が利用されてもよい。   The object display determination unit 23 further evaluates the risk level (emergency level) of an object that may be crossed with the host vehicle, and the risk level is predetermined among the objects that may cross the host vehicle. An object exceeding the level may be selected as a display target. For example, the object display determination unit 23 determines the possibility of a collision between the object and the own vehicle based on the history of the position information of the object included in the communication data from the object and the history of the position information of the own vehicle. Evaluate as a level. This risk level is determined according to the difference between the estimated time to reach the intersection of the object and the estimated time to reach the intersection of the vehicle, and is set higher as the difference is smaller. The lower the number, the higher the setting. Therefore, for example, when the estimated time until the vehicle reaches the intersection is very short (that is, immediately before the intersection), the risk level is set to the highest value. Note that the information related to the risk level of an object may be information (risk level determined on the other vehicle side) included in external information obtained through inter-vehicle communication.

或いは、物体表示判断部23は、自車と交錯の可能性のある物体のうち(或いは危険度レベルが所定レベルを超える物体のうち)、運転者による直接的な視認が困難な物体を表示対象として選別してもよい。これは、運転者による直接的な視認が困難な物体であるほど、当該物体に係る物体情報を情報出力装置300を介して出力する価値が高いためである。例えば、交差点手前に林立する建物の存在により、交錯の可能性のある物体が運転者からは見えない位置に存在する場合、当該物体が表示対象として選別されてよい。かかる車両の存在は、例えば上述の車車間通信や路車間通信等を介して検出可能である。   Alternatively, the object display determination unit 23 displays objects that are difficult to be directly recognized by the driver among objects that may be mixed with the own vehicle (or objects whose danger level exceeds a predetermined level). May be selected as This is because the object that is more difficult for the driver to see directly is more valuable to output the object information related to the object via the information output device 300. For example, when an object with a possibility of crossing exists at a position that cannot be seen by the driver due to the presence of a building standing before the intersection, the object may be selected as a display target. The presence of such a vehicle can be detected through, for example, the above-described vehicle-to-vehicle communication or road-to-vehicle communication.

或いは、物体表示判断部23は、現在の自車の速度、運転者の嗜好や好み、運転者の心理状態、注意力状態や運転技能等、他の要因を考慮して、検知した物体を情報出力装置300で表示すべきか否かを判断してもよい。運転者の嗜好や好み、運転技能等は、図示しないデータベースを参照して判断されてよい。運転者の心理状態、注意力状態等は、図示しない各種センサ(心電や脈拍等を計測するセンサ)や、室内カメラにより運転者の表情等を解析することにより判断されてよい。   Alternatively, the object display determination unit 23 may detect the detected object in consideration of other factors such as the current vehicle speed, the driver's preference and preference, the driver's psychological state, the attention state, and the driving skill. It may be determined whether or not to display on the output device 300. A driver's preference and preference, driving skill, and the like may be determined with reference to a database (not shown). The driver's psychological state, attentional state, etc. may be determined by analyzing the driver's facial expression or the like with various sensors (sensors for measuring electrocardiogram, pulse, etc.) not shown, or an indoor camera.

物体表示判断部23は、表示対象として選別した物体(複数も可)の物体情報を表示管理部24に供給する。   The object display determination unit 23 supplies the object information of the object (or objects) selected as the display target to the display management unit 24.

表示管理部24は、当該物体情報を情報出力装置300で出力するときの出力態様全般について統括的に管理(指示)する。物体情報の出力態様としては、音声による出力、映像(画像)による出力、テキストによる出力等が含まれる。表示管理部24は、運転者の嗜好や好み(例えばテキスト表示を好みか否か等)、自車の状態(例えば現在の走行車線)、現在の情報出力装置300の状態(例えば音楽再生中、又は、ナビゲーション装置の地図表示出力中等)、上述の危険度レベル等のような各種状況等に応じて、適切な物体情報の出力態様を決定する。本実施例は、特に物体情報の映像(画像)による出力態様に関連するので、以下、物体情報の映像(画像)による出力態様が選択される場合について、説明をする。   The display management unit 24 comprehensively manages (instructs) the overall output mode when the object information is output by the information output device 300. Object information output modes include audio output, video (image) output, text output, and the like. The display management unit 24 selects the driver's preference and preference (for example, whether or not to prefer text display), the state of the own vehicle (for example, the current driving lane), and the current state of the information output device 300 (for example, during music playback, Alternatively, an appropriate output mode of object information is determined according to various situations such as the above-described risk level and the like. Since the present embodiment particularly relates to the output mode of the object information video (image), the case where the output mode of the object information video (image) is selected will be described below.

物体情報の表示態様には、物体を表現する画像ないし映像(以下、「物体画像」という)の表示態様、及び、運転者の視点から見た車両の周囲環境を3次元で表現する画像(以下、「環境画像」という)の表示態様を含む。   The display mode of the object information includes a display mode of an image or video (hereinafter referred to as “object image”) representing the object, and an image (hereinafter referred to as “three-dimensional”) representing the surrounding environment of the vehicle viewed from the viewpoint of the driver. , “Environment image”).

物体画像の表示態様は、物体の属性に応じて決定される。即ち、表示管理部24は、物体情報に基づいて、そこに含まれる物体の属性(物体の名称、位置、速度、形状等)をチェック(判断)し、物体の属性に応じた物体情報の表示態様を決定する。この際、表示管理部24は、好ましくは、物体データベース25を用いて、物体情報の表示態様を決定する。この場合、物体データベース25には、物体の属性に応じた物体情報の表示態様(物体画像の生成方法)に関する定義が格納されていてよい。物体情報の表示態様に関する定義としては、例えば表現(形状表示)、画面の特徴(スキン)等に関する定義であり、表現(形状表示)とは、半透明やシャドウ等の多彩な3D表示、スケーラブルな2D表示、空間特殊表現(フォグ、スペキュラー、アンチエイリアス)等を含む。物体画像の表示態様は、このような物体画像の表現に関するもの以外に、例えば物体画像の表示(出力)タイミングを含んでもよい。   The display mode of the object image is determined according to the attribute of the object. That is, the display management unit 24 checks (determines) the attributes (name, position, speed, shape, etc.) of the objects included in the object information based on the object information, and displays the object information according to the object attributes. The aspect is determined. At this time, the display management unit 24 preferably uses the object database 25 to determine the display mode of the object information. In this case, the object database 25 may store definitions relating to the display mode of object information (object image generation method) according to the object attributes. Definitions related to the display mode of object information include, for example, expressions (shape display), screen characteristics (skins), and the like. Expressions (shape display) include various 3D displays such as translucency and shadows, and scalable. Includes 2D display, spatial special expressions (fog, specular, anti-aliasing), etc. The display mode of the object image may include, for example, display (output) timing of the object image, in addition to the object image representation.

物体画像の表示態様は、物体の危険度レベル(交錯の可能性の高さ)のような種の物体の属性をも考慮して決定されてもよい。この場合、例えば危険度レベルが高い物体であるほど注意喚起力の高い表示態様(例えば形状を大きくしたり、強調表示する)が決定されてもよい。また、同様の観点から、物体画像の表示態様は、現在の自車の速度、運転者の嗜好や好み、運転者の心理状態、注意力状態や運転技能等、他の要因をも考慮して、決定されてもよい。この場合、例えば運転者の注意力が低いときには注意喚起力の高い表示態様が決定されてよい。   The display mode of the object image may be determined in consideration of an attribute of a certain type of object such as a risk level (high possibility of crossing) of the object. In this case, for example, a display mode (for example, the shape is enlarged or highlighted) having a higher alerting power may be determined for an object having a higher risk level. From the same viewpoint, the display mode of the object image also considers other factors such as the current speed of the vehicle, the driver's preference and preferences, the driver's psychological state, the attention state and driving skills. , May be determined. In this case, for example, when the driver's attention is low, a display mode with a high alerting power may be determined.

環境画像の表示態様は、運転者の視点や視線方向や現在の車両の周囲環境に応じて決定される。この場合、物体情報の表示態様と同様、所定のデータベース内には、物体画像の生成方法に関する定義として、周囲環境内に存在する道路や3次元物体の形状表示、道路や3次元物体の特徴(スキン)等に関する定義等の各種定義が用意されてもよい。尚、運転者の視点は、車両の諸元データ(運転者側のシート位置等)に対応して予め決定されてよく、運転者の視線方向は、車両進行方向に応じて変化してよい。   The display mode of the environmental image is determined according to the driver's viewpoint, line-of-sight direction, and the current surrounding environment of the vehicle. In this case, similar to the display mode of the object information, the definition of the object image generation method in the predetermined database includes the display of the shape of the road and the three-dimensional object existing in the surrounding environment, the characteristics of the road and the three-dimensional object ( Various definitions such as definitions relating to (skin) may be prepared. Note that the driver's viewpoint may be determined in advance corresponding to vehicle specification data (driver's seat position, etc.), and the driver's line-of-sight direction may change according to the vehicle traveling direction.

表示管理部24は、上述の如く決定した各画像の表示態様を、3Dオーサリング判断部26、物体画像生成部32及び3Dレイアウト決定部34に通知(指示)する。   The display management unit 24 notifies (instructs) the display mode of each image determined as described above to the 3D authoring determination unit 26, the object image generation unit 32, and the 3D layout determination unit 34.

3Dオーサリング判断部26は、指示された環境画像の描画態様に応じて、3Dオーサリング部28及び3D地図描画部30の何れを用いて環境画像の描画を行うかを判断する。簡易的には、指示された3次元表現の環境画像に対応する地図データが3D地図データベース31内に存在する場合には、3D地図描画部30に対して環境画像の描画指示を送信し、指示された3次元表現の環境画像に対応する地図データが3D地図データベース31内に存在しない場合には、3Dオーサリング部28に対して環境画像の描画指示を送信する。   The 3D authoring determination unit 26 determines which one of the 3D authoring unit 28 and the 3D map drawing unit 30 is used to draw the environment image according to the instructed drawing mode of the environment image. Briefly, when map data corresponding to the designated environment image of the three-dimensional representation exists in the 3D map database 31, an environment image drawing instruction is transmitted to the 3D map drawing unit 30, and the instruction is sent. If there is no map data corresponding to the three-dimensional representation of the environment image in the 3D map database 31, an environment image drawing instruction is transmitted to the 3D authoring unit.

3Dオーサリング部28は、車両前方を撮影するように車両に搭載されたカメラ50(例えばCCDカメラ)からの映像データに基づいて、表示管理部24からの描画態様の指示に従って、3次元表現の環境画像を生成する。即ち、3Dオーサリング部28は、カメラ50にて撮影された映像をグラフィックス化して、環境画像を生成する。例えば、カメラ50から供給される映像データの輪郭(例えば建物の輪郭)をエッジ処理により抽出し、抽出した輪郭を、車窓データベース29内に格納されているグラフィックス雛形(主に3D)とマッチングさせ、対応するグラフィックス雛形を選択し、選択したグラフィックス雛形に基づいて、環境画像を生成する。また、輪郭を抽出した建物のスキンを生成し、当該建物のスキンのテクスチャーを、車窓データベース29内に格納されているテクスチャーモデルとのテクスチャーマッピングにより生成する。尚、テクスチャーマッピングは、他の情報源(上述の外部情報)からの情報に基づいて実行されてもよい。このようにして3Dオーサリング部28にて生成された環境画像は、合成描画部36に供給される。   Based on video data from a camera 50 (for example, a CCD camera) mounted on the vehicle so as to photograph the front of the vehicle, the 3D authoring unit 28 performs a three-dimensional representation environment in accordance with a drawing mode instruction from the display management unit 24. Generate an image. That is, the 3D authoring unit 28 generates an environment image by converting the video captured by the camera 50 into graphics. For example, the contour of video data supplied from the camera 50 (for example, the contour of a building) is extracted by edge processing, and the extracted contour is matched with a graphics template (mainly 3D) stored in the car window database 29. A corresponding graphics template is selected, and an environment image is generated based on the selected graphics template. Further, the skin of the building from which the contour is extracted is generated, and the texture of the skin of the building is generated by texture mapping with the texture model stored in the vehicle window database 29. Texture mapping may be executed based on information from other information sources (external information described above). The environment image generated by the 3D authoring unit 28 in this way is supplied to the composite drawing unit 36.

3D地図描画部30は、3D地図データベース31内の地図データに基づいて、環境画像を生成する。尚、この処理については、既存のナビゲーション装置の描画処理と同様であってよい。このようにして3D地図描画部30にて生成された環境画像は、合成描画部36に供給される。   The 3D map drawing unit 30 generates an environment image based on the map data in the 3D map database 31. This process may be the same as the drawing process of an existing navigation device. The environment image generated by the 3D map drawing unit 30 in this way is supplied to the composite drawing unit 36.

物体画像生成部32は、表示管理部24からの描画態様の指示に従って、物体画像を生成する。簡易的には、物体画像生成部32は、物体データベース25に格納された形状モデルを用いて、表示管理部24から指示された描画態様で、物体画像を完成させる。例えば、物体データベース25には、物体の属性(より簡易的には車種のみ)に応じて用意された各種物体の形状モデルが格納されており、物体画像生成部32は、原則的に、物体の属性に応じた形状モデルにデフォルトのテクスチャーを付して、物体画像を完成させる。このとき、物体の危険度レベルが高い等の理由により表示管理部24から強調表示等の特別な描画態様が指示されている場合には、物体画像生成部32は、当該指示に従って、物体の属性に応じた形状モデルに注意喚起力の高いテクスチャーや色を付与したり、当該形状モデルの輪郭を強調したり点滅させてよい。このようにして物体画像生成部32にて生成された物体画像は、合成描画部36に供給される。   The object image generation unit 32 generates an object image in accordance with the drawing mode instruction from the display management unit 24. In brief, the object image generation unit 32 uses the shape model stored in the object database 25 to complete the object image in the drawing mode instructed from the display management unit 24. For example, the object database 25 stores shape models of various objects prepared according to the attributes of the object (more simply, only the vehicle type). The object model is completed by attaching a default texture to the shape model corresponding to the attribute. At this time, when a special drawing mode such as highlighting is instructed from the display management unit 24 due to the reason that the risk level of the object is high, the object image generation unit 32 follows the instruction to determine the attribute of the object. A texture or color having a high alerting power may be given to the shape model corresponding to the above, or the outline of the shape model may be emphasized or blinked. The object image generated by the object image generation unit 32 in this way is supplied to the composite drawing unit 36.

3Dレイアウト決定部34は、表示管理部24から指示された各画像の表示態様に応じて、物体画像生成部32から得られる物体画像と、3Dオーサリング部28又は3D地図描画部30から得られる環境画像の合成表示態様(3Dレイアウト)を決定する。ここでは、環境画像に描かれる3次元的な周辺環境内に物体画像に係る物体があたかも3次元的に存在するかのように見せることができるような合成表示態様が決定される。物体画像の描画位置(合成位置)は、物体の位置情報(例えば緯度・経度)に基づいて、環境画像の座標系に対する車両位置の座標系の関係(座標変換式)を用いて決定される。物体画像の描画位置の高さは、基本的に、環境画像に描かれる道路レベル(即ち略水平面内)に決定される。例えば、物体画像が3次元表現の車である場合、物体画像の描画位置は、当該車のタイヤがその位置の地面(道路の画像)に接するような配置となるように決定される。3Dレイアウト決定部34は、決定した合成表示態様を合成描画部36に通知(指示)する。   The 3D layout determination unit 34 determines the object image obtained from the object image generation unit 32 and the environment obtained from the 3D authoring unit 28 or the 3D map drawing unit 30 according to the display mode of each image designated by the display management unit 24. The composite display mode (3D layout) of the image is determined. Here, the composite display mode is determined such that the object related to the object image can be seen as if it exists three-dimensionally in the three-dimensional peripheral environment drawn in the environment image. The drawing position (composition position) of the object image is determined based on the position information (for example, latitude / longitude) of the object, using the relationship of the coordinate system of the vehicle position to the coordinate system of the environment image (coordinate conversion formula). The height of the drawing position of the object image is basically determined at the road level (that is, substantially in the horizontal plane) drawn in the environment image. For example, when the object image is a three-dimensional vehicle, the drawing position of the object image is determined so that the tire of the vehicle is in contact with the ground (the road image) at the position. The 3D layout determining unit 34 notifies (instructs) the determined combined display mode to the combined drawing unit 36.

合成描画部36は、3Dレイアウト決定部34からの指示された合成表示態様(3Dレイアウト)に従って、物体画像生成部32から得られる物体画像と、3Dオーサリング部28又は3D地図描画部30から得られる環境画像とを合成して、合成画像を生成する。   The composite drawing unit 36 is obtained from the object image obtained from the object image generation unit 32 and the 3D authoring unit 28 or the 3D map drawing unit 30 according to the composite display mode (3D layout) instructed from the 3D layout determination unit 34. A composite image is generated by combining the environmental image.

本実施例では、合成描画部36は、環境画像に物体画像を、指示された合成位置に合成して描画する際、合成位置周辺の環境画像を加工する。例えば、実際の周囲環境において、表示対象の物体が周辺建物に隠れて運転者の視点から見えない位置に存在する場合、当該周囲環境を運転者の視点から3次元的に再現する環境画像内においても、物体画像が当該周囲建物の画像の裏に隠れることになる。このため、本実施例では、かかる場合には、合成される物体画像が周囲建物の画像によって隠れてしまわないように、環境画像の視点から物体を見る視線方向で物体画像の手前に存在する周囲建物の描画態様が変更される。例えば、合成描画部36は、指示された合成位置において物体画像を環境画像に合成したときに、物体画像とその手前の3次元物体の画像の重なり度合いを判断し、物体画像に当該3次元物体が重なって物体画像が見えなくならないように、物体画像の手前の3次元物体を加工する。このとき、単に物体画像を最も手前に描画(上塗り的に描画)することも可能であるが、好ましくは、周囲建物との関係が明確になるように(即ち周囲建物の向こう側に物体があることが分かるように)、物体よりも手前に存在する周囲建物の画像が透明(輪郭のみにする)又は半透明になるように描画される。尚、物体画像の合成位置周辺の環境画像の描画態様は、周囲環境における物体の位置関係が合成画像から容易に視認可能であれば如何なる態様であってもよく、例えば、透過加工される周囲建物の画像部分は、当該周囲建物の全体であっても一部であってもよく、また、物体が車両と交錯しうる地点までの範囲全体であってもよい。   In the present embodiment, the composite drawing unit 36 processes the environment image around the combined position when the object image is combined with the environment image and drawn at the specified combined position. For example, in an actual surrounding environment, when an object to be displayed is in a position hidden behind a surrounding building and cannot be seen from the driver's viewpoint, the surrounding environment is reproduced in an environment image that is three-dimensionally reproduced from the driver's viewpoint. In this case, the object image is hidden behind the image of the surrounding building. For this reason, in this embodiment, in such a case, the surroundings that exist in front of the object image in the line-of-sight direction when viewing the object from the viewpoint of the environment image are prevented so that the synthesized object image is not hidden by the surrounding building image. The drawing mode of the building is changed. For example, when the composition drawing unit 36 composes the object image with the environment image at the designated composition position, the composition drawing unit 36 determines the degree of overlap between the object image and the image of the three-dimensional object in front of the object image, and adds the three-dimensional object to the object image. The three-dimensional object in front of the object image is processed so that the object images do not disappear due to overlapping. At this time, it is possible to simply draw the object image at the forefront (drawing as an overcoat), but preferably, the relationship with the surrounding building is clear (that is, the object is on the other side of the surrounding building) As can be seen, the image of the surrounding building existing in front of the object is rendered to be transparent (only the outline) or translucent. Note that the drawing mode of the environment image around the synthesis position of the object image may be any mode as long as the positional relationship of the object in the surrounding environment can be easily visually recognized from the synthesis image. The image portion may be the whole or a part of the surrounding building, or the entire range up to the point where the object can cross the vehicle.

尚、このような物体画像に関連する環境画像の加工(例えば透過処理)は、3Dオーサリング部28や3D地図描画部30において事前に実行されてもよい。この場合、かかる加工の必要性は、物体情報に基づいて表示管理部24にて判断される。この場合、3Dオーサリング部28は、表示管理部24からの描画態様の指示に従って、グラフィックス化して得られた環境画像に対して加工(透過処理)を行う。また、3D地図描画部30は、表示管理部24からの描画態様の指示に従って、地図データに基づいて得られた環境画像に対して加工(透過処理)を行う。   It should be noted that such processing (for example, transmission processing) of the environment image related to the object image may be executed in advance by the 3D authoring unit 28 or the 3D map drawing unit 30. In this case, the necessity for such processing is determined by the display management unit 24 based on the object information. In this case, the 3D authoring unit 28 performs processing (transparency processing) on the environment image obtained by the graphics in accordance with the drawing mode instruction from the display management unit 24. Further, the 3D map drawing unit 30 performs processing (transparency processing) on the environment image obtained based on the map data in accordance with a drawing mode instruction from the display management unit 24.

上述の如く合成描画部36により生成される合成画像は、情報出力装置300にて出力される。図2は、情報出力装置300における合成画像の表示状態を示す図であり、図2(A)は、表示対象の物体が存在しない場合の表示状態を示し、図2(B)及び図2(C)は、共に、表示対象の物体が存在する場合の表示状態を示す。   The composite image generated by the composite drawing unit 36 as described above is output by the information output device 300. FIG. 2 is a diagram illustrating a display state of a composite image in the information output apparatus 300, and FIG. 2A illustrates a display state when there is no object to be displayed, and FIG. 2B and FIG. C) shows the display state when there is an object to be displayed.

情報出力装置300における合成画像は、好ましくは、自車の移動に伴って環境画像が動的に変化し、表示対象の物体の移動に伴って動的に変化する。即ち、合成画像は、動画形式で表示される。尚、この目的のため、合成描画部36では、別々の生成部32及び28又は30から供給又は取得される合成対象の2つの画像は、適切に同期が取れた態様で供給又は取得され合成される。   The composite image in the information output apparatus 300 preferably changes dynamically as the host vehicle moves, and dynamically changes as the display target object moves. That is, the composite image is displayed in a moving image format. For this purpose, the composite drawing unit 36 supplies or acquires and combines the two images to be combined supplied or acquired from the separate generation units 32 and 28 or 30 in an appropriately synchronized manner. The

図2(B)及び図2(C)に示す例では、進行方向の右手前で自車の走行道路へと進入してくる物体(車両)が表示されている。この物体は、手前の建物により本来的には隠れてしまう位置に存在するが、本実施例によれば、上述の如く、物体が透過して見えるように当該建物の画像が加工される。このため、運転者は、図2(B)及び図2(C)に示す情報出力装置300の表示を見て、目に見えない物体が進行方向前方に存在することのみならず、当該物体が右手前の建物の陰から出現しうることをも容易に把握することができる。なお、図2(B)に示す例では、当該建物の画像の一部(物体を隠している部分)が透明ないし半透明に加工され、図2(C)に示す例では、当該建物の画像の3次元的な輪郭のみが示され、テクスチャーが透明にされている。   In the example shown in FIG. 2B and FIG. 2C, an object (vehicle) entering the traveling road of the own vehicle is displayed in front of the right side in the traveling direction. This object exists in a position where it is originally hidden by the building in front, but according to the present embodiment, as described above, the image of the building is processed so that the object can be seen through. For this reason, the driver looks at the display of the information output device 300 shown in FIGS. 2B and 2C, and not only the invisible object exists in the forward direction but also the object It can be easily grasped that it can appear from behind the building on the right side. In the example shown in FIG. 2B, a part of the image of the building (the part that hides the object) is processed to be transparent or translucent. In the example shown in FIG. Only the three-dimensional outline is shown, and the texture is transparent.

このように本実施例によれば、車両の周囲環境を3次元的に表現した環境画像の中に、注意を要する物体の画像を、当該物体の周囲環境における位置関係が明確となるように合成することができる。これにより、運転者に提供できる物体の情報量が増加し、運転支援の有用性を高めることができる。また、合成画像を動画で表示する場合には、運転者は、物体の動きについても一目で判断することができるので、運転支援の有用性を更に高めることができる。   As described above, according to this embodiment, an image of an object requiring attention is synthesized in an environment image that three-dimensionally represents the environment around the vehicle so that the positional relationship of the object in the environment is clear. can do. Thereby, the information amount of the object which can be provided to the driver increases, and the usefulness of driving support can be enhanced. Further, when the composite image is displayed as a moving image, the driver can also determine the movement of the object at a glance, so that the usefulness of driving support can be further enhanced.

尚、図2(C)に示す例では、図面の説明の都合上により物体画像が丸で囲まれているが、実際にこのような表示態様を実現して、運転者が物体の存在をより容易に把握できるようにしてもよい。また、同様の観点から、物体の進行方向を示す矢印等の図形を付加してもよい。   In the example shown in FIG. 2 (C), the object image is circled for convenience of description of the drawing. However, the display mode is actually realized so that the driver can detect the presence of the object. You may make it easy to grasp. From the same viewpoint, a figure such as an arrow indicating the traveling direction of the object may be added.

本実施例において、物体データベース25は、好ましくは、物体情報をその属性により分類して格納する。これにより、上述の如く情報取得源の種類が多岐に亘り、情報取得源によって取得可能な情報が異なる場合であっても、取得された物体情報に基づいて、当該物体の属性を適切に判断することができる。例えば、情報取得源によっては、取得された物体情報に基づいて該物体の形状が判断不能な場合がありうるが、該物体情報と物体データベース25内のデータとの対応関係(例えば物体の名称の対応関係)に基づいて、該物体の形状を適切に判断(推定)することができる。   In the present embodiment, the object database 25 preferably stores object information classified according to its attributes. As a result, as described above, the types of information acquisition sources are diverse, and even when the information that can be acquired differs depending on the information acquisition source, the attribute of the object is appropriately determined based on the acquired object information. be able to. For example, depending on the information acquisition source, the shape of the object may not be determined based on the acquired object information. However, the correspondence between the object information and the data in the object database 25 (for example, the name of the object) The shape of the object can be appropriately determined (estimated) based on the correspondence relationship.

物体データベース25内のデータは、好ましくは、通信モジュール10等を介して新たな物体情報が取得される毎に、当該物体情報により随時更新される。この場合、検出された物体の属性に対応した物体情報が物体データベース25に格納されていない場合には、当該物体情報を、新たな属性のグループに分類して物体データベース25に格納してよい。これにより、今後、同様の属性の物体が検出された場合には、当該物体の属性を、物体データベース25内のデータにより簡易的に判断することができる。   The data in the object database 25 is preferably updated as needed with new object information each time new object information is acquired via the communication module 10 or the like. In this case, when object information corresponding to the detected object attribute is not stored in the object database 25, the object information may be classified into a new attribute group and stored in the object database 25. Thereby, when an object having the same attribute is detected in the future, the attribute of the object can be easily determined from the data in the object database 25.

また、物体データベース25に格納される物体情報は、センタ等の外部から最新の物体情報がダウンロードされてもよい。これにより、多種多様な情報取得源から取得された物体情報に基づいて、当該物体の属性を適切に判断することができ、また、情報取得源の追加・変更や、属性の追加・変更にも容易に対応することができる。   As the object information stored in the object database 25, the latest object information may be downloaded from outside the center or the like. This makes it possible to appropriately determine the attribute of the object based on object information acquired from a wide variety of information acquisition sources, and to add / change information acquisition sources and add / change attributes. It can be easily handled.

物体データベース25内の物体情報は、好ましくは、各物体に対して判断された危険度レベルがその属性に関連付けて格納される。これにより、物体データベース25に格納された属性と同一又は類似する属性の物体が検出された場合には、当該物体の危険度レベルを、物体データベース25内のデータにより簡易的に判断することができ、改めて危険度レベルを評価する場合に生ずる処理負担を軽減することができる。この場合、危険度レベルに応じた物体画像及び/又は環境画像の表示態様の雛形を予め設定しておくことで、表示態様の決定処理・各種画像の生成処理負担を軽減することも可能である。また、雛形は運転者により変更(カスタマイズ)可能とされてもよい。また、検出された物体の属性に対応した危険度レベルが物体データベース25に格納されていない場合には、危険度レベルを判断し、当該判断した危険度レベルを物体の属性に関連付けて物体データベース25に格納する。これにより、今後、同様の属性の物体が検出された場合には、当該物体の危険度レベルを、物体データベース25内のデータにより簡易的に判断することができ、改めて危険度レベルを評価する場合に生ずる処理負担を軽減することができる。   The object information in the object database 25 preferably stores the risk level determined for each object in association with the attribute. Thereby, when an object having the same or similar attribute as the attribute stored in the object database 25 is detected, the risk level of the object can be easily determined from the data in the object database 25. Therefore, it is possible to reduce the processing burden caused when the risk level is evaluated again. In this case, it is also possible to reduce the display mode determination processing and various image generation processing burdens by setting in advance a model of the display mode of the object image and / or environment image corresponding to the risk level. . The template may be changeable (customizable) by the driver. If the risk level corresponding to the detected object attribute is not stored in the object database 25, the risk level is determined, and the determined risk level is associated with the object attribute to the object database 25. To store. Thereby, when an object having the same attribute is detected in the future, the risk level of the object can be easily determined from the data in the object database 25, and the risk level is evaluated again. Can reduce the processing burden.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述の実施例では、カメラ50からの映像をグラフィックス化して環境画像を生成しているが、本発明はこれに限定されることは無く、カメラ50からの映像を直接的に環境画像として利用することも可能である。   For example, in the above-described embodiment, the image from the camera 50 is converted into graphics to generate the environment image. However, the present invention is not limited to this, and the image from the camera 50 is directly converted into the environment image. It is also possible to use as.

また、上述の実施例では、物体画像を表示する段階で、それに応じた環境画像を生成して合成しているが、本発明はこれに限定されることは無く、通常時において例えばナビゲーション装置の地図表示として環境画像(3D地図画像)が表示されている場合には、割り込み形式で物体画像を合成表示すればよい。   Further, in the above-described embodiment, the environment image corresponding to the object image is generated and synthesized at the stage of displaying the object image. However, the present invention is not limited to this, and in normal times, for example, the navigation device When an environment image (3D map image) is displayed as a map display, the object image may be synthesized and displayed in an interrupt format.

また、上述の実施例では、物体情報の出力を物体画像により実現しているが、本発明はこれに限定されることは無く、音声やテキスト等との組み合わせにより実現することも可能である。   In the above-described embodiment, the output of object information is realized by an object image. However, the present invention is not limited to this, and can be realized by a combination with voice, text, or the like.

また、上述の実施例において、合成描画部36への各種画像(ビデオデータ)の転送方式は、例えば1/30s毎のフレーム転送であってもよく、或いは、直接的なストリーム転送であってもよい。   In the above-described embodiment, the transfer method of various images (video data) to the composite drawing unit 36 may be frame transfer every 1/30 s, for example, or may be direct stream transfer. Good.

また、上述の実施例では、環境画像において透過処理等される3次元物体は、ビル等の建物であったが、本発明はこれに限定されることは無く、透過処理等される3次元物体は、例えば、木々等の自然物や、看板等の他の建造物であってもよい。   In the above-described embodiment, the three-dimensional object that is subjected to the transmission process in the environmental image is a building such as a building. However, the present invention is not limited to this, and the three-dimensional object that is subjected to the transmission process. May be, for example, natural objects such as trees, or other structures such as signboards.

また、上述の実施例では、物体情報は、主に通信(放送の受信を含む)により取得されているが、本発明はこれに限定されることは無く、物体情報は、ミリ波レーダー等のレーダーセンサーやカメラ等により取得されてもよい。   In the above-described embodiment, the object information is acquired mainly by communication (including reception of broadcast). However, the present invention is not limited to this, and the object information may be a millimeter wave radar or the like. You may acquire by a radar sensor, a camera, etc.

本発明による運転支援装置の一実施例を示すシステム構成図である。1 is a system configuration diagram showing an embodiment of a driving support device according to the present invention. 情報出力装置300における合成画像の表示状態を示す図である。6 is a diagram illustrating a display state of a composite image in the information output apparatus 300. FIG.

符号の説明Explanation of symbols

10 通信モジュール
200 情報処理装置
22 物体検知/物体情報生成部
23 物体表示判断部
24 表示管理部
25 物体データベース
26 3Dオーサリング判断部
28 3Dオーサリング部
30 3D地図描画部
31 3D地図データベース
32 物体画像生成部
34 3Dレイアウト決定部
36 合成描画部
50 カメラ
300 情報出力装置
DESCRIPTION OF SYMBOLS 10 Communication module 200 Information processing apparatus 22 Object detection / object information generation part 23 Object display determination part 24 Display management part 25 Object database 26 3D authoring determination part 28 3D authoring part 30 3D map drawing part 31 3D map database 32 Object image generation part 34 3D layout determination unit 36 Composite drawing unit 50 Camera 300 Information output device

Claims (8)

車両の周辺環境を表す環境情報を表示して車両の運転者を視覚面から支援する運転支援装置において、
車両の周辺環境を3次元で表現する環境画像を生成する環境画像生成手段と、
車両の周辺に存在する物体に関する少なくとも位置情報を含む物体情報を取得する物体情報取得手段と、
車両の周辺に存在する物体を表現する物体画像を生成する物体画像生成手段と、
前記取得される物体の位置情報に基づいて、前記環境画像に描かれる3次元の周辺環境内に前記物体画像を描画する合成画像生成手段と、
前記合成画像生成手段により生成される合成画像を出力する出力手段と、を備えることを特徴とする、運転支援装置。
In a driving support device that displays environmental information representing the surrounding environment of the vehicle and assists the driver of the vehicle from the visual aspect,
Environmental image generation means for generating an environmental image representing the surrounding environment of the vehicle in three dimensions;
Object information acquisition means for acquiring object information including at least position information regarding an object existing around the vehicle;
An object image generating means for generating an object image representing an object existing around the vehicle;
Synthetic image generation means for drawing the object image in a three-dimensional surrounding environment drawn on the environment image based on the acquired position information of the object;
And an output unit that outputs a composite image generated by the composite image generation unit.
前記環境画像に描かれる周辺環境を表す3次元物体のうち、前記物体よりも車両に近い側に位置する3次元物体の画像の少なくとも一部は、前記物体画像が見えるように加工される、請求項1に記載の運転支援装置。   At least a part of an image of a three-dimensional object located closer to the vehicle than the object among the three-dimensional objects representing the surrounding environment depicted in the environment image is processed so that the object image can be seen. Item 2. The driving support device according to Item 1. 前記3次元物体の画像の前記少なくとも一部は、前記物体画像が透過して見えるように、透明又は半透明に描画される、請求項2に記載の運転支援装置。   The driving support device according to claim 2, wherein the at least part of the image of the three-dimensional object is drawn in a transparent or translucent manner so that the object image can be seen through. ナビゲーション装置で用いられる地図データを格納する記憶部が接続され、
前記環境画像生成手段は、前記地図データに基づいて前記環境画像を生成する、請求項1〜3の何れかに記載の運転支援装置。
A storage unit for storing map data used in the navigation device is connected,
The driving support device according to claim 1, wherein the environmental image generation unit generates the environmental image based on the map data.
車両の周辺環境を撮影するカメラが接続され、
前記環境画像生成手段は、前記カメラにより取得される映像データに基づいて前記環境画像を生成する、請求項1〜3の何れかに記載の運転支援装置。
A camera that captures the surrounding environment of the vehicle is connected,
The driving support device according to claim 1, wherein the environmental image generation unit generates the environmental image based on video data acquired by the camera.
前記物体情報取得手段により取得される物体情報に基づいて、該物体の属性を判断する物体属性判断手段を備え、
前記物体画像生成手段は、前記物体属性判断手段により判断される物体の属性に応じた物体画像を生成する、請求項1〜5の何れかに記載の運転支援装置。
Based on object information acquired by the object information acquisition means, comprising object attribute determination means for determining the attribute of the object,
The driving support device according to claim 1, wherein the object image generation unit generates an object image according to an object attribute determined by the object attribute determination unit.
前記物体情報取得手段により取得される物体情報に基づいて、該物体の車両に対する危険度レベルを判断し、該判断した危険度レベルに基づいて、該物体の物体画像の前記合成画像における描画態様を決定する表示制御手段を備える、請求項1〜6の何れかに記載の運転支援装置。   Based on the object information acquired by the object information acquisition means, the risk level of the object with respect to the vehicle is determined, and based on the determined risk level, the drawing mode of the object image of the object in the composite image is changed. The driving support device according to claim 1, further comprising display control means for determining. 請求項6に記載の運転支援装置において、
前記物体情報取得手段により取得される物体情報を、物体の属性に応じた分類で随時格納していくデータベースを備え、
前記物体属性判断手段は、前記物体情報取得手段により取得される物体情報と、前記データベース内のデータとの対応関係に基づいて、前記物体情報取得手段により取得される物体情報に係る物体の属性を判断する、運転支援装置。
The driving support device according to claim 6,
A database that stores object information acquired by the object information acquisition means at any time in a classification according to the attribute of the object;
The object attribute determination unit is configured to determine an object attribute related to the object information acquired by the object information acquisition unit based on a correspondence relationship between the object information acquired by the object information acquisition unit and data in the database. A driving assistance device to judge.
JP2005372895A 2005-12-26 2005-12-26 Driving support device Pending JP2007172541A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005372895A JP2007172541A (en) 2005-12-26 2005-12-26 Driving support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005372895A JP2007172541A (en) 2005-12-26 2005-12-26 Driving support device

Publications (1)

Publication Number Publication Date
JP2007172541A true JP2007172541A (en) 2007-07-05

Family

ID=38298981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005372895A Pending JP2007172541A (en) 2005-12-26 2005-12-26 Driving support device

Country Status (1)

Country Link
JP (1) JP2007172541A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2008698A1 (en) 2007-06-29 2008-12-31 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Server apparatus, cellular phone, opponent selection system and method, program, and recording medium
JP2009223845A (en) * 2008-03-19 2009-10-01 Hitachi Ltd In-vehicle communication equipment
JP2010134639A (en) * 2008-12-03 2010-06-17 Honda Motor Co Ltd Visual support apparatus
JP2010535334A (en) * 2007-08-01 2010-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Vehicle position measuring system and method
WO2012131871A1 (en) * 2011-03-28 2012-10-04 パイオニア株式会社 Information display device, control method, program, and storage medium
JP2012198207A (en) * 2011-03-18 2012-10-18 Enii Kk Image processing device and method, and mobile-body collision prevention apparatus
JP5266426B1 (en) * 2013-02-27 2013-08-21 イメージニクス株式会社 Information processing terminal, information processing method, information processing program
JP2014229102A (en) * 2013-05-23 2014-12-08 日産自動車株式会社 Vehicular display device
WO2016121387A1 (en) * 2015-01-29 2016-08-04 株式会社デンソー Image generation device and image generation method
WO2017085857A1 (en) * 2015-11-20 2017-05-26 三菱電機株式会社 Driving assistance device, driving assistance system, driving assistance method, and driving assistance program
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
US10235768B2 (en) 2014-12-10 2019-03-19 Mitsubishi Electric Corporation Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium
JP2020149268A (en) * 2019-03-13 2020-09-17 オムロン株式会社 Traveling support system, traveling support method and traveling support program
DE102022204313A1 (en) 2022-05-02 2023-11-02 Volkswagen Aktiengesellschaft Method and device for generating an image of the environment for a parking assistant of a vehicle

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003121167A (en) * 2001-10-12 2003-04-23 Denso Corp Guidance image-generating apparatus, guidance image- displaying apparatus, navigation apparatus, and program
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2005207943A (en) * 2004-01-23 2005-08-04 Alpine Electronics Inc On-vehicle navigation system, and three-dimensional (3d) map display method therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003121167A (en) * 2001-10-12 2003-04-23 Denso Corp Guidance image-generating apparatus, guidance image- displaying apparatus, navigation apparatus, and program
WO2004008744A1 (en) * 2002-07-12 2004-01-22 Iwane Laboratories, Ltd. Road and other flat object video plan-view developing image processing method, reverse developing image conversion processing method, plan-view developing image processing device, and reverse developing image conversion processing device
JP2005207943A (en) * 2004-01-23 2005-08-04 Alpine Electronics Inc On-vehicle navigation system, and three-dimensional (3d) map display method therefor

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2008698A1 (en) 2007-06-29 2008-12-31 Kabushiki Kaisha Square Enix (also trading as Square Enix Co., Ltd.) Server apparatus, cellular phone, opponent selection system and method, program, and recording medium
JP2010535334A (en) * 2007-08-01 2010-11-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Vehicle position measuring system and method
JP2009223845A (en) * 2008-03-19 2009-10-01 Hitachi Ltd In-vehicle communication equipment
JP2010134639A (en) * 2008-12-03 2010-06-17 Honda Motor Co Ltd Visual support apparatus
JP2012198207A (en) * 2011-03-18 2012-10-18 Enii Kk Image processing device and method, and mobile-body collision prevention apparatus
WO2012131871A1 (en) * 2011-03-28 2012-10-04 パイオニア株式会社 Information display device, control method, program, and storage medium
JP5266426B1 (en) * 2013-02-27 2013-08-21 イメージニクス株式会社 Information processing terminal, information processing method, information processing program
JP2014229102A (en) * 2013-05-23 2014-12-08 日産自動車株式会社 Vehicular display device
US10192122B2 (en) 2014-08-21 2019-01-29 Mitsubishi Electric Corporation Driving assist apparatus, driving assist method, and non-transitory computer readable recording medium storing program
US10235768B2 (en) 2014-12-10 2019-03-19 Mitsubishi Electric Corporation Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium
WO2016121387A1 (en) * 2015-01-29 2016-08-04 株式会社デンソー Image generation device and image generation method
WO2017085857A1 (en) * 2015-11-20 2017-05-26 三菱電機株式会社 Driving assistance device, driving assistance system, driving assistance method, and driving assistance program
JP6150950B1 (en) * 2015-11-20 2017-06-21 三菱電機株式会社 Driving support device, driving support system, driving support method, and driving support program
CN108140309A (en) * 2015-11-20 2018-06-08 三菱电机株式会社 Drive assistance device, driving assistance system, driving assistance method and driving auxiliary program
US10410072B2 (en) 2015-11-20 2019-09-10 Mitsubishi Electric Corporation Driving support apparatus, driving support system, driving support method, and computer readable recording medium
CN108140309B (en) * 2015-11-20 2020-12-08 三菱电机株式会社 Driving support device, driving support system, and driving support method
JP2020149268A (en) * 2019-03-13 2020-09-17 オムロン株式会社 Traveling support system, traveling support method and traveling support program
JP7156109B2 (en) 2019-03-13 2022-10-19 オムロン株式会社 Driving support system, driving support method, and driving support program
DE102022204313A1 (en) 2022-05-02 2023-11-02 Volkswagen Aktiengesellschaft Method and device for generating an image of the environment for a parking assistant of a vehicle

Similar Documents

Publication Publication Date Title
JP2007172541A (en) Driving support device
EP3100913B1 (en) Vehicle display apparatus and vehicle including the same
JP4293917B2 (en) Navigation device and intersection guide method
JP5811804B2 (en) Vehicle periphery monitoring device
EP2110797B1 (en) Traffic situation display method, traffic situation display system, vehicle-mounted device, and computer program
US8223037B2 (en) Method and apparatus for warning of emergency vehicles in emergency service
US20160191840A1 (en) User interface method for terminal for vehicle and apparatus thereof
KR100721560B1 (en) System and method for provision of 3-dimensional car information with arbitrary viewpoint
US9269007B2 (en) In-vehicle display apparatus and program product
JP4909451B1 (en) Information display apparatus and control method
JP2016500352A (en) Systems for vehicles
CN111710189B (en) Control method for electronic device, and recording medium
KR20150140449A (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
WO2011058822A1 (en) Vehicle surrounding display device, vehicle surrounding display method
US20100001880A1 (en) Detecting and sharing road traffic condition information
JP4601505B2 (en) Top-view image generation apparatus and top-view image display method
KR20190080749A (en) Vehicle on-board communication device and vehicle
JP2013124957A (en) Navigation system using portable information terminal
KR20180090610A (en) Method and apparatus for outputting information about a lane
KR20160065724A (en) Electronic apparatus, control method of electronic apparatus, computer program and computer readable recording medium
JP2019109707A (en) Display control device, display control method and vehicle
JP6432491B2 (en) Driving assistance device
CN114555401A (en) Display system, display device, display method, and mobile device
JP2010175329A (en) On-vehicle information device
JP2012178127A (en) Attention calling system and attention calling device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110719