JP7100421B2 - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP7100421B2
JP7100421B2 JP2016071120A JP2016071120A JP7100421B2 JP 7100421 B2 JP7100421 B2 JP 7100421B2 JP 2016071120 A JP2016071120 A JP 2016071120A JP 2016071120 A JP2016071120 A JP 2016071120A JP 7100421 B2 JP7100421 B2 JP 7100421B2
Authority
JP
Japan
Prior art keywords
vehicle
risk
area
display device
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016071120A
Other languages
Japanese (ja)
Other versions
JP2017182588A (en
Inventor
広隆 齊藤
淳也 関
一文 鈴木
勇輝 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2016071120A priority Critical patent/JP7100421B2/en
Publication of JP2017182588A publication Critical patent/JP2017182588A/en
Application granted granted Critical
Publication of JP7100421B2 publication Critical patent/JP7100421B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Description

本発明は、自車両周辺の環境に関する情報を画像表示する表示装置に関し、特にリスクが存在し得る領域を直感的かつ容易に把握可能なものに関する。 The present invention relates to a display device that displays information about the environment around the own vehicle as an image, and particularly to a display device that can intuitively and easily grasp an area where a risk may exist.

自動車等の車両において、自車両前方の状況を、例えばカメラ、レーザスキャナ、レーダ等の各種の周辺認識手段によって認識し、認識結果に基づいて車線形状や障害物等に関する情報を画像表示する表示装置が各種提案されている。
このような表示装置を用いると、乗員自らが目視により得られる以上の情報を得ることができ、乗員が運転者として運転する場合の運転支援としても、また、自動運転を行う車両において乗員が自動運転制御の妥当性を監視するためにも有用である。
In a vehicle such as an automobile, a display device that recognizes the situation in front of the own vehicle by various peripheral recognition means such as a camera, a laser scanner, and a radar, and displays information on a lane shape, obstacles, etc. as an image based on the recognition result. Have been proposed in various ways.
By using such a display device, it is possible to obtain more information than can be obtained visually by the occupant himself, and as a driving support when the occupant drives as a driver, the occupant automatically operates in a vehicle that automatically drives. It is also useful for monitoring the adequacy of driving control.

このような車両の周辺環境認識に関する従来技術として、例えば特許文献1には、ミリ波センサが物体を検出した場合に、自車両を制御して衝突回避を図る車両用衝突危険回避システムにおいて、可視光によって検出不可能な物体は危険度がより高いものとし、強くドライバに警告を与えることが記載されている。
特許文献2には、自車両からは死角領域に入り認識できない領域の他車両の存在を、先行車両の挙動に基づいて推定する車両環境推定装置が記載されている。
As a conventional technique for recognizing the surrounding environment of such a vehicle, for example, Patent Document 1 discloses in a vehicle collision risk avoidance system that controls an own vehicle to avoid a collision when an object is detected by a millimeter wave sensor. It is stated that objects that cannot be detected by light are considered to be more dangerous and strongly warn the driver.
Patent Document 2 describes a vehicle environment estimation device that estimates the existence of another vehicle in a blind spot region that cannot be recognized by the own vehicle based on the behavior of the preceding vehicle.

特開2013-156793号公報Japanese Unexamined Patent Publication No. 2013-156793 特開2010-267211号公報Japanese Unexamined Patent Publication No. 2010-267211

近年、カメラやレーダ等のセンサ類を用いた環境認識技術が進化し、センサの検知範囲内においては、環境認識結果に基づく情報で安全を担保することが可能となっている。
しかし、環境認識結果に基づく全ての情報をユーザ(手動運転時におけるドライバ)に表示すると、ドライバの認識負荷が高まり、監視負担が重いものとなる。
これに対し、環境認識手段によって認識可能な領域と、認識不可能な領域とをユーザが認識することができれば、認識不可能な領域からリスク対象物が出現することを警戒したり、認識可能な領域において環境認識結果が妥当であるか判別することが容易となる。
本発明の課題は、リスクが存在し得る領域を直感的かつ容易に把握可能な表示装置を提供することである。
In recent years, environmental recognition technology using sensors such as cameras and radar has evolved, and it is possible to ensure safety with information based on the environmental recognition result within the detection range of the sensor.
However, if all the information based on the environment recognition result is displayed to the user (driver at the time of manual operation), the recognition load of the driver increases and the monitoring burden becomes heavy.
On the other hand, if the user can recognize the recognizable area and the unrecognizable area by the environment recognition means, he / she can be wary of or recognizing the appearance of the risk object from the unrecognizable area. It becomes easy to determine whether the environmental recognition result is appropriate in the area.
An object of the present invention is to provide a display device that can intuitively and easily grasp an area where a risk may exist.

本発明は、以下のような解決手段により、上述した課題を解決する。
請求項1に係る発明は、自車両周囲の環境を認識するとともに認識が可能な領域内においてリスク対象物を抽出する環境認識手段と、予め準備された地図データを用いて自車両周囲の道路形状を示す画像を生成する画像生成手段と、前記画像生成手段が生成した前記画像を表示する画像表示手段とを備える表示装置であって、前記画像生成手段は、前記画像において前記環境認識手段による認識が不可能である領域及び前記リスク対象物の推定進路を含むリスク可能性領域を、所定の色彩一色による塗潰し表示又は所定の色彩一色を用いたグラデーション表示に統一し、前記リスク可能性領域以外の領域を複数の色彩を用いて描画し、前記リスク可能性領域及び前記リスク可能性領域以外の領域を同一画面内で同時に表示することを特徴とする表示装置である。
これによれば、環境認識手段による認識が不可能な領域及び前記リスク対象物の推定進路を他の領域とは異なる所定の色彩一色による塗潰し表示又は所定の色彩一色を用いたグラデーション表示に統一し、同一画面内で同時に表示することによって、環境認識手段によって安全が確認できない領域及び前記リスク対象物の推定進路をユーザが容易に認識することができる。
これによって、どの領域にリスクが生じることが懸念されるかを認識し、ユーザに適切な監視を行わせることができる。
また、環境認識手段によって認識が可能な領域内においても、安全であるか確定しない領域はリスク可能性領域の一部として、環境認識手段による認識を行えない領域と同様に表示することによって、ユーザにより適切に注意を喚起することができる。
The present invention solves the above-mentioned problems by the following solution means.
The invention according to claim 1 is an environment recognition means for recognizing the environment around the own vehicle and extracting risk objects in a recognizable area, and a road shape around the own vehicle using map data prepared in advance. A display device including an image generation means for generating an image showing the above and an image display means for displaying the image generated by the image generation means, wherein the image generation means recognizes the image by the environment recognition means. The areas where _ It is a display device characterized in that an area other than the area is drawn by using a plurality of colors, and the risk possibility area and the area other than the risk possibility area are simultaneously displayed on the same screen.
According to this, the area that cannot be recognized by the environmental recognition means and the estimated course of the risk object are unified into a filled display with a predetermined color and a gradation display using a predetermined color, which is different from other areas. However, by displaying the images simultaneously on the same screen, the user can easily recognize the area where safety cannot be confirmed by the environmental recognition means and the estimated course of the risk object.
This makes it possible to recognize in which area there is a concern that a risk may occur and to have the user perform appropriate monitoring.
Further, even within the area that can be recognized by the environment recognition means, the area that is uncertain whether it is safe or not is displayed as a part of the risk possibility area in the same manner as the area that cannot be recognized by the environment recognition means. Can be more appropriately alerted.

請求項2に係る発明は、前記環境認識手段は、自車両に搭載されたセンサの出力に基づいて環境を認識することを特徴とする請求項1に記載の表示装置である。
これによれば、自車両に搭載された構成要素のみで成立可能なスタンドアローンの構成とすることができ、構成の複雑化を防止するとともに信頼性の確保が容易となる。
The invention according to claim 2 is the display device according to claim 1, wherein the environment recognition means recognizes the environment based on the output of a sensor mounted on the own vehicle.
According to this, it is possible to make a stand-alone configuration that can be established only by the components mounted on the own vehicle, and it is easy to prevent the configuration from becoming complicated and to secure the reliability.

請求項3に係る発明は、前記環境認識手段は、自車両に搭載されたセンサの出力、及び、自車両の近隣を走行しかつ自車両と通信可能な車車間通信装置を有する他車両に搭載されたセンサの出力に基づいて環境を認識することを特徴とする請求項1に記載の表示装置である。
これによれば、車車間通信を介して他車両のセンサが検出した情報を利用することによって、環境認識手段による認識が可能な領域を拡大し、リスク可能性領域を縮小することができる。
According to the third aspect of the present invention, the environmental recognition means is mounted on another vehicle having an output of a sensor mounted on the own vehicle and an inter-vehicle communication device that travels in the vicinity of the own vehicle and can communicate with the own vehicle. The display device according to claim 1, wherein the environment is recognized based on the output of the sensor.
According to this, by using the information detected by the sensors of other vehicles via the vehicle-to-vehicle communication, the area that can be recognized by the environmental recognition means can be expanded and the risk possibility area can be reduced.

請求項に係る発明は、前記リスク対象物は他車両又は歩行者であり、前記環境認識手段は、前記リスク対象物が交通法規を遵守した場合に進行が可能である領域を前記リスク対象物の推定進路として設定することを特徴とする請求項1から請求項までのいずれか1項に記載の表示装置である。
これによれば、リスク対象物が交通法規を遵守しない(例えば、赤信号無視など)場合を考慮することにより、リスク可能性領域が過度に多くなり、現実的に発生する可能性がきわめて低いリスクに対する監視が煩雑となり、かえってユーザの負担が増大することを防止できる。
In the invention according to claim 4 , the risk object is another vehicle or a pedestrian, and the environmental recognition means sets a region where the risk object can proceed when the risk object complies with traffic regulations. The display device according to any one of claims 1 to 3 , wherein the display device is set as an estimated course.
According to this, by considering the case where the risk object does not comply with the traffic regulations (for example, ignoring the red light), the risk potential area becomes excessively large, and the risk that is extremely unlikely to occur in reality is extremely low. It is possible to prevent the burden on the user from increasing due to the complicated monitoring of the user.

以上説明したように、本発明によれば、リスクが存在し得る領域を直感的かつ容易に把握可能な表示装置を提供することができる。 As described above, according to the present invention, it is possible to provide a display device that can intuitively and easily grasp the area where a risk may exist.

本発明を適用した表示装置の実施例が設けられる車両の構成を模式的に示すブロック図である。It is a block diagram schematically showing the structure of the vehicle provided with the embodiment of the display device to which this invention is applied. 実施例の車両において車両周囲を認識するセンサ類の配置を示す模式図である。It is a schematic diagram which shows the arrangement of the sensor which recognizes the surroundings of a vehicle in the vehicle of an Example. 実施例の表示装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the display device of an Example. 実施例の表示装置における画面表示の一例を模式的に示す図である。It is a figure which shows an example of the screen display in the display device of an Example schematically.

本発明は、リスクが存在し得る領域を直感的かつ容易に把握可能な表示装置を提供する課題を、車両に搭載されたセンサを用いる直接環境認識手段による認識が不可能な領域、及び、他車両等が自車両の進路に進入し得る領域を、リスク可能性領域を示す同系色によって表示することによって解決した。 The present invention has a problem of providing a display device that can intuitively and easily grasp an area where a risk may exist, an area that cannot be directly recognized by an environmental recognition means using a sensor mounted on a vehicle, and others. The problem was solved by displaying the area where the vehicle or the like could enter the course of the own vehicle with a similar color indicating the risk potential area.

以下、本発明を適用した表示装置の実施例について説明する。
図1は、本発明を適用した表示装置の実施例が設けられる車両の構成を模式的に示すブロック図である。
実施例の表示装置は、例えば、自動運転機能を有する乗用車等の自動車である車両1に設けられ、ユーザ(例えば手動運転時のドライバ)等のユーザ等に対して、自車両周辺の道路形状(車線形状)や、他車両、歩行者、建造物等の障害物に関する情報等を画像表示するものである。
ユーザは、表示装置が提示する情報に基づいて、自車両前方の車線形状や障害物を監視するとともに、自動運転制御の実行時においては、自動運転制御の妥当性を検証することができる。
Hereinafter, examples of the display device to which the present invention is applied will be described.
FIG. 1 is a block diagram schematically showing a configuration of a vehicle provided with an embodiment of a display device to which the present invention is applied.
The display device of the embodiment is provided in, for example, a vehicle 1 which is an automobile such as a passenger car having an automatic driving function, and the road shape around the own vehicle (for example, a driver at the time of manual driving) is referred to a user or the like (for example, a driver during manual driving). Information about obstacles such as lane shape), other vehicles, pedestrians, and buildings is displayed as an image.
Based on the information presented by the display device, the user can monitor the lane shape and obstacles in front of the own vehicle and verify the validity of the automatic driving control when the automatic driving control is executed.

図1に示すように、車両1は、エンジン制御ユニット10、トランスミッション制御ユニット20、挙動制御ユニット30、電動パワーステアリング(EPS)制御ユニット40、自動運転制御ユニット50、環境認識ユニット60、ステレオカメラ制御ユニット70、レーザスキャナ制御ユニット80、後側方レーダ制御ユニット90、ナビゲーション装置100、路車間通信装置110、車車間通信装置120、画像生成ユニット200、ディスプレイ210等を備えている。
上述した各ユニットは、例えば、CPU等の情報処理手段、RAMやROM等の記憶手段、入出力インターフェイス、及び、これらを接続するバス等を有するユニットとして構成される。これらの各ユニットは、例えばCAN通信システム等の車載LANシステムを介して相互に通信が可能となっている。
As shown in FIG. 1, the vehicle 1 includes an engine control unit 10, a transmission control unit 20, a behavior control unit 30, an electric power steering (EPS) control unit 40, an automatic driving control unit 50, an environment recognition unit 60, and a stereo camera control. It includes a unit 70, a laser scanner control unit 80, a rear side radar control unit 90, a navigation device 100, a road-to-vehicle communication device 110, a vehicle-to-vehicle communication device 120, an image generation unit 200, a display 210, and the like.
Each of the above-mentioned units is configured as a unit having, for example, an information processing means such as a CPU, a storage means such as a RAM or a ROM, an input / output interface, and a bus connecting these. Each of these units can communicate with each other via an in-vehicle LAN system such as a CAN communication system.

エンジン制御ユニット10は、車両1の走行用動力源であるエンジン及びその補機類を統括的に制御するものである。
エンジンとして、例えば、4ストロークガソリンエンジンが用いられる。
エンジン制御ユニット(ECU)10は、エンジンのスロットルバルブ開度、燃料噴射量及び噴射時期、点火時期等を制御することによって、エンジンの出力トルクを制御することが可能である。
車両1がドライバの運転操作に応じて運転される状態においては、エンジン制御ユニット10は、アクセルペダルの操作量等に基いて設定されるドライバ要求トルクに、エンジンの実際のトルクが近づくようエンジンの出力を制御する。
また、車両1が自動運転を行う場合には、エンジン制御ユニット10は、自動運転制御ユニット50からの指令に応じてエンジンの出力を制御する。
The engine control unit 10 comprehensively controls the engine and its accessories, which are the power sources for traveling of the vehicle 1.
As the engine, for example, a 4-stroke gasoline engine is used.
The engine control unit (ECU) 10 can control the output torque of the engine by controlling the throttle valve opening degree of the engine, the fuel injection amount and the injection timing, the ignition timing, and the like.
In a state where the vehicle 1 is operated according to the driving operation of the driver, the engine control unit 10 of the engine controls the engine so that the actual torque of the engine approaches the driver required torque set based on the operation amount of the accelerator pedal and the like. Control the output.
Further, when the vehicle 1 performs automatic driving, the engine control unit 10 controls the output of the engine in response to a command from the automatic driving control unit 50.

トランスミッション制御ユニット(TCU)20は、エンジンの回転出力を変速するとともに、車両の前進、後退を切り替える図示しない変速機及び補機類を統括的に制御するものである。
車両1が自動運転を行う場合には、トランスミッション制御ユニット20は、自動運転制御ユニット50からの指令に応じて、前後進等のレンジ切替や変速比の設定を行う。
変速機として、例えば、チェーン式、ベルト式、トロイダル式等のCVTや、複数のプラネタリギヤセットを有するステップAT、DCT、AMT等の各種自動変速機を用いることができる。
変速機は、バリエータ等の変速機構部のほか、例えばトルクコンバータ、乾式クラッチ、湿式クラッチ等の発進デバイスや、前進走行レンジと後退走行レンジとを切替える前後進切替機構等を有して構成されている。
The transmission control unit (TCU) 20 shifts the rotational output of the engine and comprehensively controls a transmission and accessories (not shown) for switching between forward and reverse of the vehicle.
When the vehicle 1 performs automatic driving, the transmission control unit 20 performs range switching such as forward / backward movement and setting of a gear ratio in response to a command from the automatic driving control unit 50.
As the transmission, for example, a chain type, a belt type, a toroidal type or the like CVT, or various automatic transmissions such as a step AT, a DCT, an AMT or the like having a plurality of planetary gear sets can be used.
The transmission is configured to have a transmission mechanism such as a variator, a start device such as a torque converter, a dry clutch, and a wet clutch, and a forward / backward switching mechanism for switching between a forward travel range and a reverse travel range. There is.

トランスミッション制御ユニット20には、前後進切替アクチュエータ21、レンジ検出センサ22等が接続されている。
前後進切替アクチュエータ21は、前後進切替機構に油圧を供給する油路を切り替える前後進切替バルブを駆動し、車両の前後進を切替えるものである。
前後進切替アクチュエータ21は、例えば、ソレノイド等の電動アクチュエータである。
レンジ検出センサ22は、変速機において現在選択されているレンジが前進用のものであるか、後退用のものであるかを判別するセンサ(スイッチ)である。
A forward / backward switching actuator 21, a range detection sensor 22, and the like are connected to the transmission control unit 20.
The forward / backward switching actuator 21 drives a forward / backward switching valve that switches an oil passage for supplying hydraulic pressure to the forward / backward switching mechanism, and switches the forward / backward movement of the vehicle.
The forward / backward switching actuator 21 is, for example, an electric actuator such as a solenoid.
The range detection sensor 22 is a sensor (switch) that determines whether the range currently selected in the transmission is for forward movement or backward movement.

挙動制御ユニット30は、左右前後輪にそれぞれ設けられた液圧式サービスブレーキのホイルシリンダ液圧を個別に制御することによって、アンダーステアやオーバステア等の車両挙動を抑制する挙動制御や、制動時のホイルロックを回復させるアンチロックブレーキ制御を行うものである。
挙動制御ユニット30には、ハイドロリックコントロールユニット(HCU)31、車速センサ32等が接続されている。
The behavior control unit 30 individually controls the wheel cylinder hydraulic pressure of the hydraulic service brakes provided on the left, right, front and rear wheels to control the behavior of suppressing vehicle behavior such as understeer and oversteer, and wheel lock during braking. It performs anti-lock brake control to recover.
A hydraulic control unit (HCU) 31, a vehicle speed sensor 32, and the like are connected to the behavior control unit 30.

HCU31は、液圧式サービスブレーキの作動流体であるブレーキフルードを加圧する電動ポンプ、及び、各車輪のホイルシリンダに供給される液圧を個別に調節するバルブ等を有する。
車両1が自動運転を行う場合には、HCU31は、自動運転制御ユニット50からの制動指令に応じて、各車輪のホイルシリンダに制動力を発生させる。
車速センサ32は、各車輪のハブ部に設けられ、車輪の回転速度に比例する周波数の車速パルス信号を発生するものである。
車速パルス信号の周波数を検出し、所定の演算処理を施すことによって、車両の走行速度(車速)を算出することが可能である。
The HCU 31 includes an electric pump that pressurizes the brake fluid, which is the working fluid of the hydraulic service brake, and a valve that individually adjusts the hydraulic pressure supplied to the wheel cylinders of each wheel.
When the vehicle 1 performs automatic driving, the HCU 31 generates a braking force in the wheel cylinders of each wheel in response to a braking command from the automatic driving control unit 50.
The vehicle speed sensor 32 is provided on the hub portion of each wheel and generates a vehicle speed pulse signal having a frequency proportional to the rotation speed of the wheels.
By detecting the frequency of the vehicle speed pulse signal and performing predetermined arithmetic processing, it is possible to calculate the traveling speed (vehicle speed) of the vehicle.

電動パワーステアリング(EPS)制御ユニット40は、ドライバによる操舵操作を電動モータによってアシストする電動パワーステアリング装置、及び、その補機類を統括的に制御するものである。
EPS制御ユニット40には、モータ41、舵角センサ42等が接続されている。
The electric power steering (EPS) control unit 40 comprehensively controls the electric power steering device that assists the steering operation by the driver by the electric motor and its auxiliary machines.
A motor 41, a steering angle sensor 42, and the like are connected to the EPS control unit 40.

モータ41は、車両の操舵系にアシスト力を付与してドライバによる操舵操作をアシストし、あるいは、自動運転時に舵角を変更する電動アクチュエータである。
車両1が自動運転を行う場合には、モータ41は、自動運転制御ユニット50からの操舵指令に応じて、操舵系の舵角が所定の目標舵角に近づくように操舵系にトルクを付与して転舵を行わせる。
舵角センサ42は、車両の操舵系における現在の舵角を検出するものである。
舵角センサ42は、例えば、ステアリングシャフトの角度位置を検出する位置エンコーダを備えている。
The motor 41 is an electric actuator that applies an assist force to the steering system of the vehicle to assist the steering operation by the driver, or changes the steering angle during automatic driving.
When the vehicle 1 automatically operates, the motor 41 applies torque to the steering system so that the steering angle of the steering system approaches a predetermined target steering angle in response to a steering command from the automatic operation control unit 50. To steer.
The steering angle sensor 42 detects the current steering angle in the steering system of the vehicle.
The steering angle sensor 42 includes, for example, a position encoder that detects an angular position of the steering shaft.

自動運転制御ユニット50は、自動運転モードが選択されている場合に、上述したエンジン制御ユニット10、トランスミッション制御ユニット20、挙動制御ユニット30、EPS制御ユニット40等に制御指令を出力し、車両を自動的に走行させる自動運転制御を実行するものである。 When the automatic driving mode is selected, the automatic driving control unit 50 outputs a control command to the engine control unit 10, the transmission control unit 20, the behavior control unit 30, the EPS control unit 40, etc. described above, and automatically automates the vehicle. It executes automatic driving control to drive the vehicle.

自動運転制御ユニット50は、自動運転モードが選択された時に、環境認識ユニット60から提供される自車両周辺の状況に関する情報、及び、図示しないドライバからの指令等に応じて、自車両が進行すべき目標走行軌跡を設定し、車両の加速(発進)、減速(停止)、前後進切替、転舵などを自動的に行い、予め設定された目的地まで車両を自動的に走行させる自動運転を実行する。
また、自動運転モードは、ユーザが手動運転を希望する場合、あるいは、自動運転の続行が困難である場合等に、ユーザからの所定の解除操作に応じて中止され、ドライバによる手動運転を行う手動運転モードへの復帰が可能となっている。
自動運転制御ユニットは、環境認識ユニット60から自車両周囲の環境に関する情報を取得し、他車両等のリスク対象物を回避可能な目標走行ラインを設定するとともに、自車両1の実際の走行ラインが目標走行ラインに沿うように車両の走行制御を行う。
When the automatic driving mode is selected, the automatic driving control unit 50 advances the own vehicle in response to information on the situation around the own vehicle provided by the environment recognition unit 60, a command from a driver (not shown), and the like. Automatic driving that sets the target driving locus to be driven, automatically accelerates (starts), decelerates (stops), switches forward and backward, steers, etc., and automatically drives the vehicle to a preset destination. Run.
In addition, the automatic operation mode is canceled according to a predetermined release operation from the user when the user desires manual operation or when it is difficult to continue the automatic operation, and the manual operation is performed by the driver. It is possible to return to the operation mode.
The automatic driving control unit acquires information on the environment around the own vehicle from the environment recognition unit 60, sets a target traveling line that can avoid risk objects such as other vehicles, and sets the actual traveling line of the own vehicle 1. The vehicle is controlled to run along the target driving line.

自動運転制御ユニット50には、入出力装置51が接続されている。
入出力装置51は、自動運転制御ユニット50からユーザへの警報や各種メッセージ等の情報を出力するとともに、ユーザからの各種操作の入力を受け付けるものである。
入出力装置51は、例えば、LCD等の画像表示装置、スピーカ等の音声出力装置、タッチパネル等の操作入力装置等を有して構成されている。
An input / output device 51 is connected to the automatic operation control unit 50.
The input / output device 51 outputs information such as alarms and various messages to the user from the automatic operation control unit 50, and also receives inputs of various operations from the user.
The input / output device 51 includes, for example, an image display device such as an LCD, an audio output device such as a speaker, an operation input device such as a touch panel, and the like.

環境認識ユニット60は、自車両周囲の情報を認識するものである。
環境認識ユニット60は、ステレオカメラ制御ユニット70、レーザスキャナ制御ユニット80、後側方レーダ制御ユニット90、ナビゲーション装置100、路車間通信装置110、車車間通信装置120等からそれぞれ提供される情報に基づいて、自車両周辺の駐車車両、走行車両、建築物、地形、歩行者、サイクリスト等の障害物や、自車両が走行する道路の車線形状等を認識するものである。
また、環境認識ユニット60は、後述する画像生成ユニット200、ディスプレイ210等と協働して、本発明の表示装置を構成する。
The environment recognition unit 60 recognizes information around the own vehicle.
The environment recognition unit 60 is based on information provided by the stereo camera control unit 70, the laser scanner control unit 80, the rear side radar control unit 90, the navigation device 100, the road-to-vehicle communication device 110, the vehicle-to-vehicle communication device 120, and the like. It recognizes obstacles such as parked vehicles, traveling vehicles, buildings, terrain, pedestrians, and cyclists around the own vehicle, and the lane shape of the road on which the own vehicle travels.
Further, the environment recognition unit 60 constitutes the display device of the present invention in cooperation with the image generation unit 200, the display 210, etc., which will be described later.

ステレオカメラ制御ユニット70は、車両の周囲に複数組設けられるステレオカメラ71を制御するとともに、ステレオカメラ71から伝達される画像を画像処理するものである。
個々のステレオカメラ71は、例えば、レンズ等の撮像用光学系、CMOS等の固体撮像素子、駆動回路、及び、信号処理装置等からなるカメラユニットを、並列に例えば一対配列して構成されている。
ステレオカメラ制御ユニット70は、公知のステレオ画像処理技術を利用した画像処理結果に基づいて、ステレオカメラ71によって撮像された被写体の形状及び自車両に対する相対位置を認識する。
ステレオカメラ制御ユニット70は、例えば、自車両前方の車線両端部の白線を検出し、車線形状を認識することが可能である。
レーザスキャナ制御ユニット80は、レーザスキャナ81を制御するとともに、レーザスキャナ81の出力に基づいて車両周囲の車両や障害物等の各種物体を3D点群データとして認識するものである。
The stereo camera control unit 70 controls a plurality of sets of stereo cameras 71 provided around the vehicle, and processes images transmitted from the stereo cameras 71.
Each stereo camera 71 is configured by, for example, arranging a pair of camera units in parallel, for example, an optical system for imaging such as a lens, a solid-state imaging element such as CMOS, a drive circuit, and a signal processing device. ..
The stereo camera control unit 70 recognizes the shape of the subject captured by the stereo camera 71 and the relative position with respect to the own vehicle based on the image processing result using the known stereo image processing technique.
The stereo camera control unit 70 can detect, for example, white lines at both ends of the lane in front of the own vehicle and recognize the lane shape.
The laser scanner control unit 80 controls the laser scanner 81 and recognizes various objects such as vehicles and obstacles around the vehicle as 3D point group data based on the output of the laser scanner 81.

後側方レーダ制御ユニット90は、車両の左右側部にそれぞれ設けられる後側方レーダ91を制御するとともに、後側方レーダ91の出力に基づいて自車両後側方に存在する物体を検出するものである。
後側方レーダ91は、例えば、自車両の後側方から接近する他車両を検知可能となっている。
後側方レーダ91として、例えば、レーザレーダ、ミリ波レーダ等のレーダが用いられる。
The rear side radar control unit 90 controls the rear side radar 91 provided on each of the left and right sides of the vehicle, and detects an object existing on the rear side of the own vehicle based on the output of the rear side radar 91. It is a thing.
The rear side radar 91 can detect, for example, another vehicle approaching from the rear side of the own vehicle.
As the rear side radar 91, for example, a radar such as a laser radar or a millimeter wave radar is used.

図2は、実施例の車両において車両周囲を認識するセンサ類の配置を示す模式図である。
ステレオカメラ71は、車両1の前部、後部、左右側部にそれぞれ設けられている。
レーザスキャナ81は、車両1の周囲に実質的に死角が生じないよう分布して複数設けられている
後側方レーダ91は、例えば、車両1の車体左右側部に配置され、検知範囲を車両後方側かつ車幅方向外側に向けて配置されている。
FIG. 2 is a schematic diagram showing the arrangement of sensors that recognize the surroundings of the vehicle in the vehicle of the embodiment.
The stereo camera 71 is provided on the front portion, the rear portion, and the left and right side portions of the vehicle 1, respectively.
A plurality of laser scanners 81 are distributed so as not to generate a blind spot around the vehicle 1, and a plurality of rear side radars 91 are arranged, for example, on the left and right sides of the vehicle body of the vehicle 1, and the detection range is set by the vehicle. It is arranged on the rear side and toward the outside in the vehicle width direction.

ナビゲーション装置100は、例えばGPS受信機等の自車両位置測位手段、予め準備された地図データを蓄積したデータ蓄積手段、自車両の前後方向の方位を検出するジャイロセンサ等を有する。
地図データは、道路、交差点、インターチェンジ等の道路情報を車線レベルで有する。
道路情報は、3次元の車線形状データのほか、各車線(レーン)の右左折可否や、一時停止位置、制限速度等の走行上の制約となる情報も含む。
ナビゲーション装置100は、インストルメントパネルに組み込まれたディスプレイ101を有する。
ディスプレイ101は、ナビゲーション装置100がドライバに対して出力する各種情報が表示される画像表示装置である。
ディスプレイ101は、タッチパネルを有して構成され、ドライバからの各種操作入力が行われる入力部としても機能する。
The navigation device 100 includes, for example, a position positioning means for the own vehicle such as a GPS receiver, a data storage means for accumulating map data prepared in advance, a gyro sensor for detecting the orientation of the own vehicle in the front-rear direction, and the like.
Map data has road information such as roads, intersections, and interchanges at the lane level.
In addition to three-dimensional lane shape data, road information also includes information that restricts driving such as whether or not each lane (lane) can be turned left or right, a stop position, and a speed limit.
The navigation device 100 has a display 101 built into the instrument panel.
The display 101 is an image display device that displays various information output by the navigation device 100 to the driver.
The display 101 is configured to have a touch panel, and also functions as an input unit in which various operation inputs from the driver are performed.

路車間通信装置110は、所定の規格に準拠する通信システムによって、図示しない地上局と通信し、渋滞情報、交通信号機点灯状態、道路工事、事故現場、車線規制、天候、路面状況などに関する情報を取得するものである。 The road-to-vehicle communication device 110 communicates with a ground station (not shown) by a communication system conforming to a predetermined standard, and obtains information on traffic congestion information, traffic signal lighting status, road construction, accident site, lane regulation, weather, road surface condition, and the like. It is what you get.

車車間通信装置120は、所定の規格に準拠する通信システムによって、図示しない他車両と通信し、他車両の位置、方位角、加速度、速度等の車両状態に関する情報や、車種、車両サイズ等の車両属性に関する情報を取得するものである。 The vehicle-to-vehicle communication device 120 communicates with another vehicle (not shown) by a communication system conforming to a predetermined standard, and provides information on the vehicle state such as the position, azimuth angle, acceleration, speed, etc. of the other vehicle, vehicle type, vehicle size, and the like. It acquires information on vehicle attributes.

上述した各種の環境認識手段において、車両1自体に搭載されたセンサによって環境認識を行うステレオカメラ71、レーザスキャナ81、後側方レーダ91等の車両に搭載されたセンサによって直接車線形状や障害物等の検知を行うものが、本発明にいう環境認識手段(直接環境認識手段)である。 In the various environmental recognition means described above, the lane shape and obstacles are directly observed by the sensors mounted on the vehicle such as the stereo camera 71, the laser scanner 81, and the rear side radar 91 that recognize the environment by the sensor mounted on the vehicle 1 itself. It is the environment recognition means (direct environment recognition means) referred to in the present invention that detects such things.

画像生成ユニット200は、環境認識ユニット60から伝達される環境認識結果に基づいて、ディスプレイ210により表示される自車両周辺の環境に関する情報を含む画像(環境画像)を生成するものである。 The image generation unit 200 generates an image (environmental image) including information about the environment around the own vehicle displayed by the display 210 based on the environment recognition result transmitted from the environment recognition unit 60.

ディスプレイ210は、車両の乗員と対向して配置された画像表示装置である。
ディスプレイ210は、例えば、インストルメントパネル等の内装部材に組み込まれたLCDを有する。
The display 210 is an image display device arranged so as to face the occupant of the vehicle.
The display 210 has, for example, an LCD incorporated in an interior member such as an instrument panel.

次に、実施例の表示装置における画像表示時の動作、及び、表示画面の例について説明する。
図3は、実施例の表示装置の動作を示すフローチャートである。
以下、ステップ毎に順を追って説明する。
Next, an operation at the time of displaying an image in the display device of the embodiment and an example of a display screen will be described.
FIG. 3 is a flowchart showing the operation of the display device of the embodiment.
Hereinafter, each step will be described step by step.

<ステップS01:地図データ取得>
環境認識ユニット60は、ナビゲーション装置100から、自車両1が走行している地点近傍の道路形状、車線形状、地形、建築物等に関する情報を含む地図データを取得する。
その後、ステップS02に進む。
<Step S01: Map data acquisition>
The environment recognition unit 60 acquires map data including information on the road shape, lane shape, terrain, buildings, etc. in the vicinity of the point where the own vehicle 1 is traveling from the navigation device 100.
Then, the process proceeds to step S02.

<ステップS02:目標走行ライン情報取得>
環境認識ユニット60は、自動運転制御ユニット50から、自車両1の予定走行経路である目標走行ラインに関する情報を取得する。
その後、ステップS03に進む。
<Step S02: Acquisition of target driving line information>
The environment recognition unit 60 acquires information about a target travel line, which is a planned travel route of the own vehicle 1, from the automatic driving control unit 50.
After that, the process proceeds to step S03.

<ステップS03:車両周囲環境認識>
環境認識ユニット60は、自車両1の周囲の環境を認識する。
環境認識ユニット60は、例えば、車線形状及び地形や、他車両、歩行者、建築物などの各種物体を検出する。
これらの物体に関する情報は、例えば、その種類、自車両からの相対位置、大きさ、形状、さらに、移動している場合は自車両に対する相対速度等を含む。
その後、ステップS04に進む。
<Step S03: Recognition of the environment around the vehicle>
The environment recognition unit 60 recognizes the environment around the own vehicle 1.
The environment recognition unit 60 detects, for example, lane shape and terrain, and various objects such as other vehicles, pedestrians, and buildings.
Information about these objects includes, for example, their type, relative position from their own vehicle, size, shape, and, if moving, relative speed to their own vehicle.
After that, the process proceeds to step S04.

<ステップS04:環境認識不可領域判定>
環境認識ユニット60は、ステレオカメラ71、レーザスキャナ81等のセンサ類による環境認識が不可能な領域(環境認識不可領域)を判定する。
環境認識不可領域として、各センサの検出限界距離以遠の領域、及び、建築物や他車両等の遮蔽物により遮蔽され、死角となっている領域が含まれる。
その後、ステップS05に進む。
<Step S04: Environment recognition unrecognizable area determination>
The environment recognition unit 60 determines an area (environment recognition impossible area) in which environment recognition by sensors such as a stereo camera 71 and a laser scanner 81 is impossible.
The area where the environment cannot be recognized includes an area beyond the detection limit distance of each sensor and an area which is shielded by a shield such as a building or another vehicle and becomes a blind spot.
After that, the process proceeds to step S05.

<ステップS05:リスク対象物抽出>
環境認識ユニット60は、ステップS03において検出された物体のうち、自車両との衝突リスクが想定されるものを抽出し、リスク対象物として設定する。
リスク対象物は、自車両1の目標走行ラインに隣接する物体や、自車両1の目標走行ラインに接近、進入する可能性のある移動体を含む。
その後、ステップS06に進む。
<Step S05: Extraction of risk objects>
The environment recognition unit 60 extracts an object that is expected to have a collision risk with its own vehicle from the objects detected in step S03, and sets it as a risk object.
Risk objects include objects adjacent to the target travel line of the own vehicle 1 and moving objects that may approach or enter the target travel line of the own vehicle 1.
Then, the process proceeds to step S06.

<ステップS06:リスク対象物有無判定>
環境認識ユニット60がステップS05において少なくとも一つのリスク対象物を抽出した場合はステップS07に進む。
また、リスク対象物が抽出されなかった場合はステップS09に進む。
<Step S06: Determination of presence / absence of risk target>
If the environment recognition unit 60 has extracted at least one risk object in step S05, the process proceeds to step S07.
If the risk target is not extracted, the process proceeds to step S09.

<ステップS07:リスク対象物移動・移動可能性判断>
環境認識ユニット60は、ステップS05において抽出されたリスク対象物が、現在移動中である移動体、あるいは、現在停止しているが移動を開始する可能性がある物体であるか、移動しない物体であるかを判別する。
例えば、停止中の他車両は、移動を開始する可能性がある物体として認識される。
リスク対象物が移動体、あるいは、移動を開始する可能性がある物体である場合はステップS08に進み、その他の場合はステップS09に進む。
<Step S07: Risk target movement / movement possibility judgment>
In the environment recognition unit 60, the risk object extracted in step S05 is a moving object that is currently moving, or an object that is currently stopped but may start moving, or an object that does not move. Determine if it exists.
For example, another stopped vehicle is recognized as an object that may start moving.
If the risk object is a moving object or an object that may start moving, the process proceeds to step S08, and if not, the process proceeds to step S09.

<ステップS08:リスク対象物進路推定>
環境認識ユニット60は、リスク対象物が今後とり得る進路を推定する。
リスク対象物が移動体である場合は、現在の速度及び進行方向に基づいて、進路が推定される。
また、リスク対象物が移動を開始する可能性がある物体である場合は、リスク対象物が交通法規(信号機、標識、車線区分等)を遵守した場合にとり得る進路を推定進路とする。
例えば、赤信号や一時停止標識により停車している他車両は、今後前進する可能性を有する。また、ステレオカメラ71によってターンシグナルランプの点滅が検出された場合には、当該方向への右左折、車線変更などが予想される。
リスク対象物の進路推定を終了後、ステップS09に進む。
<Step S08: Risk target course estimation>
The environment recognition unit 60 estimates the course that the risk object may take in the future.
If the risk object is a moving object, the course is estimated based on the current speed and direction of travel.
If the risk object is an object that may start moving, the estimated course is the path that the risk object can take if it complies with traffic regulations (traffic lights, signs, lane classification, etc.).
For example, other vehicles that are stopped at a red light or a stop sign may move forward in the future. If the stereo camera 71 detects that the turn signal lamp is blinking, it is expected that the vehicle will turn left or right in that direction, change lanes, or the like.
After completing the course estimation of the risk object, the process proceeds to step S09.

<ステップS09:リスク可能性領域設定>
環境認識ユニット60は、ステップ04において判定された環境認識不可領域、及び、抽出されたリスク対象物推定進路を、衝突リスクの発生の可能性が存在するリスク可能性領域として設定する。
その後、ステップS10に進む。
<Step S09: Risk potential area setting>
The environment recognition unit 60 sets the environment recognition unrecognizable area determined in step 04 and the estimated course of the extracted risk object as the risk possibility area where the possibility of collision risk exists.
After that, the process proceeds to step S10.

<ステップS10:表示画像データ生成>
画像生成ユニット200は、環境認識ユニット60から提供される情報に基づいて、ディスプレイ210に表示される表示画像の画像データを生成する。
表示画像については、後に詳細に説明する。
その後、ステップS11に進む。
<Step S10: Display image data generation>
The image generation unit 200 generates image data of a display image displayed on the display 210 based on the information provided by the environment recognition unit 60.
The display image will be described in detail later.
After that, the process proceeds to step S11.

<ステップS11:表示画像出力>
画像生成ユニット210は、ステップS10において生成した画像データをディスプレイ210に伝達し、表示画像を表示させる。
その後、一連の処理を終了(リターン)する。
<Step S11: Display image output>
The image generation unit 210 transmits the image data generated in step S10 to the display 210 to display the displayed image.
After that, a series of processing is completed (returned).

以下、実施例の表示装置における表示画像について説明する。
図4は、実施例の表示装置における表示画像の一例を示す図である。
図4に示すように、表示画像は、自車両周辺の環境を、ディテール等を省略して簡素化し、コンピュータグラフィックスにより生成した俯瞰図として表示する。
この俯瞰図においては、自車両の上方かつ後方に設定された仮想視点からの視野を示している。
また、俯瞰図には、自車両のほか、他車両、歩行者、自転車、建造物等の各種リスク対象物を示す図柄が、各リスク対象物の位置を示す箇所に重畳して表示されている。
Hereinafter, the display image in the display device of the embodiment will be described.
FIG. 4 is a diagram showing an example of a display image in the display device of the embodiment.
As shown in FIG. 4, the display image simplifies the environment around the own vehicle by omitting details and the like, and displays it as a bird's-eye view generated by computer graphics.
This bird's-eye view shows the field of view from a virtual viewpoint set above and behind the own vehicle.
In addition, in the bird's-eye view, in addition to the own vehicle, symbols showing various risk objects such as other vehicles, pedestrians, bicycles, buildings, etc. are superimposed and displayed on the place indicating the position of each risk object. ..

図4に示す例では、自車両1は、市街地内で片側一車線左側通行の道路を走行している。
自車両1の前方には、自車両が走行中の道路と、自車両1の車幅方向にほぼ沿った片側一車線左側通行の道路とが交差する交差点Jが存在する。
交差点Jは、自車両1から見て、手前側、奥側に自車両1の車幅方向に沿った横断歩道が設けられるとともに、左右に自車両1の進行方向に沿った横断歩道が設けられている。
自車両1は、図4に破線矢印で図示する目標走行ラインLのように、交差点Jを左折することを予定している。
In the example shown in FIG. 4, the own vehicle 1 is traveling on a road traveling on the left side of one lane on each side in the city area.
In front of the own vehicle 1, there is an intersection J where the road on which the own vehicle is traveling intersects with the road on the left side of one lane substantially along the vehicle width direction of the own vehicle 1.
At the intersection J, a pedestrian crossing along the vehicle width direction of the own vehicle 1 is provided on the front side and the back side when viewed from the own vehicle 1, and a pedestrian crossing along the traveling direction of the own vehicle 1 is provided on the left and right sides. ing.
The own vehicle 1 is scheduled to turn left at the intersection J as shown by the target traveling line L shown by the broken line arrow in FIG.

表示画像には、建築物であるビルB1乃至B4が表示されている。
ビルB1は、交差点Jの左手前側に配置されている。
ビルB2は、交差点Jの右手前側に配置されている。
ビルB3は、交差点Jの左奥側に配置されている。
ビルB4は、交差点Jの右奥側に配置されている。
各ビルB1乃至B4と、各道路の車道との間には、それぞれ歩道が形成されている。
Buildings B1 to B4, which are buildings, are displayed in the display image.
Building B1 is located on the left front side of the intersection J.
Building B2 is located on the right front side of the intersection J.
Building B3 is located on the far left side of the intersection J.
Building B4 is located on the far right side of the intersection J.
A sidewalk is formed between each building B1 to B4 and the roadway of each road.

表示画像には、他車両V1、歩行者PE1、PE2が表示されている。
他車両V1は、交差点Jよりも奥側の対向車線を自車両1側へ走行しており、さらに、ステレオカメラ71によって右折方向へのターンシグナルランプ(不図示)の点滅が検出されている。
歩行者PE1は、ビルB1の近傍の歩道上におり、横断歩道を歩行してビルB2側の歩道へ移動しようとしている。
歩行者PE2は、ビルB4側からビルB2側へ横断歩道を歩行して移動中である。
サイクリストCYは、ビルB1側の歩道上を自車両1と同じ方向へ並走している。
Other vehicles V1, pedestrian PE1, and PE2 are displayed in the display image.
The other vehicle V1 is traveling in the oncoming lane behind the intersection J toward the own vehicle 1, and the stereo camera 71 detects that the turn signal lamp (not shown) blinks in the right turn direction.
The pedestrian PE1 is on the sidewalk near the building B1 and is about to walk on the pedestrian crossing and move to the sidewalk on the building B2 side.
The pedestrian PE2 is walking on the pedestrian crossing from the building B4 side to the building B2 side.
The cyclist CY is running in parallel on the sidewalk on the building B1 side in the same direction as the own vehicle 1.

自車両1の右折先の道路上において、ビルB1、B2によって遮られる死角部分は、ステレオカメラ71等による環境認識が不可能な領域であることから、その路面上はリスク可能性領域R1、R2となっている。
このようなリスク可能性領域R1、R2には、例えば、他車両V2、V3、歩行者PE3などが存在し得る。
このような死角内のリスク対象物は、少なくとも自車両1の現在位置からは直接環境認識手段によって認識することはできないため、リスク可能性領域R1、R2は、安全であると確定判断することができない安全未確認状態となっている。
ただし、図4に示す例においては、自車両1の前方側の信号が進行を許可しているため、他車両V2、V3、歩行者PE3は、これらが交通法規を遵守している限りは信号待ち状態で停止していることから、自車両1の目標走行ラインLに干渉するリスクは比較的低い。
また、歩行者PE1も同様に信号待ち状態で停止しており、比較的リスクは低い。
歩行者PE2に関しては、横断歩道を歩行中であるが、自車両1の目標走行ラインLとは干渉しないため、安全であると認識される。
On the road ahead of the right turn of the own vehicle 1, the blind spots blocked by the buildings B1 and B2 are areas where the environment cannot be recognized by the stereo camera 71 or the like, so the risk potential areas R1 and R2 are on the road surface. It has become.
For example, other vehicles V2, V3, pedestrian PE3, and the like may exist in such risk potential regions R1 and R2.
Since the risk object in such a blind spot cannot be directly recognized by the environmental recognition means from at least the current position of the own vehicle 1, it is possible to determine that the risk potential areas R1 and R2 are safe. It is in an unconfirmed state of safety.
However, in the example shown in FIG. 4, since the signal on the front side of the own vehicle 1 permits the progress, the other vehicles V2, V3, and the pedestrian PE3 signal as long as they comply with the traffic regulations. Since the vehicle is stopped in the waiting state, the risk of interfering with the target traveling line L of the own vehicle 1 is relatively low.
Further, the pedestrian PE1 is also stopped in the signal waiting state, and the risk is relatively low.
The pedestrian PE2 is walking on the pedestrian crossing, but is recognized as safe because it does not interfere with the target traveling line L of the own vehicle 1.

これに対し、対向車である他車両V1は、自車両1の直前で右折を行い、他車両V1の推定進路と自車両1の目標走行ラインLが近接し、さらには交錯することが懸念される。
そこで、他車両V1が右折時に通過する推定進路に、リスク可能性領域R3が設定されている。
On the other hand, the other vehicle V1 which is an oncoming vehicle makes a right turn just before the own vehicle 1, and there is a concern that the estimated course of the other vehicle V1 and the target traveling line L of the own vehicle 1 are close to each other and further intersect. To.
Therefore, the risk possibility region R3 is set in the estimated course that the other vehicle V1 passes when turning right.

また、自車両1と並走するサイクリストCYは、直進して交差点J内をビルB1側からビルB3側へ走行することが推定され得る。
この場合、自車両1の目標走行ラインLを横切ることになるため、サイクリストCYの前方にもリスク可能性領域R4が設定される。
Further, it can be estimated that the cyclist CY running in parallel with the own vehicle 1 goes straight and travels in the intersection J from the building B1 side to the building B3 side.
In this case, since the vehicle crosses the target traveling line L of the own vehicle 1, the risk possibility region R4 is also set in front of the cyclist CY.

上述したリスク可能性領域R1乃至R4は、表示画像上において、他の領域とは異なった共通する表示態様で表示される。
例えば、リスク可能性領域R1乃至R4は、例えば所定の色彩一色(一例としてグレー等)を用いたグラデーション表示としたり、所定の色彩一色で塗りつぶした表示とすることができる。
これに対し、リスク可能性領域以外の領域は、複数の色彩を用いて描画する構成とすることによって、リスク可能性領域R1乃至R4と視覚的な差を設けて、一目瞭然に判別可能とすることができる。
The above-mentioned risk possibility regions R1 to R4 are displayed on the display image in a common display mode different from other regions.
For example, the risk possibility areas R1 to R4 can be displayed in a gradation using, for example, a predetermined color (gray or the like as an example), or can be displayed filled with a predetermined color.
On the other hand, the area other than the risk possibility area is configured to be drawn using a plurality of colors, so that a visual difference from the risk possibility areas R1 to R4 is provided so that the area can be clearly distinguished at a glance. Can be done.

以上説明した実施例によれば、以下の効果を得ることができる。
(1)ステレオカメラ71、レーザスキャナ81等の車載センサによる認識が不可能な領域R1、R2を、他の領域とは異なる表示態様に統一して表示することによって、車載センサによって安全が確認できない領域をユーザが容易に認識することができる。
これによって、どの領域にリスクが生じることが懸念されるかを認識し、ユーザに適切な監視を行わせることができる。
(2)環境認識手段として自車両1に搭載されたステレオカメラ71、レーザスキャナ81等の車載センサを用いることにより、自車両に搭載された構成要素のみで成立可能なスタンドアローンの構成とすることができ、構成の複雑化を防止するとともに信頼性の確保が容易となる。
(3)リスク可能性領域R1乃至R4を所定の色彩一色による塗潰し表示又は所定の色彩一色を用いたグラデーション表示とすることによって、簡単な構成によって上述した効果を確実に得ることができる。
(4)抽出されたリスク対象物の推定進路をリスク可能性領域R3、R4とすることによって、車載センサによって認識が可能な領域内においても、安全であるか確定しない領域はリスク可能性領域R1~R4の一部として、認識を行えない領域と同様に表示することによって、ユーザにより適切に注意を喚起することができる。
(5)他車両V1やサイクリストCYが信号機の指示を遵守した場合に進入が可能な領域にリスク可能性領域R3,R4を設定することによって、リスク対象物が交通法規を遵守しない場合まで考慮することにより、リスク可能性領域が過度に多くなり、現実的に発生することが希であるリスクに対する監視が煩雑となり、かえってユーザの負担が増大することを防止できる。
According to the above-described embodiment, the following effects can be obtained.
(1) Safety cannot be confirmed by the in-vehicle sensor by uniformly displaying the areas R1 and R2 that cannot be recognized by the in-vehicle sensor such as the stereo camera 71 and the laser scanner 81 in a display mode different from other areas. The area can be easily recognized by the user.
This makes it possible to recognize which areas are concerned about risks and to have the user perform appropriate monitoring.
(2) By using an in-vehicle sensor such as a stereo camera 71 and a laser scanner 81 mounted on the own vehicle 1 as an environment recognition means, a stand-alone configuration that can be established only by the components mounted on the own vehicle shall be obtained. This makes it easier to prevent the configuration from becoming complicated and to ensure reliability.
(3) By making the risk possibility areas R1 to R4 a fill display using a predetermined color and a gradation display using a predetermined color , the above-mentioned effect can be surely obtained by a simple configuration.
(4) By setting the estimated course of the extracted risk object as the risk possibility areas R3 and R4, even within the area that can be recognized by the in-vehicle sensor, the area that is uncertain whether it is safe is the risk possibility area R1. By displaying the area as a part of R4 in the same manner as the non-recognizable area, the user can appropriately call attention.
(5) By setting the risk possibility areas R3 and R4 in the area where the other vehicle V1 or the cyclist CY can enter when the instruction of the traffic light is obeyed, the case where the risk object does not obey the traffic regulations is considered. As a result, the risk potential area becomes excessively large, monitoring for risks that rarely occur in reality becomes complicated, and it is possible to prevent the burden on the user from increasing.

(変形例)
本発明は、以上説明した実施例に限定されることなく、種々の変形や変更が可能であって、それらも本発明の技術的範囲内である。
(1)表示装置の構成や、車両の構成は、上述した実施例に限定されず適宜変更することが可能である。また、実施例において車両は乗用車であるが、本発明は貨物車等の商用車、トラック、バス、自動二輪車、その他各種特殊車両などにも適用することが可能である。
(2)実施例において、車両はエンジンを走行用動力源とするものであったが、本発明はこれに限らず、電動モータや、エンジンと電動モータとを組み合わせたハイブリッドシステムを走行用動力源として用いることも可能である。
(3)自車両周辺の環境認識を行うセンサの種類や配置は、上述した実施例には限定されず、適宜変更することが可能である。例えば、実施例におけるセンサ類と併用あるいは代用して、ミリ波レーザ、レーザレーダ、単眼カメラ、超音波ソナー等の各種センサを用いることが可能である。
また、車両自体に搭載されているセンサ類などと併用あるいは代用して、路車間通信や車車間通信によって得た情報や、GPS等の測位手段及びナビゲーション装置等が有する地図データを用いて環境認識を行ってもよい。
(4)実施例においては、表示画像を俯瞰図(鳥瞰図)としているが、これに限らず、例えば平面図や、仮想ドライバ視点から見たドライバーズビューとすることも可能である。また、3D表示が可能なディスプレイを用いて、3D表示を行ってもよい。また、インストルメントパネルに設けたディスプレイによる表示に限らず、例えば、フロントガラスに像を投影するヘッドアップディスプレイによって表示してもよい。
(5)実施例においては、環境認識手段として自車両に搭載されたステレオカメラ、レーダスキャナ等のセンサを用いているが、これに限らず、例えば隣接して走行する他車両(典型的には先行車)に搭載されているセンサの出力を、車車間通信によって取得し、これに基づいて環境認識を行ってもよい。
(6)実施例の表示装置は、自動運転を行う車両に適用されるものであったが、本発明はこれに限らず、手動運転を行う車両の運転支援用としても有用である。
(Modification example)
The present invention is not limited to the examples described above, and various modifications and changes can be made, and these are also within the technical scope of the present invention.
(1) The configuration of the display device and the configuration of the vehicle are not limited to the above-described embodiment and can be appropriately changed. Further, although the vehicle is a passenger car in the embodiment, the present invention can be applied to commercial vehicles such as freight vehicles, trucks, buses, motorcycles, and various other special vehicles.
(2) In the embodiment, the vehicle uses an engine as a driving power source, but the present invention is not limited to this, and an electric motor or a hybrid system combining an engine and an electric motor is used as a driving power source. It can also be used as.
(3) The type and arrangement of the sensors that recognize the environment around the own vehicle are not limited to the above-described embodiment, and can be appropriately changed. For example, various sensors such as a millimeter wave laser, a laser radar, a monocular camera, and an ultrasonic sonar can be used in combination with or in place of the sensors in the embodiment.
In addition, environment recognition is performed using information obtained by road-to-vehicle communication and vehicle-to-vehicle communication, and map data possessed by positioning means such as GPS and navigation devices, etc., in combination with or in place of sensors mounted on the vehicle itself. May be done.
(4) In the embodiment, the displayed image is a bird's-eye view (bird's-eye view), but the display image is not limited to this, and for example, a plan view or a driver's view viewed from a virtual driver's viewpoint can be used. Further, a 3D display may be performed using a display capable of 3D display. Further, the display is not limited to the display provided on the instrument panel, and may be displayed by, for example, a head-up display that projects an image on the windshield.
(5) In the embodiment, a sensor such as a stereo camera or a radar scanner mounted on the own vehicle is used as an environment recognition means, but the present invention is not limited to this, and for example, another vehicle traveling adjacently (typically). The output of the sensor mounted on the preceding vehicle) may be acquired by vehicle-to-vehicle communication, and environmental recognition may be performed based on this.
(6) The display device of the embodiment has been applied to a vehicle that performs automatic driving, but the present invention is not limited to this, and is also useful for driving support of a vehicle that performs manual driving.

1 車両 10 エンジン制御ユニット
20 トランスミッション制御ユニット 21 前後進切替アクチュエータ
22 レンジ検出センサ 30 挙動制御ユニット
31 ハイドロリックコントロールユニット(HCU)
32 車速センサ
40 電動パワーステアリング(EPS)制御ユニット
41 モータ 42 舵角センサ
50 自動運転制御ユニット 51 入出力装置
60 環境認識ユニット 70 カメラ制御ユニット
71 ステレオカメラ
80 レーザスキャナ制御ユニット
81 レーザスキャナ 90 後側方レーダ制御ユニット
91 後側方レーダ 100 ナビゲーション装置
101 ディスプレイ
110 路車間通信装置 120 車車間通信装置
200 画像生成ユニット 210 ディスプレイ
J 交差点 S 信号
V1~V3 他車両 PE1~PE3 歩行者
CY サイクリスト B1~B4 ビル
R1~R4 リスク可能性領域 L 目標走行ライン
1 Vehicle 10 Engine control unit 20 Transmission control unit 21 Forward / backward switching actuator 22 Range detection sensor 30 Behavior control unit 31 Hydraulic control unit (HCU)
32 Vehicle speed sensor 40 Electric power steering (EPS) control unit 41 Motor 42 Steering angle sensor 50 Automatic operation control unit 51 Input / output device 60 Environment recognition unit 70 Camera control unit 71 Stereo camera 80 Laser scanner control unit 81 Laser scanner 90 Rear side Radar control unit 91 Rear side radar 100 Navigation device 101 Display 110 Road-to-vehicle communication device 120 Vehicle-to-vehicle communication device 200 Image generation unit 210 Display J intersection S signal V1 to V3 Other vehicles PE1 to PE3 Pedestrian CY cyclist B1 to B4 Building R1 ~ R4 Risk potential area L Target driving line

Claims (4)

自車両周囲の環境を認識するとともに認識が可能な領域内においてリスク対象物を抽出する環境認識手段と、
予め準備された地図データを用いて自車両周囲の道路形状を示す画像を生成する画像生成手段と、
前記画像生成手段が生成した前記画像を表示する画像表示手段と
を備える表示装置であって、
前記画像生成手段は、前記画像において前記環境認識手段による認識が不可能である領域及び前記リスク対象物の推定進路を含むリスク可能性領域を、所定の色彩一色による塗潰し表示又は所定の色彩一色を用いたグラデーション表示に統一し、前記リスク可能性領域以外の領域を複数の色彩を用いて描画し、前記リスク可能性領域及び前記リスク可能性領域以外の領域を同一画面内で同時に表示すること
を特徴とする表示装置。
An environment recognition means that recognizes the environment around the vehicle and extracts risk objects within the recognizable area.
An image generation means that generates an image showing the shape of the road around the vehicle using map data prepared in advance, and an image generation means.
A display device including an image display means for displaying the image generated by the image generation means.
The image generation means fills the area in the image that cannot be recognized by the environment recognition means and the risk possibility area including the estimated course of the risk object with a predetermined color or a predetermined color. Unify the gradation display using one color, draw the area other than the risk possibility area using multiple colors, and display the risk possibility area and the area other than the risk possibility area at the same time on the same screen. A display device characterized by doing.
前記環境認識手段は、自車両に搭載されたセンサの出力に基づいて環境を認識すること
を特徴とする請求項1に記載の表示装置。
The display device according to claim 1, wherein the environment recognition means recognizes the environment based on the output of a sensor mounted on the own vehicle.
前記環境認識手段は、自車両に搭載されたセンサの出力、及び、自車両の近隣を走行しかつ自車両と通信可能な車車間通信装置を有する他車両に搭載されたセンサの出力に基づいて環境を認識すること
を特徴とする請求項1に記載の表示装置。
The environment recognition means is based on the output of a sensor mounted on the own vehicle and the output of a sensor mounted on another vehicle having an inter-vehicle communication device capable of traveling in the vicinity of the own vehicle and communicating with the own vehicle. The display device according to claim 1, wherein the display device is characterized by recognizing an environment.
前記リスク対象物は他車両又は歩行者であり、
前記環境認識手段は、前記リスク対象物が交通法規を遵守した場合に進行が可能である領域を前記リスク対象物の推定進路として設定すること
を特徴とする請求項1から請求項3までのいずれか1項に記載の表示装置。
The risk object is another vehicle or pedestrian,
Any of claims 1 to 3, wherein the environmental recognition means sets an area where the risk object can proceed when the risk object complies with the traffic regulations as an estimated course of the risk object. The display device according to item 1.
JP2016071120A 2016-03-31 2016-03-31 Display device Active JP7100421B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016071120A JP7100421B2 (en) 2016-03-31 2016-03-31 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016071120A JP7100421B2 (en) 2016-03-31 2016-03-31 Display device

Publications (2)

Publication Number Publication Date
JP2017182588A JP2017182588A (en) 2017-10-05
JP7100421B2 true JP7100421B2 (en) 2022-07-13

Family

ID=60007375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016071120A Active JP7100421B2 (en) 2016-03-31 2016-03-31 Display device

Country Status (1)

Country Link
JP (1) JP7100421B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7149199B2 (en) * 2019-02-13 2022-10-06 株式会社Subaru Autonomous driving system
JP2020144417A (en) * 2019-03-04 2020-09-10 アイシン・エィ・ダブリュ株式会社 Risk acquisition system, risk display system, and risk acquisition program
JP2020164045A (en) * 2019-03-29 2020-10-08 マツダ株式会社 Vehicle travel control device
US11292458B2 (en) 2019-07-31 2022-04-05 Toyota Research Institute, Inc. Autonomous vehicle user interface with predicted trajectories
JP7420008B2 (en) * 2020-08-20 2024-01-23 株式会社デンソー display control device
WO2022162909A1 (en) * 2021-01-29 2022-08-04 日産自動車株式会社 Display control device and display control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165555A (en) 2003-12-01 2005-06-23 Nissan Motor Co Ltd Dangerous location display system
JP2007233770A (en) 2006-03-01 2007-09-13 Alpine Electronics Inc On-vehicle circumstance indication device
JP2012192878A (en) 2011-03-17 2012-10-11 Toyota Motor Corp Risk determination system
JP2015146142A (en) 2014-02-04 2015-08-13 三菱自動車工業株式会社 Information output apparatus

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11108684A (en) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd Car navigation system
JP2010073026A (en) * 2008-09-19 2010-04-02 Toyota Motor Corp Vehicle driving support apparatus
JP5573617B2 (en) * 2010-11-12 2014-08-20 トヨタ自動車株式会社 Risk calculation device
EP2743901B1 (en) * 2011-08-10 2018-10-31 Toyota Jidosha Kabushiki Kaisha Driving assistance device
JP6690194B2 (en) * 2015-11-05 2020-04-28 株式会社デンソー Driving support transmitter, driving support receiver, program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005165555A (en) 2003-12-01 2005-06-23 Nissan Motor Co Ltd Dangerous location display system
JP2007233770A (en) 2006-03-01 2007-09-13 Alpine Electronics Inc On-vehicle circumstance indication device
JP2012192878A (en) 2011-03-17 2012-10-11 Toyota Motor Corp Risk determination system
JP2015146142A (en) 2014-02-04 2015-08-13 三菱自動車工業株式会社 Information output apparatus

Also Published As

Publication number Publication date
JP2017182588A (en) 2017-10-05

Similar Documents

Publication Publication Date Title
JP6294905B2 (en) Display device
JP6383376B2 (en) Peripheral risk display device
JP7100421B2 (en) Display device
JP6688655B2 (en) Vehicle condition monitoring device
CN107264399B (en) Vehicle periphery monitoring device
JP6305456B2 (en) Display device
JP6773433B2 (en) Peripheral risk display device
JP6542708B2 (en) Display device
JP6688656B2 (en) Surrounding risk display device
US11338821B2 (en) Display system, display method, and storage medium
CN109455137B (en) Driving support device and driving support method
JP6757585B2 (en) Display device
JP6744744B2 (en) Display device
JP6633957B2 (en) Peripheral risk display
JP6757586B2 (en) Abnormality notification device
JP6889587B2 (en) Image display device
JP6667346B2 (en) Peripheral risk display
JP6959893B2 (en) Vehicle control system
JP2017182566A (en) Periphery risk display device
JP6667347B2 (en) Display device
JP6894744B2 (en) Image display device
JP2021028777A (en) Display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210607

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210607

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210615

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210616

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210917

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210928

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211122

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220125

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20220317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220426

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220510

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220607

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220701

R150 Certificate of patent or registration of utility model

Ref document number: 7100421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150