JP2017182588A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2017182588A
JP2017182588A JP2016071120A JP2016071120A JP2017182588A JP 2017182588 A JP2017182588 A JP 2017182588A JP 2016071120 A JP2016071120 A JP 2016071120A JP 2016071120 A JP2016071120 A JP 2016071120A JP 2017182588 A JP2017182588 A JP 2017182588A
Authority
JP
Japan
Prior art keywords
vehicle
risk
image
environment
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016071120A
Other languages
Japanese (ja)
Other versions
JP7100421B2 (en
Inventor
広隆 齊藤
Hirotaka Saito
広隆 齊藤
淳也 関
Junya Seki
淳也 関
一文 鈴木
Kazufumi Suzuki
一文 鈴木
長田 勇輝
Isateru Osada
勇輝 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Subaru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Subaru Corp filed Critical Subaru Corp
Priority to JP2016071120A priority Critical patent/JP7100421B2/en
Publication of JP2017182588A publication Critical patent/JP2017182588A/en
Application granted granted Critical
Publication of JP7100421B2 publication Critical patent/JP7100421B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display device capable of readily and intuitively grasping an area where a risk may be present.SOLUTION: A display device comprises: environment recognition means for recognizing an environment around an own vehicle; image generation means for generating an image showing a road shape around the own vehicle by the use of map data prepared in advance; and image display means for displaying the image generated by the image generation means. The image generation means unifies, in the image, risk possibility areas R1-R4, including an area that cannot be recognized by the environment recognition means, in a display mode different from that for another area, and displays the risk possibility areas.SELECTED DRAWING: Figure 4

Description

本発明は、自車両周辺の環境に関する情報を画像表示する表示装置に関し、特にリスクが存在し得る領域を直感的かつ容易に把握可能なものに関する。   The present invention relates to a display device that displays an image of information related to the environment around the host vehicle, and more particularly to a display device that can intuitively and easily grasp a region where there is a risk.

自動車等の車両において、自車両前方の状況を、例えばカメラ、レーザスキャナ、レーダ等の各種の周辺認識手段によって認識し、認識結果に基づいて車線形状や障害物等に関する情報を画像表示する表示装置が各種提案されている。
このような表示装置を用いると、乗員自らが目視により得られる以上の情報を得ることができ、乗員が運転者として運転する場合の運転支援としても、また、自動運転を行う車両において乗員が自動運転制御の妥当性を監視するためにも有用である。
In a vehicle such as an automobile, a display device that recognizes the situation ahead of the host vehicle by various peripheral recognition means such as a camera, a laser scanner, a radar, etc., and displays information on lane shapes, obstacles, etc. based on the recognition result Various proposals have been made.
By using such a display device, it is possible to obtain more information than can be obtained by the occupant himself / herself, and as driving assistance when the occupant is driving as a driver, the occupant is automatically It is also useful for monitoring the adequacy of operational control.

このような車両の周辺環境認識に関する従来技術として、例えば特許文献1には、ミリ波センサが物体を検出した場合に、自車両を制御して衝突回避を図る車両用衝突危険回避システムにおいて、可視光によって検出不可能な物体は危険度がより高いものとし、強くドライバに警告を与えることが記載されている。
特許文献2には、自車両からは死角領域に入り認識できない領域の他車両の存在を、先行車両の挙動に基づいて推定する車両環境推定装置が記載されている。
As a prior art related to the recognition of the surrounding environment of a vehicle, for example, Patent Document 1 discloses that in a vehicle collision risk avoidance system that controls a host vehicle and avoids a collision when a millimeter wave sensor detects an object. It is described that an object that cannot be detected by light has a higher degree of danger and strongly gives a warning to the driver.
Patent Document 2 describes a vehicle environment estimation device that estimates the presence of another vehicle in a blind spot region that cannot be recognized from the host vehicle based on the behavior of a preceding vehicle.

特開2013−156793号公報JP 2013-156793 A 特開2010−267211号公報JP 2010-267211 A

近年、カメラやレーダ等のセンサ類を用いた環境認識技術が進化し、センサの検知範囲内においては、環境認識結果に基づく情報で安全を担保することが可能となっている。
しかし、環境認識結果に基づく全ての情報をユーザ(手動運転時におけるドライバ)に表示すると、ドライバの認識負荷が高まり、監視負担が重いものとなる。
これに対し、環境認識手段によって認識可能な領域と、認識不可能な領域とをユーザが認識することができれば、認識不可能な領域からリスク対象物が出現することを警戒したり、認識可能な領域において環境認識結果が妥当であるか判別することが容易となる。
本発明の課題は、リスクが存在し得る領域を直感的かつ容易に把握可能な表示装置を提供することである。
In recent years, environment recognition technology using sensors such as cameras and radars has evolved, and it is possible to ensure safety with information based on the results of environment recognition within the detection range of the sensors.
However, if all the information based on the environment recognition result is displayed to the user (driver during manual operation), the driver's recognition load increases and the monitoring burden becomes heavy.
On the other hand, if the user can recognize the area that can be recognized by the environment recognition means and the area that cannot be recognized, it is possible to warn or recognize that the risk object appears from the area that cannot be recognized. It is easy to determine whether the environment recognition result is valid in the area.
The subject of this invention is providing the display apparatus which can grasp | ascertain the area | region where a risk may exist intuitively and easily.

本発明は、以下のような解決手段により、上述した課題を解決する。
請求項1に係る発明は、自車両周囲の環境を認識する環境認識手段と、予め準備された地図データを用いて自車両周囲の道路形状を示す画像を生成する画像生成手段と、前記画像生成手段が生成した前記画像を表示する画像表示手段とを備える表示装置であって、前記画像生成手段は、前記画像において前記環境認識手段による認識が不可能である領域を含むリスク可能性領域を、他の領域とは異なる表示態様に統一して表示することを特徴とする表示装置である。
これによれば、環境認識手段による認識が不可能な領域を他の領域とは異なる表示態様に統一して表示することによって、環境認識手段によって安全が確認できない領域をユーザが容易に認識することができる。
これによって、どの領域にリスクが生じることが懸念されるかを認識し、ユーザに適切な監視を行わせることができる。
The present invention solves the above-described problems by the following means.
The invention according to claim 1 is an environment recognition unit that recognizes an environment around the host vehicle, an image generation unit that generates an image showing a road shape around the host vehicle using map data prepared in advance, and the image generation unit. An image display means for displaying the image generated by the means, wherein the image generation means includes a risk potential area including an area in the image that cannot be recognized by the environment recognition means, The display device is characterized by being displayed in a unified manner in a display mode different from other regions.
According to this, the user can easily recognize the area whose safety cannot be confirmed by the environment recognizing means by displaying the area that cannot be recognized by the environment recognizing means in a display manner different from other areas. Can do.
As a result, it is possible to recognize in which area the risk is concerned and allow the user to perform appropriate monitoring.

請求項2に係る発明は、前記環境認識手段は、自車両に搭載されたセンサの出力に基づいて環境を認識することを特徴とする請求項1に記載の表示装置である。
これによれば、自車両に搭載された構成要素のみで成立可能なスタンドアローンの構成とすることができ、構成の複雑化を防止するとともに信頼性の確保が容易となる。
The invention according to claim 2 is the display device according to claim 1, wherein the environment recognition means recognizes the environment based on an output of a sensor mounted on the host vehicle.
According to this, it can be set as the stand-alone structure which can be established only with the component mounted in the own vehicle, and it becomes easy to ensure reliability while preventing complication of the structure.

請求項3に係る発明は、前記環境認識手段は、自車両に搭載されたセンサの出力、及び、自車両の近隣を走行しかつ自車両と通信可能な車車間通信装置を有する他車両に搭載されたセンサの出力に基づいて環境を認識することを特徴とする請求項1に記載の表示装置である。
これによれば、車車間通信を介して他車両のセンサが検出した情報を利用することによって、環境認識手段による認識が可能な領域を拡大し、リスク可能性領域を縮小することができる。
According to a third aspect of the present invention, the environment recognition means is mounted on another vehicle having an output of a sensor mounted on the host vehicle and an inter-vehicle communication device that travels in the vicinity of the host vehicle and can communicate with the host vehicle. The display device according to claim 1, wherein an environment is recognized based on an output of the sensor.
According to this, by using the information detected by the sensor of the other vehicle via the inter-vehicle communication, the area that can be recognized by the environment recognizing means can be expanded and the risk possibility area can be reduced.

請求項4に係る発明は、前記画像生成手段は、前記リスク可能性領域を同系色によって表示することを特徴とする請求項1から請求項3までのいずれか1項に記載の表示装置である。
これによれば、簡単な構成によって上述した効果を確実に得ることができる。
ここで、同系色を用いた表示として、単色による塗りつぶし、同系色による濃淡表示等を含むものとする。
According to a fourth aspect of the present invention, in the display device according to any one of the first to third aspects, the image generating means displays the risk potential area with a similar color. .
According to this, the effect mentioned above can be acquired reliably with a simple configuration.
Here, the display using the similar color includes filling with a single color, shading display with the similar color, and the like.

請求項5に係る発明は、前記環境認識手段は、前記環境認識手段によって認識が可能な領域内においてリスク対象物を抽出し、前記画像生成手段は、前記リスク対象物の推定進路を前記リスク可能性領域の一部とすることを特徴とする請求項1から請求項4までのいずれか1項に記載の表示装置である。
これによれば、環境認識手段によって認識が可能な領域内においても、安全であるか確定しない領域はリスク可能性領域の一部として、環境認識手段による認識を行えない領域と同様に表示することによって、ユーザにより適切に注意を喚起することができる。
In the invention according to claim 5, the environment recognizing unit extracts a risk object in a region that can be recognized by the environment recognizing unit, and the image generating unit can estimate the estimated course of the risk object. The display device according to any one of claims 1 to 4, wherein the display device is a part of the sex region.
According to this, even in the area that can be recognized by the environment recognition means, the area that is not determined to be safe is displayed as a part of the risk possibility area in the same manner as the area that cannot be recognized by the environment recognition means. Thus, the user can be appropriately alerted.

請求項6に係る発明は、前記リスク対象物は他車両又は歩行者であり、前記環境認識手段は、前記リスク対象物が交通法規を遵守した場合に進行が可能である領域を前記リスク対象物の推定進路として設定することを特徴とする請求項5に記載の表示装置である。
これによれば、リスク対象物が交通法規を遵守しない(例えば、赤信号無視など)場合を考慮することにより、リスク可能性領域が過度に多くなり、現実的に発生する可能性がきわめて低いリスクに対する監視が煩雑となり、かえってユーザの負担が増大することを防止できる。
According to a sixth aspect of the present invention, the risk object is another vehicle or a pedestrian, and the environment recognition means defines an area where the risk object can proceed when the risk object complies with traffic regulations. The display device according to claim 5, wherein the display device is set as an estimated course.
According to this, by considering the case where the risk object does not comply with traffic laws (for example, ignoring red light), the risk potential area becomes excessively large, and the risk that is very unlikely to occur in reality It becomes possible to prevent the burden on the user from increasing due to complicated monitoring.

以上説明したように、本発明によれば、リスクが存在し得る領域を直感的かつ容易に把握可能な表示装置を提供することができる。   As described above, according to the present invention, it is possible to provide a display device that can intuitively and easily grasp a region where a risk may exist.

本発明を適用した表示装置の実施例が設けられる車両の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the vehicle in which the Example of the display apparatus to which this invention is applied is provided. 実施例の車両において車両周囲を認識するセンサ類の配置を示す模式図である。It is a schematic diagram which shows arrangement | positioning of the sensors which recognize the vehicle periphery in the vehicle of an Example. 実施例の表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the display apparatus of an Example. 実施例の表示装置における画面表示の一例を模式的に示す図である。It is a figure which shows typically an example of the screen display in the display apparatus of an Example.

本発明は、リスクが存在し得る領域を直感的かつ容易に把握可能な表示装置を提供する課題を、車両に搭載されたセンサを用いる直接環境認識手段による認識が不可能な領域、及び、他車両等が自車両の進路に進入し得る領域を、リスク可能性領域を示す同系色によって表示することによって解決した。   The present invention provides a problem of providing a display device that can intuitively and easily grasp an area where a risk may exist, an area where direct environment recognition means using a sensor mounted on a vehicle cannot be recognized, and others The problem is solved by displaying the area in which the vehicle or the like can enter the course of the host vehicle with similar colors indicating the risk potential area.

以下、本発明を適用した表示装置の実施例について説明する。
図1は、本発明を適用した表示装置の実施例が設けられる車両の構成を模式的に示すブロック図である。
実施例の表示装置は、例えば、自動運転機能を有する乗用車等の自動車である車両1に設けられ、ユーザ(例えば手動運転時のドライバ)等のユーザ等に対して、自車両周辺の道路形状(車線形状)や、他車両、歩行者、建造物等の障害物に関する情報等を画像表示するものである。
ユーザは、表示装置が提示する情報に基づいて、自車両前方の車線形状や障害物を監視するとともに、自動運転制御の実行時においては、自動運転制御の妥当性を検証することができる。
Examples of display devices to which the present invention is applied will be described below.
FIG. 1 is a block diagram schematically showing the configuration of a vehicle provided with an embodiment of a display device to which the present invention is applied.
The display device of the embodiment is provided in a vehicle 1 that is an automobile such as a passenger car having an automatic driving function, for example, and a road shape ( Lane shape), information on obstacles such as other vehicles, pedestrians, buildings, etc. are displayed as images.
Based on the information presented by the display device, the user can monitor the lane shape and obstacles ahead of the host vehicle, and can verify the validity of the automatic driving control when the automatic driving control is executed.

図1に示すように、車両1は、エンジン制御ユニット10、トランスミッション制御ユニット20、挙動制御ユニット30、電動パワーステアリング(EPS)制御ユニット40、自動運転制御ユニット50、環境認識ユニット60、ステレオカメラ制御ユニット70、レーザスキャナ制御ユニット80、後側方レーダ制御ユニット90、ナビゲーション装置100、路車間通信装置110、車車間通信装置120、画像生成ユニット200、ディスプレイ210等を備えている。
上述した各ユニットは、例えば、CPU等の情報処理手段、RAMやROM等の記憶手段、入出力インターフェイス、及び、これらを接続するバス等を有するユニットとして構成される。これらの各ユニットは、例えばCAN通信システム等の車載LANシステムを介して相互に通信が可能となっている。
As shown in FIG. 1, the vehicle 1 includes an engine control unit 10, a transmission control unit 20, a behavior control unit 30, an electric power steering (EPS) control unit 40, an automatic operation control unit 50, an environment recognition unit 60, and a stereo camera control. A unit 70, a laser scanner control unit 80, a rear side radar control unit 90, a navigation device 100, a road-vehicle communication device 110, a vehicle-vehicle communication device 120, an image generation unit 200, a display 210, and the like are provided.
Each unit described above is configured as a unit having, for example, information processing means such as a CPU, storage means such as RAM and ROM, an input / output interface, and a bus for connecting them. These units can communicate with each other via an in-vehicle LAN system such as a CAN communication system.

エンジン制御ユニット10は、車両1の走行用動力源であるエンジン及びその補機類を統括的に制御するものである。
エンジンとして、例えば、4ストロークガソリンエンジンが用いられる。
エンジン制御ユニット(ECU)10は、エンジンのスロットルバルブ開度、燃料噴射量及び噴射時期、点火時期等を制御することによって、エンジンの出力トルクを制御することが可能である。
車両1がドライバの運転操作に応じて運転される状態においては、エンジン制御ユニット10は、アクセルペダルの操作量等に基いて設定されるドライバ要求トルクに、エンジンの実際のトルクが近づくようエンジンの出力を制御する。
また、車両1が自動運転を行う場合には、エンジン制御ユニット10は、自動運転制御ユニット50からの指令に応じてエンジンの出力を制御する。
The engine control unit 10 comprehensively controls an engine that is a driving power source for the vehicle 1 and its accessories.
For example, a 4-stroke gasoline engine is used as the engine.
The engine control unit (ECU) 10 can control the engine output torque by controlling the throttle valve opening, fuel injection amount and injection timing, ignition timing, and the like of the engine.
In a state in which the vehicle 1 is driven in accordance with the driving operation of the driver, the engine control unit 10 causes the engine torque so that the actual torque of the engine approaches the driver required torque set based on the operation amount of the accelerator pedal. Control the output.
Further, when the vehicle 1 performs automatic driving, the engine control unit 10 controls the output of the engine in accordance with a command from the automatic driving control unit 50.

トランスミッション制御ユニット(TCU)20は、エンジンの回転出力を変速するとともに、車両の前進、後退を切り替える図示しない変速機及び補機類を統括的に制御するものである。
車両1が自動運転を行う場合には、トランスミッション制御ユニット20は、自動運転制御ユニット50からの指令に応じて、前後進等のレンジ切替や変速比の設定を行う。
変速機として、例えば、チェーン式、ベルト式、トロイダル式等のCVTや、複数のプラネタリギヤセットを有するステップAT、DCT、AMT等の各種自動変速機を用いることができる。
変速機は、バリエータ等の変速機構部のほか、例えばトルクコンバータ、乾式クラッチ、湿式クラッチ等の発進デバイスや、前進走行レンジと後退走行レンジとを切替える前後進切替機構等を有して構成されている。
The transmission control unit (TCU) 20 controls the transmission and auxiliary equipment (not shown) that switches between forward and backward movements of the vehicle while shifting the rotational output of the engine.
When the vehicle 1 performs automatic driving, the transmission control unit 20 performs range switching such as forward / backward travel and setting of a gear ratio in accordance with a command from the automatic driving control unit 50.
As the transmission, for example, chain-type, belt-type, toroidal-type CVT, and various automatic transmissions such as step AT, DCT, AMT having a plurality of planetary gear sets can be used.
In addition to a transmission mechanism such as a variator, the transmission includes a starting device such as a torque converter, a dry clutch, a wet clutch, and a forward / reverse switching mechanism that switches between a forward travel range and a reverse travel range. Yes.

トランスミッション制御ユニット20には、前後進切替アクチュエータ21、レンジ検出センサ22等が接続されている。
前後進切替アクチュエータ21は、前後進切替機構に油圧を供給する油路を切り替える前後進切替バルブを駆動し、車両の前後進を切替えるものである。
前後進切替アクチュエータ21は、例えば、ソレノイド等の電動アクチュエータである。
レンジ検出センサ22は、変速機において現在選択されているレンジが前進用のものであるか、後退用のものであるかを判別するセンサ(スイッチ)である。
The transmission control unit 20 is connected to a forward / reverse switching actuator 21, a range detection sensor 22, and the like.
The forward / reverse switching actuator 21 drives a forward / reverse switching valve that switches an oil passage that supplies hydraulic pressure to the forward / reverse switching mechanism, and switches forward / backward travel of the vehicle.
The forward / reverse switching actuator 21 is an electric actuator such as a solenoid, for example.
The range detection sensor 22 is a sensor (switch) that determines whether the currently selected range in the transmission is for forward movement or reverse movement.

挙動制御ユニット30は、左右前後輪にそれぞれ設けられた液圧式サービスブレーキのホイルシリンダ液圧を個別に制御することによって、アンダーステアやオーバステア等の車両挙動を抑制する挙動制御や、制動時のホイルロックを回復させるアンチロックブレーキ制御を行うものである。
挙動制御ユニット30には、ハイドロリックコントロールユニット(HCU)31、車速センサ32等が接続されている。
The behavior control unit 30 individually controls the wheel cylinder hydraulic pressures of the hydraulic service brakes provided on the left and right front and rear wheels, respectively, to control the vehicle behavior such as understeer and oversteer, and wheel lock during braking. Anti-lock brake control to recover
A hydraulic control unit (HCU) 31, a vehicle speed sensor 32, and the like are connected to the behavior control unit 30.

HCU31は、液圧式サービスブレーキの作動流体であるブレーキフルードを加圧する電動ポンプ、及び、各車輪のホイルシリンダに供給される液圧を個別に調節するバルブ等を有する。
車両1が自動運転を行う場合には、HCU31は、自動運転制御ユニット50からの制動指令に応じて、各車輪のホイルシリンダに制動力を発生させる。
車速センサ32は、各車輪のハブ部に設けられ、車輪の回転速度に比例する周波数の車速パルス信号を発生するものである。
車速パルス信号の周波数を検出し、所定の演算処理を施すことによって、車両の走行速度(車速)を算出することが可能である。
The HCU 31 includes an electric pump that pressurizes brake fluid that is a working fluid of a hydraulic service brake, a valve that individually adjusts the hydraulic pressure supplied to the wheel cylinder of each wheel, and the like.
When the vehicle 1 performs automatic driving, the HCU 31 generates a braking force on the wheel cylinder of each wheel in response to a braking command from the automatic driving control unit 50.
The vehicle speed sensor 32 is provided at the hub portion of each wheel, and generates a vehicle speed pulse signal having a frequency proportional to the rotational speed of the wheel.
It is possible to calculate the traveling speed (vehicle speed) of the vehicle by detecting the frequency of the vehicle speed pulse signal and performing a predetermined calculation process.

電動パワーステアリング(EPS)制御ユニット40は、ドライバによる操舵操作を電動モータによってアシストする電動パワーステアリング装置、及び、その補機類を統括的に制御するものである。
EPS制御ユニット40には、モータ41、舵角センサ42等が接続されている。
The electric power steering (EPS) control unit 40 comprehensively controls an electric power steering device that assists a steering operation by a driver with an electric motor and its auxiliary devices.
The EPS control unit 40 is connected to a motor 41, a steering angle sensor 42, and the like.

モータ41は、車両の操舵系にアシスト力を付与してドライバによる操舵操作をアシストし、あるいは、自動運転時に舵角を変更する電動アクチュエータである。
車両1が自動運転を行う場合には、モータ41は、自動運転制御ユニット50からの操舵指令に応じて、操舵系の舵角が所定の目標舵角に近づくように操舵系にトルクを付与して転舵を行わせる。
舵角センサ42は、車両の操舵系における現在の舵角を検出するものである。
舵角センサ42は、例えば、ステアリングシャフトの角度位置を検出する位置エンコーダを備えている。
The motor 41 is an electric actuator that assists the steering operation by the driver by applying assist force to the steering system of the vehicle, or changes the steering angle during automatic driving.
When the vehicle 1 performs automatic driving, the motor 41 applies torque to the steering system in accordance with the steering command from the automatic driving control unit 50 so that the steering angle of the steering system approaches a predetermined target steering angle. To steer.
The rudder angle sensor 42 detects the current rudder angle in the vehicle steering system.
The steering angle sensor 42 includes, for example, a position encoder that detects the angular position of the steering shaft.

自動運転制御ユニット50は、自動運転モードが選択されている場合に、上述したエンジン制御ユニット10、トランスミッション制御ユニット20、挙動制御ユニット30、EPS制御ユニット40等に制御指令を出力し、車両を自動的に走行させる自動運転制御を実行するものである。   When the automatic operation mode is selected, the automatic operation control unit 50 outputs a control command to the engine control unit 10, the transmission control unit 20, the behavior control unit 30, the EPS control unit 40, and the like described above to automatically operate the vehicle. The automatic operation control for running the vehicle automatically is executed.

自動運転制御ユニット50は、自動運転モードが選択された時に、環境認識ユニット60から提供される自車両周辺の状況に関する情報、及び、図示しないドライバからの指令等に応じて、自車両が進行すべき目標走行軌跡を設定し、車両の加速(発進)、減速(停止)、前後進切替、転舵などを自動的に行い、予め設定された目的地まで車両を自動的に走行させる自動運転を実行する。
また、自動運転モードは、ユーザが手動運転を希望する場合、あるいは、自動運転の続行が困難である場合等に、ユーザからの所定の解除操作に応じて中止され、ドライバによる手動運転を行う手動運転モードへの復帰が可能となっている。
自動運転制御ユニットは、環境認識ユニット60から自車両周囲の環境に関する情報を取得し、他車両等のリスク対象物を回避可能な目標走行ラインを設定するとともに、自車両1の実際の走行ラインが目標走行ラインに沿うように車両の走行制御を行う。
When the automatic driving mode is selected, the automatic driving control unit 50 advances the own vehicle according to information about the situation around the own vehicle provided from the environment recognition unit 60 and a command from a driver (not shown). Automatic driving that automatically sets the target travel locus, automatically accelerates (starts), decelerates (stops), switches forward and backward, steers, etc., and automatically drives the vehicle to a preset destination Run.
In addition, the automatic operation mode is a manual operation in which a manual operation by a driver is performed when the user desires a manual operation or when it is difficult to continue the automatic operation in response to a predetermined release operation from the user. Return to operation mode is possible.
The automatic operation control unit acquires information about the environment around the host vehicle from the environment recognition unit 60, sets a target travel line that can avoid risk objects such as other vehicles, and the actual travel line of the host vehicle 1 Vehicle travel control is performed along the target travel line.

自動運転制御ユニット50には、入出力装置51が接続されている。
入出力装置51は、自動運転制御ユニット50からユーザへの警報や各種メッセージ等の情報を出力するとともに、ユーザからの各種操作の入力を受け付けるものである。
入出力装置51は、例えば、LCD等の画像表示装置、スピーカ等の音声出力装置、タッチパネル等の操作入力装置等を有して構成されている。
An input / output device 51 is connected to the automatic operation control unit 50.
The input / output device 51 outputs information such as alarms and various messages to the user from the automatic operation control unit 50 and accepts input of various operations from the user.
The input / output device 51 includes, for example, an image display device such as an LCD, an audio output device such as a speaker, and an operation input device such as a touch panel.

環境認識ユニット60は、自車両周囲の情報を認識するものである。
環境認識ユニット60は、ステレオカメラ制御ユニット70、レーザスキャナ制御ユニット80、後側方レーダ制御ユニット90、ナビゲーション装置100、路車間通信装置110、車車間通信装置120等からそれぞれ提供される情報に基づいて、自車両周辺の駐車車両、走行車両、建築物、地形、歩行者、サイクリスト等の障害物や、自車両が走行する道路の車線形状等を認識するものである。
また、環境認識ユニット60は、後述する画像生成ユニット200、ディスプレイ210等と協働して、本発明の表示装置を構成する。
The environment recognition unit 60 recognizes information around the host vehicle.
The environment recognition unit 60 is based on information provided from the stereo camera control unit 70, the laser scanner control unit 80, the rear side radar control unit 90, the navigation device 100, the road-to-vehicle communication device 110, the vehicle-to-vehicle communication device 120, and the like. Thus, the vehicle recognizes obstacles such as parked vehicles, traveling vehicles, buildings, terrain, pedestrians and cyclists around the host vehicle, and the lane shape of the road on which the host vehicle runs.
The environment recognition unit 60 constitutes the display device of the present invention in cooperation with an image generation unit 200, a display 210, and the like which will be described later.

ステレオカメラ制御ユニット70は、車両の周囲に複数組設けられるステレオカメラ71を制御するとともに、ステレオカメラ71から伝達される画像を画像処理するものである。
個々のステレオカメラ71は、例えば、レンズ等の撮像用光学系、CMOS等の固体撮像素子、駆動回路、及び、信号処理装置等からなるカメラユニットを、並列に例えば一対配列して構成されている。
ステレオカメラ制御ユニット70は、公知のステレオ画像処理技術を利用した画像処理結果に基づいて、ステレオカメラ71によって撮像された被写体の形状及び自車両に対する相対位置を認識する。
ステレオカメラ制御ユニット70は、例えば、自車両前方の車線両端部の白線を検出し、車線形状を認識することが可能である。
レーザスキャナ制御ユニット80は、レーザスキャナ81を制御するとともに、レーザスキャナ81の出力に基づいて車両周囲の車両や障害物等の各種物体を3D点群データとして認識するものである。
The stereo camera control unit 70 controls a plurality of stereo cameras 71 provided around the vehicle and performs image processing on an image transmitted from the stereo camera 71.
Each stereo camera 71 is configured by, for example, a pair of camera units including, for example, an imaging optical system such as a lens, a solid-state imaging device such as a CMOS, a drive circuit, and a signal processing device arranged in parallel. .
The stereo camera control unit 70 recognizes the shape of the subject imaged by the stereo camera 71 and the relative position with respect to the host vehicle based on the image processing result using a known stereo image processing technique.
For example, the stereo camera control unit 70 can detect white lines at both ends of the lane ahead of the host vehicle and recognize the lane shape.
The laser scanner control unit 80 controls the laser scanner 81 and recognizes various objects such as vehicles and obstacles around the vehicle as 3D point group data based on the output of the laser scanner 81.

後側方レーダ制御ユニット90は、車両の左右側部にそれぞれ設けられる後側方レーダ91を制御するとともに、後側方レーダ91の出力に基づいて自車両後側方に存在する物体を検出するものである。
後側方レーダ91は、例えば、自車両の後側方から接近する他車両を検知可能となっている。
後側方レーダ91として、例えば、レーザレーダ、ミリ波レーダ等のレーダが用いられる。
The rear side radar control unit 90 controls the rear side radar 91 provided on each of the left and right sides of the vehicle, and detects an object existing on the rear side of the host vehicle based on the output of the rear side radar 91. Is.
For example, the rear side radar 91 can detect another vehicle approaching from the rear side of the host vehicle.
For example, a radar such as a laser radar or a millimeter wave radar is used as the rear side radar 91.

図2は、実施例の車両において車両周囲を認識するセンサ類の配置を示す模式図である。
ステレオカメラ71は、車両1の前部、後部、左右側部にそれぞれ設けられている。
レーザスキャナ81は、車両1の周囲に実質的に死角が生じないよう分布して複数設けられている
後側方レーダ91は、例えば、車両1の車体左右側部に配置され、検知範囲を車両後方側かつ車幅方向外側に向けて配置されている。
FIG. 2 is a schematic diagram illustrating an arrangement of sensors for recognizing the vehicle periphery in the vehicle of the embodiment.
Stereo cameras 71 are provided at the front, rear, and left and right sides of the vehicle 1, respectively.
A plurality of laser scanners 81 are provided in a distributed manner so that no blind spots are generated around the vehicle 1. The rear side radar 91 is disposed, for example, on the left and right sides of the vehicle body of the vehicle 1, and the detection range is set in the vehicle. It arrange | positions toward the back side and the vehicle width direction outer side.

ナビゲーション装置100は、例えばGPS受信機等の自車両位置測位手段、予め準備された地図データを蓄積したデータ蓄積手段、自車両の前後方向の方位を検出するジャイロセンサ等を有する。
地図データは、道路、交差点、インターチェンジ等の道路情報を車線レベルで有する。
道路情報は、3次元の車線形状データのほか、各車線(レーン)の右左折可否や、一時停止位置、制限速度等の走行上の制約となる情報も含む。
ナビゲーション装置100は、インストルメントパネルに組み込まれたディスプレイ101を有する。
ディスプレイ101は、ナビゲーション装置100がドライバに対して出力する各種情報が表示される画像表示装置である。
ディスプレイ101は、タッチパネルを有して構成され、ドライバからの各種操作入力が行われる入力部としても機能する。
The navigation apparatus 100 includes, for example, a host vehicle position measurement unit such as a GPS receiver, a data storage unit that stores map data prepared in advance, a gyro sensor that detects the front-rear direction of the host vehicle, and the like.
The map data has road information such as roads, intersections, and interchanges at the lane level.
The road information includes not only the three-dimensional lane shape data but also information that becomes restrictions on traveling such as whether or not each lane (lane) can be turned right and left, a temporary stop position, a speed limit, and the like.
The navigation device 100 has a display 101 incorporated in an instrument panel.
The display 101 is an image display device on which various information output from the navigation device 100 to the driver is displayed.
The display 101 is configured with a touch panel, and also functions as an input unit for performing various operation inputs from the driver.

路車間通信装置110は、所定の規格に準拠する通信システムによって、図示しない地上局と通信し、渋滞情報、交通信号機点灯状態、道路工事、事故現場、車線規制、天候、路面状況などに関する情報を取得するものである。   The road-to-vehicle communication device 110 communicates with a ground station (not shown) through a communication system conforming to a predetermined standard, and provides information on traffic jam information, traffic signal lighting state, road construction, accident site, lane regulation, weather, road surface conditions, and the like. To get.

車車間通信装置120は、所定の規格に準拠する通信システムによって、図示しない他車両と通信し、他車両の位置、方位角、加速度、速度等の車両状態に関する情報や、車種、車両サイズ等の車両属性に関する情報を取得するものである。   The inter-vehicle communication device 120 communicates with other vehicles (not shown) through a communication system that conforms to a predetermined standard, and information on the vehicle state such as the position, azimuth, acceleration, and speed of the other vehicles, vehicle type, vehicle size, etc. Information on vehicle attributes is acquired.

上述した各種の環境認識手段において、車両1自体に搭載されたセンサによって環境認識を行うステレオカメラ71、レーザスキャナ81、後側方レーダ91等の車両に搭載されたセンサによって直接車線形状や障害物等の検知を行うものが、本発明にいう環境認識手段(直接環境認識手段)である。   In the various environment recognition means described above, the lane shape and obstacles are directly detected by sensors mounted on the vehicle such as the stereo camera 71, the laser scanner 81, and the rear side radar 91 that perform environment recognition using the sensors mounted on the vehicle 1 itself. It is the environment recognition means (direct environment recognition means) referred to in the present invention that detects the above.

画像生成ユニット200は、環境認識ユニット60から伝達される環境認識結果に基づいて、ディスプレイ210により表示される自車両周辺の環境に関する情報を含む画像(環境画像)を生成するものである。   The image generation unit 200 generates an image (environment image) including information on the environment around the host vehicle displayed on the display 210 based on the environment recognition result transmitted from the environment recognition unit 60.

ディスプレイ210は、車両の乗員と対向して配置された画像表示装置である。
ディスプレイ210は、例えば、インストルメントパネル等の内装部材に組み込まれたLCDを有する。
The display 210 is an image display device that is disposed to face a vehicle occupant.
The display 210 has, for example, an LCD incorporated in an interior member such as an instrument panel.

次に、実施例の表示装置における画像表示時の動作、及び、表示画面の例について説明する。
図3は、実施例の表示装置の動作を示すフローチャートである。
以下、ステップ毎に順を追って説明する。
Next, an operation at the time of image display in the display device of the embodiment and an example of the display screen will be described.
FIG. 3 is a flowchart illustrating the operation of the display device according to the embodiment.
Hereinafter, the steps will be described step by step.

<ステップS01:地図データ取得>
環境認識ユニット60は、ナビゲーション装置100から、自車両1が走行している地点近傍の道路形状、車線形状、地形、建築物等に関する情報を含む地図データを取得する。
その後、ステップS02に進む。
<Step S01: Map data acquisition>
The environment recognition unit 60 acquires map data including information on the road shape, lane shape, terrain, building, and the like near the point where the host vehicle 1 is traveling from the navigation device 100.
Thereafter, the process proceeds to step S02.

<ステップS02:目標走行ライン情報取得>
環境認識ユニット60は、自動運転制御ユニット50から、自車両1の予定走行経路である目標走行ラインに関する情報を取得する。
その後、ステップS03に進む。
<Step S02: Acquisition of target travel line information>
The environment recognition unit 60 acquires information on the target travel line that is the planned travel route of the host vehicle 1 from the automatic operation control unit 50.
Thereafter, the process proceeds to step S03.

<ステップS03:車両周囲環境認識>
環境認識ユニット60は、自車両1の周囲の環境を認識する。
環境認識ユニット60は、例えば、車線形状及び地形や、他車両、歩行者、建築物などの各種物体を検出する。
これらの物体に関する情報は、例えば、その種類、自車両からの相対位置、大きさ、形状、さらに、移動している場合は自車両に対する相対速度等を含む。
その後、ステップS04に進む。
<Step S03: Recognition of the environment around the vehicle>
The environment recognition unit 60 recognizes the environment around the host vehicle 1.
The environment recognition unit 60 detects, for example, lane shape and terrain, and various objects such as other vehicles, pedestrians, and buildings.
The information regarding these objects includes, for example, the type, the relative position from the host vehicle, the size, the shape, and the relative speed with respect to the host vehicle when moving.
Thereafter, the process proceeds to step S04.

<ステップS04:環境認識不可領域判定>
環境認識ユニット60は、ステレオカメラ71、レーザスキャナ81等のセンサ類による環境認識が不可能な領域(環境認識不可領域)を判定する。
環境認識不可領域として、各センサの検出限界距離以遠の領域、及び、建築物や他車両等の遮蔽物により遮蔽され、死角となっている領域が含まれる。
その後、ステップS05に進む。
<Step S04: Determination of Unrecognizable Area>
The environment recognition unit 60 determines an area in which environment recognition by sensors such as the stereo camera 71 and the laser scanner 81 is impossible (environment recognition impossible area).
The environment unrecognizable region includes a region that is beyond the detection limit distance of each sensor and a region that is blocked by a shield such as a building or another vehicle and has a blind spot.
Thereafter, the process proceeds to step S05.

<ステップS05:リスク対象物抽出>
環境認識ユニット60は、ステップS03において検出された物体のうち、自車両との衝突リスクが想定されるものを抽出し、リスク対象物として設定する。
リスク対象物は、自車両1の目標走行ラインに隣接する物体や、自車両1の目標走行ラインに接近、進入する可能性のある移動体を含む。
その後、ステップS06に進む。
<Step S05: Risk object extraction>
The environment recognizing unit 60 extracts an object that is assumed to have a collision risk with the host vehicle from the objects detected in step S03, and sets the object as a risk object.
The risk target object includes an object adjacent to the target travel line of the host vehicle 1 and a moving body that may approach or enter the target travel line of the host vehicle 1.
Thereafter, the process proceeds to step S06.

<ステップS06:リスク対象物有無判定>
環境認識ユニット60がステップS05において少なくとも一つのリスク対象物を抽出した場合はステップS07に進む。
また、リスク対象物が抽出されなかった場合はステップS09に進む。
<Step S06: Risk Object Existence Determination>
If the environment recognition unit 60 has extracted at least one risk object in step S05, the process proceeds to step S07.
If no risk object is extracted, the process proceeds to step S09.

<ステップS07:リスク対象物移動・移動可能性判断>
環境認識ユニット60は、ステップS05において抽出されたリスク対象物が、現在移動中である移動体、あるいは、現在停止しているが移動を開始する可能性がある物体であるか、移動しない物体であるかを判別する。
例えば、停止中の他車両は、移動を開始する可能性がある物体として認識される。
リスク対象物が移動体、あるいは、移動を開始する可能性がある物体である場合はステップS08に進み、その他の場合はステップS09に進む。
<Step S07: Risk object movement / movement possibility determination>
In the environment recognition unit 60, the risk object extracted in step S05 is a moving object that is currently moving, an object that is currently stopped but may start moving, or an object that does not move. Determine if it exists.
For example, the other vehicle that is stopped is recognized as an object that may start moving.
If the risk object is a moving object or an object that may start moving, the process proceeds to step S08; otherwise, the process proceeds to step S09.

<ステップS08:リスク対象物進路推定>
環境認識ユニット60は、リスク対象物が今後とり得る進路を推定する。
リスク対象物が移動体である場合は、現在の速度及び進行方向に基づいて、進路が推定される。
また、リスク対象物が移動を開始する可能性がある物体である場合は、リスク対象物が交通法規(信号機、標識、車線区分等)を遵守した場合にとり得る進路を推定進路とする。
例えば、赤信号や一時停止標識により停車している他車両は、今後前進する可能性を有する。また、ステレオカメラ71によってターンシグナルランプの点滅が検出された場合には、当該方向への右左折、車線変更などが予想される。
リスク対象物の進路推定を終了後、ステップS09に進む。
<Step S08: Risk Object Course Estimation>
The environment recognition unit 60 estimates the path that the risk object can take in the future.
When the risk object is a moving object, the course is estimated based on the current speed and the traveling direction.
Further, when the risk object is an object that may start moving, a path that can be taken when the risk object complies with traffic regulations (signals, signs, lane classification, etc.) is set as the estimated path.
For example, another vehicle that has stopped due to a red light or a stop sign has a possibility of moving forward. In addition, when the turn signal lamp blinking is detected by the stereo camera 71, a left / right turn in the corresponding direction, a lane change, or the like is expected.
After completing the course estimation of the risk object, the process proceeds to step S09.

<ステップS09:リスク可能性領域設定>
環境認識ユニット60は、ステップ04において判定された環境認識不可領域、及び、抽出されたリスク対象物及びその推定進路に隣接する領域を、衝突リスクの発生の可能性が存在するリスク可能性領域として設定する。
その後、ステップS10に進む。
<Step S09: Risk potential area setting>
The environment recognizing unit 60 sets the area that is not recognized in step 04 and the area adjacent to the extracted risk object and its estimated path as a risk possibility area where there is a possibility of occurrence of a collision risk. Set.
Then, it progresses to step S10.

<ステップS10:表示画像データ生成>
画像生成ユニット200は、環境認識ユニット60から提供される情報に基づいて、ディスプレイ210に表示される表示画像の画像データを生成する。
表示画像については、後に詳細に説明する。
その後、ステップS11に進む。
<Step S10: Display Image Data Generation>
The image generation unit 200 generates image data of a display image displayed on the display 210 based on information provided from the environment recognition unit 60.
The display image will be described later in detail.
Then, it progresses to step S11.

<ステップS11:表示画像出力>
画像生成ユニット210は、ステップS10において生成した画像データをディスプレイ210に伝達し、表示画像を表示させる。
その後、一連の処理を終了(リターン)する。
<Step S11: Display image output>
The image generation unit 210 transmits the image data generated in step S10 to the display 210 to display a display image.
Thereafter, the series of processing is terminated (returned).

以下、実施例の表示装置における表示画像について説明する。
図4は、実施例の表示装置における表示画像の一例を示す図である。
図4に示すように、表示画像は、自車両周辺の環境を、ディテール等を省略して簡素化し、コンピュータグラフィックスにより生成した俯瞰図として表示する。
この俯瞰図においては、自車両の上方かつ後方に設定された仮想視点からの視野を示している。
また、俯瞰図には、自車両のほか、他車両、歩行者、自転車、建造物等の各種リスク対象物を示す図柄が、各リスク対象物の位置を示す箇所に重畳して表示されている。
Hereinafter, the display image in the display apparatus of an Example is demonstrated.
FIG. 4 is a diagram illustrating an example of a display image in the display device according to the embodiment.
As shown in FIG. 4, the display image simplifies the environment around the host vehicle by omitting details and the like, and displays it as an overhead view generated by computer graphics.
In this overhead view, a field of view from a virtual viewpoint set above and behind the host vehicle is shown.
In addition, in the overhead view, in addition to the host vehicle, symbols indicating various risk objects such as other vehicles, pedestrians, bicycles, buildings, etc. are displayed superimposed on the locations indicating the positions of the risk objects. .

図4に示す例では、自車両1は、市街地内で片側一車線左側通行の道路を走行している。
自車両1の前方には、自車両が走行中の道路と、自車両1の車幅方向にほぼ沿った片側一車線左側通行の道路とが交差する交差点Jが存在する。
交差点Jは、自車両1から見て、手前側、奥側に自車両1の車幅方向に沿った横断歩道が設けられるとともに、左右に自車両1の進行方向に沿った横断歩道が設けられている。
自車両1は、図4に破線矢印で図示する目標走行ラインLのように、交差点Jを左折することを予定している。
In the example shown in FIG. 4, the host vehicle 1 is traveling on a one-lane, one-lane left-side road in an urban area.
In front of the host vehicle 1, there is an intersection J where a road on which the host vehicle is traveling and a road on the left side of one lane substantially along the vehicle width direction of the host vehicle 1 intersect.
The intersection J is provided with a pedestrian crossing along the vehicle width direction of the host vehicle 1 on the front side and the rear side when viewed from the host vehicle 1, and with a pedestrian crossing along the traveling direction of the host vehicle 1 on the left and right. ing.
The host vehicle 1 is scheduled to turn left at the intersection J as shown by a target travel line L illustrated by a broken-line arrow in FIG.

表示画像には、建築物であるビルB1乃至B4が表示されている。
ビルB1は、交差点Jの左手前側に配置されている。
ビルB2は、交差点Jの右手前側に配置されている。
ビルB3は、交差点Jの左奥側に配置されている。
ビルB4は、交差点Jの右奥側に配置されている。
各ビルB1乃至B4と、各道路の車道との間には、それぞれ歩道が形成されている。
In the display image, buildings B1 to B4 that are buildings are displayed.
The building B1 is disposed on the left front side of the intersection J.
The building B2 is disposed on the right front side of the intersection J.
Building B3 is arranged on the left back side of intersection J.
Building B4 is arranged on the right back side of intersection J.
Sidewalks are formed between the buildings B1 to B4 and the roadway of each road.

表示画像には、他車両V1、歩行者PE1、PE2が表示されている。
他車両V1は、交差点Jよりも奥側の対向車線を自車両1側へ走行しており、さらに、ステレオカメラ71によって右折方向へのターンシグナルランプ(不図示)の点滅が検出されている。
歩行者PE1は、ビルB1の近傍の歩道上におり、横断歩道を歩行してビルB2側の歩道へ移動しようとしている。
歩行者PE2は、ビルB4側からビルB2側へ横断歩道を歩行して移動中である。
サイクリストCYは、ビルB1側の歩道上を自車両1と同じ方向へ並走している。
In the display image, the other vehicle V1 and the pedestrians PE1 and PE2 are displayed.
The other vehicle V1 travels on the opposite lane behind the intersection J toward the host vehicle 1, and the turn signal lamp (not shown) blinking in the right turn direction is detected by the stereo camera 71.
The pedestrian PE1 is on the sidewalk in the vicinity of the building B1, and is walking on the pedestrian crossing to move to the sidewalk on the building B2 side.
The pedestrian PE2 is moving while walking on the pedestrian crossing from the building B4 side to the building B2 side.
The cyclist CY is running in parallel in the same direction as the host vehicle 1 on the sidewalk on the building B1 side.

自車両1の右折先の道路上において、ビルB1、B2によって遮られる死角部分は、ステレオカメラ71等による環境認識が不可能な領域であることから、その路面上はリスク可能性領域R1、R2となっている。
このようなリスク可能性領域R1、R2には、例えば、他車両V2、V3、歩行者PE3などが存在し得る。
このような死角内のリスク対象物は、少なくとも自車両1の現在位置からは直接環境認識手段によって認識することはできないため、リスク可能性領域R1、R2は、安全であると確定判断することができない安全未確認状態となっている。
ただし、図4に示す例においては、自車両1の前方側の信号が進行を許可しているため、他車両V2、V3、歩行者PE3は、これらが交通法規を遵守している限りは信号待ち状態で停止していることから、自車両1の目標走行ラインLに干渉するリスクは比較的低い。
また、歩行者PE1も同様に信号待ち状態で停止しており、比較的リスクは低い。
歩行者PE2に関しては、横断歩道を歩行中であるが、自車両1の目標走行ラインLとは干渉しないため、安全であると認識される。
On the road where the vehicle 1 turns right, the blind spot portion blocked by the buildings B1 and B2 is an area in which the environment cannot be recognized by the stereo camera 71 or the like, and therefore on the road surface, there is a risk possibility area R1, R2. It has become.
In such risk possibility regions R1 and R2, for example, other vehicles V2 and V3, a pedestrian PE3, and the like may exist.
Such a risk object in the blind spot cannot be recognized directly by the environment recognition means at least from the current position of the host vehicle 1, and therefore the risk possibility regions R1 and R2 can be determined to be safe. It is in an unconfirmed safety state.
However, in the example shown in FIG. 4, since the signal on the front side of the own vehicle 1 permits the progress, the other vehicles V2, V3, and the pedestrian PE3 are signals as long as they comply with traffic regulations. Since the vehicle is stopped in the waiting state, the risk of interference with the target travel line L of the host vehicle 1 is relatively low.
Similarly, the pedestrian PE1 is stopped in a signal waiting state, and the risk is relatively low.
As for the pedestrian PE2, the pedestrian PE2 is walking on the pedestrian crossing.

これに対し、対向車である他車両V1は、自車両1の直前で右折を行い、他車両V1の推定進路と自車両1の目標走行ラインLが近接し、さらには交錯することが懸念される。
そこで、他車両V1が右折時に通過する推定進路に沿って、リスク可能性領域R3が設定されている。
On the other hand, the other vehicle V1, which is an oncoming vehicle, makes a right turn immediately before the host vehicle 1, and there is a concern that the estimated course of the other vehicle V1 and the target travel line L of the host vehicle 1 are close to each other and further cross. The
Therefore, a risk possibility region R3 is set along the estimated route through which the other vehicle V1 passes when turning right.

また、自車両1と並走するサイクリストCYは、直進して交差点J内をビルB1側からビルB3側へ走行することが推定され得る。
この場合、自車両1の目標走行ラインLを横切ることになるため、サイクリストCYの前方にもリスク可能性領域R4が設定される。
Further, it can be estimated that the cyclist CY running in parallel with the host vehicle 1 travels straight in the intersection J from the building B1 side to the building B3 side.
In this case, since the target travel line L of the host vehicle 1 is crossed, the risk possibility region R4 is set in front of the cyclist CY.

上述したリスク可能性領域R1乃至R4は、表示画像上において、他の領域とは異なった共通する表示態様で表示される。
例えば、リスク可能性領域R1乃至R4は、例えば所定の色彩一色(一例としてグレー等)を用いたグラデーション表示としたり、所定の色彩一色で塗りつぶした表示とすることができる。
これに対し、リスク可能性領域以外の領域は、複数の色彩を用いて描画する構成とすることによって、リスク可能性領域R1乃至R4と視覚的な差を設けて、一目瞭然に判別可能とすることができる。
The risk possibility regions R1 to R4 described above are displayed in a common display mode different from other regions on the display image.
For example, the risk possibility regions R1 to R4 can be displayed in gradation using a predetermined color (for example, gray) or filled with a predetermined color.
On the other hand, areas other than the risk potential areas are drawn using a plurality of colors, so that visual differences from the risk potential areas R1 to R4 are provided so that the areas can be clearly identified at a glance. Can do.

以上説明した実施例によれば、以下の効果を得ることができる。
(1)ステレオカメラ71、レーザスキャナ81等の車載センサによる認識が不可能な領域R1、R2を、他の領域とは異なる表示態様に統一して表示することによって、車載センサによって安全が確認できない領域をユーザが容易に認識することができる。
これによって、どの領域にリスクが生じることが懸念されるかを認識し、ユーザに適切な監視を行わせることができる。
(2)環境認識手段として自車両1に搭載されたステレオカメラ71、レーザスキャナ81等の車載センサを用いることにより、自車両に搭載された構成要素のみで成立可能なスタンドアローンの構成とすることができ、構成の複雑化を防止するとともに信頼性の確保が容易となる。
(3)リスク可能性領域R1乃至R4を同系色によって統一表示とすることによって、簡単な構成によって上述した効果を確実に得ることができる。
(4)抽出されたリスク対象物の推定進路をリスク可能性領域R3、R4とすることによって、車載センサによって認識が可能な領域内においても、安全であるか確定しない領域はリスク可能性領域R1〜R4の一部として、認識を行えない領域と同様に表示することによって、ユーザにより適切に注意を喚起することができる。
(5)他車両V1やサイクリストCYが信号機の指示を遵守した場合に進入が可能な領域にリスク可能性領域R3,R4を設定することによって、リスク対象物が交通法規を遵守しない場合まで考慮することにより、リスク可能性領域が過度に多くなり、現実的に発生することが希であるリスクに対する監視が煩雑となり、かえってユーザの負担が増大することを防止できる。
According to the embodiment described above, the following effects can be obtained.
(1) Safety cannot be confirmed by the in-vehicle sensor by displaying the regions R1 and R2 that cannot be recognized by the in-vehicle sensor such as the stereo camera 71 and the laser scanner 81 in a unified display manner different from other regions. The user can easily recognize the area.
As a result, it is possible to recognize in which area the risk is concerned and allow the user to perform appropriate monitoring.
(2) By using in-vehicle sensors such as the stereo camera 71 and the laser scanner 81 mounted on the host vehicle 1 as environment recognition means, a stand-alone configuration that can be established only by the components mounted on the host vehicle. Therefore, it is possible to prevent the configuration from becoming complicated and to ensure the reliability.
(3) By making the risk possibility regions R1 to R4 unified display with similar colors, the above-described effects can be reliably obtained with a simple configuration.
(4) By setting the estimated course of the extracted risk object as the risk possibility areas R3 and R4, even in the area that can be recognized by the in-vehicle sensor, the area that is not determined to be safe is the risk possibility area R1. As a part of ~ R4, by displaying in the same manner as the area where recognition cannot be performed, the user can be appropriately alerted.
(5) By setting risk possibility areas R3 and R4 in areas where other vehicles V1 and cyclists CY comply with the traffic light instructions, the risk object does not comply with traffic regulations. As a result, it is possible to prevent the risk potential area from becoming excessively large, and monitoring of risks that rarely occur in reality becomes complicated, thereby increasing the burden on the user.

(変形例)
本発明は、以上説明した実施例に限定されることなく、種々の変形や変更が可能であって、それらも本発明の技術的範囲内である。
(1)表示装置の構成や、車両の構成は、上述した実施例に限定されず適宜変更することが可能である。また、実施例において車両は乗用車であるが、本発明は貨物車等の商用車、トラック、バス、自動二輪車、その他各種特殊車両などにも適用することが可能である。
(2)実施例において、車両はエンジンを走行用動力源とするものであったが、本発明はこれに限らず、電動モータや、エンジンと電動モータとを組み合わせたハイブリッドシステムを走行用動力源として用いることも可能である。
(3)自車両周辺の環境認識を行うセンサの種類や配置は、上述した実施例には限定されず、適宜変更することが可能である。例えば、実施例におけるセンサ類と併用あるいは代用して、ミリ波レーザ、レーザレーダ、単眼カメラ、超音波ソナー等の各種センサを用いることが可能である。
また、車両自体に搭載されているセンサ類などと併用あるいは代用して、路車間通信や車車間通信によって得た情報や、GPS等の測位手段及びナビゲーション装置等が有する地図データを用いて環境認識を行ってもよい。
(4)実施例においては、表示画像を俯瞰図(鳥瞰図)としているが、これに限らず、例えば平面図や、仮想ドライバ視点から見たドライバーズビューとすることも可能である。また、3D表示が可能なディスプレイを用いて、3D表示を行ってもよい。また、インストルメントパネルに設けたディスプレイによる表示に限らず、例えば、フロントガラスに像を投影するヘッドアップディスプレイによって表示してもよい。
(5)実施例においては、環境認識手段として自車両に搭載されたステレオカメラ、レーダスキャナ等のセンサを用いているが、これに限らず、例えば隣接して走行する他車両(典型的には先行車)に搭載されているセンサの出力を、車車間通信によって取得し、これに基づいて環境認識を行ってもよい。
(6)実施例の表示装置は、自動運転を行う車両に適用されるものであったが、本発明はこれに限らず、手動運転を行う車両の運転支援用としても有用である。
(Modification)
The present invention is not limited to the embodiments described above, and various modifications and changes are possible, and these are also within the technical scope of the present invention.
(1) The configuration of the display device and the configuration of the vehicle are not limited to the above-described embodiments, and can be changed as appropriate. In the embodiments, the vehicle is a passenger car, but the present invention can also be applied to commercial vehicles such as freight cars, trucks, buses, motorcycles, and other various special vehicles.
(2) In the embodiment, the vehicle uses an engine as a driving power source. However, the present invention is not limited to this, and an electric motor or a hybrid system that combines an engine and an electric motor is used as a driving power source. Can also be used.
(3) The type and arrangement of sensors for recognizing the environment around the host vehicle are not limited to the above-described embodiments, and can be changed as appropriate. For example, various sensors such as a millimeter wave laser, a laser radar, a monocular camera, and an ultrasonic sonar can be used in combination with or in place of the sensors in the embodiments.
Environment recognition using information obtained by road-to-vehicle communication or vehicle-to-vehicle communication, or map data possessed by positioning means such as GPS and navigation devices, in combination with or in place of sensors mounted on the vehicle itself May be performed.
(4) In the embodiment, the display image is a bird's-eye view (bird's-eye view). However, the display image is not limited to this, and may be a plan view or a driver's view viewed from the virtual driver viewpoint. Further, 3D display may be performed using a display capable of 3D display. Further, the display is not limited to the display provided on the instrument panel, and may be displayed by, for example, a head-up display that projects an image on the windshield.
(5) In the embodiment, a sensor such as a stereo camera or a radar scanner mounted on the own vehicle is used as the environment recognizing means. However, the present invention is not limited to this. For example, other vehicles that travel adjacently (typically The output of the sensor mounted in the preceding vehicle) may be acquired by inter-vehicle communication, and environment recognition may be performed based on this.
(6) Although the display device of the embodiment is applied to a vehicle that performs automatic driving, the present invention is not limited to this, and is also useful for driving support of a vehicle that performs manual driving.

1 車両 10 エンジン制御ユニット
20 トランスミッション制御ユニット 21 前後進切替アクチュエータ
22 レンジ検出センサ 30 挙動制御ユニット
31 ハイドロリックコントロールユニット(HCU)
32 車速センサ
40 電動パワーステアリング(EPS)制御ユニット
41 モータ 42 舵角センサ
50 自動運転制御ユニット 51 入出力装置
60 環境認識ユニット 70 カメラ制御ユニット
71 ステレオカメラ
80 レーザスキャナ制御ユニット
81 レーザスキャナ 90 後側方レーダ制御ユニット
91 後側方レーダ 100 ナビゲーション装置
101 ディスプレイ
110 路車間通信装置 120 車車間通信装置
200 画像生成ユニット 210 ディスプレイ
J 交差点 S 信号
V1〜V3 他車両 PE1〜PE3 歩行者
CY サイクリスト B1〜B4 ビル
R1〜R4 リスク可能性領域 L 目標走行ライン
DESCRIPTION OF SYMBOLS 1 Vehicle 10 Engine control unit 20 Transmission control unit 21 Forward / reverse switching actuator 22 Range detection sensor 30 Behavior control unit 31 Hydraulic control unit (HCU)
32 Vehicle speed sensor 40 Electric power steering (EPS) control unit 41 Motor 42 Steering angle sensor 50 Automatic operation control unit 51 Input / output device 60 Environment recognition unit 70 Camera control unit 71 Stereo camera 80 Laser scanner control unit 81 Laser scanner 90 Rear side Radar control unit 91 Rear side radar 100 Navigation device 101 Display 110 Road-to-vehicle communication device 120 Vehicle-to-vehicle communication device 200 Image generation unit 210 Display J Intersection S signal V1 to V3 Other vehicles PE1 to PE3 ~ R4 Risk potential area L Target drive line

Claims (6)

自車両周囲の環境を認識する環境認識手段と、
予め準備された地図データを用いて自車両周囲の道路形状を示す画像を生成する画像生成手段と、
前記画像生成手段が生成した前記画像を表示する画像表示手段と
を備える表示装置であって、
前記画像生成手段は、前記画像において前記環境認識手段による認識が不可能である領域を含むリスク可能性領域を、他の領域とは異なる表示態様に統一して表示すること
を特徴とする表示装置。
Environment recognition means for recognizing the environment around the vehicle,
Image generating means for generating an image showing a road shape around the host vehicle using map data prepared in advance;
An image display means for displaying the image generated by the image generation means,
The image generation means displays a risk potential area including an area that cannot be recognized by the environment recognition means in the image in a unified display manner different from other areas. .
前記環境認識手段は、自車両に搭載されたセンサの出力に基づいて環境を認識すること
を特徴とする請求項1に記載の表示装置。
The display device according to claim 1, wherein the environment recognition unit recognizes the environment based on an output of a sensor mounted on the host vehicle.
前記環境認識手段は、自車両に搭載されたセンサの出力、及び、自車両の近隣を走行しかつ自車両と通信可能な車車間通信装置を有する他車両に搭載されたセンサの出力に基づいて環境を認識すること
を特徴とする請求項1に記載の表示装置。
The environment recognition means is based on an output of a sensor mounted on the own vehicle and an output of a sensor mounted on another vehicle having a vehicle-to-vehicle communication device that travels in the vicinity of the own vehicle and can communicate with the own vehicle. The display device according to claim 1, wherein the display device recognizes an environment.
前記画像生成手段は、前記リスク可能性領域を同系色によって表示すること
を特徴とする請求項1から請求項3までのいずれか1項に記載の表示装置。
The display device according to any one of claims 1 to 3, wherein the image generation unit displays the risk potential area in a similar color.
前記環境認識手段は、前記環境認識手段によって認識が可能な領域内においてリスク対象物を抽出し、
前記画像生成手段は、前記リスク対象物の推定進路を前記リスク可能性領域の一部とすること
を特徴とする請求項1から請求項4までのいずれか1項に記載の表示装置。
The environment recognition means extracts a risk object in an area that can be recognized by the environment recognition means,
The display device according to any one of claims 1 to 4, wherein the image generation unit sets the estimated course of the risk object as a part of the risk possibility region.
前記リスク対象物は他車両又は歩行者であり、
前記環境認識手段は、前記リスク対象物が交通法規を遵守した場合に進行が可能である領域を前記リスク対象物の推定進路として設定すること
を特徴とする請求項5に記載の表示装置。
The risk object is another vehicle or a pedestrian,
The display device according to claim 5, wherein the environment recognizing unit sets, as the estimated course of the risk object, an area where the risk object can proceed when the risk object complies with traffic regulations.
JP2016071120A 2016-03-31 2016-03-31 Display device Active JP7100421B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016071120A JP7100421B2 (en) 2016-03-31 2016-03-31 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016071120A JP7100421B2 (en) 2016-03-31 2016-03-31 Display device

Publications (2)

Publication Number Publication Date
JP2017182588A true JP2017182588A (en) 2017-10-05
JP7100421B2 JP7100421B2 (en) 2022-07-13

Family

ID=60007375

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016071120A Active JP7100421B2 (en) 2016-03-31 2016-03-31 Display device

Country Status (1)

Country Link
JP (1) JP7100421B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135043A (en) * 2019-02-13 2020-08-31 株式会社Subaru Automatic driving system
WO2020179112A1 (en) * 2019-03-04 2020-09-10 アイシン・エィ・ダブリュ株式会社 Risk acquisition system, risk display system, and risk acquisition program
JP2020164045A (en) * 2019-03-29 2020-10-08 マツダ株式会社 Vehicle travel control device
WO2022162909A1 (en) * 2021-01-29 2022-08-04 日産自動車株式会社 Display control device and display control method
JP7420008B2 (en) 2020-08-20 2024-01-23 株式会社デンソー display control device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11108684A (en) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd Car navigation system
JP2005165555A (en) * 2003-12-01 2005-06-23 Nissan Motor Co Ltd Dangerous location display system
JP2007233770A (en) * 2006-03-01 2007-09-13 Alpine Electronics Inc On-vehicle circumstance indication device
JP2010073026A (en) * 2008-09-19 2010-04-02 Toyota Motor Corp Vehicle driving support apparatus
JP2012104029A (en) * 2010-11-12 2012-05-31 Toyota Motor Corp Danger degree calculation device
JP2012192878A (en) * 2011-03-17 2012-10-11 Toyota Motor Corp Risk determination system
WO2013021491A1 (en) * 2011-08-10 2013-02-14 トヨタ自動車株式会社 Driving assistance device
JP2015146142A (en) * 2014-02-04 2015-08-13 三菱自動車工業株式会社 Information output apparatus
JP2017091042A (en) * 2015-11-05 2017-05-25 株式会社デンソー Driving support transmitter, driving support receiver, and program

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11108684A (en) * 1997-08-05 1999-04-23 Harness Syst Tech Res Ltd Car navigation system
JP2005165555A (en) * 2003-12-01 2005-06-23 Nissan Motor Co Ltd Dangerous location display system
JP2007233770A (en) * 2006-03-01 2007-09-13 Alpine Electronics Inc On-vehicle circumstance indication device
JP2010073026A (en) * 2008-09-19 2010-04-02 Toyota Motor Corp Vehicle driving support apparatus
JP2012104029A (en) * 2010-11-12 2012-05-31 Toyota Motor Corp Danger degree calculation device
JP2012192878A (en) * 2011-03-17 2012-10-11 Toyota Motor Corp Risk determination system
WO2013021491A1 (en) * 2011-08-10 2013-02-14 トヨタ自動車株式会社 Driving assistance device
JP2015146142A (en) * 2014-02-04 2015-08-13 三菱自動車工業株式会社 Information output apparatus
JP2017091042A (en) * 2015-11-05 2017-05-25 株式会社デンソー Driving support transmitter, driving support receiver, and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
クラリオン、HDDカーナビ「CRASVIA NX810」 従来モデルに比べ、価格を引き下げ, JPN6021007454, 11 May 2010 (2010-05-11), ISSN: 0004459206 *
市販ナビ満足度3連覇達成のアルパインBIGXシリーズ、その実力は, JPN6021007455, 10 December 2014 (2014-12-10), ISSN: 0004459207 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020135043A (en) * 2019-02-13 2020-08-31 株式会社Subaru Automatic driving system
JP7149199B2 (en) 2019-02-13 2022-10-06 株式会社Subaru Autonomous driving system
WO2020179112A1 (en) * 2019-03-04 2020-09-10 アイシン・エィ・ダブリュ株式会社 Risk acquisition system, risk display system, and risk acquisition program
JP2020164045A (en) * 2019-03-29 2020-10-08 マツダ株式会社 Vehicle travel control device
WO2020203068A1 (en) * 2019-03-29 2020-10-08 マツダ株式会社 Vehicle travel control apparatus
CN113613979A (en) * 2019-03-29 2021-11-05 马自达汽车株式会社 Vehicle travel control device
EP3907116A4 (en) * 2019-03-29 2022-03-09 Mazda Motor Corporation Vehicle travel control apparatus
JP7420008B2 (en) 2020-08-20 2024-01-23 株式会社デンソー display control device
WO2022162909A1 (en) * 2021-01-29 2022-08-04 日産自動車株式会社 Display control device and display control method

Also Published As

Publication number Publication date
JP7100421B2 (en) 2022-07-13

Similar Documents

Publication Publication Date Title
JP6294905B2 (en) Display device
JP6383376B2 (en) Peripheral risk display device
CN107264399B (en) Vehicle periphery monitoring device
JP6688655B2 (en) Vehicle condition monitoring device
JP6305456B2 (en) Display device
CN110895417B (en) Vehicle control device, vehicle control method, and storage medium
EP3318946A1 (en) Vehicle control method thereof
JP6542708B2 (en) Display device
JP6773433B2 (en) Peripheral risk display device
JP6688656B2 (en) Surrounding risk display device
JP7100421B2 (en) Display device
CN106809160B (en) A kind of intersection driving assistance method and system
JP6757585B2 (en) Display device
JP6757586B2 (en) Abnormality notification device
JP6667346B2 (en) Peripheral risk display
JP6889587B2 (en) Image display device
JP6744744B2 (en) Display device
JP6633957B2 (en) Peripheral risk display
JP6959893B2 (en) Vehicle control system
JP2017182566A (en) Periphery risk display device
JP6667347B2 (en) Display device
JP6894744B2 (en) Image display device
JP2023164171A (en) Drive assistance device
JP2021028777A (en) Display control device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201001

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210309

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210607

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210607

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210615

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210616

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20210917

C211 Notice of termination of reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C211

Effective date: 20210928

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20211122

C13 Notice of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: C13

Effective date: 20220125

C302 Record of communication

Free format text: JAPANESE INTERMEDIATE CODE: C302

Effective date: 20220317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20220426

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20220510

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20220607

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20220607

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220701

R150 Certificate of patent or registration of utility model

Ref document number: 7100421

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150