JP2017001525A - Vehicular display apparatus - Google Patents

Vehicular display apparatus Download PDF

Info

Publication number
JP2017001525A
JP2017001525A JP2015117610A JP2015117610A JP2017001525A JP 2017001525 A JP2017001525 A JP 2017001525A JP 2015117610 A JP2015117610 A JP 2015117610A JP 2015117610 A JP2015117610 A JP 2015117610A JP 2017001525 A JP2017001525 A JP 2017001525A
Authority
JP
Japan
Prior art keywords
display
vehicle
obstacle
occupant
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015117610A
Other languages
Japanese (ja)
Inventor
有真 川森
Yuma Kawamori
有真 川森
森 大樹
Daiki Mori
大樹 森
綾子 清水
Ayako Shimizu
綾子 清水
船山 竜士
Ryuji Funayama
竜士 船山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2015117610A priority Critical patent/JP2017001525A/en
Publication of JP2017001525A publication Critical patent/JP2017001525A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a vehicular display apparatus capable of improving visibility in a passenger of a vehicle recognizing the outside of the vehicle through a head-up display.SOLUTION: A display generation part generates plural movable points as a displaying projected onto a head-up display. Spots where the plural movable points are projected on the head-up display tend to not hamper visibility in recognizing outside of a vehicle through the aforementioned spots. Therefore, it is possible to improve the visibility in a passenger of the vehicle recognizing outside of the vehicle through the head-up display in comparison with the case of projecting characters. The display generation part changes content of the displaying consisting of plural movable points in accordance with content of information to be recognized by the passenger of the vehicle by the displaying, thus enabling the passenger of the vehicle to better recognize the content of the information to be recognized by the passenger thereof, in comparison with the case of simply changing features of characters.SELECTED DRAWING: Figure 4

Description

本発明の一側面は、車両用表示装置に関する。   One aspect of the present invention relates to a display device for a vehicle.

従来、車両に搭載されたヘッドアップディスプレイに投影された表示を車両の乗員に視認させる装置が提案されている。例えば、特許文献1には、車両の乗員に車両の外部の物体の存在を知らせるためのキャラクターをウィンドシールドに投影する際に、その物体の危険度及び緊急度の少なくとも一方に応じてキャラクターの形状、大きさ及び位置等を変更する装置が開示されている。   2. Description of the Related Art Conventionally, there has been proposed an apparatus that allows a vehicle occupant to visually recognize a display projected on a head-up display mounted on a vehicle. For example, in Patent Document 1, when a character for informing the vehicle occupant of the presence of an object outside the vehicle is projected onto the windshield, the shape of the character is determined according to at least one of the risk level and the urgency level of the object. An apparatus for changing the size and position is disclosed.

特開2009−9946号公報JP 2009-9946 A

ところで、上記のような装置では、車両の乗員が、ヘッドアップディスプレイのキャラクターが投影されている箇所を介して車両の外部を視認し難いという欠点がある。そのため、車両の乗員がヘッドアップディスプレイを介して車両の外部を視認する際の視認性を向上させることが望まれている。   By the way, in the above apparatus, there exists a fault that the passenger | crew of a vehicle cannot visually recognize the exterior of a vehicle through the location where the character of a head-up display is projected. Therefore, it is desired to improve the visibility when the vehicle occupant visually recognizes the outside of the vehicle via the head-up display.

そこで本発明は、車両の乗員がヘッドアップディスプレイを介して車両の外部を視認する際の視認性を向上させることが可能な車両用表示装置を提供することを目的とする。   Accordingly, an object of the present invention is to provide a vehicle display device that can improve the visibility when a vehicle occupant visually recognizes the outside of the vehicle via a head-up display.

本発明の一側面は、車両に搭載されたヘッドアップディスプレイに投影された表示を車両の乗員に視認させる車両用表示装置であって、表示により車両の乗員に認知させる情報の内容に応じて、複数の移動する点としてヘッドアップディスプレイに投影される表示の内容を変更しつつ表示を生成する表示生成部を備えた車両用表示装置である。   One aspect of the present invention is a vehicle display device that causes a vehicle occupant to visually recognize a display projected on a head-up display mounted on a vehicle, and according to the content of information that is recognized by the vehicle occupant by the display, It is a display apparatus for vehicles provided with the display production | generation part which produces | generates a display, changing the content of the display projected on a head-up display as a several moving point.

この構成によれば、表示生成部により、複数の移動する点がヘッドアップディスプレイに投影される表示として生成される。ヘッドアップディスプレイの複数の移動する点が投影されている箇所は、当該箇所を介して車両の外部を視認する際の障害になり難い。そのため、ヘッドアップディスプレイにキャラクターを投影する場合に比べて、車両の乗員がヘッドアップディスプレイを介して車両の外部を視認する際の視認性を向上させることができる。また、表示生成部により、表示により車両の乗員に認知させる情報の内容に応じて、複数の移動する点から構成された表示の内容が変更されるため、単にキャラクターの形状等を変更する場合に比べて、車両の乗員が表示により車両の乗員に認知させる情報の内容をより把握し易くなる。   According to this configuration, the display generation unit generates a plurality of moving points as a display projected on the head-up display. A location where a plurality of moving points on the head-up display are projected is unlikely to be an obstacle when the outside of the vehicle is visually recognized through the location. Therefore, the visibility when the vehicle occupant visually recognizes the outside of the vehicle via the head-up display can be improved as compared with the case where the character is projected onto the head-up display. In addition, when the display generator is configured to change the content of the display composed of a plurality of moving points according to the content of information to be recognized by the vehicle occupant by the display, when the shape of the character is simply changed In comparison, it becomes easier for the vehicle occupant to grasp the contents of information that the vehicle occupant recognizes by display.

本発明の一側面によれば、車両の乗員がヘッドアップディスプレイを通して車両の外部を視認する際の視認性を向上させることができ、車両の乗員が表示により車両の乗員に認知させる情報の内容をより把握し易くなる。   According to one aspect of the present invention, it is possible to improve the visibility when the vehicle occupant visually recognizes the outside of the vehicle through the head-up display, and the content of information that the vehicle occupant recognizes by the display is displayed. It becomes easier to grasp.

第1実施形態に係る車両用表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus for vehicles which concerns on 1st Embodiment. 図1の車両用表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the display apparatus for vehicles of FIG. (a)は車両の乗員の視線方向及び瞬間認知範囲を示す図であり、(b)は所定の時間に累積した瞬間認知範囲から推定された認知範囲を示す図である。(A) is a figure which shows the sight line direction and instantaneous recognition range of the passenger | crew of a vehicle, (b) is a figure which shows the recognition range estimated from the instantaneous recognition range accumulate | stored in predetermined time. 第1実施形態おけるウィンドシールドに投影された表示の例を示す図である。It is a figure which shows the example of the display projected on the windshield in 1st Embodiment. 第2実施形態に係る車両用表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus for vehicles which concerns on 2nd Embodiment. 車両の乗員の視線方向、瞬間認知範囲、認知範囲、中心視野及び周辺視野を示す図である。It is a figure which shows the sight line direction, instantaneous recognition range, recognition range, center visual field, and peripheral visual field of the passenger | crew of a vehicle. 第2実施形態おけるウィンドシールドに投影された表示の例を示す図である。It is a figure which shows the example of the display projected on the windshield in 2nd Embodiment. 第3実施形態に係る車両用表示装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus for vehicles which concerns on 3rd Embodiment. 図8の車両用表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the display apparatus for vehicles of FIG.

以下、本発明の実施形態について図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

[第1実施形態]
図1に示すように、第1実施形態に係る車両用表示装置100aは、ドライバセンサ1、車外センサ3、HUD(ヘッドアップディスプレイ、Head-Up Display)10及びECU50aを備える。車両用表示装置100aは、車両に搭載されたHUD10に投影された表示を車両の乗員に視認させる装置である。ヘッドアップディスプレイとは、車両のウィンドシールド等の透明な物体に表示を投影することにより、車両の外部を視認している車両の乗員の視野の中において当該表示を視認させる装置である。
[First Embodiment]
As shown in FIG. 1, the vehicle display device 100a according to the first embodiment includes a driver sensor 1, a vehicle exterior sensor 3, a HUD (Head-Up Display) 10, and an ECU 50a. The vehicle display device 100a is a device that allows a vehicle occupant to visually recognize a display projected on the HUD 10 mounted on the vehicle. The head-up display is a device that projects the display onto a transparent object such as a windshield of the vehicle, thereby visually recognizing the display in the field of view of the vehicle occupant who is viewing the outside of the vehicle.

ドライバセンサ1は、車両のドライバー等の乗員が車両の外部のどの範囲を認知しているか検知するためのセンサである。ドライバセンサ1は、車両のドライバー等の乗員に向けられた単眼カメラ、ステレオカメラ、マルチカメラ、ライダー(LIDER:LaserImaging Detection and Ranging)、レーザスキャナー等を適用することができる。ドライバセンサ1は、特定のパターンを照射する投光系の装置と単眼カメラ又はステレオカメラ等の受光系の装置とが組み合わされた装置でもよい。   The driver sensor 1 is a sensor for detecting which range outside the vehicle is recognized by a passenger such as a vehicle driver. As the driver sensor 1, a monocular camera, a stereo camera, a multi-camera, a rider (LIDER: Laser Imaging Detection and Ranging), a laser scanner, or the like can be applied. The driver sensor 1 may be a device in which a light projecting device that irradiates a specific pattern and a light receiving device such as a monocular camera or a stereo camera are combined.

車外センサ3は、車両の外部の少なくとも回避すべき障害物を検出するためのセンサである。車外センサ3は、レーダー(Radar)、ライダー(LIDER:LaserImaging Detection and Ranging)、レーザスキャナー、単眼カメラ、ステレオカメラ、マルチカメラ等を適用することができる。車外センサ3に障害物の相対的な位置を三次元的に求めることができない単眼カメラを用いる場合は、障害物の方向を容易に求めるために、単眼カメラの取付位置を、車両の左右の中央ではなく、ドライバーシートの左右の中央としてもよい。車外センサ3にステレオカメラ、マルチカメラ、レーダー、ライダー、レーザスキャナー等の障害物の相対位置を三次元的に求めることができるセンサを用いる場合は、これらのセンサの取付位置は、車両の外部の障害物を検出する上での有利さを基準に選択することができる。   The vehicle outside sensor 3 is a sensor for detecting at least an obstacle to be avoided outside the vehicle. A radar (Radar), a rider (LIDER: Laser Imaging Detection and Ranging), a laser scanner, a monocular camera, a stereo camera, a multi camera, or the like can be applied to the outside sensor 3. When a monocular camera that cannot three-dimensionally determine the relative position of the obstacle is used as the outside sensor 3, in order to easily determine the direction of the obstacle, the mounting position of the monocular camera is set to the left and right center of the vehicle. Instead, it may be the center of the driver seat. When using a sensor capable of three-dimensionally determining the relative position of an obstacle such as a stereo camera, a multi-camera, a radar, a rider, a laser scanner, etc., the mounting position of these sensors is outside the vehicle. Selection can be made on the basis of the advantage in detecting an obstacle.

ECU50aは、車両用表示装置100aの動作を制御する。ECU50aは、CPU[Central Processing Unit]、ROM[Read Only Memory]、RAM[Random Access Memory]等を有する電子制御ユニットである。ECU50aは、認知範囲推定部2a、障害物検出部4、障害物方向推定部5、認知判断部6、障害物識別部7、表示種類選択部8及び表示生成部9aを有している。ECU50aでは、ROMに記憶されているプログラムをRAMにロードし、CPUで実行することで、上記の認知範囲推定部2a等の各部の制御を実行する。ECU50aは、複数の電子制御ユニットから構成されていてもよい。   The ECU 50a controls the operation of the vehicle display device 100a. The ECU 50a is an electronic control unit having a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like. The ECU 50a includes a recognition range estimation unit 2a, an obstacle detection unit 4, an obstacle direction estimation unit 5, a recognition determination unit 6, an obstacle identification unit 7, a display type selection unit 8, and a display generation unit 9a. In the ECU 50a, a program stored in the ROM is loaded into the RAM and executed by the CPU, thereby executing control of each part such as the recognition range estimation unit 2a. The ECU 50a may be composed of a plurality of electronic control units.

認知範囲推定部2aは、ドライバセンサ1からの信号を受信し、車両のドライバー等の乗員が、車両の外部のどの範囲を認知しているかを推定する。認知範囲推定部2aが、乗員が認知している認知範囲を推定する手法の詳細については後述する。   The recognition range estimation unit 2a receives a signal from the driver sensor 1 and estimates which range outside the vehicle is recognized by an occupant such as a driver of the vehicle. Details of the method in which the recognition range estimation unit 2a estimates the recognition range recognized by the occupant will be described later.

障害物検出部4は、車外センサ3からの信号を受信し、車両の外部の少なくとも回避すべき障害物を検出する。車外センサ3が単眼カメラの場合には、モーションステレオ技術を用いて、車両の外部の所定の大きさ以上の立体物を検出できるようにしてもよい。また、GPS(GlobalPositioning System)等による車両の位置に関する情報と車外センサ3による障害物に関する情報とを関連付けて記録しておき、特定の位置において記録された過去の走行時の障害物に関する情報と、当該特定の位置において現在の車外センサ3により得られた情報とを比較することにより、障害物を検出してもよい。障害物に関する情報及び車両の位置に関する情報は、車両の外部のデータベース等から提供される情報であってもよい。   The obstacle detection unit 4 receives a signal from the outside sensor 3 and detects at least an obstacle to be avoided outside the vehicle. When the outside sensor 3 is a monocular camera, a three-dimensional object having a predetermined size or larger outside the vehicle may be detected by using motion stereo technology. Further, information related to the position of the vehicle by GPS (Global Positioning System) or the like and information related to the obstacle by the outside sensor 3 are recorded in association with each other, and information related to obstacles during past travel recorded at a specific position; An obstacle may be detected by comparing the information obtained by the current outside-vehicle sensor 3 at the specific position. The information regarding the obstacle and the information regarding the position of the vehicle may be information provided from a database outside the vehicle.

障害物方向推定部5は、車外センサ3及び障害物検出部4からの信号を受信し、車外センサ3により検出された障害物が、車両のドライバー等の乗員から視て、どの方向に位置するのかを推定する。車外センサ3が単眼カメラである場合には、障害物方向推定部5は、車外センサ3の取付位置に関する情報と障害物が検出された画素の位置に関する情報とから、障害物が存在する方向を推定する。車外センサ3がステレオカメラ、マルチカメラ、レーダー、ライダー、レーザスキャナーである場合には、障害物方向推定部5は、車外センサ3から障害物との相対的な位置を直接推定することができるため、車外センサ3の検出結果と取付位置とから障害物の方向を算出することができる。障害物方向推定部5は、障害物の方向だけではなく距離を推定してもよい。   The obstacle direction estimation unit 5 receives signals from the vehicle outside sensor 3 and the obstacle detection unit 4, and the obstacle detected by the vehicle outside sensor 3 is located in any direction as viewed from a passenger such as a driver of the vehicle. Estimate. When the outside sensor 3 is a monocular camera, the obstacle direction estimation unit 5 determines the direction in which the obstacle exists from the information about the mounting position of the outside sensor 3 and the information about the position of the pixel where the obstacle is detected. presume. When the vehicle exterior sensor 3 is a stereo camera, a multi-camera, a radar, a rider, or a laser scanner, the obstacle direction estimation unit 5 can directly estimate the relative position with the obstacle from the vehicle exterior sensor 3. The direction of the obstacle can be calculated from the detection result of the vehicle outside sensor 3 and the mounting position. The obstacle direction estimation unit 5 may estimate not only the direction of the obstacle but also the distance.

認知判断部6は、認知範囲推定部2aにより推定された乗員が認知している範囲と、障害物方向推定部5により推定された障害物の方向とを照合し、車両のドライバー等の乗員が当該障害物を認知しているか否かを判断し、乗員に対してHUD10の表示により障害物の認知を誘導するか否かを判断する。例えば、認知判断部6は、乗員が認知している範囲に障害物の存在する方向が含まれていない場合に、車両の乗員が当該障害物を認知していないために、乗員に対して障害物の認知を誘導することを判断することができる。   The recognition determination unit 6 collates the range recognized by the occupant estimated by the recognition range estimation unit 2a with the direction of the obstacle estimated by the obstacle direction estimation unit 5, and the occupant such as the driver of the vehicle It is determined whether or not the obstacle is recognized, and it is determined whether or not the occupant is guided to recognize the obstacle by displaying the HUD 10. For example, when the direction in which the obstacle is present is not included in the range recognized by the occupant, the recognition determination unit 6 is not responsive to the occupant because the vehicle occupant does not recognize the obstacle. It can be determined to induce recognition of objects.

障害物識別部7は、車外センサ3及び障害物検出部4からの信号を受信し、当該障害物の種類、移動方向及び移動速度等の障害物に関する付加的な情報を識別する。障害物識別部7が当該障害物の種類等の情報を識別できない場合には、障害物識別部7は識別できなかった当該障害物の種類等の情報の項目のそれぞれについて識別不可として出力してもよい。   The obstacle identification unit 7 receives signals from the vehicle outside sensor 3 and the obstacle detection unit 4 and identifies additional information regarding the obstacle such as the type, movement direction, and movement speed of the obstacle. When the obstacle identification unit 7 cannot identify the information such as the type of the obstacle, the obstacle identification unit 7 outputs each of the information items such as the type of the obstacle that could not be identified as being unidentifiable. Also good.

表示種類選択部8は、認知判断部6により車両の乗員が障害物を認知していないと判断された場合に、障害物識別部7により識別された当該障害物の種類等の情報に基づいて、表示生成部9aにより生成される表示の種類を選択する。表示種類選択部8が、表示生成部9aにより生成される表示の種類を選択する処理の詳細については後述する。   The display type selection unit 8 is based on information such as the type of the obstacle identified by the obstacle identification unit 7 when the recognition judgment unit 6 determines that the vehicle occupant does not recognize the obstacle. The type of display generated by the display generation unit 9a is selected. Details of the process in which the display type selection unit 8 selects the type of display generated by the display generation unit 9a will be described later.

表示生成部9aは、表示により車両の乗員に認知させる情報の内容に応じて、複数の移動する点としてヘッドアップディスプレイに投影される表示の内容を変更しつつ表示を生成する。具体的には、表示生成部9aは、表示種類選択部8により選択された表示の種類に応じて、表示の内容を変更しつつ表示を生成する。乗員に認知させる情報の内容とは、例えば、障害物の種類及び障害物の危険度等を意味する。また、乗員に認知させる情報の内容とは、例えば、信号、標識、見通しの悪い交差点等を含む車両のドライバー等の乗員が認知すべき全ての事物の位置及び状況等でもよい。あるいは、乗員に認知させる情報の内容とは、例えば、乗員の視線方向の誘導、乗員の運転操作等の行動の誘導及び乗員の感情の誘導等の情報を乗員に認知させる目的であってもよい。表示の内容とは、例えば、後述するように表示されるバイオロジカルモーションの動物の種類や、表示の動作の速度を意味する。複数の移動する点から構成された表示の詳細や、表示により車両の乗員に認知させる情報の内容の詳細については後述する。   The display generation unit 9a generates a display while changing the content of the display projected on the head-up display as a plurality of moving points in accordance with the content of information to be recognized by the vehicle occupant. Specifically, the display generation unit 9a generates a display while changing the display content according to the display type selected by the display type selection unit 8. The content of information to be recognized by the occupant means, for example, the type of obstacle and the danger level of the obstacle. Further, the content of information to be recognized by the occupant may be, for example, the positions and situations of all things to be recognized by the occupant such as a driver of a vehicle including a signal, a sign, an intersection with poor visibility, and the like. Alternatively, the content of information to be recognized by the occupant may be, for example, for the purpose of causing the occupant to recognize information such as guidance of the sight direction of the occupant, guidance of behavior such as driving operation of the occupant, and guidance of the occupant's emotion. . The display content means, for example, the type of biological motion animal displayed and the speed of the display operation as described later. Details of the display composed of a plurality of moving points and details of information to be recognized by the vehicle occupant by the display will be described later.

HUD10は、ECU50aの表示生成部9aが生成した表示を車両のウィンドシールドに投影することにより、当該表示を車両の乗員に視認させる装置である。HUD10において、表示が投影される透明な物体は、ウィンドシールド以外の車両の内部又は外部に配置された透明な板状部材でもよい。HUD10は、乗員から視て表示を無限遠に表示することができるヘッドアップディスプレイである。HUD10は、車両の前方の任意の距離に表示を障害物と重畳させて表示することができる二次元ヘッドアップディスプレイでもよい。また、HUD10は、障害物が存在する位置に表示を障害物と重畳させて表示することができる三次元ヘッドアップディスプレイでもよい。HUD10が三次元ヘッドアップディスプレイである場合は、HUD10は、障害物の存在する場所や障害物が存在する位置よりも手前に表示を表示してもよい。   The HUD 10 is a device that causes a vehicle occupant to visually recognize the display by projecting the display generated by the display generation unit 9a of the ECU 50a onto the windshield of the vehicle. In the HUD 10, the transparent object on which the display is projected may be a transparent plate-like member disposed inside or outside the vehicle other than the windshield. The HUD 10 is a head-up display that can be displayed at infinity when viewed from the passenger. The HUD 10 may be a two-dimensional head-up display capable of displaying a display superimposed on an obstacle at an arbitrary distance in front of the vehicle. Further, the HUD 10 may be a three-dimensional head-up display capable of displaying a display superimposed on the obstacle at a position where the obstacle exists. When the HUD 10 is a three-dimensional head-up display, the HUD 10 may display a display in front of a place where an obstacle exists or a position where an obstacle exists.

以下、本実施形態の車両用表示装置100aで実行される処理について説明する。図2に示すように、ECU50aの認知範囲推定部2aにより、車両のドライバー等の乗員の認知範囲が推定される(S101)。乗員の認知範囲を推定する方法としては、以下の二つの方法が考えられる。第1の方法は、乗員の瞬間的な認知範囲を任意の時間に亘って累積することにより乗員の認知範囲を推定する方法である。第2の方法は、乗員が認知していない物を乗員の行動から推定する方法である。   Hereinafter, the process performed with the display apparatus 100a for vehicles of this embodiment is demonstrated. As shown in FIG. 2, the recognition range estimation unit 2a of the ECU 50a estimates the recognition range of an occupant such as a vehicle driver (S101). The following two methods are conceivable as methods for estimating the occupant's recognition range. The first method is a method of estimating the occupant's recognition range by accumulating the occupant's instantaneous recognition range over an arbitrary time. The second method is a method for estimating an object that is not recognized by the occupant from the behavior of the occupant.

第1の方法では、上述した車両のドライバー等の乗員に向けられた単眼カメラ等のドライバセンサ1が適用される。第1の方法では、例えば、カメラ及び深度センサ等を用いて、乗員からカメラまでの距離を計測し、カメラに乗員を写すことで乗員の骨格の様々な動きを検出してもよい。このような乗員の三次元形状を推定する技術により、乗員の顔の方向を検出することができる。また、カメラに写った乗員の眼の白目の部分と黒目の部分とを検出することにより、乗員の視線方向を推定し、視線方向推定信号として出力することができる。この場合、近赤外線光源を用いれば、視線方向を推定する精度を向上させることができる。   In the first method, the driver sensor 1 such as a monocular camera directed to an occupant such as a driver of the vehicle described above is applied. In the first method, for example, the distance from the occupant to the camera may be measured using a camera and a depth sensor, and various movements of the skeleton of the occupant may be detected by capturing the occupant on the camera. The direction of the occupant's face can be detected by the technique for estimating the three-dimensional shape of the occupant. In addition, by detecting the white eye portion and the black eye portion of the occupant's eye as seen in the camera, the sight direction of the occupant can be estimated and output as a gaze direction estimation signal. In this case, if a near-infrared light source is used, the accuracy of estimating the line-of-sight direction can be improved.

図3(a)に示すように、第1の方法においては、認知範囲推定部2aは、離散時間ごとに、ドライバセンサ1により検出された乗員の視線方向Vを中心とした所定の立体角で区画される範囲である瞬間認知範囲Rを記録する。図3(b)に示すように、認知範囲推定部2aは、任意の時間に亘る複数の瞬間認知範囲Rにより覆われた範囲を認知範囲Rとして推定することができる。この場合、認知範囲推定部2aは、認知範囲Rの推定の精度を向上させるために、瞬間認知範囲Rが所定の閾値以上に重なっている領域(長時間に亘って視線が注がれた領域)に、認知範囲Rを限定してもよい。 As shown in FIG. 3A, in the first method, the recognition range estimation unit 2a has a predetermined solid angle centered on the sight line direction VL of the occupant detected by the driver sensor 1 for each discrete time. an instantaneous recognition range R I is a range which is defined in records. As shown in FIG. 3 (b), cognitive range estimation unit 2a can estimate the range covered by the plurality of instantaneous cognitive range R I over any time as cognitive range R A. In this case, the recognition range estimation unit 2a, in order to improve the accuracy of the estimated cognitive range R A, instantaneous cognitive range R I is poured gaze over a region (long overlapping to or greater than a predetermined threshold value The recognition range R A may be limited to a region).

第2の方法においては、認知範囲推定部2a又は認知判断部6は、車外センサ3と接続され、車外センサ3からの信号を受信する。また、認知範囲推定部2a又は認知判断部6は、車両の走行状態を検出する車速センサ、加速度センサ及びヨーレートセンサ等と接続され、車速センサ等からの信号を受信する。さらに、認知範囲推定部2a又は認知判断部6は、車両のドライバーの運転操作を検出するアクセルペダルセンサ、ブレーキペダルセンサ及び操舵角センサ等と接続され、アクセルペダルセンサ等からの信号を受信する。一方、第2の方法においては、第1の方法のように、ドライバー等の乗員の視線方向を検出するカメラ等は必須ではない。   In the second method, the recognition range estimation unit 2 a or the recognition determination unit 6 is connected to the vehicle outside sensor 3 and receives a signal from the vehicle outside sensor 3. The recognition range estimation unit 2a or the recognition determination unit 6 is connected to a vehicle speed sensor, an acceleration sensor, a yaw rate sensor, and the like that detect the traveling state of the vehicle, and receives signals from the vehicle speed sensor and the like. Furthermore, the recognition range estimation unit 2a or the recognition determination unit 6 is connected to an accelerator pedal sensor, a brake pedal sensor, a steering angle sensor, and the like that detect the driving operation of the driver of the vehicle, and receives a signal from the accelerator pedal sensor and the like. On the other hand, in the second method, a camera or the like that detects the line-of-sight direction of an occupant such as a driver is not essential as in the first method.

認知範囲推定部2a又は認知判断部6は、車外センサ3による情報から最も適切な運転操作を算出する。認知範囲推定部2aは、算出された最も適切な運転操作と、車両の走行状態及びドライバーの運転操作と比較することにより、ドライバーが車外センサ3により検出された障害物を認知しているか否かを推定することができる。   The recognition range estimation unit 2 a or the recognition determination unit 6 calculates the most appropriate driving operation from the information from the outside sensor 3. Whether or not the driver recognizes the obstacle detected by the outside sensor 3 by comparing the calculated most appropriate driving operation with the driving state of the vehicle and the driving operation of the driver. Can be estimated.

例えば、車両の前方の十数mの距離に低速な他車両が存在する場合を仮定する。この場合、当該他車両を検出している車外センサ3による情報から算出される最も適切な運転操作は、ブレーキ操作である。したがって、認知範囲推定部2a又は認知判断部6は、もしドライバーによるブレーキ操作がブレーキペダルセンサ等により検出されなかった場合は、ドライバーが当該他車両を認知していないと推定することができる。   For example, it is assumed that there is a low-speed other vehicle at a distance of a few tens of meters ahead of the vehicle. In this case, the most appropriate driving operation calculated from information by the outside sensor 3 detecting the other vehicle is a brake operation. Therefore, the recognition range estimation unit 2a or the recognition determination unit 6 can estimate that the driver does not recognize the other vehicle if the brake operation by the driver is not detected by the brake pedal sensor or the like.

図2に戻り、ECU50aの障害物検出部4は、車両の外部の障害物を検出する(S102)。ECU50aの障害物方向推定部5は、障害物の方向を推定する。ECU50aの障害物識別部7は、当該障害物の種類、移動方向及び移動速度等の障害物に関する付加的な情報を識別する。   Returning to FIG. 2, the obstacle detection unit 4 of the ECU 50a detects an obstacle outside the vehicle (S102). The obstacle direction estimation unit 5 of the ECU 50a estimates the direction of the obstacle. The obstacle identifying unit 7 of the ECU 50a identifies additional information regarding the obstacle such as the type of obstacle, the moving direction, and the moving speed.

障害物が存在する場合は(S103)、ECU50aの認知判断部6は、車両のドライバー等の乗員が当該障害物を認知しているか否かを判断する(S104)。上記の第1の方法によれば、認知範囲推定部2aにより推定された認知範囲Rに、障害物方向推定部5による推定された当該障害物の存在する方向が含まれていない場合に、車両の乗員が当該障害物を認知していないと判定する。上記の第2の方法によれば、当該障害物に対して最も適切な運転操作が車両のドライバーによって行われなかった場合に、認知範囲推定部2a又は認知判断部6は、車両のドライバーが当該障害物を認知していないと判定する。障害物が存在しない場合は、ECU50aは処理を終了する(S103)。 When there is an obstacle (S103), the recognition determination unit 6 of the ECU 50a determines whether an occupant such as a vehicle driver recognizes the obstacle (S104). According to the first method, when the recognition range RA estimated by the recognition range estimation unit 2a does not include the direction of the obstacle estimated by the obstacle direction estimation unit 5, It is determined that the vehicle occupant does not recognize the obstacle. According to the second method, when the most appropriate driving operation for the obstacle is not performed by the driver of the vehicle, the recognition range estimation unit 2a or the recognition determination unit 6 It is determined that the obstacle is not recognized. If there is no obstacle, the ECU 50a ends the process (S103).

車両のドライバー等の乗員が当該障害物を認知していない場合は(S105)、ECU50aの表示種類選択部8は、障害物識別部7により識別された当該障害物の種類等の情報に基づいて、ECU50aの表示生成部9aにより生成される表示の種類を選択する(S106)。表示生成部9aは、表示種類選択部8により選択された表示の種類に応じて、表示の内容を変更しつつ表示を生成する(S107)。HUD10は、表示生成部9aにより生成された表示を車両のウィンドシールドに投影する(S108)。車両のドライバー等の乗員が当該障害物を認知している場合は、ECU50aは処理を終了する(S105)。   When an occupant such as a vehicle driver does not recognize the obstacle (S105), the display type selection unit 8 of the ECU 50a is based on information such as the type of the obstacle identified by the obstacle identification unit 7. The type of display generated by the display generation unit 9a of the ECU 50a is selected (S106). The display generation unit 9a generates a display while changing the display content according to the display type selected by the display type selection unit 8 (S107). The HUD 10 projects the display generated by the display generation unit 9a onto the windshield of the vehicle (S108). If an occupant such as a vehicle driver recognizes the obstacle, the ECU 50a ends the process (S105).

図4に示すように、本実施形態においては、表示生成部9aは、HUD10のウィンドシールドWに、複数の移動する点pから構成される表示BMを投影する。複数の点pの大きさは、例えば、車両のドライバー等の視認可能であると推定される最小直径の1〜10倍の大きさとすることができる。例えば、複数の点pのそれぞれの移動の方向及び速さは互いに異なる。複数の点pの数は、例えば、5〜25個とすることができる。   As shown in FIG. 4, in the present embodiment, the display generation unit 9 a projects a display BM composed of a plurality of moving points p onto the windshield W of the HUD 10. The size of the plurality of points p can be, for example, 1 to 10 times the minimum diameter estimated to be visible to a driver of a vehicle. For example, the moving direction and speed of each of the plurality of points p are different from each other. The number of the plurality of points p can be 5 to 25, for example.

本実施形態においては、複数の移動する点pから構成される表示BMは、例えば、バイオロジカルモーション(biologicalmotion)を適用することができる。バイオロジカルモーシヨンとは、生物を少数の点の動きのみで表現したものである。バイオロジカルモーシヨンは、人間がある物体の存在を認知する感覚に強く働きかける。バイオロジカルモーシヨンは、少数の点の動きで構成されるため、実際の物体としての形状はほとんど保持しておらず、周囲の風景と重畳して表示した場合も視認性を妨げることはない。   In the present embodiment, for example, biological motion can be applied to the display BM configured by a plurality of moving points p. Biological motion is a representation of living things with only a few movements. Biological motion strongly works on the sense that human beings recognize the existence of an object. Biological motion is composed of a small number of point movements, and therefore hardly retains the shape of an actual object, and does not hinder visibility even when displayed superimposed on the surrounding landscape.

表示生成部9aは、バイオロジカルモーションの表示BMを予めモーションキャプチャ等により作成し、HUD10に投影するときまで記録しておくことができる。表示生成部9aは、車両用表示装置100aの外部で作成されたバイオロジカルモーションの表示BMをHUD10に投影するときまで記録しておいてもよい。バイオロジカルモーションの表示BMの作成は、例えば、生物の関節等の複数の特定部位それぞれの座標位置を任意の離散時間ごとに記録し、当該特定部位それぞれの離散時間ごとの座標位置を点pで表現することにより作成することができる。バイオロジカルモーションの表示BMの情報は、当該特定部位それぞれの座標位置の時系列情報により表現することができる。表示BMを表現する座標系は、二次元座標系及び三次元座標系のいずれでもよい。   The display generation unit 9a can create a biological motion display BM in advance by motion capture or the like and record it until it is projected onto the HUD 10. The display generation unit 9 a may record the biological motion display BM created outside the vehicle display device 100 a until it is projected onto the HUD 10. For example, the biological motion display BM is created by recording the coordinate positions of each of a plurality of specific parts such as a joint of a living organism at an arbitrary discrete time, and the coordinate positions of each of the specific parts at a discrete time at a point p. It can be created by expressing. Biological motion display BM information can be expressed by time-series information of the coordinate positions of the specific parts. The coordinate system representing the display BM may be either a two-dimensional coordinate system or a three-dimensional coordinate system.

バイオロジカルモーションの表示BMは、生物の動きを記録した画像から、手動による入力作業により作成してもよく、画像処理等により自動的に作成してもよい。例えば、障害物検出部4により検出された障害物が歩行者であり、表示生成部9aが当該歩行者のバイオロジカルモーションの表示BMを即時に生成する場合は、例えば、車外センサ3の単眼カメラ等により得られた歩行者の画像から当該歩行者の関節それぞれの座標位置の時系列情報を抽出することにより、表示生成部9aは当該歩行者のバイオロジカルモーションの表示BMを即時に生成することができる。   The biological motion display BM may be created by manual input work from an image in which the movement of a living thing is recorded, or may be automatically created by image processing or the like. For example, when the obstacle detected by the obstacle detection unit 4 is a pedestrian and the display generation unit 9a immediately generates a display BM of the biological motion of the pedestrian, for example, a monocular camera of the outside sensor 3 By extracting the time series information of the coordinate positions of each joint of the pedestrian from the pedestrian image obtained by the above, the display generation unit 9a immediately generates the BM biological motion display BM. Can do.

表示種類選択部8が選択可能なバイオロジカルモーションの表示BMの生物の種類や動きは可能な限り多くの種類を予め用意しておくことができる。例えば、表示種類選択部8は、障害物の種類とバイオロジカルモーションの表示BMの生物の種類とを自由に組み合わせることができる。表示種類選択部8は、選択するバイオロジカルモーションの表示BMの生物の種類を無作為に決定してもよく、障害物の種類とバイオロジカルモーションの表示BMの生物の種類との組み合わせを予め定めておいてもよく、バイオロジカルモーションの表示BMの生物の種類を特定の生物に固定してもよい。   Biological motion display BM that can be selected by the display type selection unit 8 can be prepared in advance as many types as possible. For example, the display type selection unit 8 can freely combine the types of obstacles and the types of organisms in the biological motion display BM. The display type selection unit 8 may determine the biological type of the biological motion display BM to be selected at random. The combination of the type of the obstacle and the biological type of the biological motion display BM is determined in advance. In addition, the biological motion display BM organism type may be fixed to a specific organism.

生物の動きに対する人間の反応は、外敵などの危険が迫ったときに素早く対応できるように備えられた機能であるため、表示種類選択部8は、人間にとって本能的に脅威となる蛇、蜘蛛、ヒョウモンダコ等の毒を持つ生物やライオン等の猛獣の種類と、それらの威嚇及び走行等の動作とをバイオロジカルモーションの表示BMとして優先して選択してもよい。例えば、図4の例では、他車両である障害物Oに対して点pにより蛇の動きを表現したバイオロジカルモーションの表示BMが表示されている。障害物が複数存在する場合には、表示種類選択部8は、障害物のそれぞれについて、それぞれ異なる種類の生物を表現したバイオロジカルモーションの表示BMを選択してもよい。   Since the human reaction to the movement of the living organism is a function provided so that it can quickly respond when a danger such as an external enemy approaches, the display type selection unit 8 has an instinct that is a threat to human beings such as snakes, spiders, You may preferentially select biological creatures such as leopard octopuses and monsters such as lions and their threats and actions such as running as the biological motion display BM. For example, in the example of FIG. 4, a biological motion display BM representing the movement of a snake by a point p with respect to an obstacle O that is another vehicle is displayed. When there are a plurality of obstacles, the display type selection unit 8 may select a biological motion display BM representing different types of organisms for each obstacle.

また、表示種類選択部8は、人間以外の生物を表現するバイオロジカルモーションの表示BMを選択してもよい。歩行者のように人間の動きは車両の外部の多くの場所で存在するため、人間以外の生物を表現するバイオロジカルモーションの表示BMを表示することにより、乗員に障害物を認知させ易くすることができる。この場合、表示種類選択部8は、障害物の種類とバイオロジカルモーションの表示BMが表現する生物の種類とが互いに異なるようにしてもよい。また、表示種類選択部8は、障害物が車両、二輪車、標識及び交差点等の非生物である場合にのみ、バイオロジカルモーションの表示BMを選択してもよい。   In addition, the display type selection unit 8 may select a biological motion display BM that represents a living organism other than a human being. Since human movements such as pedestrians exist in many places outside the vehicle, it is easy to make occupants recognize obstacles by displaying a biological motion display BM that expresses organisms other than humans. Can do. In this case, the display type selection unit 8 may be configured such that the type of obstacle and the type of organism represented by the biological motion display BM are different from each other. The display type selection unit 8 may select the biological motion display BM only when the obstacle is a non-living object such as a vehicle, a motorcycle, a sign, or an intersection.

表示種類選択部8が選択可能なバイオロジカルモーションの表示BMの種類について、さらに説明する。乗員に緊急な注意を喚起する場合には、上述した蛇、蜘蛛、ヒョウモンダコ等の毒を持つ生物やライオン等の猛獣を表現したバイオロジカルモーションの表示BMが選択される。このような本能に根付いた敵の表示BMにより、乗員の視線方向を変化させ、乗員の早期の認知や確実な認知を期待することができる。   The type of biological motion display BM that can be selected by the display type selection unit 8 will be further described. In order to alert the occupant to urgent attention, a biological motion display BM representing the above-mentioned poisonous creatures such as snakes, spiders and leopard octopuses and beasts such as lions is selected. By such an enemy display BM rooted in instinct, it is possible to change the sight line direction of the occupant and expect early recognition and reliable recognition of the occupant.

一方、乗員の心情を誘導するバイオロジカルモーションの表示BMが選択されてもよい。例えば、人間の恐怖や驚きの表情を表現するバイオロジカルモーションの表示BMによれば、乗員の緊張感を高めることができ、上述した蛇や蜘蛛の表示BMと同様の効果を得ることができる。また、人間の笑顔の表情を表現するバイオロジカルモーションの表示BMによれば、例えば、高齢者や児童がゆっくりと横断している場合において表示することにより、乗員の精神状態を穏やかにすることができる。   On the other hand, a biological motion display BM that induces the occupant's feelings may be selected. For example, according to the display BM of biological motion that expresses a human fear or a surprised expression, it is possible to enhance the occupant's tension and to obtain the same effect as the above-described display BM of a snake or a spider. In addition, according to the biological motion display BM that expresses the expression of a human smile, for example, when an elderly person or a child is slowly crossing, the mental state of the occupant can be calmed. it can.

あるいは、ある程度の時間に余裕がある場合に乗員に視線を向けるべき場所を誘導するために、人間の視線を表現するバイオロジカルモーションの表示BMが選択されてもよい。これにより、乗員の視線の方向を誘導することができる。   Alternatively, a biological motion display BM that represents a human gaze may be selected in order to guide a place where the gaze should be directed to the occupant when there is a certain amount of time. Thereby, the direction of the line of sight of the occupant can be guided.

本実施形態によれば、表示生成部9aにより、複数の移動する点pがHUD10に投影される表示BMとして生成される。HUD10の複数の移動する点pが投影されている箇所は、当該箇所を介して車両の外部を視認する際の障害になり難い。そのため、ヘッドアップディスプレイにキャラクターを投影する場合に比べて、車両の乗員がHUD10を介して車両の外部を視認する際の視認性を向上させることができる。また、表示生成部9aにより、表示により車両の乗員に認知させる情報の内容に応じて、複数の移動する点pから構成された表示BMの内容が変更されるため、単にキャラクターの形状等を変更する場合に比べて、車両の乗員が表示BMにより車両の乗員に認知させる情報の内容をより把握し易くなる。   According to the present embodiment, the display generation unit 9a generates a plurality of moving points p as a display BM projected onto the HUD 10. A location where a plurality of moving points p of the HUD 10 are projected is unlikely to be an obstacle when the outside of the vehicle is visually recognized through the location. Therefore, the visibility when the vehicle occupant visually recognizes the outside of the vehicle via the HUD 10 can be improved as compared with the case where the character is projected on the head-up display. In addition, the display generation unit 9a changes the content of the display BM composed of a plurality of moving points p in accordance with the content of information to be recognized by the vehicle occupant by the display. Compared with the case where it does, it becomes easier to grasp | ascertain the content of the information which a passenger | crew of a vehicle makes a passenger | crew of a vehicle recognize by display BM.

[第2実施形態]
図5に示すように、第2実施形態に係る車両用表示装置100bは、ECU50bに認知範囲推定部2bと表示生成部9bとを有している点が上記第1実施形態と異なり、その他は上記第1実施形態と同様である。
[Second Embodiment]
As shown in FIG. 5, the vehicle display device 100b according to the second embodiment is different from the first embodiment in that the ECU 50b includes a recognition range estimation unit 2b and a display generation unit 9b. This is the same as in the first embodiment.

認知範囲推定部2bは、車両のドライバー等の乗員の認知範囲として、中心視野と周辺視野とを推定する。図6に示すように、認知範囲推定部2bは、最新の視線方向Vの近傍における2°程度の立体角で示される範囲を中心視野Vと推定し、最新の視線方向Vを中心とした一定の範囲(例えば40°程度、又は水平方向で180°〜210°程度)であって、且つ中心視野Vを除いた範囲を周辺視野Vとする。あるいは、認知範囲推定部2bは、最新の視線方向Vの近傍における2°程度の立体角で示される範囲を中心視野Vと推定し、それ以外の第1実施形態と同様に推定された認知範囲Rを周辺視野Vと推定してもよい。また、認知範囲推定部2bは、認知範囲推定部2bは、推定された中心視野V及び周辺視野Vに関する情報を表示生成部9bに出力する。 The recognition range estimation unit 2b estimates a central visual field and a peripheral visual field as the recognition range of an occupant such as a vehicle driver. As shown in FIG. 6, the recognition range estimation unit 2b estimates a range indicated by a solid angle of about 2 ° in the vicinity of the latest line-of-sight direction V L as the central visual field V C, and centers the latest line-of-sight direction V L and certain ranges (for example 40 ° C., or horizontal 180 ° to 210 degree ° in direction) a, and a range excluding the central field V C and peripheral vision V P. Alternatively, cognitive range presumption unit 2b estimates the range indicated by the solid angle of about 2 ° in the vicinity of the latest visual line direction V L and the central visual field V C, which is estimated as with the other of the first embodiment cognitive range R a may be estimated with the peripheral vision V P. Further, the recognition range presumption unit 2b, cognitive range presumption unit 2b outputs information about the estimated central field V C and peripheral vision V P to the display generator unit 9b.

図7に示すように、表示生成部9bは、バイオロジカルモーションの表示BMを中心視野Vの外側の周辺視野Vに表示する。図7に示すように、中心視野Vの中の視線方向Vから障害物Oに向かう方向dと同一方向となる位置にバイオロジカルモーションの表示BMが表示されてもよい。 As shown in FIG. 7, the display generation unit 9b displays the display BM of Biological Motion outside the peripheral vision V P of the central visual field V C. As shown in FIG. 7, a position having the same direction as the direction d toward the viewing direction V L to the obstacle O in the central field V C is displayed BM of biological motion may be displayed.

バイオロジカルモーションの表示BMは周辺視野Vにおいて、人間の感度が高く、視線方向Vの先に表示しなくとも、人間に強い注意を喚起することができる。これは、外敵等の危険が迫ったときに素早く対応できるように、生物の本能として人間が備えている機能であることに起因する。本実施形態では、バイオロジカルモーションの表示BMを中心視野Vの外側の周辺視野Vに表示することにより、車両の乗員の中心視野Vを妨げることなく、乗員に障害物Oを認知させることができる。 Biological motion display BM has high human sensitivity in the peripheral visual field VP , and can draw strong attention to humans even if it is not displayed ahead of the line-of-sight direction VL . This is because it is a function that humans have as an instinct for living organisms so that they can respond quickly when the dangers of external enemies are imminent. In the present embodiment, by displaying the display BM of Biological Motion outside the peripheral vision V P of the central visual field V C, without interfering with central vision V C of the occupant of the vehicle, thereby recognizing the obstacle O on the occupant be able to.

[第3実施形態]
図8に示すように、第3実施形態に係る車両用表示装置100cは、ECU50cに障害物衝突時間検出部11、障害物危険度推定部12及び表示速度決定部13を有している点が上記第2実施形態と異なり、その他は上記第2実施形態と同様である。
[Third Embodiment]
As shown in FIG. 8, the vehicular display device 100 c according to the third embodiment has an obstacle collision time detection unit 11, an obstacle risk degree estimation unit 12, and a display speed determination unit 13 in the ECU 50 c. Unlike the second embodiment, the rest is the same as the second embodiment.

障害物衝突時間検出部11は、車外センサ3からの信号を受けて、障害物と衝突するまでの予測時間を検出する。害物と衝突するまでの予測時間は、障害物からの距離と相対速度とから算出することができる。   The obstacle collision time detection unit 11 receives a signal from the vehicle outside sensor 3 and detects a predicted time until the vehicle collides with the obstacle. The predicted time until the vehicle collides with the obstacle can be calculated from the distance from the obstacle and the relative speed.

障害物危険度推定部12は、障害物識別部7による障害物の種類(障害物の大きさ等を数値で表現したもの)及び障害物衝突時間検出部11により検出された障害物と衝突するまでの予測時間の少なくともいずれか、あるいは両方から当該障害物の危険度を推定する。障害物の危険度は、当該障害物が車両に与える危険を表す指標であり、数値で表現される。障害物の危険度は、障害物の種類と障害物と衝突するまでの予測時間とにそれぞれ重み付けをする評価指数を乗じたものを加算することにより算出することができる。   The obstacle risk level estimation unit 12 collides with the obstacle type detected by the obstacle identification unit 7 (a numerical value representing the size of the obstacle) and the obstacle detected by the obstacle collision time detection unit 11. The risk of the obstacle is estimated from at least one or both of the predicted times until the obstacle. The danger level of the obstacle is an index representing the danger given to the vehicle by the obstacle, and is represented by a numerical value. The risk level of the obstacle can be calculated by adding a value obtained by multiplying the type of the obstacle and the estimated time until the collision with the obstacle by the weighted evaluation index.

表示速度決定部13は、障害物危険度推定部12により推定された障害物の危険度に応じて、表示BMの点pの移動の速度を決定する。表示速度決定部13は、例えば、障害物の危険度が予め定めた閾値以上である場合に、表示BMの点pの移動の速度を増加することができる。また、表示速度決定部13は、障害物の危険度が高くなるにつれて、表示BMの点pの移動の速度を増加してもよい。   The display speed determination unit 13 determines the movement speed of the point p of the display BM according to the obstacle risk estimated by the obstacle risk estimation unit 12. For example, the display speed determination unit 13 can increase the speed of movement of the point p of the display BM when the risk of the obstacle is equal to or higher than a predetermined threshold. Further, the display speed determination unit 13 may increase the movement speed of the point p of the display BM as the danger level of the obstacle increases.

車両用表示装置100cの動作は、図9に示すように、図2に示した上記第1実施形態のS101〜S106と同様のS201〜S206の処理が実行される。ECU50cの障害物衝突時間検出部11により障害物と衝突するまでの予測時間が検出され、障害物危険度推定部12により当該障害物の危険度が推定される。危険度が閾値以上であるときは(S207)、ECU50cの表示速度決定部13は、表示BMの点pの移動の速度を増加する(S208)。一方、危険度が閾値未満であるときは(S207)、表示速度決定部13は、点pの移動の速度を通常の速度に決定する。   As shown in FIG. 9, the operation of the vehicular display device 100c executes the processes of S201 to S206 similar to S101 to S106 of the first embodiment shown in FIG. The obstacle collision time detection unit 11 of the ECU 50c detects a predicted time until the vehicle collides with the obstacle, and the obstacle risk estimation unit 12 estimates the risk of the obstacle. When the degree of risk is greater than or equal to the threshold (S207), the display speed determination unit 13 of the ECU 50c increases the movement speed of the point p on the display BM (S208). On the other hand, when the degree of risk is less than the threshold (S207), the display speed determination unit 13 determines the movement speed of the point p to be a normal speed.

表示生成部9bは、表示速度決定部13により決定された点pの移動の速度に従い、バイオロジカルモーションの表示BMを生成する(S209)。HUD10は、表示生成部9aにより生成された表示BMを車両のウィンドシールドに投影する(S210)。   The display generation unit 9b generates a biological motion display BM according to the movement speed of the point p determined by the display speed determination unit 13 (S209). The HUD 10 projects the display BM generated by the display generation unit 9a on the windshield of the vehicle (S210).

バイオロジカルモーションの表示BMは、人間の動作を同調させる効果がある。例えば、バイオロジカルモーションの表示BMの点pの速度が速くなると、表示BMを視認した人間の障害物に対する認知、判断及び操作時間が速くなる。そこで、本実施形態では、障害物の危険度が高いほど、バイオロジカルモーションの表示BMの点pの移動の速度を速くすることにより、車両のドライバー等の乗員の動作の速さをより速く誘導することができる。なお、本実施形態では、車両が走行する走行環境に応じて、バイオロジカルモーションの表示BMの点pの移動の速度を変化させてもよい。例えば、高速道路のサグ等の渋滞発生場所では点pの速度を速くし、通学路では点pの速度を遅くすることができる。   Biological motion display BM has the effect of synchronizing human movements. For example, when the speed of the point p of the biological motion display BM increases, the recognition, determination, and operation time for an obstacle of a human who viewed the display BM increases. Therefore, in the present embodiment, the higher the obstacle risk level, the faster the movement speed of the point p of the biological motion display BM, thereby speeding up the movement speed of a passenger such as a vehicle driver. can do. In the present embodiment, the speed of movement of the point p of the biological motion display BM may be changed according to the traveling environment in which the vehicle travels. For example, the speed of the point p can be increased at a traffic jam location such as a sag on an expressway, and the speed of the point p can be decreased on a school road.

以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されることなく様々な形態で実施される。例えば、表示BMにより車両の乗員に認知させる情報の内容は、上記実施形態の障害物の種類や危険度以外にも、例えば、信号、標識、見通しの悪い交差点等を含む車両のドライバー等の乗員が認知すべき全ての事物の位置、状況等の内容が含まれる。   As mentioned above, although embodiment of this invention was described, this invention is implemented in various forms, without being limited to the said embodiment. For example, the content of the information recognized by the vehicle occupant by the display BM includes, for example, a passenger such as a driver of a vehicle including a signal, a sign, an unsightly intersection, etc. in addition to the type and risk of the obstacle in the above embodiment. This includes the location, status, etc. of all things that should be recognized.

1…ドライバセンサ、2a,2b…認知範囲推定部、3…車外センサ、4…障害物検出部、5…障害物方向推定部、6…認知判断部、7…障害物識別部、8…表示種類選択部、9a,9b…表示生成部、10…HUD、11…障害物衝突時間検出部、12…障害物危険度推定部、13…表示速度決定部、50a,50b,50c…ECU、100a,100b,100c…車両用表示装置、V…視線方向、R…瞬間認知範囲、R…認知範囲、V…中心視野、V…周辺視野、p…点、BM…表示、O…障害物、d…方向。 DESCRIPTION OF SYMBOLS 1 ... Driver sensor, 2a, 2b ... Recognition range estimation part, 3 ... Outside sensor, 4 ... Obstacle detection part, 5 ... Obstacle direction estimation part, 6 ... Recognition judgment part, 7 ... Obstacle identification part, 8 ... Display Type selection unit, 9a, 9b ... display generation unit, 10 ... HUD, 11 ... obstacle collision time detection unit, 12 ... obstacle risk level estimation unit, 13 ... display speed determination unit, 50a, 50b, 50c ... ECU, 100a , 100b, 100c ... display device for vehicle, V L ... direction of sight, R I ... instantaneous recognition range, R A ... recognition range, V C ... central vision, V P ... peripheral vision, p ... point, BM ... display, O ... obstacles, d ... direction.

Claims (1)

車両に搭載されたヘッドアップディスプレイに投影された表示を前記車両の乗員に視認させる車両用表示装置であって、
前記表示により前記車両の乗員に認知させる情報の内容に応じて、複数の移動する点として前記ヘッドアップディスプレイに投影される前記表示の内容を変更しつつ前記表示を生成する表示生成部を備えた車両用表示装置。
A vehicle display device for causing a vehicle occupant to visually recognize a display projected on a head-up display mounted on a vehicle,
A display generation unit configured to generate the display while changing the content of the display projected on the head-up display as a plurality of moving points according to the content of information to be recognized by an occupant of the vehicle by the display; Vehicle display device.
JP2015117610A 2015-06-10 2015-06-10 Vehicular display apparatus Pending JP2017001525A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015117610A JP2017001525A (en) 2015-06-10 2015-06-10 Vehicular display apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015117610A JP2017001525A (en) 2015-06-10 2015-06-10 Vehicular display apparatus

Publications (1)

Publication Number Publication Date
JP2017001525A true JP2017001525A (en) 2017-01-05

Family

ID=57753692

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015117610A Pending JP2017001525A (en) 2015-06-10 2015-06-10 Vehicular display apparatus

Country Status (1)

Country Link
JP (1) JP2017001525A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019010919A (en) * 2017-06-29 2019-01-24 アイシン・エィ・ダブリュ株式会社 Travel support device and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013203103A (en) * 2012-03-27 2013-10-07 Denso It Laboratory Inc Display device for vehicle, control method therefor, and program
WO2015037117A1 (en) * 2013-09-13 2015-03-19 日立マクセル株式会社 Information display system, and information display device
JP2015180037A (en) * 2014-02-25 2015-10-08 パナソニックIpマネジメント株式会社 Display control program, display control device and display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013203103A (en) * 2012-03-27 2013-10-07 Denso It Laboratory Inc Display device for vehicle, control method therefor, and program
WO2015037117A1 (en) * 2013-09-13 2015-03-19 日立マクセル株式会社 Information display system, and information display device
JP2015180037A (en) * 2014-02-25 2015-10-08 パナソニックIpマネジメント株式会社 Display control program, display control device and display device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019010919A (en) * 2017-06-29 2019-01-24 アイシン・エィ・ダブリュ株式会社 Travel support device and computer program

Similar Documents

Publication Publication Date Title
CN111247575B (en) Vehicle driving assistance system, method, and computer-readable storage medium
US9965957B2 (en) Driving support apparatus and driving support method
JP5410730B2 (en) Automobile external recognition device
EP2544161B1 (en) Surrounding area monitoring device for vehicle
US10009580B2 (en) Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle
EP2523839B1 (en) Combining driver and environment sensing for vehicular safety systems
CN105324267B (en) Drive supporting device
CN103732480B (en) Method and device for assisting a driver in performing lateral guidance of a vehicle on a carriageway
JP4872245B2 (en) Pedestrian recognition device
US9524643B2 (en) Orientation sensitive traffic collision warning system
JP4456086B2 (en) Vehicle periphery monitoring device
US20130033368A1 (en) Driving support device
JP5691237B2 (en) Driving assistance device
US20230296395A1 (en) Vehicle display device
EP3667641A1 (en) Vehicle driving assistance system, vehicle driving assistance method, and vehicle driving assistance program
JP4097519B2 (en) Danger sensitivity estimation device, safe driving evaluation device and alarm device
JP2007323578A (en) Vehicle periphery monitoring device
US11260856B2 (en) Information display device, information display method, and recording medium
JP2024029051A (en) In-vehicle display device, method and program
JP5192007B2 (en) Vehicle periphery monitoring device
JP2014219814A (en) Drive aiding device and program
JP2017001525A (en) Vehicular display apparatus
JP2005216083A (en) Device for guiding vehicle to avoid risk
JP5742180B2 (en) Gaze point estimation device
Industry AN INTELLIGENT SYSTEM FOR A SMOOTHER JOURNEY

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180628

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190129