JP2018185654A - Head-up display device - Google Patents

Head-up display device Download PDF

Info

Publication number
JP2018185654A
JP2018185654A JP2017086990A JP2017086990A JP2018185654A JP 2018185654 A JP2018185654 A JP 2018185654A JP 2017086990 A JP2017086990 A JP 2017086990A JP 2017086990 A JP2017086990 A JP 2017086990A JP 2018185654 A JP2018185654 A JP 2018185654A
Authority
JP
Japan
Prior art keywords
image
display
captured image
occupant
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017086990A
Other languages
Japanese (ja)
Inventor
耕平 森山
Kohei Moriyama
耕平 森山
友也 倉石
Tomoya Kuraishi
友也 倉石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2017086990A priority Critical patent/JP2018185654A/en
Publication of JP2018185654A publication Critical patent/JP2018185654A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a head-up display (HUD) device capable of performing displaying without causing conflict with another displaying by generating a driving support image useful for an occupant, on the basis of a photographic image of an actual view around a vehicle (in front of a vehicle, or the like) that can be visualized by the occupant.SOLUTION: An HUD device comprises a visual line detection part 30 and a display control part 50. The display control part 50 comprises: a gaze position detection part 52 for detecting positions of occupant's gazing points on a photographic image on the basis of visual line information acquired by a visual line detection part 30 and a photographic image acquired by photographing an actual view around a vehicle with photographing means; a display photographic image generation part 56 for determining a gaze region on the basis of the detected positions of the plurality of gazing points, extracting a partial image including the gaze region from the photographic image, and outputting the partial image as a display photographic image; and a display image generation part 58 for generating a display image by arranging the display photographic image in an undrawn area of driving support information inside a display image area corresponding to the display image.SELECTED DRAWING: Figure 1

Description

本発明は、車両に搭載されるヘッドアップディスプレイ(HUD)装置に関する。   The present invention relates to a head-up display (HUD) device mounted on a vehicle.

ヘッドアップディスプレイ装置(以下、HUD装置と称する)は、車等の車両に搭載され、運転に関係する情報等を示す画像を被投影部材(透光性と反射性とを併せ持つウインドシールド(フロントガラス)、コンバイナ等)に投影することで、運転者の前方の実景(前景、背景としての路面等を含む)に重ねて虚像を表示することができる車両用表示装置である。必要な情報等が前方の景色等と重ね合わされて表示されることから、運転者は、車両の運転中に大きな視線の移動を行うことなく、必要な情報を効率的に得ることができる。   A head-up display device (hereinafter referred to as a HUD device) is mounted on a vehicle such as a car, and displays an image showing information related to driving, etc., on a projection target member (a windshield having both translucency and reflectivity (front glass) ), A combiner or the like), and a vehicle display device capable of displaying a virtual image superimposed on a real scene in front of the driver (including the foreground and the road surface as a background). Since the necessary information and the like are displayed superimposed on the scenery in front, the driver can efficiently obtain the necessary information without moving a large line of sight while driving the vehicle.

例えば特許文献1及び2は、ナビゲーション情報等の運転支援画像を表示可能な車両用表示装置を開示し、特許文献1の車両用表示装置では、道路側カメラで撮影された画像が無線通信により車両に送信されて表示される状況で、悪天候(例えば霧、雨及び降雪)によって道路側カメラで撮影ができない場合は、予防安全システムを構成する外部のデータサーバーから、好天候下で撮影された風景画像の提供を受けるようにした構成、及び、車両用表示装置としてHUD装置を使用可能である旨が記載されている(段落[0002]、[0010]〜[0012]、[0060]〜[0065]、図1、図5、図6))。   For example, Patent Documents 1 and 2 disclose a vehicle display device capable of displaying a driving assistance image such as navigation information. In the vehicle display device of Patent Document 1, an image captured by a road-side camera is transmitted by wireless communication. If the roadside camera cannot shoot due to bad weather (for example, fog, rain, and snowfall) when it is sent to and displayed on the screen, a landscape shot in good weather from an external data server that constitutes the preventive safety system It is described that the image receiving apparatus is provided and that the HUD device can be used as a vehicle display device (paragraphs [0002], [0010] to [0012], [0060] to [0065]. ], FIG. 1, FIG. 5, FIG. 6)).

また、特許文献2の車両用表示装置では、車両のインストルメントパネルに、独立した画像を表示可能な3つのパネルを並置し、中央のパネルには、車両情報、ナビゲーション情報、経路案内等の優先度の高い運転支援画像を表示する構成が記載されている(段落[0025]、図2、図7、図9)。なお、中央のパネルには、前方の死角部分の画像が表示されることもあるが(段落[0025]の末尾)、この画像は、特許文献1と同様に、予め撮影されて記憶されている画像である。   Further, in the vehicle display device of Patent Document 2, three panels that can display independent images are juxtaposed on the instrument panel of the vehicle, and priority is given to vehicle information, navigation information, route guidance, and the like in the center panel. The structure which displays a driving assistance image with high degree is described (paragraph [0025], FIG. 2, FIG. 7, FIG. 9). In addition, although the image of the blind spot part ahead may be displayed on the center panel (the end of paragraph [0025]), this image is pre-photographed and stored, as in Patent Document 1. It is an image.

特開2010−257253号公報JP 2010-257253 A 特開2014−229997号公報JP 2014-229997 A

従来の車両用表示装置における、車両から見える実景に関する運転支援画像は、運転環境が悪化した場合に備えて好天下で予め撮影された画像等(特許文献1)、又は、運転者(乗員)の前方の死角部分についての画像等(特許文献2)であり、いずれも、予め用意されている画像である。   In the conventional vehicle display device, the driving assistance image related to the actual scene seen from the vehicle is an image taken in advance under good weather (Patent Document 1) or the driver (occupant) in case the driving environment deteriorates. These are images of a front blind spot portion (Patent Document 2), all of which are images prepared in advance.

例えば、特許文献1の段落[0010]の冒頭には、「好天時の運転であれば、運転者(乗員)は前方視界を確認できるので、一般的な状況ではこのような運転支援画像は不要と思われる」と記載されており、運転者が運転中に見ている(見ることができている)前方の画像については、運転支援画像から除外している。   For example, at the beginning of paragraph [0010] of Patent Document 1, “when driving in good weather, the driver (occupant) can confirm the forward field of view. The front image that the driver sees (can see) while driving is excluded from the driving assistance image.

ここで、本発明者らは、例えば、運転者(乗員)が見ることができる車両周囲(車両前方等)の実景を車載カメラ(又は道路側のカメラ)で撮影して得られる撮像画像も、運転状況に応じては、有用な運転支援画像になり得ることを認識した。   Here, for example, the present inventors also have captured images obtained by photographing a real scene around the vehicle (such as the front of the vehicle) that can be seen by the driver (occupant) with an in-vehicle camera (or a camera on the road side), It was recognized that it could be a useful driving assistance image depending on the driving situation.

但し、運転者(乗員)が実際に見ている画像をそのままHUD装置に表示するだけでは、有用な運転支援画像とならない場合があり、よって画像の加工が必要となる。また、HUD装置は、本来、車両情報等の表示(走行速度の表示、注意喚起マークの表示等)を背景の実景に重ねて表示するものであり、従って、この本来の表示に加えて、前方等を撮影した撮像画像に基づく運転支援画像も表示しようとすると、本来の表示との競合が生じることが予想され、その対策も必要となる。   However, if an image actually viewed by the driver (occupant) is simply displayed on the HUD device as it is, it may not be a useful driving support image, and thus it is necessary to process the image. In addition, the HUD device originally displays vehicle information and the like (running speed display, warning mark display, etc.) superimposed on the actual background, so in addition to this original display, If an attempt is made to display a driving assistance image based on a captured image obtained by photographing the above, it is expected that competition with the original display will occur, and countermeasures are also required.

従来の、運転支援画像を表示可能な車両用表示装置では、上記の、本発明者らが認識した観点からの検討がなされておらず、従って、運転者(乗員)が見ている車両周囲(車両前方等)の実景を車載カメラ(又は道路側に設置のカメラ)で撮影して得られる撮像画像を、運転者(乗員)に、有用な運転支援画像として提供することはできない。   Conventional vehicle display devices that can display driving assistance images have not been studied from the above-mentioned viewpoints recognized by the present inventors, and accordingly, the vehicle surroundings that the driver (occupant) is looking at ( A captured image obtained by photographing a real scene in front of the vehicle with an in-vehicle camera (or a camera installed on the road side) cannot be provided to the driver (occupant) as a useful driving assistance image.

本発明の1つの目的は、乗員が視認可能である車両周囲(車両前方等)の実景についての撮像画像に基づいて、乗員にとって有用な運転支援画像を生成し、他の表示との競合を生じさせることなく表示することができるヘッドアップディスプレイ装置(HUD装置)を提供することにある。本発明の他の目的は、以下に例示する態様及び最良の実施形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。   One object of the present invention is to generate a driving assistance image useful for an occupant based on a captured image of an actual scene around the vehicle (such as in front of the vehicle) that can be visually recognized by the occupant, causing competition with other displays. It is an object of the present invention to provide a head-up display device (HUD device) that can display images without causing them to occur. Other objects of the present invention will become apparent to those skilled in the art by referring to the aspects and best embodiments exemplified below and the accompanying drawings.

以下に、本発明の概要を容易に理解するために、本発明に従う態様を例示する。   In the following, in order to easily understand the outline of the present invention, embodiments according to the present invention will be exemplified.

第1の態様において、ヘッドアップディスプレイ装置は、
車両に搭載され、画像表示部の表示面に表示される表示画像を、前記車両に備わる被投影部材に投影することで、乗員に前記表示画像の虚像を視認させるヘッドアップディスプレイ装置であって、
前記乗員の視線を検出する視線検出部と、
前記車両の運行に関する運転支援情報と、前記車両の乗員が視認することが可能と予想される前記車両の周囲の実景を撮影手段で撮影して得られる撮像画像に基づいて生成される運転支援画像としての表示撮像画像とに基づいて前記表示画像を生成する機能を有する表示制御部と、
を備え、
前記表示制御部は、
前記視線検出部により取得される視線情報と、前記撮影手段による撮影によって得られる前記撮像画像と、に基づいて、前記撮像画像上における前記乗員の注視点の位置を検出する注視位置検出部と、
前記注視位置検出部によって検出された複数の注視点の位置に基づいて、前記複数の注視点を含むように注視領域を決定し、前記撮像画像から、前記注視領域を含む部分画像を抽出し、抽出された前記部分画像を前記表示撮像画像として出力する表示撮像画像生成部と、
前記表示画像に対応する表示画像エリアの内の、前記運転支援情報の未描画エリアに前記表示撮像画像を配置して前記表示画像を生成する表示画像生成部と、
を有する。
In the first aspect, the head-up display device comprises:
A head-up display device that causes a passenger to visually recognize a virtual image of the display image by projecting a display image mounted on the vehicle and displayed on a display surface of an image display unit onto a projection target member provided in the vehicle,
A line-of-sight detection unit for detecting the line of sight of the occupant;
Driving assistance image generated based on driving assistance information related to the operation of the vehicle and a captured image obtained by photographing a real scene around the vehicle that is expected to be visible to a passenger of the vehicle. A display control unit having a function of generating the display image based on the display captured image as
With
The display control unit
A gaze position detection unit that detects the position of the gazing point of the occupant on the captured image based on the line-of-sight information acquired by the line-of-sight detection unit and the captured image obtained by imaging by the imaging unit;
Based on the positions of a plurality of gaze points detected by the gaze position detection unit, determine a gaze area so as to include the plurality of gaze points, and extract a partial image including the gaze area from the captured image, A display captured image generation unit that outputs the extracted partial image as the display captured image;
A display image generation unit that generates the display image by arranging the display captured image in an undrawn area of the driving support information in a display image area corresponding to the display image;
Have

第1の態様では、乗員の注視領域を複数の注視点位置に基づいて決定し、撮像画像から部分画像を抽出し(言い換えれば切り出し)、その部分画像を表示撮像画像とし、その表示撮像画像を、表示画像に対応する表示画像エリア(言い換えれば、画像表示部の表示面上のエリア)における運転支援情報(例えば、車速表示、注意喚起マーク、前方に急な曲がり角があることを示す矢印のナビゲーション表示等)の未描画エリア(言い換えれば、空エリア又は余白エリア)に配置し、これによって、画像表示部の表示面に表示される表示画像(言い換えれば、HUD装置用の表示画像)を生成する。撮像画像から、乗員が注視していた領域を含む部分画像を抽出して(言い換えれば切り出して)、運転支援画像としての「表示撮像画像」を生成することから、不要な背景等が除去された有用な運転支援画像の提供が可能となり、また、表示撮像画像は、表示画像エリア内の運転支援情報が表示されていない未描画エリア(空エリア又は余白エリア)に配置されることから、表示撮像画像と運転支援情報との競合(重複)も生じない。   In the first aspect, an occupant's gaze area is determined based on a plurality of gaze point positions, a partial image is extracted from the captured image (in other words, cut out), the partial image is used as a display captured image, and the displayed captured image is Driving support information (for example, vehicle speed display, warning mark, and arrow navigation indicating that there is a sharp turn ahead) in a display image area corresponding to the display image (in other words, an area on the display surface of the image display unit) Display in an undrawn area (in other words, an empty area or a blank area), thereby generating a display image (in other words, a display image for the HUD device) displayed on the display surface of the image display unit. . Extracting a partial image including the area that the occupant was gazing from (in other words, cutting out) from the captured image and generating a “displayed captured image” as a driving assistance image, unnecessary backgrounds were removed It is possible to provide a useful driving support image, and the display captured image is arranged in an undrawn area (empty area or blank area) in the display image area where the driving support information is not displayed. There is no competition (duplication) between images and driving support information.

このとき、空エリアに適応するように表示撮像画像のサイズを拡大等することによって、空スペースを十分に活用して見易い実風景の画像を含む表示画像を得ることができる。例えば、ある程度の遠くの路肩に道路に向かって移動していると推測される人を視認した乗員(このときの注視点は、HUD装置の被投影部材上の投影面の外に位置する)が、現在の車速や注意情報等を確認するべく、HUD装置の虚像に視線を移動させた場合、乗員の視線は一瞬、その人から離れることから、乗員には、「その人が道路に飛び出してくるかもしれない」という不安感が生じる。   At this time, by enlarging the size of the display captured image so as to adapt to the sky area, it is possible to obtain a display image including an image of a real landscape that is easy to see by making full use of the empty space. For example, an occupant (a gaze point at this time is located outside the projection surface on the projection member of the HUD device) who visually recognizes a person who is assumed to be moving toward the road on a certain far shoulder When the line of sight is moved to the virtual image of the HUD device in order to confirm the current vehicle speed, caution information, etc., the occupant's line of sight momentarily leaves the person. Anxiety that "may come" occurs.

しかしながら、第1の態様では、乗員が先に視認した人が、他の余分な背景物等に埋もれることなく効果的に表示されることから、HUD装置の虚像を見ているときも、前方等の注意を要する人や箇所の確認を適宜、行うことができる。従って、上記の不安感が軽減され、また、万一、人の飛び出しがあったときは、減速や急ブレーキ等の適切な処置を迅速にとることができる。このように、外部サーバーとの接続を行うといった複雑で高価なシステムを用いることなく、簡易に、乗員にとって有用な運転支援画像を提供することが可能となる。   However, in the first aspect, since the person who the occupant visually recognized first is displayed effectively without being buried in other extra background objects, etc., even when looking at the virtual image of the HUD device, etc. It is possible to appropriately check the person and the place requiring attention. Therefore, the above-mentioned feeling of anxiety is reduced, and if a person jumps out, appropriate measures such as deceleration and sudden braking can be taken quickly. In this way, it is possible to easily provide a driving assistance image useful for the occupant without using a complicated and expensive system for connecting to an external server.

また、撮像画像をそのまま表示する場合は、乗員にとって不要な画像が含まれることから見易い画像とはいえず、また、撮像画像のサイズを乗員にとって視認しやすい大きさに設定しようすると、撮像画像を表示するのに必要な領域の占有面積が大きくなり、他の表示コンテンツ(例えば、車速表示や注意喚起マーク等の運転支援情報)の視認性を妨げることにもなりかねない。もしくは、他の表示コンテンツと干渉して、そもそも撮像画像を視認しやすい大きさに拡大して表示することができないという事態も想定され得る。   In addition, when the captured image is displayed as it is, it is not an easy-to-see image because an image unnecessary for the occupant is included, and when the size of the captured image is set to a size that is easily visible to the occupant, the captured image is not displayed. The area occupied by the display area increases, which may hinder the visibility of other display contents (for example, driving support information such as a vehicle speed display and a warning mark). Alternatively, it may be assumed that the captured image cannot be enlarged and displayed in a size that is easy to visually recognize because of interference with other display contents.

第1の態様では、撮像画像をそのまま用いずに、乗員にとって有用な画像領域のみを抽出(切り出し)して利用するため、表示面積を抑制しつつ重要な箇所の画像を効率的に表示することができ、よって上記の問題点は生じない。   In the first aspect, the captured image is not used as it is, and only the image area useful for the occupant is extracted (cut out) and used, so that an image of an important part is efficiently displayed while suppressing the display area. Therefore, the above problem does not occur.

第1の態様に従属する第2の態様において、
少なくとも前記視線検出部の検出結果を用いることで、前記乗員の視線が、前記表示画像の虚像の外に向けられているか否かを判定する虚像外注視検出部を有し、
前記注視位置検出部は、前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像の外に向けられていると判定された場合に、前記乗員の注視点の位置を検出してもよい。
In a second aspect dependent on the first aspect,
By using at least the detection result of the line-of-sight detection unit, the occupant's line-of-sight has a virtual image external gaze detection unit that determines whether or not the line of sight of the occupant is directed outside the virtual image of the display image,
The gaze position detection unit may detect the position of the gazing point of the occupant when the sight line of the occupant is determined to be outside the virtual image of the display image by the virtual image gaze detection unit. Good.

第2の態様では、乗員の視線が表示画像の虚像の外に向けられている(言い換えれば、乗員の視線が被投影部材の投影領域から外れている)と判定される場合に、乗員の注視点の位置情報を取得し、これによって、注視位置検出部の負担を軽減しつつ、取得される注視点を、乗員が実際に注視していた実景についての注視点のみに限定することが可能となる。よって、有用な表示撮像画像を効率的に得ることができる。上述のとおり、第2の態様は、乗員がHUD装置の虚像外に視線を向けている状態から、HUD装置の虚像へと視線を移すときに、今まで見ていた実景から視線が外れることによる不安感を払拭するという格別の効果が得られるものである。乗員の視線がHUD装置の虚像から外れている場合に見ている注視点は重要度の高い注視点であり、これを効率的に収集することで、装置の負担を軽減しつつ、上記の格別の効果を得ることが可能となる。   In the second aspect, when it is determined that the occupant's line of sight is directed outside the virtual image of the display image (in other words, the occupant's line of sight is out of the projection area of the projection target member), By acquiring the position information of the viewpoint, it is possible to limit the acquired gazing point to only the gazing point about the actual scene that the occupant was actually gazing while reducing the burden on the gaze position detection unit. Become. Therefore, a useful display captured image can be obtained efficiently. As described above, the second aspect is because the line of sight deviates from the actual scene that has been viewed so far when the occupant moves his / her line of sight from the virtual image of the HUD device to the virtual image of the HUD device. A special effect of eliminating anxiety can be obtained. The gazing point seen when the occupant's line of sight deviates from the virtual image of the HUD device is a gazing point with high importance. It becomes possible to obtain the effect.

第1の態様に従属する第3の態様において、
少なくとも前記視線検出部の検出結果を用いることで、前記乗員の視線が、前記表示画像の虚像の外に向けられているか否か、又は、前記運転支援情報の虚像の外に向けられているか否かを判定する虚像外注視検出部を有し、
前記表示画像生成部は、
前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像に、又は前記運転支援情報の虚像に向けられていると判定された場合に、前記表示撮像画像を拡大又は現サイズを維持して前記運転支援情報の未描画エリアに配置し、
前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像外に、又は前記運転支援情報の虚像外に向けられていると判定された場合に、前記表示撮像画像を縮小して前記運転支援情報の未描画エリアに配置する、又は前記表示撮像画像を非表示としてもよい。
In a third aspect subordinate to the first aspect,
Whether or not the sight line of the occupant is directed outside the virtual image of the display image or whether or not the virtual image of the driving support information is directed by using at least the detection result of the visual line detection unit A virtual image gaze detection unit for determining whether
The display image generation unit
When it is determined that the sight line of the occupant is directed to the virtual image of the display image or the virtual image of the driving support information, the display captured image is enlarged or maintained at the current size. Placed in the undrawn area of the driving support information,
When it is determined that the sight line of the occupant is directed outside the virtual image of the display image or outside the virtual image of the driving support information by the virtual image outside gaze detection unit, the display captured image is reduced and the driving is performed It may be arranged in an undrawn area of support information, or the display captured image may be hidden.

第3の態様では、乗員の視線が、HUD装置による虚像の外にあるか、内にあるかによって、表示撮像画像のサイズに差を設ける。言い換えれば、表示撮像画像の重要性が高いと考えられる状況では、表示撮像画像を拡大する(言い換えれば、撮像画像から部分画像を抽出することによって得られた当初のサイズよりも大きなサイズとする)、あるいは現状のサイズを維持することによって視認性の向上(又は確保)を図り、一方、表示撮像画像の重要性が比較的低い(不便をもたらすと考えられる場合を含む)においては、表示撮像画像を縮小する(言い換えれば、撮像画像から部分画像を抽出することによって得られた当初のサイズよりも小さなサイズとする)、又は非表示とすることで、乗員に余分な負担が生じることを抑制する。   In a 3rd aspect, a difference is provided in the size of a display captured image by whether a passenger | crew's eyes | visual_axis is outside or inside the virtual image by a HUD apparatus. In other words, in a situation where the display captured image is considered to be highly important, the display captured image is enlarged (in other words, the size is larger than the initial size obtained by extracting the partial image from the captured image). Alternatively, the visibility is improved (or secured) by maintaining the current size, while the display captured image is less important (including the case where it is considered inconvenient). Is reduced (in other words, smaller than the initial size obtained by extracting the partial image from the captured image) or hidden, thereby suppressing an extra burden on the occupant. .

また、「視線がHUD装置による虚像の外にあるか、内にあるか」という場合分けに関しては、HUDの表示画像(運転支援情報及び表示撮像画像を含む全体の画像)を見ているか否かという観点で場合分けしてもよく、又、より厳密に視点位置を判定して、表示画像内における運転支援情報を見ているか否かで場合分けしてもよい。乗員が虚像外を見ているということは、すなわち前方等の実景を見ている可能性が高いということであり、この場合、通常のサイズの表示撮像画像を表示しておくと、乗員によってその表示撮像画像が周辺視される状況(言い換えれば、乗員の周辺の視野に表示撮像画像が見えてしまい、同じ画像が2つ見える、いわゆる2重映しの状況)となり、かえって混乱をもたらす可能性もあることから、表示撮像画像を縮小、又は非表示とするものである。   In addition, regarding the case classification of “whether the line of sight is outside or inside the virtual image by the HUD device”, whether or not the HUD display image (the entire image including the driving support information and the display captured image) is being viewed. In other words, the viewpoint position may be determined more strictly and the driving assistance information in the display image may be viewed. The fact that the occupant is looking out of the virtual image means that there is a high possibility that the occupant is looking at a real scene such as the front.In this case, if a display captured image of a normal size is displayed, the occupant The situation where the displayed captured image is viewed peripherally (in other words, the display captured image can be seen in the field of view around the occupant, and the same image can be seen twice, so-called double-viewed situation), which may cause confusion instead. For this reason, the displayed captured image is reduced or not displayed.

また、運転支援情報の虚像を見ているか否かで場合分けする場合には、さらに、以下の効果が得られる。すなわち、乗員の視点位置が、表示画像の虚像内ではあるが、運転支援情報の虚像外であるという場合には、乗員は、透光性の部材である被投影部材を介して、背後の実景を見ている可能性が高いということである。よって、この場合においても、通常のサイズの表示撮像画像を表示しておくと、乗員によってその表示撮像画像が周辺視されて、かえって混乱を与える可能性がある。上記の、より厳密な場合分けを行うことによって、このような場合においても、適切な表示撮像画像の表示制御を行うことができる。なお、表示撮像画像を非表示とすることは、表示撮像画像を表示画像エリアに配置しないことによって実現されてもよく、一時的に、表示画像全体を非表示とすることによって実現されてもよい。   Further, when the case is divided depending on whether or not the virtual image of the driving support information is viewed, the following effects can be further obtained. That is, when the viewpoint position of the occupant is within the virtual image of the display image but outside the virtual image of the driving support information, the occupant can see the actual scene behind the projection member that is a translucent member. Is likely to see. Therefore, even in this case, if a display captured image having a normal size is displayed, the displayed captured image may be viewed by the occupant and may cause confusion. By performing the above-described strict case classification, appropriate display control of the displayed captured image can be performed even in such a case. Note that hiding the display captured image may be realized by not arranging the display captured image in the display image area, or may be realized by temporarily hiding the entire display image. .

第1の態様に従属する第4の態様において、
前記表示制御部は、前記運転支援情報の構成要素及び前記表示撮像画像を対象として、重要度に応じて優先順位を付与する優先順位付与部を有し、
前記表示画像生成部は、前記運転支援情報の構成要素の内の、前記表示撮像画像よりも優先順位が低い構成要素を縮小し、前記表示画像を前記運転支援情報の未描画エリアに配置してもよい。
In a fourth aspect dependent on the first aspect,
The display control unit includes a priority order assigning unit that assigns a priority order according to importance for the components of the driving support information and the display captured image.
The display image generation unit reduces a component having a lower priority than the display captured image among the components of the driving support information, and arranges the display image in an undrawn area of the driving support information. Also good.

第4の態様では、表示画像エリア(画像表示部の表示面上の画像を表示するエリア)のサイズが限られている点を考慮して、「運転支援情報の各構成要素」及び「表示撮像画像」を対象として優先順位を付与し、運転支援情報の構成要素の内の、表示撮像画像よりも優先順位が低い構成要素を縮小する。これによって、優先順位の高い内容(言い換えれば、「表示撮像画像」及び「優先順位が高い運転支援情報の構成要素」)を表示するための、視認性を確保する上で必要となる所定サイズ以上のサイズをもつ空き領域を確実に確保することができ、かつ、上記の重要性の高い要素を、より見易く表示することが可能となる。   In the fourth aspect, in consideration of the limited size of the display image area (area for displaying an image on the display surface of the image display unit), “each component of driving support information” and “display imaging” Priorities are assigned to “images”, and the constituent elements having lower priority than the displayed captured image among the constituent elements of the driving support information are reduced. Thereby, a predetermined size or more necessary for ensuring visibility for displaying high-priority content (in other words, “displayed captured image” and “component of driving support information with high priority”) is displayed. It is possible to reliably secure a free space having a size of 1 and to display the above important elements more easily.

第1の態様に従属する第5の態様において、
前記表示制御部は、前記運転支援情報の構成要素及び前記撮像画像に含まれる主要な構成要素を対象として、重要度に応じて優先順位を付与する優先順位付与部を有し、
前記表示撮像画像生成部は、前記注視位置検出部によって検出された複数の注視点の位置に基づいて前記複数の注視点を含むように注視領域を決定し、前記優先順位付与部によって付与された優先順位を参照して、前記撮像画像の主要な構成要素の内の、優先順位が上位であるものが少なくとも含まれるように、かつ前記注視領域が含まれるように、前記撮像画像から部分画像を抽出し、抽出された前記部分画像を前記表示撮像画像として出力してもよい。
In a fifth aspect subordinate to the first aspect,
The display control unit includes a priority order assigning unit that assigns a priority order according to the importance for the main constituent elements included in the driving support information and the captured image,
The display captured image generation unit determines a gaze area so as to include the plurality of gaze points based on positions of the plurality of gaze points detected by the gaze position detection unit, and is given by the priority order giving unit Referring to the priority order, a partial image is extracted from the captured image so that at least one of the main constituent elements of the captured image has a higher priority order is included and the gaze area is included. The extracted partial image may be output as the display captured image.

第5の態様では、「運転支援情報の構成要素及び撮像画像に含まれる主要な構成要素」を対象として優先順位を付与しておき、撮像画像から部分画像を抽出して「表示撮像画像」を生成する際に、その優先順位も考慮に入れて抽出する領域(切り出す領域)を決定する。   In the fifth aspect, priorities are given to “components of driving support information and main components included in the captured image”, partial images are extracted from the captured images, and “displayed captured images” are displayed. When generating, an area to be extracted (area to be extracted) is determined in consideration of the priority order.

上述の第1の態様では、乗員の注視領域のみに着目して抽出する領域を決定しているが、この場合、例えば、乗員がぼんやりと運転していて、道路上へ飛び出そうとしている人に気づかず、その人には視線が向けられないといった状況では、その飛び出そうとしている人についての画像は、表示撮像画像には含まれないことになり、よって、重要性の高い対象についての画像の表示ができない。   In the first aspect described above, the area to be extracted is determined by focusing only on the gazing area of the occupant. In this case, for example, for a person who is driving dimly and is about to jump out onto the road In a situation where the person is not aware and the line of sight is not directed at the person, the image about the person who is about to jump out is not included in the displayed captured image. Cannot display.

これに対して、第5の態様では、表示制御部に含まれる優先順位付与部が、撮影手段によって撮影された撮像画像を分析し、主要な構成要素について優先順位を付与することから、上記の「飛び出そうとしている人」については確実に、高い優先順位が付与されることになる。よって、表示撮像画像を生成する際に、「優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように抽出する」ことによって、上記の「飛び出そうとしている人」も確実に表示撮像画像に含まれることになる。よって、その表示撮像画像によって乗員の注意を喚起して、事故を未然に防止するといったことが可能となる。言い換えれば、第5の態様によって、より有用性の高い、運転支援画像としての表示撮像画像の提供が可能となる。   On the other hand, in the fifth aspect, the priority level assigning unit included in the display control unit analyzes the captured image captured by the imaging unit and assigns the priority order to the main components. High priority is certainly given to “the person who is about to jump out”. Therefore, when generating a display captured image, the above-mentioned “person who is about to jump out” can also be obtained by “extracting so as to include at least those with a higher priority and including a gaze area”. It is surely included in the displayed captured image. Therefore, it is possible to alert an occupant with the displayed captured image and prevent an accident in advance. In other words, according to the fifth aspect, it is possible to provide a display captured image as a driving assistance image that is more useful.

第5の態様に従属する第6の態様において、
前記表示画像生成部は、前記優先順位付与部によって付与された前記優先順位に基づいて、前記表示撮像画像の優先順位を決定し、前記運転支援情報の構成要素の内の、前記表示撮像画像の優先順位よりも低い優先順位のものを縮小し、前記表示撮像画像を前記運転支援情報の未描画エリアに配置してもよい。
In a sixth aspect subordinate to the fifth aspect,
The display image generation unit determines a priority order of the display captured image based on the priority order given by the priority order assigning unit, and includes the display captured image among the components of the driving support information. Those with a priority lower than the priority may be reduced, and the displayed captured image may be arranged in an undrawn area of the driving support information.

第6の態様では、第5の態様において、優先順位を参照して、運転支援情報の構成要素の内の、表示撮像画像の優先順位よりも低い優先順位のものを縮小する処理を行う。上述のとおり第5の態様では、「優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように部分画像を抽出する」という処理が行われることから、抽出された画像のサイズ(表示撮像画像のサイズ)が大きくなり易いと考えられる。そこで、第6の態様では、運転支援情報の構成要素の内の、表示撮像画像の優先順位よりも低い優先順位のものを縮小することで、未描画のエリア(空スペース)を効果的に増大させる。よって、表示撮像画像を配置するための、最小限度のサイズ以上のエリア(空スペース)を確実に確保することができる。   In the sixth aspect, in the fifth aspect, the priority order is referred to, and the processing of reducing the priority order lower than the priority order of the displayed captured image among the components of the driving support information is performed. As described above, in the fifth aspect, the process of “extracting a partial image so that at least a higher priority is included and a gaze area is included” is performed. The size (the size of the displayed captured image) is likely to increase. Therefore, in the sixth aspect, the undrawn area (empty space) is effectively increased by reducing the priority order lower than the priority order of the displayed captured image among the constituent elements of the driving support information. Let Therefore, an area (empty space) having a size equal to or larger than the minimum size for arranging the display captured image can be reliably ensured.

第2又は第3の態様に従属する第7の態様では、
前記乗員の生体情報を検出する生体情報検出部を有し、
前記虚像外注視検出部は、前記視線検出部の検出結果及び前記生体情報検出部の検出結果の少なくとも一方に基づいて、前記判定を行うようにしてもよい。
In a seventh aspect dependent on the second or third aspect,
A biological information detection unit for detecting the biological information of the occupant;
The virtual image gaze detection unit may perform the determination based on at least one of a detection result of the visual line detection unit and a detection result of the biological information detection unit.

第7の態様では、上述の第2、第3の態様において、「乗員の視線が、表示画像の虚像の外に向けられているか否かを判定する処理(第3の態様においては、又は、運転支援情報の虚像の外に向けられているか否かを判定する処理)」が実行されるが、この判定結果に応じて、表示撮像画像の縮小や非表示といった、影響力が大きい処理が行われることから、上記の判定には慎重を期す必要がある。そこで、第7の態様では、上記の判定に際して、例えば、視線検出部による検出結果の他に、乗員の生体情報の検出結果も考慮して上記の判定を行い、判定精度をより高める(但し、生体情報単独に基づく判断の場合もあり得る)。例えば、「路肩において、道路に進入するかもしれない人が視認された場合」には、乗員の視線は、道路脇へと大きく移動し、かつ、脈拍等の生体情報も数値が上昇して緊張がより高い状態となると考えられる。よって、脈拍等の生体情報も活用することで、「より緊張度の高い運転状況が出現し、そのことが原因で視線が大きくずれた」というような推定が可能であり、この推定される状況では、乗員の視線は、HUDの虚像の外に向けられている可能性が高い。よって、より精度の高い判定が可能となる。なお、生体情報は脈拍に限定されるものではなく、例えば、脳の活動状況を示す脳血流量であってもよく、さらに他の生体情報であってもよい。   In the seventh aspect, in the second and third aspects described above, “a process for determining whether or not the sight line of the passenger is directed outside the virtual image of the display image (or in the third aspect, or The process of determining whether or not the vehicle is directed outside the virtual image of the driving support information) is executed. Depending on the determination result, a process having high influence such as reduction or non-display of the displayed captured image is performed. Therefore, it is necessary to be cautious about the above judgment. Therefore, in the seventh aspect, in the above determination, for example, the above determination is performed in consideration of the detection result of the occupant's biological information in addition to the detection result by the line-of-sight detection unit, and the determination accuracy is further improved (however, It may be based on biological information alone). For example, when “a person who may enter the road is visually recognized on the shoulder”, the occupant's line of sight moves greatly to the side of the road, and the biological information such as the pulse also increases and becomes tense. Is considered to be higher. Therefore, by utilizing biological information such as the pulse, it is possible to estimate that “a driving situation with a higher degree of tension has appeared, and that caused a significant shift in the line of sight.” Then, it is highly possible that the line of sight of the occupant is directed outside the virtual image of the HUD. Therefore, determination with higher accuracy is possible. The biological information is not limited to the pulse, and may be, for example, cerebral blood flow indicating the activity state of the brain, or other biological information.

当業者は、例示した本発明に従う態様が、本発明の精神を逸脱することなく、さらに変更され得ることを容易に理解できるであろう。   Those skilled in the art will readily understand that the illustrated embodiments according to the present invention can be further modified without departing from the spirit of the present invention.

本発明に従うヘッドアップディスプレイ(HUD)装置の、第1〜第3の実施形態に対応する構成例を示す図である。It is a figure which shows the structural example corresponding to the 1st-3rd embodiment of the head-up display (HUD) apparatus according to this invention. 図2(A)及び図2(B)は、図1のHUD装置によって取得される乗員の視点位置の例、及び表示される虚像(表示画像の虚像)の例を示す図である。2A and 2B are diagrams illustrating an example of the occupant's viewpoint position acquired by the HUD device of FIG. 1 and an example of a displayed virtual image (a virtual image of a display image). 図3(A)は、第1の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図3(B)は、図3(A)のフロー図に対応した画像処理及び表示制御の例を示す図である。FIG. 3A is a flowchart showing main operation procedures of the HUD device in the first embodiment, and FIG. 3B is an example of image processing and display control corresponding to the flowchart of FIG. FIG. 第2の実施形態におけるHUD装置の主要な動作手順を示すフロー図である。It is a flowchart which shows the main operation | movement procedures of the HUD apparatus in 2nd Embodiment. 図5(A)は、第3の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図5(B)は、図5(A)のフロー図に対応した画像処理及び表示制御の例を示す図、図5(C)は、構成要素毎の優先順位の例を示す図である。FIG. 5A is a flowchart showing main operation procedures of the HUD device in the third embodiment, and FIG. 5B is an example of image processing and display control corresponding to the flowchart of FIG. 5A. FIG. 5C is a diagram illustrating an example of the priority order for each component. 本発明に従うヘッドアップディスプレイ(HUD)装置の、第4の実施形態に対応する構成例を示す図である。It is a figure which shows the structural example corresponding to 4th Embodiment of the head-up display (HUD) apparatus according to this invention. 図7(A)は、第4の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図7(B)は、図7(A)のフロー図に対応した画像処理及び表示制御の例を示す図、図7(C)は、構成要素毎の優先順位の例を示す図である。FIG. 7A is a flowchart showing main operation procedures of the HUD device in the fourth embodiment, and FIG. 7B is an example of image processing and display control corresponding to the flowchart of FIG. 7A. FIG. 7C is a diagram showing an example of the priority order for each component.

以下に説明する最良の実施形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実施形態によって不当に限定されないことを留意すべきである。   The best mode described below is used to easily understand the present invention. Accordingly, those skilled in the art should note that the present invention is not unduly limited by the embodiments described below.

図1は、本発明に従うヘッドアップディスプレイ(HUD)装置の、第1〜第3の実施形態に対応する構成例を示す図である。なお、図1において、車両1の前方をz方向とし、車両の左右方向(車両の横方向)に沿う方向をx方向とし、上方向をy方向とする。   FIG. 1 is a diagram showing a configuration example corresponding to the first to third embodiments of a head-up display (HUD) device according to the present invention. In FIG. 1, the front of the vehicle 1 is the z direction, the direction along the left and right direction of the vehicle (the lateral direction of the vehicle) is the x direction, and the upward direction is the y direction.

図1において、車両1は、車両1の乗員200が視認することが可能と予想される車両1の周囲の実景(主に前方であるが、左、右、後方等を適宜、含んでもよい)を撮影(撮像)する撮影手段(撮像手段)としての車載カメラ14と、乗員200の目(瞳)を撮像する視線検出用の撮影手段としての視線カメラ(瞳撮影カメラ)16と、乗員200の生体情報としての脈拍情報を検出する、生体情報測定部としての脈拍計18と、各種の車両情報を収集して通信線(BUS)5を経由してHUD装置100に送信する車載ECU(車両側ECU)10と、を備える。   In FIG. 1, the vehicle 1 is a real scene around the vehicle 1 that is expected to be visible to the occupant 200 of the vehicle 1 (mainly forward, but may include left, right, rear, etc. as appropriate). An in-vehicle camera 14 as a photographing means (imaging means) for photographing (imaging) the eye, a line-of-sight camera (pupil photographing camera) 16 as a photographing means for eye-gaze detection for photographing the eyes (pupil) of the occupant 200, and A pulse meter 18 as a biological information measuring unit that detects pulse information as biological information, and an in-vehicle ECU (vehicle side) that collects various vehicle information and transmits it to the HUD device 100 via a communication line (BUS) 5 ECU) 10.

なお、車載カメラ14及び視線カメラ16は、所定周期(例えば30Hz)で画像を撮影し、撮影された画像にはタイムスタンプが付与され、撮像画像上の注視位置の検出においては、同時刻における注視位置と撮像画像とが対応付けされる。   The in-vehicle camera 14 and the line-of-sight camera 16 take an image at a predetermined cycle (for example, 30 Hz), and the taken image is given a time stamp, and in the detection of the gaze position on the captured image, the gaze at the same time The position and the captured image are associated with each other.

また、図1の例では、脈拍計18は、乗員200の、ハンドル(ステアリングホイール)7を握っている左腕に巻かれて装着されている。生体情報としては、心拍、脳血流量、その他の生体情報を広く利用することができ、特に限定されるものではない。なお、脳血流量を測定する場合には、例えば、乗員200の頭部(例えば前額部)にヘッドバンド型の脳活動計測装置が装着される。本明細書では、生体情報は、例えば、乗員の目(瞳)2の動きに関する判定の精度を高めるための補助情報として利用することができる。但し、生体情報の利用形態は、これに限定されるものではなく、生体情報のみに基づいて、例えば、乗員200による虚像外注視の判断を行ってもよい。   In the example of FIG. 1, the pulsometer 18 is wound around and mounted on the left arm of the occupant 200 holding the handle (steering wheel) 7. As biological information, heartbeat, cerebral blood flow, and other biological information can be widely used, and are not particularly limited. When measuring the cerebral blood flow, for example, a headband type brain activity measuring device is attached to the head (for example, the forehead portion) of the occupant 200. In the present specification, the biological information can be used as auxiliary information for increasing the accuracy of determination related to the movement of the occupant's eyes (pupil) 2, for example. However, the usage form of the biological information is not limited to this, and the determination of the virtual image gaze by the occupant 200 may be performed based on only the biological information, for example.

また、図1の例では、車両の周囲を撮影する撮影手段として車載カメラ14を用いているが、これに限定されるものではなく、道路側に設けられている撮像カメラや運転支援システムから無線通信により撮像情報を車両1に送信し、車両1側で撮像画像を再生することもでき、この場合には、道路側の撮像カメラや運転支援システムが撮影手段として機能する。また、図1の例では、乗員200の目(瞳)2を視線カメラ16で検出しているが、車載カメラ14が、視線カメラ16の役割を兼ねてもよく、また、室内を撮影するカメラ(図1では不図示)が視線カメラ16の役割を兼ねてもよい。   In the example of FIG. 1, the in-vehicle camera 14 is used as an imaging unit that captures the surroundings of the vehicle. However, the present invention is not limited to this, and it is wireless from an imaging camera or a driving support system provided on the road side. The imaging information can be transmitted to the vehicle 1 by communication, and the captured image can be reproduced on the vehicle 1 side. In this case, the imaging camera and the driving support system on the road side function as imaging means. In the example of FIG. 1, the eye (pupil) 2 of the occupant 200 is detected by the line-of-sight camera 16, but the vehicle-mounted camera 14 may also serve as the line-of-sight camera 16, and a camera that shoots the room. (Not shown in FIG. 1) may also serve as the visual line camera 16.

ヘッドアップディスプレイ(HUD)装置100は、車両1に搭載され、画像表示部(例えば液晶パネル)80の表示面83に表示される表示画像Mの表示光Lを、光学系82に備わる反射鏡85で反射させ、表示画像Mを、車両1に備わる被投影部材(透光性と反射性とを併せ持つウインドシールド(フロントガラス)、コンバイナ等であり、ここではウインドシールド3とする)に投影することで、乗員200に、表示画像Mの虚像Vを視認させる。なお、画像表示部80としては、各種の表示器を使用することができる。また、ビーム走査型のHUD装置の場合、画像表示部80は、画像が描画されるスクリーンであり、そのスクリーンの表面又は裏面が表示面83となる。   A head-up display (HUD) device 100 is mounted on the vehicle 1, and a reflecting mirror 85 provided in the optical system 82 displays light L of a display image M displayed on a display surface 83 of an image display unit (for example, a liquid crystal panel) 80. And the display image M is projected on a projection target (a windshield (front glass) having both translucency and reflectivity, a combiner, etc., here referred to as a windshield 3) provided in the vehicle 1. Thus, the occupant 200 is caused to visually recognize the virtual image V of the display image M. Note that various displays can be used as the image display unit 80. In the case of a beam scanning type HUD device, the image display unit 80 is a screen on which an image is drawn, and the front or back surface of the screen is the display surface 83.

HUD装置100は、視線検出部30と、撮像画像処理部40と、表示制御部50と、生体情報検出部(生体情報解析部)60と、HUD制御部(画像表示部80を駆動する駆動部を含む)70と、を有する。視線検出部30、撮像画像処理部40、表示制御部50及び生体情報検出部(生体情報解析部)60は、通信線(バス)5を介して接続されており、相互に信号や情報の授受を行うことができる。   The HUD device 100 includes a line-of-sight detection unit 30, a captured image processing unit 40, a display control unit 50, a biological information detection unit (biological information analysis unit) 60, and a HUD control unit (a driving unit that drives the image display unit 80). 70). The line-of-sight detection unit 30, the captured image processing unit 40, the display control unit 50, and the biological information detection unit (biological information analysis unit) 60 are connected via a communication line (bus) 5, and exchange signals and information with each other. It can be performed.

視線検出部30は、視線方向検出部32と、視線ベクトル算出部34と、記憶部36と、を有する。視線方向検出部32は、車載カメラ14(例えばステレオカメラ)により撮像された撮像画像から、乗員200の視線(視線方向)を検出する。視線を検出する処理には、乗員200の目(瞳)の位置を検出する処理が含まれる。視線方向検出部32は、例えば、ステレオ視の手法により乗員200の瞳孔の位置(目の位置)を算出し、かつ乗員200の角膜反射の位置を算出する。視線ベクトル算出部34は、乗員200の瞳孔の位置と角膜反射位置とから、乗員200の視線方向を表す視線ベクトルを算出する。算出された視線ベクトルは記憶部36に記憶される。   The line-of-sight detection unit 30 includes a line-of-sight direction detection unit 32, a line-of-sight vector calculation unit 34, and a storage unit 36. The line-of-sight direction detection unit 32 detects the line-of-sight (line-of-sight direction) of the occupant 200 from the captured image captured by the in-vehicle camera 14 (for example, a stereo camera). The process of detecting the line of sight includes a process of detecting the position of the eyes (pupil) of the occupant 200. The line-of-sight direction detection unit 32 calculates, for example, the position of the pupil (eye position) of the occupant 200 and the position of corneal reflection of the occupant 200 by a stereo vision technique. The line-of-sight vector calculation unit 34 calculates a line-of-sight vector representing the line-of-sight direction of the occupant 200 from the position of the pupil of the occupant 200 and the corneal reflection position. The calculated line-of-sight vector is stored in the storage unit 36.

撮像画像処理部40は、撮像画像解析部42と、記憶部44と、を有する。撮像画像解析部42は、例えば、パターンマッチング処理によって撮像画像に含まれる主要な対象物(人、電柱等の建造物、白線、路肩、道路標識等)を認識し、解析結果を記憶部44に記憶する。撮像画像の解析結果は、HUD装置100による表示画像の生成処理において、適宜、利用される。   The captured image processing unit 40 includes a captured image analysis unit 42 and a storage unit 44. The captured image analysis unit 42 recognizes main objects (buildings such as people, utility poles, white lines, road shoulders, road signs, etc.) included in the captured image by pattern matching processing and stores the analysis results in the storage unit 44. Remember. The analysis result of the captured image is appropriately used in the display image generation process by the HUD device 100.

表示制御部50は、注視位置検出部52と、記憶部54と、表示撮像画像生成部56と、表示画像生成部58と、を有する。また、必要に応じて、虚像外注視検出部65が設けられる。虚像外注視検出部65は、乗員200の視線(注視点)が、HUD装置100による虚像Vの外にあることを検出するものであり、この検出に際しては、視線検出部30により求められた視線ベクトルを利用でき、さらに、検出精度の向上のために、生体情報測定部18及び生体情報検出部(生体情報解析部)60によって得られた生体情報(脈拍情報等)を併用することができる(後述)。   The display control unit 50 includes a gaze position detection unit 52, a storage unit 54, a display captured image generation unit 56, and a display image generation unit 58. Further, a virtual image extraneous gaze detection unit 65 is provided as necessary. The virtual image extraneous gaze detection unit 65 detects that the gaze (gaze point) of the occupant 200 is outside the virtual image V by the HUD device 100, and in this detection, the gaze obtained by the gaze detection unit 30 Vectors can be used, and in addition, in order to improve detection accuracy, biological information (such as pulse information) obtained by the biological information measurement unit 18 and the biological information detection unit (biological information analysis unit) 60 can be used in combination ( Later).

注視位置検出部52は、視線検出部30における視線ベクトル算出部34により算出された視線ベクトルと、xyz座標系において乗員の前方の路面に垂直に設定されるxy平面と、の交点を求め、その交点を、乗員200の注視位置(言い換えれば注視点の位置)として検出する。なお、乗員200の、両目の各々に対する注視位置が得られた場合は、左右の注視点同士を結ぶ線分の中点を注視位置(注視点の位置)とすることができる。検出された注視位置(注視点の位置の情報)は、記憶部54に記憶される。   The gaze position detection unit 52 obtains an intersection point between the line-of-sight vector calculated by the line-of-sight vector calculation unit 34 in the line-of-sight detection unit 30 and the xy plane set perpendicular to the road surface ahead of the occupant in the xyz coordinate system. The intersection is detected as the gaze position of the occupant 200 (in other words, the position of the gaze point). In addition, when the gaze position for each of the eyes of the occupant 200 is obtained, the midpoint of the line segment connecting the left and right gaze points can be set as the gaze position (gaze point position). The detected gaze position (gaze point position information) is stored in the storage unit 54.

表示撮像画像生成部56は、注視位置検出部52によって検出された複数の注視位置(注視点)の位置(座標情報)に基づいて注視領域を決定し、撮像画像から、その注視領域を含む部分画像を抽出し、抽出された部分画像を、運転支援画像としての表示撮像画像として出力する。   The display captured image generation unit 56 determines a gaze area based on the positions (coordinate information) of a plurality of gaze positions (gaze points) detected by the gaze position detection unit 52, and includes the gaze area from the captured image An image is extracted, and the extracted partial image is output as a display captured image as a driving support image.

表示画像生成部58は、例えば、優先順位付与部59と、画像サイズ変更部61と、画像合成部63と、を有する。優先順位付与部59及び画像サイズ変更部61は、必要に応じて設けられる(後述)。画像合成部63は、HUD装置100の表示画像(画像表示部80の表示面83に表示される画像M)に対応する表示画像エリア(表示面83における表示エリア)の内の、運転支援情報(車速表示や注意喚起マーク等の、HUD装置100が表示する各種の情報であり、HUD装置100の本来的表示ということができる)の未描画エリア(空エリア又は余白エリア)に、表示撮像画像を配置することで画像合成処理を実行し、これによって表示画像Mの画像データを生成する。   The display image generating unit 58 includes, for example, a priority order assigning unit 59, an image size changing unit 61, and an image composition unit 63. The priority level assigning unit 59 and the image size changing unit 61 are provided as necessary (described later). The image composition unit 63 displays driving support information (display area on the display surface 83) corresponding to the display image of the HUD device 100 (image M displayed on the display surface 83 of the image display unit 80). Various information displayed by the HUD device 100, such as a vehicle speed display and a warning symbol, which can be referred to as the original display of the HUD device 100), and display captured images in an undrawn area (empty area or blank area) The image composition processing is executed by arranging them, and thereby the image data of the display image M is generated.

次に、図2を参照する。図2(A)及び図2(B)は、図1のHUD装置によって取得される乗員の視点位置の例、及び表示される虚像(表示画像の虚像)の例を示す図である。図2(A)の例は、乗員200が、特に緊張感なく、平穏に運転している状態を示し、図2(B)では、道路に進入する可能性がある人を発見して、乗員200がやや緊張している状態を示している。   Reference is now made to FIG. 2A and 2B are diagrams illustrating an example of the occupant's viewpoint position acquired by the HUD device of FIG. 1 and an example of a displayed virtual image (a virtual image of a display image). The example of FIG. 2 (A) shows a state in which the occupant 200 is driving calmly without any particular tension. In FIG. 2 (B), a person who may enter the road is discovered, and the occupant 200 shows a slightly tense state.

まず、図2(A)を参照する。図2(A)において、視線カメラ16は、ハンドル(ステアリングホイール)7の前方のインストルメントパネル11に設けられている。車両1のウインドシールド3(HUD装置100の被投影部材として機能する)には、HUD装置100の表示光Lが照射される投影面(投影領域)4が設定され、乗員200は、この投影面(投影領域)4を介して、虚像(前方の実景に重畳される虚像)Vを視認する。   First, reference is made to FIG. In FIG. 2A, the line-of-sight camera 16 is provided on the instrument panel 11 in front of the handle (steering wheel) 7. A projection surface (projection region) 4 on which the display light L of the HUD device 100 is irradiated is set on the windshield 3 of the vehicle 1 (which functions as a projection member of the HUD device 100). The virtual image (virtual image superimposed on the front real scene) V is visually recognized via the (projection area) 4.

図2(A)において、乗員200がウインドシールド3を介して視認可能な前方の実景の構成要素として、左前方の標識E2と、右前方の木E3と、道路端及びセンターラインE4と、を記載している。図2(A)中、複数の四角形の各々は、注視位置検出部52によって検出された、言い換えれば、これまでに取得された注視位置(注視点)を示す。   In FIG. 2 (A), the front left sign E2, the right front tree E3, the road edge and the center line E4 are shown as components of the front actual scene that the occupant 200 can visually recognize through the windshield 3. It is described. In FIG. 2A, each of the plurality of squares indicates a gaze position (gaze point) detected by the gaze position detection unit 52, in other words, acquired so far.

投影面(投影領域)4には、表示画像生成部58が生成した表示画像HPが表示される。この表示画像HPは、運転支援情報としての「注意喚起マークC0、車速表示(ここでは60km/h)C3、前方に右折する曲がり角があることを示すナビゲーション表示としての矢印マークC2」が含まれ、かつ、投影面(投影領域)4の、運転支援情報が表示されていない領域(空領域)に、表示撮像画像CP2が表示(配置)されている。ここで、表示撮像画像CP2は、車載カメラ14によって撮像されて得られる撮像画像から、乗員200の過去の複数の注視位置(注視点)に基づいて、部分画像を抽出する(切り出す)ことにより生成される画像である。   On the projection surface (projection area) 4, the display image HP generated by the display image generation unit 58 is displayed. This display image HP includes “attention mark C0, vehicle speed display (in this case, 60 km / h) C3, arrow mark C2 as a navigation display indicating that there is a turning corner to the right” as driving support information, In addition, the display captured image CP2 is displayed (arranged) in a region (empty region) where the driving support information is not displayed on the projection surface (projection region) 4. Here, the display captured image CP2 is generated by extracting (cutting out) a partial image based on a plurality of past gaze positions (gaze points) of the occupant 200 from a captured image obtained by being captured by the in-vehicle camera 14. It is an image to be.

図2(A)の例では、虚像Vには、各種の運転支援情報と、直前まで視認していた前方の画像とが集約されていることから、乗員200は、虚像Vを確認することで、必要な情報を一度に得ることができる。   In the example of FIG. 2 (A), since various driving support information and the image of the front which had been visually recognized until just before are aggregated in the virtual image V, the occupant 200 confirms the virtual image V. , You can get the information you need at once.

次に、図2(B)を参照する。図2(B)では、左前方に、道路に向かって進行する人E1が存在することから、乗員200の注視位置(注視点)は、その人E1の側に移動している。この結果として、表示撮像画像生成部56が決定する注視領域には、木E3が入らないことになるが、乗員200は、ウインドシールド3を介して木を見ることができることから、特に問題は生じない。一方、表示撮像画像CP2には人E1が含まれており、少なくともしばらくの間は、人E1が含まれる表示撮像画像CP2の虚像が視認され得る状態が続くことになり、よって、乗員200は、HUD装置100による虚像Vを確認しているときも前方の人の動きに注目することができ、乗員200の不安感が軽減される。   Next, reference is made to FIG. In FIG. 2 (B), since the person E1 progressing toward the road exists in the left front, the gazing position (gaze point) of the occupant 200 has moved to the person E1 side. As a result, the tree E3 does not enter the gaze area determined by the display captured image generation unit 56. However, since the occupant 200 can see the tree through the windshield 3, a particular problem occurs. Absent. On the other hand, the display captured image CP2 includes the person E1, and a state in which the virtual image of the display captured image CP2 including the person E1 can be visually recognized continues at least for a while. Even when the virtual image V by the HUD device 100 is confirmed, it is possible to pay attention to the movement of the person in front, and the anxiety of the occupant 200 is reduced.

このように、図1のHUD装置100は、乗員200の現在及び過去の複数の注視点位置(図2(A)、(B)における四角形)に基づいて注視領域を決定し、撮像画像から部分画像を抽出し(言い換えれば切り出し)、その部分画像を表示撮像画像CP2とし、その表示撮像画像CP2を、表示画像HPに対応する表示画像エリア(言い換えれば、画像表示部80の表示面83上の表示エリアであり、図2(A)、(B)では、投影領域4に相当するエリア)における運転支援情報(例えば、車速表示、注意喚起マーク、前方に急な曲がり角があることを示す矢印のナビゲーション表示等)の未描画エリア(言い換えれば、空エリア又は余白エリア)に配置し、これによって、画像表示部80の表示面83に表示される表示画像(言い換えれば、HUD装置用の表示画像)HPを生成する。   As described above, the HUD device 100 in FIG. 1 determines a gaze area based on a plurality of current and past gazing point positions (rectangles in FIGS. 2A and 2B) of the occupant 200, and a part from the captured image. An image is extracted (in other words, cut out), the partial image is set as a display captured image CP2, and the display captured image CP2 is displayed on the display image area (in other words, on the display surface 83 of the image display unit 80). 2A and 2B, the driving support information in the area corresponding to the projection area 4 (for example, a vehicle speed display, a warning mark, and an arrow indicating that there is a sharp turn ahead. A display image (in other words, displayed on the display surface 83 of the image display unit 80), which is arranged in an undrawn area (in other words, an empty area or a blank area) of navigation display, etc. If, generates a display image) HP for HUD device.

撮像画像から、乗員200が注視していた領域を含む部分画像を抽出して(言い換えれば切り出して)、運転支援画像としての表示撮像画像を生成することから、不要な背景等が除去された有用な運転支援画像の提供が可能となり、また、表示撮像画像CP2は、表示画像エリア内の運転支援情報が表示されていない未描画エリア(空エリア又は余白エリア)に配置されることから、表示撮像画像CP2と運転支援情報(C0、C2、C3)との競合(重複)も生じない。また、このとき、空エリアに適応するように表示撮像画像のサイズを拡大等することによって、空スペースを十分に活用して見易い実風景の画像を含む表示画像を得ることができる。   Extracting a partial image including an area that the occupant 200 was gazing from (i.e., cutting out) from the captured image, and generating a display captured image as a driving assistance image, which is useful in which unnecessary backgrounds are removed Since the display captured image CP2 is arranged in an undrawn area (empty area or blank area) in the display image area where the driving support information is not displayed, the display captured image CP2 is displayed. There is no competition (duplication) between the image CP2 and the driving support information (C0, C2, C3). At this time, by expanding the size of the displayed captured image so as to adapt to the sky area, it is possible to obtain a display image including an image of a real landscape that is easy to see by making full use of the empty space.

上述のとおり、図2(B)の例では、ある程度の遠くの路肩に道路に向かって移動していると推測される人E1を視認した乗員(このときの注視点は、HUD装置100の被投影部材3上の投影面(投影領域)4の外に位置する)200が、現在の車速や注意情報等を確認するべく、HUD装置100の虚像Vに視線を移動させた場合、乗員200の視線は一瞬、その人E1から離れることから、乗員200には、「その人が道路に飛び出してくるかもしれない」という不安感が生じる。なお、図2(B)において、乗員200の視線の移動を双方向の矢印で示している。   As described above, in the example of FIG. 2B, the occupant who visually recognizes the person E1 who is assumed to be moving toward the road on a certain distant shoulder (the gaze point at this time is the subject of the HUD device 100). When the line of sight 200 is moved to the virtual image V of the HUD device 100 in order to check the current vehicle speed, caution information, etc., the occupant 200 is positioned on the projection member 3 outside the projection plane (projection area) 4. Since the line of sight leaves the person E1 for a moment, the occupant 200 feels uneasy that "the person may jump out on the road". In FIG. 2B, the movement of the line of sight of the occupant 200 is indicated by a bidirectional arrow.

しかし、図1のHUD装置100では、乗員200が先に視認した人E1が、他の余分な背景物等に埋もれることなく効果的に表示されることから、HUD装置100の虚像Vを見ているときも、人E1の確認を適宜、行うことができる。従って、上記の不安感が軽減され、また、万一、人E1の飛び出しがあったときは、減速や急ブレーキ等の適切な処置を迅速にとることができる。従って、外部サーバーとの接続を行うといった複雑で高価なシステムを用いることなく、簡易に、乗員200にとって有用な運転支援画像を提供することが可能となる。   However, in the HUD device 100 of FIG. 1, the person E1 visually recognized by the occupant 200 first is effectively displayed without being buried in other extraneous background objects, etc., so that the virtual image V of the HUD device 100 is seen. The person E1 can be confirmed as appropriate when he / she is present. Therefore, the above-mentioned feeling of anxiety is reduced, and in the unlikely event that the person E1 jumps out, appropriate measures such as deceleration and sudden braking can be taken quickly. Therefore, it is possible to easily provide a driving assistance image useful for the occupant 200 without using a complicated and expensive system for connecting to an external server.

また、撮像画像をそのまま表示する場合は、乗員200にとって不要な画像が含まれることから見易い画像とはいえず、また、撮像画像のサイズを乗員200にとって視認しやすい大きさに設定しようすると、撮像画像を表示するのに必要な領域の占有面積が大きくなり、他の表示コンテンツ(例えば、車速表示や注意喚起マーク等の運転支援情報)の視認性を妨げることにもなりかねない。もしくは、他の表示コンテンツと干渉して、そもそも撮像画像を視認しやすい大きさに拡大して表示することができないという事態も想定され得る。図1のHUD装置100では、撮像画像をそのまま用いずに、乗員200にとって有用な画像領域のみを抽出(切り出し)して利用するため、表示面積を抑制しつつ重要な箇所の画像を効率的に表示することができ、よって上記の問題点は生じない。   In addition, when the captured image is displayed as it is, it is not an easy-to-see image because an image unnecessary for the occupant 200 is included, and if the size of the captured image is set to a size that is easily visible to the occupant 200, the image is captured. The area occupied by the area necessary for displaying the image becomes large, and the visibility of other display contents (for example, driving support information such as a vehicle speed display and a warning mark) may be hindered. Alternatively, it may be assumed that the captured image cannot be enlarged and displayed in a size that is easy to visually recognize because of interference with other display contents. In the HUD device 100 of FIG. 1, only the image area useful for the occupant 200 is extracted (cut out) and used without using the captured image as it is, so that an image of an important part is efficiently suppressed while suppressing the display area. Therefore, the above problem does not occur.

また、上記の図2(A)の場合よりも、図2(B)の場合において、本発明に従うHUD装置の効果が発揮されることから、図2(B)のような場合にのみ、注視位置の取得を行ってもよい。この場合は、図1の表示制御部50において、虚像外注視検出部65が設けられる。   In addition, in the case of FIG. 2B, the effect of the HUD device according to the present invention is exerted in the case of FIG. 2B rather than the case of FIG. You may acquire a position. In this case, a virtual image extraneous gaze detection unit 65 is provided in the display control unit 50 of FIG.

虚像外注視検出部65は、少なくとも視線検出部30の検出結果を用いることで、乗員200の視線が、図2(A)、(B)における表示画像HPの虚像Vの外に向けられているか否かを判定する。この場合、図1の表示制御部50における注視位置検出部52は、虚像外注視検出部65によって乗員200の視線が表示画像HPの虚像Vの外に向けられていると判定された場合に(例えば、その場合にのみ)、乗員200の注視位置(注視点の位置)を検出してもよい。   Whether the sight line of the occupant 200 is directed outside the virtual image V of the display image HP in FIGS. 2A and 2B by using the detection result of the sight line detection unit 30 at least. Determine whether or not. In this case, the gaze position detection unit 52 in the display control unit 50 of FIG. 1 determines that the gaze of the occupant 200 is directed outside the virtual image V of the display image HP by the virtual image gaze detection unit 65 ( For example, the gaze position (gaze point position) of the occupant 200 may be detected only in that case.

このように、乗員200の視線が表示画像HPの虚像Vの外に向けられている(言い換えれば、乗員200の視線が被投影部材3の投影領域4から外れている)と判定される場合に、乗員200の注視位置(注視点の位置の情報)を取得し、これによって、注視位置検出部52の負担を軽減しつつ、取得される注視点を、乗員が実際に注視していた実景についての注視点のみに限定することが可能となる。よって、有用な表示撮像画像CP2を効率的に得ることができる。   As described above, when it is determined that the line of sight of the occupant 200 is directed out of the virtual image V of the display image HP (in other words, the line of sight of the occupant 200 is out of the projection area 4 of the projection member 3). The gazing position of the occupant 200 (information on the position of the gazing point) is acquired, thereby reducing the burden on the gazing position detection unit 52 and the actual scene in which the occupant was actually gazing at the acquired gazing point It is possible to limit to only the gazing point. Therefore, a useful display captured image CP2 can be obtained efficiently.

上述のとおり、図1のHUD装置100は、乗員200がHUD装置100の虚像Vの外に視線を向けている状態から、HUD装置100の虚像Vへと視線を移すときに、今まで見ていた実景から視線が外れることによる不安感を払拭するという格別の効果が得られるものである。乗員200の視線がHUD装置100の虚像Vから外れている場合に見ている注視点は重要度の高い注視点であり、これを効率的に収集することで、装置の負担を軽減しつつ、上記の格別の効果を得ることが可能となる。   As described above, the HUD device 100 of FIG. 1 has been viewed until now when the occupant 200 moves his / her line of sight from the virtual image V of the HUD device 100 to the virtual image V of the HUD device 100. It is possible to obtain an extraordinary effect of dispelling the anxiety caused by the fact that the line of sight deviates from the actual scene. The gazing point seen when the line of sight of the occupant 200 deviates from the virtual image V of the HUD device 100 is a gazing point with high importance, and by efficiently collecting this, the burden on the device is reduced, The above-mentioned special effect can be obtained.

また、上記の虚像外注視検出部65は、視線検出部30の検出結果及び生体情報検出部60の検出結果(解析結果)に基づいて、「乗員200の視線が、表示画像HPの虚像Vの外に向けられているか否かを判定する処理」を実行してもよい。   In addition, the virtual image extraneous gaze detection unit 65 described above is based on the detection result of the visual line detection unit 30 and the detection result (analysis result) of the biological information detection unit 60, “the sight line of the occupant 200 is the virtual image V of the display image HP. You may perform the process which determines whether it is turned outside.

その判定結果に基づいて、注視位置検出部52による注視点の検出動作が開始されてもよく、あるいは、例えば、表示撮像画像の縮小や非表示といった、影響力が大きい処理が行われてもよく(後述)、よって上記の判定には慎重を期す必要がある。そこで、上記の判定に際して、視線検出部30による検出結果の他に、乗員200の生体情報の検出結果も考慮して上記の判定を行い、判定精度をより高めるものである。   Based on the determination result, the gaze point detection operation by the gaze position detection unit 52 may be started, or a process having high influence such as reduction or non-display of the displayed captured image may be performed. Therefore, it is necessary to be careful in the above determination. Therefore, in the above determination, the above determination is performed in consideration of the detection result of the biological information of the occupant 200 in addition to the detection result by the line-of-sight detection unit 30, and the determination accuracy is further improved.

例えば、「路肩において、道路に進入するかもしれない人が視認された場合(図2(B)の場合)」には、乗員200の視線は、道路脇へと大きく移動し、かつ、脈拍等の生体情報も数値が上昇して緊張がより高い状態となると考えられる。よって、脈拍等の生体情報も活用することで、「より緊張度の高い運転状況が出現し、そのことが原因で視線が大きくずれた」というような推定が可能であり、この推定される状況では、乗員200の視線は、HUD100の虚像Vの外に向けられている可能性が高い。よって、より精度の高い判定が可能となる。なお、生体情報は脈拍に限定されるものではなく、例えば、心拍や脳の活動状況を示す脳血流量であってもよく、さらに他の生体情報であってもよい。   For example, when “a person who may enter the road is visually recognized on the shoulder (in the case of FIG. 2B)”, the sight line of the occupant 200 moves greatly to the side of the road, and the pulse, etc. It is thought that the biometric information of is also in a state where the numerical value rises and tension is higher. Therefore, by utilizing biological information such as the pulse, it is possible to estimate that “a driving situation with a higher degree of tension has appeared, and that caused a significant shift in the line of sight.” Then, there is a high possibility that the sight line of the occupant 200 is directed outside the virtual image V of the HUD 100. Therefore, determination with higher accuracy is possible. The biological information is not limited to the pulse, and may be, for example, a cerebral blood flow indicating a heartbeat or a brain activity status, or may be other biological information.

以下、第1〜第4の実施形態を用いて具体的に説明する。
(第1の実施形態)
まず、図3を参照する。図3(A)は、第1の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図3(B)は、図3(A)のフロー図に対応した画像処理及び表示制御の例を示す図である。図3(B)では、図3(A)におけるステップS1、S3、S4に対応する画像例が示されている。なお、図3(A)、(B)において、図2と共通する部分には同じ符号を付しており、図2について説明した事項は、図3(A)、(B)についても適用され得る。
Hereinafter, a specific description will be given using the first to fourth embodiments.
(First embodiment)
First, referring to FIG. FIG. 3A is a flowchart showing main operation procedures of the HUD device in the first embodiment, and FIG. 3B is an example of image processing and display control corresponding to the flowchart of FIG. FIG. FIG. 3B shows an image example corresponding to steps S1, S3, and S4 in FIG. 3 (A) and 3 (B), the same reference numerals are given to portions common to FIG. 2, and the items described with reference to FIG. 2 also apply to FIGS. 3 (A) and 3 (B). obtain.

図3(A)のステップS1において、表示制御部50は、車載カメラ14によって撮像された撮像画像CP1における乗員200の注視位置(図3(B)において○で示されている)情報を取得する。図3(B)に○で示される視点位置は、人E1に関する、今回取得されたものであり、言い換えれば、図2(B)において□で示される、これまでに取得された注視位置情報に追加して取得されたものである。この視点位置情報は、取得の度に記憶部36に蓄積される。蓄積された注視位置の情報は、表示撮像画像CP2を生成に必要な注視領域を決定するために利用され得る。   In step S1 of FIG. 3A, the display control unit 50 acquires information on the gaze position of the occupant 200 (indicated by a circle in FIG. 3B) in the captured image CP1 captured by the in-vehicle camera 14. . The viewpoint position indicated by ◯ in FIG. 3 (B) is acquired this time regarding the person E1, in other words, the gaze position information acquired so far indicated by □ in FIG. 2 (B). It was acquired in addition. This viewpoint position information is accumulated in the storage unit 36 every time it is acquired. The accumulated gaze position information can be used to determine a gaze area necessary for generating the display captured image CP2.

ここで、注視位置を取得は、ステップS1〜S4の処理ループが回るたびに必ずしも行う必要はない。例えば、表示制御部50の注視位置検出部52は、視線検出部30又は生体情報検出部60の各検出結果の少なくとも一方に基づき、乗員200の注視位置が、表示画像HPの虚像V以外にあると判断された場合にのみ、注視位置(図3(B)の○)情報(座標位置)を検出(取得)するようにしてもよい。   Here, acquisition of the gaze position is not necessarily performed every time the processing loop of steps S1 to S4 is turned. For example, the gaze position detection unit 52 of the display control unit 50 has the gaze position of the occupant 200 other than the virtual image V of the display image HP based on at least one of the detection results of the line-of-sight detection unit 30 or the biological information detection unit 60. Only when it is determined, the gaze position (circle in FIG. 3B) information (coordinate position) may be detected (acquired).

これにより、表示制御部50は、乗員200が虚像V以外の実風景を視認している場合の注視位置(図3(B)の○)のみを取得できる。この場合は、表示撮像画像CP2の領域は、「乗員が虚像Vではなく、実風景を視認していた際の視認エリア」に制限され、乗員200にとってより有益な画像となる。なぜなら、虚像Vの背景となっている実風景は、虚像Vを視認している際にも視認が比較的容易であり、乗員200にとって表示撮像画像CP2として虚像表示される必要がない可能性が高いためである。   Thereby, the display control part 50 can acquire only the gaze position ((circle) of FIG. 3 (B)) when the passenger | crew 200 is visually recognizing real scenery other than the virtual image V. FIG. In this case, the area of the display captured image CP <b> 2 is limited to “a visual recognition area when the occupant is visually recognizing the real scenery instead of the virtual image V”, and the occupant 200 becomes a more useful image. This is because the real scenery that is the background of the virtual image V is relatively easy to view even when the virtual image V is viewed, and the occupant 200 may not need to display the virtual image as the display captured image CP2. This is because it is expensive.

続いて、ステップS2において、表示撮像画像生成部56は、記憶部36に、乗員200の注視領域を決定することができる所定数(最低限度の数であり、これを3以上の自然数mとする)以上の数の注視位置の情報が蓄積されているかを判定する。ある程度の数の注視位置情報に基づいて注視領域を決定することで、決定の精度が高まる。また、過去の複数の注視位置に基づく決定となるため、視線が瞬時的に大きく移動したとしても、直近の視点位置も考慮して注視領域が決められることから、瞬時的な視点の移動にいたずらに引きずられることがなく、安定した注視領域の決定が可能となる。   Subsequently, in step S <b> 2, the display captured image generation unit 56 stores a predetermined number (a minimum number that can determine the gaze area of the occupant 200) in the storage unit 36, which is a natural number m of 3 or more. ) It is determined whether or not the information of the above gaze positions is accumulated. By determining the gaze area based on a certain number of gaze position information, the accuracy of the determination is increased. In addition, since the determination is based on a plurality of gaze positions in the past, even if the line of sight moves momentarily, the gaze area is determined in consideration of the most recent viewpoint position. Therefore, it is possible to determine a stable gaze area without being dragged.

ステップS2において「蓄積されている場合(Yの場合)」は、ステップS3において、表示撮像画像生成部56は、複数(所定数m以上の複数)の注視位置情報に基づいて、その注視位置情報を含むようにして注視領域を決定し、その注視領域に従って部分画像を抽出(切り出し)し、これによって表示撮像画像CP2を生成する。所定数の注視位置情報が存在しない場合はステップS1に戻る。   When “accumulated (in the case of Y)” in step S2, in step S3, the display captured image generation unit 56 determines the gaze position information based on a plurality of (a plurality of predetermined number m or more) gaze position information. The gaze area is determined so as to include the partial image, and the partial image is extracted (cut out) according to the gaze area, thereby generating the display captured image CP2. If the predetermined number of gaze position information does not exist, the process returns to step S1.

続いて、ステップS4において、表示画像生成部58における画像合成部63は、表示撮像画像CP2を、撮像画像CP1から、運転支援画像としての表示撮像画像CP2を生成する。なお、表示制御部200は、各注視位置情報に所定の寿命期間を付加し、寿命期間が過ぎた注視位置情報は採用しない(あるいは、記憶部36から削除する)という処理を行ってもよい。   Subsequently, in step S4, the image composition unit 63 in the display image generation unit 58 generates the display captured image CP2 as the driving assistance image from the captured image CP1. The display control unit 200 may perform a process of adding a predetermined lifetime to each gaze position information and not adopting (or deleting from the storage unit 36) the gaze position information that has passed the lifetime.

続いて、ステップS4において、表示画像生成部58における画像合成部63は、表示撮像画像CP2を、表示画像HPに対応する表示画像エリア内の、運転支援情報(図2で説明したとおり、ここでは、注意喚起マークC0、車速表示(60km/h)C3、前方に右折する曲がり角があることを示すナビゲーション表示としての矢印マークC2が含まれる)の未描画エリア(空エリア又は余白エリア)に、表示撮像画像CP2を配置して、表示画像HPを生成する。そして、ステップS5において、表示画像生成部58は、表示画像HPをHUD制御部70に出力する。   Subsequently, in step S4, the image composition unit 63 in the display image generation unit 58 converts the display captured image CP2 into the driving support information in the display image area corresponding to the display image HP (as described in FIG. 2 here). , A warning mark C0, a vehicle speed display (60 km / h) C3, and an undrawn area (empty area or blank area) of a navigation mark indicating that there is a turning corner that turns to the right. The captured image CP2 is arranged to generate the display image HP. In step S <b> 5, the display image generation unit 58 outputs the display image HP to the HUD control unit 70.

このような表示制御がなされることによって、乗員200は、虚像Vに視点を合わせたことによって、それまで視認していた実風景を見ることが困難になったとしても、虚像V内に表示撮像画像CP2の虚像が含まれることから、それまでと同様に、実風景の状況を確認することができる。従って、従来、乗員が虚像Vを視認するときに感じる、「実風景を見なければわからない危険の察知、運転の予測が難しい」といった不安感を解消することができる。さらに、表示撮像画像CP2は、これまで注視してきた実風景を含む画像に限定されているため、図1のHUD装置100では、撮像画像CP1をそのまま表示する場合に比べて、乗員200に有益な画像情報を提供することができる。また、撮像画像CP1と表示撮像画像CP2を、例えば、同じ倍率だけ拡大して表示した際、その中にある1つ1つの画像情報(人や物、車線等)は、表示撮像画像CP2のほうが大きく表示されることになる。従って、画像拡大による各画像情報の視認性がより向上する。   By performing such display control, the occupant 200 adjusts the viewpoint to the virtual image V, and even if it becomes difficult to see the real scenery that has been viewed until then, the occupant 200 performs display imaging in the virtual image V. Since the virtual image of the image CP2 is included, the situation of the real landscape can be confirmed as before. Therefore, conventionally, it is possible to eliminate the anxiety that the occupant feels when visually recognizing the virtual image V, such as “it is difficult to detect danger and cannot predict driving unless the actual scenery is viewed”. Furthermore, since the displayed captured image CP2 is limited to an image including the actual scenery that has been watched so far, the HUD device 100 of FIG. 1 is more beneficial to the occupant 200 than when the captured image CP1 is displayed as it is. Image information can be provided. For example, when the captured image CP1 and the displayed captured image CP2 are enlarged and displayed by the same magnification, the individual captured image information (people, objects, lanes, etc.) is displayed in the displayed captured image CP2. It will be displayed larger. Therefore, the visibility of each image information by image enlargement is further improved.

(第2の実施形態)
次に、図4を参照する。図4は、第2の実施形態におけるHUD装置の主要な動作手順を示すフロー図である。第2の実施形態は、基本的には第1の実施形態と同じであるが、但し、第2の実施形態では、表示制御部50が未描画エリアに表示撮像画像CP2を配置する際に、乗員200の注視位置が虚像Vの内であるか外であるかに応じて、表示撮像画像CP2のサイズを変更する等の処理が行われ、この点が第1の実施形態とは異なる。また、サイズの変更等の処理は、HUD装置100の虚像表示の信頼性にも影響が及ぶ場合があるため、慎重を期すため、乗員200の注視位置が虚像Vの内であるか外であるかの判定にあたっては、視線情報のみならず、生体情報も考慮することとしている。
(Second Embodiment)
Reference is now made to FIG. FIG. 4 is a flowchart showing main operation procedures of the HUD device according to the second embodiment. The second embodiment is basically the same as the first embodiment. However, in the second embodiment, when the display control unit 50 arranges the display captured image CP2 in the undrawn area, Depending on whether the gazing position of the occupant 200 is inside or outside the virtual image V, processing such as changing the size of the display captured image CP2 is performed, which is different from the first embodiment. In addition, since the processing such as the size change may affect the reliability of the virtual image display of the HUD device 100, the gaze position of the occupant 200 is inside or outside the virtual image V for the sake of caution. In this determination, not only the line-of-sight information but also the biological information is taken into consideration.

まず、ステップS1において、表示制御部50の注視位置検出部52が、撮像画像上における注視位置(注視点)を検出(取得)し、その情報を記憶部54に記憶し、生体情報検出部60が生体情報を検出(取得)する。次に、表示撮像画像生成部56が、注視位置情報が記憶部54に所定数(上述のm)以上存在するか否かを判定する。次に、表示撮像画像生成部56が、撮像画像CP1から部分画像を抽出(切り出し)して、表示撮像画像CP2を生成する。   First, in step S1, the gaze position detection unit 52 of the display control unit 50 detects (acquires) the gaze position (gaze point) on the captured image, stores the information in the storage unit 54, and the biological information detection unit 60. Detects (acquires) biological information. Next, the display captured image generation unit 56 determines whether or not the gaze position information is present in the storage unit 54 by a predetermined number (m described above) or more. Next, the display captured image generation unit 56 extracts (cuts out) the partial image from the captured image CP1 to generate the display captured image CP2.

次に、ステップS4において、図1の表示制御部50に設けられる虚像外注視検出部65が、記憶部54から注視位置の情報を読み出し、かつ生体情報検出部60から送られてくる生体情報を受け取り、双方の情報に基づいて、乗員200が虚像Vを注視している(つまり、視点が虚像内にある)か否かを判定する。   Next, in step S <b> 4, the virtual image extraneous gaze detection unit 65 provided in the display control unit 50 of FIG. 1 reads the gaze position information from the storage unit 54 and the biometric information sent from the biometric information detection unit 60. Based on the received information, it is determined whether or not the occupant 200 is gazing at the virtual image V (that is, the viewpoint is in the virtual image).

ステップS4でYのときは、ステップS5において、表示撮像画像生成部63に含まれる画像サイズ変更部61が、表示撮像画像CP2のサイズを拡大(もしくは現サイズを維持)して、運転支援情報(車速表示等)の未描画エリアに配置する。これによって、視認性を向上させることができる。   When Y is determined in step S4, in step S5, the image size changing unit 61 included in the display captured image generation unit 63 enlarges the size of the display captured image CP2 (or maintains the current size), and the driving support information ( It is placed in the undrawn area of the vehicle speed display. Thereby, visibility can be improved.

また、ステップS4においてNの場合は、ステップS6において、表示撮像画像生成部63に含まれる画像サイズ変更部61が、表示撮像画像CP2のサイズを、虚像Vを注視している場合よりも縮小し、運転支援情報(車速情報等)の未描画エリアに配置する、もしくは、表示撮像画像CP2を未描画エリアに配置しない(言い換えれば非表示とする)。これによって、乗員200が表示撮像画像CP2を周辺視することによって発生する違和感を軽減、もしくは解消することができる。続いて、ステップS7で、表示制御部50は、生成した表示画像HPを、HUD制御部70に出力する。   Further, in the case of N in step S4, in step S6, the image size changing unit 61 included in the display captured image generation unit 63 reduces the size of the display captured image CP2 as compared with the case where the virtual image V is being watched. The driving assistance information (vehicle speed information, etc.) is arranged in an undrawn area, or the display captured image CP2 is not arranged in the non-drawing area (in other words, not displayed). Accordingly, it is possible to reduce or eliminate the uncomfortable feeling that occurs when the occupant 200 sees the displayed captured image CP2 in the vicinity. Subsequently, in step S <b> 7, the display control unit 50 outputs the generated display image HP to the HUD control unit 70.

ここで、ステップS4において、「乗員が虚像Vを注視しているか」を判断する際。視線情報のみに基づく判断であってもよく、また、視線情報だけでは判断が難しい場合にのみ、生体情報を追加の判断材料として用いるようにしてもよい。   Here, in step S4, it is determined whether “the passenger is gazing at the virtual image V”. The determination may be based on only the line-of-sight information, or the biological information may be used as additional determination material only when the determination is difficult only with the line-of-sight information.

例えば、乗員200の注視位置が虚像Vと実背景にまたがっている場合、脈拍の上昇量による緊張度の推定、脳への負荷情報に基づく心理状態の推定等を行い、これを追加の判断材料とすることができる。具体的には、例えば、脈拍や脳負荷が所定の値以下であれば、乗員200はリラックスしてウインドシールド3を介して遠方を見ている(つまり、乗員は虚像V以外を見ている)可能性が高いと判断することができ、負荷が所定の値以上であれば、乗員200は、何等かの緊張状態にあり、よって、その緊張の原因となっている対象を見ている、つまり、比較的前方の対象物を注視している可能性が高く、この場合、必要な情報を集約して得るために、乗員200が虚像Vを注視する可能性も否定できない、といった判断を行うことができる。   For example, when the gazing position of the occupant 200 straddles the virtual image V and the actual background, estimation of the degree of tension based on the amount of increase in the pulse, estimation of the psychological state based on the load information on the brain, etc. It can be. Specifically, for example, if the pulse or brain load is equal to or less than a predetermined value, the occupant 200 relaxes and looks far away through the windshield 3 (that is, the occupant is looking at a place other than the virtual image V). If it can be determined that the possibility is high and the load is equal to or greater than a predetermined value, the occupant 200 is in some state of tension and is thus looking at the subject that is causing the tension, In this case, it is highly likely that an object in front is being watched. In this case, in order to collect necessary information, it is impossible to deny the possibility that the occupant 200 looks at the virtual image V. Can do.

また、ステップS4において、「乗員200の視線が虚像Vに向けられているか、虚像Vの外に向けられているか」ではなく、「虚像Vの内の、運転支援情報(速度表示等)の虚像に向けられているか、運転支援情報(速度表示等)の虚像の外に向けられているか」を判定するようにしてもよい。この場合は、表示制御部200は、乗員200が虚像Vにおける背景部分(運転支援情報以外の虚像領域)を通して車両1の周辺を見ている場合においても、撮像画像を縮小、もしくは非表示にでき、よって、乗員200が虚像Vを注視しつつも表示撮像画像CP2を周辺視しまうことで発生する違和感を軽減することができる。   Further, in step S4, not “whether the line of sight of the occupant 200 is directed to the virtual image V or the virtual image V” but “virtual image of driving support information (speed display, etc.) in the virtual image V”. It may be determined whether or not it is directed to the outside of the virtual image of the driving support information (speed display or the like). In this case, the display control unit 200 can reduce or hide the captured image even when the occupant 200 looks around the vehicle 1 through the background portion (virtual image region other than the driving support information) in the virtual image V. Therefore, it is possible to reduce a sense of incongruity that occurs when the occupant 200 gazes at the virtual image V while viewing the displayed captured image CP2 in the vicinity.

このように、第2の実施形態では、乗員200の視線が、HUD装置100による虚像Vの外にあるか、内にあるかによって、表示撮像画像CP2のサイズに差を設ける。言い換えれば、表示撮像画像CP2の重要性が高いと考えられる状況では、表示撮像画像CP2を拡大する(言い換えれば、撮像画像CP1から部分画像を抽出することによって得られた当初のサイズよりも大きなサイズとする)、あるいは現状のサイズを維持することによって視認性の向上(又は確保)を図り、一方、表示撮像画像の重要性が比較的低い(不便をもたらすと考えられる場合を含む)においては、表示撮像画像CP2を縮小する(言い換えれば、撮像画像から部分画像を抽出することによって得られた当初のサイズよりも小さなサイズとする)、又は非表示とすることで、乗員に余分な負担が生じることを抑制する。   Thus, in the second embodiment, a difference is provided in the size of the display captured image CP2 depending on whether the line of sight of the occupant 200 is outside or inside the virtual image V by the HUD device 100. In other words, in a situation where the display captured image CP2 is considered to be highly important, the display captured image CP2 is enlarged (in other words, a size larger than the initial size obtained by extracting the partial image from the captured image CP1). In other words, it is possible to improve (or ensure) the visibility by maintaining the current size, while the importance of the displayed captured image is relatively low (including the case where it is considered to cause inconvenience) Reduction of the displayed captured image CP2 (in other words, a size smaller than the initial size obtained by extracting the partial image from the captured image) or non-display causes an extra burden on the occupant. To suppress that.

また、「視線が、HUD装置100による虚像Vの外にあるか、内にあるか」という場合分けに関しては、上述のとおり、HUD装置100の表示画像(運転支援情報及び表示撮像画像を含む全体の画像)HPを見ているか否かという観点で場合分けしてもよく、又、より厳密に視点位置を判定して、表示画像内における運転支援情報を見ているか否かで場合分けしてもよい。   In addition, regarding the case classification “whether the line of sight is outside or inside the virtual image V by the HUD device 100”, as described above, the display image of the HUD device 100 (the entire image including the driving support information and the display captured image is included). The image may be divided in terms of whether or not the user is viewing the HP, and moreover, the position of the viewpoint is more strictly determined, and the case is divided depending on whether or not the driving support information is viewed in the display image. Also good.

乗員200が虚像Vの外を見ているということは、すなわち前方等の実景を見ている可能性が高いということであり、この場合、通常のサイズの表示撮像画像CP2を表示しておくと、乗員200によってその表示撮像画像CP2が周辺視される状況(言い換えれば、乗員200の周辺の視野に表示撮像画像CP2が見えてしまい、同じ画像が2つ見える、いわゆる2重映しの状況)となり、かえって混乱をもたらす可能性もあることから、表示撮像画像を縮小、又は非表示とするものである。   The fact that the occupant 200 is looking out of the virtual image V means that there is a high possibility that the occupant 200 is looking at a real scene such as the front. In this case, if the display captured image CP2 of a normal size is displayed. In this situation, the occupant 200 sees the displayed captured image CP2 in the periphery (in other words, the display captured image CP2 is seen in the field of view around the occupant 200, and the same two images are seen, so-called double projection). However, since there is a possibility of confusion, the displayed captured image is reduced or not displayed.

また、運転支援情報の虚像を見ているか否かで場合分けする場合には、さらに、以下の効果が得られる。すなわち、乗員の視点位置が、表示画像の虚像内ではあるが、運転支援情報の虚像外であるという場合には、乗員は、透光性の部材である被投影部材3を介して、背後の実景を見ている可能性が高いということである。よって、この場合においても、通常のサイズの表示撮像画像を表示しておくと、乗員によってその表示撮像画像が周辺視されて、かえって混乱を与える可能性がある。上記の、より厳密な場合分けを行うことによって、このような場合においても、適切な表示撮像画像の表示制御を行うことができる。なお、表示撮像画像を非表示とすることは、表示撮像画像を表示画像エリアに配置しないことによって実現されてもよく、一時的に、表示画像全体を非表示とすることによって実現されてもよい。   Further, when the case is divided depending on whether or not the virtual image of the driving support information is viewed, the following effects can be further obtained. That is, when the viewpoint position of the occupant is within the virtual image of the display image but outside the virtual image of the driving support information, the occupant is behind the projection member 3 that is a translucent member. This means that there is a high possibility of seeing a real scene. Therefore, even in this case, if a display captured image having a normal size is displayed, the displayed captured image may be viewed by the occupant and may cause confusion. By performing the above-described strict case classification, appropriate display control of the displayed captured image can be performed even in such a case. Note that hiding the display captured image may be realized by not arranging the display captured image in the display image area, or may be realized by temporarily hiding the entire display image. .

(第3の実施形態)
次に、図5を参照する。図5(A)は、第3の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図5(B)は、図5(A)のフロー図に対応した画像処理及び表示制御の例を示す図、図5(C)は、構成要素毎の優先順位の例を示す図である。なお、図4(B)では、図5(A)におけるステップS4〜S6の各々に対応する画像例が示されている。また、図5(A)〜図5(C)において、前掲の図(特に図2や図3)と共通する部分には同じ符号を付しており、図2、図3について説明した事項は、図5においても適用され得る。
(Third embodiment)
Reference is now made to FIG. FIG. 5A is a flowchart showing main operation procedures of the HUD device in the third embodiment, and FIG. 5B is an example of image processing and display control corresponding to the flowchart of FIG. 5A. FIG. 5C is a diagram illustrating an example of the priority order for each component. FIG. 4B shows an image example corresponding to each of steps S4 to S6 in FIG. Further, in FIGS. 5A to 5C, the same reference numerals are given to the portions common to the above-described drawings (particularly FIGS. 2 and 3), and the matters described with reference to FIGS. 5 can also be applied in FIG.

本実施形態では、表示制御部50は、表示撮像画像CP2、及び運転支援情報(ここでは、注意喚起マークC1、前方に右折する曲がり角があることを示すナビゲーション表示としての矢印マークC2、車速表示(60km/h)C3とする)を対象として優先順位を付与し、表示撮像画像CP2よりも優先順位の低い構成要素(図5(C)からわかるようにC2、C3が該当する)については、サイズを縮小して空スペースを増やすと共に、優先順位の低い構成要素を目立たないようにしておき、未描画エリアに表示撮像画像CP2を配置して、表示画像HPを生成する。これによって、優先順位が高い情報を、見易くして乗員200に提示することが可能となる。   In the present embodiment, the display control unit 50 displays the displayed captured image CP2, and driving support information (here, a warning mark C1, an arrow mark C2 as a navigation display indicating that there is a turning corner to the right, a vehicle speed display ( 60 km / h) C3)) is given priority, and components having lower priority than the displayed captured image CP2 (C2 and C3 are applicable as can be seen from FIG. 5C) Is reduced to increase the empty space, and low-priority components are kept inconspicuous, and the display captured image CP2 is arranged in the undrawn area to generate the display image HP. As a result, information with high priority can be presented to the occupant 200 in an easy-to-read manner.

以下、具体的に説明する。図5(C)に示されるように、優先順位は、構成要素C1が最も高く、CP2、C2、C3の順に優先順位が低下する。なお、優先順位の付与は、図1の表示画像生成部58に含まれる優先順位付与部59によって実行される。   This will be specifically described below. As shown in FIG. 5C, the priority order is highest for the component C1, and the priority order decreases in the order of CP2, C2, and C3. The assignment of priority is performed by a priority assignment unit 59 included in the display image generation unit 58 of FIG.

図5(A)において、ステップS1〜S3は、図3におけるステップS1〜S3と同じである。ステップS4において、優先順位付与部59が、運転支援情報の各構成要素(C1〜C3)、及び表示撮像画像CP2に対して優先順位を付与する。優先順位の付与結果は、図5(C)のとおりである。   In FIG. 5A, steps S1 to S3 are the same as steps S1 to S3 in FIG. In step S4, the priority level assigning unit 59 gives priority levels to the components (C1 to C3) of the driving support information and the display captured image CP2. The result of assigning priorities is as shown in FIG.

次に、ステップS5において、運転支援情報の構成要素(C1〜C3)の内の、表示撮像画像CP2の優先順位より低い優先順位のもの(図5(C)からC2、C3であることがわかる)を縮小する。ステップS6において、生成された表示撮像画像CP2を、運転支援情報(C1〜C3)の未描画エリアに配置し、これを最終的な表示画像HPとする。そして、ステップS7において、表示制御部50は、表示画像HPをHUD制御部70に出力する。   Next, in step S5, it is understood that the priority is lower than the priority of the display captured image CP2 among the components (C1 to C3) of the driving support information (from FIG. 5C, C2 and C3. ). In step S6, the generated display captured image CP2 is arranged in an undrawn area of the driving support information (C1 to C3), and this is set as a final display image HP. In step S <b> 7, the display control unit 50 outputs the display image HP to the HUD control unit 70.

ここで、表示撮像画像CP2と運転支援情報(C1〜C3)に対する優先順位の付与の具体例について説明する。表示撮像画像CP2と運転支援情報(C1〜C3)とでは、異なる優先順位の付与方法が使用される。   Here, a specific example of assigning priorities to the display captured image CP2 and the driving support information (C1 to C3) will be described. Different methods of assigning priorities are used for the display captured image CP2 and the driving support information (C1 to C3).

運転支援情報(C1〜C3)については、構成要素(単に「要素」、あるいは「表示コンテンツ」と称することもある)毎に、予め設定していた優先順位を決めるための点数(以後、優先度スコア)が付与される。   For the driving support information (C1 to C3), a score (hereinafter referred to as priority) for determining a priority order set in advance for each component (sometimes simply referred to as “element” or “display content”). Score).

一方、表示撮像画像CP2の優先順位については、撮像画像CP1の解析結果を考慮して行われる。すなわち、図1の撮像画像処理部40に含まれる撮像画像解析部42が、撮像画像CP1から検出物(撮像画像に含まれる各種の要素)と、それに付随する情報とを抽出して、記憶部44に記憶させる。表示制御部50の表示画像生成部に含まれる優先順位付与部59は、記憶部44から上記の検出物及び付随情報を読み出し、それらの情報を基に各検出物に優先度スコアを付与する。そして、付与した複数の点数を総合的に勘案して表示撮像画像CP2の優先度スコアを求める。これによって、表示撮像画像CP2の優先順位が求められる。   On the other hand, the priority order of the displayed captured image CP2 is determined in consideration of the analysis result of the captured image CP1. That is, the captured image analysis unit 42 included in the captured image processing unit 40 in FIG. 1 extracts the detection object (various elements included in the captured image) and the information accompanying the extracted object from the captured image CP1, and stores the storage unit. 44. The priority level assigning unit 59 included in the display image generation unit of the display control unit 50 reads the detection object and the accompanying information from the storage unit 44, and assigns a priority score to each detection object based on the information. Then, the priority score of the display captured image CP2 is obtained by comprehensively considering the given points. Thereby, the priority order of the display captured image CP2 is obtained.

なお、上記の検出物は、例えば、図5(B)の上側の図に示されるように、人E1、標識E2、及びセンターライン等E4が該当する。そして、それら検出物に付随する情報とは、検出物毎のカテゴリ、車間距離、大きさなどである。上記の検出物毎の優先度スコアは、付随する情報ごとに係数を掛けることで算出する。当然、ある情報の係数を0とすることで、一部の情報を優先度スコアの算出に含めないようにしてもよい。また、表示撮像画像CP2の優先度スコアは、表示制御部50が任意のアルゴリズムで算出してよい。例えば、表示撮像画像CP2の優先度スコアを各検出物の優先度スコアの最高点とすれば、図5(A)のステップS5において、最も多くの運転支援情報の要素を縮小することができる。その結果、表示撮像画像CP2の配置領域を拡大することができる。しかし、最高点とすると、優先度が比較的高い構成要素までもが縮小される恐れがある。そのため、表示撮像画像CP2の優先度スコアは、例えば抽出物の平均値とするなど、縮小する構成要素と表示撮像画像CP2との双方において、視認性のバランスが取れるよう、慎重に定めるのが好ましい。なお、縮小率は、縮小対象の構成要素毎に、優先度スコアに応じて任意に定めてもよい。   Note that the detected object corresponds to, for example, a person E1, a label E2, and a center line E4 as shown in the upper diagram of FIG. The information accompanying the detected objects includes the category, the inter-vehicle distance, and the size of each detected object. The priority score for each detected object is calculated by multiplying the associated information by a coefficient. Of course, by setting the coefficient of certain information to 0, some information may not be included in the calculation of the priority score. Further, the priority score of the displayed captured image CP2 may be calculated by the display control unit 50 using an arbitrary algorithm. For example, if the priority score of the displayed captured image CP2 is the highest score of the priority score of each detected object, the most driving assistance information elements can be reduced in step S5 of FIG. As a result, the arrangement area of the display captured image CP2 can be enlarged. However, if the highest score is given, there is a risk that even a component having a relatively high priority may be reduced. Therefore, it is preferable that the priority score of the display captured image CP2 is carefully determined so that the visibility is balanced in both the component to be reduced and the display captured image CP2, for example, the average value of the extracts. . Note that the reduction rate may be arbitrarily determined according to the priority score for each component to be reduced.

(第4の実施形態)
第4の実施形態では、「運転支援情報の構成要素(C1〜C3)及び撮像画像CP1に含まれる主要な構成要素(E1〜E4)」を対象として優先順位を付与しておき、撮像画像CP1から部分画像を抽出して表示撮像画像CP2を生成する際に、その優先順位も考慮に入れて抽出する領域(切り出す領域)を決定する。
(Fourth embodiment)
In the fourth embodiment, priority is given to “components (C1 to C3) of driving assistance information and main components (E1 to E4) included in the captured image CP1”, and the captured image CP1. When the partial image is extracted from the image and the display captured image CP2 is generated, the region to be extracted (region to be extracted) is determined in consideration of the priority order.

まず、図6を参照する。図6は、本発明に従うHUD装置の、第4の実施形態に対応する構成例を示す図である。構成は概ね図1と同じであるが、図6では、図1の構成に加えて、表示制御部50内に優先順位付与部53が設けられており、この点で図1とは異なる。その他の構成は、図1と同じである。なお、図6において、優先順位付与部53に入力される情報をわかり易くするために、太い点線で情報の流れを示している。   First, referring to FIG. FIG. 6 is a diagram showing a configuration example corresponding to the fourth embodiment of the HUD device according to the present invention. Although the configuration is generally the same as that in FIG. 1, in FIG. 6, a priority level assigning unit 53 is provided in the display control unit 50 in addition to the configuration in FIG. Other configurations are the same as those in FIG. In FIG. 6, the information flow is indicated by a thick dotted line for easy understanding of the information input to the priority level assigning unit 53.

次に、図7を参照する。図7(A)は、第4の実施形態におけるHUD装置の主要な動作手順を示すフロー図、図7(B)は、図7(A)のフロー図に対応した画像処理及び表示制御の例を示す図、図7(C)は、構成要素毎の優先順位の例を示す図である。なお、図7(B)では、図7(A)におけるステップS3、S4、S6、S7の各々に対応する画像例が示されている。また、図7(A)〜図7(C)において、前掲の図(図2、図3、図5)と共通する部分には同じ符号を付しており、図2〜図5について説明した事項は、図7においても適用され得る。   Reference is now made to FIG. FIG. 7A is a flowchart showing main operation procedures of the HUD device in the fourth embodiment, and FIG. 7B is an example of image processing and display control corresponding to the flowchart of FIG. 7A. FIG. 7C is a diagram showing an example of the priority order for each component. Note that FIG. 7B shows an image example corresponding to each of steps S3, S4, S6, and S7 in FIG. 7A. Further, in FIGS. 7A to 7C, the same reference numerals are given to the portions common to the above-described drawings (FIGS. 2, 3, and 5), and FIGS. The matter can also be applied in FIG.

図7(A)のステップS1、S2は、図3、図4、図5(A)のステップS1、S2と同じである。ステップS3において、図6の優先順位付与部53は、運転支援情報(C1〜C3)の各構成要素、及び撮像画像CP1の各構成要素(E1〜E4)に優先順位を付与する。優先順位の付与方法は、第3の実施形態で説明したものと同様である。優先順位の付与結果は、図7(C)のとおりである。構成要素C1が最も優先順位が高く、以下、E1、E2、C2、C3、E4、E3の順に優先順位が低下する。   Steps S1 and S2 in FIG. 7A are the same as steps S1 and S2 in FIGS. 3, 4, and 5A. In step S3, the priority level assigning unit 53 in FIG. 6 gives priority levels to the respective components of the driving support information (C1 to C3) and the respective components (E1 to E4) of the captured image CP1. The method of assigning priorities is the same as that described in the third embodiment. The result of assigning priorities is as shown in FIG. The component C1 has the highest priority, and the priority decreases in the order of E1, E2, C2, C3, E4, and E3.

ステップS4では、注視位置と各構成要素の優先順位とに基づき撮像画像を抽出し、これによって表示撮像画像CP3を生成する。   In step S4, a captured image is extracted based on the gaze position and the priority order of each component, thereby generating a display captured image CP3.

言い換えれば、表示撮像画像生成部56は、注視位置検出部52によって検出された複数の注視点の位置に基づいて複数の注視点を含むように注視領域を決定し、そして、優先順位付与部53によって付与された優先順位(図7(C))を参照して、撮像画像CP1の主要な構成要素(E1〜E4)の内の、優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように、撮像画像CP1から部分画像を抽出し、抽出された部分画像を表示撮像画像CP3として出力する。   In other words, the display captured image generation unit 56 determines the gaze area so as to include a plurality of gaze points based on the positions of the plurality of gaze points detected by the gaze position detection unit 52, and the priority level assigning unit 53. Referring to the priority order given by (FIG. 7C), so that at least one of the main constituent elements (E1 to E4) of the captured image CP1 with the higher priority order is included, and A partial image is extracted from the captured image CP1 so as to include the gaze region, and the extracted partial image is output as a display captured image CP3.

ここで、図7(B)のステップS4に対応する画像を参照する。乗員200は、道路上のみを見ており、左前方に出現した、道路に向かって移動する人E1には視線を向けていない。言い換えれば、乗員200は、人E1に気づいていない。この場合、第1〜第3の実施形態によれば、撮像画像CP1から抽出される部分画像は、乗員200の複数の注視位置情報により決定される。よって、表示撮像画像CP2が生成されるが、その表示撮像画像CP2には、注意を要する人E1が含まれないことになる。しかし、本実施形態の場合、人E1には、2番目に高い優先順位が付与されていることから(図7(C))、この優先順位も考慮されて、人E1を含むように部分画像が抽出され、よって、人E1が含まれる表示撮像画像CP3が生成される。   Here, the image corresponding to step S4 in FIG. 7B is referred to. The occupant 200 looks only on the road, and does not look at the person E1 who appears toward the left and moves toward the road. In other words, the passenger 200 is not aware of the person E1. In this case, according to the first to third embodiments, the partial image extracted from the captured image CP1 is determined by the plurality of gaze position information of the occupant 200. Therefore, although the display captured image CP2 is generated, the display captured image CP2 does not include the person E1 who needs attention. However, in the case of the present embodiment, since the second highest priority is assigned to the person E1 (FIG. 7C), this priority order is also taken into consideration and the partial image is included so as to include the person E1. Therefore, a display captured image CP3 including the person E1 is generated.

次に、ステップS5において、表示画像生成部58の優先順位付与部59が、生成された表示撮像画像CP3の優先順位を、ステップS3にて付与された優先順位に基づいて決定する。ここでは、表示撮像画像CP3の優先順位は、構成要素C1より低く、構成要素C2、C3よりも高い、言い換えれば、優先順位に関しては、C1>CP3>C2、C3の関係が成立するものとする。   Next, in step S5, the priority order assigning unit 59 of the display image generating unit 58 determines the priority order of the generated display captured image CP3 based on the priority order given in step S3. Here, the priority of the display captured image CP3 is lower than the component C1 and higher than the components C2 and C3. In other words, regarding the priority, the relationship of C1> CP3> C2, C3 is established. .

次に、ステップS6において、表示画像生成部58の画像サイズ変更部61が、運転支援情報の構成要素(C1〜C3)の内の、表示撮像画像CP3の優先順位よりも低い優先順位のもの(ここではC2、C3)のサイズを縮小する。なお、構成要素C1については、現状のサイズを維持する(図7(B)のステップS6に対応する画像参照)。   Next, in step S6, the image size changing unit 61 of the display image generating unit 58 has a priority lower than the priority of the display captured image CP3 among the components (C1 to C3) of the driving support information ( Here, the size of C2, C3) is reduced. Note that the current size of the component C1 is maintained (see the image corresponding to step S6 in FIG. 7B).

次に、ステップS7において、表示画像生成部58の画像合成部63が、表示撮像画像CP3を、表示画像エリアの内の、運転支援情報(C1〜C3)の未描画エリア(空エリア又は余白エリア)に配置し、これによって、最終的な表示画像HPを生成する。そして、ステップS8において、表示画像HPをHUD制御部70に出力する。   Next, in step S7, the image composition unit 63 of the display image generation unit 58 converts the display captured image CP3 into an undrawn area (empty area or blank area) of the driving support information (C1 to C3) in the display image area. ) To generate a final display image HP. In step S <b> 8, the display image HP is output to the HUD control unit 70.

このように、第4の実施形態では、「運転支援情報の構成要素(C1〜C3)及び撮像画像CP1に含まれる主要な構成要素(E1〜E4)」を対象として優先順位を付与しておき、撮像画像CP1から部分画像を抽出して表示撮像画像を生成する際に、その優先順位も考慮に入れて抽出する領域(切り出す領域)を決定し、これによって、表示撮像画像CP3を生成する。   As described above, in the fourth embodiment, priorities are given to “the components (C1 to C3) of the driving support information and the main components (E1 to E4) included in the captured image CP1” in advance. When a partial image is extracted from the captured image CP1 and a display captured image is generated, a region to be extracted (region to be extracted) is determined in consideration of the priority order, thereby generating a display captured image CP3.

第1の実施形態では、乗員200の注視領域のみに着目して抽出する領域を決定していることから、例えば、乗員200がぼんやりと運転していて、道路上へ飛び出そうとしている人E1に気づかず、その人には視線が向けられないといった状況(図7(B)のステップS4に対応する画像)では、その飛び出そうとしている人E1についての画像は、表示撮像画像CP2には含まれないことになり、よって、重要性の高い対象である人E1についての画像の表示ができない。   In the first embodiment, since the region to be extracted is determined by focusing only on the gazing region of the occupant 200, for example, to the person E1 who is driving dimly and is about to jump out onto the road In a situation where the person is not aware and the line of sight is not directed to the person (an image corresponding to step S4 in FIG. 7B), an image of the person E1 who is about to jump out is included in the display captured image CP2. Therefore, it is not possible to display an image of the person E1 who is a highly important object.

これに対して、第4の実施形態では、表示制御部50に新たに含まれる優先順位付与部53が、撮影手段(車載カメラ14)によって撮影された撮像画像CP1を分析し、主要な構成要素(E1〜E4)について優先順位を付与することから、上記の「飛び出そうとしている人E1」については確実に、高い優先順位(図7(C)では第2の優先順位)が付与されることになる。   On the other hand, in the fourth embodiment, the priority level assigning unit 53 newly included in the display control unit 50 analyzes the captured image CP1 captured by the imaging unit (the in-vehicle camera 14), and the main components Since priority is given to (E1 to E4), a high priority (second priority in FIG. 7C) is definitely given to the above-mentioned “person E1 who is about to jump out”. become.

よって、表示撮像画像を生成する際に、「優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように抽出する」ことによって、上記の「飛び出そうとしている人E1」も確実に表示撮像画像CP3に含まれることになる。従って、その表示撮像画像CP3(を含む表示画像HPの虚像V)によって乗員の注意を喚起して、事故を未然に防止するといったことが可能となる。言い換えれば、本実施形態によって、より有用性の高い、運転支援画像としての表示撮像画像CP3の提供が可能となる。   Therefore, when generating the display captured image, the above-mentioned “person E1 who is about to jump out” is extracted by “extracting so as to include at least those having higher priority and including a gaze area”. Is certainly included in the displayed captured image CP3. Therefore, it is possible to alert the occupant with the display captured image CP3 (including the virtual image V of the display image HP) and prevent an accident in advance. In other words, according to the present embodiment, it is possible to provide a display captured image CP3 as a driving assistance image that is more useful.

また、上述のとおり本実施形態では、「優先順位が上位であるものが少なくとも含まれるように、かつ注視領域が含まれるように部分画像を抽出する」という処理が行われることから、抽出された部分画像である表示撮像画像CP3のサイズが大きくなり易いと考えられる。そこで、本実施形態では、運転支援情報の構成要素(C1〜C3)の内の、表示撮像画像CP3の優先順位よりも低い優先順位のもの(C2、C3)を、縮小することで、未描画のエリア(余白エリア)を効果的に増大させる。よって、表示撮像画像CP3を配置するための、最小限度のサイズ以上のエリア(空スペース)を確実に確保することができる。   Further, as described above, in the present embodiment, the process of “extracting a partial image so as to include at least a higher priority and a gaze area” is performed. It is considered that the size of the display captured image CP3 that is a partial image tends to increase. Therefore, in the present embodiment, among the components (C1 to C3) of the driving support information, those having a lower priority order (C2, C3) than the priority order of the display captured image CP3 are reduced, so that no drawing is performed. The area (margin area) is effectively increased. Therefore, an area (empty space) larger than the minimum size for arranging the display captured image CP3 can be surely secured.

以上、本発明をいくつかの実施形態に基づいて説明したが、本発明はこれらに限定されるものではなく、種々、変形、応用が可能である。例えば、前掲の実施形態では、車載カメラにて前方の実景を撮像しているが、道路側のカメラが撮像した実景の画像や、運転支援システムのカメラが撮像した運転支援用の画像を車両に送信するようにしてもよく、この場合も、同様の効果を得ることができる。   As mentioned above, although this invention was demonstrated based on some embodiment, this invention is not limited to these, A various deformation | transformation and application are possible. For example, in the above-described embodiment, an in-vehicle camera images a front scene, but an image of a scene captured by a road-side camera or a driving assistance image captured by a camera of a driving assistance system is captured in a vehicle. In this case, the same effect can be obtained.

また、前掲の実施形態では、主として、道路を走行中の車両の前方(斜め、あるいは横方向を含む広い意味に解釈するのが好ましい)に注意するべき対象(道路に向かって移動する人等)が存在する例について説明したが、これに限定されるものではない。   Further, in the above-described embodiment, an object (such as a person moving toward the road) that should be noted mainly in front of the vehicle traveling on the road (preferably interpreted in a broad sense including diagonally or laterally). Although an example in which is present has been described, the present invention is not limited to this.

例えば、車両が後進(バック)している場合にも、本発明は適用可能である。例えば、乗員が車両をバックさせているときに、車両に搭載される車載カメラで後方を撮影(撮像)し、その画像を車両側で解析して、音声等によるナビゲーションを行う場合、HUD装置にも、ナビゲーション情報を表示する場合があり得る。   For example, the present invention can also be applied when the vehicle is moving backward (back). For example, when an occupant is backing a vehicle, the rear is photographed (captured) with an in-vehicle camera mounted on the vehicle, the image is analyzed on the vehicle side, and navigation by voice or the like is performed. In some cases, navigation information may be displayed.

後方を視認しながら車両を後方に移動させている最中に、乗員がHUD装置の表示を確認するべく、一瞬、前方の虚像を見るとき、後方の実景の視認はできない。しかし、本発明を用いると、HUD装置の虚像に、後方の実景画像(言い換えれば「表示撮像画像」)の虚像を含ませることができ、よって、乗員は、前を見た状態でも、HUD装置の虚像によって、後方の実景をほぼリアルタイムで確認することができ、よって、急な人の飛び出し等の不測の事態が生じたとしても、適切な対処が可能となる。このように、本発明は、種々の運転状況に対応して、幅広く利用することが可能である。   While the vehicle is moving backward while visually recognizing the rear, when the occupant sees the front virtual image for a moment in order to confirm the display of the HUD device, the rear real scene cannot be visually recognized. However, when the present invention is used, the virtual image of the HUD device can include a virtual image of a rear real scene image (in other words, a “displayed captured image”). With this virtual image, the rear real scene can be confirmed almost in real time, so that even if an unexpected situation such as a sudden jump out of a person occurs, an appropriate countermeasure can be taken. Thus, the present invention can be widely used in response to various operating situations.

本発明は、上述の例示的な実施形態に限定されず、また、当業者は、上述の例示的な実施形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。   The present invention is not limited to the above-described exemplary embodiments, and those skilled in the art will be able to easily modify the above-described exemplary embodiments to the extent included in the claims. .

1・・・車両、2・・・視点(目、瞳)、3・・・ウインドシールド(広義には、被投影部材)、4・・・投影領域、10・・・車載ECU、11・・・インストルメントパネル、14・・・車載カメラ、16・・・視線カメラ、18・・・生体情報測定部(脈拍計等)、30・・・視線検出部、32・・・視線方向検出部、34・・・視線ベクトル算出部、36・・・記憶部、40・・・撮像画像処理部、42・・・撮像画像解析部、44・・・記憶部、50・・・表示制御部、52・・・注視位置検出部、53・・・優先順位付与部、54・・・記憶部、56・・・表示撮像画像生成部、58・・・表示画像生成部、59・・・優先順位付与部、60・・・生体情報検出部、61・・・画像サイズ変更部、63・・・画像合成部、63・・・表示撮像画像生成部、63・・・画像合成部、65・・・虚像外注視検出部、70・・・画像表示部、70・・・HUD制御部、80・・・画像表示部、80・・・画像表示部、82・・・光学系、83・・・表示面、85・・・反射鏡、100・・・HUD装置、200・・・乗員、200・・・生体情報測定部、C0、C1・・・注意喚起マーク、C2・・・矢印マーク、C3・・・車速表示、CP1・・・撮像画像、CP2、CP3・・・表示撮像画像、E1・・・人、E2・・・標識、E3・・・木、E4・・・センターラインや道路端等、HP・・・表示画像、L・・・表示光、M・・・表示画像、V・・・虚像。   DESCRIPTION OF SYMBOLS 1 ... Vehicle, 2 ... Viewpoint (eyes, pupil), 3 ... Windshield (member to be projected in a broad sense), 4 ... Projection area, 10 ... In-vehicle ECU, 11 ... Instrument panel, 14 ... vehicle-mounted camera, 16 ... gaze camera, 18 ... biological information measurement unit (pulse meter, etc.), 30 ... gaze detection unit, 32 ... gaze direction detection unit, 34 ... gaze vector calculation unit, 36 ... storage unit, 40 ... captured image processing unit, 42 ... captured image analysis unit, 44 ... storage unit, 50 ... display control unit, 52 ... gaze position detection unit, 53 ... priority assignment unit, 54 ... storage unit, 56 ... display captured image generation unit, 58 ... display image generation unit, 59 ... priority assignment , 60... Biometric information detection unit, 61... Image size changing unit, 63. Display captured image generation unit, 63... Image composition unit, 65... Virtual image gaze detection unit, 70... Image display unit, 70. ... Image display unit, 82 ... Optical system, 83 ... Display surface, 85 ... Reflector, 100 ... HUD device, 200 ... Crew, 200 ... Biological information measuring unit, C0, C1 ... warning mark, C2 ... arrow mark, C3 ... vehicle speed display, CP1 ... captured image, CP2, CP3 ... displayed captured image, E1 ... human, E2,. -Sign, E3 ... Tree, E4 ... Center line, road edge, etc. HP ... Display image, L ... Display light, M ... Display image, V ... Virtual image.

Claims (7)

車両に搭載され、画像表示部の表示面に表示される表示画像を、前記車両に備わる被投影部材に投影することで、乗員に前記表示画像の虚像を視認させるヘッドアップディスプレイ装置であって、
前記乗員の視線を検出する視線検出部と、
前記車両の運行に関する運転支援情報と、前記車両の乗員が視認することが可能と予想される前記車両の周囲の実景を撮影手段で撮影して得られる撮像画像に基づいて生成される運転支援画像としての表示撮像画像と、に基づいて前記表示画像を生成する機能を有する表示制御部と、
を備え、
前記表示制御部は、
前記視線検出部により取得される視線情報と、前記撮影手段による撮影によって得られる前記撮像画像とに基づいて、前記撮像画像上における前記乗員の注視点の位置を検出する注視位置検出部と、
前記注視位置検出部によって検出された複数の注視点の位置に基づいて、前記複数の注視点を含むように注視領域を決定し、前記撮像画像から、前記注視領域を含む部分画像を抽出し、抽出された前記部分画像を前記表示撮像画像として出力する表示撮像画像生成部と、
前記表示画像に対応する表示画像エリアの内の、前記運転支援情報の未描画エリアに前記表示撮像画像を配置して前記表示画像を生成する表示画像生成部と、
を有することを特徴とするヘッドアップディスプレイ装置。
A head-up display device that causes a passenger to visually recognize a virtual image of the display image by projecting a display image mounted on the vehicle and displayed on a display surface of an image display unit onto a projection target member provided in the vehicle,
A line-of-sight detection unit for detecting the line of sight of the occupant;
Driving assistance image generated based on driving assistance information related to the operation of the vehicle and a captured image obtained by photographing a real scene around the vehicle that is expected to be visible to a passenger of the vehicle. A display control unit having a function of generating the display image based on the display captured image, and
With
The display control unit
A gaze position detection unit that detects the position of the gazing point of the occupant on the captured image based on the line-of-sight information acquired by the line-of-sight detection unit and the captured image obtained by imaging by the imaging unit;
Based on the positions of a plurality of gaze points detected by the gaze position detection unit, determine a gaze area so as to include the plurality of gaze points, and extract a partial image including the gaze area from the captured image, A display captured image generation unit that outputs the extracted partial image as the display captured image;
A display image generation unit that generates the display image by arranging the display captured image in an undrawn area of the driving support information in a display image area corresponding to the display image;
A head-up display device comprising:
少なくとも前記視線検出部の検出結果を用いることで、前記乗員の視線が、前記表示画像の虚像の外に向けられているか否かを判定する虚像外注視検出部を有し、
前記注視位置検出部は、前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像の外に向けられていると判定された場合に、前記乗員の注視点の位置を検出することを特徴とする請求項1に記載のヘッドアップディスプレイ装置。
By using at least the detection result of the line-of-sight detection unit, the occupant's line-of-sight has a virtual image external gaze detection unit that determines whether or not the line of sight of the occupant is directed outside the virtual image of the display image,
The gaze position detection unit detects the position of the occupant's gaze point when the virtual image gaze detection unit determines that the sight line of the occupant is directed outside the virtual image of the display image. The head-up display device according to claim 1.
少なくとも前記視線検出部の検出結果を用いることで、前記乗員の視線が、前記表示画像の虚像の外に向けられているか否か、又は、前記運転支援情報の虚像の外に向けられているか否かを判定する虚像外注視検出部を有し、
前記表示画像生成部は、
前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像に、又は前記運転支援情報の虚像に向けられていると判定された場合に、前記表示撮像画像を拡大又は現サイズを維持して前記運転支援情報の未描画エリアに配置し、
前記虚像外注視検出部によって前記乗員の視線が前記表示画像の虚像外に、又は前記運転支援情報の虚像外に向けられていると判定された場合に、前記表示撮像画像を縮小して前記運転支援情報の未描画エリアに配置する、又は前記表示撮像画像を非表示とすることを特徴とする請求項1に記載のヘッドアップディスプレイ装置。
Whether or not the sight line of the occupant is directed outside the virtual image of the display image or whether or not the virtual image of the driving support information is directed by using at least the detection result of the visual line detection unit A virtual image gaze detection unit for determining whether
The display image generation unit
When it is determined that the sight line of the occupant is directed to the virtual image of the display image or the virtual image of the driving support information, the display captured image is enlarged or maintained at the current size. Placed in the undrawn area of the driving support information,
When it is determined that the sight line of the occupant is directed outside the virtual image of the display image or outside the virtual image of the driving support information by the virtual image outside gaze detection unit, the display captured image is reduced and the driving is performed The head-up display device according to claim 1, wherein the head-up display device is arranged in an undrawn area of support information, or the display captured image is not displayed.
前記表示制御部は、前記運転支援情報の構成要素及び前記表示撮像画像を対象として、重要度に応じて優先順位を付与する優先順位付与部を有し、
前記表示画像生成部は、前記運転支援情報の構成要素の内の、前記表示撮像画像よりも優先順位が低い構成要素を縮小し、前記表示画像を前記運転支援情報の未描画エリアに配置することを特徴とする請求項1に記載のヘッドアップディスプレイ装置。
The display control unit includes a priority order assigning unit that assigns a priority order according to importance for the components of the driving support information and the display captured image.
The display image generation unit reduces a component having a lower priority than the display captured image among the components of the driving support information, and arranges the display image in an undrawn area of the driving support information. The head-up display device according to claim 1.
前記表示制御部は、前記運転支援情報の構成要素及び前記撮像画像に含まれる主要な構成要素を対象として、重要度に応じて優先順位を付与する優先順位付与部を有し、
前記表示撮像画像生成部は、前記注視位置検出部によって検出された複数の注視点の位置に基づいて前記複数の注視点を含むように注視領域を決定し、前記優先順位付与部によって付与された優先順位を参照して、前記撮像画像の主要な構成要素の内の、優先順位が上位であるものが少なくとも含まれるように、かつ前記注視領域が含まれるように、前記撮像画像から部分画像を抽出し、抽出された前記部分画像を前記表示撮像画像として出力することを特徴とする請求項1に記載のヘッドアップディスプレイ装置。
The display control unit includes a priority order assigning unit that assigns a priority order according to the importance for the main constituent elements included in the driving support information and the captured image,
The display captured image generation unit determines a gaze area so as to include the plurality of gaze points based on positions of the plurality of gaze points detected by the gaze position detection unit, and is given by the priority order giving unit Referring to the priority order, a partial image is extracted from the captured image so that at least one of the main constituent elements of the captured image has a higher priority order is included and the gaze area is included. The head-up display device according to claim 1, wherein the extracted partial image is output as the display captured image.
前記表示画像生成部は、前記優先順位付与部によって付与された前記優先順位に基づいて、前記表示撮像画像の優先順位を決定し、前記運転支援情報の構成要素の内の、前記表示撮像画像の優先順位よりも低い優先順位のものを縮小し、前記表示撮像画像を前記運転支援情報の未描画エリアに配置することを特徴とする請求項5に記載のヘッドアップディスプレイ装置。   The display image generation unit determines a priority order of the display captured image based on the priority order given by the priority order assigning unit, and includes the display captured image among the components of the driving support information. The head-up display device according to claim 5, wherein those having a priority lower than the priority are reduced, and the displayed captured image is arranged in an undrawn area of the driving support information. 前記乗員の生体情報を検出する生体情報検出部を有し、
前記虚像外注視検出部は、前記視線検出部の検出結果及び前記生体情報検出部の検出結果の少なくとも一方に基づいて、前記判定を行うことを特徴とする請求項2又は3に記載のヘッドアップディスプレイ装置。
A biological information detection unit for detecting the biological information of the occupant;
4. The head-up according to claim 2, wherein the virtual image extraneous gaze detection unit performs the determination based on at least one of a detection result of the visual line detection unit and a detection result of the biological information detection unit. Display device.
JP2017086990A 2017-04-26 2017-04-26 Head-up display device Pending JP2018185654A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017086990A JP2018185654A (en) 2017-04-26 2017-04-26 Head-up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017086990A JP2018185654A (en) 2017-04-26 2017-04-26 Head-up display device

Publications (1)

Publication Number Publication Date
JP2018185654A true JP2018185654A (en) 2018-11-22

Family

ID=64355864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017086990A Pending JP2018185654A (en) 2017-04-26 2017-04-26 Head-up display device

Country Status (1)

Country Link
JP (1) JP2018185654A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020170380A1 (en) * 2019-02-21 2020-08-27 三菱電機株式会社 Display control device and display control method
WO2021064791A1 (en) * 2019-09-30 2021-04-08 三菱電機株式会社 Image display device, display control device, display control method, program, and recording medium
CN112698719A (en) * 2019-10-23 2021-04-23 通用汽车环球科技运作有限责任公司 Method and apparatus for reformatting content of a human eye window
CN113837027A (en) * 2021-09-03 2021-12-24 东风柳州汽车有限公司 Driving assistance sensing method, device, equipment and storage medium
WO2022244673A1 (en) * 2021-05-19 2022-11-24 株式会社デンソー Display system for vehicle, display method for vehicle, and display program for vehicle
US20230249618A1 (en) * 2017-09-22 2023-08-10 Maxell, Ltd. Display system and display method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230249618A1 (en) * 2017-09-22 2023-08-10 Maxell, Ltd. Display system and display method
WO2020170380A1 (en) * 2019-02-21 2020-08-27 三菱電機株式会社 Display control device and display control method
JPWO2020170380A1 (en) * 2019-02-21 2021-05-20 三菱電機株式会社 Display control device and display control method
WO2021064791A1 (en) * 2019-09-30 2021-04-08 三菱電機株式会社 Image display device, display control device, display control method, program, and recording medium
CN112698719A (en) * 2019-10-23 2021-04-23 通用汽车环球科技运作有限责任公司 Method and apparatus for reformatting content of a human eye window
WO2022244673A1 (en) * 2021-05-19 2022-11-24 株式会社デンソー Display system for vehicle, display method for vehicle, and display program for vehicle
JP7428161B2 (en) 2021-05-19 2024-02-06 株式会社デンソー Vehicle display system, vehicle display method, and vehicle display program
CN113837027A (en) * 2021-09-03 2021-12-24 东风柳州汽车有限公司 Driving assistance sensing method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP2018185654A (en) Head-up display device
JP5866553B2 (en) Display control device, projection device, and display control program
US20230249618A1 (en) Display system and display method
US11250816B2 (en) Method, device and computer-readable storage medium with instructions for controlling a display of an augmented-reality head-up display device for a transportation vehicle
JP4970379B2 (en) Vehicle display device
JP5855206B1 (en) Transmission display device for vehicle
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
EP3043337A1 (en) Display control apparatus, projection apparatus, display control method, display control program, and non-transitory computer readable storage medium
JP2017167623A (en) Information display device, information display method, and program
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP7397918B2 (en) Video equipment
JP2021135933A (en) Display method, display device and display system
JP2015501440A (en) Especially display devices for automobiles
EP3012822A1 (en) Display control device, display control method, display control program, and projection device
JP2008162550A (en) External environment display device
JP6415968B2 (en) COMMUNICATION DEVICE, WARNING DEVICE, DISPLAY DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
US11768650B2 (en) Display control device, display system, and display control method for controlling display of information
US9857598B2 (en) Display control device, display control method, non-transitory recording medium, and projection device
JP7429875B2 (en) Display control device, display device, display control method, and program
JP6365879B2 (en) Display control device, display control method, display control program, and projection device
US20220324475A1 (en) Driving support device, moving apparatus, driving support method, and storage medium
JP2018041008A (en) Display device
JP2018041009A (en) Display device
WO2019142364A1 (en) Display control device, display control system, and display control method
JP2019029030A (en) Detector and output device