JP2022084266A - Display control device, display device, and image display control method - Google Patents

Display control device, display device, and image display control method Download PDF

Info

Publication number
JP2022084266A
JP2022084266A JP2020196009A JP2020196009A JP2022084266A JP 2022084266 A JP2022084266 A JP 2022084266A JP 2020196009 A JP2020196009 A JP 2020196009A JP 2020196009 A JP2020196009 A JP 2020196009A JP 2022084266 A JP2022084266 A JP 2022084266A
Authority
JP
Japan
Prior art keywords
image
display
occupant
emphasis
level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020196009A
Other languages
Japanese (ja)
Inventor
雅貴 片桐
Masaki Katagiri
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020196009A priority Critical patent/JP2022084266A/en
Publication of JP2022084266A publication Critical patent/JP2022084266A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Traffic Control Systems (AREA)

Abstract

To suppress and prevent an object to be visually recognized from becoming hardly visible due to the emphasis processing of a display image based on a gaze position.SOLUTION: When it is determined that an occupant is gazing a display image and that an object 300 to be viewed is nonexistent, or the object to be viewed exists and the display image does not obstruct the occupant viewing the object to be viewed, a control unit 140 of a display control device executes image emphasis processing control to raise the emphasis level of a portion of the display image within a first prescribed range, and lower the emphasis level of portions of the display image outside the range, with the gaze point of a vehicle as a reference. When it is determined that the occupant is gazing a display image A1b and that the object 300 to be viewed exists and the display image obstructs the occupant viewing the object to be viewed, the control unit 140 executes non-emphasis processing control to reduce the degree of obstruction to viewing the object 300 to be viewed or avoid the obstruction.SELECTED DRAWING: Figure 2

Description

本発明は、例えば自動車等の車両に搭載される表示制御装置、ヘッドアップディスプレイ(HUD)装置等の表示装置、及び画像の表示制御方法等に関する。 The present invention relates to a display control device mounted on a vehicle such as an automobile, a display device such as a head-up display (HUD) device, and an image display control method.

特許文献1には、視線検出結果に基づいて情報画像の重要度を判別し、その判別結果にしたがって、情報画像の強調レベルを変更するレベル制御部を備える画像表示装置が記載されている。 Patent Document 1 describes an image display device including a level control unit that determines the importance of an information image based on a line-of-sight detection result and changes the enhancement level of the information image according to the determination result.

特開2017-138350号公報(例えば、請求項1、2)JP-A-2017-138350 (for example, claims 1 and 2)

本発明者によって、下記(1)~(3)の課題が明らかとなった。
(1)例えば、表示している画像の奥側あるいは近傍に、要視認の物体(移動体、静止体を問わない)、要視認の人や動物、要視認の実景等(これらを総称して「要視認対象(あるいは要注目対象)」と称する)がある場合には、表示中の画像に強調表示処理を施す場合、要視認対象の視認の妨げにならないように配慮する必要がある。
(2)また、例えば運転者(視認者)は、例えば、表示画像の一部を見ているときもあれば、表示画像の他部を見ているときもあり、表示画像ではなく奥側の要視認対象物を見ている場合もあり、また、例えば路面を見ている場合もある。したがって、注視点(言い換えれば注視位置)を考慮した、適切な強調表示処理の制御を実施することが好ましい。
(3)また、近年、ウインドシールドを被投影部材として使用し、複数の表示コンテンツをかなり広い面積にわたって表示することも可能となってきており、各表示コンテンツを一律に一つの画像として取り扱った表示制御では、適切な対応ができない場合も想定され得る。
The present inventor has clarified the following problems (1) to (3).
(1) For example, an object requiring visual recognition (whether a moving body or a stationary body), a person or animal requiring visual recognition, a real scene requiring visual recognition, etc. (collectively referred to) in the back or vicinity of the displayed image. When there is an "object requiring visibility (or an object requiring attention)"), when highlighting the image being displayed, care must be taken not to interfere with the visibility of the object requiring visibility.
(2) Further, for example, the driver (viewer) may be looking at a part of the displayed image or the other part of the displayed image, and is not the displayed image but the back side. You may be looking at an object that needs to be seen, or you may be looking at the road surface, for example. Therefore, it is preferable to control the highlighting process appropriately in consideration of the gaze point (in other words, the gaze position).
(3) In recent years, it has become possible to display a plurality of display contents over a considerably wide area by using a windshield as a projected member, and each display content is uniformly treated as one image. In control, it can be assumed that appropriate measures cannot be taken.

上記の従来技術では、表示画像の奥側に、要視認対象がある場合を想定しておらず、したがって、上記の各課題についての対応策についても何ら開示がない。よって、現状の表示制御技術については改善の余地がある。このような新規な課題が、本発明者によって明らかとされた。 In the above-mentioned prior art, it is not assumed that there is a target to be visually recognized behind the displayed image, and therefore, there is no disclosure of countermeasures for each of the above-mentioned problems. Therefore, there is room for improvement in the current display control technology. Such a novel problem has been clarified by the present inventor.

本発明の目的の一つは、注視点(注視位置)に基づく表示画像の強調処理に起因して、要視認対象の視認が困難になることを抑制、防止することである。 One of the objects of the present invention is to suppress or prevent the difficulty in visually recognizing the object to be visually recognized due to the enhancement process of the displayed image based on the gazing point (gaze position).

本発明の他の目的は、以下に例示する態様及び最良の実行形態、並びに添付の図面を参照することによって、当業者に明らかになるであろう。 Other objects of the invention will be apparent to those skilled in the art by reference to the embodiments exemplified below and the best embodiments, as well as the accompanying drawings.

以下に、本発明の概要を容易に理解するために、本発明に従う態様を例示する。 Hereinafter, in order to easily understand the outline of the present invention, embodiments according to the present invention will be illustrated.

第1の態様において、表示制御装置は、
車両に搭載され、画像表示制御を行う表示制御装置であって、
前記車両の乗員の注視点の情報、及び前記車両の乗員が視認すべき要視認対象の情報に基づいて、表示画像の視認性を制御する制御部を有し、
前記制御部は、
前記乗員が表示画像を注視しており、かつ、前記要視認対象が無い、あるいは、前記要視認対象は存在するが、表示画像が、その要視認対象の前記乗員による視認の妨げとならないと判定される場合には、前記乗員の注視点を基準として第1の所定範囲内にある表示画像の強調レベルを上げる処理を含む画像強調処理制御を実施し、
前記乗員が表示画像を注視しており、前記要視認対象が存在し、かつ、表示画像が、その要視認対象の前記乗員による視認の妨げとなると判定される場合には、
前記強調レベルを上げる制御を実施しない、
又は、
前記強調レベルを上げる制御に代えて、強調レベルを下げる処理を実施する、
又は、
前記強調レベルを上げる処理がすでに開始されているときは、前記強調レベルを上げる処理を中断して、前記強調レベルを上げる処理で上昇した範囲内で、あるいは、前記強調レベルを上げる処理が開始される前の水準からさらに低くなるように、強調レベルを下げる、
ことによって、前記要視認対象についての視認の妨げの程度を軽減する、又は妨げを回避する非強調処理制御を実施する。
In the first aspect, the display control device is
A display control device that is mounted on a vehicle and controls image display.
It has a control unit that controls the visibility of the displayed image based on the information on the gaze point of the occupant of the vehicle and the information on the object to be visually recognized that the occupant of the vehicle should see.
The control unit
It is determined that the occupant is gazing at the displayed image and there is no visible object, or the visible object exists, but the displayed image does not interfere with the visual recognition of the visible object by the occupant. If this is the case, image enhancement processing control including processing for raising the enhancement level of the displayed image within the first predetermined range is performed with the gaze point of the occupant as a reference.
When the occupant is gazing at the displayed image, the visible object is present, and the displayed image is determined to interfere with the visual recognition by the occupant of the visible object.
Do not implement the control to raise the emphasis level,
Or,
Instead of the control for raising the emphasis level, a process for lowering the emphasis level is performed.
Or,
When the process of increasing the emphasis level has already been started, the process of increasing the emphasis level is interrupted, and the process of increasing the emphasis level is started within the range increased by the process of increasing the emphasis level or the process of increasing the emphasis level. Lower the emphasis level so that it is even lower than the previous level,
By doing so, the non-emphasis processing control for reducing the degree of obstruction of visual recognition of the object requiring visual recognition or avoiding the obstruction is implemented.

第1の態様によれば、例えば、乗員(視認者)が表示画像を見ているが、注視点から所定範囲に要視認対象(あるいは要視認対象物)がある場合には、画像強調よりも、その要視認対象の視認を優先させて、「非強調処理(言い換えれば視認容易化処理)」を実施する。これによって、乗員(運転者、視認者)は、要視認対象を、直接に、あるいは周辺視野で間接的に、確実に把握できるようになる。 According to the first aspect, for example, when an occupant (viewer) is looking at the displayed image, but there is a visual object (or an object) within a predetermined range from the gazing point, the image enhancement is performed. , Prioritize the visual recognition of the object to be visually recognized, and carry out the "non-emphasis processing (in other words, the visual facilitation processing)". As a result, the occupant (driver, visual observer) can surely grasp the object to be visually recognized directly or indirectly in the peripheral visual field.

これにより、画像強調処理が、障害物や要注意の人や物等の視認を妨げる一因となり得るという従来の問題が解消される。言い換えれば、障害物等を、乗員が見落とすことなく確認できるようになり、例えば安全な運行上、有益となる。 This solves the conventional problem that the image enhancement process can be one of the factors that hinder the visibility of obstacles, people requiring attention, objects, and the like. In other words, obstacles and the like can be confirmed without being overlooked by the occupants, which is beneficial for safe operation, for example.

また、要視認対象は、広義に解釈可能である。例えば、静止体や移動体等を含む障害物、人や動物、確認が必要な高速道路の降り口等の、重要な地図要素等を含めてもよい。 In addition, the object to be visually recognized can be interpreted in a broad sense. For example, important map elements such as obstacles including stationary objects and moving objects, people and animals, and exits of highways that require confirmation may be included.

また、非強調処理の態様としては、強調処理を実施しない(取りやめる)こと、又は、強調処理を実施せず、その代わりに強調レベルを下げること(例えば、表示画像の輝度を現状よりも下げること)、あるいは、すでに実施された強調処理を中断し、強調レベルを、すでに上昇した強調範囲内で下げること(上昇した強調レベルを元に戻す場合には強調処理の打ち消し処理が実施されたと等価とである)、もしくは、上昇した強調範囲を超えて、さらに強調レベルを下げる(例えば、表示画像の輝度を、現状レベルよりも下げる)ことを含むことができる。 Further, as a mode of non-enhancement processing, the enhancement processing is not performed (cancelled), or the enhancement processing is not performed and the enhancement level is lowered instead (for example, the brightness of the displayed image is lowered from the current state). ), Or suspending the already performed enhancement process and lowering the emphasis level within the already increased emphasis range (when restoring the increased emphasis level, it is equivalent to the cancellation process of the emphasis process being performed). It can also include further lowering the emphasis level (eg, lowering the brightness of the displayed image below the current level) beyond the increased enhancement range.

このような多様な非強調処理を設けることは、要視認対象を優先させた非強調処理という新たなモードを追加したのと同じであり、表示態様の豊富化や、運転状況に即した画像表示の実現にも貢献する。 Providing such various non-emphasis processing is the same as adding a new mode of non-emphasis processing that prioritizes the object to be visually recognized, and enriches the display mode and displays an image according to the driving situation. It also contributes to the realization of.

第1の態様に従属する第2の態様において、
前記制御部は、
前記乗員から見て、表示画像の奥側又は近傍に前記要視認対象が存在する場合には、その表示画像が、前記乗員による前記要視認対象の視認の妨げとなると判定してもよい。
In the second aspect, which is subordinate to the first aspect,
The control unit
When the visual object is present on the back side or in the vicinity of the displayed image when viewed from the occupant, it may be determined that the displayed image hinders the occupant from visually recognizing the visual object.

第2の態様では、乗員による前記要視認対象の視認の妨げとなる場合の典型例を示している。乗員が見ている表示画像の奥に要視認対象があるときは、表示画像が、要視認対象を隠す(視覚を遮る)働きをする可能性があり、よって、視認の妨げになると判定するのが好ましい。 The second aspect shows a typical example of a case where the occupant interferes with the visual recognition of the object to be visually recognized. When there is an object requiring visual recognition behind the display image that the occupant is looking at, the displayed image may act to hide the object requiring visual recognition (block the visual sense), and therefore it is determined that it interferes with visual perception. Is preferable.

また、乗員が見ている表示画像の近傍に要視認対象があるときも、例えば、表示画像の誘目性によって視線が表示画像に向かい、要注視対象の確認が遅れる可能性もあるため、視認の妨げになると判定するのが好ましい。 In addition, even when there is a visual object in the vicinity of the display image that the occupant is looking at, for example, the line of sight may be directed toward the display image due to the attractiveness of the display image, and the confirmation of the visual object may be delayed. It is preferable to determine that it is an obstacle.

第1又は第2の態様に従属する第3の態様において、
前記制御部は、
前記表示画像の輝度及び彩度の少なくとも一方を上昇/低下させる、及び、前記表示画像の大きさを拡大/縮小させる、の少なくとも一方によって、前記強調レベルを変更してもよい。
In the third aspect, which is subordinate to the first or second aspect,
The control unit
The enhancement level may be changed by increasing / decreasing at least one of the brightness and saturation of the displayed image and enlarging / reducing the size of the displayed image.

第3の態様では、画像の強調レベルの調整の好適例を示している。画像の輝度及び彩度の少なくとも一方の変更、あるいは、画像の大きさ(サイズ)の変更は、例えば、画像の奥側にある要視認対象を確認し易くするために有効である。例えば、輝度を低下させることで、その画像を通して奥側の要視認対象を確認し易くなる。また、画像サイズを縮小することにより、例えば奥側の要視認対象と画像とが、乗員(視認者)から見て平面視で重複しないようにすれば、要視認対象が画像に隠されることがなくなり、確認が容易となる。 The third aspect shows a preferred example of adjusting the enhancement level of an image. Changing at least one of the brightness and saturation of the image, or changing the size of the image, is effective, for example, in order to make it easier to confirm the object to be viewed at the back of the image. For example, by lowering the brightness, it becomes easier to confirm the object to be visually recognized on the back side through the image. Further, by reducing the image size, for example, if the visible object on the back side and the image do not overlap in a plan view from the viewpoint of the occupant (viewer), the visible object may be hidden in the image. It disappears and it becomes easy to confirm.

第1乃至第3の何れか1つの態様に従属する第4の態様において、
前記制御部は、
前記乗員が、
前記要視認対象を注視している場合、
又は、
前記車両が走行する道路の路面又は背景を注視している場合には
注視点を基準として第2の所定範囲内にある表示画像について前記非強調処理制御を実施する。
In the fourth aspect, which is subordinate to any one of the first to third aspects,
The control unit
The occupant
When gazing at the object to be visually recognized
Or,
When gazing at the road surface or background of the road on which the vehicle travels, the non-emphasis processing control is performed on the displayed image within the second predetermined range with reference to the gazing point.

第4の態様では、乗員が、表示画像以外を見ている場合でも、表示画像が要視認対象の目視に悪影響を与えていることもあり得ることから、所定範囲の画像については、非強調処を実施することとしている。 In the fourth aspect, even when the occupant is looking at something other than the displayed image, the displayed image may adversely affect the visual inspection of the object to be visually recognized. Therefore, the image in a predetermined range is not emphasized. Will be implemented.

一例として、乗員が、要視認対象(例えば気になる前方車両や、遠くに見える高速道路の降り口等)を見ている場合があげられる。この場合でも、表示画像がその要視認対象の目視の妨げとなっている場合も考えられる。この場合には、表示画像について非強調処理を実施することで、視界が改善されたり、表示画像への誘目が軽減されたりすることで、目視が容易化され得る。 As an example, there is a case where the occupant is looking at an object that requires visual recognition (for example, an anxious forward vehicle, an exit of a highway that can be seen in the distance, etc.). Even in this case, it is conceivable that the displayed image obstructs the visual inspection of the object to be visually recognized. In this case, by performing the non-emphasis processing on the displayed image, the visibility can be improved and the attraction to the displayed image can be reduced, so that the visual inspection can be facilitated.

他の例としては、乗員が、自車両が進行中の路面(あるいは背景(実景))を見ている場合があげられる。乗員は、路面(あるいは背景)の周囲の要視認対象を周辺視によって認知している可能性もあり、その周辺視による認知範囲付近で、表示画像に非強調処理を施して輝度を下げたり、大きさを削減したりすることで、周辺視による認知をより確実にできるという効果がある。 Another example is when the occupant is looking at the road surface (or background (actual view)) in which the vehicle is in progress. The occupant may be aware of the object to be visually recognized around the road surface (or background) by peripheral vision, and in the vicinity of the recognition range by peripheral vision, the displayed image may be unemphasized to reduce the brightness. By reducing the size, there is an effect that recognition by peripheral vision can be made more reliable.

第1乃至第4の何れか1つの態様に従属する第5の態様において、
前記制御部は、
表示画像の一部について、前記非強調処理制御を実施可能であってもよい。
In the fifth aspect, which is subordinate to any one of the first to fourth aspects,
The control unit
The non-enhancement processing control may be implemented for a part of the displayed image.

第5の態様では、非強調処理を実施するとき、画像の一部について非強調処理を行ってもよいことを示している。例えば、表示コンテンツとして、車速表示(表示A)、制限速度表示(表示B)、及びナビゲーション用矢印(表示C)の表示があるとする。これらを合わせて一つの表示画像とみることもできるが、第5の態様では、例えば、要視認対象の目視に最も大きく影響するのが表示Cである場合等には、その表示Cのみについて非強調処理を実施することも許容される。 In the fifth aspect, when the non-enhancement processing is performed, it is shown that the non-enhancement processing may be performed on a part of the image. For example, it is assumed that the display contents include a vehicle speed display (display A), a speed limit display (display B), and a navigation arrow (display C). These can be regarded as one display image in combination, but in the fifth aspect, for example, when the display C has the greatest effect on the visual inspection of the object to be visually recognized, only the display C is not displayed. It is also permissible to perform highlighting.

また、例えば、表示画像はナビゲーション用矢印(表示C)のみであるが、そのサイズが大きく、かつ、特に、ナビゲーション用矢印の背景の色が膨張色(白や赤等)であるような場合は、その背景の着色を削除する(言い換えれば、表示画像の一部を非強調化する)ことで、その奥の要視認対象を見る場合の視覚が改善される場合もある。 Further, for example, the display image is only the navigation arrow (display C), but the size is large, and in particular, when the background color of the navigation arrow is an expansion color (white, red, etc.). By removing the coloring of the background (in other words, deemphasizing a part of the displayed image), the visual sense when looking at the object to be visually recognized in the back may be improved.

このように、表示コンテンツ毎に非強調処理を行ってもよく、1つの表示画像(1つの表示コンテンツ)の中で、特に目立つものや、視覚を遮る範囲が大きいものを非強調処理の対象としてもよい。柔軟な非強調処理をすることで、表示中の画像の情報を損なわずに、奥側や近傍にある要視認対象の目視を容易化できる。 In this way, non-emphasis processing may be performed for each display content, and among one display image (one display content), one that is particularly conspicuous or has a large range of obstructing vision is targeted for non-emphasis processing. May be good. By performing the flexible non-enhancement processing, it is possible to facilitate the visual inspection of the object to be visually recognized on the back side or the vicinity without damaging the information of the image being displayed.

第1乃至第5の何れか1つの態様に従属する第6の態様において、
前記制御部は、
前記要視認対象の存在を示す要視認対象強調画像を表示してもよい。
In the sixth aspect, which is subordinate to any one of the first to fifth aspects,
The control unit
An image that emphasizes the object to be visually recognized may be displayed, indicating the existence of the object to be visually recognized.

第6の態様では、非強調処理に続いて(あるいは非強調処理と共に)、要視認対象に、例えば強調枠による強調表示を追加してもよい。これにより、乗員が、確実に要視認対象を目視し、確認することができる。よって、例えば、乗員が必要な安全回避動作を迅速にとることができる、といった効果が得られる。 In the sixth aspect, following the non-highlighting process (or together with the non-highlighting process), for example, highlighting by a highlighting frame may be added to the object to be visually recognized. As a result, the occupant can surely visually check and confirm the object to be visually recognized. Therefore, for example, an effect that the occupant can quickly take the necessary safety avoidance action can be obtained.

第1乃至第6の何れか1つの態様に従属する第7の態様において、
前記制御部は、
前記要視認対象についての注意喚起情報又は警告情報を音声又は表示によって報知してもよい。
In the seventh aspect, which is subordinate to any one of the first to sixth aspects,
The control unit
Attention information or warning information about the object to be visually recognized may be notified by voice or display.

第7の態様では、非強調処理に続いて(あるいは、非強調処理と共に)、注意喚起情報(警告情報)を音声又は表示によって報知してもよい。第6の態様の場合には、要視認対象強調画像の表示に続いて(あるいは、この表示と共に)上記の報知を行ってもよい。これにより、例えば、乗員が必要な安全回避動作を迅速にとることができる、といった効果が得られる。 In the seventh aspect, the alert information (warning information) may be notified by voice or display following the non-emphasis processing (or together with the non-emphasis processing). In the case of the sixth aspect, the above notification may be performed following (or together with this display) the display of the emphasized image requiring visual recognition. This has the effect that, for example, the occupant can quickly take the necessary safety avoidance action.

第1乃至第7の何れか1つの態様に従属する第8の態様において、
前記要視認対象は、要視認の物体(移動体、静止体を問わない)、要視認の人又は動物、及び要視認の実景の少なくとも1つであってもよい。
In the eighth aspect, which is subordinate to any one of the first to seventh aspects,
The visual object may be at least one of a visible object (whether a moving body or a stationary body), a visible person or animal, and a visible actual scene.

第8の態様では、要視認対象の具体例を例示している。「要視認の移動体」は、例えば、要注意の先行車両であり、「要視認の静止体」は、例えば前方の路面に落ちている段ボール箱等の障害物である。「要視認の人又は動物」は、前方の道路を横切ろうとしている人や動物である。「要視認の実景」は、例えば、高速道路の降り口や、目的地への道順の手がかりとなる看板等である。これらの要視認対象に対して、確認が容易となることで、安全上も有利となり、また、ナビゲーション機能の利便性も向上する。 In the eighth aspect, a specific example of the object to be visually recognized is illustrated. The "moving body requiring visibility" is, for example, a preceding vehicle requiring attention, and the "stationary body requiring visibility" is, for example, an obstacle such as a cardboard box falling on the road surface in front. A "person or animal requiring visibility" is a person or animal trying to cross the road ahead. The "real scene requiring visual recognition" is, for example, an exit of a highway, a signboard that serves as a clue to a destination, or the like. By facilitating confirmation of these objects requiring visual recognition, it is advantageous in terms of safety and the convenience of the navigation function is also improved.

第1乃至第8の何れか1つの態様に従属する第9の態様において、
前記制御部は、
前記表示画像が、前記要視認対象の前記乗員による視認の妨げとなると判定される場合の状況に応じて、前記非強調処理制御の態様を異ならせてもよい。
In the ninth aspect, which is subordinate to any one of the first to eighth aspects,
The control unit
The mode of the non-enhancement processing control may be different depending on the situation when it is determined that the displayed image interferes with the visual recognition by the occupant of the visual recognition target.

第9の態様では、状況に応じて、非強調処理の内容を異ならせることもできる。例えば、要視認対象の危険の程度によって、非強調処理の内容(例えば非強調のレベル、非強調処理の態様等)に差を設けてもよい。よって、現実に即した、適切な表示制御が実現される。 In the ninth aspect, the content of the non-emphasis processing may be different depending on the situation. For example, the content of the non-emphasis processing (for example, the level of the non-emphasis processing, the mode of the non-emphasis processing, etc.) may be different depending on the degree of danger of the object to be visually recognized. Therefore, an appropriate display control that matches the reality is realized.

第1乃至第9の何れか1つの態様に従属する第10の態様において、
前記制御部は、
路面に対して立った視覚を与える立像画像について前記非強調処理制御を実施した後、路面に重畳される視覚を与える路面重畳画像による表示に移行させてもよい。
In the tenth aspect, which is subordinate to any one of the first to ninth aspects,
The control unit
After performing the non-emphasis processing control on the standing image that gives the visual sense to the road surface, the display may be shifted to the display by the road surface superimposed image that gives the visual sense superimposed on the road surface.

第10の態様によれば、立像の画像に非強調処理を施して、その奥側(あるいは近傍)にある要視認対象の目視を容易化し、さらに、路面重畳表示によって、視界を遮らずに情報の提供を継続することができる。路面重畳表示によれば、視界が十分に確保されて、奥側にある要視認対象およびその周囲を確認できる。よって、安全運転上も有利となる。 According to the tenth aspect, the image of the standing image is deemphasized to facilitate the visual inspection of the object to be visually recognized behind (or in the vicinity of) the image, and the road surface superimposed display provides information without obstructing the view. Can continue to be provided. According to the road surface superimposition display, the visibility is sufficiently secured, and it is possible to confirm the object to be visually recognized and its surroundings on the back side. Therefore, it is also advantageous in terms of safe driving.

第11の態様において、表示装置は、
画像を生成する画像生成部と、
前記画像を表示する表示部と、
前記画像の表示光を反射して、前記被投影部材に投影する光学部材を含む光学系と、
第1乃至第10の何れか1つの態様に従属する表示制御装置と、
を有する。
In the eleventh aspect, the display device is
An image generator that generates an image, and an image generator
A display unit that displays the image and
An optical system including an optical member that reflects the display light of the image and projects it onto the projected member.
A display control device dependent on any one of the first to tenth aspects, and
Have.

第11の態様によれば、表示画像による情報提示のみならず、その奥側や近傍にある要視認対象にも配慮した、利便性や安全性にも優れた画像表示制御が可能となる。よって、例えば、実用性に富み、高機能であり、安全性にも十分に配慮された使い勝手のよいディスプレイ装置が実現される。 According to the eleventh aspect, it is possible to perform image display control excellent in convenience and safety, taking into consideration not only the information presentation by the displayed image but also the object to be visually recognized in the back side or the vicinity thereof. Therefore, for example, a display device that is highly practical, has high functionality, and is easy to use with sufficient consideration for safety is realized.

第11の態様に従属する第12の態様において、
前記表示装置は、画像の表示光を被投影部材に投影する光学部材を有するヘッドアップディスプレイ装置であてもよい。
In the twelfth aspect, which is subordinate to the eleventh aspect,
The display device may be a head-up display device having an optical member that projects the display light of an image onto the projected member.

第12の態様によれば、例えば、実用性に富み、高機能であり、安全性にも十分に配慮された使い勝手のよいヘッドアップディスプレイ(HUD)装置が実現される。 According to the twelfth aspect, for example, an easy-to-use head-up display (HUD) device that is highly practical, highly functional, and fully considered for safety is realized.

第13の態様において、画像の表示制御方法は、
画像の表示制御方法であって、
視認者の注視点の情報、及び視認者が視認すべき要視認対象の情報に基づいて、表示画像の視認性を制御すると共に、
前記視認者が表示画像を注視しており、かつ、前記要視認対象が無い、あるいは、前記要視認対象は存在するが、表示画像が、その要視認対象の前記視認者による視認の妨げとならないと判定される場合には、前記視認者の注視点を基準として第1の所定範囲内にある表示画像の強調レベルを上げ、前記第1の所定範囲外の表示画像の強調レベルを下げる画像強調処理制御を実施し、
前記視認者が表示画像を注視しており、前記要視認対象が存在し、かつ、表示画像が、その要視認対象の前記視認者による視認の妨げとなると判定される場合には、
前記強調レベルを上げる制御を実施しない、
又は、
前記強調レベルを上げる制御に代えて、強調レベルを下げる処理を実施する、
又は、
前記強調レベルを上げる処理がすでに開始されているときは、前記強調レベルを上げる処理を中断して、前記強調レベルを上げる処理で上昇した範囲内で、あるいは、前記強調レベルを上げる処理が開始される前の水準からさらに低くなるように、強調レベルを下げる、
ことによって、前記要視認対象についての視認の妨げの程度を軽減する、又は妨げを回避する非強調処理制御を実施する。
In the thirteenth aspect, the image display control method is
It is an image display control method.
The visibility of the displayed image is controlled and the visibility of the displayed image is controlled based on the information of the gaze point of the viewer and the information of the object to be visually recognized that the viewer should see.
The viewer is gazing at the displayed image, and the visual object is not present, or the visual object is present, but the displayed image does not interfere with the visual recognition of the visual object. If it is determined that, the enhancement level of the displayed image within the first predetermined range is increased with reference to the gaze point of the viewer, and the enhancement level of the displayed image outside the first predetermined range is decreased. Implement process control and
When the viewer is gazing at the displayed image, the target to be viewed exists, and the displayed image is determined to interfere with the visual recognition of the target to be viewed by the viewer.
Do not implement the control to raise the emphasis level,
Or,
Instead of the control for raising the emphasis level, a process for lowering the emphasis level is performed.
Or,
When the process of increasing the emphasis level has already been started, the process of increasing the emphasis level is interrupted, and the process of increasing the emphasis level is started within the range increased by the process of increasing the emphasis level or the process of increasing the emphasis level. Lower the emphasis level so that it is even lower than the previous level,
By doing so, the non-emphasis processing control for reducing the degree of obstruction of visual recognition of the object requiring visual recognition or avoiding the obstruction is implemented.

第12の態様によれば、非強調処理を導入することで、注視点(注視位置)に基づく表示画像の強調処理に起因して、要視認対象の視認が困難になることを抑制、防止することが可能となる。この画像制御方法は、HUD装置による表示制御の他、液晶ディスプレイ等の表示器の表示制御、あるいは、プロジェクタ等の投影表示装置にも適用可能である。 According to the twelfth aspect, by introducing the non-enhancement processing, it is possible to suppress and prevent the difficulty in visually recognizing the object to be visually recognized due to the enhancement processing of the displayed image based on the gazing point (gaze position). It becomes possible. This image control method can be applied not only to display control by a HUD device, but also to display control of a display device such as a liquid crystal display, or a projection display device such as a projector.

また、多様な非強調処理を設けることは、要視認対象を優先させた非強調処理という新たなモードを追加したのと同じであり、表示態様の豊富化や、運転状況に即した画像表示の実現にも貢献する。 In addition, providing various non-emphasis processing is the same as adding a new mode of non-emphasis processing that prioritizes the object to be visually recognized, and enriches the display mode and displays images according to the driving situation. It also contributes to the realization.

当業者は、例示した本発明に従う態様が、本発明の精神を逸脱することなく、さらに変更され得ることを容易に理解できるであろう。 Those skilled in the art will readily appreciate that the embodiments according to the invention exemplified may be further modified without departing from the spirit of the invention.

図1(A)は、HUD装置及び液晶パネル等のディスプレイを含む車載システム(車載表示システム)の構成の一例を示す図、図1(B)は、HUD装置による表示例を示す図である。FIG. 1A is a diagram showing an example of the configuration of an in-vehicle system (in-vehicle display system) including a display such as a HUD device and a liquid crystal panel, and FIG. 1B is a diagram showing a display example by the HUD device. 図2(A)~(C)は、非強調処理により輝度を低下させる場合の、視点位置に応じた画像の輝度調整の例を示す図である。2 (A) to 2 (C) are diagrams showing an example of adjusting the brightness of an image according to the viewpoint position when the brightness is lowered by non-enhancement processing. 図3(A)~(C)は、非強調処理により画像の大きさ(画像サイズ)を縮小する場合の、注視点に応じた画像の輝度調整の例を示す図である。3 (A) to 3 (C) are diagrams showing an example of adjusting the brightness of an image according to the gazing point when the size (image size) of the image is reduced by non-emphasis processing. 図4は、車載表示システムの構成の一例を示す図である。FIG. 4 is a diagram showing an example of the configuration of an in-vehicle display system. 図5は、制御部(表示制御装置)の制御手順の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the control procedure of the control unit (display control device). 図6(A)~(C)は、注視点に応じた強調処理を実施する場合(要視認対象無し)の表示画像の一例を示す図である。6 (A) to 6 (C) are views showing an example of a display image when the enhancement process according to the gazing point is performed (no visual object is required). 図7(A)~(C)は、注視点に応じた強調処理を実施する場合(要視認対象有りの場合)の表示画像の例を示す図である。7 (A) to 7 (C) are diagrams showing an example of a display image when the enhancement process according to the gazing point is performed (when there is a visual object to be visually recognized). 図8(A)、(B)は、図7に続いて実施される非強調処理の例を示す図である。8 (A) and 8 (B) are diagrams showing an example of the non-emphasis processing carried out following FIG. 7. 図9(A)~(C)は、乗員が要視認対象を見ているときの非強調処理の例を示す図である。9 (A) to 9 (C) are diagrams showing an example of non-emphasis processing when the occupant is looking at the object to be visually recognized. 図10(A)~(C)は、乗員が路面を見ているときの非強調処理の例を示す図である。10 (A) to 10 (C) are diagrams showing an example of non-emphasis processing when the occupant is looking at the road surface. 図11(A)~(D)は、非強調処理の応用例を示す図である。11 (A) to 11 (D) are diagrams showing an application example of the non-emphasis processing. 図12(A)~(C)は、画像の一部について非強調処理を行う例を示す図である。12 (A) to 12 (C) are diagrams showing an example of performing non-emphasis processing on a part of an image.

以下に説明する最良の実行形態は、本発明を容易に理解するために用いられている。従って、当業者は、本発明が、以下に説明される実行形態によって不当に限定されないことを留意すべきである。 The best embodiments described below have been used to facilitate understanding of the present invention. Accordingly, one of ordinary skill in the art should note that the invention is not unreasonably limited by the embodiments described below.

図1を参照する。図1(A)は、HUD装置及び液晶パネル等のディスプレイを含む車載システム(車載表示システム)の構成の一例を示す図、図1(B)は、HUD装置による表示例を示す図である。図1(A)の車載システムは、表示装置(表示器装置及びHUD装置の少なくとも一方を含む)を構成要素として含む。 See FIG. FIG. 1A is a diagram showing an example of the configuration of an in-vehicle system (in-vehicle display system) including a display such as a HUD device and a liquid crystal panel, and FIG. 1B is a diagram showing a display example by the HUD device. The vehicle-mounted system of FIG. 1A includes a display device (including at least one of a display device and a HUD device) as a component.

なお、図1(A)において、視認者の左右の目を結ぶ線分に沿う方向(言い換えれば車両1の幅方向)を左右方向(あるいは横方向)とし、左右方向に直交すると共に、地面又は地面に相当する面(ここでは路面6とする)に直交する線分に沿う方向を上下方向(あるいは高さ方向)とし、左右方向及び上下方向の各々に直交する線分に沿う方向(車両1の前進及び後退の向きを示す方向)を前後方向とする。左右方向はX方向、上下方向はY方向、前後方向はZ方向ということもできる。この点は、他の図面(図6~図11等)においても同様である。 In FIG. 1A, the direction along the line connecting the left and right eyes of the viewer (in other words, the width direction of the vehicle 1) is the left-right direction (or the lateral direction), and the direction is orthogonal to the left-right direction and the ground or the ground. The direction along the line perpendicular to the surface corresponding to the ground (here, the road surface 6) is the vertical direction (or the height direction), and the direction along the horizontal and vertical directions (vehicle 1). The direction indicating the direction of forward movement and backward movement) is the front-back direction. It can be said that the left-right direction is the X direction, the up-down direction is the Y direction, and the front-back direction is the Z direction. This point is the same in other drawings (FIGS. 6 to 11 and the like).

表示装置は、ここでは車両1に搭載される車載表示装置である。この車載表示装置は、表示器装置(制御部140、表示器制御部107及び液晶パネル等の表示器108を含む)、及び、ヘッドアップディスプレイ(HUD)装置100(制御部140、機器本体120を含む)の少なくとも一方を含む。図1の(A)の例では双方が、車両1に搭載されている。 The display device here is an in-vehicle display device mounted on the vehicle 1. This in-vehicle display device includes a display device (including a control unit 140, a display device control unit 107, and a display device 108 such as a liquid crystal panel), and a head-up display (HUD) device 100 (control unit 140, device main body 120). Includes at least one of). In the example of (A) of FIG. 1, both are mounted on the vehicle 1.

HUD装置100は、例えばダッシュボード41内に設置されている。機器本体120は、液晶パネル等の表示器120と、表示面164を備えるスクリーン(表示部)160と、光の反射面179を備える曲面ミラー(凹面鏡等)170と、を有する。曲面ミラー(凹面鏡等)170は、スクリーン160からの光を反射し、表示光Kを、車両1に備わるウインドシールド(被投影部材)2に投影(投射)する。ウインドシールド(被投影部材)2では表示光Kの一部が反射されて視認者(運転者等)の視点(目)Aに入射され、各入射光に対応する見かけ上の光E1~E3が、視認者の前方の結像点に結像することで、虚像表示面PS上に虚像(画像)が表示される。なお、虚像表示面9は、スクリーン160における表示面164に対応して、乗員(運転者等の視認者)の前方の実空間に設定される仮想的な(見かけ上の)面である。 The HUD device 100 is installed in, for example, the dashboard 41. The device main body 120 includes a display 120 such as a liquid crystal panel, a screen (display unit) 160 having a display surface 164, and a curved mirror (concave mirror or the like) 170 having a light reflecting surface 179. The curved mirror (concave mirror or the like) 170 reflects the light from the screen 160 and projects (projects) the display light K onto the windshield (projected member) 2 provided in the vehicle 1. In the windshield (projected member) 2, a part of the display light K is reflected and incident on the viewpoint (eye) A of the viewer (driver, etc.), and the apparent lights E1 to E3 corresponding to each incident light are emitted. By forming an image at the image formation point in front of the viewer, a virtual image (image) is displayed on the virtual image display surface PS. The virtual image display surface 9 is a virtual (apparent) surface set in the real space in front of the occupant (viewer such as a driver) corresponding to the display surface 164 on the screen 160.

また、虚像表示面9としては、例えば、路面6に垂直な立面a、路面6に対して傾斜した傾斜面b及びc、路面6に重畳される路面重畳面d、乗員(視認者)に近い側が立面(疑似立面を含む)であり、遠い側が傾斜面となっている面e等がある。立面aを除く他の面を用いた表示では、虚像表示面上での表示位置に応じて虚像の表示距離が異なり、よって3D表示が可能である。 Further, as the virtual image display surface 9, for example, an elevation surface a perpendicular to the road surface 6, inclined surfaces b and c inclined with respect to the road surface 6, a road surface overlapping surface d superimposed on the road surface 6, and an occupant (viewer). There is a surface e or the like in which the near side is an elevation surface (including a pseudo elevation surface) and the far side is an inclined surface. In the display using the surface other than the elevation a, the display distance of the virtual image differs depending on the display position on the virtual image display surface, so that 3D display is possible.

なお、上記のHUD装置の構成は一例であり、本発明は、レンチキュラレンズ等を用いた3DHUD装置や、視差式3DHUD装置等、種々のHUD装置にも適用できる。HUD装置の種類は問わない。また、本発明は、表示器(液晶パネル等108を用いてAR表示を行う場合にも適用が可能である。 The configuration of the above-mentioned HUD device is an example, and the present invention can be applied to various HUD devices such as a 3DHUD device using a lenticular lens and a parallax type 3D HUD device. The type of HUD device does not matter. The present invention can also be applied to the case where AR display is performed using a display (liquid crystal panel or the like 108).

図1(B)を参照する。図1(B)において、図1(A)と共通する部分には同じ参照符号が付されている。図1(B)の運転シーンでは、車両(自車両)1は、直線状の道路(路面6)を走行中であり、注意すべき前方車両や障害物等はない状態である。乗員である運転者(視認者)5の前方には、虚像表示面(例えば、図1(A)の虚像表示面a)上に設定されるHUD表示領域3において、車速表示202、制限速度表示204、及びナビゲーション表示206を含む、複数の表示コンテンツについての画像(虚像)7が表示されている。本発明では、表示されている画像7について、注視点に応じた「強調処理」、ならびに障害物等の要視認対象の存在に基づく「非強調処理」が実施されるが、その詳細については後述する。 See FIG. 1 (B). In FIG. 1 (B), the same reference numerals are given to the portions common to those in FIG. 1 (A). In the driving scene of FIG. 1B, the vehicle (own vehicle) 1 is traveling on a straight road (road surface 6), and there are no vehicles in front or obstacles to be noted. In front of the driver (viewer) 5 who is an occupant, the vehicle speed display 202 and the speed limit display are displayed in the HUD display area 3 set on the virtual image display surface (for example, the virtual image display surface a in FIG. 1A). Images (virtual images) 7 for a plurality of display contents including 204 and the navigation display 206 are displayed. In the present invention, the displayed image 7 is subjected to "enhancement processing" according to the gazing point and "non-emphasis processing" based on the existence of an object requiring visual recognition such as an obstacle, and the details thereof will be described later. do.

図2を参照する。図2(A)~(C)は、非強調処理により輝度を低下させる場合の、視点位置に応じた画像の輝度調整の例を示す図である。図2(A)では、破線で示される3つの四角形(矩形)A1b、A2b、A3bが示されているが、各四角形が1つの表示コンテンツについての画像(虚像)を示している。 See FIG. 2 (A) to 2 (C) are diagrams showing an example of adjusting the brightness of an image according to the viewpoint position when the brightness is lowered by non-enhancement processing. In FIG. 2A, three quadrangles (rectangles) A1b, A2b, and A3b shown by broken lines are shown, and each quadrangle shows an image (virtual image) for one display content.

乗員(視認者)5の注視点PSを中心(基準)とした所定範囲が、それらの画像(虚像)A1b、A2b、A3bと、乗員5から見た平面視で重複したとすると、その表示画像が乗員5の実景の目視に悪影響を与える可能性がある。但し、図1(A)では、重複はないため、各画像(虚像)は、通常の輝度レベル(輝度値L0)で表示されている。 Assuming that the predetermined range centered (reference) on the gazing point PS of the occupant (viewer) 5 overlaps with those images (virtual images) A1b, A2b, A3b in the plan view seen from the occupant 5, the displayed image. May adversely affect the visual inspection of the actual scene of the occupant 5. However, in FIG. 1A, since there is no overlap, each image (virtual image) is displayed at a normal luminance level (luminance value L0).

図2(B)では、注視点PSが画像(虚像)A1bの一部と重複する。これによって、画像(虚像)A1bが、注視点PSを基準とする所定範囲内に入る。制御部140は、その画像(虚像)A1bを、他の2つの画像(虚像)A2b、A3bから、より区別し易いようにするために、画像(虚像)A1bの輝度をL1(>L0)に上昇させる。これによって、画像(虚像)の強調処理(輝度による強調処理)が実施される。 In FIG. 2B, the gazing point PS overlaps with a part of the image (virtual image) A1b. As a result, the image (virtual image) A1b falls within a predetermined range with respect to the gazing point PS. The control unit 140 sets the brightness of the image (virtual image) A1b to L1 (> L0) in order to make it easier to distinguish the image (virtual image) A1b from the other two images (virtual image) A2b and A3b. Raise it. As a result, the image (virtual image) enhancement process (enhancement process by luminance) is performed.

図2(C)を参照する。図2(C)では、画像(虚像)A1bの奥側(又は近傍)に、路上に落ちている箱状物(例えば段ボール:広義には障害物300)が存在する。この障害物300は、車両1の安全運転に影響を及ぼすため、乗員(視認者)5は、その障害物300を視認(確認等)する必要がある。 See FIG. 2 (C). In FIG. 2C, there is a box-shaped object (for example, corrugated cardboard: an obstacle 300 in a broad sense) falling on the road behind (or near) the image (virtual image) A1b. Since the obstacle 300 affects the safe driving of the vehicle 1, the occupant (viewer) 5 needs to visually recognize (confirm, etc.) the obstacle 300.

言い換えれば、その障害物300は、「要視認対象」(あるいは、「要注視対象、又は「要注目対象」)ということができる。なお、「要視認対象」は、障害物のみならず、例えば注意を要する前方車両や、高速道路の降り口(出口)等の地図要素であってもよい。これらは、乗員(視認者)5から見て、先方に見える対象物であるため、「先方対象物」と総称することもできる。なお、例えば、後方撮像カメラで後方車両を撮像し、その画像を虚像としてHUD表示領域3内で表示する場合でも、その後方車両の虚像は、乗員5から見て先方にあるため、先方対象物とすることができる。 In other words, the obstacle 300 can be said to be a "target to be viewed" (or a "target to be watched" or a "target to be watched"). The "object to be visually recognized" may be not only an obstacle but also a map element such as a vehicle in front that requires attention or an exit (exit) of an expressway. Since these are objects that can be seen by the occupant (viewer) 5, they can also be collectively referred to as "objects of the other party". For example, even when a rear vehicle is imaged by a rear image camera and the image is displayed as a virtual image in the HUD display area 3, the virtual image of the rear vehicle is on the other side when viewed from the occupant 5, so that the object on the other side is the object. Can be.

図2(C)の状況において、強調処理を実施すると、その強調処理の結果として障害物300の目視が困難となる等の弊害が生じるおそれがある。そこで、図2(C)では、制御部140は、「非強調処理」を実施する。 If the enhancement process is performed in the situation of FIG. 2C, there is a possibility that the obstacle 300 may be difficult to see as a result of the enhancement process. Therefore, in FIG. 2C, the control unit 140 performs “non-emphasis processing”.

言い換えれば、乗員5が表示画像A1bを注視しており、要視認対象300が存在し、かつ、表示画像A1bが、その要視認対象300の乗員5による視認の妨げとなる(少なくとも、そのおそれがある)と判定される場合には、制御部140は、強調レベル(ここでは輝度)を上げる制御を実施しない、又は、強調レベルを上げる制御に代えて、強調レベルを下げる処理を実施する、又は、強調レベルを上げる処理がすでに開始されているときは、強調レベルを上げる処理を中断して、強調レベルを上げる処理で上昇した範囲内で、あるいは、強調レベルを上げる処理が開始される前の水準からさらに低くなるように、強調レベルを下げるという処理が実施される。これによって、要視認対象300についての視認の妨げの程度が軽減され、あるいは、妨げを回避することができる。このような表示制御動作を、非強調処理制御と称する。 In other words, the occupant 5 is gazing at the display image A1b, the visibility target 300 exists, and the display image A1b interferes with the visibility of the display target 300 by the occupant 5 (at least, there is a possibility of that). If it is determined that there is), the control unit 140 does not perform the control to raise the emphasis level (here, the brightness), or instead of the control to raise the emphasis level, performs a process of lowering the emphasis level, or , If the process of increasing the emphasis level has already started, the process of increasing the emphasis level is interrupted, within the range increased by the process of increasing the emphasis level, or before the process of increasing the emphasis level is started. The process of lowering the emphasis level is carried out so that the level is even lower than the level. As a result, the degree of obstruction of visual recognition of the object to be visually recognized 300 can be reduced or can be avoided. Such a display control operation is referred to as non-emphasis processing control.

この非強調処理制御が実施された結果として、画像(虚像)A1bの輝度は、輝度値L2に調整される。輝度値L2は、L0≦L2<L1又はL2<L0を満足する値に調整される。これによって、乗員5が、障害物300を容易に視認(目視)できるようになる。よって、例えばハンドル操作によって障害物300を回避するといった動作を迅速にとることが可能となる。 As a result of performing this non-enhancement processing control, the luminance of the image (virtual image) A1b is adjusted to the luminance value L2. The luminance value L2 is adjusted to a value that satisfies L0 ≦ L2 <L1 or L2 <L0. As a result, the occupant 5 can easily see (visually) the obstacle 300. Therefore, for example, it is possible to quickly take an action such as avoiding the obstacle 300 by operating the steering wheel.

次に、図3を参照する。図3(A)~(C)は、非強調処理により画像の大きさ(画像サイズ)を縮小する場合の、注視点に応じた画像の輝度調整の例を示す図である。図3では、強調(非強調)の対象が、輝度ではなく「画像の大きさ」である。画像サイズの拡大は画像を強調することであり、画像サイズの縮小は画像を非強調することである。 Next, refer to FIG. 3 (A) to 3 (C) are diagrams showing an example of adjusting the brightness of an image according to the gazing point when the size (image size) of the image is reduced by non-emphasis processing. In FIG. 3, the object of emphasis (non-emphasis) is not the brightness but the “image size”. Increasing the image size is to emphasize the image, and reducing the image size is to deemphasize the image.

図3(A)は、図2(A)と同じである。図3(B)では、注視点PSと重複する画像(虚像)A3bの大きさ(サイズ)が大型化し、これによって強調処理がなされる。 FIG. 3A is the same as FIG. 2A. In FIG. 3B, the size (size) of the image (virtual image) A3b overlapping with the gazing point PS is increased, and the enhancement process is performed by this.

図3(C)では、障害物300が、画像(虚像)A3bに重複している。そこで、画像サイズが縮小される。図3(C)では、一例として、画像サイズが、元の画像サイズ(図3(A)における画像A3bのサイズ)よりも縮小されている。この非強調処理によって、障害物300を目視することを妨げる画像がなくなり、乗員5の、障害物300の目視が容易化される。なお、図2、図3の例は概要を示すものであり、具体的な例については、図6~図12に示す。 In FIG. 3C, the obstacle 300 overlaps with the image (virtual image) A3b. Therefore, the image size is reduced. In FIG. 3C, as an example, the image size is smaller than the original image size (the size of the image A3b in FIG. 3A). This non-enhancement process eliminates the image that hinders the visual inspection of the obstacle 300, and facilitates the visual inspection of the obstacle 300 by the occupant 5. The examples of FIGS. 2 and 3 show an outline, and specific examples are shown in FIGS. 6 to 12.

次に、図4を参照する。図4は、車載表示システムの構成の一例を示す図である。車載表示システムは、瞳撮像カメラ50と、視線(又は視線方向)検出部51と、視点移動検出部52と、注視位置(注視点)検出部53と、前方撮像カメラ(又は周囲撮像カメラ:具体的には例えば可視光カメラ)54と、先方対象物(要注視対象を含む)を検出する先方対象物検出部(画像処理部)55と、先方対象物55までの距離を例えば三角測量の原理を用いて検出する距離測定部(画像処理部)56と、HUD装置100と、を含む。 Next, refer to FIG. FIG. 4 is a diagram showing an example of the configuration of an in-vehicle display system. The in-vehicle display system includes a pupil image pickup camera 50, a line-of-sight (or line-of-sight direction) detection unit 51, a viewpoint movement detection unit 52, a gaze position (gaze point) detection unit 53, and a front image pickup camera (or surrounding image pickup camera: concrete). For example, the distance between the destination object detection unit (image processing unit) 55 that detects the destination object (including the object to be watched) and the destination object 55, for example, the principle of triangulation. Includes a distance measuring unit (image processing unit) 56 for detecting using the HUD device 100, and a HUD device 100.

なお、前方撮像カメラ(周囲撮像カメラ)としては、可視光カメラの他、なお、赤外線カメラやLIDARを用いてもよい。あるいは、複数の検出手段を用いることで、障害物等をより高精度に検出できるようにしてもよい。 As the front image pickup camera (peripheral image pickup camera), an infrared camera or LIDAR may be used in addition to the visible light camera. Alternatively, by using a plurality of detection means, obstacles and the like may be detected with higher accuracy.

HUD装置100は、情報取得部70と、制御部140と、制御インタフェース(制御I/F)88と、を有する。情報取得部70は、注視位置検出部53、先方対象物検出部55、距離検出部(画像処理部)56、ECU60、通信部62等から各種の情報を取得する。取得された情報は、制御部140に提供(供給)される。 The HUD device 100 includes an information acquisition unit 70, a control unit 140, and a control interface (control I / F) 88. The information acquisition unit 70 acquires various information from the gaze position detection unit 53, the destination object detection unit 55, the distance detection unit (image processing unit) 56, the ECU 60, the communication unit 62, and the like. The acquired information is provided (supplied) to the control unit 140.

制御部140は、注視点の位置情報から乗員が注視している対象を判定する注視判定部72と、要視認対象の有無、種類等を判定する要視認対象判定部74と、要視認対象が表示画像の奥側にあるか、又は近傍にあるか等を判定する、表示画像と要視認対象の位置関係判定部76と、上記の判定や検出の結果に基づいて強調レベル及び非強調レベルを決定する強調レベル/非強調レベル決定部78と、視認性(輝度/大きさ等)制御部80と、必要に応じて設けられる表示態様変更部(例えば、画像の形状や模様の変更ができ、また、立像表示を路面重畳表示に変更する等の機能(図11(C)、(D)参照)も併せ持つ)82と、画像生成部84(画像合成部86を含む)と、を含む。 The control unit 140 includes a gaze determination unit 72 that determines an object that the occupant is gazing at from the position information of the gaze point, a visibility target determination unit 74 that determines the presence / absence, type, etc. of the visibility target, and the visibility target. The emphasis level and the non-emphasis level are determined based on the positional relationship determination unit 76 between the display image and the object to be visually recognized, which determines whether the display image is behind or near the display image, and the result of the above determination or detection. The emphasis level / non-emphasis level determination unit 78 to be determined, the visibility (brightness / size, etc.) control unit 80, and the display mode change unit (for example, the shape and pattern of the image can be changed) provided as needed. It also includes a function (see FIGS. 11C and 11D) 82 for changing the standing image display to a road surface superimposition display, and an image generation unit 84 (including an image composition unit 86).

なお、強調レベル/非強調レベル決定部78は、例えば、乗員が表示画像を見ており、かつ要視認対象がないときは、注視点から所定範囲内の画像に施すべき強調処理のレベルを決定する。また、乗員が表示画像を見ており、かつ表示画像の奥側又は近傍に要視認対象が存在するときは、その表示画像が、乗員による要視認対象の視認の妨げとなると判定し、その状況に応じた非強調処理のレベルを決定する。 The emphasis level / non-enhancement level determination unit 78 determines, for example, the level of enhancement processing to be applied to an image within a predetermined range from the gazing point when the occupant is looking at the displayed image and there is no object to be visually recognized. do. In addition, when the occupant is looking at the displayed image and there is a visible object in the back or near the displayed image, it is determined that the displayed image hinders the occupant from visually recognizing the visible object. Determine the level of non-emphasis processing according to.

また、視認性(輝度/大きさ等)制御部80は、要視認対象についての強調表示の有無や、視覚や音声による注意喚起の要否等を判定する機能も併せ持つ。要視認対象についての強調表示や注意喚起表示を行う場合は、その旨を、制御インタフェース(制御I/F)88に通知する。 In addition, the visibility (brightness / size, etc.) control unit 80 also has a function of determining the presence / absence of highlighting of the object to be visually recognized, the necessity of alerting by sight or voice, and the like. When highlighting or alerting the object to be visually recognized is to be displayed, the control interface (control I / F) 88 is notified to that effect.

画像生成部84の出力は、制御インタフェース(制御I/F)88を経由して、HUD装置100内の表示器150(図1(A)も参照)に供給される。また、制御インタフェース(制御I/F88)は、要視認対象についての音声による警告(注意喚起)が行われる場合には、スピーカ170の駆動信号を出力して音声による報知を行わせる。 The output of the image generation unit 84 is supplied to the display 150 (see also FIG. 1A) in the HUD device 100 via the control interface (control I / F) 88. Further, the control interface (control I / F88) outputs a drive signal of the speaker 170 to give a voice notification when a voice warning (warning) about the object to be visually recognized is given.

次に、図5を参照する。図5は、制御部(表示制御装置)の制御手順の一例を示すフローチャートである。なお、以下の手順は一例であり、これに限定されるものではない。 Next, refer to FIG. FIG. 5 is a flowchart showing an example of the control procedure of the control unit (display control device). The following procedure is an example and is not limited to this.

制御部140(制御部140を含む表示制御装置)は、視線検出部51から視線情報を取得する。視線情報は、乗員の注視点の位置を示す情報を含む。 The control unit 140 (display control device including the control unit 140) acquires line-of-sight information from the line-of-sight detection unit 51. The line-of-sight information includes information indicating the position of the occupant's gaze point.

次に、ステップS2において、前方撮像カメラ(例えば可視光カメラ)54から障害物を含む先方対象物の情報(先方対象物情報)を取得する。先方対象物情報は、先方対象物の種類、位置、大きさ、あるいは、先方対象物が障害物であるときは、接触した際の自車両1への被害などの情報である。 Next, in step S2, the information of the destination object including the obstacle (the destination object information) is acquired from the front image pickup camera (for example, the visible light camera) 54. The destination object information is information such as the type, position, and size of the destination object, or, when the destination object is an obstacle, damage to the own vehicle 1 when the destination object comes into contact with the object.

以下のステップの説明では、先方対象物が障害物であるとし、先方対象物情報は障害物情報であるとして説明する。 In the description of the following steps, it is assumed that the destination object is an obstacle and the destination object information is obstacle information.

障害物は、車両1の走行の障害になり得るものであり、路面6上の落下物や路面の凹凸等が該当する。例えば注意を要する先行車両等があるときは、その先方車両は障害物となり得る。 The obstacle can be an obstacle to the running of the vehicle 1, and corresponds to a falling object on the road surface 6, unevenness of the road surface, or the like. For example, when there is a preceding vehicle that requires attention, the vehicle ahead can be an obstacle.

次に、ステップS3において、乗員がヘッドアップディスプレイ(HUD)装置100により表示された画像を注視しているか否か判定する。結果がYesとなった場合にはステップS4に移行する。Noとなった場合にはステップS11以降の処理フローが実行される。 Next, in step S3, it is determined whether or not the occupant is gazing at the image displayed by the head-up display (HUD) device 100. If the result is Yes, the process proceeds to step S4. If No, the processing flow after step S11 is executed.

ステップS4は、ステップS3において判定結果がYesとなった場合に実行される。ステップS4において、注視点から所定範囲(あるいは一定範囲)内の画像の強調レベルを上げる。所定範囲(一定範囲)は、広義に解釈され、多様な応用を含む。例えば、複数の表示コンテンツの画像があるとき、各コンテンツの画像毎に強調/非強調を決定する場合は、その強調/非強調の対象となるコンテンツの画像が占めている領域が、所定範囲となる。 Step S4 is executed when the determination result is Yes in step S3. In step S4, the enhancement level of the image within a predetermined range (or a certain range) from the gazing point is increased. A predetermined range (certain range) is broadly interpreted and includes various applications. For example, when there are images of a plurality of display contents and the emphasis / non-emphasis is determined for each image of each content, the area occupied by the image of the content to be emphasized / non-emphasis is defined as a predetermined range. Become.

強調レベルは、例えば輝度や彩度のレベルである。強調レベルを上げることで、乗員が注視している画像の内容を認識しやすくなる。 The enhancement level is, for example, the level of luminance or saturation. Increasing the emphasis level makes it easier for the occupant to recognize the content of the image being watched.

次に、ステップS5において、注視点から一定範囲外の画像の強調レベルを下げる。強調レベルを下げることで、乗員が注視していない画像の奥側にある路面状態や障害物等を、周辺視により認識しやすくなるという効果が得られる。また、強調レベルが上がった画像とのレベルさが大きくなり、強調の度合いが高まるという効果もある。 Next, in step S5, the enhancement level of the image outside a certain range from the gazing point is lowered. By lowering the emphasis level, it is possible to obtain the effect that the road surface condition, obstacles, etc. on the back side of the image that the occupant is not gazing at can be easily recognized by peripheral vision. In addition, there is an effect that the level of the image with the increased enhancement level is increased and the degree of enhancement is increased.

次に、ステップS6において、乗員が注視している画像より奥側に(あるいは近傍に)障害物等が存在するか否か判定する。結果がYesとなった場合にはステップS7以降の処理フローを実行する。Noとなった場合には処理フローの先頭に戻る。 Next, in step S6, it is determined whether or not there is an obstacle or the like in the back side (or in the vicinity of) the image that the occupant is gazing at. If the result is Yes, the processing flow from step S7 onward is executed. If No, the process returns to the beginning of the processing flow.

次に、ステップS7において、ステップS4で実施した強調レベルを上げる処理を中断する。 Next, in step S7, the process of raising the emphasis level carried out in step S4 is interrupted.

次に、ステップS8において、障害物情報に応じて注視点から一定範囲内の画像の強調レベルを下げる。例えば、接触した際の車両への被害が大きい場合には、輝度や彩度をより下げることで、障害物をより認識しやすくする。ステップS7およびステップS8の処理により、乗員が画像を注視している場合においても、画像の奥側や近傍にある障害物の存在を容易に認識できる。 Next, in step S8, the enhancement level of the image within a certain range from the gazing point is lowered according to the obstacle information. For example, when the damage to the vehicle is large when it comes into contact with the vehicle, the brightness and saturation are lowered to make it easier to recognize the obstacle. By the processing of step S7 and step S8, even when the occupant is gazing at the image, the presence of an obstacle in the back side or the vicinity of the image can be easily recognized.

次に、ステップS9において、障害物情報に応じて障害物強調画像を表示する。障害物強調画像は、例えば障害物を囲う枠の画像であり、障害物と接触した際の車両への被害が大きい場合には枠を点滅させ、被害が無視できる程に小さい場合には障害物強調画像を表示しない。 Next, in step S9, the obstacle-enhanced image is displayed according to the obstacle information. The obstacle-enhanced image is, for example, an image of a frame surrounding an obstacle. If the damage to the vehicle when it comes into contact with the obstacle is large, the frame is blinked, and if the damage is small enough to be ignored, the obstacle is blinked. Do not display highlighted images.

次に、ステップS10において、障害物情報に応じてスピーカを動作させる。例えば、障害物と接触した際の車両への被害が大きい場合には「このまま走行すると障害物と接触し、車両に被害が出ます。」のような音声を再生させ、被害が無視できる程に小さい場合には音声を再生しない。ステップS10が終了すると、処理フローの先頭に戻る。 Next, in step S10, the speaker is operated according to the obstacle information. For example, if the damage to the vehicle is large when it comes into contact with an obstacle, a voice such as "If you continue to drive, the vehicle will come into contact with the obstacle and the vehicle will be damaged." Is played so that the damage can be ignored. If it is small, the sound will not be played. When step S10 is completed, the process returns to the beginning of the processing flow.

ステップS11は、ステップS3において判定結果がNoとなった場合に実行される。ステップS11において、乗員が画像より奥側や近傍の障害物を注視しているか否か判定する。結果がYesとなった場合にはステップS12、Noとなった場合にはステップS14以降の処理フローを実行する。 Step S11 is executed when the determination result is No in step S3. In step S11, it is determined whether or not the occupant is gazing at an obstacle behind or near the image. If the result is Yes, step S12 is executed, and if No, the processing flow after step S14 is executed.

ステップS12は、ステップS11において判定結果がYesとなった場合に実行される。ステップS12において、ステップS8と同様、障害物情報に応じて注視点から一定範囲内の強調レベルを下げることで、画像の奥側や近傍にある障害物を容易に認識できるようにする。なお、ステップS11において乗員が障害物(C2)の存在を認識していることから、ステップS9やステップS10のように、障害物強調画像の表示やスピーカの動作は行わない。ステップS11の処理が終了すると、処理フローの先頭に戻る。 Step S12 is executed when the determination result is Yes in step S11. In step S12, as in step S8, by lowering the emphasis level within a certain range from the gazing point according to the obstacle information, the obstacles in the back side or the vicinity of the image can be easily recognized. Since the occupant recognizes the existence of the obstacle (C2) in step S11, the obstacle-enhanced image is not displayed or the speaker is not operated as in steps S9 and S10. When the process of step S11 is completed, the process returns to the beginning of the process flow.

ステップS13は、ステップS11において判定結果がNoとなった場合に実行される。ステップS13において、乗員が画像より奥側の路面や背景(実景)を注視しているか否か判定する。結果がYesとなった場合にはステップS14以降の処理フローを実行する。Noとなった場合には処理フローの先頭に戻る。 Step S13 is executed when the determination result is No in step S11. In step S13, it is determined whether or not the occupant is gazing at the road surface or the background (actual scene) behind the image. If the result is Yes, the processing flow after step S14 is executed. If No, the process returns to the beginning of the processing flow.

ステップS14は、ステップS13において判定結果がYesとなった場合に実行される。ステップS14において、注視点から一定範囲内の画像の強調レベルを下げることで、画像の奥側や近傍にある路面や背景を容易に認識できるようにする。ステップS15が終了すると、処理フローの先頭に戻る。 Step S14 is executed when the determination result is Yes in step S13. In step S14, by lowering the emphasis level of the image within a certain range from the gazing point, the road surface and the background on the back side or the vicinity of the image can be easily recognized. When step S15 is completed, the process returns to the beginning of the processing flow.

次に、図6を参照する。図6(A)~(C)は、注視点に応じた強調処理を実施する場合(要視認対象無し)の表示画像の一例を示す図である。 Next, refer to FIG. 6 (A) to 6 (C) are views showing an example of a display image when the enhancement process according to the gazing point is performed (no visual object is required).

図6(A)において、乗員5の注視点PS1は、遠方の路面6付近にある。この状態で、例えば、HUD装置100が所定の表示をなすタイミングとなった、あるいは、乗員5が所定の表示をリクエストした場合を想定する。 In FIG. 6A, the gaze point PS1 of the occupant 5 is near the distant road surface 6. In this state, for example, it is assumed that the HUD device 100 makes a predetermined display, or the occupant 5 requests a predetermined display.

この場合、図6(B)では、3つの表示コンテンツの画像を含む画像(複合画像)7が表示される。言い換えれば、車速表示202、制限速度表示204、ナビゲーション表示206が表示される。 In this case, in FIG. 6B, an image (composite image) 7 including images of three display contents is displayed. In other words, the vehicle speed display 202, the speed limit display 204, and the navigation display 206 are displayed.

図6(C)では、乗員5の視線が移動し、注視点PS2は、制限速度表示204上に移動している。これに伴い、強調表示処理が実施され、注視点204を基準として所定範囲内にある制限速度表示204の輝度や彩度を上げる制御が実施され、一方、所定範囲外である車速表示202やナビゲーション表示206は輝度や彩度を低下する制御が実施されている。 In FIG. 6C, the line of sight of the occupant 5 is moving, and the gazing point PS2 is moving on the speed limit display 204. Along with this, highlighting processing is performed, and control is performed to increase the brightness and saturation of the speed limit display 204 within the predetermined range with respect to the gazing point 204, while the vehicle speed display 202 and navigation outside the predetermined range are performed. The display 206 is controlled to reduce the brightness and saturation.

図6(C)の例のように、乗員(運転者、視認者)が画像を見ており、かつ、その画像の奥側や近傍に要視認対象(障害物等)がない場合において、一定範囲(所定範囲)内にある画像の輝度や彩度を上げ、その範囲外の画像の輝度や彩度を下げる処理(画像の強調制御の一例)が実施される。 As in the example of FIG. 6C, it is constant when the occupant (driver, viewer) is looking at the image and there is no object to be viewed (obstacle, etc.) in the back or near the image. A process (an example of image enhancement control) is performed in which the brightness and saturation of an image within a range (predetermined range) are increased and the brightness and saturation of an image outside the range are decreased.

次に、図7を参照する。図7(A)~(C)は、注視点に応じた強調処理を実施する場合(要視認対象有りの場合)の表示画像の例を示す図である。図7において、図6と共通する部分には同じ符号を付している。 Next, refer to FIG. 7. 7 (A) to 7 (C) are diagrams showing an example of a display image when the enhancement process according to the gazing point is performed (when there is a visual object to be visually recognized). In FIG. 7, the same reference numerals are given to the parts common to those in FIG.

図7(A)では、車両1の走行進路上の路面6に障害物(要視認対象)である箱状物(段ボール等)301、302が存在する。乗員の注視点PS3は、障害物301の手前側にある。この状態で、例えば、HUD装置100が所定の表示をなすタイミングとなった、あるいは、乗員5が所定の表示をリクエストした場合を想定する。 In FIG. 7A, there are box-shaped objects (cardboard and the like) 301 and 302 that are obstacles (objects to be visually recognized) on the road surface 6 on the traveling path of the vehicle 1. The occupant's gaze point PS3 is on the front side of the obstacle 301. In this state, for example, it is assumed that the HUD device 100 makes a predetermined display, or the occupant 5 requests a predetermined display.

図7(B)では、画像7が表示され、乗員5の注視点PS4は、制限速度表示204に重なる位置にある。 In FIG. 7B, the image 7 is displayed, and the gazing point PS4 of the occupant 5 is at a position overlapping the speed limit display 204.

図7(C)では、図6(C)で説明した画像の強調処理が実施される。障害物302については、ナビゲーション表示206の輝度や彩度が低下されることから、目視が容易化される。その一方、制限速度表示204の奥側に位置する障害物301については、制限速度表示204の輝度や彩度が上昇するため、目視が困難になる。言い換えれば、強調処理が、かえって、障害物300の目視(視認)を困難にしている。 In FIG. 7C, the image enhancement process described in FIG. 6C is performed. As for the obstacle 302, the brightness and saturation of the navigation display 206 are reduced, so that the visual inspection is facilitated. On the other hand, with respect to the obstacle 301 located behind the speed limit display 204, the brightness and saturation of the speed limit display 204 increase, which makes it difficult to visually check. In other words, the enhancement process makes it difficult to visually recognize the obstacle 300.

次に、図8を参照する。図8(A)、(B)は、図7に続いて実施される非強調処理の例を示す図である。 Next, refer to FIG. 8 (A) and 8 (B) are diagrams showing an example of the non-emphasis processing carried out following FIG. 7.

図8(A)では、障害物(要視認対象)301の目視を容易化するために、先に図2(C)で説明した「非強調制御(あるいは非強調処理)」が実施される。これによって、障害物301の目視(視認)が容易化される。 In FIG. 8A, in order to facilitate the visual inspection of the obstacle (object requiring visual recognition) 301, the “non-emphasis control (or non-emphasis processing)” described above in FIG. 2C is implemented. This facilitates visual inspection (visual recognition) of the obstacle 301.

図8(B)では、障害物301に強調枠(強調表示)305による強調が実施される。また、スピーカ170から注意喚起(あるいは警告)の音声が出力される。言い換えれば、制御部140によって、要視認対象301についての注意喚起情報(警告情報)を音声又は表示によって報知される。 In FIG. 8B, the obstacle 301 is highlighted by the highlight frame (highlight) 305. In addition, a warning (or warning) voice is output from the speaker 170. In other words, the control unit 140 notifies the attention information (warning information) about the visibility target 301 by voice or display.

この報知処理は、図8(A)の非強調処理に続いて(あるいは、非強調処理と共に)実施してもよい。また、強調枠305の表示と、音声の出力とを同時に行ってもよく、強調枠305を先に表示してもよい。この報知により、例えば、乗員が必要な安全回避動作を迅速にとることができる、といった効果が得られる。 This notification process may be performed following (or together with the non-enhanced process) the non-enhanced process of FIG. 8 (A). Further, the display of the emphasis frame 305 and the output of the sound may be performed at the same time, or the emphasis frame 305 may be displayed first. This notification has the effect that, for example, the occupant can quickly take the necessary safety avoidance action.

次に、乗員が、要視認対象を見ているとき、あるいは、路面や背景(実景)を見ているときにおける非強調処理について説明する。この点については、先に説明した図7、図8を用いて説明することもできるが、ここでは、図7、図8とは異なる例(図9、図10)を用いて説明する。 Next, the non-emphasis processing when the occupant is looking at the object to be visually recognized, or when looking at the road surface or the background (actual scene) will be described. This point can be described with reference to FIGS. 7 and 8 described above, but here, an example different from those of FIGS. 7 and 8 (FIGS. 9 and 10) will be described.

図9(A)~(C)は、乗員が要視認対象を見ているときの非強調処理の例を示す図である。図10(A)~(C)は、乗員が路面を見ているときの非強調処理の例を示す図である。 9 (A) to 9 (C) are diagrams showing an example of non-emphasis processing when the occupant is looking at the object to be visually recognized. 10 (A) to 10 (C) are diagrams showing an example of non-emphasis processing when the occupant is looking at the road surface.

図9(A)では、要視認対象である大型の車両320が、斜め前方に見えている。また、直進を示すナビゲーション用の矢印の図形(ナビゲーション画像)220が、路面6に重なるようにして表示されている。言い換えれば、路面重畳表示としてのナビゲーション画像220が表示されている。 In FIG. 9A, the large vehicle 320, which is the object to be visually recognized, is seen diagonally forward. Further, the figure (navigation image) 220 of the arrow for navigation indicating straight ahead is displayed so as to overlap the road surface 6. In other words, the navigation image 220 as a road surface superimposed display is displayed.

図9(B)では、注視点PS5が、大型の車両320の後端付近にある。その注視点PS5を基準として所定範囲Z1(図中、破線の円で示される)内に、ナビゲーション画像220の一部が存在している。この場合、乗員(運転者、視認者)5は、周辺視野で、ナビゲーション画像としての矢印の図形220の先端部付近を見ている(認識している)可能性があり、ここで、一例として矢印の図形220が赤、黄、白などの誘目性の高い膨張色であるときは、その周辺視野で見ている画像220が、要視認対象120の目視に悪影響を与える可能性も否定できない。 In FIG. 9B, the gazing point PS5 is near the rear end of the large vehicle 320. A part of the navigation image 220 exists within a predetermined range Z1 (indicated by a broken line circle in the figure) with the gaze point PS5 as a reference. In this case, the occupant (driver, viewer) 5 may be looking at (recognizing) the vicinity of the tip of the arrow figure 220 as a navigation image in the peripheral visual field, and here, as an example. When the figure 220 of the arrow is a highly attractive expansion color such as red, yellow, and white, it cannot be denied that the image 220 viewed in the peripheral visual field may adversely affect the visual inspection of the visual object 120.

そこで、図9(C)では、ナビゲーション画像としての矢印の図形220について、非強調処理(非強調制御)を実施し、輝度及び彩度の少なくとも一方を低下させている。これにより、上記の悪影響(例えば、矢印の図形220の誘目性)が軽減、抑制される。よって、安全運転上、有利となる。 Therefore, in FIG. 9C, the non-emphasis processing (non-emphasis control) is performed on the arrow figure 220 as the navigation image to reduce at least one of the luminance and the saturation. As a result, the above-mentioned adverse effect (for example, the attractiveness of the figure 220 of the arrow) is reduced or suppressed. Therefore, it is advantageous in terms of safe driving.

図10(A)の運転シーンは、図9(B)と同じである。但し、図10(A)では、注視点PS6は、遠方の路面6上(あるいは、その近傍の実景)に位置する。この注視点(注視位置、あるいは注視領域)PS6を中心とした所定範囲Z1内には、ナビゲーション画像としての矢印の図形220の一部(先端部)が存在する。この場合、図10(B)の例と同様の悪影響が生じ得る。 The driving scene of FIG. 10 (A) is the same as that of FIG. 9 (B). However, in FIG. 10A, the gazing point PS6 is located on the distant road surface 6 (or the actual view in the vicinity thereof). A part (tip portion) of the figure 220 of the arrow as a navigation image exists in the predetermined range Z1 centered on the gaze point (gaze position or gaze area) PS6. In this case, the same adverse effects as in the example of FIG. 10B may occur.

そこで、図10(B)では、矢印の図形220について、非強調処理(非強調制御)を実施して、輝度及び彩度の少なくとも一方を低下させている。これによって、矢印の図形220の誘目性が軽減、抑制される。よって、安全運転上、有利となる。 Therefore, in FIG. 10B, the non-emphasis processing (non-emphasis control) is performed on the figure 220 of the arrow to reduce at least one of the luminance and the saturation. As a result, the attractiveness of the arrow figure 220 is reduced or suppressed. Therefore, it is advantageous in terms of safe driving.

次に、図11を参照する。図11(A)~(D)は、非強調処理の応用例を示す図である。図11の例では、要視認対象(要視認対象物)は、高速道路における降り口(出口:一種の地図情報)である。 Next, refer to FIG. 11 (A) to 11 (D) are diagrams showing an application example of the non-emphasis processing. In the example of FIG. 11, the object to be visually recognized (object to be visually recognized) is an exit (exit: a kind of map information) on a highway.

図11(A)では、左斜め遠方に、小さく、高速道路の降り口(出口)904が見えている。図11(B)では、その降り口(出口)904を示すナビゲーション画像906を表示している。このとき、乗員5の注視点(注視位置、注視領域)PS7は、ナビゲーション画像906の一部に重なっている。この状態で、原則どおり強調処理を実施すると、その奥側にある降り口(出口)904の視認が困難となる。 In FIG. 11A, a small highway exit (exit) 904 can be seen diagonally to the left. In FIG. 11B, a navigation image 906 showing the exit (exit) 904 is displayed. At this time, the gaze point (gaze position, gaze area) PS7 of the occupant 5 overlaps a part of the navigation image 906. If the enhancement process is performed in this state as a general rule, it becomes difficult to visually recognize the exit (exit) 904 on the back side thereof.

そこで、図11(C)では、非強調処理を実施し、ナビゲーション画像906の輝度及び彩度の少なくとも一方を低減している。これによって、降り口(出口)904の視認の困難性が低減(抑制)される。 Therefore, in FIG. 11C, non-emphasis processing is performed to reduce at least one of the luminance and saturation of the navigation image 906. As a result, the difficulty of visually recognizing the exit (exit) 904 is reduced (suppressed).

図11(D)では、続いて(例えば、降り口(出口)904に少し近づいたタイミングで)、路面重畳画像(路面重畳表示)としてのナビゲーション画像907を表示して、車両を確実に誘導している。路面重畳表示であるため、要視認対象である降り口(出口)904の目視は妨げられず、良好な視界が確保される。よって、降り口(出口)904に確実に誘導することが可能である。また、視界が十分に確保されているため、安全運転上も有利となる。 In FIG. 11D, the navigation image 907 as a road surface superimposed image (road surface superimposed display) is subsequently displayed (for example, at a timing slightly approaching the exit (exit) 904) to reliably guide the vehicle. ing. Since the road surface is superimposed and displayed, the visibility of the exit (exit) 904, which is the object to be visually recognized, is not obstructed, and good visibility is ensured. Therefore, it is possible to reliably guide to the exit (exit) 904. In addition, since the visibility is sufficiently secured, it is advantageous in terms of safe driving.

次に、図12を参照する。図12(A)~(C)は、画像の一部について非強調処理を行う例を示す図である。図12の例では、表示画像の一部について、制御部140は、非強調処理制御を実施する。 Next, refer to FIG. 12 (A) to 12 (C) are diagrams showing an example of performing non-emphasis processing on a part of an image. In the example of FIG. 12, the control unit 140 performs non-emphasis processing control on a part of the displayed image.

図12(A)では、HUD表示領域3に、複数の画像152~158が表示され、種々の情報の提示がなされている。ここで、仮に、注視点から所定範囲内に、これら画像152~158の少なくとも一部が位置する(言い換えれば重複が生じる)と、これらの画像152~158の全部について、非強調処理を実施することになる。 In FIG. 12A, a plurality of images 152 to 158 are displayed in the HUD display area 3, and various information is presented. Here, if at least a part of these images 152 to 158 is located within a predetermined range from the gazing point (in other words, duplication occurs), non-emphasis processing is performed on all of these images 152 to 158. It will be.

但し、全部の画像の輝度や彩度が一律に、同時に低下されると、その変化が、かえって乗員に違和感を与える場合もあり得る。そこで、一部のみを、非強調処理の対象とする。 However, if the brightness and saturation of all the images are uniformly reduced at the same time, the change may give the occupant a sense of discomfort. Therefore, only a part is targeted for non-emphasis processing.

ここで、図12(A)に着目すると、画像153、画像156の背景の部分(模様を付して示されている部分)が、奥側(あるいは近傍)の要視認対象の目視を妨げる効果が高いことがわかる。そこで、図12(B)では、その背景の部分のみを非表示としている。これにより、それらの画像153、156お奥側(あるいは近傍)の画像が見易くなる。 Here, focusing on FIG. 12A, the effect that the background portion (the portion shown with a pattern) of the images 153 and 156 obstructs the visual inspection of the object to be visually recognized on the back side (or the vicinity). It turns out that is high. Therefore, in FIG. 12B, only the background portion is hidden. This makes it easier to see the images on the back side (or near) of those images 153 and 156.

また、図12(C)の例では、画像153、画像156の全体を非強調処理し、さらに、制限速度表示157の円形の外周部(ここでは、赤や黄色等の膨張色で着色されて目立つ部分とする)について、非強調処理を実施している。これによって、図12(B)よりも、さらに、奥側(あるいは近傍)の要視認対象を目視し易くなる。 Further, in the example of FIG. 12C, the entire image 153 and image 156 are unemphasized, and further, the outer peripheral portion of the circle of the speed limit display 157 (here, colored with an expanded color such as red or yellow). (Make it a conspicuous part), non-emphasis processing is carried out. This makes it easier to visually recognize the object to be visually recognized on the back side (or near) than in FIG. 12B.

このように、非強調処理を実施するとき、画像の一部について非強調処理を行ってもよい。例えば、表示コンテンツとして、車速表示(表示A)、制限速度表示(表示B)、及びナビゲーション用矢印(表示C)の表示があるとする。これらを合わせて一つの表示画像とみることもできるが、例えば、要視認対象の目視に最も大きく影響するのが表示Cである場合等には、その表示Cのみについて非強調処理を実施することも許容される。 In this way, when the non-enhancement processing is performed, the non-enhancement processing may be performed on a part of the image. For example, it is assumed that the display contents include a vehicle speed display (display A), a speed limit display (display B), and a navigation arrow (display C). These can be regarded as one display image by combining them, but for example, when the display C has the greatest effect on the visual inspection of the object to be visually recognized, the non-emphasis processing is performed only on the display C. Is also acceptable.

また、例えば、表示画像はナビゲーション用矢印(表示C)のみであるが、そのサイズが大きく、かつ、特に、ナビゲーション用矢印の背景の色が膨張色(白や赤等)であるような場合、あるいは、円形の図形のその外周部の着色が棒調色であるような場合、その着色だけを削除する(言い換えれば、表示画像の一部を非強調化する)ことで、その奥の要視認対象を見る場合の視覚が改善されることが期待され得る。 Further, for example, when the display image is only the navigation arrow (display C), but the size is large and the background color of the navigation arrow is an expansion color (white, red, etc.), the display image is particularly large. Alternatively, if the coloring of the outer peripheral portion of the circular figure is a bar toning, only the coloring is deleted (in other words, a part of the displayed image is deemphasized), so that visibility in the back is required. It can be expected that the visual sense when looking at the object will be improved.

このように、表示コンテンツ毎に非強調処理を行ってもよく、1つの表示画像(1つの表示コンテンツ)の中で、特に目立つものや、視覚を遮る範囲が大きいものを非強調処理の対象としてもよい。柔軟な非強調処理をすることで、表示中の画像の情報を損なわずに、奥側や近傍にある要視認対象の目視を容易化できる。 In this way, non-emphasis processing may be performed for each display content, and among one display image (one display content), one that is particularly conspicuous or has a large range of obstructing vision is targeted for non-emphasis processing. May be good. By performing the flexible non-enhancement processing, it is possible to facilitate the visual inspection of the object to be visually recognized on the back side or the vicinity without damaging the information of the image being displayed.

以上、説明したように、本発明によれば、注視点(注視位置)に基づく表示画像の強調処理に起因して、要視認対象の視認が困難になることを抑制、防止することができる。また、本発明は、表示の態様の豊富化や、運転状況に即した画像表示の実現にも貢献する。 As described above, according to the present invention, it is possible to suppress or prevent the difficulty in visually recognizing the object to be visually recognized due to the enhancement processing of the displayed image based on the gazing point (gaze position). The present invention also contributes to the enrichment of display modes and the realization of image display according to the operating conditions.

以上、本発明について実施形態を用いて説明したが、本発明は、これに限定されるものではなく、種々、変形、応用が可能である。例えば、制御部140は、表示画像が、要視認対象の乗員による視認の妨げとなると判定される場合の状況に応じて、非強調処理の態様を異ならせることもできる。例えば、要視認対象の危険の程度によって、非強調処理の内容(例えば非強調のレベル、非強調処理の態様等)に差を設けてもよい。よって、現実に即した、適切な表示制御が実現される。 Although the present invention has been described above using the embodiments, the present invention is not limited to this, and various modifications and applications are possible. For example, the control unit 140 may change the mode of the non-emphasis processing depending on the situation in which the displayed image is determined to interfere with the visual recognition by the occupant to be visually recognized. For example, the content of the non-emphasis processing (for example, the level of the non-emphasis processing, the mode of the non-emphasis processing, etc.) may be different depending on the degree of danger of the object to be visually recognized. Therefore, an appropriate display control that matches the reality is realized.

また、要視認対象は、要視認の物体(移動体、静止体を問わない)、要視認の人又は動物、及び要視認の実景の少なくとも1つであってもよい。ここで、「要視認の移動体」は、例えば、要注意の先行車両であり、「要視認の静止体」は、例えば前方の路面に落ちている段ボール箱等の障害物である。「要視認の人又は動物」は、前方の道路を横切ろうとしている人や動物である。「要視認の実景」は、例えば、高速道路の降り口や、目的地への道順の手がかりとなる看板等である。これらは例示であり、これらに限定されるものではない。これらの要視認対象に対して、確認が容易となることで、安全上も有利となり、また、ナビゲーション機能の利便性も向上する。 Further, the object to be visually recognized may be at least one of an object requiring visual recognition (whether a moving body or a stationary body), a person or animal requiring visual recognition, and a real scene requiring visual recognition. Here, the "moving body requiring visibility" is, for example, a preceding vehicle requiring attention, and the "stationary body requiring visibility" is, for example, an obstacle such as a cardboard box falling on the road surface in front. A "person or animal requiring visibility" is a person or animal trying to cross the road ahead. The "real scene requiring visual recognition" is, for example, an exit of a highway, a signboard that serves as a clue to a destination, or the like. These are examples and are not limited thereto. By facilitating confirmation of these objects requiring visual recognition, it is advantageous in terms of safety and the convenience of the navigation function is also improved.

本明細書において、車両という用語は、広義に、乗り物としても解釈し得るものである。また、ナビゲーションに関する用語(例えば標識等)についても、例えば、車両の運行に役立つ広義のナビゲーション情報という観点等も考慮し、広義に解釈するものとする。また、HUD装置や表示器装置(及び広義の表示装置)には、シミュレータ(例えば、航空機のシミュレータ、ゲーム装置としてのシミュレータ等)として使用されるものも含まれるものとする。 In the present specification, the term vehicle can be broadly interpreted as a vehicle. In addition, terms related to navigation (for example, signs, etc.) shall be interpreted in a broad sense in consideration of, for example, the viewpoint of navigation information in a broad sense useful for vehicle operation. Further, the HUD device and the display device (and the display device in a broad sense) include those used as a simulator (for example, an aircraft simulator, a simulator as a game device, etc.).

本発明は、上述の例示的な実行形態に限定されず、また、当業者は、上述の例示的な実行形態を特許請求の範囲に含まれる範囲まで、容易に変更することができるであろう。 The present invention is not limited to the above-mentioned exemplary embodiments, and those skilled in the art will be able to easily modify the above-mentioned exemplary embodiments to the extent included in the claims. ..

1・・・車両(自車両)、2・・・ウインドシールド(被投影部材)、3・・・HUD装置の表示領域(HUD表示領域)、6・・・路面(地面や床面等の相当面を含む)、41・・・ダッシュボード、50・・・瞳撮像カメラ、51・・・視線検出部、52・・・視点移動検出部、53・・・注視位置(注視点)検出部。54・・・前方(あるいは周辺)撮像カメラ、55・・・先方対象物検出部、56・・・距離検出部(画像処理部)、72・・・注視判定部、74・・・要視認対象判定部、76・・・表示画像と要視認対象の位置関係判定部、78・・・強調レベル/非強調レベル決定部、80・・・視認性(輝度/大きさ等)制御部、82・・・表示態様変更部、84・・・画像生成部、86・・・画像合成部、100・・・HUD装置、107・・・HUD装置の表示器、107・・・表示器制御部、108・・・表示器、160・・・スクリーン、170・・・曲面レンズ(凹面鏡等)。 1 ... Vehicle (own vehicle), 2 ... Windshield (projected member), 3 ... HUD device display area (HUD display area), 6 ... Road surface (equivalent to ground, floor, etc.) (Including surface), 41 ... dashboard, 50 ... pupil imaging camera, 51 ... line-of-sight detection unit, 52 ... viewpoint movement detection unit, 53 ... gaze position (gaze point) detection unit. 54 ... front (or peripheral) image pickup camera, 55 ... destination object detection unit, 56 ... distance detection unit (image processing unit), 72 ... gaze determination unit, 74 ... target to be viewed Judgment unit, 76 ... Positional relationship judgment unit between the displayed image and the object to be visually recognized, 78 ... Emphasis level / non-emphasis level determination unit, 80 ... Visibility (brightness / size, etc.) control unit, 82. ... Display mode changing unit, 84 ... Image generation unit, 86 ... Image composition unit, 100 ... HUD device, 107 ... HUD device display, 107 ... Display control unit, 108 ... Display, 160 ... Screen, 170 ... Curved lens (concave mirror, etc.).

Claims (13)

車両に搭載され、画像表示制御を行う表示制御装置であって、
前記車両の乗員の注視点の情報、及び前記車両の乗員が視認すべき要視認対象の情報に基づいて、表示画像の視認性を制御する制御部を有し、
前記制御部は、
前記乗員が表示画像を注視しており、かつ、前記要視認対象が無い、あるいは、前記要視認対象は存在するが、表示画像が、その要視認対象の前記乗員による視認の妨げとならないと判定される場合には、前記乗員の注視点を基準として第1の所定範囲内にある表示画像の強調レベルを上げ、前記第1の所定範囲外の表示画像の強調レベルを下げる画像強調処理制御を実施し、
前記乗員が表示画像を注視しており、前記要視認対象が存在し、かつ、表示画像が、その要視認対象の前記乗員による視認の妨げとなると判定される場合には、
前記強調レベルを上げる制御を実施しない、
又は、
前記強調レベルを上げる制御に代えて、強調レベルを下げる処理を実施する、
又は、
前記強調レベルを上げる処理がすでに開始されているときは、前記強調レベルを上げる処理を中断して、前記強調レベルを上げる処理で上昇した範囲内で、あるいは、前記強調レベルを上げる処理が開始される前の水準からさらに低くなるように、強調レベルを下げる、
ことによって、前記要視認対象についての視認の妨げの程度を軽減する、又は妨げを回避する非強調処理制御を実施する表示制御装置。
A display control device that is mounted on a vehicle and controls image display.
It has a control unit that controls the visibility of the displayed image based on the information on the gaze point of the occupant of the vehicle and the information on the object to be visually recognized that the occupant of the vehicle should see.
The control unit
It is determined that the occupant is gazing at the displayed image and there is no visible object, or the visible object exists, but the displayed image does not interfere with the visual recognition of the visible object by the occupant. If this is the case, image enhancement processing control is performed to increase the enhancement level of the displayed image within the first predetermined range and decrease the enhancement level of the displayed image outside the first predetermined range with respect to the gaze point of the occupant. Carry out,
When the occupant is gazing at the displayed image, the visible object is present, and the displayed image is determined to interfere with the visual recognition by the occupant of the visible object.
Do not implement the control to raise the emphasis level,
Or,
Instead of the control for raising the emphasis level, a process for lowering the emphasis level is performed.
Or,
When the process of increasing the emphasis level has already started, the process of increasing the emphasis level is interrupted, and the process of increasing the emphasis level is started within the range increased by the process of increasing the emphasis level or the process of increasing the emphasis level. Lower the emphasis level so that it is even lower than the previous level,
A display control device that reduces the degree of obstruction of visual recognition of the object requiring visual recognition, or performs non-emphasis processing control that avoids obstruction.
前記制御部は、
前記乗員から見て、表示画像の奥側又は近傍に前記要視認対象が存在する場合には、その表示画像が、前記乗員による前記要視認対象の視認の妨げとなると判定する、
請求項1に記載の表示制御装置。
The control unit
When the visual object is present in the back or near the display image when viewed from the occupant, it is determined that the displayed image hinders the occupant from visually recognizing the visual object.
The display control device according to claim 1.
前記制御部は、
前記表示画像の輝度及び彩度の少なくとも一方を上昇/低下させる、及び、前記表示画像の大きさを拡大/縮小させる、の少なくとも一方によって、前記強調レベルを変更する、
請求項1又は2に記載の表示制御装置。
The control unit
The enhancement level is changed by at least one of increasing / decreasing the brightness and saturation of the displayed image and increasing / reducing the size of the displayed image.
The display control device according to claim 1 or 2.
前記制御部は、
前記乗員が、
前記要視認対象を注視している場合、
又は、
前記車両が走行する道路の路面又は背景を注視している場合には、
注視点を基準として第2の所定範囲内にある表示画像について前記非強調処理制御を実施する、
請求項1乃至3の何れか1項に記載の表示制御装置。
The control unit
The occupant
When gazing at the object to be visually recognized
Or,
If you are watching the road surface or background on which the vehicle is traveling,
The non-emphasis processing control is performed on the displayed image within the second predetermined range with respect to the gazing point.
The display control device according to any one of claims 1 to 3.
前記制御部は、
表示画像の一部について、前記非強調処理制御を実施可能である、請求項1乃至4の何れか1項に記載の表示制御装置。
The control unit
The display control device according to any one of claims 1 to 4, wherein the non-enhancement processing control can be performed on a part of the display image.
前記制御部は、
前記要視認対象の存在を示す要視認対象強調画像を表示する、
請求項1乃至5の何れか1項に記載の表示制御装置。
The control unit
Displaying a visible target emphasized image showing the existence of the visible target.
The display control device according to any one of claims 1 to 5.
前記制御部は、
前記要視認対象についての注意喚起情報又は警告情報を音声又は表示によって報知する、
請求項1乃至6の何れか1項に記載の表示制御装置。
The control unit
Notify the attention information or warning information about the object to be visually recognized by voice or display.
The display control device according to any one of claims 1 to 6.
前記要視認対象は、要視認の物体(移動体、静止体を問わない)、要視認の人又は動物、及び要視認の実景の少なくとも1つである、
請求項1乃至7の何れか1項に記載の表示制御装置。
The object to be visually recognized is at least one of an object requiring visual recognition (whether a moving body or a stationary body), a person or animal requiring visual recognition, and a real scene requiring visual recognition.
The display control device according to any one of claims 1 to 7.
前記制御部は、
前記表示画像が、前記要視認対象の前記乗員による視認の妨げとなると判定される場合の状況に応じて、前記非強調処理制御の態様を異ならせる、
請求項1乃至8の何れか1項に記載の表示制御装置。
The control unit
The mode of the non-enhancement processing control is changed depending on the situation when it is determined that the displayed image interferes with the visual recognition by the occupant of the visual recognition target.
The display control device according to any one of claims 1 to 8.
前記制御部は、
路面に対して立った視覚を与える立像画像について前記非強調処理制御を実施した後、路面に重畳される視覚を与える路面重畳画像による表示に移行させる、
請求項1乃至9の何れか1項に記載の表示制御装置。
The control unit
After performing the non-emphasis processing control on the standing image that gives the visual sense to the road surface, the display shifts to the display by the road surface superimposed image that gives the visual sense superimposed on the road surface.
The display control device according to any one of claims 1 to 9.
画像を生成する画像生成部と、
前記画像を表示する表示部と、

請求項1乃至10の何れか1項に記載の表示制御装置と、
を有する表示装置。
An image generator that generates an image, and an image generator
A display unit that displays the image and
The display control device according to any one of claims 1 to 10 above, and the display control device.
Display device with.
前記表示装置は、画像の表示光を被投影部材に投影する光学部材を有するヘッドアップディスプレイ装置である、請求項11に記載の表示装置。 The display device according to claim 11, wherein the display device is a head-up display device having an optical member that projects display light of an image onto a projected member. 画像の表示制御方法であって、
視認者の注視点の情報、及び視認者が視認すべき要視認対象の情報に基づいて、表示画像の視認性を制御すると共に、
前記視認者が表示画像を注視しており、かつ、前記要視認対象が無い、あるいは、前記要視認対象は存在するが、表示画像が、その要視認対象の前記視認者による視認の妨げとならないと判定される場合には、前記視認者の注視点を基準として第1の所定範囲内にある表示画像の強調レベルを上げ、前記第1の所定範囲外の表示画像の強調レベルを下げる画像強調処理制御を実施し、
前記視認者が表示画像を注視しており、前記要視認対象が存在し、かつ、表示画像が、その要視認対象の前記視認者による視認の妨げとなると判定される場合には、
前記強調レベルを上げる制御を実施しない、
又は、
前記強調レベルを上げる制御に代えて、強調レベルを下げる処理を実施する、
又は、
前記強調レベルを上げる処理がすでに開始されているときは、前記強調レベルを上げる処理を中断して、前記強調レベルを上げる処理で上昇した範囲内で、あるいは、前記強調レベルを上げる処理が開始される前の水準からさらに低くなるように、強調レベルを下げる、
ことによって、前記要視認対象についての視認の妨げの程度を軽減する、又は妨げを回避する非強調処理制御を実施する、画像の表示制御方法。
It is an image display control method.
The visibility of the displayed image is controlled and the visibility of the displayed image is controlled based on the information of the gaze point of the viewer and the information of the object to be visually recognized that the viewer should see.
The viewer is gazing at the displayed image, and the visual object is not present, or the visual object is present, but the displayed image does not interfere with the visual recognition of the visual object. If it is determined that, the enhancement level of the displayed image within the first predetermined range is increased with reference to the gaze point of the viewer, and the enhancement level of the displayed image outside the first predetermined range is decreased. Implement process control and
When the viewer is gazing at the displayed image, the target to be viewed exists, and the displayed image is determined to interfere with the visual recognition of the target to be viewed by the viewer.
Do not implement the control to raise the emphasis level,
Or,
Instead of the control for raising the emphasis level, a process for lowering the emphasis level is performed.
Or,
When the process of increasing the emphasis level has already been started, the process of increasing the emphasis level is interrupted, and the process of increasing the emphasis level is started within the range increased by the process of increasing the emphasis level or the process of increasing the emphasis level. Lower the emphasis level so that it is even lower than the previous level,
A method for controlling an image display, which reduces the degree of obstruction of visual recognition of the object to be visually recognized, or implements non-enhancement processing control for avoiding the obstruction.
JP2020196009A 2020-11-26 2020-11-26 Display control device, display device, and image display control method Pending JP2022084266A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020196009A JP2022084266A (en) 2020-11-26 2020-11-26 Display control device, display device, and image display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020196009A JP2022084266A (en) 2020-11-26 2020-11-26 Display control device, display device, and image display control method

Publications (1)

Publication Number Publication Date
JP2022084266A true JP2022084266A (en) 2022-06-07

Family

ID=81867996

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020196009A Pending JP2022084266A (en) 2020-11-26 2020-11-26 Display control device, display device, and image display control method

Country Status (1)

Country Link
JP (1) JP2022084266A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116572837A (en) * 2023-04-27 2023-08-11 江苏泽景汽车电子股份有限公司 Information display control method and device, electronic equipment and storage medium
CN116974417A (en) * 2023-07-25 2023-10-31 江苏泽景汽车电子股份有限公司 Display control method and device, electronic equipment and storage medium

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116572837A (en) * 2023-04-27 2023-08-11 江苏泽景汽车电子股份有限公司 Information display control method and device, electronic equipment and storage medium
CN116974417A (en) * 2023-07-25 2023-10-31 江苏泽景汽车电子股份有限公司 Display control method and device, electronic equipment and storage medium
CN116974417B (en) * 2023-07-25 2024-03-29 江苏泽景汽车电子股份有限公司 Display control method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
US10551619B2 (en) Information processing system and information display apparatus
US10890762B2 (en) Image display apparatus and image display method
JP6883759B2 (en) Display systems, display system control methods, programs, and mobiles
JPWO2017138527A1 (en) Information provision device
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP2019049505A (en) Display device for vehicle and display control method
US11106045B2 (en) Display system, movable object, and design method
JP6876277B2 (en) Control device, display device, display method and program
JP2016109645A (en) Information providing device, information providing method, and control program for providing information
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
JP2022084266A (en) Display control device, display device, and image display control method
JP6653184B2 (en) Display device for vehicles
JP7223283B2 (en) IMAGE PROCESSING UNIT AND HEAD-UP DISPLAY DEVICE INCLUDING THE SAME
JP2021135933A (en) Display method, display device and display system
US11904691B2 (en) Display apparatus for switching between different displays of different images identifying a same element
EP3888966A1 (en) Vehicle display device
JP6814416B2 (en) Information providing device, information providing method, and information providing control program
JP2018087852A (en) Virtual image display device
WO2023054305A1 (en) Display control device, display device, and display control method
JP7054483B2 (en) Information providing device, information providing method and information providing control program
WO2020171045A1 (en) Head-up display device, display control device, and display control program
JP2024006136A (en) Display control unit, display unit and display control method
JP2023066431A (en) Display control device, display device, and display control method
JP2022024730A (en) Head-up display device, display controller, and display control program
JP2022044623A (en) Image display method and image display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240528