JP2016081465A - Display controller, display control method, display control program and projector - Google Patents
Display controller, display control method, display control program and projector Download PDFInfo
- Publication number
- JP2016081465A JP2016081465A JP2014215405A JP2014215405A JP2016081465A JP 2016081465 A JP2016081465 A JP 2016081465A JP 2014215405 A JP2014215405 A JP 2014215405A JP 2014215405 A JP2014215405 A JP 2014215405A JP 2016081465 A JP2016081465 A JP 2016081465A
- Authority
- JP
- Japan
- Prior art keywords
- predetermined
- image
- display
- unit
- display medium
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 45
- 210000003128 head Anatomy 0.000 claims description 20
- 238000012937 correction Methods 0.000 description 15
- 238000012545 processing Methods 0.000 description 13
- 238000012986 modification Methods 0.000 description 10
- 230000004048 modification Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 239000011521 glass Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000630 rising effect Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Abstract
Description
本発明は、車両等の乗員に対して提供される情報の表示を制御する表示制御装置、表示制御方法、表示制御プログラム、および投影装置に関する。 The present invention relates to a display control device, a display control method, a display control program, and a projection device that control display of information provided to a passenger such as a vehicle.
近年、車両のウインドシールドに画像を投影することで、その画像を運転者に視認させるヘッドアップディスプレイ(Head‐Up Display:HUD)装置の開発が盛んである。この装置では、現実世界の対象物(例えば、他の車両、歩行者、建物など)に重畳するように画像を投影することで、対象物の視認性を向上させることができる。 2. Description of the Related Art In recent years, a head-up display (HUD) device has been actively developed that projects an image onto a windshield of a vehicle so that a driver can visually recognize the image. In this apparatus, the visibility of an object can be improved by projecting an image so as to be superimposed on an object in the real world (for example, another vehicle, a pedestrian, a building, or the like).
このようなヘッドアップディスプレイ装置では、運転者の視界において、いわゆる二重像の問題が生じる。人間の左右の眼は約6〜6.5cm離れているため、運転者がある対象物を注視した場合、左右の眼の網膜に映る像には、ずれ、すなわち両眼視差が生じる。そのため、人間が注視している対象物は単一の像として視認されるが、注視している対象物よりも遠くに、もしくは近くに存在する対象物は、二つの像、すなわち二重像となって視認される。二重像の問題を解決する方法としては、例えば、特許文献1に開示された方法がある(以下、従来技術という)。 In such a head-up display device, a so-called double image problem occurs in the driver's field of view. Since the left and right eyes of a human are approximately 6 to 6.5 cm apart, when the driver gazes at a certain object, the images appearing on the retinas of the left and right eyes are displaced, that is, binocular parallax occurs. Therefore, an object that is being watched by a human being is visually recognized as a single image, but an object that is located farther or closer than the object that is being watched is two images, that is, a double image. Become visible. As a method for solving the problem of the double image, for example, there is a method disclosed in Patent Document 1 (hereinafter referred to as a conventional technique).
従来技術では、二重像の影響を抑制することを目的として、カメラ等で検出された対象物の位置に重畳させて、二重像となって視認されても違和感を与えない画像を生成して表示する。具体的には、ドットパターンまたはIマークの形状の画像を生成し、その画像を対象物と対応付けて表示することにより、二重像が生じた場合でも、運転者が対象物の存在およびその位置を把握できるとしている。 In the prior art, for the purpose of suppressing the influence of the double image, it is superimposed on the position of the object detected by the camera or the like, and an image that does not give a sense of incongruity even when viewed as a double image is generated. To display. Specifically, by generating an image having a dot pattern or I mark shape and displaying the image in association with the object, the driver can detect the presence of the object and its presence even when a double image is generated. The position can be grasped.
しかしながら、上述した従来技術は、対象物の存在の有無および対象物の位置の把握を支援するものであり、対象物の種類および状態の把握を支援することはできない。よって、従来技術では、対象物の認識性を向上させるための画像表示としては不十分であった。 However, the above-described conventional technology supports the presence / absence of an object and the position of the object, and cannot support the understanding of the type and state of the object. Therefore, the conventional technology is insufficient as an image display for improving the recognition of the object.
本発明の目的は、対象物の種類および状態を乗員に把握させることができる表示制御装置、表示制御方法、表示制御プログラム、および投影装置を提供することである。 An object of the present invention is to provide a display control device, a display control method, a display control program, and a projection device that allow an occupant to grasp the type and state of an object.
本発明の一態様に係る表示制御装置は、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する第1決定部と、所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおける表示制御装置であって、前記認識部において前記所定の対象物が認識された場合、前記第1決定部で決定された位置から所定距離離れた第1の位置と、前記第1決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する第2決定部と、第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する制御部と、を備える構成を採る。 A display control apparatus according to an aspect of the present invention acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image; Determining a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light; 1 A display control device in a display system including a determination unit and a display unit that generates a predetermined image and displays the predetermined image on the display medium, wherein the predetermined object is recognized by the recognition unit In this case, the first position that is a predetermined distance away from the position determined by the first determination unit, and a position that substantially exists on a straight line connecting the position determined by the first determination unit and the first position. And determined by the first determining unit. A second determination unit that determines a second position that is substantially symmetrical to the first position with respect to the first position, and the second determination unit is displayed on the display medium for a predetermined time from the first timing. Sometimes the display unit is controlled to generate a predetermined image representing a predetermined presentation image at the first position, and the predetermined time from the second timing before the predetermined time elapses from the first timing. A control unit that controls the display unit so as to generate the predetermined image representing the predetermined presentation image at the second position when displayed on the display medium for a period of time.
本発明の一態様に係る表示制御方法は、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する決定部と、所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおける表示制御方法であって、前記認識部において前記所定の対象物が認識された場合、前記決定部で決定された位置から所定距離離れた第1の位置と、前記決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定し、第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御するようにした。 A display control method according to an aspect of the present invention acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image; Determination to determine a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light And a display control method including a display unit that generates a predetermined image and displays the predetermined image on the display medium, and when the predetermined object is recognized by the recognition unit, A first position that is a predetermined distance away from the position determined by the determination unit; and a line that connects the position determined by the determination unit and the first position; and 1 The position determined by the determination unit And determining a second position that is substantially symmetrical to the first position, and the predetermined position is set to the first position when displayed on the display medium for a predetermined time from the first timing. The display unit is controlled so as to generate a predetermined image representing a presentation image, and displayed on the display medium for a predetermined time from a second timing before the predetermined time elapses from the first timing. When this is done, the display unit is controlled so as to generate the predetermined image representing the predetermined presentation image at the second position.
本発明の一態様に係る表示制御プログラムは、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する決定部と、所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおけるコンピュータに実行させる表示制御方法であって、前記コンピュータに、前記認識部において前記所定の対象物が認識された場合、前記決定部で決定された位置から所定距離離れた第1の位置と、前記決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する処理と、第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御する処理と、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する処理と、を実行させるようにした。 A display control program according to an aspect of the present invention acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image; Determination to determine a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light And a display control method for causing a computer in a display system to generate a predetermined image and displaying the predetermined image on the display medium. When the object is recognized, the object is substantially on a straight line connecting the first position separated from the position determined by the determination unit by a predetermined distance, and the position determined by the determination unit and the first position. A process of determining a second position that exists and is substantially symmetrical to the first position with respect to the position determined by the first determination unit; and a predetermined time from the first timing A process for controlling the display unit to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium, and the predetermined time from the first timing. The display unit is configured to generate the predetermined image representing the predetermined presentation image at the second position when displayed on the display medium for a predetermined time from a second timing before the passage. The process to control was executed.
本発明の一態様に係る投影装置は、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する第1決定部と、を含む表示システムにおける投影装置であって、所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、前記認識部において前記所定の対象物が認識された場合、前記第1決定部で決定された位置から所定距離離れた第1の位置と、前記第1決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する第2決定部と、第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する制御部と、を備える構成を採る。 A projection apparatus according to an aspect of the present invention acquires a foreground image that is an image of a foreground of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image, A first position for determining a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through the display medium that transmits light. A display unit including a determination unit, and a display unit that generates a predetermined image and displays the predetermined image on the display medium; and when the predetermined object is recognized by the recognition unit, A first position that is a predetermined distance away from the position determined by the first determination unit, and substantially exists on a straight line connecting the position determined by the first determination unit and the first position; And the position determined by the first determination unit A second determination unit that determines a second position that is substantially symmetrical to the first position, and when displayed on the display medium for a predetermined time from a first timing, The display unit is controlled so as to generate a predetermined image representing a predetermined presentation image at a first position, and during the predetermined time from a second timing before the predetermined time elapses from the first timing. A control unit that controls the display unit so as to generate the predetermined image representing the predetermined presentation image at the second position when displayed on the display medium.
本発明によれば、対象物の種類および状態を乗員に把握させることができる。 According to the present invention, the occupant can grasp the type and state of the object.
以下、本発明の実施の形態について図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
まず、本実施の形態に係る表示システム100の構成例について図1を用いて説明する。図1は、本実施の形態に係る表示システム100の構成例を示すブロック図である。
First, a configuration example of the
表示システム100は、例えば、車両等の移動体において用いられ、車両の運転を支援するシステムである。表示システム100は、車載機器であってもよいし、車両に持ち込まれる機器であってもよい。また、表示システム100が車両に適用されたものとして説明するが、移動体は、車両に限定されず、船舶、航空機等であってもよい。また、本実施の形態では、ユーザが車両の乗員、特に車両の運転者である例について説明するが、その限りではない。さらには、表示システム100は、ユーザの身体に装着可能なウェアラブルコンピュータ(例えば、後述するHMD)において用いられてもよい。
The
この表示システム100には、図1に示すように、カメラ110、カメラ120、表示媒体130が接続される。
As shown in FIG. 1, a
カメラ110は、車両の内部または外部に搭載され、運転者の前方の視界(以下、前景という)を撮影する。カメラ110により撮影された画像(以下、前景画像という)は、後述する認識部101へ出力される。なお、本実施の形態では、前景をセンシングする手段としてカメラ110を用いるとするが、これに限定されるものではなく、例えばレーダ等を用いてもよい。
The
カメラ120は、インナーカメラまたはドライバモニタリングカメラと呼ばれるカメラであり、車両の内部に搭載され、運転者の顔を撮影する。カメラ120により撮影された画像(以下、顔画像という)は、後述する決定部102へ出力される。
The
表示媒体130は、車両において用いられ、後述する表示部104で生成された画像(詳細は後述する)が表示される媒体である。本実施の形態では、表示媒体130は、光を透過する透過型の表示媒体である。
The
表示媒体130としては、例えば、ヘッドアップディスプレイ(Head Up Display:HUD)、LCD(Liquid Crystal Display)、HMD(Head‐Mounted DisplayまたはHelmet‐Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、その他の専用のディスプレイなどが適用される。また、HUDは、例えば、車両のウインドシールドであってもよいし、別途設けられるガラス面、プラスチック面(例えば、コンバイナ)などであってもよい。また、ウインドシールドは、例えば、フロントガラスであってもよいし、車両のサイドガラスまたはリアガラスであってもよい。
Examples of the
さらに、HUDは、ウインドシールドの表面または内側に備えられた透過型ディスプレイであってもよい。ここで、透過型ディスプレイとは、例えば、透過型の有機ELディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイである。運転者は、背景を視認すると同時に、透過型ディスプレイ上の表示を視認することができる。このように表示媒体130は、光を透過する表示媒体である。いずれの場合も、画像は表示媒体130に表示される。
Further, the HUD may be a transmissive display provided on or inside the windshield. Here, the transmissive display is, for example, a transmissive organic EL display or a transparent display using glass that emits light when irradiated with light of a specific wavelength. The driver can view the display on the transmissive display at the same time as viewing the background. Thus, the
なお、図1の例では、表示システム100は、表示媒体130を含まない構成としたが、表示媒体130を含む構成としてもよい。
In the example of FIG. 1, the
図1において、表示システム100は、認識部101、決定部102、表示制御装置103、および表示部104を有する。また、表示制御装置103は、決定部105、制御部106を有する。以下、各部について説明する。
In FIG. 1, the
認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に基づいて対象物の認識を行う。また、認識部101は、対象物を認識した場合、その対象物の位置を算出する。対象物とは、例えば、道路上の白線、標識、路面標示、縁石、ガードレール、信号機、電柱、車両、人物、建物などである。なお、対象物の認識処理および対象物の位置の算出処理は公知のため、詳細な説明は省略する。
The
また、認識部101は、所定の対象物を認識した場合、その対象物の輪郭を検出する。例えば、認識部101は、前景画像に対して、特定の微分フィルタによるエッジ抽出を行うことで、対象物の輪郭を検出する。なお、対象物のエッジの検出処理は公知のため、詳細な説明は省略する。
Further, when the
そして、認識部101は、対象物の位置を示す情報(以下、対象物位置情報という)を決定部102へ出力し、対象物の輪郭を示す情報(以下、輪郭情報という)を表示制御装置103の制御部106へ出力する。
Then, the
ここで、運転者の前景の一例を図2に示す。図2に示すように、車両の前方に、車両が走行している道路を横断しようとする歩行者200が存在する場合、運転者は、表示媒体130を介して歩行者200を視認できる。この場合、認識部101は、歩行者200を認識するとともに、歩行者200の位置を算出する。また、認識部101は、歩行者200の輪郭を検出する。そして、認識部101は、歩行者200の位置を示す対象物位置情報を決定部102へ出力し、歩行者200の輪郭を示す輪郭情報を表示制御装置103へ出力する。
Here, an example of the driver's foreground is shown in FIG. As shown in FIG. 2, when there is a
決定部102は、カメラ120から取得した顔画像に基づいて運転者の目の領域(以下、目領域という)を検出する。目領域とは、例えば、両眼を含む所定の領域である。なお、顔画像に対して画像処理を行うことで目領域を検出する処理は公知のため、詳細な説明は省略する。また、本実施の形態では、決定部102が顔画像に基づいて目領域を検出するとしたが、目領域は、例えば、予め定められた領域でもよいし、または、運転者の視線を検知する視線検知部(図示略)が検知した視線に基づいて検出した領域でもよい。
The
そして、決定部102は、検出した目領域のうちの所定の点(例えば、左右いずれかの目、または、左目と右目との間の中心)の位置、認識部101から取得した対象物位置情報が示す対象物の位置、表示媒体130の位置の関係から、表示部104で生成された画像が表示される表示媒体130上の位置(以下、画像表示位置という)を決定する。この画像表示位置は、換言すれば、目領域の所定点から表示媒体130を介して対象物が観察されたときにおける、対象物の表示媒体130上の位置である。なお、画像表示位置の決定処理は公知のため、詳細な説明は省略する。
Then, the
ここで、画像表示位置の決定処理の一例について図3を用いて説明する。図3は、運転者が表示媒体130を介して歩行者200を注視したときにおける、歩行者200、表示媒体130、運転者の両眼の位置関係を模式的に示す図である。図3において、破線は、歩行者200を注視している運転者の視線を示している。
An example of the image display position determination process will be described with reference to FIG. FIG. 3 is a diagram schematically showing the positional relationship between the
また、図3において、仮想線L1は、運転者の右目の位置P1と左目の位置P2とを通る水平な線である。また、仮想線L2は、運転者の目領域のうちの所定の点の位置P3と、歩行者200の位置P4とを通り、仮想線L1に垂直な線である。位置P3は、例えば、右目の位置P1と左目の位置P2との間における中央の位置である。なお、仮想線L1、L2は、説明のために図示したものであり、表示媒体130上には表示されない。
In FIG. 3, the imaginary line L1 is a horizontal line passing through the right eye position P1 and the left eye position P2 of the driver. The virtual line L2 is a line that passes through the position P3 of a predetermined point in the driver's eye area and the position P4 of the
このような図3において、例えば、決定部102は、位置P3と位置P4とを通る仮想線L2が表示媒体130と交わる位置P5を、画像表示位置に決定する。従来では、このようにして決定された画像表示位置に画像が表示されることになるが、本実施の形態では、ここで決定された画像表示位置を所定距離ずらして第1の位置および第2の位置を決定する処理を後述の決定部105が行う。この第1の位置および第2の位置の決定処理の詳細は後述する。
In FIG. 3, for example, the
そして、決定部102は、画像表示位置を示す情報(以下、画像表示位置情報という)を表示制御装置103の決定部105へ出力する。また、決定部102は、画像表示位置情報以外にも、認識部101で認識された対象物の情報(例えば、上記対象物位置情報、カメラ110から対象物までの距離を示す距離情報など)を認識部101から取得し、決定部105へ出力する。
Then, the
決定部105は、画像表示位置情報が示す画像表示位置から所定距離離れた第1の位置および第2の位置を決定する。
The
ここで、第1の位置および第2の位置の決定処理の一例について図3を用いて説明する。図3において、表示媒体130と仮想線L1はともに水平であるとする。
Here, an example of the determination process of the first position and the second position will be described with reference to FIG. In FIG. 3, it is assumed that both the
まず、決定部105は、歩行者200からカメラ110までの距離と、予め定められたカメラ110から表示媒体130までの距離とに基づいて、歩行者200の位置P4から画像表示位置P5までの距離D2を算出する。
First, the
次に、決定部105は、算出した距離D2と、画像表示位置P5から運転者の目領域のうちの所定の点の位置P3までの距離とに基づいて、位置P4から位置P3までの距離D4を算出する。
Next, the
次に、決定部105は、位置P3から運転者の左目の位置P2までの距離D3を算出する。
Next, the
次に、決定部105は、位置P4、P6、P5から成る三角形と、位置P4、P2、P3から成る三角形との相似比を用いて、画像表示位置P5をずらす距離D1を算出する。すなわち、決定部105は、以下の式により距離D1を算出する。
D1=D2×D3/D4
Next, the
D1 = D2 × D3 / D4
次に、決定部105は、画像表示位置P5を左方向へ距離D1ずらした位置P6を、第1の位置に決定する。
Next, the
次に、決定部105は、画像表示位置P5を右方向へ距離D1ずらした位置P7を、第2の位置に決定する。第2の位置P7は、画像表示位置P5と位置P6とを結んだ直線上に実質的に存在し、画像表示位置P5に対して位置P6と実質的に対称の位置である。
Next, the
そして、決定部105は、第1の位置および第2の位置を示す位置情報を制御部106へ出力する。
Then, the
制御部106は、輪郭情報および位置情報に基づいて、所定画像を生成し、表示するように表示部104を制御する。例えば、制御部106は、所定画像の生成と表示についての制御の内容を示す制御情報を生成し、その制御情報を表示部104へ出力することで、表示部104を制御する。なお、制御部106による制御の詳細は、後述する。
The
上記所定画像とは、表示部104により生成される画像であり、表示媒体130に表示されたときに車両の乗員に提示される提示画像(例えば、後述する画像300等)を示す画像である。すなわち、提示画像と所定画像とは実質的に内容が同じである。
The predetermined image is an image generated by the
表示部104は、制御部106から取得した制御情報に基づいて、所定画像を生成し、その所定画像を表示媒体130に表示する。例えば表示媒体130がHUDである場合、表示部104は、プロジェクタ機能を用いて、所定画像を表示媒体130に投射(投影)する。これにより、所定画像は、運転者に虚像として視認される。なお、表示媒体に投射された画像が虚像として運転者に視認される原理は公知のため、詳細な説明は省略する。
The
本実施の形態では、所定画像を表示媒体130に投射して乗員に虚像として認識させることと、所定画像を表示媒体130に表示することとは同義であるとして、以下説明する。すなわち、以下の説明において、HUDへ所定画像が投射されて、乗員に虚像として視認される事象を、表示と表現する。
In the present embodiment, the following description will be given on the assumption that the predetermined image is projected on the
なお、表示部104は、プロジェクタ機能を用いる代わりに、例えば、ホログラムの原理を用いてHUDに画像を表示させてもよい。ホログラムを用いる場合、導光板の内部全反射条件を満たす平行光束群を内部全反射して導光する導光板を用いる方式でもよい。導光板を用いた方式においては、プロジェクタのように画像を直接的に投射するものではないが、説明の便宜上、プロジェクタ方式と同様に投射または表示という定義で説明する。
Note that the
また、本実施の形態では、表示部104が所定画像を生成するとしたが、所定画像は、表示制御装置103または図示しない他の構成要素によって生成されてもよい。
In the present embodiment, the
また、表示部104を表示制御装置103に含めることで投影装置として構成してもよい。
Further, the
次に、制御部106による制御処理の具体例について以下に説明する。ここでは、まず、本実施の形態との比較例として、バイオロジカル・モーション(詳細は後述)として動作させる点群を表す画像が表示媒体130上の歩行者200の位置(上述した画像表示位置P5)に表示される場合の制御処理について図4を用いて説明し、その後、本実施の形態の制御処理について図5、図6を用いて説明する。
Next, a specific example of control processing by the
まず、比較例における制御処理について説明する。図4Aは、表示部104が制御部106の制御情報に基づいて画像を生成し、その画像を表示媒体130に表示したときの一例を示している。この場合、制御部106は、歩行者200の輪郭を示す輪郭情報に基づいて、対象物が人物であることを認識する。そして、制御部106は、人物の形状を表す画像として予め定められた画像300を生成するように、かつ、その画像300を表示媒体130上の歩行者200の位置(上述した画像表示位置P5)に表示するように、表示部104を制御する。
First, the control process in the comparative example will be described. FIG. 4A shows an example when the
ここで、画像300について説明する。画像300は、歩行者200の骨格(例えば、人間の頭、肩、肘、手首、膝、足首などの部位)を代表する点群を表す画像である。この点群は、バイオロジカル・モーションとして動作する。よって、点群は、歩行者200の動きに合わせて配置が変わるが、所定点と所定点の間(以下、点間という)の距離は部位間の距離に対応するため、規定の部位間の制約を逸脱して点の配置が異なることはない。すなわち、点間の距離は、所定の距離(実際の部位間の距離)以上になることはない。なお、上記点群は、必ずしも対象物の各部位の位置を正確に示すものである必要は無く、各部位のおおよその位置を示すものであってもよい。
Here, the
このような画像300により、運転者は、周辺視野に存在する対象に視線を向けることなく、対象物の種類および対象物の状態を把握することができる。例えば、運転者は、点群の配置の変化により人間特有の動作を直感的に認識できるので、視界の中に様々な物体(例えば、建物、車両等)が存在していても、歩行者200を瞬時に認識できる。
Such an
なお、本実施の形態では、バイオロジカル・モーションとして動作させる対象を点として説明したが、歩行者200であることを認識できるのであれば、面積を持った正円、楕円、または矩形等の形状のマーカを採用してもよい。
In this embodiment, the target to be operated as biological motion has been described as a point. However, if it can be recognized that the person is a
図4Bは、図4Aに示す画像300の見え方の一例を示している。運転者は、表示媒体130を介して歩行者200を見た場合、図4Bに示すように、歩行者200の左側に画像300Lが、歩行者200の右側に画像300Rが見えることになる。すなわち、運転者にとっては、図4Aに示す画像300が二重像となって見える。そのため、運転者は、対象物の数、および、その対象物の存在する位置を正確に把握することは難しい。
FIG. 4B shows an example of how the
そこで、本実施の形態では、制御部106が以下の制御処理を行うことで、運転者が対象物の種類および状態を容易に把握できるようにする。次に、本実施の形態の制御処理について説明する。
Therefore, in the present embodiment, the
まず、制御部106は、歩行者200の輪郭を示す輪郭情報に基づいて、対象物が人物であることを認識する。そして、制御部106は、第1のタイミングから所定時間の間、人物の形状を表す画像として予め定められた画像300を生成し、その画像300を表示媒体130上の歩行者200の位置から左側へ距離D1ずらした第1の位置P6に表示するように表示部104を制御する。このときの例を図5A、図5Bに示す。
First, the
図5Aは、表示媒体130上の第1の位置P6に画像300が表示された例を示している。図5Aに示すように、画像300は、歩行者200の位置(上記画像表示位置P5)よりも左側へずれて表示される。
FIG. 5A shows an example in which the
図5Bは、図5Aに示す画像300の見え方の一例を示している。運転者は、表示媒体130を介して歩行者200を見た場合、図5Bに示すように、歩行者200の左側に画像300Lが、歩行者200の位置に画像300Rが見えることになる。すなわち、運転者にとっては、図5Aに示す画像300が二重像となって見えるが、画像300Rは歩行者200の位置に重なって見える。
FIG. 5B shows an example of how the
次に、制御部106は、第2のタイミングから所定時間の間、画像300を生成するように、かつ、その画像300を表示媒体130上の歩行者200の位置から右側へ距離D1ずらした第2の位置P7に表示するように、表示部104を制御する。このときの例を図6A、図6Bに示す。第2のタイミングとは、上述した第1のタイミングから所定時間が経過するより前のタイミングである。
Next, the
図6Aは、表示媒体130上の第2の位置P7に画像300が表示された例を示している。図6Aに示すように、画像300は、歩行者200の位置(上記画像表示位置P5)よりも右側へずれて表示される。
FIG. 6A shows an example in which the
図6Bは、図6Aに示す画像300の見え方の一例を示している。運転者は、表示媒体130を介して歩行者200を見た場合、図6Bに示すように、歩行者200の右側に画像300Rが、歩行者200の位置に画像300Lが見えることになる。すなわち、運転者にとっては、図6Aに示す画像300が二重像となって見えるが、画像300Lは歩行者200の位置に重なって見える。
FIG. 6B shows an example of how the
制御部106は、上記第1のタイミングのときの制御処理と、上記第2タイミングのときの制御処理とを繰り返し行う。これにより、運転者にとっては、歩行者200の位置に画像300Rまたは画像300Lのいずれかが常に重なって見えることになるため、運転者は、対象物が歩行者であるか(対象物の種類)、および、その対象物が車道を横断しようとしているか(対象物の状態)を把握することができる。
The
以上、本実施の形態に係る表示システム100の構成例について説明した。
The configuration example of the
次に、本実施の形態に係る表示システム100の動作例について図7を用いて説明する。図7は、本実施の形態に係る表示システム100の動作例を示すフローチャートである。
Next, an operation example of the
まず、認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に基づいて対象物の認識を行う(ステップS101)。また、認識部101は、対象物を認識した場合、対象物の位置を算出し、対象物の輪郭を検出する。
First, the
次に、決定部102は、運転者の目領域のうちの所定の点の位置、認識部101で算出された対象物の位置、表示媒体130の位置の関係に基づいて、画像表示位置を決定する(ステップS102)。画像表示位置とは、上述したとおり、運転者の目領域のうちの所定の点から表示媒体130を介して対象物が観察されたときにおける、対象物の表示媒体130上における位置である。
Next, the
次に、決定部105は、画像表示位置から左方向へ所定距離離れた第1の位置、および、画像表示位置から右方向へ所定距離離れた第2の位置を決定する(ステップS103)。
Next, the
次に、制御部106は、第1のタイミングから所定時間の間、所定画像を生成、表示するように表示部104を制御する(ステップS104)。
Next, the
上記所定画像とは、表示部104において生成される画像であり、表示媒体130の第1位置に表示されたときに運転者に提示される提示画像を示す画像である。また、提示画像とは、認識部101で認識された対象物の形状を示す画像であり、例えば、図5Aに示した、バイオロジカル・モーションとして動作する点群から成る画像300である。
The predetermined image is an image generated on the
上述したステップS104の制御処理により、表示部104は、第1のタイミングから所定時間の間、所定画像を生成し、その所定画像を表示媒体130に表示する(例えば、図5A参照)。このとき、運転者が表示媒体130を介して対象物を視認すると、提示画像が二重像となって見えることになる(例えば、図5B参照)。
By the control processing in step S104 described above, the
次に、制御部106は、第2のタイミングから所定時間の間、所定画像を生成、表示するように表示部104を制御する(ステップS105)。第2のタイミングとは、上述したとおり、第1のタイミングから所定時間が経過する以前のタイミングである。
Next, the
上記所定画像とは、表示部104において生成される画像であり、表示媒体130の第2の位置に表示されたときに運転者に提示される提示画像を示す画像である。また、提示画像とは、認識部101で認識された対象物の形状を示す画像であり、例えば、図6Aに示した、バイオロジカル・モーションとして動作する点群から成る画像300である。
The predetermined image is an image generated on the
上述したステップS105の制御処理により、表示部104は、第2のタイミングから所定時間の間、所定画像を生成し、その所定画像を表示媒体130に表示する(例えば、図6A参照)。このとき、運転者が表示媒体130を介して対象物を視認すると、第2の提示画像が二重像となって見えることになる(例えば、図6B参照)。
By the control processing in step S105 described above, the
以上、本実施の形態に係る表示システム100の動作例について説明した。
The operation example of the
なお、上記説明では、図5B、図6Bに示すように画像300の全ての点群が歩行者200に重なって見えるように第1の位置および第2の位置が決定されるとしたが、点群の一部が歩行者200に重ならなくてもよい。
In the above description, the first position and the second position are determined so that all the point groups of the
また、上記説明では、第1の位置を画像表示位置から左方向へ所定距離ずらした位置P6とし、第2の位置を画像表示位置から右方向へ所定距離ずらした位置P7としたが、例えば、第1の位置を位置P7とし、第2の位置を位置P6としてもよい。 In the above description, the first position is the position P6 shifted from the image display position by a predetermined distance to the left, and the second position is the position P7 shifted by a predetermined distance from the image display position to the right. The first position may be the position P7, and the second position may be the position P6.
このように、本実施の形態では、運転者が表示媒体を介して対象物を注視したときに、表示媒体に表示される画像の二重像の一方が常に対象物に重なって見えるため、二重像のうち、対象物に重なって見える方では、バイオロジカル・モーションとして機能するため、対象物を認識することができ、もう一方では表示が時間的に欠けているためバイオロジカル・モーションとして機能しないため、対象物を認識することができない。すなわち、運転者は、対象物と重なる位置に表示された画像でのみ対象物を認識することが可能となり、対象物の位置と数を正確に把握することができる。 Thus, in the present embodiment, when the driver gazes at the object through the display medium, one of the double images of the image displayed on the display medium always appears to overlap the object. Of the multiple images, the one that appears to overlap the object functions as biological motion, so it can recognize the object, and on the other hand it functions as biological motion because the display is missing in time. Therefore, the object cannot be recognized. That is, the driver can recognize the object only from the image displayed at the position overlapping the object, and can accurately grasp the position and number of the object.
以上本発明の実施の形態について説明したが、本発明は上記実施の形態に限定されず、種々の変形が可能である。以下、変形例について説明する。 Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made. Hereinafter, modified examples will be described.
(変形例1)
上記実施の形態では、運転者の両目の位置を結んだ線(図3に示した仮想線L1)が水平である場合について説明したが、運転者が頭部を傾けたことで仮想線L1が水平ではなくなる場合がある。この場合、本変形例では、距離D1および頭部の傾きに基づいて補正処理を行う。ここでいう頭部の傾きとは、頭部の前後方向を軸とする回転方向における傾きである。この頭部の傾きは、例えば、カメラ120で撮像された運転者の顔画像に基づいて頭部の傾きを検知する検知部(図示略)により検知される。頭部の傾きの検知処理は、公知であるため、詳細な説明は省略する。
(Modification 1)
In the above-described embodiment, the case where the line connecting the positions of both eyes of the driver (the virtual line L1 shown in FIG. 3) is horizontal has been described. It may not be horizontal. In this case, in the present modification, correction processing is performed based on the distance D1 and the head inclination. The inclination of the head here is an inclination in the rotation direction with the front-rear direction of the head as an axis. The inclination of the head is detected by a detection unit (not shown) that detects the inclination of the head based on the driver's face image captured by the
まず、図8A、図8Bを用いて、頭部が傾いたときに補正処理が行われない場合について説明する。図8Aは、頭部が傾いたことにより、水平な仮想線L1が角度θ1傾いて仮想線L1’となったときの、第1のタイミングから所定時間の間における二重像の見え方を示している。また、図8Bは、頭部が傾いたことにより、水平な仮想線L1が角度θ1傾いて仮想線L1’となったときの、第2のタイミングから所定時間の間における二重像の見え方を示している。なお、仮想線L1、L’は、説明のために図示したものであり、表示媒体130等には表示されない。
First, a case where correction processing is not performed when the head is tilted will be described with reference to FIGS. 8A and 8B. FIG. 8A shows how the double image is seen during a predetermined time from the first timing when the horizontal imaginary line L1 is inclined by the angle θ1 to become the imaginary line L1 ′ due to the tilt of the head. ing. Further, FIG. 8B shows how the double image is seen during a predetermined time from the second timing when the horizontal imaginary line L1 is inclined by the angle θ1 to become the imaginary line L1 ′ because the head is tilted. Is shown. Note that the virtual lines L1 and L 'are illustrated for explanation, and are not displayed on the
図8Aに示すように、画像300Rは、歩行者200の上方にずれて見えることになる。また、図8Bに示すように、画像300Lは、歩行者200の下方にずれて見えることになる。よって、運転者は、歩行者200に重なる二重像が上下にずれて見えるため、視認しにくい。
As shown in FIG. 8A, the
そこで、本変形例では、制御部106は、距離D1および角度θ1に基づいて、以下の補正処理を行う。なお、ここでは、表示媒体130の面上における座標系として、右水平方向をX軸の正方向、下鉛直方向をY軸の正方向とする。
Therefore, in the present modification, the
まず、制御部106は、例えば、以下の各式により、X軸方向の補正量xおよびY軸方向の補正量yを算出する。
x=D1(1−cosθ1)
y=D1sinθ1
First, for example, the
x = D1 (1-cos θ1)
y = D1sin θ1
次に、制御部106は、算出した補正量x、yに基づいて第1の位置を補正する。例えば、制御部106は、第1の位置を、X軸の正方向に補正量xだけずらし、かつ、Y軸の正方向に補正量yだけずらす。これにより、補正後の第1の位置が決定される。
Next, the
そして、制御部106は、第1のタイミングから所定時間の間、補正後の第1の位置に画像300を表示するように表示部104を制御する。このときの二重像の見え方を図8Cに示す。図8Cに示すように、画像300Rの点群の全部が歩行者200に重なって見えることになる。
Then, the
次に、制御部106は、算出した補正量x、yに基づいて第2の位置を補正する。例えば、制御部106は、第2の位置を、X軸の負方向に補正量xだけずらし、かつ、Y軸の負方向に補正量yだけずらす。これにより、補正後の第2の位置が決定される。
Next, the
そして、制御部106は、第2のタイミングから所定時間の間、補正後の第2の位置に画像300を表示するように表示部104を制御する。このときの二重像の見え方を図8Dに示す。図8Dに示すように、画像300Lの点群の全部が歩行者200に重なって見えることになる。
Then, the
このように、本変形例によれば、運転者が頭部を傾けた場合、頭部の傾きの角度θ1および距離D1に基づいて、第1の位置と第2の位置とを結んだ線が運転者の両目の位置を結んだ線(仮想線L’)に対して平行となるように第1の位置および第2の位置を補正する。これにより、運転者が頭部を傾けた場合でも、二重像の一方が対象物からずれることなく、対象物に重なって見えることになり、視認性が向上する。 Thus, according to this modification, when the driver tilts the head, the line connecting the first position and the second position is based on the tilt angle θ1 and the distance D1 of the head. The first position and the second position are corrected so as to be parallel to a line (imaginary line L ′) connecting the positions of both eyes of the driver. As a result, even when the driver tilts his / her head, one of the double images does not deviate from the object and appears to overlap the object, thereby improving visibility.
(変形例2)
上記実施の形態において、制御部106による制御処理は、運転者が対象物を視認した場合に実行されるようにしてもよい。
(Modification 2)
In the above embodiment, the control process by the
例えば、制御部106は、上述した視線検知部(図示略)により検知された視線を示す視線情報を視線検知部から取得するとともに、認識部101で認識された対象物の位置を示す対象物位置情報を認識部101から取得する。そして、制御部106は、視線情報および対象物位置情報に基づいて、運転者が対象物を視認したか否かを判定する。以下、運転者に視認される対象物の例を上述した歩行者200として説明する。
For example, the
上記判定の結果、運転者が歩行者200を視認したと判定した場合、上述したとおり、制御部106は、運転者が視認した歩行者200のみの輪郭を示す輪郭情報に基づいて、表示部104に生成させる画像300を決定する処理を行う。そして、制御部106は、決定した画像300を生成、表示するように表示部104を制御する。
As a result of the determination, when it is determined that the driver has visually recognized the
これにより、運転者が視認した歩行者200に対してのみ画像300が表示されるので、必要なタイミングで運転者に画像300R、300Lを視認させることができる。また、このとき、運転者が表示媒体130を介して歩行者200を注視すると、二重像となって見える図5Bの画像300R、図6Bの画像300Lが歩行者200に重なって見えるので、運転者の視線を歩行者200に誘導することができる。
Thereby, since the
その後、上述した画像300の表示から一定時間が経過した場合、制御部106は、画像300の生成、表示を停止するように表示部104を制御してもよい。
Thereafter, when a certain time has elapsed since the display of the
これにより、画像300の表示により運転者の意識を歩行者200へ引きつけた後において、必要以上に長い間、運転者が画像300R、300Lを視認することを防ぐことができるので、安全性の向上が見込める。
Thereby, after attracting the driver's consciousness to the
このように、本変形例によれば、運転者が対象物を視認しているか否かに応じて画像の表示、非表示が行われるので、適切なタイミングで運転者に画像を視認させたり、画像の視認を止めさせたりすることができる。 As described above, according to this modification, since the display and non-display of the image are performed depending on whether or not the driver is viewing the object, the driver can view the image at an appropriate timing, The viewing of the image can be stopped.
(変形例3)
上記実施の形態で説明した画像の輝度を以下のように制御してもよい。以下では、2つの輝度制御処理について説明する。
(Modification 3)
You may control the brightness | luminance of the image demonstrated in the said embodiment as follows. Hereinafter, two luminance control processes will be described.
まず、図9A、図9Bを用いて、制御部106により行われる第1の輝度制御処理について説明する。図9Aは、図5Aに示す画像300の輝度の変化を示しており、図9Bは、図6Aに示す画像300の輝度の変化を示している。図9A、図9Bにおいて、横軸は経過時間を示しており、縦軸は輝度を示している。
First, the first luminance control process performed by the
図9A、図9Bに示すように、第1の輝度制御処理では、図5Aの画像300の輝度がOFF(下限値)になる前に図6Aの画像300の輝度がON(上限値)になるように制御され、また、図6Aの画像300の輝度がOFF(下限値。ゼロであってもよい)になる前に図5Aの画像300の輝度がON(上限値)になるように制御される。この制御により、図5Aの画像300が消える前に図6Aの画像300が現われ、また、図6Aの画像300が消える前に図5Aの画像300が現われる。
As shown in FIGS. 9A and 9B, in the first brightness control process, the brightness of the
この第1の輝度制御処理では、図9A、図9Bに示すように、各輝度の立ち上がり、立ち下がりの勾配が急(例えば、直角)であるため、運転者は、図5Bの画像300Lが図6Bの画像300Lへ移動し、図6Bの画像300Rが図5Bの画像300Rへ移動するように見える。
In this first luminance control process, as shown in FIGS. 9A and 9B, the gradient of the rising and falling of each luminance is steep (for example, right angle), so that the driver can view the
次に、図9C、図9Dを用いて、制御部106により行われる第2の輝度制御処理について説明する。図9Cは、図ABに示す画像300の輝度の変化を示しており、図9Dは、図6Aに示す画像300の輝度の変化を示している。図9A、図9Bにおいて、横軸は経過時間を示しており、縦軸は輝度を示している。
Next, the second luminance control process performed by the
図9C、図9Dに示すように、第2の輝度制御処理では、第1の輝度制御処理と同様に、図5Aの画像300の輝度がOFF(下限値)になる前に図6Aの画像300の輝度がON(上限値)になるように制御され、また、図6Aの画像300の輝度がOFF(下限値)になる前に図5Aの画像300の輝度がON(上限値)になるように制御される。この制御により、図5Aの画像300が消える前に図6Aの画像300が現われ、また、図6Aの画像300が消える前に図5Aの画像300が現われる。
As shown in FIGS. 9C and 9D, in the second brightness control process, the
この第2の輝度制御処理では、図9C、図9Dに示すように、各輝度の立ち上がり、立ち下がりの勾配が緩やか(例えば、所定の鈍角)であるため、運転者は、図5Bの画像300Lおよび図6Bの画像300Rのそれぞれが明滅するように見える。
In the second luminance control process, as shown in FIGS. 9C and 9D, the gradient of the rising and falling of each luminance is gentle (for example, a predetermined obtuse angle). And each of the
このように、画像の輝度の立ち上がり、立ち下がりの勾配(換言すれば、速さ)を急または緩やかにすることにより、二重像のうちの対象物に重ならずに見える方の画像の見え方を選択することができる。 In this way, by making the rising and falling slopes (in other words, the speed) of the image brightness steep or gentle, the image of the double image that does not overlap the object can be seen. You can choose which way.
以上、本発明の実施の形態の変形例について説明した。なお、上述した変形例は、任意に組み合わせてもよい。 In the above, the modification of embodiment of this invention was demonstrated. Note that the above-described modifications may be arbitrarily combined.
上述した表示システム100、表示制御装置103の各部の機能は、コンピュータプログラムにより実現され得る。
The functions of the units of the
図9は、各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ1000は、入力ボタン、タッチパッドなどの入力装置1001、ディスプレイ、スピーカなどの出力装置1002、CPU(Central Processing Unit)1003、ROM(Read Only Memory)1004、RAM(Random Access Memory)1005を備える。また、コンピュータ1000は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置1006、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1007、ネットワークを介して通信を行う送受信装置1008を備える。上記各部は、バス1009により接続される。
FIG. 9 is a diagram illustrating a hardware configuration of a computer that realizes the functions of the respective units by a program. The
そして、読取装置1007は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1006に記憶させる。あるいは、送受信装置1008が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置1006に記憶させる。
Then, the
そして、CPU1003が、記憶装置1006に記憶されたプログラムをRAM1005にコピーし、そのプログラムに含まれる命令をRAM1005から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM1005または記憶装置1006には、各実施の形態1で述べた各種処理で得られた情報が記憶され、適宜利用される。
Then, the
本発明は、ユーザ(例えば、車両等の乗員、または、表示デバイスを装着したユーザ等)に対して提供される情報の表示を制御する表示制御装置、表示制御方法、表示制御プログラム、および投影装置に有用である。 The present invention relates to a display control device, a display control method, a display control program, and a projection device that control the display of information provided to a user (for example, a passenger such as a vehicle or a user wearing a display device). Useful for.
100 表示システム
101 認識部
102 決定部
103 表示制御装置
104 表示部
105 決定部
106 制御部
110 カメラ
120 カメラ
130 表示媒体
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 ROM
1005 RAM
1006 記憶装置
1007 読取装置
1008 送受信装置
1009 バス
DESCRIPTION OF
1004 ROM
1005 RAM
1006
Claims (8)
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する第1決定部と、
所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、
を含む表示システムにおける表示制御装置であって、
前記認識部において前記所定の対象物が認識された場合、前記第1決定部で決定された位置から所定距離離れた第1の位置と、前記第1決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する第2決定部と、
第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する制御部と、を備える、
表示制御装置。 A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image;
Determining a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light; 1 decision part;
A display unit that generates a predetermined image and displays the predetermined image on the display medium;
A display control apparatus in a display system including:
When the predetermined object is recognized by the recognition unit, a first position that is a predetermined distance away from a position determined by the first determination unit, a position determined by the first determination unit, and the first A second position that is substantially on a straight line connecting the first position and a position that is substantially symmetrical to the first position with respect to the position determined by the first determination unit. A second determining unit for determining;
The display unit is controlled to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium for a predetermined time from the first timing, and the first timing The predetermined image representing the predetermined presentation image is generated at the second position when displayed on the display medium for the predetermined time from the second timing before the predetermined time elapses from A control unit for controlling the display unit,
Display control device.
前記乗員が前記表示媒体を介して前記所定の対象物を視認したときに前記所定の提示画像が二重像となって前記乗員に視認される場合、前記第1のタイミングから前記所定時間の間、前記二重像となって視認される前記所定の提示画像の一方と、前記第2のタイミングから前記所定時間の間、前記二重像となって視認される前記所定の提示画像の一方とが前記表示媒体上における前記所定の対象物に重なって視認されるように、前記第1の位置および前記第2の位置を決定する、
請求項1に記載の表示制御装置。 The second determination unit includes
When the occupant visually recognizes the predetermined object via the display medium, the predetermined presentation image becomes a double image and is visually recognized by the occupant during the predetermined time from the first timing. One of the predetermined presentation images visually recognized as the double image and one of the predetermined presentation images visually recognized as the double image from the second timing to the predetermined time. Determining the first position and the second position such that the first position and the predetermined object on the display medium are visually recognized.
The display control apparatus according to claim 1.
前記乗員の頭部の傾きが検知された場合、前記頭部の傾きの角度と、前記所定距離とに基づいて、前記第1の位置と前記第2の位置とを結んだ線が前記乗員の両目の位置を結んだ線に対して平行となるように前記第1の位置および前記第2の位置を補正する、
請求項1または2に記載の表示制御装置。 The controller is
When a tilt of the head of the occupant is detected, a line connecting the first position and the second position is based on the tilt angle of the head and the predetermined distance. Correcting the first position and the second position so as to be parallel to a line connecting the positions of both eyes;
The display control apparatus according to claim 1 or 2.
前記乗員の視線と、前記所定の対象物の位置とに基づいて、前記乗員が前記所定の対象物を視認したか否かを判定し、
前記乗員が前記所定の対象物を視認したと判定した場合、前記所定画像を生成するように前記表示部を制御する、
請求項1から3のいずれか1項に記載の表示制御装置。 The controller is
Based on the line of sight of the occupant and the position of the predetermined object, it is determined whether the occupant has visually recognized the predetermined object,
When the occupant determines that the predetermined object has been visually recognized, the display unit is controlled to generate the predetermined image.
The display control apparatus of any one of Claim 1 to 3.
前記所定の提示画像の輝度の立ち上がりおよび立ち下がりの速さを制御する、
請求項1から4のいずれか1項に記載の表示制御装置。 The controller is
Controlling the rate of rise and fall of the brightness of the predetermined presentation image;
The display control apparatus of any one of Claim 1 to 4.
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する決定部と、
所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、
を含む表示システムにおける表示制御方法であって、
前記認識部において前記所定の対象物が認識された場合、前記決定部で決定された位置から所定距離離れた第1の位置と、前記決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定し、
第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、
前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する、
表示制御方法。 A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image;
Determination to determine a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light And
A display unit that generates a predetermined image and displays the predetermined image on the display medium;
A display control method in a display system including:
When the predetermined object is recognized by the recognizing unit, a first position that is a predetermined distance away from a position determined by the determining unit, a position determined by the determining unit, and the first position A second position which is substantially on a connected straight line and which is substantially symmetrical to the first position with respect to the position determined by the first determination unit;
Controlling the display unit to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium for a predetermined time from a first timing;
The predetermined image representing the predetermined presentation image at the second position when displayed on the display medium for a predetermined time from a second timing before the predetermined time elapses from the first timing. Controlling the display unit to generate an image;
Display control method.
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する決定部と、
所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、
を含む表示システムにおけるコンピュータに実行させる表示制御方法であって、
前記コンピュータに、
前記認識部において前記所定の対象物が認識された場合、前記決定部で決定された位置から所定距離離れた第1の位置と、前記決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する処理と、
第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御する処理と、
前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する処理と、を実行させる、
表示制御プログラム。 A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image;
Determination to determine a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light And
A display unit that generates a predetermined image and displays the predetermined image on the display medium;
A display control method to be executed by a computer in a display system including:
In the computer,
When the predetermined object is recognized by the recognizing unit, a first position that is a predetermined distance away from a position determined by the determining unit, a position determined by the determining unit, and the first position A process of determining a second position that substantially exists on the connected straight line and that is substantially symmetrical to the first position with respect to the position determined by the first determination unit; ,
A process for controlling the display unit to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium for a predetermined time from a first timing;
The predetermined image representing the predetermined presentation image at the second position when displayed on the display medium for a predetermined time from a second timing before the predetermined time elapses from the first timing. Controlling the display unit to generate an image, and
Display control program.
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する第1決定部と、
を含む表示システムにおける投影装置であって、
所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、
前記認識部において前記所定の対象物が認識された場合、前記第1決定部で決定された位置から所定距離離れた第1の位置と、前記第1決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する第2決定部と、
第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する制御部と、を備える、
投影装置。 A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image;
Determining a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light; 1 decision part;
A projection apparatus in a display system comprising:
A display unit that generates a predetermined image and displays the predetermined image on the display medium;
When the predetermined object is recognized by the recognition unit, a first position that is a predetermined distance away from a position determined by the first determination unit, a position determined by the first determination unit, and the first A second position that is substantially on a straight line connecting the first position and a position that is substantially symmetrical to the first position with respect to the position determined by the first determination unit. A second determining unit for determining;
The display unit is controlled to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium for a predetermined time from the first timing, and the first timing The predetermined image representing the predetermined presentation image is generated at the second position when displayed on the display medium for the predetermined time from the second timing before the predetermined time elapses from A control unit for controlling the display unit,
Projection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014215405A JP6315427B2 (en) | 2014-10-22 | 2014-10-22 | Display control device, display control method, display control program, and projection device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014215405A JP6315427B2 (en) | 2014-10-22 | 2014-10-22 | Display control device, display control method, display control program, and projection device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016081465A true JP2016081465A (en) | 2016-05-16 |
JP6315427B2 JP6315427B2 (en) | 2018-04-25 |
Family
ID=55958879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014215405A Active JP6315427B2 (en) | 2014-10-22 | 2014-10-22 | Display control device, display control method, display control program, and projection device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6315427B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018028625A (en) * | 2016-08-19 | 2018-02-22 | 日本電信電話株式会社 | Virtual image display system |
WO2019221025A1 (en) * | 2018-05-15 | 2019-11-21 | 株式会社デンソー | Head-up display |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050052617A1 (en) * | 2003-08-22 | 2005-03-10 | Denso Corporation | Virtual image display apparatus |
JP2009099028A (en) * | 2007-10-18 | 2009-05-07 | Nissan Motor Co Ltd | Visual information presentation device and method |
JP4970379B2 (en) * | 2008-08-06 | 2012-07-04 | カルソニックカンセイ株式会社 | Vehicle display device |
-
2014
- 2014-10-22 JP JP2014215405A patent/JP6315427B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050052617A1 (en) * | 2003-08-22 | 2005-03-10 | Denso Corporation | Virtual image display apparatus |
JP2009099028A (en) * | 2007-10-18 | 2009-05-07 | Nissan Motor Co Ltd | Visual information presentation device and method |
JP4970379B2 (en) * | 2008-08-06 | 2012-07-04 | カルソニックカンセイ株式会社 | Vehicle display device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018028625A (en) * | 2016-08-19 | 2018-02-22 | 日本電信電話株式会社 | Virtual image display system |
WO2019221025A1 (en) * | 2018-05-15 | 2019-11-21 | 株式会社デンソー | Head-up display |
Also Published As
Publication number | Publication date |
---|---|
JP6315427B2 (en) | 2018-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2914002B1 (en) | Virtual see-through instrument cluster with live video | |
US10298911B2 (en) | Visualization of spatial and other relationships | |
JPWO2014174575A1 (en) | Head-up display device for vehicle | |
JP6669019B2 (en) | VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY SYSTEM, VEHICLE DISPLAY CONTROL METHOD, AND PROGRAM | |
JP2015114757A (en) | Information processing apparatus, information processing method, and program | |
JP2015215510A (en) | Display device and display method | |
CN108027508B (en) | Display device, display image projection method, and head-up display | |
JP2018189590A (en) | Display unit and display control method | |
US20180284432A1 (en) | Driving assistance device and method | |
JP2017081456A (en) | Display device and display method | |
JP6315427B2 (en) | Display control device, display control method, display control program, and projection device | |
US20210300183A1 (en) | In-vehicle display apparatus, method for controlling in-vehicle display apparatus, and computer program | |
JP6504382B2 (en) | Display control apparatus, display system, display control method, display control program, and projection apparatus | |
CN108885802B (en) | Information processing apparatus, information processing method, and storage medium | |
JP7167918B2 (en) | vehicle display | |
JP6365879B2 (en) | Display control device, display control method, display control program, and projection device | |
JP6478201B2 (en) | Display control device, display system, display control method, display control program, and projection device | |
JP2019083385A (en) | Head-up display unit | |
JP6365409B2 (en) | Image display device for vehicle driver | |
JP6415968B2 (en) | COMMUNICATION DEVICE, WARNING DEVICE, DISPLAY DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP6315383B2 (en) | Display control program and display control apparatus | |
JP2023017641A (en) | Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program | |
US20200152157A1 (en) | Image processing unit, and head-up display device provided with same | |
JP2019151205A (en) | On-vehicle display device, method for controlling the same, and computer program | |
JP2019184758A (en) | Head-mounted display, image display method for head-mounted display, and control program for head-mounted display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180314 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180319 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6315427 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |