JP2016081465A - Display controller, display control method, display control program and projector - Google Patents

Display controller, display control method, display control program and projector Download PDF

Info

Publication number
JP2016081465A
JP2016081465A JP2014215405A JP2014215405A JP2016081465A JP 2016081465 A JP2016081465 A JP 2016081465A JP 2014215405 A JP2014215405 A JP 2014215405A JP 2014215405 A JP2014215405 A JP 2014215405A JP 2016081465 A JP2016081465 A JP 2016081465A
Authority
JP
Japan
Prior art keywords
predetermined
image
display
unit
display medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014215405A
Other languages
Japanese (ja)
Other versions
JP6315427B2 (en
Inventor
渉 仲井
Wataru Nakai
渉 仲井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014215405A priority Critical patent/JP6315427B2/en
Publication of JP2016081465A publication Critical patent/JP2016081465A/en
Application granted granted Critical
Publication of JP6315427B2 publication Critical patent/JP6315427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a display controller capable of allowing an occupant to comprehend the type and state of an object.SOLUTION: A display controller 103 includes: a determination section 105 that determines, when a recognition section 101 recognizes an object, a first position which is separated away a predetermined distance from a position determined by a determination section 102 and a second position which is a generally symmetrical position with respect to the first position determined by the first determination section, and which generally positioned on a straight line which connects the first position and the position determined by the determination section 102; and a control unit 106 that controls a display unit 104 to generate a predetermined image representing a presentation image at a first position when displayed on a display medium 130 for a period of predetermined time from a first timing, and controls the display unit 104 to generate a predetermined image which represents a presentation image at a second position when displayed on the display medium 130 for a period of predetermined time from a second timing before a predetermined time has elapsed from the first timing.SELECTED DRAWING: Figure 1

Description

本発明は、車両等の乗員に対して提供される情報の表示を制御する表示制御装置、表示制御方法、表示制御プログラム、および投影装置に関する。   The present invention relates to a display control device, a display control method, a display control program, and a projection device that control display of information provided to a passenger such as a vehicle.

近年、車両のウインドシールドに画像を投影することで、その画像を運転者に視認させるヘッドアップディスプレイ(Head‐Up Display:HUD)装置の開発が盛んである。この装置では、現実世界の対象物(例えば、他の車両、歩行者、建物など)に重畳するように画像を投影することで、対象物の視認性を向上させることができる。   2. Description of the Related Art In recent years, a head-up display (HUD) device has been actively developed that projects an image onto a windshield of a vehicle so that a driver can visually recognize the image. In this apparatus, the visibility of an object can be improved by projecting an image so as to be superimposed on an object in the real world (for example, another vehicle, a pedestrian, a building, or the like).

このようなヘッドアップディスプレイ装置では、運転者の視界において、いわゆる二重像の問題が生じる。人間の左右の眼は約6〜6.5cm離れているため、運転者がある対象物を注視した場合、左右の眼の網膜に映る像には、ずれ、すなわち両眼視差が生じる。そのため、人間が注視している対象物は単一の像として視認されるが、注視している対象物よりも遠くに、もしくは近くに存在する対象物は、二つの像、すなわち二重像となって視認される。二重像の問題を解決する方法としては、例えば、特許文献1に開示された方法がある(以下、従来技術という)。   In such a head-up display device, a so-called double image problem occurs in the driver's field of view. Since the left and right eyes of a human are approximately 6 to 6.5 cm apart, when the driver gazes at a certain object, the images appearing on the retinas of the left and right eyes are displaced, that is, binocular parallax occurs. Therefore, an object that is being watched by a human being is visually recognized as a single image, but an object that is located farther or closer than the object that is being watched is two images, that is, a double image. Become visible. As a method for solving the problem of the double image, for example, there is a method disclosed in Patent Document 1 (hereinafter referred to as a conventional technique).

従来技術では、二重像の影響を抑制することを目的として、カメラ等で検出された対象物の位置に重畳させて、二重像となって視認されても違和感を与えない画像を生成して表示する。具体的には、ドットパターンまたはIマークの形状の画像を生成し、その画像を対象物と対応付けて表示することにより、二重像が生じた場合でも、運転者が対象物の存在およびその位置を把握できるとしている。   In the prior art, for the purpose of suppressing the influence of the double image, it is superimposed on the position of the object detected by the camera or the like, and an image that does not give a sense of incongruity even when viewed as a double image is generated. To display. Specifically, by generating an image having a dot pattern or I mark shape and displaying the image in association with the object, the driver can detect the presence of the object and its presence even when a double image is generated. The position can be grasped.

特許第4970379号公報Japanese Patent No. 4970379

しかしながら、上述した従来技術は、対象物の存在の有無および対象物の位置の把握を支援するものであり、対象物の種類および状態の把握を支援することはできない。よって、従来技術では、対象物の認識性を向上させるための画像表示としては不十分であった。   However, the above-described conventional technology supports the presence / absence of an object and the position of the object, and cannot support the understanding of the type and state of the object. Therefore, the conventional technology is insufficient as an image display for improving the recognition of the object.

本発明の目的は、対象物の種類および状態を乗員に把握させることができる表示制御装置、表示制御方法、表示制御プログラム、および投影装置を提供することである。   An object of the present invention is to provide a display control device, a display control method, a display control program, and a projection device that allow an occupant to grasp the type and state of an object.

本発明の一態様に係る表示制御装置は、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する第1決定部と、所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおける表示制御装置であって、前記認識部において前記所定の対象物が認識された場合、前記第1決定部で決定された位置から所定距離離れた第1の位置と、前記第1決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する第2決定部と、第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する制御部と、を備える構成を採る。   A display control apparatus according to an aspect of the present invention acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image; Determining a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light; 1 A display control device in a display system including a determination unit and a display unit that generates a predetermined image and displays the predetermined image on the display medium, wherein the predetermined object is recognized by the recognition unit In this case, the first position that is a predetermined distance away from the position determined by the first determination unit, and a position that substantially exists on a straight line connecting the position determined by the first determination unit and the first position. And determined by the first determining unit. A second determination unit that determines a second position that is substantially symmetrical to the first position with respect to the first position, and the second determination unit is displayed on the display medium for a predetermined time from the first timing. Sometimes the display unit is controlled to generate a predetermined image representing a predetermined presentation image at the first position, and the predetermined time from the second timing before the predetermined time elapses from the first timing. A control unit that controls the display unit so as to generate the predetermined image representing the predetermined presentation image at the second position when displayed on the display medium for a period of time.

本発明の一態様に係る表示制御方法は、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する決定部と、所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおける表示制御方法であって、前記認識部において前記所定の対象物が認識された場合、前記決定部で決定された位置から所定距離離れた第1の位置と、前記決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定し、第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御するようにした。   A display control method according to an aspect of the present invention acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image; Determination to determine a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light And a display control method including a display unit that generates a predetermined image and displays the predetermined image on the display medium, and when the predetermined object is recognized by the recognition unit, A first position that is a predetermined distance away from the position determined by the determination unit; and a line that connects the position determined by the determination unit and the first position; and 1 The position determined by the determination unit And determining a second position that is substantially symmetrical to the first position, and the predetermined position is set to the first position when displayed on the display medium for a predetermined time from the first timing. The display unit is controlled so as to generate a predetermined image representing a presentation image, and displayed on the display medium for a predetermined time from a second timing before the predetermined time elapses from the first timing. When this is done, the display unit is controlled so as to generate the predetermined image representing the predetermined presentation image at the second position.

本発明の一態様に係る表示制御プログラムは、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する決定部と、所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおけるコンピュータに実行させる表示制御方法であって、前記コンピュータに、前記認識部において前記所定の対象物が認識された場合、前記決定部で決定された位置から所定距離離れた第1の位置と、前記決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する処理と、第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御する処理と、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する処理と、を実行させるようにした。   A display control program according to an aspect of the present invention acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image; Determination to determine a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light And a display control method for causing a computer in a display system to generate a predetermined image and displaying the predetermined image on the display medium. When the object is recognized, the object is substantially on a straight line connecting the first position separated from the position determined by the determination unit by a predetermined distance, and the position determined by the determination unit and the first position. A process of determining a second position that exists and is substantially symmetrical to the first position with respect to the position determined by the first determination unit; and a predetermined time from the first timing A process for controlling the display unit to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium, and the predetermined time from the first timing. The display unit is configured to generate the predetermined image representing the predetermined presentation image at the second position when displayed on the display medium for a predetermined time from a second timing before the passage. The process to control was executed.

本発明の一態様に係る投影装置は、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する第1決定部と、を含む表示システムにおける投影装置であって、所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、前記認識部において前記所定の対象物が認識された場合、前記第1決定部で決定された位置から所定距離離れた第1の位置と、前記第1決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する第2決定部と、第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する制御部と、を備える構成を採る。   A projection apparatus according to an aspect of the present invention acquires a foreground image that is an image of a foreground of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image, A first position for determining a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through the display medium that transmits light. A display unit including a determination unit, and a display unit that generates a predetermined image and displays the predetermined image on the display medium; and when the predetermined object is recognized by the recognition unit, A first position that is a predetermined distance away from the position determined by the first determination unit, and substantially exists on a straight line connecting the position determined by the first determination unit and the first position; And the position determined by the first determination unit A second determination unit that determines a second position that is substantially symmetrical to the first position, and when displayed on the display medium for a predetermined time from a first timing, The display unit is controlled so as to generate a predetermined image representing a predetermined presentation image at a first position, and during the predetermined time from a second timing before the predetermined time elapses from the first timing. A control unit that controls the display unit so as to generate the predetermined image representing the predetermined presentation image at the second position when displayed on the display medium.

本発明によれば、対象物の種類および状態を乗員に把握させることができる。   According to the present invention, the occupant can grasp the type and state of the object.

本発明の実施の形態に係る表示システムの構成例を示すブロック図The block diagram which shows the structural example of the display system which concerns on embodiment of this invention 本発明の実施の形態に係る前景の一例を示す図The figure which shows an example of the foreground which concerns on embodiment of this invention 本発明の実施の形態に係る対象物、表示媒体、乗員の目の位置関係の一例を示す図The figure which shows an example of the positional relationship of the target object which concerns on embodiment of this invention, a display medium, and a passenger | crew 画像を表示媒体に表示したときの一例を示す図The figure which shows an example when displaying an image on a display medium 図4Aに示す画像が二重像となって見えるときの一例を示す図The figure which shows an example when the image shown to FIG. 4A appears as a double image 本発明の実施の形態に係る第1のタイミングで画像を表示媒体に表示したときの一例を示す図The figure which shows an example when an image is displayed on the display medium at the 1st timing which concerns on embodiment of this invention. 図5Aに示す画像が二重像となって見えるときの一例を示す図The figure which shows an example when the image shown to FIG. 5A looks as a double image 本発明の実施の形態に係る第2のタイミングで画像を表示媒体に表示したときの一例を示す図The figure which shows an example when an image is displayed on the display medium at the 2nd timing which concerns on embodiment of this invention. 図6Aに示す画像が二重像となって見えるときの一例を示す図The figure which shows an example when the image shown to FIG. 6A looks as a double image 本発明の実施の形態に係る表示システムの動作例を示すフローチャートThe flowchart which shows the operation example of the display system which concerns on embodiment of this invention. 乗員の頭部が傾いた場合において補正処理が行われずに第1のタイミングで表示された画像が二重像となって見えるときの一例を示す図The figure which shows an example when the image displayed at the 1st timing is seen as a double image, when correction | amendment processing is not performed when a passenger | crew's head inclines. 乗員の頭部が傾いた場合において補正処理が行われずに第2のタイミングで表示された画像が二重像となって見えるときの一例を示す図The figure which shows an example when the image displayed at the 2nd timing is seen as a double image, when correction | amendment processing is not performed when a passenger | crew's head inclines. 乗員の頭部が傾いた場合において補正処理が行われて第1のタイミングで表示された画像が二重像となって見えるときの一例を示す図The figure which shows an example when the image displayed at the 1st timing looks like a double image when correction | amendment processing is performed when a passenger | crew's head inclines 乗員の頭部が傾いた場合において補正処理が行われて第2のタイミングで表示された画像が二重像となって見えるときの一例を示す図The figure which shows an example when the correction | amendment process is performed when the passenger | crew's head inclines and the image displayed at the 2nd timing looks as a double image 第1のタイミングで表示された画像の輝度の変化の一例を示す図The figure which shows an example of the change of the brightness | luminance of the image displayed at the 1st timing. 第2のタイミングで表示された画像の輝度の変化の一例を示す図The figure which shows an example of the change of the brightness | luminance of the image displayed at the 2nd timing. 第1のタイミングで表示された画像の輝度の変化の一例を示す図The figure which shows an example of the change of the brightness | luminance of the image displayed at the 1st timing. 第2のタイミングで表示された画像の輝度の変化の一例を示す図The figure which shows an example of the change of the brightness | luminance of the image displayed at the 2nd timing. 本発明の実施の形態に係る表示システム、表示制御装置のハードウェア構成例を示すブロック図The block diagram which shows the hardware structural example of the display system which concerns on embodiment of this invention, and a display control apparatus

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、本実施の形態に係る表示システム100の構成例について図1を用いて説明する。図1は、本実施の形態に係る表示システム100の構成例を示すブロック図である。   First, a configuration example of the display system 100 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram illustrating a configuration example of a display system 100 according to the present embodiment.

表示システム100は、例えば、車両等の移動体において用いられ、車両の運転を支援するシステムである。表示システム100は、車載機器であってもよいし、車両に持ち込まれる機器であってもよい。また、表示システム100が車両に適用されたものとして説明するが、移動体は、車両に限定されず、船舶、航空機等であってもよい。また、本実施の形態では、ユーザが車両の乗員、特に車両の運転者である例について説明するが、その限りではない。さらには、表示システム100は、ユーザの身体に装着可能なウェアラブルコンピュータ(例えば、後述するHMD)において用いられてもよい。   The display system 100 is a system that is used in a moving body such as a vehicle and supports driving of the vehicle. The display system 100 may be an in-vehicle device or a device brought into a vehicle. Although the display system 100 is described as being applied to a vehicle, the moving body is not limited to the vehicle, and may be a ship, an aircraft, or the like. In this embodiment, an example in which the user is a vehicle occupant, particularly a vehicle driver, is described, but the present invention is not limited thereto. Furthermore, the display system 100 may be used in a wearable computer (for example, an HMD described later) that can be worn on the user's body.

この表示システム100には、図1に示すように、カメラ110、カメラ120、表示媒体130が接続される。   As shown in FIG. 1, a camera 110, a camera 120, and a display medium 130 are connected to the display system 100.

カメラ110は、車両の内部または外部に搭載され、運転者の前方の視界(以下、前景という)を撮影する。カメラ110により撮影された画像(以下、前景画像という)は、後述する認識部101へ出力される。なお、本実施の形態では、前景をセンシングする手段としてカメラ110を用いるとするが、これに限定されるものではなく、例えばレーダ等を用いてもよい。   The camera 110 is mounted inside or outside the vehicle and photographs a field of view in front of the driver (hereinafter referred to as foreground). An image photographed by the camera 110 (hereinafter referred to as a foreground image) is output to the recognition unit 101 described later. In the present embodiment, the camera 110 is used as means for sensing the foreground. However, the present invention is not limited to this. For example, a radar or the like may be used.

カメラ120は、インナーカメラまたはドライバモニタリングカメラと呼ばれるカメラであり、車両の内部に搭載され、運転者の顔を撮影する。カメラ120により撮影された画像(以下、顔画像という)は、後述する決定部102へ出力される。   The camera 120 is a camera called an inner camera or a driver monitoring camera, and is mounted inside the vehicle to photograph the driver's face. An image photographed by the camera 120 (hereinafter referred to as a face image) is output to the determination unit 102 described later.

表示媒体130は、車両において用いられ、後述する表示部104で生成された画像(詳細は後述する)が表示される媒体である。本実施の形態では、表示媒体130は、光を透過する透過型の表示媒体である。   The display medium 130 is a medium that is used in a vehicle and displays an image (details will be described later) generated by the display unit 104 described later. In the present embodiment, the display medium 130 is a transmissive display medium that transmits light.

表示媒体130としては、例えば、ヘッドアップディスプレイ(Head Up Display:HUD)、LCD(Liquid Crystal Display)、HMD(Head‐Mounted DisplayまたはHelmet‐Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、その他の専用のディスプレイなどが適用される。また、HUDは、例えば、車両のウインドシールドであってもよいし、別途設けられるガラス面、プラスチック面(例えば、コンバイナ)などであってもよい。また、ウインドシールドは、例えば、フロントガラスであってもよいし、車両のサイドガラスまたはリアガラスであってもよい。   Examples of the display medium 130 include a head up display (HUD), an LCD (Liquid Crystal Display), an HMD (Head-Mounted Display or Helmet-Mounted Display), an eyeglass-type display (Smart Glasses), and other dedicated displays. The display etc. are applied. Further, the HUD may be, for example, a windshield of a vehicle, a glass surface provided separately, a plastic surface (for example, a combiner), or the like. The windshield may be, for example, a windshield, a vehicle side glass, or a rear glass.

さらに、HUDは、ウインドシールドの表面または内側に備えられた透過型ディスプレイであってもよい。ここで、透過型ディスプレイとは、例えば、透過型の有機ELディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイである。運転者は、背景を視認すると同時に、透過型ディスプレイ上の表示を視認することができる。このように表示媒体130は、光を透過する表示媒体である。いずれの場合も、画像は表示媒体130に表示される。   Further, the HUD may be a transmissive display provided on or inside the windshield. Here, the transmissive display is, for example, a transmissive organic EL display or a transparent display using glass that emits light when irradiated with light of a specific wavelength. The driver can view the display on the transmissive display at the same time as viewing the background. Thus, the display medium 130 is a display medium that transmits light. In either case, the image is displayed on the display medium 130.

なお、図1の例では、表示システム100は、表示媒体130を含まない構成としたが、表示媒体130を含む構成としてもよい。   In the example of FIG. 1, the display system 100 is configured not to include the display medium 130, but may be configured to include the display medium 130.

図1において、表示システム100は、認識部101、決定部102、表示制御装置103、および表示部104を有する。また、表示制御装置103は、決定部105、制御部106を有する。以下、各部について説明する。   In FIG. 1, the display system 100 includes a recognition unit 101, a determination unit 102, a display control device 103, and a display unit 104. In addition, the display control apparatus 103 includes a determination unit 105 and a control unit 106. Hereinafter, each part will be described.

認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に基づいて対象物の認識を行う。また、認識部101は、対象物を認識した場合、その対象物の位置を算出する。対象物とは、例えば、道路上の白線、標識、路面標示、縁石、ガードレール、信号機、電柱、車両、人物、建物などである。なお、対象物の認識処理および対象物の位置の算出処理は公知のため、詳細な説明は省略する。   The recognition unit 101 extracts a feature amount included in the foreground image acquired from the camera 110, and recognizes an object based on the extracted feature amount. Further, when the recognition unit 101 recognizes an object, the recognition unit 101 calculates the position of the object. The target object is, for example, a white line on a road, a sign, a road marking, a curb, a guardrail, a traffic light, a utility pole, a vehicle, a person, a building, and the like. Note that the object recognition process and the object position calculation process are well known, and thus detailed description thereof is omitted.

また、認識部101は、所定の対象物を認識した場合、その対象物の輪郭を検出する。例えば、認識部101は、前景画像に対して、特定の微分フィルタによるエッジ抽出を行うことで、対象物の輪郭を検出する。なお、対象物のエッジの検出処理は公知のため、詳細な説明は省略する。   Further, when the recognition unit 101 recognizes a predetermined object, the recognition unit 101 detects the contour of the object. For example, the recognition unit 101 detects the contour of the target object by performing edge extraction using a specific differential filter on the foreground image. In addition, since the detection process of the edge of a target object is well-known, detailed description is abbreviate | omitted.

そして、認識部101は、対象物の位置を示す情報(以下、対象物位置情報という)を決定部102へ出力し、対象物の輪郭を示す情報(以下、輪郭情報という)を表示制御装置103の制御部106へ出力する。   Then, the recognition unit 101 outputs information indicating the position of the object (hereinafter referred to as object position information) to the determination unit 102, and displays information indicating the outline of the object (hereinafter referred to as contour information) as the display control device 103. To the control unit 106.

ここで、運転者の前景の一例を図2に示す。図2に示すように、車両の前方に、車両が走行している道路を横断しようとする歩行者200が存在する場合、運転者は、表示媒体130を介して歩行者200を視認できる。この場合、認識部101は、歩行者200を認識するとともに、歩行者200の位置を算出する。また、認識部101は、歩行者200の輪郭を検出する。そして、認識部101は、歩行者200の位置を示す対象物位置情報を決定部102へ出力し、歩行者200の輪郭を示す輪郭情報を表示制御装置103へ出力する。   Here, an example of the driver's foreground is shown in FIG. As shown in FIG. 2, when there is a pedestrian 200 trying to cross the road on which the vehicle is traveling in front of the vehicle, the driver can visually recognize the pedestrian 200 via the display medium 130. In this case, the recognition unit 101 recognizes the pedestrian 200 and calculates the position of the pedestrian 200. The recognition unit 101 detects the contour of the pedestrian 200. Then, the recognizing unit 101 outputs object position information indicating the position of the pedestrian 200 to the determining unit 102, and outputs contour information indicating the outline of the pedestrian 200 to the display control device 103.

決定部102は、カメラ120から取得した顔画像に基づいて運転者の目の領域(以下、目領域という)を検出する。目領域とは、例えば、両眼を含む所定の領域である。なお、顔画像に対して画像処理を行うことで目領域を検出する処理は公知のため、詳細な説明は省略する。また、本実施の形態では、決定部102が顔画像に基づいて目領域を検出するとしたが、目領域は、例えば、予め定められた領域でもよいし、または、運転者の視線を検知する視線検知部(図示略)が検知した視線に基づいて検出した領域でもよい。   The determination unit 102 detects a driver's eye area (hereinafter referred to as an eye area) based on the face image acquired from the camera 120. The eye area is a predetermined area including both eyes, for example. In addition, since the process which detects an eye area | region by performing image processing with respect to a face image is well-known, detailed description is abbreviate | omitted. In the present embodiment, the determination unit 102 detects the eye area based on the face image. However, the eye area may be a predetermined area, or a line of sight that detects the driver's line of sight, for example. It may be an area detected based on the line of sight detected by a detection unit (not shown).

そして、決定部102は、検出した目領域のうちの所定の点(例えば、左右いずれかの目、または、左目と右目との間の中心)の位置、認識部101から取得した対象物位置情報が示す対象物の位置、表示媒体130の位置の関係から、表示部104で生成された画像が表示される表示媒体130上の位置(以下、画像表示位置という)を決定する。この画像表示位置は、換言すれば、目領域の所定点から表示媒体130を介して対象物が観察されたときにおける、対象物の表示媒体130上の位置である。なお、画像表示位置の決定処理は公知のため、詳細な説明は省略する。   Then, the determination unit 102 determines the position of a predetermined point (for example, the left or right eye or the center between the left eye and the right eye) in the detected eye region, and the object position information acquired from the recognition unit 101. The position on the display medium 130 where the image generated by the display unit 104 is displayed (hereinafter referred to as an image display position) is determined from the relationship between the position of the object indicated by In other words, this image display position is the position of the object on the display medium 130 when the object is observed through the display medium 130 from a predetermined point in the eye area. Since the image display position determination process is publicly known, detailed description thereof is omitted.

ここで、画像表示位置の決定処理の一例について図3を用いて説明する。図3は、運転者が表示媒体130を介して歩行者200を注視したときにおける、歩行者200、表示媒体130、運転者の両眼の位置関係を模式的に示す図である。図3において、破線は、歩行者200を注視している運転者の視線を示している。   An example of the image display position determination process will be described with reference to FIG. FIG. 3 is a diagram schematically showing the positional relationship between the pedestrian 200, the display medium 130, and the driver's eyes when the driver gazes at the pedestrian 200 via the display medium 130. In FIG. 3, the broken line indicates the line of sight of the driver who is gazing at the pedestrian 200.

また、図3において、仮想線L1は、運転者の右目の位置P1と左目の位置P2とを通る水平な線である。また、仮想線L2は、運転者の目領域のうちの所定の点の位置P3と、歩行者200の位置P4とを通り、仮想線L1に垂直な線である。位置P3は、例えば、右目の位置P1と左目の位置P2との間における中央の位置である。なお、仮想線L1、L2は、説明のために図示したものであり、表示媒体130上には表示されない。   In FIG. 3, the imaginary line L1 is a horizontal line passing through the right eye position P1 and the left eye position P2 of the driver. The virtual line L2 is a line that passes through the position P3 of a predetermined point in the driver's eye area and the position P4 of the pedestrian 200 and is perpendicular to the virtual line L1. The position P3 is, for example, a central position between the right eye position P1 and the left eye position P2. Note that the virtual lines L1 and L2 are shown for explanation, and are not displayed on the display medium 130.

このような図3において、例えば、決定部102は、位置P3と位置P4とを通る仮想線L2が表示媒体130と交わる位置P5を、画像表示位置に決定する。従来では、このようにして決定された画像表示位置に画像が表示されることになるが、本実施の形態では、ここで決定された画像表示位置を所定距離ずらして第1の位置および第2の位置を決定する処理を後述の決定部105が行う。この第1の位置および第2の位置の決定処理の詳細は後述する。   In FIG. 3, for example, the determination unit 102 determines the position P5 where the virtual line L2 passing through the position P3 and the position P4 intersects the display medium 130 as the image display position. Conventionally, an image is displayed at the image display position determined in this manner. In the present embodiment, the first position and the second position are determined by shifting the image display position determined here by a predetermined distance. The determination unit 105 (to be described later) performs a process for determining the position. Details of the determination processing of the first position and the second position will be described later.

そして、決定部102は、画像表示位置を示す情報(以下、画像表示位置情報という)を表示制御装置103の決定部105へ出力する。また、決定部102は、画像表示位置情報以外にも、認識部101で認識された対象物の情報(例えば、上記対象物位置情報、カメラ110から対象物までの距離を示す距離情報など)を認識部101から取得し、決定部105へ出力する。   Then, the determination unit 102 outputs information indicating the image display position (hereinafter referred to as image display position information) to the determination unit 105 of the display control device 103. In addition to the image display position information, the determination unit 102 also includes information on the object recognized by the recognition unit 101 (for example, the object position information and distance information indicating the distance from the camera 110 to the object). Obtained from the recognition unit 101 and output to the determination unit 105.

決定部105は、画像表示位置情報が示す画像表示位置から所定距離離れた第1の位置および第2の位置を決定する。   The determination unit 105 determines a first position and a second position that are separated from the image display position indicated by the image display position information by a predetermined distance.

ここで、第1の位置および第2の位置の決定処理の一例について図3を用いて説明する。図3において、表示媒体130と仮想線L1はともに水平であるとする。   Here, an example of the determination process of the first position and the second position will be described with reference to FIG. In FIG. 3, it is assumed that both the display medium 130 and the virtual line L1 are horizontal.

まず、決定部105は、歩行者200からカメラ110までの距離と、予め定められたカメラ110から表示媒体130までの距離とに基づいて、歩行者200の位置P4から画像表示位置P5までの距離D2を算出する。   First, the determination unit 105 determines the distance from the position P4 of the pedestrian 200 to the image display position P5 based on the distance from the pedestrian 200 to the camera 110 and the predetermined distance from the camera 110 to the display medium 130. D2 is calculated.

次に、決定部105は、算出した距離D2と、画像表示位置P5から運転者の目領域のうちの所定の点の位置P3までの距離とに基づいて、位置P4から位置P3までの距離D4を算出する。   Next, the determination unit 105 determines the distance D4 from the position P4 to the position P3 based on the calculated distance D2 and the distance from the image display position P5 to the position P3 of a predetermined point in the driver's eye area. Is calculated.

次に、決定部105は、位置P3から運転者の左目の位置P2までの距離D3を算出する。   Next, the determination unit 105 calculates a distance D3 from the position P3 to the position P2 of the driver's left eye.

次に、決定部105は、位置P4、P6、P5から成る三角形と、位置P4、P2、P3から成る三角形との相似比を用いて、画像表示位置P5をずらす距離D1を算出する。すなわち、決定部105は、以下の式により距離D1を算出する。
D1=D2×D3/D4
Next, the determination unit 105 calculates a distance D1 for shifting the image display position P5 by using a similarity ratio between the triangle formed by the positions P4, P6, and P5 and the triangle formed by the positions P4, P2, and P3. That is, the determination unit 105 calculates the distance D1 by the following formula.
D1 = D2 × D3 / D4

次に、決定部105は、画像表示位置P5を左方向へ距離D1ずらした位置P6を、第1の位置に決定する。   Next, the determination unit 105 determines a position P6 obtained by shifting the image display position P5 by the distance D1 leftward as the first position.

次に、決定部105は、画像表示位置P5を右方向へ距離D1ずらした位置P7を、第2の位置に決定する。第2の位置P7は、画像表示位置P5と位置P6とを結んだ直線上に実質的に存在し、画像表示位置P5に対して位置P6と実質的に対称の位置である。   Next, the determination unit 105 determines a position P7 obtained by shifting the image display position P5 to the right by the distance D1 as the second position. The second position P7 substantially exists on a straight line connecting the image display position P5 and the position P6, and is substantially symmetric with respect to the position P6 with respect to the image display position P5.

そして、決定部105は、第1の位置および第2の位置を示す位置情報を制御部106へ出力する。   Then, the determination unit 105 outputs position information indicating the first position and the second position to the control unit 106.

制御部106は、輪郭情報および位置情報に基づいて、所定画像を生成し、表示するように表示部104を制御する。例えば、制御部106は、所定画像の生成と表示についての制御の内容を示す制御情報を生成し、その制御情報を表示部104へ出力することで、表示部104を制御する。なお、制御部106による制御の詳細は、後述する。   The control unit 106 controls the display unit 104 to generate and display a predetermined image based on the contour information and the position information. For example, the control unit 106 controls the display unit 104 by generating control information indicating the content of control for generation and display of a predetermined image and outputting the control information to the display unit 104. Details of the control by the control unit 106 will be described later.

上記所定画像とは、表示部104により生成される画像であり、表示媒体130に表示されたときに車両の乗員に提示される提示画像(例えば、後述する画像300等)を示す画像である。すなわち、提示画像と所定画像とは実質的に内容が同じである。   The predetermined image is an image generated by the display unit 104 and is an image indicating a presentation image (for example, an image 300 described later) presented to the vehicle occupant when displayed on the display medium 130. That is, the contents of the presented image and the predetermined image are substantially the same.

表示部104は、制御部106から取得した制御情報に基づいて、所定画像を生成し、その所定画像を表示媒体130に表示する。例えば表示媒体130がHUDである場合、表示部104は、プロジェクタ機能を用いて、所定画像を表示媒体130に投射(投影)する。これにより、所定画像は、運転者に虚像として視認される。なお、表示媒体に投射された画像が虚像として運転者に視認される原理は公知のため、詳細な説明は省略する。   The display unit 104 generates a predetermined image based on the control information acquired from the control unit 106 and displays the predetermined image on the display medium 130. For example, when the display medium 130 is a HUD, the display unit 104 projects (projects) a predetermined image on the display medium 130 using a projector function. Thereby, the predetermined image is visually recognized as a virtual image by the driver. In addition, since the principle by which the image projected on the display medium is visually recognized by the driver as a virtual image is well known, detailed description is omitted.

本実施の形態では、所定画像を表示媒体130に投射して乗員に虚像として認識させることと、所定画像を表示媒体130に表示することとは同義であるとして、以下説明する。すなわち、以下の説明において、HUDへ所定画像が投射されて、乗員に虚像として視認される事象を、表示と表現する。   In the present embodiment, the following description will be given on the assumption that the predetermined image is projected on the display medium 130 and the occupant recognizes it as a virtual image and that the predetermined image is displayed on the display medium 130. That is, in the following description, an event in which a predetermined image is projected on the HUD and visually recognized as a virtual image by the occupant is expressed as display.

なお、表示部104は、プロジェクタ機能を用いる代わりに、例えば、ホログラムの原理を用いてHUDに画像を表示させてもよい。ホログラムを用いる場合、導光板の内部全反射条件を満たす平行光束群を内部全反射して導光する導光板を用いる方式でもよい。導光板を用いた方式においては、プロジェクタのように画像を直接的に投射するものではないが、説明の便宜上、プロジェクタ方式と同様に投射または表示という定義で説明する。   Note that the display unit 104 may display an image on the HUD using, for example, the principle of a hologram instead of using the projector function. In the case of using a hologram, a system using a light guide plate that guides a parallel light beam group that satisfies the total internal reflection condition of the light guide plate by total internal reflection may be used. In the method using the light guide plate, an image is not directly projected as in the projector, but for the sake of convenience of explanation, the definition of projection or display will be described as in the projector method.

また、本実施の形態では、表示部104が所定画像を生成するとしたが、所定画像は、表示制御装置103または図示しない他の構成要素によって生成されてもよい。   In the present embodiment, the display unit 104 generates a predetermined image. However, the predetermined image may be generated by the display control device 103 or another component not shown.

また、表示部104を表示制御装置103に含めることで投影装置として構成してもよい。   Further, the display unit 104 may be included in the display control device 103 to configure as a projection device.

次に、制御部106による制御処理の具体例について以下に説明する。ここでは、まず、本実施の形態との比較例として、バイオロジカル・モーション(詳細は後述)として動作させる点群を表す画像が表示媒体130上の歩行者200の位置(上述した画像表示位置P5)に表示される場合の制御処理について図4を用いて説明し、その後、本実施の形態の制御処理について図5、図6を用いて説明する。   Next, a specific example of control processing by the control unit 106 will be described below. Here, as a comparative example with the present embodiment, first, an image representing a point cloud operated as biological motion (details will be described later) is the position of the pedestrian 200 on the display medium 130 (the above-described image display position P5). ) Will be described with reference to FIG. 4, and then the control processing of the present embodiment will be described with reference to FIGS. 5 and 6.

まず、比較例における制御処理について説明する。図4Aは、表示部104が制御部106の制御情報に基づいて画像を生成し、その画像を表示媒体130に表示したときの一例を示している。この場合、制御部106は、歩行者200の輪郭を示す輪郭情報に基づいて、対象物が人物であることを認識する。そして、制御部106は、人物の形状を表す画像として予め定められた画像300を生成するように、かつ、その画像300を表示媒体130上の歩行者200の位置(上述した画像表示位置P5)に表示するように、表示部104を制御する。   First, the control process in the comparative example will be described. FIG. 4A shows an example when the display unit 104 generates an image based on the control information of the control unit 106 and displays the image on the display medium 130. In this case, the control unit 106 recognizes that the object is a person based on the contour information indicating the contour of the pedestrian 200. Then, the control unit 106 generates a predetermined image 300 as an image representing the shape of the person, and uses the image 300 as the position of the pedestrian 200 on the display medium 130 (the above-described image display position P5). The display unit 104 is controlled so as to be displayed.

ここで、画像300について説明する。画像300は、歩行者200の骨格(例えば、人間の頭、肩、肘、手首、膝、足首などの部位)を代表する点群を表す画像である。この点群は、バイオロジカル・モーションとして動作する。よって、点群は、歩行者200の動きに合わせて配置が変わるが、所定点と所定点の間(以下、点間という)の距離は部位間の距離に対応するため、規定の部位間の制約を逸脱して点の配置が異なることはない。すなわち、点間の距離は、所定の距離(実際の部位間の距離)以上になることはない。なお、上記点群は、必ずしも対象物の各部位の位置を正確に示すものである必要は無く、各部位のおおよその位置を示すものであってもよい。   Here, the image 300 will be described. The image 300 is an image representing a point group representing the skeleton of the pedestrian 200 (for example, a human head, shoulders, elbows, wrists, knees, ankles, etc.). This point cloud operates as a biological motion. Therefore, the arrangement of the point group changes in accordance with the movement of the pedestrian 200, but the distance between the predetermined points and the predetermined points (hereinafter referred to as point-to-points) corresponds to the distance between the regions. There is no difference in the arrangement of points outside the constraints. That is, the distance between points does not exceed a predetermined distance (actual distance between parts). In addition, the said point group does not necessarily need to show the position of each site | part of a target object correctly, and may show the approximate position of each site | part.

このような画像300により、運転者は、周辺視野に存在する対象に視線を向けることなく、対象物の種類および対象物の状態を把握することができる。例えば、運転者は、点群の配置の変化により人間特有の動作を直感的に認識できるので、視界の中に様々な物体(例えば、建物、車両等)が存在していても、歩行者200を瞬時に認識できる。   Such an image 300 allows the driver to grasp the type of the object and the state of the object without directing his / her line of sight to the object existing in the peripheral visual field. For example, since the driver can intuitively recognize human-specific movements by changing the arrangement of the point cloud, even if various objects (for example, buildings, vehicles, etc.) exist in the field of view, the pedestrian 200 Can be recognized instantly.

なお、本実施の形態では、バイオロジカル・モーションとして動作させる対象を点として説明したが、歩行者200であることを認識できるのであれば、面積を持った正円、楕円、または矩形等の形状のマーカを採用してもよい。   In this embodiment, the target to be operated as biological motion has been described as a point. However, if it can be recognized that the person is a pedestrian 200, a shape such as a perfect circle, an ellipse, or a rectangle having an area can be used. These markers may be used.

図4Bは、図4Aに示す画像300の見え方の一例を示している。運転者は、表示媒体130を介して歩行者200を見た場合、図4Bに示すように、歩行者200の左側に画像300Lが、歩行者200の右側に画像300Rが見えることになる。すなわち、運転者にとっては、図4Aに示す画像300が二重像となって見える。そのため、運転者は、対象物の数、および、その対象物の存在する位置を正確に把握することは難しい。   FIG. 4B shows an example of how the image 300 shown in FIG. 4A looks. When the driver views the pedestrian 200 via the display medium 130, the image 300L is seen on the left side of the pedestrian 200 and the image 300R is seen on the right side of the pedestrian 200, as shown in FIG. 4B. That is, for the driver, the image 300 shown in FIG. 4A appears as a double image. Therefore, it is difficult for the driver to accurately grasp the number of objects and the position where the objects are present.

そこで、本実施の形態では、制御部106が以下の制御処理を行うことで、運転者が対象物の種類および状態を容易に把握できるようにする。次に、本実施の形態の制御処理について説明する。   Therefore, in the present embodiment, the control unit 106 performs the following control process so that the driver can easily grasp the type and state of the object. Next, control processing according to the present embodiment will be described.

まず、制御部106は、歩行者200の輪郭を示す輪郭情報に基づいて、対象物が人物であることを認識する。そして、制御部106は、第1のタイミングから所定時間の間、人物の形状を表す画像として予め定められた画像300を生成し、その画像300を表示媒体130上の歩行者200の位置から左側へ距離D1ずらした第1の位置P6に表示するように表示部104を制御する。このときの例を図5A、図5Bに示す。   First, the control unit 106 recognizes that the object is a person based on contour information indicating the contour of the pedestrian 200. The control unit 106 generates a predetermined image 300 as an image representing the shape of the person for a predetermined time from the first timing, and the image 300 is displayed on the left side from the position of the pedestrian 200 on the display medium 130. The display unit 104 is controlled to display at the first position P6 shifted by the distance D1. An example at this time is shown in FIGS. 5A and 5B.

図5Aは、表示媒体130上の第1の位置P6に画像300が表示された例を示している。図5Aに示すように、画像300は、歩行者200の位置(上記画像表示位置P5)よりも左側へずれて表示される。   FIG. 5A shows an example in which the image 300 is displayed at the first position P6 on the display medium 130. FIG. As shown in FIG. 5A, the image 300 is displayed shifted to the left from the position of the pedestrian 200 (the image display position P5).

図5Bは、図5Aに示す画像300の見え方の一例を示している。運転者は、表示媒体130を介して歩行者200を見た場合、図5Bに示すように、歩行者200の左側に画像300Lが、歩行者200の位置に画像300Rが見えることになる。すなわち、運転者にとっては、図5Aに示す画像300が二重像となって見えるが、画像300Rは歩行者200の位置に重なって見える。   FIG. 5B shows an example of how the image 300 shown in FIG. 5A looks. When the driver views the pedestrian 200 through the display medium 130, the image 300L is seen on the left side of the pedestrian 200 and the image 300R is seen at the position of the pedestrian 200, as shown in FIG. 5B. That is, for the driver, the image 300 shown in FIG. 5A appears as a double image, but the image 300R appears to overlap the position of the pedestrian 200.

次に、制御部106は、第2のタイミングから所定時間の間、画像300を生成するように、かつ、その画像300を表示媒体130上の歩行者200の位置から右側へ距離D1ずらした第2の位置P7に表示するように、表示部104を制御する。このときの例を図6A、図6Bに示す。第2のタイミングとは、上述した第1のタイミングから所定時間が経過するより前のタイミングである。   Next, the control unit 106 generates the image 300 for a predetermined time from the second timing, and shifts the image 300 from the position of the pedestrian 200 on the display medium 130 to the right by the distance D1. The display unit 104 is controlled to display at the second position P7. An example at this time is shown in FIGS. 6A and 6B. The second timing is a timing before a predetermined time elapses from the first timing described above.

図6Aは、表示媒体130上の第2の位置P7に画像300が表示された例を示している。図6Aに示すように、画像300は、歩行者200の位置(上記画像表示位置P5)よりも右側へずれて表示される。   FIG. 6A shows an example in which the image 300 is displayed at the second position P7 on the display medium 130. FIG. As shown in FIG. 6A, the image 300 is displayed shifted to the right from the position of the pedestrian 200 (the image display position P5).

図6Bは、図6Aに示す画像300の見え方の一例を示している。運転者は、表示媒体130を介して歩行者200を見た場合、図6Bに示すように、歩行者200の右側に画像300Rが、歩行者200の位置に画像300Lが見えることになる。すなわち、運転者にとっては、図6Aに示す画像300が二重像となって見えるが、画像300Lは歩行者200の位置に重なって見える。   FIG. 6B shows an example of how the image 300 shown in FIG. 6A looks. When the driver views the pedestrian 200 via the display medium 130, the image 300R is seen on the right side of the pedestrian 200 and the image 300L is seen at the position of the pedestrian 200, as shown in FIG. 6B. That is, for the driver, the image 300 shown in FIG. 6A appears as a double image, but the image 300L appears to overlap the position of the pedestrian 200.

制御部106は、上記第1のタイミングのときの制御処理と、上記第2タイミングのときの制御処理とを繰り返し行う。これにより、運転者にとっては、歩行者200の位置に画像300Rまたは画像300Lのいずれかが常に重なって見えることになるため、運転者は、対象物が歩行者であるか(対象物の種類)、および、その対象物が車道を横断しようとしているか(対象物の状態)を把握することができる。   The control unit 106 repeatedly performs the control process at the first timing and the control process at the second timing. As a result, for the driver, since either the image 300R or the image 300L always appears to overlap the position of the pedestrian 200, the driver determines whether the object is a pedestrian (type of object). And whether the object is about to cross the roadway (state of the object).

以上、本実施の形態に係る表示システム100の構成例について説明した。   The configuration example of the display system 100 according to the present embodiment has been described above.

次に、本実施の形態に係る表示システム100の動作例について図7を用いて説明する。図7は、本実施の形態に係る表示システム100の動作例を示すフローチャートである。   Next, an operation example of the display system 100 according to the present embodiment will be described with reference to FIG. FIG. 7 is a flowchart showing an operation example of the display system 100 according to the present embodiment.

まず、認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に基づいて対象物の認識を行う(ステップS101)。また、認識部101は、対象物を認識した場合、対象物の位置を算出し、対象物の輪郭を検出する。   First, the recognition unit 101 extracts a feature amount included in the foreground image acquired from the camera 110, and recognizes an object based on the extracted feature amount (step S101). Further, when recognizing the target object, the recognition unit 101 calculates the position of the target object and detects the contour of the target object.

次に、決定部102は、運転者の目領域のうちの所定の点の位置、認識部101で算出された対象物の位置、表示媒体130の位置の関係に基づいて、画像表示位置を決定する(ステップS102)。画像表示位置とは、上述したとおり、運転者の目領域のうちの所定の点から表示媒体130を介して対象物が観察されたときにおける、対象物の表示媒体130上における位置である。   Next, the determination unit 102 determines the image display position based on the relationship between the position of a predetermined point in the driver's eye area, the position of the object calculated by the recognition unit 101, and the position of the display medium 130. (Step S102). As described above, the image display position is the position of the object on the display medium 130 when the object is observed through the display medium 130 from a predetermined point in the driver's eye area.

次に、決定部105は、画像表示位置から左方向へ所定距離離れた第1の位置、および、画像表示位置から右方向へ所定距離離れた第2の位置を決定する(ステップS103)。   Next, the determination unit 105 determines a first position that is a predetermined distance away from the image display position in the left direction and a second position that is a predetermined distance away from the image display position in the right direction (step S103).

次に、制御部106は、第1のタイミングから所定時間の間、所定画像を生成、表示するように表示部104を制御する(ステップS104)。   Next, the control unit 106 controls the display unit 104 to generate and display a predetermined image for a predetermined time from the first timing (step S104).

上記所定画像とは、表示部104において生成される画像であり、表示媒体130の第1位置に表示されたときに運転者に提示される提示画像を示す画像である。また、提示画像とは、認識部101で認識された対象物の形状を示す画像であり、例えば、図5Aに示した、バイオロジカル・モーションとして動作する点群から成る画像300である。   The predetermined image is an image generated on the display unit 104 and is an image indicating a presentation image presented to the driver when displayed at the first position of the display medium 130. The presentation image is an image showing the shape of the object recognized by the recognition unit 101, and is, for example, the image 300 including the point group operating as biological motion shown in FIG. 5A.

上述したステップS104の制御処理により、表示部104は、第1のタイミングから所定時間の間、所定画像を生成し、その所定画像を表示媒体130に表示する(例えば、図5A参照)。このとき、運転者が表示媒体130を介して対象物を視認すると、提示画像が二重像となって見えることになる(例えば、図5B参照)。   By the control processing in step S104 described above, the display unit 104 generates a predetermined image for a predetermined time from the first timing, and displays the predetermined image on the display medium 130 (see, for example, FIG. 5A). At this time, when the driver visually recognizes the object via the display medium 130, the presented image appears as a double image (see, for example, FIG. 5B).

次に、制御部106は、第2のタイミングから所定時間の間、所定画像を生成、表示するように表示部104を制御する(ステップS105)。第2のタイミングとは、上述したとおり、第1のタイミングから所定時間が経過する以前のタイミングである。   Next, the control unit 106 controls the display unit 104 to generate and display a predetermined image for a predetermined time from the second timing (step S105). As described above, the second timing is a timing before a predetermined time elapses from the first timing.

上記所定画像とは、表示部104において生成される画像であり、表示媒体130の第2の位置に表示されたときに運転者に提示される提示画像を示す画像である。また、提示画像とは、認識部101で認識された対象物の形状を示す画像であり、例えば、図6Aに示した、バイオロジカル・モーションとして動作する点群から成る画像300である。   The predetermined image is an image generated on the display unit 104 and is an image showing a presentation image presented to the driver when displayed at the second position of the display medium 130. The presentation image is an image showing the shape of the object recognized by the recognition unit 101, and is, for example, the image 300 including the point group operating as biological motion shown in FIG. 6A.

上述したステップS105の制御処理により、表示部104は、第2のタイミングから所定時間の間、所定画像を生成し、その所定画像を表示媒体130に表示する(例えば、図6A参照)。このとき、運転者が表示媒体130を介して対象物を視認すると、第2の提示画像が二重像となって見えることになる(例えば、図6B参照)。   By the control processing in step S105 described above, the display unit 104 generates a predetermined image for a predetermined time from the second timing, and displays the predetermined image on the display medium 130 (see, for example, FIG. 6A). At this time, when the driver visually recognizes the object via the display medium 130, the second presented image appears as a double image (see, for example, FIG. 6B).

以上、本実施の形態に係る表示システム100の動作例について説明した。   The operation example of the display system 100 according to the present embodiment has been described above.

なお、上記説明では、図5B、図6Bに示すように画像300の全ての点群が歩行者200に重なって見えるように第1の位置および第2の位置が決定されるとしたが、点群の一部が歩行者200に重ならなくてもよい。   In the above description, the first position and the second position are determined so that all the point groups of the image 300 appear to overlap the pedestrian 200 as shown in FIGS. 5B and 6B. A part of the group may not overlap with the pedestrian 200.

また、上記説明では、第1の位置を画像表示位置から左方向へ所定距離ずらした位置P6とし、第2の位置を画像表示位置から右方向へ所定距離ずらした位置P7としたが、例えば、第1の位置を位置P7とし、第2の位置を位置P6としてもよい。   In the above description, the first position is the position P6 shifted from the image display position by a predetermined distance to the left, and the second position is the position P7 shifted by a predetermined distance from the image display position to the right. The first position may be the position P7, and the second position may be the position P6.

このように、本実施の形態では、運転者が表示媒体を介して対象物を注視したときに、表示媒体に表示される画像の二重像の一方が常に対象物に重なって見えるため、二重像のうち、対象物に重なって見える方では、バイオロジカル・モーションとして機能するため、対象物を認識することができ、もう一方では表示が時間的に欠けているためバイオロジカル・モーションとして機能しないため、対象物を認識することができない。すなわち、運転者は、対象物と重なる位置に表示された画像でのみ対象物を認識することが可能となり、対象物の位置と数を正確に把握することができる。   Thus, in the present embodiment, when the driver gazes at the object through the display medium, one of the double images of the image displayed on the display medium always appears to overlap the object. Of the multiple images, the one that appears to overlap the object functions as biological motion, so it can recognize the object, and on the other hand it functions as biological motion because the display is missing in time. Therefore, the object cannot be recognized. That is, the driver can recognize the object only from the image displayed at the position overlapping the object, and can accurately grasp the position and number of the object.

以上本発明の実施の形態について説明したが、本発明は上記実施の形態に限定されず、種々の変形が可能である。以下、変形例について説明する。   Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made. Hereinafter, modified examples will be described.

(変形例1)
上記実施の形態では、運転者の両目の位置を結んだ線(図3に示した仮想線L1)が水平である場合について説明したが、運転者が頭部を傾けたことで仮想線L1が水平ではなくなる場合がある。この場合、本変形例では、距離D1および頭部の傾きに基づいて補正処理を行う。ここでいう頭部の傾きとは、頭部の前後方向を軸とする回転方向における傾きである。この頭部の傾きは、例えば、カメラ120で撮像された運転者の顔画像に基づいて頭部の傾きを検知する検知部(図示略)により検知される。頭部の傾きの検知処理は、公知であるため、詳細な説明は省略する。
(Modification 1)
In the above-described embodiment, the case where the line connecting the positions of both eyes of the driver (the virtual line L1 shown in FIG. 3) is horizontal has been described. It may not be horizontal. In this case, in the present modification, correction processing is performed based on the distance D1 and the head inclination. The inclination of the head here is an inclination in the rotation direction with the front-rear direction of the head as an axis. The inclination of the head is detected by a detection unit (not shown) that detects the inclination of the head based on the driver's face image captured by the camera 120, for example. Since the process of detecting the tilt of the head is known, a detailed description thereof will be omitted.

まず、図8A、図8Bを用いて、頭部が傾いたときに補正処理が行われない場合について説明する。図8Aは、頭部が傾いたことにより、水平な仮想線L1が角度θ1傾いて仮想線L1’となったときの、第1のタイミングから所定時間の間における二重像の見え方を示している。また、図8Bは、頭部が傾いたことにより、水平な仮想線L1が角度θ1傾いて仮想線L1’となったときの、第2のタイミングから所定時間の間における二重像の見え方を示している。なお、仮想線L1、L’は、説明のために図示したものであり、表示媒体130等には表示されない。   First, a case where correction processing is not performed when the head is tilted will be described with reference to FIGS. 8A and 8B. FIG. 8A shows how the double image is seen during a predetermined time from the first timing when the horizontal imaginary line L1 is inclined by the angle θ1 to become the imaginary line L1 ′ due to the tilt of the head. ing. Further, FIG. 8B shows how the double image is seen during a predetermined time from the second timing when the horizontal imaginary line L1 is inclined by the angle θ1 to become the imaginary line L1 ′ because the head is tilted. Is shown. Note that the virtual lines L1 and L 'are illustrated for explanation, and are not displayed on the display medium 130 or the like.

図8Aに示すように、画像300Rは、歩行者200の上方にずれて見えることになる。また、図8Bに示すように、画像300Lは、歩行者200の下方にずれて見えることになる。よって、運転者は、歩行者200に重なる二重像が上下にずれて見えるため、視認しにくい。   As shown in FIG. 8A, the image 300 </ b> R appears to be shifted above the pedestrian 200. Further, as shown in FIG. 8B, the image 300L appears to be shifted downward from the pedestrian 200. Therefore, since the double image which overlaps with the pedestrian 200 seems to shift | deviate up and down, a driver | operator is hard to visually recognize.

そこで、本変形例では、制御部106は、距離D1および角度θ1に基づいて、以下の補正処理を行う。なお、ここでは、表示媒体130の面上における座標系として、右水平方向をX軸の正方向、下鉛直方向をY軸の正方向とする。   Therefore, in the present modification, the control unit 106 performs the following correction process based on the distance D1 and the angle θ1. Here, as the coordinate system on the surface of the display medium 130, the right horizontal direction is the positive direction of the X axis, and the lower vertical direction is the positive direction of the Y axis.

まず、制御部106は、例えば、以下の各式により、X軸方向の補正量xおよびY軸方向の補正量yを算出する。
x=D1(1−cosθ1)
y=D1sinθ1
First, for example, the control unit 106 calculates the correction amount x in the X-axis direction and the correction amount y in the Y-axis direction by the following formulas.
x = D1 (1-cos θ1)
y = D1sin θ1

次に、制御部106は、算出した補正量x、yに基づいて第1の位置を補正する。例えば、制御部106は、第1の位置を、X軸の正方向に補正量xだけずらし、かつ、Y軸の正方向に補正量yだけずらす。これにより、補正後の第1の位置が決定される。   Next, the control unit 106 corrects the first position based on the calculated correction amounts x and y. For example, the control unit 106 shifts the first position by the correction amount x in the positive direction of the X axis and shifts the first position by the correction amount y in the positive direction of the Y axis. Thereby, the corrected first position is determined.

そして、制御部106は、第1のタイミングから所定時間の間、補正後の第1の位置に画像300を表示するように表示部104を制御する。このときの二重像の見え方を図8Cに示す。図8Cに示すように、画像300Rの点群の全部が歩行者200に重なって見えることになる。   Then, the control unit 106 controls the display unit 104 to display the image 300 at the corrected first position for a predetermined time from the first timing. The appearance of the double image at this time is shown in FIG. 8C. As shown in FIG. 8C, the entire point group of the image 300R appears to overlap the pedestrian 200.

次に、制御部106は、算出した補正量x、yに基づいて第2の位置を補正する。例えば、制御部106は、第2の位置を、X軸の負方向に補正量xだけずらし、かつ、Y軸の負方向に補正量yだけずらす。これにより、補正後の第2の位置が決定される。   Next, the control unit 106 corrects the second position based on the calculated correction amounts x and y. For example, the control unit 106 shifts the second position by the correction amount x in the negative direction of the X axis and shifts the second position by the correction amount y in the negative direction of the Y axis. Thereby, the corrected second position is determined.

そして、制御部106は、第2のタイミングから所定時間の間、補正後の第2の位置に画像300を表示するように表示部104を制御する。このときの二重像の見え方を図8Dに示す。図8Dに示すように、画像300Lの点群の全部が歩行者200に重なって見えることになる。   Then, the control unit 106 controls the display unit 104 to display the image 300 at the corrected second position for a predetermined time from the second timing. FIG. 8D shows how the double image looks at this time. As shown in FIG. 8D, the entire point group of the image 300 </ b> L appears to overlap the pedestrian 200.

このように、本変形例によれば、運転者が頭部を傾けた場合、頭部の傾きの角度θ1および距離D1に基づいて、第1の位置と第2の位置とを結んだ線が運転者の両目の位置を結んだ線(仮想線L’)に対して平行となるように第1の位置および第2の位置を補正する。これにより、運転者が頭部を傾けた場合でも、二重像の一方が対象物からずれることなく、対象物に重なって見えることになり、視認性が向上する。   Thus, according to this modification, when the driver tilts the head, the line connecting the first position and the second position is based on the tilt angle θ1 and the distance D1 of the head. The first position and the second position are corrected so as to be parallel to a line (imaginary line L ′) connecting the positions of both eyes of the driver. As a result, even when the driver tilts his / her head, one of the double images does not deviate from the object and appears to overlap the object, thereby improving visibility.

(変形例2)
上記実施の形態において、制御部106による制御処理は、運転者が対象物を視認した場合に実行されるようにしてもよい。
(Modification 2)
In the above embodiment, the control process by the control unit 106 may be executed when the driver visually recognizes the object.

例えば、制御部106は、上述した視線検知部(図示略)により検知された視線を示す視線情報を視線検知部から取得するとともに、認識部101で認識された対象物の位置を示す対象物位置情報を認識部101から取得する。そして、制御部106は、視線情報および対象物位置情報に基づいて、運転者が対象物を視認したか否かを判定する。以下、運転者に視認される対象物の例を上述した歩行者200として説明する。   For example, the control unit 106 obtains line-of-sight information indicating the line of sight detected by the line-of-sight detection unit (not shown) from the line-of-sight detection unit, and also indicates an object position indicating the position of the object recognized by the recognition unit 101. Information is acquired from the recognition unit 101. And the control part 106 determines whether the driver | operator visually recognized the target object based on eyes | visual_axis information and target object position information. Hereinafter, an example of the object visually recognized by the driver will be described as the pedestrian 200 described above.

上記判定の結果、運転者が歩行者200を視認したと判定した場合、上述したとおり、制御部106は、運転者が視認した歩行者200のみの輪郭を示す輪郭情報に基づいて、表示部104に生成させる画像300を決定する処理を行う。そして、制御部106は、決定した画像300を生成、表示するように表示部104を制御する。   As a result of the determination, when it is determined that the driver has visually recognized the pedestrian 200, as described above, the control unit 106 displays the display unit 104 based on the contour information indicating the contour of only the pedestrian 200 visually recognized by the driver. A process for determining the image 300 to be generated is performed. Then, the control unit 106 controls the display unit 104 to generate and display the determined image 300.

これにより、運転者が視認した歩行者200に対してのみ画像300が表示されるので、必要なタイミングで運転者に画像300R、300Lを視認させることができる。また、このとき、運転者が表示媒体130を介して歩行者200を注視すると、二重像となって見える図5Bの画像300R、図6Bの画像300Lが歩行者200に重なって見えるので、運転者の視線を歩行者200に誘導することができる。   Thereby, since the image 300 is displayed only with respect to the pedestrian 200 visually recognized by the driver, the driver can visually recognize the images 300R and 300L at a necessary timing. At this time, if the driver gazes at the pedestrian 200 via the display medium 130, the image 300R in FIG. 5B and the image 300L in FIG. A person's line of sight can be guided to the pedestrian 200.

その後、上述した画像300の表示から一定時間が経過した場合、制御部106は、画像300の生成、表示を停止するように表示部104を制御してもよい。   Thereafter, when a certain time has elapsed since the display of the image 300 described above, the control unit 106 may control the display unit 104 to stop generating and displaying the image 300.

これにより、画像300の表示により運転者の意識を歩行者200へ引きつけた後において、必要以上に長い間、運転者が画像300R、300Lを視認することを防ぐことができるので、安全性の向上が見込める。   Thereby, after attracting the driver's consciousness to the pedestrian 200 by displaying the image 300, it is possible to prevent the driver from visually recognizing the images 300R and 300L for a longer time than necessary, thereby improving safety. Can be expected.

このように、本変形例によれば、運転者が対象物を視認しているか否かに応じて画像の表示、非表示が行われるので、適切なタイミングで運転者に画像を視認させたり、画像の視認を止めさせたりすることができる。   As described above, according to this modification, since the display and non-display of the image are performed depending on whether or not the driver is viewing the object, the driver can view the image at an appropriate timing, The viewing of the image can be stopped.

(変形例3)
上記実施の形態で説明した画像の輝度を以下のように制御してもよい。以下では、2つの輝度制御処理について説明する。
(Modification 3)
You may control the brightness | luminance of the image demonstrated in the said embodiment as follows. Hereinafter, two luminance control processes will be described.

まず、図9A、図9Bを用いて、制御部106により行われる第1の輝度制御処理について説明する。図9Aは、図5Aに示す画像300の輝度の変化を示しており、図9Bは、図6Aに示す画像300の輝度の変化を示している。図9A、図9Bにおいて、横軸は経過時間を示しており、縦軸は輝度を示している。   First, the first luminance control process performed by the control unit 106 will be described with reference to FIGS. 9A and 9B. FIG. 9A shows a change in luminance of the image 300 shown in FIG. 5A, and FIG. 9B shows a change in luminance of the image 300 shown in FIG. 6A. 9A and 9B, the horizontal axis represents elapsed time, and the vertical axis represents luminance.

図9A、図9Bに示すように、第1の輝度制御処理では、図5Aの画像300の輝度がOFF(下限値)になる前に図6Aの画像300の輝度がON(上限値)になるように制御され、また、図6Aの画像300の輝度がOFF(下限値。ゼロであってもよい)になる前に図5Aの画像300の輝度がON(上限値)になるように制御される。この制御により、図5Aの画像300が消える前に図6Aの画像300が現われ、また、図6Aの画像300が消える前に図5Aの画像300が現われる。   As shown in FIGS. 9A and 9B, in the first brightness control process, the brightness of the image 300 in FIG. 6A is turned on (upper limit value) before the brightness of the image 300 in FIG. 5A is turned off (lower limit value). In addition, the luminance of the image 300 in FIG. 5A is controlled to be ON (upper limit) before the luminance of the image 300 in FIG. 6A is OFF (lower limit value, which may be zero). The By this control, the image 300 of FIG. 6A appears before the image 300 of FIG. 5A disappears, and the image 300 of FIG. 5A appears before the image 300 of FIG. 6A disappears.

この第1の輝度制御処理では、図9A、図9Bに示すように、各輝度の立ち上がり、立ち下がりの勾配が急(例えば、直角)であるため、運転者は、図5Bの画像300Lが図6Bの画像300Lへ移動し、図6Bの画像300Rが図5Bの画像300Rへ移動するように見える。   In this first luminance control process, as shown in FIGS. 9A and 9B, the gradient of the rising and falling of each luminance is steep (for example, right angle), so that the driver can view the image 300L in FIG. 5B. It moves to the image 300L of 6B, and it appears that the image 300R of FIG. 6B moves to the image 300R of FIG. 5B.

次に、図9C、図9Dを用いて、制御部106により行われる第2の輝度制御処理について説明する。図9Cは、図ABに示す画像300の輝度の変化を示しており、図9Dは、図6Aに示す画像300の輝度の変化を示している。図9A、図9Bにおいて、横軸は経過時間を示しており、縦軸は輝度を示している。   Next, the second luminance control process performed by the control unit 106 will be described with reference to FIGS. 9C and 9D. 9C shows a change in luminance of the image 300 shown in FIG. AB, and FIG. 9D shows a change in luminance of the image 300 shown in FIG. 6A. 9A and 9B, the horizontal axis represents elapsed time, and the vertical axis represents luminance.

図9C、図9Dに示すように、第2の輝度制御処理では、第1の輝度制御処理と同様に、図5Aの画像300の輝度がOFF(下限値)になる前に図6Aの画像300の輝度がON(上限値)になるように制御され、また、図6Aの画像300の輝度がOFF(下限値)になる前に図5Aの画像300の輝度がON(上限値)になるように制御される。この制御により、図5Aの画像300が消える前に図6Aの画像300が現われ、また、図6Aの画像300が消える前に図5Aの画像300が現われる。   As shown in FIGS. 9C and 9D, in the second brightness control process, the image 300 in FIG. 6A is turned off before the brightness of the image 300 in FIG. 5A becomes OFF (lower limit value), as in the first brightness control process. The brightness of the image 300 in FIG. 6A is turned on (upper limit value) before the brightness of the image 300 in FIG. 6A is turned off (lower limit value). Controlled. By this control, the image 300 of FIG. 6A appears before the image 300 of FIG. 5A disappears, and the image 300 of FIG. 5A appears before the image 300 of FIG. 6A disappears.

この第2の輝度制御処理では、図9C、図9Dに示すように、各輝度の立ち上がり、立ち下がりの勾配が緩やか(例えば、所定の鈍角)であるため、運転者は、図5Bの画像300Lおよび図6Bの画像300Rのそれぞれが明滅するように見える。   In the second luminance control process, as shown in FIGS. 9C and 9D, the gradient of the rising and falling of each luminance is gentle (for example, a predetermined obtuse angle). And each of the images 300R of FIG. 6B appear to blink.

このように、画像の輝度の立ち上がり、立ち下がりの勾配(換言すれば、速さ)を急または緩やかにすることにより、二重像のうちの対象物に重ならずに見える方の画像の見え方を選択することができる。   In this way, by making the rising and falling slopes (in other words, the speed) of the image brightness steep or gentle, the image of the double image that does not overlap the object can be seen. You can choose which way.

以上、本発明の実施の形態の変形例について説明した。なお、上述した変形例は、任意に組み合わせてもよい。   In the above, the modification of embodiment of this invention was demonstrated. Note that the above-described modifications may be arbitrarily combined.

上述した表示システム100、表示制御装置103の各部の機能は、コンピュータプログラムにより実現され得る。   The functions of the units of the display system 100 and the display control apparatus 103 described above can be realized by a computer program.

図9は、各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ1000は、入力ボタン、タッチパッドなどの入力装置1001、ディスプレイ、スピーカなどの出力装置1002、CPU(Central Processing Unit)1003、ROM(Read Only Memory)1004、RAM(Random Access Memory)1005を備える。また、コンピュータ1000は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置1006、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1007、ネットワークを介して通信を行う送受信装置1008を備える。上記各部は、バス1009により接続される。   FIG. 9 is a diagram illustrating a hardware configuration of a computer that realizes the functions of the respective units by a program. The computer 1000 includes an input device 1001 such as an input button and a touch pad, an output device 1002 such as a display and a speaker, a CPU (Central Processing Unit) 1003, a ROM (Read Only Memory) 1004, and a RAM (Random Access Memory) 1005. . The computer 1000 is a reading device that reads information from a recording medium such as a hard disk device, a storage device 1006 such as an SSD (Solid State Drive), a DVD-ROM (Digital Versatile Disk Read Only Memory), or a USB (Universal Serial Bus) memory. 1007 includes a transmission / reception device 1008 that performs communication via a network. Each of the above parts is connected by a bus 1009.

そして、読取装置1007は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1006に記憶させる。あるいは、送受信装置1008が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置1006に記憶させる。   Then, the reading device 1007 reads the program from a recording medium on which a program for realizing the functions of the above-described units is recorded, and stores the program in the storage device 1006. Alternatively, the transmission / reception device 1008 communicates with a server device connected to the network, and causes the storage device 1006 to store a program for realizing the function of each unit downloaded from the server device.

そして、CPU1003が、記憶装置1006に記憶されたプログラムをRAM1005にコピーし、そのプログラムに含まれる命令をRAM1005から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM1005または記憶装置1006には、各実施の形態1で述べた各種処理で得られた情報が記憶され、適宜利用される。   Then, the CPU 1003 copies the program stored in the storage device 1006 to the RAM 1005, and sequentially reads and executes the instructions included in the program from the RAM 1005, thereby realizing the functions of the above-described units. Further, when executing the program, the RAM 1005 or the storage device 1006 stores information obtained by the various processes described in the first embodiment and is used as appropriate.

本発明は、ユーザ(例えば、車両等の乗員、または、表示デバイスを装着したユーザ等)に対して提供される情報の表示を制御する表示制御装置、表示制御方法、表示制御プログラム、および投影装置に有用である。   The present invention relates to a display control device, a display control method, a display control program, and a projection device that control the display of information provided to a user (for example, a passenger such as a vehicle or a user wearing a display device). Useful for.

100 表示システム
101 認識部
102 決定部
103 表示制御装置
104 表示部
105 決定部
106 制御部
110 カメラ
120 カメラ
130 表示媒体
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 ROM
1005 RAM
1006 記憶装置
1007 読取装置
1008 送受信装置
1009 バス
DESCRIPTION OF SYMBOLS 100 Display system 101 Recognition part 102 Determination part 103 Display control apparatus 104 Display part 105 Determination part 106 Control part 110 Camera 120 Camera 130 Display medium 1000 Computer 1001 Input apparatus 1002 Output apparatus 1003 CPU
1004 ROM
1005 RAM
1006 Storage device 1007 Reading device 1008 Transmission / reception device 1009 Bus

Claims (8)

移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する第1決定部と、
所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、
を含む表示システムにおける表示制御装置であって、
前記認識部において前記所定の対象物が認識された場合、前記第1決定部で決定された位置から所定距離離れた第1の位置と、前記第1決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する第2決定部と、
第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する制御部と、を備える、
表示制御装置。
A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image;
Determining a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light; 1 decision part;
A display unit that generates a predetermined image and displays the predetermined image on the display medium;
A display control apparatus in a display system including:
When the predetermined object is recognized by the recognition unit, a first position that is a predetermined distance away from a position determined by the first determination unit, a position determined by the first determination unit, and the first A second position that is substantially on a straight line connecting the first position and a position that is substantially symmetrical to the first position with respect to the position determined by the first determination unit. A second determining unit for determining;
The display unit is controlled to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium for a predetermined time from the first timing, and the first timing The predetermined image representing the predetermined presentation image is generated at the second position when displayed on the display medium for the predetermined time from the second timing before the predetermined time elapses from A control unit for controlling the display unit,
Display control device.
前記第2決定部は、
前記乗員が前記表示媒体を介して前記所定の対象物を視認したときに前記所定の提示画像が二重像となって前記乗員に視認される場合、前記第1のタイミングから前記所定時間の間、前記二重像となって視認される前記所定の提示画像の一方と、前記第2のタイミングから前記所定時間の間、前記二重像となって視認される前記所定の提示画像の一方とが前記表示媒体上における前記所定の対象物に重なって視認されるように、前記第1の位置および前記第2の位置を決定する、
請求項1に記載の表示制御装置。
The second determination unit includes
When the occupant visually recognizes the predetermined object via the display medium, the predetermined presentation image becomes a double image and is visually recognized by the occupant during the predetermined time from the first timing. One of the predetermined presentation images visually recognized as the double image and one of the predetermined presentation images visually recognized as the double image from the second timing to the predetermined time. Determining the first position and the second position such that the first position and the predetermined object on the display medium are visually recognized.
The display control apparatus according to claim 1.
前記制御部は、
前記乗員の頭部の傾きが検知された場合、前記頭部の傾きの角度と、前記所定距離とに基づいて、前記第1の位置と前記第2の位置とを結んだ線が前記乗員の両目の位置を結んだ線に対して平行となるように前記第1の位置および前記第2の位置を補正する、
請求項1または2に記載の表示制御装置。
The controller is
When a tilt of the head of the occupant is detected, a line connecting the first position and the second position is based on the tilt angle of the head and the predetermined distance. Correcting the first position and the second position so as to be parallel to a line connecting the positions of both eyes;
The display control apparatus according to claim 1 or 2.
前記制御部は、
前記乗員の視線と、前記所定の対象物の位置とに基づいて、前記乗員が前記所定の対象物を視認したか否かを判定し、
前記乗員が前記所定の対象物を視認したと判定した場合、前記所定画像を生成するように前記表示部を制御する、
請求項1から3のいずれか1項に記載の表示制御装置。
The controller is
Based on the line of sight of the occupant and the position of the predetermined object, it is determined whether the occupant has visually recognized the predetermined object,
When the occupant determines that the predetermined object has been visually recognized, the display unit is controlled to generate the predetermined image.
The display control apparatus of any one of Claim 1 to 3.
前記制御部は、
前記所定の提示画像の輝度の立ち上がりおよび立ち下がりの速さを制御する、
請求項1から4のいずれか1項に記載の表示制御装置。
The controller is
Controlling the rate of rise and fall of the brightness of the predetermined presentation image;
The display control apparatus of any one of Claim 1 to 4.
移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する決定部と、
所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、
を含む表示システムにおける表示制御方法であって、
前記認識部において前記所定の対象物が認識された場合、前記決定部で決定された位置から所定距離離れた第1の位置と、前記決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定し、
第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、
前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する、
表示制御方法。
A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image;
Determination to determine a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light And
A display unit that generates a predetermined image and displays the predetermined image on the display medium;
A display control method in a display system including:
When the predetermined object is recognized by the recognizing unit, a first position that is a predetermined distance away from a position determined by the determining unit, a position determined by the determining unit, and the first position A second position which is substantially on a connected straight line and which is substantially symmetrical to the first position with respect to the position determined by the first determination unit;
Controlling the display unit to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium for a predetermined time from a first timing;
The predetermined image representing the predetermined presentation image at the second position when displayed on the display medium for a predetermined time from a second timing before the predetermined time elapses from the first timing. Controlling the display unit to generate an image;
Display control method.
移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する決定部と、
所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、
を含む表示システムにおけるコンピュータに実行させる表示制御方法であって、
前記コンピュータに、
前記認識部において前記所定の対象物が認識された場合、前記決定部で決定された位置から所定距離離れた第1の位置と、前記決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する処理と、
第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御する処理と、
前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する処理と、を実行させる、
表示制御プログラム。
A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image;
Determination to determine a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light And
A display unit that generates a predetermined image and displays the predetermined image on the display medium;
A display control method to be executed by a computer in a display system including:
In the computer,
When the predetermined object is recognized by the recognizing unit, a first position that is a predetermined distance away from a position determined by the determining unit, a position determined by the determining unit, and the first position A process of determining a second position that substantially exists on the connected straight line and that is substantially symmetrical to the first position with respect to the position determined by the first determination unit; ,
A process for controlling the display unit to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium for a predetermined time from a first timing;
The predetermined image representing the predetermined presentation image at the second position when displayed on the display medium for a predetermined time from a second timing before the predetermined time elapses from the first timing. Controlling the display unit to generate an image, and
Display control program.
移動体の乗員の前景の画像である前景画像を取得し、前記前景画像から前記乗員の前方に存在する所定の対象物を認識する認識部と、
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における位置を決定する第1決定部と、
を含む表示システムにおける投影装置であって、
所定画像を生成し、前記所定画像を前記表示媒体に表示する表示部と、
前記認識部において前記所定の対象物が認識された場合、前記第1決定部で決定された位置から所定距離離れた第1の位置と、前記第1決定部で決定された位置と前記第1の位置とを結んだ直線上に実質的に存在し、かつ、前記第1決定部で決定された位置に対して前記第1の位置と実質的に対称の位置である第2の位置とを決定する第2決定部と、
第1のタイミングから所定時間の間、前記表示媒体に表示されたときに前記第1の位置に所定の提示画像を表す所定画像を生成するように前記表示部を制御し、前記第1のタイミングから前記所定時間が経過する以前である第2のタイミングから前記所定時間の間、前記表示媒体に表示されたときに前記第2の位置に前記所定の提示画像を表す前記所定画像を生成するように前記表示部を制御する制御部と、を備える、
投影装置。
A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object, and recognizes a predetermined object existing in front of the occupant from the foreground image;
Determining a position of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the eye area of the occupant through a display medium that transmits light; 1 decision part;
A projection apparatus in a display system comprising:
A display unit that generates a predetermined image and displays the predetermined image on the display medium;
When the predetermined object is recognized by the recognition unit, a first position that is a predetermined distance away from a position determined by the first determination unit, a position determined by the first determination unit, and the first A second position that is substantially on a straight line connecting the first position and a position that is substantially symmetrical to the first position with respect to the position determined by the first determination unit. A second determining unit for determining;
The display unit is controlled to generate a predetermined image representing a predetermined presentation image at the first position when displayed on the display medium for a predetermined time from the first timing, and the first timing The predetermined image representing the predetermined presentation image is generated at the second position when displayed on the display medium for the predetermined time from the second timing before the predetermined time elapses from A control unit for controlling the display unit,
Projection device.
JP2014215405A 2014-10-22 2014-10-22 Display control device, display control method, display control program, and projection device Active JP6315427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014215405A JP6315427B2 (en) 2014-10-22 2014-10-22 Display control device, display control method, display control program, and projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014215405A JP6315427B2 (en) 2014-10-22 2014-10-22 Display control device, display control method, display control program, and projection device

Publications (2)

Publication Number Publication Date
JP2016081465A true JP2016081465A (en) 2016-05-16
JP6315427B2 JP6315427B2 (en) 2018-04-25

Family

ID=55958879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014215405A Active JP6315427B2 (en) 2014-10-22 2014-10-22 Display control device, display control method, display control program, and projection device

Country Status (1)

Country Link
JP (1) JP6315427B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028625A (en) * 2016-08-19 2018-02-22 日本電信電話株式会社 Virtual image display system
WO2019221025A1 (en) * 2018-05-15 2019-11-21 株式会社デンソー Head-up display

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052617A1 (en) * 2003-08-22 2005-03-10 Denso Corporation Virtual image display apparatus
JP2009099028A (en) * 2007-10-18 2009-05-07 Nissan Motor Co Ltd Visual information presentation device and method
JP4970379B2 (en) * 2008-08-06 2012-07-04 カルソニックカンセイ株式会社 Vehicle display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052617A1 (en) * 2003-08-22 2005-03-10 Denso Corporation Virtual image display apparatus
JP2009099028A (en) * 2007-10-18 2009-05-07 Nissan Motor Co Ltd Visual information presentation device and method
JP4970379B2 (en) * 2008-08-06 2012-07-04 カルソニックカンセイ株式会社 Vehicle display device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018028625A (en) * 2016-08-19 2018-02-22 日本電信電話株式会社 Virtual image display system
WO2019221025A1 (en) * 2018-05-15 2019-11-21 株式会社デンソー Head-up display

Also Published As

Publication number Publication date
JP6315427B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
EP2914002B1 (en) Virtual see-through instrument cluster with live video
US10298911B2 (en) Visualization of spatial and other relationships
JPWO2014174575A1 (en) Head-up display device for vehicle
JP6669019B2 (en) VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY SYSTEM, VEHICLE DISPLAY CONTROL METHOD, AND PROGRAM
JP2015114757A (en) Information processing apparatus, information processing method, and program
JP2015215510A (en) Display device and display method
CN108027508B (en) Display device, display image projection method, and head-up display
JP2018189590A (en) Display unit and display control method
US20180284432A1 (en) Driving assistance device and method
JP2017081456A (en) Display device and display method
JP6315427B2 (en) Display control device, display control method, display control program, and projection device
US20210300183A1 (en) In-vehicle display apparatus, method for controlling in-vehicle display apparatus, and computer program
JP6504382B2 (en) Display control apparatus, display system, display control method, display control program, and projection apparatus
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP7167918B2 (en) vehicle display
JP6365879B2 (en) Display control device, display control method, display control program, and projection device
JP6478201B2 (en) Display control device, display system, display control method, display control program, and projection device
JP2019083385A (en) Head-up display unit
JP6365409B2 (en) Image display device for vehicle driver
JP6415968B2 (en) COMMUNICATION DEVICE, WARNING DEVICE, DISPLAY DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP6315383B2 (en) Display control program and display control apparatus
JP2023017641A (en) Vehicle display control device, vehicle display device, vehicle display control method, and vehicle display control program
US20200152157A1 (en) Image processing unit, and head-up display device provided with same
JP2019151205A (en) On-vehicle display device, method for controlling the same, and computer program
JP2019184758A (en) Head-mounted display, image display method for head-mounted display, and control program for head-mounted display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R151 Written notification of patent or utility model registration

Ref document number: 6315427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151