JP2016081464A - Display control program and display controller - Google Patents

Display control program and display controller Download PDF

Info

Publication number
JP2016081464A
JP2016081464A JP2014215403A JP2014215403A JP2016081464A JP 2016081464 A JP2016081464 A JP 2016081464A JP 2014215403 A JP2014215403 A JP 2014215403A JP 2014215403 A JP2014215403 A JP 2014215403A JP 2016081464 A JP2016081464 A JP 2016081464A
Authority
JP
Japan
Prior art keywords
image
display
predetermined
displayed
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014215403A
Other languages
Japanese (ja)
Other versions
JP6315383B2 (en
Inventor
望月 誠
Makoto Mochizuki
誠 望月
渉 仲井
Wataru Nakai
渉 仲井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014215403A priority Critical patent/JP6315383B2/en
Publication of JP2016081464A publication Critical patent/JP2016081464A/en
Application granted granted Critical
Publication of JP6315383B2 publication Critical patent/JP6315383B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a display control program and a display controller allowing an occupant to precisely comprehend an existence of an object.SOLUTION: A display controller 103 has a control unit 106 that controls a display unit 104 to display, at a first timing, a first predetermined image which represents a virtual image 302 at the right side position 216 and a virtual image 301 at the left side position 214 when displayed on a display medium 130; and to display a second predetermined image, at a second timing different from the first timing, which represents a virtual image 402 at the right side position 216 and a virtual image 401 at the left side position 214 when displayed on the display medium 130.SELECTED DRAWING: Figure 8

Description

本発明は、車両等の乗員に対して提供される情報の表示を制御する表示制御プログラムおよび表示制御装置に関する。   The present invention relates to a display control program and a display control apparatus for controlling display of information provided to a passenger such as a vehicle.

近年、車両のウインドシールドに画像を投影することで、運転者等の乗員に画像を視認させるヘッドアップディスプレイ(Head‐Up Display:HUD)装置の開発が盛んである。この装置では、現実世界の対象物(例えば、他の車両、歩行者、建物など)に重畳するように画像を投影することで、対象物の視認性を向上させることができる。   2. Description of the Related Art In recent years, a head-up display (HUD) device has been actively developed that allows an occupant such as a driver to visually recognize an image by projecting the image onto a windshield of a vehicle. In this apparatus, the visibility of an object can be improved by projecting an image so as to be superimposed on an object in the real world (for example, another vehicle, a pedestrian, a building, or the like).

このようなヘッドアップディスプレイ装置では、乗員の視界において、いわゆる二重像の問題が生じる。すなわち、現実世界の対象物の位置に重畳して、ウインドシールドに対象物を強調する表示を行う場合、乗員が注視している対象物までの距離と、乗員の視点からウインドシールド上に表示される画像までの距離が異なる。この場合、乗員からは図1に示すように、乗員が注視する対象物10(歩行者)を挟んで、ウインドシールド20上に表示される画像30が左右に並んで二重に見える。その結果、乗員が、表示される情報を正しく認識できないという問題があった。   In such a head-up display device, a so-called double image problem occurs in the occupant's field of view. In other words, when a display that emphasizes the object on the windshield is superimposed on the position of the object in the real world, it is displayed on the windshield from the distance to the object being watched by the occupant and the viewpoint of the occupant. The distance to the image is different. In this case, as shown in FIG. 1, the image 30 displayed on the windshield 20 looks double, side by side, with the object 10 (pedestrian) watched by the occupant sandwiched between them. As a result, there is a problem that the occupant cannot correctly recognize the displayed information.

二重像の問題を解決する方法としては、例えば、特許文献1に開示された方法がある(以下、従来技術という)。   As a method for solving the problem of the double image, for example, there is a method disclosed in Patent Document 1 (hereinafter referred to as a conventional technique).

従来技術では、二重像の影響を抑制することを目的として、カメラ等で検出された対象物の位置に重畳させて、二重像として視認されても違和感を与えない画像を生成して表示する。具体的には、図2に示すように、ドットパターン形状の画像40を生成し、その画像40を対象物10と対応付けてウインドシールド20上に表示することにより、二重像が生じた場合でも、乗員が対象物の存在およびその位置を把握できるとしている。   In the prior art, in order to suppress the influence of the double image, it is superimposed on the position of the object detected by a camera or the like, and an image that does not give a sense of incongruity even when viewed as a double image is generated and displayed. To do. Specifically, as shown in FIG. 2, when a double image is generated by generating an image 40 having a dot pattern shape and displaying the image 40 on the windshield 20 in association with the object 10. However, it is said that the occupant can grasp the existence and position of the object.

特許第4970379号公報Japanese Patent No. 4970379

しかしながら、上述した従来技術では、ウインドシールド上の表示が左右に分離することによって対象物の視認性が低下することを防止できるが、二重像の影響で、対象物の位置に重畳される画像の表示領域が大きくなるため、乗員に対して対象物を正確に把握させることは困難であった。   However, in the above-described prior art, it is possible to prevent the visibility of the object from being lowered by separating the display on the windshield from left and right, but an image superimposed on the position of the object due to the influence of the double image. Since the display area becomes large, it is difficult for the passenger to accurately grasp the object.

本発明の目的は、乗員に対して対象物の存在を正確に把握させることができる表示制御プログラムおよび表示制御装置を提供することである。   The objective of this invention is providing the display control program and display control apparatus which can make a passenger | crew know the presence of a target object correctly.

本発明の一態様に係る表示制御プログラムは、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像に含まれる所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における領域のうちの所定位置を特定する特定部と、前記認識部の認識結果に基づいた所定画像を生成し、当該所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおけるコンピュータに実行させる表示制御プログラムであって、前記コンピュータに、前記認識部により前記所定の対象物が認識された場合において、その認識結果に基づいて、前記表示媒体上において、前記特定部により特定された前記所定位置から所定の距離だけ離れた右側位置、および、前記所定位置に対して前記右側位置と実質的に対称の位置である左側位置を決定し、前記表示媒体に表示されたときに、前記右側位置に第1の右側画像を示すとともに、前記左側位置に第1の左側画像を示す第1の所定画像を、第1のタイミングで表示し、前記表示媒体に表示されたときに、前記右側位置に第2の右側画像を示すとともに、前記左側位置に第2の左側画像を示す第2の所定画像を、前記第1のタイミングとは異なる第2のタイミングで表示するように前記表示部を制御する処理を実行させ、前記第1および第2の所定画像はそれぞれ、複数の要素から構成される画像であり、前記第1の右側画像は、前記複数の要素のうちの一部の要素である第1の要素から構成され、前記第1の左側画像は、前記複数の要素のうち前記第1の要素以外の第2の要素から構成され、前記第2の右側画像は、前記複数の要素のうちの一部の要素であり、かつ、前記第1の要素と異なる第3の要素から構成され、前記第2の左側画像は、前記複数の要素のうち前記第3の要素以外の第4の要素から構成される。   A display control program according to an aspect of the present invention acquires a foreground image that is a foreground image of an occupant of a moving object, recognizes a predetermined object included in the foreground image, and the occupant's eye area Specifying a predetermined position of an area of the predetermined object on the display medium when the predetermined object is observed from a predetermined point of the image through a display medium that transmits light A display control program to be executed by a computer in a display system, including: a display unit that generates a predetermined image based on a recognition result of the recognition unit, and displays the predetermined image on the display medium, In addition, when the predetermined object is recognized by the recognition unit, the predetermined position specified by the specifying unit on the display medium based on the recognition result. A right side position that is a predetermined distance away from the left side position, and a left side position that is substantially symmetrical to the right side position with respect to the predetermined position, and when displayed on the display medium, A first predetermined image indicating the first right image and the first left image at the left position is displayed at a first timing and displayed on the display medium when the first right image is displayed at the right position. A process for controlling the display unit to display the second predetermined image indicating the second right image and the second predetermined image indicating the second left image at the left position at a second timing different from the first timing. The first and second predetermined images are images each composed of a plurality of elements, and the first right image is a first element that is a part of the plurality of elements. The above-mentioned elements The left image is composed of second elements other than the first element among the plurality of elements, the second right image is a part of the plurality of elements, and The second left image is composed of a fourth element other than the third element among the plurality of elements. The third left image is composed of a third element different from the first element.

本発明の一態様に係る表示制御装置は、移動体の乗員の前景の画像である前景画像を取得し、前記前景画像に含まれる所定の対象物を認識する認識部と、前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における領域のうちの所定位置を特定する特定部と、前記認識部の認識結果に基づいた所定画像を生成し、当該所定画像を前記表示媒体に表示する表示部と、を含む表示システムにおける表示制御装置であって、前記認識部により前記所定の対象物が認識された場合において、その認識結果に基づいて、前記表示媒体上において、前記特定部により特定された前記所定位置から所定の距離だけ離れた右側位置、および、前記所定位置に対して前記右側位置と実質的に対称の位置である左側位置を決定する決定部と、前記表示媒体に表示されたときに前記右側位置に第1の右側画像を示すとともに、前記左側位置に第1の左側画像を示す第1の所定画像を、第1のタイミングで表示し、前記表示媒体に表示されたときに前記右側位置に第2の右側画像を示すとともに、前記左側位置に第2の左側画像を示す第2の所定画像を、前記第1のタイミングとは異なる第2のタイミングで表示するように前記表示部を制御する制御部と、を備え、前記第1および第2の所定画像はそれぞれ、複数の要素から構成される画像であり、前記第1の右側画像は、前記複数の要素のうち一部の第1の要素から構成され、前記第1の左側画像は、前記複数の要素のうち前記第1の要素以外の第2の要素から構成され、前記第2の右側画像は、前記複数の要素のうち一部、かつ、前記第1の要素と異なる第3の要素から構成され、前記第2の左側画像は、前記複数の要素のうち前記第3の要素以外の第4の要素から構成される。   A display control device according to an aspect of the present invention acquires a foreground image that is a foreground image of a moving body occupant, recognizes a predetermined object included in the foreground image, and the occupant's eye area Specifying a predetermined position of an area of the predetermined object on the display medium when the predetermined object is observed from a predetermined point of the image through a display medium that transmits light And a display control unit that generates a predetermined image based on the recognition result of the recognition unit and displays the predetermined image on the display medium. When the target object is recognized, on the display medium, on the display medium, a right position that is a predetermined distance away from the predetermined position specified by the specifying unit, and the predetermined position A determination unit that determines a left side position that is substantially symmetric with respect to the right side position, a first right image is displayed at the right side position when displayed on the display medium, and a first right image is displayed at the left side position. A first predetermined image indicating one left image is displayed at a first timing, and when displayed on the display medium, a second right image is displayed at the right position and a second image is displayed at the left position. A control unit that controls the display unit so as to display a second predetermined image indicating a left image at a second timing different from the first timing, and the first and second predetermined images Are images composed of a plurality of elements, the first right image is composed of a part of the first elements, and the first left image is the plurality of elements. Second of the elements other than the first element The second right image is composed of a part of the plurality of elements and a third element different from the first element, and the second left image is composed of the plurality of elements. It is comprised from 4th elements other than the said 3rd element among elements.

本発明によれば、乗員に対して対象物の存在を正確に把握させることができる。   According to the present invention, it is possible to cause an occupant to accurately grasp the presence of an object.

従来技術の問題点を説明する図である。It is a figure explaining the problem of a prior art. 従来技術(特許文献1に記載の技術)の問題点を説明する図である。It is a figure explaining the problem of a prior art (technology described in patent document 1). 本実施の形態に係る表示システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the display system which concerns on this Embodiment. 車両の横方向および前方方向におけるカメラと歩行者との距離を示す図である。It is a figure which shows the distance of the camera and a pedestrian in the horizontal direction and front direction of a vehicle. 本実施の形態に係る表示システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the display system which concerns on this Embodiment. 対象物表示位置に対して右側位置および左側位置を決定する処理を説明する図である。It is a figure explaining the process which determines the right side position and left side position with respect to a target object display position. 対象物表示位置に対して右側位置および左側位置を決定する処理を説明する図である。It is a figure explaining the process which determines the right side position and left side position with respect to a target object display position. 仮想画像の表示処理を説明する図である。It is a figure explaining the display process of a virtual image. 仮想画像の表示処理を説明する図である。It is a figure explaining the display process of a virtual image. 表示媒体に表示される2つの仮想画像と、運転者からの当該仮想画像の見え方との関係を示す。The relationship between two virtual images displayed on the display medium and how the virtual image is viewed from the driver is shown. 本実施の形態に係る表示システムの動作の変形例を示すフローチャートである。It is a flowchart which shows the modification of operation | movement of the display system which concerns on this Embodiment. 表示媒体に表示される2つの仮想画像と、運転者からの当該仮想画像の見え方との関係を示す。The relationship between two virtual images displayed on the display medium and how the virtual image is viewed from the driver is shown. 表示媒体に表示される2つの仮想画像と、運転者からの当該仮想画像の見え方との関係を示す。The relationship between two virtual images displayed on the display medium and how the virtual image is viewed from the driver is shown. 本発明の実施の形態に係る表示システム、表示制御装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the display system which concerns on embodiment of this invention, and a display control apparatus.

以下、本発明の実施の形態について図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、本実施の形態に係る表示システム100の構成例について図3を用いて説明する。図3は、本実施の形態に係る表示システム100の構成例を示すブロック図である。   First, a configuration example of the display system 100 according to the present embodiment will be described with reference to FIG. FIG. 3 is a block diagram illustrating a configuration example of the display system 100 according to the present embodiment.

表示システム100は、例えば、車両等の移動体において用いられ、車両の運転を支援するシステムである。具体的には、表示システム100は、移動体の周辺に存在する歩行者の情報を認識し、乗員に対して歩行者の存在を示す情報を提示することで、交通事故を未然に防止するシステムである。なお、表示システム100は、移動体の前方車両を検出し、その前方車両に関する情報を表示することで、前方車両との追突を防止するシステムであっても良い。また、表示システム100は、移動体の前方を走行中の自転車を検出し、その自転車に関する情報を表示することで、自転車との衝突を防止するシステムであっても良い。   The display system 100 is a system that is used in a moving body such as a vehicle and supports driving of the vehicle. Specifically, the display system 100 is a system that prevents traffic accidents by recognizing information on pedestrians existing around a moving body and presenting information indicating the presence of pedestrians to passengers. It is. The display system 100 may be a system that detects a vehicle ahead of a moving body and displays information related to the vehicle ahead, thereby preventing a rear-end collision with the vehicle ahead. Further, the display system 100 may be a system that prevents a collision with a bicycle by detecting a bicycle that is traveling in front of a moving body and displaying information related to the bicycle.

さらに、表示システム100は、車載機器であっても良いし、車両に持ち込まれる機器であっても良い。また、表示システム100が車両に適用されたものとして説明するが、移動体は、車両に限定されず、船舶、航空機等であっても良い。また、本実施の形態では、ユーザーが車両の乗員、特に車両の運転者である例について説明するが、その限りではない。さらには、表示システム100は、ユーザーが身体に装着に可能なウェラブルコンピュータ(例えば、後述するHMD)において用いられても良い。   Furthermore, the display system 100 may be an in-vehicle device or a device brought into a vehicle. Although the display system 100 is described as being applied to a vehicle, the moving body is not limited to a vehicle, and may be a ship, an aircraft, or the like. In the present embodiment, an example in which the user is a vehicle occupant, particularly a vehicle driver, is described, but the present invention is not limited thereto. Furthermore, the display system 100 may be used in a wearable computer (for example, an HMD described later) that can be worn by the user.

表示システム100には、図1に示すように、カメラ110、カメラ120、表示媒体130が接続される。   As shown in FIG. 1, a camera 110, a camera 120, and a display medium 130 are connected to the display system 100.

カメラ110は、車両の内部または外部に搭載され、運転者の前方の視界(以下、「前景」という)を撮影する。カメラ110により撮影された画像(以下、「前景画像」という)は、認識部101へ出力される。なお、本実施の形態では、前景をセンシングする手段としてカメラ110を用いるとするが、これに限定されるものではなく、例えばレーダー等を用いても良い。   The camera 110 is mounted inside or outside the vehicle and photographs a field of view in front of the driver (hereinafter referred to as “foreground”). An image photographed by the camera 110 (hereinafter referred to as “foreground image”) is output to the recognition unit 101. In this embodiment, the camera 110 is used as a means for sensing the foreground. However, the present invention is not limited to this. For example, a radar or the like may be used.

カメラ120は、インナーカメラまたはドライバモニタリングカメラと呼ばれるカメラであり、車両の内部に搭載され、運転者の顔を撮影し、その撮影した顔画像に基づいて運転者の視点方向を検知する。カメラ120により検知された運転者の視点方向を示す情報(以下、「視点方向情報」という)は、認識部101へ出力される。また、カメラ120により撮影された顔画像は、特定部102へ出力される。   The camera 120 is a camera called an inner camera or a driver monitoring camera. The camera 120 is mounted inside the vehicle, photographs the driver's face, and detects the driver's viewpoint direction based on the photographed face image. Information indicating the driver's viewpoint direction detected by the camera 120 (hereinafter referred to as “viewpoint direction information”) is output to the recognition unit 101. Further, the face image photographed by the camera 120 is output to the specifying unit 102.

表示媒体130は、車両において用いられ、後述する表示部104で生成された仮想画像(詳細は後述する)が表示される媒体である。本実施の形態では、表示媒体130は、光を透過する透過型の表示媒体である。   The display medium 130 is a medium that is used in a vehicle and displays a virtual image (details will be described later) generated by the display unit 104 described later. In the present embodiment, the display medium 130 is a transmissive display medium that transmits light.

表示媒体130としては、例えば、ヘッドアップディスプレイ(Head Up Display:HUD)、LCD(Liquid Crystal Display)、HMD(Head‐Mounted DisplayまたはHelmet‐Mounted Display)、眼鏡型ディスプレイ(Smart Glasses)、ナビゲーション用ディスプレイ、メータディスプレイ、その他の専用のディスプレイなどが適用される。また、HUDは、例えば、車両のウインドシールドであっても良いし、別途設けられるガラス面、プラスチック面(例えば、コンバイナ)などであっても良い。また、ウインドシールドは、例えば、フロントガラスであっても良いし、車両のサイドガラスまたはバックガラスであっても良い。   Examples of the display medium 130 include a head up display (HUD), an LCD (Liquid Crystal Display), an HMD (Head-Mounted Display or Helmet-Mounted Display), a glasses-type display (Smart Glasses), and a navigation display. , Meter displays, other dedicated displays, etc. are applied. The HUD may be, for example, a vehicle windshield, or may be a separately provided glass surface, plastic surface (for example, a combiner), or the like. The windshield may be, for example, a windshield, a vehicle side glass or a back glass.

さらに、HUDは、ウインドシールドの表面または内側に備えられた透過型ディスプレイであっても良い。ここで、透過型ディスプレイとは、例えば、透過型の有機ELディスプレイ、または、特定の波長の光を照射した際に発光するガラスを用いた透明なディスプレイである。運転者は、背景を視認すると同時に、透過型ディスプレイ上の表示を視認することができる。このように表示媒体130は、光を透過する表示媒体である。いずれの場合も、仮想画像は表示媒体130に表示される。   Further, the HUD may be a transmissive display provided on the surface or inside of the windshield. Here, the transmissive display is, for example, a transmissive organic EL display or a transparent display using glass that emits light when irradiated with light of a specific wavelength. The driver can view the display on the transmissive display at the same time as viewing the background. Thus, the display medium 130 is a display medium that transmits light. In either case, the virtual image is displayed on the display medium 130.

なお、図1の例では、表示システム100は、表示媒体130を含まない構成としたが、表示媒体130を含む構成としても良い。   In the example of FIG. 1, the display system 100 is configured not to include the display medium 130, but may be configured to include the display medium 130.

図1において、表示システム100は、認識部101、特定部102、表示制御装置103および表示部104を有する。また、表示制御装置103は、決定部105、制御部106を有する。以下、各部について説明する。   In FIG. 1, the display system 100 includes a recognition unit 101, a specification unit 102, a display control device 103, and a display unit 104. In addition, the display control apparatus 103 includes a determination unit 105 and a control unit 106. Hereinafter, each part will be described.

認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に対してパターンマッチング処理等を行うことによって対象物を認識する。前景をセンシングする手段としてカメラ110の代わりにレーダーを用いた場合には、認識部101は、クラスタリングまたは機械学習等により対象物を抽出して認識する。   The recognition unit 101 extracts a feature amount included in the foreground image acquired from the camera 110, and recognizes an object by performing pattern matching processing or the like on the extracted feature amount. When a radar is used instead of the camera 110 as means for sensing the foreground, the recognition unit 101 extracts and recognizes an object by clustering or machine learning.

また、認識部101は、対象物を認識した場合、その対象物の位置を算出する。対象物とは、例えば、移動体(例えば、車両、人物、自転車、二輪車等)、道路上の白線、標識、路面標示、縁石、ガードレール、信号機、電柱、車両、人物、建物などである。なお、対象物の認識処理および対象物の位置の算出処理は公知のため、詳細な説明は省略する。   Further, when the recognition unit 101 recognizes an object, the recognition unit 101 calculates the position of the object. The target object is, for example, a moving body (for example, a vehicle, a person, a bicycle, a two-wheeled vehicle, etc.), a white line on a road, a sign, a road marking, a curb, a guardrail, a traffic light, a utility pole, a vehicle, a person, a building, and the like. Note that the object recognition process and the object position calculation process are well known, and thus detailed description thereof is omitted.

また、認識部101は、所定の対象物を認識した場合、その対象物の輪郭を検出する。例えば、認識部101は、前景画像に対して、特定の微分フィルタによるエッジ抽出を行うことで、対象物の輪郭を検出する。そして、認識部101は、検出した対象物の輪郭に基づいて、当該対象物の種別を特定する。なお、対象物のエッジの検出処理は公知のため、詳細な説明は省略する。本実施の形態では、所定の対象物を認識した場合、その対象物の輪郭を検出する例について説明しているが、対象物の輪郭を検出する処理は必ずしも必須ではない。例えば、歩行者の輪郭に合わせて人型のマーカー(虚像)をぴったりと重畳させる場合には、対象物の輪郭を検出する必要があるものの、定型の人型のマーカーのテンプレート(パラパラ漫画のようなもの)を歩行者の位置に合わせて表示する場合には対象物の輪郭を検出する必要はないからである。   Further, when the recognition unit 101 recognizes a predetermined object, the recognition unit 101 detects the contour of the object. For example, the recognition unit 101 detects the contour of the target object by performing edge extraction using a specific differential filter on the foreground image. Then, the recognition unit 101 specifies the type of the target object based on the detected contour of the target object. In addition, since the detection process of the edge of a target object is well-known, detailed description is abbreviate | omitted. In the present embodiment, an example is described in which when a predetermined object is recognized, the outline of the object is detected, but the process of detecting the outline of the object is not necessarily essential. For example, when a human-shaped marker (virtual image) is precisely superimposed on the contour of a pedestrian, it is necessary to detect the contour of the object, but a template for a standard human-shaped marker (such as a flip book) This is because it is not necessary to detect the contour of the target object when displaying the image in accordance with the position of the pedestrian.

なお、認識部101は、対象物の種別を歩行者として特定した場合、図4に示すように、歩行者の位置(X、Y)、車両の進行方向に対する歩行者の相対角度、歩行者と車両との相対速度等を認識する。歩行者の位置(X、Y)は、カメラ110が設置された位置を基準点(図中の点O)として、車両の横方向および前方方向をそれぞれX軸およびY軸とするカメラ座標系における座標である。すなわち、歩行者の位置Xは、車両の横方向におけるカメラ110と歩行者との距離を示す。歩行者の位置Yは、車両の進行方向におけるカメラ110と歩行者との距離を示す。   When the recognition unit 101 specifies the type of the object as a pedestrian, as shown in FIG. 4, the position of the pedestrian (X, Y), the relative angle of the pedestrian with respect to the traveling direction of the vehicle, the pedestrian Recognizes the relative speed of the vehicle. The position of the pedestrian (X, Y) in the camera coordinate system with the position where the camera 110 is installed as a reference point (point O in the figure) and the lateral and forward directions of the vehicle as the X and Y axes, respectively Coordinates. That is, the position X of the pedestrian indicates the distance between the camera 110 and the pedestrian in the lateral direction of the vehicle. The position Y of the pedestrian indicates the distance between the camera 110 and the pedestrian in the traveling direction of the vehicle.

認識部101は、対象物の位置および種別を含む情報(以下、「対象物位置情報」という)を特定部102に出力する。認識部101は、複数の対象物を認識した場合、カメラ120から出力された視点方向情報を取得し、その取得した視点方向情報に示される視点方向すなわち運転者が注視する方向に位置する対象物を特定する。そして、認識部101は、特定した対象物の位置および種別を含む対象物位置情報を特定部102に出力する。また、認識部101は、対象物の輪郭を示す情報(以下、「輪郭情報」という)を表示制御装置103の制御部106に出力する。輪郭情報には、輪郭の形状を示す情報の他、輪郭の位置および対象物の種別を示す情報も含まれる。   The recognition unit 101 outputs information including the position and type of the target object (hereinafter referred to as “target position information”) to the specifying unit 102. When the recognition unit 101 recognizes a plurality of objects, the recognition unit 101 acquires the viewpoint direction information output from the camera 120, and the object located in the viewpoint direction indicated by the acquired viewpoint direction information, that is, the direction in which the driver is gazing. Is identified. Then, the recognition unit 101 outputs object position information including the position and type of the specified object to the specifying unit 102. In addition, the recognition unit 101 outputs information indicating the contour of the object (hereinafter referred to as “contour information”) to the control unit 106 of the display control device 103. In addition to information indicating the shape of the contour, the contour information includes information indicating the position of the contour and the type of the object.

特定部102は、カメラ120から出力された顔画像に基づいて運転者の目の領域(以下、「目領域」という)を検出する。目領域とは、例えば、両眼を含む所定の領域である。なお、顔画像に対して画像処理を行うことで目領域を検出する処理は公知のため、詳細な説明は省略する。また、本実施の形態では、特定部102が顔画像に基づいて目領域を検出するとしたが、目領域は、例えば、予め定められた領域でも良いし、または、運転者の視線を検知する視線検知部(図示略)が検知した視線に基づいて検出した領域でも良い。   The identification unit 102 detects a driver's eye area (hereinafter referred to as “eye area”) based on the face image output from the camera 120. The eye area is a predetermined area including both eyes, for example. In addition, since the process which detects an eye area | region by performing image processing with respect to a face image is well-known, detailed description is abbreviate | omitted. In the present embodiment, the specifying unit 102 detects the eye area based on the face image. However, the eye area may be a predetermined area, or a line of sight that detects the driver's line of sight. An area detected based on the line of sight detected by a detection unit (not shown) may be used.

そして、特定部102は、検出した目領域のうちの所定の点(例えば、左右いずれかの目、または、左目と右目との間の中心)の位置、認識部101から出力された対象物位置情報に示される対象物の位置、表示媒体130の位置の関係から、対象物が表示される表示媒体130上の位置(以下、「対象物表示位置」という)を特定する。この対象物表示位置は、換言すれば、目領域の所定点から表示媒体130を介して対象物が観察されたときにおける、対象物の表示媒体130上の位置である。なお、対象物表示位置の特定処理は公知のため、詳細な説明は省略する。   Then, the specifying unit 102 detects the position of a predetermined point (for example, the left or right eye or the center between the left eye and the right eye) in the detected eye region, and the object position output from the recognition unit 101. From the relationship between the position of the object indicated in the information and the position of the display medium 130, the position on the display medium 130 where the object is displayed (hereinafter referred to as “object display position”) is specified. In other words, the target object display position is a position of the target object on the display medium 130 when the target object is observed through the display medium 130 from a predetermined point in the eye area. Since the object display position specifying process is well known, detailed description thereof is omitted.

そして、特定部102は、対象物表示位置を示す情報(以下、「対象物表示位置情報」という)を表示制御装置103の決定部105に出力する。   Then, the specifying unit 102 outputs information indicating the object display position (hereinafter referred to as “object display position information”) to the determination unit 105 of the display control device 103.

決定部105は、認識部101による対象物の認識結果に基づいて、表示媒体130上において、特定部102から出力された対象物表示位置情報に示される対象物表示位置から所定の距離だけ離れた右側位置、および、対象物表示位置に対して右側位置と実質的に対称の位置である左側位置を決定する。右側位置および左側位置の具体的な決定方法については後述する。決定部105は、決定した左側位置および右側位置を示す情報(以下、「左右位置情報」という)を制御部106に出力する。   Based on the recognition result of the object by the recognition unit 101, the determination unit 105 is separated from the object display position indicated by the object display position information output from the specifying unit 102 on the display medium 130 by a predetermined distance. A right side position and a left side position that is substantially symmetrical to the right side position with respect to the object display position are determined. A specific method for determining the right side position and the left side position will be described later. The determining unit 105 outputs information indicating the determined left position and right position (hereinafter referred to as “left / right position information”) to the control unit 106.

制御部106は、認識部101から出力された輪郭情報に基づいて仮想画像を生成し、その仮想画像を、決定部105から出力された左右位置情報に基づいて表示媒体130に表示するように表示部104を制御する。例えば、制御部106は、輪郭情報および左右位置情報に基づいて、仮想画像の生成と表示についての制御の内容を示す制御情報を生成し、その制御情報を表示部104へ出力することで表示部104を制御する。なお、制御部106による制御の詳細は、後述する。   The control unit 106 generates a virtual image based on the contour information output from the recognition unit 101, and displays the virtual image on the display medium 130 based on the left-right position information output from the determination unit 105. The unit 104 is controlled. For example, the control unit 106 generates control information indicating the content of control for generation and display of the virtual image based on the contour information and the left and right position information, and outputs the control information to the display unit 104 to display the control unit 106. 104 is controlled. Details of the control by the control unit 106 will be described later.

表示部104は、制御部106から出力された制御情報に基づいて、仮想画像を生成し、その仮想画像を表示媒体130に表示する。例えば表示媒体130がHUDである場合、表示部104は、プロジェクタ機能を用いて、仮想画像を表示媒体130に投射(投影)する。これにより、仮想画像は、運転者に虚像として視認される。なお、表示媒体に投射された仮想画像が虚像として運転者に視認される原理は公知のため、詳細な説明は省略する。   The display unit 104 generates a virtual image based on the control information output from the control unit 106 and displays the virtual image on the display medium 130. For example, when the display medium 130 is a HUD, the display unit 104 projects (projects) a virtual image on the display medium 130 using a projector function. Thereby, a virtual image is visually recognized as a virtual image by the driver. In addition, since the principle by which a driver | operator visually recognizes the virtual image projected on the display medium as a virtual image is well-known, detailed description is abbreviate | omitted.

本実施の形態では、仮想画像を表示媒体130に投射して乗員に虚像として認識させることと、仮想画像を表示媒体130に表示することとは同義であるとして、以下説明する。すなわち、以下の説明において、HUDへ仮想画像が投射されて、乗員に虚像として視認される事象を、表示と形容する。   In the present embodiment, the following description will be made assuming that the virtual image is projected onto the display medium 130 to cause the occupant to recognize it as a virtual image and the virtual image is displayed on the display medium 130. That is, in the following description, a phenomenon in which a virtual image is projected onto the HUD and visually recognized as a virtual image by the passenger is described as display.

なお、表示部104は、プロジェクタ機能を用いる代わりに、例えば、ホログラムの原理を用いてHUDに仮想画像を表示させても良い。ホログラムを用いる場合、導光板の内部全反射条件を満たす平行光束群を内部全反射して導光する導光板を用いる方式でも良い。導光板を用いた方式においては、プロジェクタのように仮想画像を直接的に投射するものではないが、説明の便宜上、プロジェクタ方式と同様に投射または表示という定義で説明する。   Instead of using the projector function, the display unit 104 may display a virtual image on the HUD using, for example, a hologram principle. In the case of using a hologram, a method using a light guide plate that guides a parallel light beam group that satisfies the internal total reflection condition of the light guide plate by total internal reflection may be used. In the method using the light guide plate, a virtual image is not directly projected as in the projector, but for the sake of convenience of explanation, the definition of projection or display will be described as in the projector method.

また、本実施の形態では、表示部104が仮想画像を生成するとしたが、仮想画像は、表示制御装置103または図示しない他の構成要素によって生成されても良い。   In the present embodiment, the display unit 104 generates a virtual image. However, the virtual image may be generated by the display control device 103 or another component not shown.

また、表示部104を表示制御装置103に含めることで投影装置として構成しても良い。   Further, the display unit 104 may be included in the display control device 103 to configure as a projection device.

次に、本実施の形態に係る表示システム100の動作例について図5を用いて説明する。図5は、本実施の形態に係る表示システム100の動作例を示すフローチャートである。ステップS100における処理は、例えば車両のエンジンがオフ状態からオン状態となることに連動して表示システム100が起動されることにより開始される。   Next, an operation example of the display system 100 according to the present embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing an operation example of the display system 100 according to the present embodiment. The process in step S100 is started when the display system 100 is activated in conjunction with, for example, the vehicle engine changing from an off state to an on state.

まず、認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に対してパターンマッチング処理等を行うことによって対象物を認識する(ステップS100)。そして、認識部101は、対象物の位置および種別を含む対象物位置情報を特定部102に出力する。また、認識部101は、対象物の輪郭を示す輪郭情報を表示制御装置103の制御部106に出力する。   First, the recognition unit 101 extracts a feature amount included in a foreground image acquired from the camera 110, and recognizes an object by performing a pattern matching process or the like on the extracted feature amount (step S100). Then, the recognizing unit 101 outputs object position information including the position and type of the object to the specifying unit 102. Further, the recognition unit 101 outputs contour information indicating the contour of the object to the control unit 106 of the display control device 103.

次に、特定部102は、認識部101から出力された対象物位置情報に含まれる対象物の種別が歩行者であるか否かについて判定する(ステップS120)。この判定の結果、対象物の種別が歩行者でない場合(ステップS120、NO)、処理はステップS220に遷移する。一方、対象物の種別が歩行者である場合(ステップS120、YES)、特定部102は、運転者の目領域のうちの所定の点の位置、認識部101から出力された対象物位置情報に示される歩行者(対象物)の位置、表示媒体130の位置の関係から、歩行者が表示される表示媒体130上の位置である対象物表示位置を特定する(ステップS140)。そして、特定部102は、対象物表示位置を示す対象物表示情報を表示制御装置103の決定部105に出力する。   Next, the specifying unit 102 determines whether or not the type of the object included in the object position information output from the recognition unit 101 is a pedestrian (step S120). As a result of this determination, when the type of the object is not a pedestrian (step S120, NO), the process transitions to step S220. On the other hand, when the type of the object is a pedestrian (step S120, YES), the specifying unit 102 uses the position of a predetermined point in the driver's eye area and the object position information output from the recognition unit 101. The object display position that is the position on the display medium 130 where the pedestrian is displayed is specified from the relationship between the position of the displayed pedestrian (object) and the position of the display medium 130 (step S140). Then, the specifying unit 102 outputs object display information indicating the object display position to the determination unit 105 of the display control device 103.

次に、決定部105は、認識部101による対象物の認識結果に基づいて、表示媒体130上において、特定部102から出力された対象物表示位置情報により示される対象物表示位置から所定の距離だけ離れた右側位置、および、対象物表示位置に対して右側位置と実質的に対称の位置である左側位置を決定する(ステップS160)。そして、決定部105は、決定した左側位置および右側位置を示す左右位置情報を制御部106に出力する。   Next, the determination unit 105 determines a predetermined distance from the object display position indicated by the object display position information output from the specifying unit 102 on the display medium 130 based on the recognition result of the object by the recognition unit 101. A right position that is far away from the target position and a left position that is substantially symmetrical to the right position with respect to the object display position are determined (step S160). Then, the determination unit 105 outputs left and right position information indicating the determined left side position and right side position to the control unit 106.

ここで、図6を参照し、ステップS160の処理について説明する。図6において、200は車両の前方に位置する歩行者、220は運転者の左目、230は運転者の右目を模式的に示したものである。図6の例では、歩行者200は、運転者の正面、すなわち左目220と右目230との間の中心225の正面に位置する。212は、特定部102により特定された、歩行者200が表示される表示媒体130上の位置(対象物表示位置)を示している。L1は、運転者の視点(左目220、右目230)から表示媒体130までの距離である。決定部105は、予め定められたカメラ120と表示媒体130との位置関係、カメラ120により撮影された運転者の顔画像に基づいて、距離L1を算出することができる。L2は、表示媒体130から歩行者200までの距離である。決定部105は、歩行者200からカメラ110までの距離と、予め定められたカメラ110から表示媒体130までの距離に基づいて、距離L2を算出することができる。L3は、運転者の左目220および右目230の間隔(平均的には、6〜7[cm])である。決定部105は、カメラ120により撮影された運転者の顔画像に基づいて、距離L3を算出することができる。この場合、決定部105は、対象物表示位置212から所定の距離dだけ離れた右側位置216および左側位置214を決定する。距離dは、以下の式(1)により算出することができる。
d=1/2×L2×L3/(L1+L2)・・・(1)
なお、距離L3を算出する際、必ずしも、カメラ120により撮影された運転者の顔画像に基づく必要はない。すなわち、カメラ120を設けることは必ずしも必須ではない。距離L3として、例えば6.5[cm]等の所定値を設定しても良い。
Here, the process of step S160 will be described with reference to FIG. In FIG. 6, 200 is a pedestrian located in front of the vehicle, 220 is a left eye of the driver, and 230 is a right eye of the driver. In the example of FIG. 6, the pedestrian 200 is located in front of the driver, that is, in front of the center 225 between the left eye 220 and the right eye 230. Reference numeral 212 denotes a position (object display position) on the display medium 130 on which the pedestrian 200 is displayed, which is specified by the specifying unit 102. L1 is the distance from the driver's viewpoint (left eye 220, right eye 230) to the display medium 130. The determination unit 105 can calculate the distance L <b> 1 based on a predetermined positional relationship between the camera 120 and the display medium 130 and a driver's face image captured by the camera 120. L2 is the distance from the display medium 130 to the pedestrian 200. The determination unit 105 can calculate the distance L2 based on the distance from the pedestrian 200 to the camera 110 and the predetermined distance from the camera 110 to the display medium 130. L3 is the distance between the left eye 220 and the right eye 230 of the driver (6 to 7 [cm] on average). The determination unit 105 can calculate the distance L3 based on the driver's face image photographed by the camera 120. In this case, the determination unit 105 determines a right position 216 and a left position 214 that are separated from the object display position 212 by a predetermined distance d. The distance d can be calculated by the following equation (1).
d = 1/2 * L2 * L3 / (L1 + L2) (1)
In calculating the distance L3, it is not always necessary to calculate the distance L3 based on the driver's face image captured by the camera 120. That is, it is not always essential to provide the camera 120. For example, a predetermined value such as 6.5 [cm] may be set as the distance L3.

図6では、歩行者200が運転者の正面に位置する場合について説明したが、歩行者200の位置が運転者の正面から左右にずれた場合についても、右側位置216および左側位置214を同様に決定することができる。図7は、歩行者200の位置が運転者の正面から左方向にずれた場合を示している。この場合においても、対象物表示位置212と、右側位置216および左側位置214との距離dは、上記の式(1)を用いて算出することができる。また、図6や図7において、運転者の頭部の位置が歩行者200の位置から左右にずれた場合についても、右側位置216および左側位置214を同様に決定することができる。また、運転者の頭部位置が車両のロール方向(言い換えると車両の進行方向に対して垂直な平面上を、運転者が首をかしげように回転する方向)に回転する場合には、決定部105は、その回転角度と同じ角度だけ右側位置216および左側位置214を中心として回転させた位置に決定する。   In FIG. 6, the case where the pedestrian 200 is located in front of the driver has been described. However, the right position 216 and the left position 214 are similarly set even when the position of the pedestrian 200 deviates from the front of the driver to the left and right. Can be determined. FIG. 7 shows a case where the position of the pedestrian 200 is shifted leftward from the front of the driver. Also in this case, the distance d between the object display position 212 and the right position 216 and the left position 214 can be calculated using the above equation (1). 6 and 7, the right position 216 and the left position 214 can be determined in the same manner even when the position of the driver's head is shifted left and right from the position of the pedestrian 200. In addition, when the driver's head position rotates in the vehicle roll direction (in other words, the direction in which the driver rotates his / her neck on a plane perpendicular to the traveling direction of the vehicle), the determination unit 105 is determined as a position rotated about the right position 216 and the left position 214 by the same angle as the rotation angle.

制御部106は、認識部101から出力された輪郭情報と、決定部105から出力された左右側位置情報に基づいて、仮想画像の生成と表示についての制御の内容を示す制御情報を生成し、その制御情報を表示部104へ出力する。   Based on the contour information output from the recognition unit 101 and the left and right side position information output from the determination unit 105, the control unit 106 generates control information indicating the content of control for generation and display of the virtual image, The control information is output to the display unit 104.

ここで、図8を参照し、仮想画像の表示処理について説明する。図8において、301、302は、表示媒体130上の左側位置214および右側位置216にそれぞれ表示される仮想画像である。303は、運転者が表示媒体130上に表示される仮想画像301(本発明の「第1の左側画像」に対応)を右目230で見ることにより、歩行者200の左方向に見える虚像である。304は、運転者が表示媒体130上に表示される仮想画像302(本発明の「第1の右側画像」に対応)を左目220で見ることにより、歩行者200の右方向に見える虚像である。仮想画像301,302は、同じ色および輝度で表示されることが好ましい。305は、運転者が歩行者200を注視した際、仮想画像301の二重像のうち虚像303以外の虚像と、仮想画像302の二重像のうち虚像304以外の虚像とが歩行者200の位置で組み合わさって見える人の形状の虚像である。   Here, the virtual image display processing will be described with reference to FIG. In FIG. 8, reference numerals 301 and 302 denote virtual images displayed at the left position 214 and the right position 216 on the display medium 130, respectively. Reference numeral 303 denotes a virtual image that is visible in the left direction of the pedestrian 200 when the driver views the virtual image 301 (corresponding to the “first left image” of the present invention) displayed on the display medium 130 with the right eye 230. . A virtual image 304 is visible to the right of the pedestrian 200 when the driver views a virtual image 302 (corresponding to the “first right image” of the present invention) displayed on the display medium 130 with the left eye 220. . The virtual images 301 and 302 are preferably displayed with the same color and brightness. When the driver gazes at the pedestrian 200, a virtual image other than the virtual image 303 among the double images of the virtual image 301 and a virtual image other than the virtual image 304 among the double images of the virtual image 302 are displayed on the pedestrian 200. It is a virtual image of a person's shape that appears to be combined in position.

ここで、仮想画像301と仮想画像302とは複数の要素から構成される第1の所定画像であり、仮想画像302は、第1の所定画像を構成する複数の要素のうちの一部である第1の要素から構成され、仮想画像301は、上記複数の要素のうち第1の要素以外の第2の要素から構成される。   Here, the virtual image 301 and the virtual image 302 are a first predetermined image composed of a plurality of elements, and the virtual image 302 is a part of a plurality of elements constituting the first predetermined image. The virtual image 301 is composed of a first element, and the virtual image 301 is composed of a second element other than the first element among the plurality of elements.

このように、歩行者200の位置に人の形状を示す虚像を見えるようにすることで、運転者に対して歩行者200の存在を把握させることができる。   Thus, by making a virtual image showing the shape of a person visible at the position of the pedestrian 200, the driver can be made aware of the presence of the pedestrian 200.

次に、表示部104は、制御部106から出力された制御情報に基づいて、仮想画像を生成する(ステップS180)。続いて、表示部104は、生成した仮想画像を表示媒体130に表示する(ステップS200)。   Next, the display unit 104 generates a virtual image based on the control information output from the control unit 106 (step S180). Subsequently, the display unit 104 displays the generated virtual image on the display medium 130 (step S200).

その後、表示システム100は、処理を終了させる必要があるか否かについて判定する(ステップS220)。例えば、表示システム100は、車両のエンジンがオン状態からオフ状態となることに連動して表示システム100が停止される場合に処理を終了させる必要があると判定する一方、車両のエンジンがオン状態からオフ状態となっていない場合に処理を終了させる必要がないと判定する。   Thereafter, the display system 100 determines whether or not it is necessary to end the process (step S220). For example, the display system 100 determines that the process needs to be terminated when the display system 100 is stopped in conjunction with the vehicle engine being switched from an on state to an off state, while the vehicle engine is in an on state. If it is not in the off state, it is determined that the process need not be terminated.

判定の結果、処理を終了させる必要がある場合(ステップS220、YES)、表示システム100は、図5における処理を終了する。一方、処理を終了させる必要がない場合(ステップS220、NO)、処理はステップS100以降の処理が再度実行される。その後、ステップS200において仮想画像を表示する場合には、前回のステップS200において表示された仮想画像とは異なる仮想画像が表示される。具体的には、第1の所定画像を構成する複数の要素を仮想画像301と仮想画像302とに分けた際の分け方とは異なる分け方で複数の要素を分けた左右2つの仮想画像が表示される。この点に関して、図9を用いて詳しく説明する。   As a result of the determination, when it is necessary to end the process (step S220, YES), the display system 100 ends the process in FIG. On the other hand, when it is not necessary to end the process (step S220, NO), the process after step S100 is executed again. Thereafter, when a virtual image is displayed in step S200, a virtual image different from the virtual image displayed in the previous step S200 is displayed. Specifically, the left and right virtual images obtained by dividing the plurality of elements in a different way from the way of dividing the plurality of elements constituting the first predetermined image into the virtual image 301 and the virtual image 302 are shown. Is displayed. This point will be described in detail with reference to FIG.

図9において、401、402は、表示媒体130上の左側位置214および右側位置216にそれぞれ表示される仮想画像である。403は、運転者が表示媒体130上に表示される仮想画像401(本発明の「第2の左側画像」に対応)を右目230で見ることにより、歩行者200の左方向に見える虚像である。404は、運転者が表示媒体130上に表示される仮想画像402(本発明の「第2の右側画像」に対応)を左目220で見ることにより、歩行者200の右方向に見える虚像である。仮想画像401,402は、同じ色および輝度で表示されることが好ましい。405は、運転者が歩行者200を注視した際、仮想画像401の二重像のうち虚像403以外の虚像と、仮想画像402の二重像のうち虚像404以外の虚像とが歩行者200の位置で組み合わさって見える人の形状の虚像である。   In FIG. 9, 401 and 402 are virtual images displayed at the left position 214 and the right position 216 on the display medium 130, respectively. Reference numeral 403 denotes a virtual image that is visible to the left of the pedestrian 200 when the driver sees the virtual image 401 (corresponding to the “second left image” of the present invention) displayed on the display medium 130 with the right eye 230. . Reference numeral 404 denotes a virtual image that is visible in the right direction of the pedestrian 200 when the driver views the virtual image 402 (corresponding to the “second right image” of the present invention) displayed on the display medium 130 with the left eye 220. . The virtual images 401 and 402 are preferably displayed with the same color and brightness. When the driver gazes at the pedestrian 200, a virtual image other than the virtual image 403 among the double images of the virtual image 401 and a virtual image other than the virtual image 404 among the double images of the virtual image 402 are displayed. It is a virtual image of a person's shape that appears to be combined in position.

ここで、仮想画像401と仮想画像402とは複数の要素から構成される第2の所定画像であり、仮想画像402は、第2の所定画像を構成する複数の要素のうち一部であって、かつ、第1の要素と異なる第3の要素から構成され、仮想画像401は、上記複数の要素のうち第3の要素以外の第4の要素から構成される。すなわち、仮想画像401,402はそれぞれ、仮想画像301、302とは異なる要素から構成される異なる画像である。   Here, the virtual image 401 and the virtual image 402 are a second predetermined image composed of a plurality of elements, and the virtual image 402 is a part of the plurality of elements constituting the second predetermined image. And the virtual image 401 is comprised from 4th elements other than a 3rd element among the said several elements from the 3rd element different from a 1st element. That is, the virtual images 401 and 402 are different images composed of elements different from the virtual images 301 and 302, respectively.

以上のように、本実施の形態では、二重像の発生を想定した上で表示媒体130上の左側位置214に仮想画像301,401を表示し、右側位置216に仮想画像302,402を表示している。さらに、本実施の形態では、表示媒体130上の左側位置214および右側位置216に表示させる仮想画像を時間が経過するにつれ変更させる。これにより、運転者に対して、虚像303,304,305,403,404,405のうち歩行者200の位置に重畳される虚像305,405のみが明瞭に表示されることになり、運転者に歩行者の存在を正確に把握させることができる。この点について、以下でさらに詳しく説明する。   As described above, in the present embodiment, virtual images 301 and 401 are displayed at the left position 214 on the display medium 130 and virtual images 302 and 402 are displayed at the right position 216 on the assumption that double images are generated. doing. Further, in the present embodiment, the virtual images displayed at the left position 214 and the right position 216 on the display medium 130 are changed as time passes. As a result, only the virtual images 305 and 405 superimposed on the position of the pedestrian 200 among the virtual images 303, 304, 305, 403, 404, and 405 are clearly displayed to the driver. The presence of a pedestrian can be accurately grasped. This point will be described in more detail below.

図10は、時々刻々と表示媒体130の左側位置214および右側位置216に表示される2つの仮想画像と、歩行者200の左方向に見える虚像、歩行者200の位置に重畳されて見える虚像、および歩行者200の右方向に見える虚像との関係を示す。図10に示すように、時間の経過に伴い歩行者200の位置に重畳されて見える虚像を構成する要素の位置および数は大きく変化せず、当該仮想画像は運転者に明瞭に視認される。一方、時間の経過に伴い、歩行者200の左および右方向に見える虚像を構成する要素の位置および数は高速で大きく変化するため、当該虚像は運転者にぼやけて視認される。すなわち、歩行者200の位置に重畳されて表示される虚像のみが運転者に明瞭に視認されるため、運転者は、歩行者の存在を正確に把握することができる。   FIG. 10 shows two virtual images displayed at the left position 214 and the right position 216 of the display medium 130 every moment, a virtual image seen in the left direction of the pedestrian 200, a virtual image seen superimposed on the position of the pedestrian 200, And the relationship with the virtual image seen to the right direction of the pedestrian 200 is shown. As shown in FIG. 10, the position and number of elements constituting the virtual image that appears to be superimposed on the position of the pedestrian 200 does not change significantly with the passage of time, and the virtual image is clearly visually recognized by the driver. On the other hand, with the passage of time, the position and the number of elements constituting the virtual image that can be seen in the left and right directions of the pedestrian 200 change greatly at a high speed, so that the virtual image is visually recognized by the driver. That is, since only the virtual image displayed superimposed on the position of the pedestrian 200 is clearly seen by the driver, the driver can accurately grasp the presence of the pedestrian.

ここで、一般に、人間が知覚できる明暗の限界周波数である臨界融合周波数(CFF:Critical Flicker Frequency)は、30〜40[Hz]と言われている。そこで、表示媒体130の左側位置214および右側位置216に2つの仮想画像を表示させる時間間隔を、臨界融合周波数以上の周波数の逆数とすることにより、歩行者200の左および右方向において、運転者が虚像を認識できないようにすることができる。   Here, it is generally said that a critical fusion frequency (CFF: Critical Flicker Frequency) that is a limit frequency of light and dark that can be perceived by humans is 30 to 40 [Hz]. Accordingly, the time interval for displaying the two virtual images at the left position 214 and the right position 216 of the display medium 130 is the reciprocal of the frequency equal to or higher than the critical fusion frequency, so that the driver can move in the left and right directions of the pedestrian 200. Can prevent the virtual image from being recognized.

なお、上記実施の形態では、対象物として歩行者を1回認識する毎に、表示媒体130に2つの仮想画像を1回表示する例について説明したが、対象物として歩行者を1回認識する毎に、表示媒体130に2つの仮想画像をN回(Nは1より大きい自然数)切り替えて表示するようにしても良い。この場合における表示システム100の動作について、図11を参照して説明する。図11は、本実施の形態に係る表示システム100の動作の変形例を示すフローチャートである。ステップS300における処理は、例えば車両のエンジンがオフ状態からオン状態となることに連動して表示システム100が起動されることにより開始される。   In the above embodiment, an example in which two virtual images are displayed once on the display medium 130 each time a pedestrian is recognized as an object has been described. However, a pedestrian is recognized once as an object. Each time, two virtual images may be switched and displayed on the display medium 130 N times (N is a natural number greater than 1). The operation of the display system 100 in this case will be described with reference to FIG. FIG. 11 is a flowchart showing a modified example of the operation of display system 100 according to the present embodiment. The process in step S300 is started when the display system 100 is activated in conjunction with, for example, the vehicle engine changing from an off state to an on state.

まず、認識部101は、カメラ110から取得した前景画像に含まれる特徴量を抽出し、抽出した特徴量に対してパターンマッチング処理等を行うことによって対象物を認識する(ステップS300)。そして、認識部101は、対象物の位置および種別を含む対象物位置情報を特定部102に出力する。また、認識部101は、対象物の輪郭を示す輪郭情報を表示制御装置103の制御部106に出力する。   First, the recognition unit 101 extracts a feature amount included in a foreground image acquired from the camera 110, and recognizes an object by performing a pattern matching process or the like on the extracted feature amount (step S300). Then, the recognizing unit 101 outputs object position information including the position and type of the object to the specifying unit 102. Further, the recognition unit 101 outputs contour information indicating the contour of the object to the control unit 106 of the display control device 103.

次に、特定部102は、認識部101から出力された対象物位置情報に含まれる対象物の種別が歩行者であるか否かについて判定する(ステップS320)。この判定の結果、対象物の種別が歩行者でない場合(ステップS320、NO)、処理はステップS500に遷移する。一方、対象物の種別が歩行者である場合(ステップS320、YES)、特定部102は、運転者の目領域のうちの所定の点の位置、認識部101から出力された対象物位置情報に示される歩行者(対象物)の位置、表示媒体130の位置の関係から、歩行者が表示される表示媒体130上の位置である対象物表示位置を特定する(ステップS340)。そして、特定部102は、対象物表示位置を示す対象物表示位置情報を表示制御装置103の決定部105に出力する。   Next, the specifying unit 102 determines whether or not the type of the object included in the object position information output from the recognition unit 101 is a pedestrian (step S320). As a result of this determination, when the type of the object is not a pedestrian (step S320, NO), the process transitions to step S500. On the other hand, when the type of the object is a pedestrian (YES in step S320), the specifying unit 102 uses the position of a predetermined point in the driver's eye area and the object position information output from the recognition unit 101. From the relationship between the position of the pedestrian (object) to be displayed and the position of the display medium 130, the object display position that is the position on the display medium 130 where the pedestrian is displayed is specified (step S340). Then, the specifying unit 102 outputs object display position information indicating the object display position to the determining unit 105 of the display control device 103.

次に、決定部105は、認識部101による対象物の認識結果に基づいて、表示媒体130上において、特定部102から出力された対象物表示位置情報により示される対象物表示位置から所定の距離だけ離れた右側位置、および、対象物表示位置に対して右側位置と実質的に対称の位置である左側位置を決定する(ステップS360)。そして、決定部105は、決定した左側位置および右側位置を示す左右位置情報を制御部106に出力する。   Next, the determination unit 105 determines a predetermined distance from the object display position indicated by the object display position information output from the specifying unit 102 on the display medium 130 based on the recognition result of the object by the recognition unit 101. A right position that is far away from the target position and a left position that is substantially symmetrical to the right position with respect to the object display position are determined (step S360). Then, the determination unit 105 outputs left and right position information indicating the determined left side position and right side position to the control unit 106.

制御部106は、認識部101から出力された輪郭情報と、決定部105から出力された左右側位置情報に基づいて、仮想画像の生成と表示についての制御の内容を示す制御情報を生成し、その制御情報を表示部104へ出力する。   Based on the contour information output from the recognition unit 101 and the left and right side position information output from the determination unit 105, the control unit 106 generates control information indicating the content of control for generation and display of the virtual image, The control information is output to the display unit 104.

次に、表示部104は、制御部106から出力された制御情報に基づいて、2つの仮想画像を第1仮想画像として生成する(ステップS380)。次に、表示部104は、生成した第1仮想画像を表示媒体130に表示する(ステップS400)。   Next, the display unit 104 generates two virtual images as first virtual images based on the control information output from the control unit 106 (step S380). Next, the display unit 104 displays the generated first virtual image on the display medium 130 (step S400).

次に、表示部104は、制御部106から出力された制御情報に基づいて、2つの仮想画像を第2仮想画像として生成する(ステップS420)。次に、表示部104は、生成した第2仮想画像を表示媒体130に表示する(ステップS440)。その後も、表示部104は、制御部106から出力された制御情報に基づいて、2つの仮想画像を生成して表示媒体130に表示する処理を繰り返す。そして、表示部104は、制御部106から出力された制御情報に基づいて、2つの仮想画像を第N仮想画像として生成する(ステップS460)。次に、表示部104は、生成した第N仮想画像を表示媒体130に表示する(ステップS480)。ステップS400〜S480の処理においては、表示媒体130上の左側位置214および右側位置216に表示させる仮想画像を時々刻々と変更させている。   Next, the display unit 104 generates two virtual images as second virtual images based on the control information output from the control unit 106 (step S420). Next, the display unit 104 displays the generated second virtual image on the display medium 130 (step S440). Thereafter, the display unit 104 repeats the process of generating two virtual images and displaying them on the display medium 130 based on the control information output from the control unit 106. Then, the display unit 104 generates two virtual images as the Nth virtual image based on the control information output from the control unit 106 (step S460). Next, the display unit 104 displays the generated Nth virtual image on the display medium 130 (step S480). In the processes of steps S400 to S480, the virtual images displayed at the left position 214 and the right position 216 on the display medium 130 are changed every moment.

最後に、表示システム100は、処理を終了させる必要があるか否かについて判定する(ステップS500)。判定の結果、処理を終了させる必要がある場合(ステップS500、YES)、表示システム100は、図11における処理を終了する。一方、処理を終了させる必要がない場合(ステップS500、NO)、処理はステップS300の前に戻る。   Finally, the display system 100 determines whether it is necessary to end the process (step S500). As a result of the determination, when it is necessary to end the process (step S500, YES), the display system 100 ends the process in FIG. On the other hand, when it is not necessary to end the process (step S500, NO), the process returns to before step S300.

また、上記実施の形態では、人の形状の虚像が歩行者200の位置に見えるように、表示媒体130の左側位置214および右側位置216に、当該虚像を生じさせる要素から構成される仮想画像301,302,401,402を表示させる例について説明したが、本発明はこれに限定されない。   In the above-described embodiment, the virtual image 301 including elements that generate the virtual image at the left side position 214 and the right side position 216 of the display medium 130 so that the virtual image of the human shape can be seen at the position of the pedestrian 200. , 302, 401, 402 has been described, but the present invention is not limited to this.

例えば、図12に示すように、円形状の虚像が歩行者200の位置に見えるように、扇形または半円形の複数の要素から構成される所定画像を表示させるようにしてもよい。この所定画像は、表示媒体130の左側位置214に表示される仮想画像と、右側位置216に表示される仮想画像とからなる。そして、右側位置216に表示される仮想画像は、上記所定画像を構成する複数の要素のうちの一部の要素からなり、右側位置216に表示される仮想画像は、上記複数の要素のうち上記一部の要素以外の他の要素からなる。   For example, as shown in FIG. 12, a predetermined image composed of a plurality of fan-shaped or semi-circular elements may be displayed so that a circular virtual image can be seen at the position of the pedestrian 200. The predetermined image includes a virtual image displayed at the left position 214 of the display medium 130 and a virtual image displayed at the right position 216. The virtual image displayed at the right position 216 includes a part of a plurality of elements constituting the predetermined image, and the virtual image displayed at the right position 216 includes the above-described plurality of elements. Consists of other elements other than some elements.

また、図13に示すように、長方形の枠形状の虚像が歩行者200の位置に見えるように、四角形または角の一部が丸くなった四角形である複数の要素から構成される所定画像を表示させるようにしてもよい。この所定画像も、表示媒体130の左側位置214に表示される仮想画像と、右側位置216に表示される仮想画像とからなる。そして、右側位置216に表示される仮想画像は、上記所定画像を構成する複数の要素のうちの一部の要素からなり、右側位置216に表示される仮想画像は、上記複数の要素のうち上記一部の要素以外の他の要素からなる。   Further, as shown in FIG. 13, a predetermined image composed of a plurality of elements that are a quadrangle or a quadrangle whose corners are rounded so that a rectangular frame-shaped virtual image can be seen at the position of the pedestrian 200 is displayed. You may make it make it. This predetermined image also includes a virtual image displayed at the left position 214 of the display medium 130 and a virtual image displayed at the right position 216. The virtual image displayed at the right position 216 includes a part of a plurality of elements constituting the predetermined image, and the virtual image displayed at the right position 216 includes the above-described plurality of elements. Consists of other elements other than some elements.

上述した表示システム100、表示制御装置103の各部の機能は、コンピュータプログラムにより実現され得る。   The functions of the units of the display system 100 and the display control apparatus 103 described above can be realized by a computer program.

図14は、各部の機能をプログラムにより実現するコンピュータのハードウェア構成を示す図である。このコンピュータ1000は、入力ボタン、タッチパッドなどの入力装置1001、ディスプレイ、スピーカなどの出力装置1002、CPU(Central Processing Unit)1003、ROM(Read Only Memory)1004、RAM(Random Access Memory)1005を備える。また、コンピュータ1000は、ハードディスク装置、SSD(Solid State Drive)などの記憶装置1006、DVD−ROM(Digital Versatile Disk Read Only Memory)、USB(Universal Serial Bus)メモリなどの記録媒体から情報を読み取る読取装置1007、ネットワークを介して通信を行う送受信装置1008を備える。上記各部は、バス1009により接続される。   FIG. 14 is a diagram illustrating a hardware configuration of a computer that realizes the functions of the respective units by a program. The computer 1000 includes an input device 1001 such as an input button and a touch pad, an output device 1002 such as a display and a speaker, a CPU (Central Processing Unit) 1003, a ROM (Read Only Memory) 1004, and a RAM (Random Access Memory) 1005. . The computer 1000 is a reading device that reads information from a recording medium such as a hard disk device, a storage device 1006 such as an SSD (Solid State Drive), a DVD-ROM (Digital Versatile Disk Read Only Memory), or a USB (Universal Serial Bus) memory. 1007 includes a transmission / reception device 1008 that performs communication via a network. Each of the above parts is connected by a bus 1009.

そして、読取装置1007は、上記各部の機能を実現するためのプログラムを記録した記録媒体からそのプログラムを読み取り、記憶装置1006に記憶させる。あるいは、送受信装置1008が、ネットワークに接続されたサーバ装置と通信を行い、サーバ装置からダウンロードした上記各部の機能を実現するためのプログラムを記憶装置1006に記憶させる。   Then, the reading device 1007 reads the program from a recording medium on which a program for realizing the functions of the above-described units is recorded, and stores the program in the storage device 1006. Alternatively, the transmission / reception device 1008 communicates with a server device connected to the network, and causes the storage device 1006 to store a program for realizing the function of each unit downloaded from the server device.

そして、CPU1003が、記憶装置1006に記憶されたプログラムをRAM1005にコピーし、そのプログラムに含まれる命令をRAM1005から順次読み出して実行することにより、上記各部の機能が実現される。また、プログラムを実行する際、RAM1005または記憶装置1006には、上記実施の形態で述べた各種処理で得られた情報が記憶され、適宜利用される。   Then, the CPU 1003 copies the program stored in the storage device 1006 to the RAM 1005, and sequentially reads and executes the instructions included in the program from the RAM 1005, thereby realizing the functions of the above-described units. Further, when executing the program, the RAM 1005 or the storage device 1006 stores information obtained by the various processes described in the above embodiment, and is used as appropriate.

本発明は、乗員に対して対象物の存在を正確に把握させることができる表示制御プログラムおよび表示制御装置に有用である。   INDUSTRIAL APPLICABILITY The present invention is useful for a display control program and a display control apparatus that can cause an occupant to accurately grasp the presence of an object.

100 表示システム
101 認識部
102 特定部
103 表示制御装置
104 表示部
105 決定部
106 制御部
110,120 カメラ
130 表示媒体
200 歩行者
212 対象物表示位置
214 左側位置
216 右側位置
220 左目
225 中心
230 右目
301,302,401,402 仮想画像
303,304,305,403,404,405 虚像
1000 コンピュータ
1001 入力装置
1002 出力装置
1003 CPU
1004 ROM
1005 RAM
DESCRIPTION OF SYMBOLS 100 Display system 101 Recognition part 102 Identification part 103 Display control apparatus 104 Display part 105 Determination part 106 Control part 110,120 Camera 130 Display medium 200 Pedestrian 212 Object display position 214 Left position 216 Right position 220 Left eye 225 Center 230 Right eye 301 , 302, 401, 402 Virtual image 303, 304, 305, 403, 404, 405 Virtual image 1000 Computer 1001 Input device 1002 Output device 1003 CPU
1004 ROM
1005 RAM

Claims (4)

移動体の乗員の前景の画像である前景画像を取得し、前記前景画像に含まれる所定の対象物を認識する認識部と、
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における領域のうちの所定位置を特定する特定部と、
前記認識部の認識結果に基づいた所定画像を生成し、当該所定画像を前記表示媒体に表示する表示部と、
を含む表示システムにおけるコンピュータに実行させる表示制御プログラムであって、
前記コンピュータに、
前記認識部により前記所定の対象物が認識された場合において、その認識結果に基づいて、前記表示媒体上において、前記特定部により特定された前記所定位置から所定の距離だけ離れた右側位置、および、前記所定位置に対して前記右側位置と実質的に対称の位置である左側位置を決定し、
前記表示媒体に表示されたときに、前記右側位置に第1の右側画像を示すとともに、前記左側位置に第1の左側画像を示す第1の所定画像を、第1のタイミングで表示し、
前記表示媒体に表示されたときに、前記右側位置に第2の右側画像を示すとともに、前記左側位置に第2の左側画像を示す第2の所定画像を、前記第1のタイミングとは異なる第2のタイミングで表示するように前記表示部を制御する処理を実行させ、
前記第1および第2の所定画像はそれぞれ、複数の要素から構成される画像であり、
前記第1の右側画像は、前記複数の要素のうちの一部の要素である第1の要素から構成され、
前記第1の左側画像は、前記複数の要素のうち前記第1の要素以外の第2の要素から構成され、
前記第2の右側画像は、前記複数の要素のうちの一部の要素であり、かつ、前記第1の要素と異なる第3の要素から構成され、
前記第2の左側画像は、前記複数の要素のうち前記第3の要素以外の第4の要素から構成される、
表示制御プログラム。
A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object and recognizes a predetermined object included in the foreground image;
A predetermined area of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the occupant's eye area through a display medium that transmits light. A specific part for specifying the position;
A display unit that generates a predetermined image based on the recognition result of the recognition unit and displays the predetermined image on the display medium;
A display control program to be executed by a computer in a display system including:
In the computer,
When the predetermined object is recognized by the recognition unit, based on the recognition result, on the display medium, a right side position separated from the predetermined position specified by the specifying unit by a predetermined distance; and Determining a left side position that is substantially symmetrical to the right side position with respect to the predetermined position;
When displayed on the display medium, the first predetermined image indicating the first right image at the right position and the first left image at the left position is displayed at a first timing,
When displayed on the display medium, a second predetermined image showing a second right image at the right position and a second left image at the left position is different from the first timing. The process of controlling the display unit to execute display at the timing of 2,
Each of the first and second predetermined images is an image composed of a plurality of elements,
The first right image is composed of a first element that is a part of the plurality of elements,
The first left image is composed of a second element other than the first element among the plurality of elements,
The second right image is a part of the plurality of elements, and includes a third element different from the first element.
The second left image is composed of a fourth element other than the third element among the plurality of elements.
Display control program.
移動体の乗員の前景の画像である前景画像を取得し、前記前景画像に含まれる所定の対象物を認識する認識部と、
前記乗員の目領域のうちの所定の点から、光を透過する表示媒体を介して前記所定の対象物が観察されたときにおける、前記所定の対象物の前記表示媒体上における領域のうちの所定位置を特定する特定部と、
前記認識部の認識結果に基づいた所定画像を生成し、当該所定画像を前記表示媒体に表示する表示部と、
を含む表示システムにおける表示制御装置であって、
前記認識部により前記所定の対象物が認識された場合において、その認識結果に基づいて、前記表示媒体上において、前記特定部により特定された前記所定位置から所定の距離だけ離れた右側位置、および、前記所定位置に対して前記右側位置と実質的に対称の位置である左側位置を決定する決定部と、
前記表示媒体に表示されたときに前記右側位置に第1の右側画像を示すとともに、前記左側位置に第1の左側画像を示す第1の所定画像を、第1のタイミングで表示し、前記表示媒体に表示されたときに前記右側位置に第2の右側画像を示すとともに、前記左側位置に第2の左側画像を示す第2の所定画像を、前記第1のタイミングとは異なる第2のタイミングで表示するように前記表示部を制御する制御部と、
を備え、
前記第1および第2の所定画像はそれぞれ、複数の要素から構成される画像であり、
前記第1の右側画像は、前記複数の要素のうち一部の第1の要素から構成され、
前記第1の左側画像は、前記複数の要素のうち前記第1の要素以外の第2の要素から構成され、
前記第2の右側画像は、前記複数の要素のうち一部、かつ、前記第1の要素と異なる第3の要素から構成され、
前記第2の左側画像は、前記複数の要素のうち前記第3の要素以外の第4の要素から構成される、
表示制御装置。
A recognition unit that acquires a foreground image that is a foreground image of an occupant of a moving object and recognizes a predetermined object included in the foreground image;
A predetermined area of the predetermined object on the display medium when the predetermined object is observed from a predetermined point in the occupant's eye area through a display medium that transmits light. A specific part for specifying the position;
A display unit that generates a predetermined image based on the recognition result of the recognition unit and displays the predetermined image on the display medium;
A display control apparatus in a display system including:
When the predetermined object is recognized by the recognition unit, based on the recognition result, on the display medium, a right side position separated from the predetermined position specified by the specifying unit by a predetermined distance; and Determining a left side position that is substantially symmetrical to the right side position with respect to the predetermined position;
When displayed on the display medium, the first predetermined image indicating the first right image at the right position and the first left image at the left position is displayed at a first timing, and the display A second timing different from the first timing is displayed when the second predetermined right image is displayed at the right position and the second left image is displayed at the left position when displayed on the medium. A control unit for controlling the display unit to display at
With
Each of the first and second predetermined images is an image composed of a plurality of elements,
The first right image is composed of a part of first elements among the plurality of elements,
The first left image is composed of a second element other than the first element among the plurality of elements,
The second right image is composed of a part of the plurality of elements and a third element different from the first element,
The second left image is composed of a fourth element other than the third element among the plurality of elements.
Display control device.
前記第1のタイミングと前記第2のタイミングとの間の時間間隔は、臨界融合周波数以上の周波数の逆数である、
請求項2に記載の表示制御装置。
The time interval between the first timing and the second timing is the reciprocal of a frequency equal to or higher than a critical fusion frequency.
The display control apparatus according to claim 2.
前記所定の対象物は、前記乗員が注視している対象物であり、
前記認識部は、前記乗員の視点方向情報を取得し、取得した当該視点方向情報に基づいて、前記所定の対象物を認識する、
請求項2または3に記載の表示制御装置。
The predetermined object is an object being watched by the occupant,
The recognizing unit acquires the occupant's viewpoint direction information, and recognizes the predetermined object based on the acquired viewpoint direction information;
The display control apparatus according to claim 2 or 3.
JP2014215403A 2014-10-22 2014-10-22 Display control program and display control apparatus Active JP6315383B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014215403A JP6315383B2 (en) 2014-10-22 2014-10-22 Display control program and display control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014215403A JP6315383B2 (en) 2014-10-22 2014-10-22 Display control program and display control apparatus

Publications (2)

Publication Number Publication Date
JP2016081464A true JP2016081464A (en) 2016-05-16
JP6315383B2 JP6315383B2 (en) 2018-04-25

Family

ID=55958885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014215403A Active JP6315383B2 (en) 2014-10-22 2014-10-22 Display control program and display control apparatus

Country Status (1)

Country Link
JP (1) JP6315383B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052617A1 (en) * 2003-08-22 2005-03-10 Denso Corporation Virtual image display apparatus
JP2009099028A (en) * 2007-10-18 2009-05-07 Nissan Motor Co Ltd Visual information presentation device and method
JP4970379B2 (en) * 2008-08-06 2012-07-04 カルソニックカンセイ株式会社 Vehicle display device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050052617A1 (en) * 2003-08-22 2005-03-10 Denso Corporation Virtual image display apparatus
JP2009099028A (en) * 2007-10-18 2009-05-07 Nissan Motor Co Ltd Visual information presentation device and method
JP4970379B2 (en) * 2008-08-06 2012-07-04 カルソニックカンセイ株式会社 Vehicle display device

Also Published As

Publication number Publication date
JP6315383B2 (en) 2018-04-25

Similar Documents

Publication Publication Date Title
EP2857886B1 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US10279741B2 (en) Display control apparatus, method, recording medium, and vehicle
US10298911B2 (en) Visualization of spatial and other relationships
JP6528139B2 (en) Display control device and display control program
US9563981B2 (en) Information processing apparatus, information processing method, and program
CN110168581B (en) Maintaining awareness of occupants in a vehicle
US9589469B2 (en) Display control method, display control apparatus, and display apparatus
WO2015174050A1 (en) Display device and display method
WO2017133140A1 (en) Driving assistance device and driving assistance method
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
JP5866498B2 (en) Display control device, projection device, display control program, and recording medium
EP3012822B1 (en) Display control device, display control method, display control program, and projection device
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP6315427B2 (en) Display control device, display control method, display control program, and projection device
JP7167918B2 (en) vehicle display
JP6315383B2 (en) Display control program and display control apparatus
JP6365879B2 (en) Display control device, display control method, display control program, and projection device
JP6478201B2 (en) Display control device, display system, display control method, display control program, and projection device
WO2016088227A1 (en) Video display device and method
JP6384794B2 (en) Display control device, display control method, display control program, and projection device
JP2020121704A (en) Display control device, head-up display device, method and computer program
JPWO2020045330A1 (en) Vehicle displays, methods, and computer programs
JP2016131362A (en) Display control device, projection device, display control method, display control program and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180316

R151 Written notification of patent or utility model registration

Ref document number: 6315383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151