JP2022121625A - Virtual image display device, control method, program, and recording medium - Google Patents

Virtual image display device, control method, program, and recording medium Download PDF

Info

Publication number
JP2022121625A
JP2022121625A JP2022106026A JP2022106026A JP2022121625A JP 2022121625 A JP2022121625 A JP 2022121625A JP 2022106026 A JP2022106026 A JP 2022106026A JP 2022106026 A JP2022106026 A JP 2022106026A JP 2022121625 A JP2022121625 A JP 2022121625A
Authority
JP
Japan
Prior art keywords
distance
virtual image
observer
display
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022106026A
Other languages
Japanese (ja)
Inventor
哲也 藤栄
Tetsuya Fujie
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022106026A priority Critical patent/JP2022121625A/en
Publication of JP2022121625A publication Critical patent/JP2022121625A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a virtual image display device that is able to accurately specify a virtual image indicated by a user even when directions of displayed virtual images are close when the user performs a gesture on the virtual image.
SOLUTION: A display control unit 11 of a head-up display system 2 simultaneously displays a first object Ob1 and a second object Ob2 visually recognized at a virtual image distance farther than a virtual image distance of the first object Ob2 on a front window 25 as virtual images Iv1 and Iv2, respectively. A gesture detection unit 12 detects a gesture length Ltag that is a distance to which an observer who visually recognizes the virtual images extends his/her hand. Based on the gesture length Ltag, an object specifying unit 13 specifies either the first object Ob1 or the second object Ob2 as an object selected by the observer.
SELECTED DRAWING: Figure 3
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、虚像を表示する技術に関する。 The present invention relates to technology for displaying virtual images.

従来から、ヘッドアップディスプレイにおいて、ユーザのジェスチャに応じて表示内容を変更する技術が知られている。例えば、特許文献1には、運転者の目を撮影する視点検知用カメラと、運転者の手を撮影するジェスチャ検知用カメラを備え、運転者が指先で表示虚像を指し示す動作をすると、運転者の目位置と指先位置を検出することにより運転者の視線上にある虚像を特定し、さらに所定の動作を検出すると特定した虚像を消去するヘッドアップディスプレイが開示されている。また、特許文献2には、フロントウィンドウに少なくとも2つの虚像を同時に表示でき、かつ、表示サイズおよびドライバの虚像に対する焦点距離を各虚像でそれぞれ異なるようにすることが可能なヘッドアップディスプレイが開示されている。 2. Description of the Related Art Conventionally, technology for changing display contents in a head-up display in accordance with user's gestures is known. For example, in Patent Document 1, a viewpoint detection camera that captures the driver's eyes and a gesture detection camera that captures the driver's hand are provided. A head-up display is disclosed that identifies a virtual image on the driver's line of sight by detecting the eye position and fingertip position of the driver, and erases the identified virtual image when a predetermined action is detected. Further, Patent Document 2 discloses a head-up display capable of simultaneously displaying at least two virtual images on the front window and having different display sizes and different focal lengths with respect to the driver's virtual images for each virtual image. ing.

特開2005-138755号公報JP 2005-138755 A 特開2006-106254号公報JP 2006-106254 A

虚像距離が異なる虚像を表示可能なヘッドアップディスプレイなどの虚像表示装置において、表示する各虚像の虚像距離は離れているものの、表示される方向が近い場合には、特許文献1に記載の方法では、ユーザが指し示す虚像を特定することが困難である。そこで、本発明は、ユーザが虚像に対してジェスチャを行う際に、表示される虚像の方向が近い場合であっても、ユーザが指し示す虚像を的確に特定することが可能な虚像表示装置を提供することを主な目的とする。 In a virtual image display device such as a head-up display capable of displaying virtual images with different virtual image distances, the method described in Patent Document 1 is used when the virtual image distances of the virtual images to be displayed are long but the displayed directions are close. , it is difficult to identify the virtual image pointed by the user. SUMMARY OF THE INVENTION Accordingly, the present invention provides a virtual image display device capable of accurately specifying a virtual image pointed by a user when the user makes a gesture with respect to the virtual image, even if the directions of the displayed virtual images are close to each other. The main purpose is to

請求項に記載の発明は、虚像表示装置であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として表示手段に表示させる表示制御手段と、
座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、
を備えることを特徴とする。
The claimed invention is a virtual image display device,
display control means for causing a display means to display, as virtual images, a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance;
a detecting means for detecting a direction in which an observer who sits on a seat and visually recognizes the virtual image extends a hand and a gesture length corresponding to the distance of the extended hand;
identifying means for identifying either the first object or the second object as the object selected by the observer based on the direction in which the hand is extended and the length of the gesture;
characterized by comprising

また、請求項に記載の発明は、虚像表示装置が実行する制御方法であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として表示手段に表示させる表示制御工程と、
座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出工程と、
前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、
を有することを特徴とする。
Further, the claimed invention is a control method executed by a virtual image display device,
a display control step of displaying a first object visually recognized at a first distance and a second object visually recognized at a second distance farther than the first distance on a display means as virtual images;
a detection step of detecting a direction in which an observer who sits on a seat and visually recognizes the virtual image stretches out a hand and a gesture length corresponding to a distance of the stretched hand;
an identifying step of identifying either the first object or the second object as the object selected by the observer based on the direction in which the hand is extended and the length of the gesture;
characterized by having

また、請求項に記載の発明は、コンピュータが実行するプログラムであって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として表示手段に表示させる表示制御手段と、
座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段
として前記コンピュータを機能させることを特徴とする。
Further, the claimed invention is a program executed by a computer,
display control means for causing a display means to display, as virtual images, a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance;
a detecting means for detecting a direction in which an observer who sits on a seat and visually recognizes the virtual image extends a hand and a gesture length corresponding to the distance of the extended hand;
The computer is caused to function as identification means for identifying either the first object or the second object as the object selected by the observer based on the direction in which the hand is extended and the length of the gesture. and

ヘッドアップディスプレイシステムの構成例を示す。1 shows a configuration example of a head-up display system; ヘッドアップディスプレイシステムの制御部のブロック図である。It is a block diagram of the control part of a head up display system. 実施例に係る処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure according to an embodiment; マーク画像を選択して施設の詳細情報を表示する操作を受け付ける前後でのフロントウィンドウの表示例を示す。4A and 4B show display examples of the front window before and after receiving an operation of selecting a mark image and displaying detailed information of a facility. ヘッドアップディスプレイシステムがディスプレイを3つ備える場合のフロントウィンドウ上での表示例を示す。A display example on the front window when the head-up display system has three displays is shown. 伸ばした手の位置と、各手の位置で選択される虚像との関係を示す図である。FIG. 10 is a diagram showing the relationship between the position of the outstretched hand and the virtual image selected at the position of each hand; 非反応範囲を設けた場合の各範囲と伸ばした手先の位置との関係を示す。The relationship between each non-reactive range and the position of the outstretched hand is shown. 虚像の位置と、反応範囲及び非反応範囲との関係を示す。4 shows the relationship between the position of the virtual image and the responsive range and the non-responsive range.

本発明の1つの好適な実施形態では、虚像表示装置は、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出手段と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、を備える。 In one preferred embodiment of the present invention, the virtual image display device simultaneously displays a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance as virtual images. display control means for displaying the first object or the second object based on the distance to which the observer who visually recognizes the virtual image extends the hand, and the distance to which the observer extends the hand as an object selected by the observer.

上記虚像表示装置は、表示制御手段と、検出手段と、特定手段とを備える。表示制御手段は、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示部に表示する。検出手段は、虚像を視認する観察者が手を伸ばした距離を検出する。特定手段は、観察者が手を伸ばした距離に基づいて、第1オブジェクトまたは第2オブジェクトのいずれかを、観察者が選択したオブジェクトとして特定する。この構成によれば、虚像表示装置は、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 The virtual image display device includes display control means, detection means, and identification means. The display control means simultaneously displays a first object visually recognized at a first distance and a second object visually recognized at a second distance farther than the first distance as virtual images on the display unit. The detection means detects the distance that an observer viewing the virtual image extends his/her hand. The identifying means identifies either the first object or the second object as the object selected by the observer based on the distance at which the observer extends his/her hand. According to this configuration, when two objects having different virtual image distances are displayed as virtual images on the display means, the virtual image display device preferably selects the object selected by the observer based on the distance at which the observer extends his or her hand. can be specified.

上記虚像表示装置の一態様では、前記検出手段は、さらに前記観察者が手を伸ばした方向を検出し、前記特定手段は、前記観察者が手を伸ばした方向から所定範囲内に前記第1オブジェクトおよび前記第2オブジェクトに対応する前記虚像の表示位置が含まれる場合に、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する。この態様により、虚像表示装置は、観察者が手を伸ばした方向に複数のオブジェクトが表示されていた場合であっても、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 In one aspect of the virtual image display device, the detecting means further detects a direction in which the hand of the observer extends, and the identifying means detects the first virtual image within a predetermined range from the direction in which the hand of the observer extends. When the display positions of the virtual images corresponding to the object and the second object are included, the observer can select either the first object or the second object based on the distance at which the observer extends his or her hand. is identified as the selected object. According to this aspect, even when a plurality of objects are displayed in the direction in which the observer extends his hand, the virtual image display device can display the object selected by the observer based on the distance in which the observer extends his hand. can be suitably specified.

上記虚像表示装置の他の一態様では、前記特定手段は、前記観察者が手を伸ばした距離が基準距離よりも短い場合に、前記第1オブジェクトを前記観察者が選択したオブジェクトとして特定し、前記観察者が手を伸ばした距離が前記基準距離よりも長い場合に、前記第2オブジェクトを前記観察者が選択したオブジェクトとして特定する。この態様では、虚像表示装置は、遠くに表示された第2オブジェクトを観察者が選択する際には、近くに表示された第1オブジェクトを選択する場合よりも手を伸ばすべき距離を長く設定する。これにより、オブジェクトを選択する操作を、見た目の虚像の距離感と一致させて観察者に好適に実行させることができる。 In another aspect of the virtual image display device, the identifying means identifies the first object as the object selected by the observer when the distance at which the observer stretches out the hand is shorter than a reference distance, The second object is identified as the object selected by the observer when the distance over which the observer extends his/her hand is longer than the reference distance. In this aspect, the virtual image display device sets a longer distance for the observer to extend the hand when selecting the second object displayed farther than when selecting the first object displayed closer. . As a result, the operation of selecting an object can be made to match the visual sense of distance of the virtual image, and the observer can be suitably executed.

上記虚像表示装置の他の一態様では、前記特定手段は、前記第1距離および前記第2距離に応じて、前記基準距離を変化させる。この態様により、虚像表示装置は、オブジェクトを選択する操作を、見た目の虚像の距離感と一致させて観察者に好適に実行させることができる。 In another aspect of the virtual image display device, the identifying means changes the reference distance according to the first distance and the second distance. According to this aspect, the virtual image display device can cause the observer to suitably perform the operation of selecting an object by making it match the visual sense of distance of the virtual image.

上記虚像表示装置の他の一態様では、前記特定手段は、前記基準距離を含む所定距離範囲に前記観察者が手を伸ばした距離が含まれる場合は、前記第1オブジェクトおよび前記第2オブジェクトのいずれも前記観察者が選択したオブジェクトとして特定しない。この態様により、虚像表示装置は、観察者が選択したオブジェクトを誤認識するのを好適に抑制することができる。 In another aspect of the virtual image display device, the specifying means determines whether the first object and the second object are different from each other when the distance to which the observer reaches out is included in the predetermined distance range including the reference distance. Neither is identified as the object selected by the observer. According to this aspect, the virtual image display device can suitably suppress erroneous recognition of the object selected by the observer.

上記虚像表示装置の他の一態様では、虚像表示装置は、前記観察者のジェスチャを認識する認識手段と、前記特定手段により前記観察者が選択したオブジェクトが特定された後に、前記認識手段により所定のジェスチャが認識された際に、前記選択されたオブジェクトに関連する処理を実行する実行手段と、をさらに備える。この態様により、虚像表示装置は、ユーザが選択したオブジェクトに関連する処理を、ユーザのジェスチャに応じて好適に実行することができる。 In another aspect of the virtual image display device, the virtual image display device includes recognition means for recognizing a gesture of the observer, and after the object selected by the observer is specified by the specifying means, a predetermined and execution means for executing processing associated with the selected object when a gesture of is recognized. According to this aspect, the virtual image display device can suitably execute processing related to the object selected by the user according to the user's gesture.

本発明の他の好適な実施形態では、虚像表示装置が実行する制御方法であって、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御工程と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出工程と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、を有する。虚像表示装置は、この制御方法を実行することで、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 In another preferred embodiment of the present invention, there is provided a control method executed by a virtual image display device, wherein a first object is visually recognized at a first distance, and a second object is visually recognized at a second distance farther than the first distance. are simultaneously displayed as a virtual image on a display means, a detection step of detecting a distance to which an observer who visually recognizes the virtual image extends his/her hand, and based on the distance to which the observer extends his/her hand, the first and a specifying step of specifying either the first object or the second object as the object selected by the observer. By executing this control method, the virtual image display device displays two objects with different virtual image distances as virtual images on the display means, and displays the object selected by the observer at a distance that the observer extends his/her hand. It can be preferably specified based on.

本発明のさらに別の実施形態では、コンピュータが実行するプログラムであって、第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として同時に表示手段に表示させる表示制御手段と、前記虚像を視認する観察者が手を伸ばした距離を検出する検出手段と、前記観察者が手を伸ばした距離に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段として前記コンピュータを機能させる。コンピュータは、このプログラムを実行することで、虚像距離の異なる2つのオブジェクトを表示手段に虚像として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。好適には、上記プログラムは、記憶媒体に記憶される。 In yet another embodiment of the present invention, there is provided a program executed by a computer, wherein a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance are virtual images. display control means for simultaneously displaying on a display means; detection means for detecting a distance to which an observer who visually recognizes the virtual image extends his/her hand; The computer is caused to function as specifying means for specifying one of the second objects as the object selected by the observer. By executing this program, the computer, when two objects having different virtual image distances are displayed as virtual images on the display means, preferably selects the object selected by the observer based on the distance at which the observer extends his/her hand. can be specified. Preferably, the program is stored in a storage medium.

以下、図面を参照して本発明の好適な実施例について説明する。 Preferred embodiments of the present invention will be described below with reference to the drawings.

[システム構成]
図1は、実施例に係るヘッドアップディスプレイシステム2の構成例である。図1に示すように、本実施例に係るヘッドアップディスプレイシステム2は、2つの虚像を同時に表示し、かつ、ジェスチャによる操作が可能であって、主に、第1及び第2ディスプレイ41、42(区別しない場合、「ディスプレイ4」と総称する。)と、車室内撮影カメラ6と、凹面鏡8と、図示しない後述の制御部とを備える。そして、ヘッドアップディスプレイシステム2は、フロントウィンドウ25と、天井部27と、ボンネット28と、ダッシュボード29とを備える車両に取り付けられる。
[System configuration]
FIG. 1 is a configuration example of a head-up display system 2 according to an embodiment. As shown in FIG. 1, the head-up display system 2 according to this embodiment simultaneously displays two virtual images and can be operated by gestures. (When not distinguished, it is collectively referred to as a "display 4".), a vehicle interior photographing camera 6, a concave mirror 8, and a later-described control unit (not shown). The head-up display system 2 is attached to a vehicle having a front window 25, a ceiling portion 27, a bonnet 28, and a dashboard 29.

第1及び第2ディスプレイ41、42は、ダッシュボード29内に設けられ、施設情報や経路案内情報、走行速度情報、その他運転を補助する情報を示す画像を表示する。第1ディスプレイ41は、第2ディスプレイ42から凹面鏡8までの光路を遮らない位置に設置される。第1及び第2ディスプレイ41、42は、同じくダッシュボード29内に設けられた凹面鏡8に向けられており、第1及び第2ディスプレイ41、42から射出された光(「表示光」とも呼ぶ。)は、凹面鏡8に入射する。この場合、凹面鏡8で反射した光は、ダッシュボード29に設けられた開口部89を介してフロントウィンドウ25へ到達し、さらにフロントウィンドウ25で反射することで運転者の目の位置に到達する。図1は、第1ディスプレイ41から射出された光の光路を破線、第2ディスプレイ42から射出された光の光路を一点鎖線により示している。 The first and second displays 41 and 42 are provided in the dashboard 29 and display images showing facility information, route guidance information, traveling speed information, and other information that assists driving. The first display 41 is installed at a position that does not block the optical path from the second display 42 to the concave mirror 8 . The first and second displays 41, 42 are also directed toward a concave mirror 8 provided in the dashboard 29, and the light emitted from the first and second displays 41, 42 (also called "display light"). ) is incident on the concave mirror 8 . In this case, the light reflected by the concave mirror 8 reaches the front window 25 through the opening 89 provided in the dashboard 29, and is reflected by the front window 25 to reach the eye position of the driver. In FIG. 1, the optical path of light emitted from the first display 41 is indicated by a dashed line, and the optical path of light emitted from the second display 42 is indicated by a dashed-dotted line.

このように、第1及び第2ディスプレイ41、42は、表示光を運転者の目の位置へ到達させて、運転者に、それぞれ虚像Iv1、Iv2を視認させる。以後では、虚像Iv1として表示される画像を「第1オブジェクトOb1」、虚像Iv2として表示される画像を「第2オブジェクトOb2」、これらを区別しない場合には単に「オブジェクト」とも呼ぶ。 In this way, the first and second displays 41 and 42 cause the display light to reach the positions of the driver's eyes and allow the driver to visually recognize the virtual images Iv1 and Iv2, respectively. Hereinafter, the image displayed as the virtual image Iv1 will be referred to as the "first object Ob1", the image displayed as the virtual image Iv2 will be referred to as the "second object Ob2", and when they are not distinguished, they will simply be referred to as the "object".

ここで、運転者の目の位置から虚像までの距離(単に「虚像距離」とも呼ぶ。)は、ディスプレイ4からフロントウィンドウ25までの光路長に応じて異なる。図1の例では、第2ディスプレイ42は、第1ディスプレイ41よりも凹面鏡8に対して離れた位置に設置されているため、虚像Iv2の虚像距離は、虚像Iv1の虚像距離よりも長くなっている。虚像Iv1の虚像距離は、本発明における「第1距離」の一例であり、虚像Iv2の虚像距離は、本発明における「第2距離」の一例である。 Here, the distance from the position of the driver's eyes to the virtual image (also referred to simply as "virtual image distance") varies depending on the optical path length from the display 4 to the front window 25. FIG. In the example of FIG. 1, the second display 42 is installed at a position farther from the concave mirror 8 than the first display 41, so the virtual image distance of the virtual image Iv2 is longer than the virtual image distance of the virtual image Iv1. there is The virtual image distance of the virtual image Iv1 is an example of the "first distance" in the present invention, and the virtual image distance of the virtual image Iv2 is an example of the "second distance" in the present invention.

なお、第1及び第2ディスプレイ41、42は、液晶ディスプレイの他、画像を構成する光が投影されて中間像が表示されるスクリーンであってもよい。ディスプレイ4、凹面鏡8、及びフロントウィンドウ25は、本発明における「表示手段」の一例である。また、第1ディスプレイ41または第2ディスプレイ42の少なくとも一方は、凹面鏡8との距離をユーザが調整できるように移動自在に構成されていてもよい。 The first and second displays 41 and 42 may be liquid crystal displays, or may be screens on which light forming an image is projected to display an intermediate image. The display 4, the concave mirror 8, and the front window 25 are examples of "display means" in the present invention. At least one of the first display 41 and the second display 42 may be configured to be movable so that the user can adjust the distance to the concave mirror 8 .

車室内撮影カメラ6は、車室内を撮影するカメラであり、運転席に座る運転者の顔及び手が撮影範囲内になるように設置される。車室内撮影カメラ6が撮影した画像(「撮影画像Im」とも呼ぶ。)は、運転者の手の3次元位置を計測するのに用いられる。車室内撮影カメラ6は、好適には、ステレオカメラである。 The vehicle interior photographing camera 6 is a camera for photographing the interior of the vehicle, and is installed so that the face and hands of the driver sitting in the driver's seat are within the photographing range. An image captured by the vehicle interior camera 6 (also referred to as a “captured image Im”) is used to measure the three-dimensional position of the driver's hand. The vehicle interior photographing camera 6 is preferably a stereo camera.

凹面鏡8は、第1ディスプレイ41及び第2ディスプレイ42から射出された表示光を、ダッシュボード29に設けられた開口部89に向けて反射し、フロントウィンドウ25へ到達させる。この場合、凹面鏡8は、表示光が示す画像を拡大して反射する。なお、凹面鏡8は、第1ディスプレイ41及び第2ディスプレイ42の各々に対してそれぞれ設けられてもよい。ここで、第1ディスプレイ41から凹面鏡8までの光路長は、第2ディスプレイ42から凹面鏡8までの光路長よりも短いことから、虚像Iv1は、虚像Iv2よりも虚像距離が短くなる。 The concave mirror 8 reflects the display light emitted from the first display 41 and the second display 42 toward the opening 89 provided in the dashboard 29 to reach the front window 25 . In this case, the concave mirror 8 magnifies and reflects the image indicated by the display light. In addition, the concave mirror 8 may be provided for each of the first display 41 and the second display 42 . Since the optical path length from the first display 41 to the concave mirror 8 is shorter than the optical path length from the second display 42 to the concave mirror 8, the virtual image Iv1 has a shorter virtual image distance than the virtual image Iv2.

なお、以後では、運転者を操作者とする場合について説明するが、他の乗員が操作者であってもよい。この場合であっても、車室内撮影カメラ6は、操作者の顔及び手が撮影範囲内になるように向けられる。 In addition, although the case where a driver|operator is made into an operator henceforth is demonstrated, another passenger|crew may be an operator. Even in this case, the vehicle interior photographing camera 6 is directed so that the operator's face and hands are within the photographing range.

[機能構成]
ヘッドアップディスプレイシステム2は、ヘッドアップディスプレイシステム2を制御する制御部を車室内の任意の位置に有する。図2は、ヘッドアップディスプレイシステム2の制御部10の機能的な構成を表すブロック図である。図2に示すように、制御部10は、ディスプレイ4及び車室内撮影カメラ6と電気的に接続し、表示制御部11と、ジェスチャ検出部12と、対象特定部13とを有する。なお、表示制御部11と、ジェスチャ検出部12と、対象特定部13は、一体に構成されていてもよく、電気的に接続した状態でそれぞれ離れた場所に設置されていてもよい。
[Function configuration]
The head-up display system 2 has a control unit that controls the head-up display system 2 at an arbitrary position inside the vehicle. FIG. 2 is a block diagram showing the functional configuration of the control section 10 of the head-up display system 2. As shown in FIG. As shown in FIG. 2 , the control unit 10 is electrically connected to the display 4 and the vehicle interior photography camera 6 and has a display control unit 11 , a gesture detection unit 12 and an object identification unit 13 . Note that the display control unit 11, the gesture detection unit 12, and the target identification unit 13 may be configured integrally, or may be installed at separate locations while being electrically connected.

表示制御部11は、第1ディスプレイ41及び第2ディスプレイ42の各々に表示させるオブジェクトを表す画像信号を生成する。例えば、表示制御部11は、オブジェクトとして施設の位置を示すマーク画像を表示する場合、図示しないGPS受信機の出力や地図データ等に基づき、フロントウィンドウ25を介して運転者が視認可能な位置に存在する施設を認識し、当該施設を表すマーク画像を表す画像信号を生成する。このとき、表示制御部11は、虚像Iv1、Iv2の各虚像距離を予め記憶しておき、各虚像距離と、車両からマーク画像を表示する施設までの距離とに応じて、第1ディスプレイ41または第2ディスプレイ42のいずれにマーク画像を表示させるか決定する。 The display control unit 11 generates an image signal representing an object to be displayed on each of the first display 41 and the second display 42 . For example, when displaying a mark image indicating the position of a facility as an object, the display control unit 11 places the mark image in a position visible to the driver through the front window 25 based on the output of a GPS receiver (not shown), map data, or the like. An existing facility is recognized and an image signal representing a mark image representing the facility is generated. At this time, the display control unit 11 stores the respective virtual image distances of the virtual images Iv1 and Iv2 in advance, and displays the first display 41 or It is determined on which of the second displays 42 the mark image is to be displayed.

また、表示制御部11は、虚像として表示させるオブジェクトに関する情報(「オブジェクト情報Io」とも呼ぶ。)を、対象特定部13へ供給する。ここで、オブジェクト情報Ioは、例えば、フロントウィンドウ25上での位置及び形状の情報、虚像として表示される際の虚像距離の情報、ジェスチャ操作可能であるか否かを示す情報などを含む。なお、表示制御部11は、オブジェクト情報Ioを生成する場合、オブジェクトの種類に基づき、各オブジェクトがジェスチャ操作可能であるか否かを判定してもよい。例えば、オブジェクトがマーク画像の場合、表示制御部11は、マーク画像が示す施設の詳細情報を地図データ等から抽出可能であることから、ジェスチャ操作可能であると判断する。 In addition, the display control unit 11 supplies information about an object to be displayed as a virtual image (also referred to as “object information Io”) to the target identification unit 13 . Here, the object information Io includes, for example, information on the position and shape on the front window 25, information on the virtual image distance when displayed as a virtual image, information indicating whether gesture operation is possible, and the like. Note that when generating the object information Io, the display control unit 11 may determine whether or not each object can be gesture-operated based on the type of the object. For example, when the object is a mark image, the display control unit 11 determines that the gesture operation is possible because detailed information of the facility indicated by the mark image can be extracted from map data or the like.

なお、表示制御部11は、マーク画像以外に、距離を示す画像、ルート案内の矢印の画像などの種々の画像をオブジェクトとして表示してもよい。この場合、表示制御部11は、例えば、表示する情報の種類ごとに、第1ディスプレイ41または第2ディスプレイ42のいずれで表示するかを決定してもよい。 In addition to the mark image, the display control unit 11 may display various images such as an image indicating a distance and an image of an arrow for route guidance as an object. In this case, the display control unit 11 may determine, for example, which one of the first display 41 and the second display 42 should be used for each type of information to be displayed.

ジェスチャ検出部12は、車室内撮影カメラ6から供給される撮影画像Imを基に運転者のジェスチャを認識する。本実施例では、ジェスチャ検出部12は、公知の画像認識処理に基づき、指差す動作を検出した場合に、伸ばした手の長さ(「ジェスチャ長Ltag」とも呼ぶ。)と、指差した方向(「指差方向Dtag」とも呼ぶ。)を検出する。例えば、ジェスチャ検出部12は、運転者の顏(目)の位置と、手(指)の位置を認識し、検出した顔と手との距離を、ジェスチャ長Ltagとして算出する。また、ジェスチャ検出部12は、顔の位置に対する手の位置の方向を、指差方向Dtagとして算出する。なお、車室内撮影カメラ6がステレオカメラでない単眼カメラの場合には、ジェスチャ検出部12は、ダッシュボード29上に設けられた図示しない複数の距離センサの計測値と、撮影画像Imとに基づき、ジェスチャ長Ltagを算出してもよい。ジェスチャ検出部12は、ジェスチャ長Ltag及び指差方向Dtagの情報を、対象特定部13へ供給する。 The gesture detection unit 12 recognizes the driver's gesture based on the photographed image Im supplied from the vehicle interior photographing camera 6 . In this embodiment, when the gesture detection unit 12 detects a pointing motion based on known image recognition processing, the gesture detection unit 12 detects the length of the extended hand (also referred to as “gesture length Ltag”) and the pointing direction. (also called “pointing direction Dtag”) is detected. For example, the gesture detection unit 12 recognizes the positions of the driver's face (eyes) and hands (fingers), and calculates the distance between the detected face and hands as the gesture length Ltag. The gesture detection unit 12 also calculates the direction of the hand position with respect to the face position as the pointing direction Dtag. If the vehicle interior shooting camera 6 is a monocular camera that is not a stereo camera, the gesture detection unit 12 is based on the measurement values of a plurality of distance sensors (not shown) provided on the dashboard 29 and the captured image Im. A gesture length Ltag may be calculated. The gesture detection unit 12 supplies the information of the gesture length Ltag and the pointing direction Dtag to the target identification unit 13 .

対象特定部13は、表示制御部11から受信したオブジェクト情報Io及びジェスチャ検出部12から通知されたジェスチャ長Ltag及び指差方向Dtagに基づき、運転者が操作可能なオブジェクトのうち、運転者が指し示したオブジェクトを特定する。具体的には、対象特定部13は、まず、オブジェクト情報Io及び指差方向Dtagに基づき、運転者の顔と手を結ぶ方向の周辺に表示されたオブジェクトを特定する。この時、対象特定部13は、オブジェクト情報Ioを参照し、ジェスチャ操作できないオブジェクトを、特定の対象から除外する。また、対象特定部13は、指差方向Dtagの周辺に、虚像Iv1として表示される第1オブジェクトOb1と虚像Iv2として表示される第2オブジェクトOb2が存在した場合、ジェスチャ長Ltagに基づき、いずれのオブジェクトがジェスチャ操作の対象となったか判定する。この場合、対象特定部13は、ジェスチャ長Ltagの閾値(「閾値Lth」とも呼ぶ。)を予め記憶しておく。そして、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上の場合には、虚像距離が長い第2オブジェクトOb2が操作対象であると判断し、ジェスチャ長Ltagが閾値Lthより短い場合には、虚像距離が短い第1オブジェクトOb1が操作対象であると判断する。そして、対象特定部13は、操作対象となったオブジェクトを認識した場合、当該オブジェクトを特定する情報を表示制御部11へ送信する。閾値Lthは、本発明における「基準距離」の一例である。 Based on the object information Io received from the display control unit 11 and the gesture length Ltag and pointing direction Dtag notified from the gesture detection unit 12, the object identification unit 13 selects an object that the driver can operate and which the driver points to. identify the object Specifically, the object identification unit 13 first identifies an object displayed around the direction in which the driver's face and hands are joined based on the object information Io and the pointing direction Dtag. At this time, the target identification unit 13 refers to the object information Io and excludes objects that cannot be gesture-operated from the identification targets. Further, when there are a first object Ob1 displayed as a virtual image Iv1 and a second object Ob2 displayed as a virtual image Iv2 around the pointing direction Dtag, the target identifying unit 13 determines which one of them based on the gesture length Ltag. Determines whether the object is the target of the gesture operation. In this case, the target identifying unit 13 stores in advance a threshold value of the gesture length Ltag (also referred to as "threshold value Lth"). Then, when the gesture length Ltag is equal to or greater than the threshold Lth, the target identifying unit 13 determines that the second object Ob2 having a long virtual image distance is the operation target. It is determined that the first object Ob1 with a short distance is the operation target. Then, when the target identification unit 13 recognizes the object that is the operation target, the target identification unit 13 transmits information for identifying the object to the display control unit 11 . The threshold Lth is an example of the "reference distance" in the present invention.

対象特定部13が操作対象のオブジェクトの認識後、表示制御部11は、対象特定部13が特定したオブジェクトの色を変化させるなどして強調表示することで、選択されたマーク画像を運転者に提示する。その状態から、運転者が手を横に払うなどの所定のジェスチャが行われたことをジェスチャ認識部12がさらに認識した場合には、表示制御部11は、ジェスチャ検出部12が認識したジェスチャに応じて、そのオブジェクトに関連する処理を実行する。具体的には、表示制御部11は、オブジェクトの表示を消去したり、当該オブジェクトに関する追加情報を表示したりする。 After the target specifying unit 13 recognizes the object to be operated, the display control unit 11 highlights the object specified by the target specifying unit 13 by changing the color of the object, thereby displaying the selected mark image to the driver. Present. From this state, when the gesture recognition unit 12 further recognizes that the driver has made a predetermined gesture such as waving his hand to the side, the display control unit 11 responds to the gesture recognized by the gesture detection unit 12. If so, perform the processing associated with that object. Specifically, the display control unit 11 erases the display of the object or displays additional information about the object.

なお、表示制御部11は、本発明における「表示制御手段」及び「実行手段」の一例であり、ジェスチャ検出部12は、本発明における「検出手段」及び「認識手段」の一例であり、対象特定部13は、本発明における「特定手段」の一例である。 The display control unit 11 is an example of the “display control unit” and the “execution unit” in the present invention, and the gesture detection unit 12 is an example of the “detection unit” and the “recognition unit” in the present invention. The identifying unit 13 is an example of "identifying means" in the present invention.

[処理フロー]
図3は、本実施例において制御部10が実行する処理手順を示すフローチャートである。制御部10は、図3に示すフローチャートの処理を、繰り返し実行する。なお、図3では、前提として、表示制御部11は、マーク画像などのオブジェクトを第1ディスプレイ41または/及び第2ディスプレイ42に適宜表示すると共に、表示中のオブジェクトに対応するオブジェクト情報Ioを対象特定部13に送信しているものとする。
[Processing flow]
FIG. 3 is a flow chart showing the processing procedure executed by the control unit 10 in this embodiment. The control unit 10 repeatedly executes the processing of the flowchart shown in FIG. Note that FIG. 3 assumes that the display control unit 11 appropriately displays an object such as a mark image on the first display 41 and/or the second display 42, and also displays object information Io corresponding to the object being displayed. It is assumed that the data is transmitted to the specifying unit 13 .

まず、ジェスチャ検出部12は、車室内撮影カメラ6から受信する撮影画像Im等に基づき、運転者が指差す動作を認識した場合に、手を伸ばした距離に相当するジェスチャ長Ltagと、手を伸ばした方向である指差方向Dtagとを検出する(ステップS101)。そして、ジェスチャ検出部12は、検出したジェスチャ長Ltagと指差方向Dtagの情報を対象特定部13に供給する。 First, when the gesture detection unit 12 recognizes the pointing action of the driver based on the photographed image Im or the like received from the vehicle interior photographing camera 6, the gesture length Ltag corresponding to the distance the hand is stretched and the hand A pointing direction Dtag, which is the extended direction, is detected (step S101). Then, the gesture detection unit 12 supplies information on the detected gesture length Ltag and pointing direction Dtag to the target identification unit 13 .

次に、対象特定部13は、指差方向Dtag周辺に、操作可能なオブジェクトが表示されているか否か判定する(ステップS102)。具体的には、対象特定部13は、まず、表示制御部11から受信したオブジェクト情報Ioに基づき、ジェスチャ操作可能な表示中のオブジェクトの各々について、フロントウィンドウ25上の表示位置を認識する。そして、表示制御部11は、ジェスチャ検出部12から通知された指差方向Dtagが指し示すフロントウィンドウ25上の位置と、上述の表示位置とが近接するオブジェクトが存在するか否か判定する。 Next, the target identifying unit 13 determines whether or not an operable object is displayed around the pointing direction Dtag (step S102). Specifically, the object identifying unit 13 first recognizes the display position on the front window 25 of each of the displayed objects that can be gesture-operated, based on the object information Io received from the display control unit 11 . Then, the display control unit 11 determines whether or not there is an object whose display position is close to the position on the front window 25 indicated by the pointing direction Dtag notified from the gesture detection unit 12 .

そして、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが表示されていると判断した場合(ステップS102;Yes)、ステップS103へ処理を進める。一方、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが表示されていないと判断した場合(ステップS102;No)、オブジェクトに対する操作が行われていないと判断し、ステップS101へ処理を戻す。 Then, when the object specifying unit 13 determines that an operable object is displayed around the pointing direction Dtag (step S102; Yes), the process proceeds to step S103. On the other hand, when the target specifying unit 13 determines that an operable object is not displayed around the pointing direction Dtag (step S102; No), it determines that the object is not being operated, and proceeds to step S101. Return processing.

次に、ステップS103では、対象特定部13は、虚像距離の異なるオブジェクトをステップS102で検出したか否か判定する(ステップS103)。即ち、対象特定部13は、指差方向Dtagの周辺に操作可能なオブジェクトが複数存在し、かつ、これらの虚像距離が異なっているか否か判定する。そして、対象特定部13は、ステップS102で検出したオブジェクトが虚像距離の異なるオブジェクトであった場合(ステップS103;Yes)、ステップS104へ処理を進める。一方、対象特定部13は、虚像距離の異なるオブジェクトを検出しなかった場合(ステップS103;No)、即ち、指差方向Dtagの周辺では虚像距離の異なるオブジェクトが重なって表示されていなかった場合には、指差方向Dtagの周辺の操作可能なオブジェクトが選択されたと認識する(ステップS108)。なお、対象特定部13は、虚像距離が同一の複数のオブジェクトをステップS102で検出した場合には、例えば、指差方向Dtagに最も中心位置が近いオブジェクトが選択されたと認識する。 Next, in step S103, the object specifying unit 13 determines whether or not objects with different virtual image distances are detected in step S102 (step S103). That is, the object identifying unit 13 determines whether or not there are a plurality of operable objects around the pointing direction Dtag and whether or not the virtual image distances of these objects are different. If the object detected in step S102 is an object with a different virtual image distance (step S103; Yes), the target identification unit 13 advances the process to step S104. On the other hand, if the object identifying unit 13 does not detect objects with different virtual image distances (step S103; No), that is, if objects with different virtual image distances are not superimposed and displayed around the pointing direction Dtag, recognizes that an operable object around the pointing direction Dtag has been selected (step S108). When a plurality of objects having the same virtual image distance are detected in step S102, the target identifying unit 13 recognizes that the object whose center position is closest to the pointing direction Dtag has been selected, for example.

次に、ステップS104では、対象特定部13は、虚像距離の異なる各オブジェクト(即ち第1オブジェクトOb1と第2オブジェクトOb2)の虚像距離に応じた閾値Lthを設定する(ステップS104)。この場合、対象特定部13は、第1オブジェクトOb1及び第2オブジェクトOb2の各虚像距離に基づき所定の式等を参照して閾値Lthを算出してもよく、予め算出された閾値Lthをメモリから抽出して使用してもよい。そして、対象特定部13は、ステップS101で検出したジェスチャ長Ltagが閾値Lth以上であるか否か判定する(ステップS105)。そして、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上である場合(ステップS105;Yes)、虚像距離が遠い方のオブジェクトである第2オブジェクトOb2が選択されたと認識する(ステップS106)。一方、対象特定部13は、ジェスチャ長Ltagが閾値Lth未満である場合(ステップS105;No)、虚像距離が近い方のオブジェクトである第1オブジェクトOb1が選択されたと認識する(ステップS107)。 Next, in step S104, the object identifying unit 13 sets a threshold Lth corresponding to the virtual image distance of each object having a different virtual image distance (that is, the first object Ob1 and the second object Ob2) (step S104). In this case, the object identifying unit 13 may calculate the threshold Lth by referring to a predetermined formula based on the respective virtual image distances of the first object Ob1 and the second object Ob2. It can be extracted and used. Then, the target identifying unit 13 determines whether or not the gesture length Ltag detected in step S101 is equal to or greater than the threshold value Lth (step S105). Then, when the gesture length Ltag is equal to or greater than the threshold Lth (step S105; Yes), the target identifying unit 13 recognizes that the second object Ob2, which is the object with the longer virtual image distance, has been selected (step S106). On the other hand, when the gesture length Ltag is less than the threshold value Lth (step S105; No), the target identifying unit 13 recognizes that the first object Ob1, which is the object with the shorter virtual image distance, has been selected (step S107).

そして、表示制御部11は、ステップS106~S108で対象特定部13が指差し動作により選択されたと認識したオブジェクトを強調表示する(ステップS109)。その後、ジェスチャ検出部12は、選択されたオブジェクトに対する所定のジェスチャ操作をさらに検出した場合には、検出したジェスチャ操作に応じて、選択されたオブジェクトの追加情報を表示したり、表示を消去したりする。 Then, the display control unit 11 highlights the object that the object identifying unit 13 recognizes as having been selected by pointing at steps S106 to S108 (step S109). After that, when the gesture detection unit 12 further detects a predetermined gesture operation on the selected object, the gesture detection unit 12 displays additional information of the selected object or clears the display according to the detected gesture operation. do.

[表示例]
図4は、施設名称を表示するマーク画像を運転者がジェスチャにより選択して施設の詳細情報を表示する際の、ジェスチャの実行前後でのフロントウィンドウ25の表示例を示す。
[Display example]
FIG. 4 shows a display example of the front window 25 before and after execution of the gesture when the driver selects the mark image displaying the facility name by gesture to display the detailed information of the facility.

図4(A)に示すように、表示制御部11は、交差点手前にある建物の施設名「Aストア」を表すマーク画像51を表示すると共に、Aストアの道路向かいにある建物の施設名「Bマート」を表すマーク画像52を虚像として表示している。この場合、表示制御部11は、施設名「Aストア」の建物が虚像Iv1の虚像距離(例えば10m)と所定距離以内であることから、マーク画像51を第1ディスプレイ41により第1オブジェクトOb1(即ち虚像Iv1)として表示する。また、表示制御部11は、施設名「Bストア」の建物が虚像Iv2の虚像距離(例えば30m)と所定距離以内であることから、マーク画像52を第2ディスプレイ42により第2オブジェクトOb2(即ち虚像Iv2)として表示する。 As shown in FIG. 4A, the display control unit 11 displays a mark image 51 representing the facility name "A store" of the building located in front of the intersection, and also displays the facility name "A store" of the building across the road from the A store. A mark image 52 representing "B Mart" is displayed as a virtual image. In this case, the display control unit 11 displays the mark image 51 on the first display 41 as the first object Ob1 ( That is, it is displayed as a virtual image Iv1). Further, the display control unit 11 displays the mark image 52 on the second display 42 as the second object Ob2 (that is, It is displayed as a virtual image Iv2).

ここで、マーク画像51とマーク画像52とのフロントウィンドウ25上での表示位置は近い。従って、図4(A)の状態で、マーク画像51または52のいずれかを運転者が指差した場合、対象特定部13は、マーク画像51、52の2つが指差方向Dtagの周辺にあるオブジェクトであると認識する。この場合、対象特定部13は、虚像Iv1、Iv2の各虚像距離に応じて設定した閾値Lthと、ジェスチャ検出部12が検出したジェスチャ長Ltagとを比較することで、マーク画像51、52のいずれが選択されたか判定する。 Here, the display positions of the mark image 51 and the mark image 52 on the front window 25 are close to each other. Therefore, when the driver points to either the mark images 51 or 52 in the state of FIG. recognized as an object. In this case, the target identifying unit 13 compares the threshold Lth set according to the virtual image distances of the virtual images Iv1 and Iv2 with the gesture length Ltag detected by the gesture detecting unit 12 to determine which of the mark images 51 and 52 is selected.

そして、図4(B)の例では、対象特定部13は、ジェスチャ長Ltagが閾値Lth以上であることから、マーク画像52が指差し動作により選択されたと認識し、選択されたマーク画像52に対して縁取り効果を付すことで強調表示する。さらに、指差し動作の認識後、ジェスチャ検出部12が所定のジェスチャをさらに検出したことにより、表示制御部11は、マーク画像52に対応する施設「Bマート」の営業時間などの詳細情報を示した画像53を、地図データ等を参照することで表示する。このとき、好適には、表示制御部11は、選択されたマーク画像52と同じ虚像距離により、即ち第2ディスプレイ42により、画像53を表示するとよい。 In the example of FIG. 4B, since the gesture length Ltag is equal to or greater than the threshold value Lth, the target identifying unit 13 recognizes that the mark image 52 has been selected by the pointing motion, and the selected mark image 52 It is highlighted by adding a border effect to it. Further, after recognizing the pointing motion, the gesture detection unit 12 further detects a predetermined gesture, so that the display control unit 11 displays detailed information such as business hours of the facility "B Mart" corresponding to the mark image 52. The image 53 is displayed by referring to map data or the like. At this time, preferably, the display control unit 11 displays the image 53 at the same virtual image distance as the selected mark image 52 , that is, with the second display 42 .

以上説明したように、本実施例に係るヘッドアップディスプレイシステム2の表示制御部11は、第1オブジェクトOb1と、第1オブジェクトOb2の虚像距離より遠い虚像距離により視認される第2オブジェクトOb2とを、それぞれ虚像Iv1、Iv2として同時にフロントウィンドウ25上に表示する。ジェスチャ検出部12は、虚像を視認する観察者が手を伸ばした距離であるジェスチャ長Ltagを検出する。対象特定部13は、ジェスチャ長Ltagに基づいて、第1オブジェクトOb1または第2オブジェクトOb2のいずれかを、観察者が選択したオブジェクトとして特定する。この構成によれば、ヘッドアップディスプレイシステム2は、虚像距離の異なる2つの第1及び第2オブジェクトOb1、Ob2をそれぞれ虚像Iv1、Iv2として表示させた場合に、観察者が選択したオブジェクトを、観察者が手を伸ばした距離に基づいて好適に特定することができる。 As described above, the display control unit 11 of the head-up display system 2 according to the present embodiment distinguishes between the first object Ob1 and the second object Ob2 visually recognized at a virtual image distance farther than the virtual image distance of the first object Ob2. , are simultaneously displayed on the front window 25 as virtual images Iv1 and Iv2, respectively. The gesture detection unit 12 detects the gesture length Ltag, which is the distance that the observer who visually recognizes the virtual image extends his/her hand. The target identifying unit 13 identifies either the first object Ob1 or the second object Ob2 as the object selected by the observer based on the gesture length Ltag. According to this configuration, when the two first and second objects Ob1 and Ob2 having different virtual image distances are displayed as virtual images Iv1 and Iv2, respectively, the head-up display system 2 can observe the object selected by the observer. It can be preferably specified based on the distance that the person extended his or her hand.

[変形例]
以下、上述の実施例に好適な変形例について説明する。以下の変形例は、任意に組み合わせて上述の実施例に適用してもよい。
[Modification]
Modifications suitable for the above embodiment will be described below. The following modifications may be applied to the above embodiments in any combination.

(変形例1)
図1の例では、ヘッドアップディスプレイシステム2は、ディスプレイ4として、第1ディスプレイ41と第2ディスプレイ42の2つを備えていた。これに代えて、ヘッドアップディスプレイシステム2は、3以上のディスプレイ4を有してもよい。この場合、各ディスプレイ4は、凹面鏡8との距離がそれぞれ異なるように設置され、各ディスプレイ4に表示されるオブジェクトは、それぞれ異なる虚像距離となる虚像として表示される。
(Modification 1)
In the example of FIG. 1 , the head-up display system 2 includes two displays 4, namely a first display 41 and a second display 42. In the example of FIG. Alternatively, head-up display system 2 may have three or more displays 4 . In this case, the displays 4 are installed at different distances from the concave mirror 8, and the objects displayed on the displays 4 are displayed as virtual images at different virtual image distances.

図5は、ヘッドアップディスプレイシステム2がディスプレイ4を3つ備える場合のフロントウィンドウ25上での表示例を示す。図5の例では、各ディスプレイ4は、それぞれ、表示するオブジェクトの虚像距離が10m、20m、30mになるように、凹面鏡8との距離が調整されて、ダッシュボード29内に設置されている。 FIG. 5 shows a display example on the front window 25 when the head-up display system 2 has three displays 4 . In the example of FIG. 5, each display 4 is installed in the dashboard 29 with its distance from the concave mirror 8 adjusted so that the virtual image distances of the displayed objects are 10 m, 20 m, and 30 m.

図5では、表示制御部11は、最も短い虚像距離(10m)となる虚像を表示するディスプレイ4により、当該虚像距離と略同一距離だけ前方にある施設「Aストア」のマーク画像51を表示し、最も長い虚像距離(30m)となる虚像を表示するディスプレイ4により、当該虚像距離と略同一距離だけ前方に視認される施設「Bストア」のマーク画像52を表示している。さらに表示制御部11は、これらの中間の虚像距離(20m)となる虚像を表示するディスプレイ4により、当該虚像と略同一距離だけ前方に視認される交差点に重ねて、進行方向を示す矢印画像54を表示している。 In FIG. 5, the display control unit 11 causes the display 4 that displays the virtual image with the shortest virtual image distance (10 m) to display the mark image 51 of the facility "A store" located ahead by approximately the same distance as the virtual image distance. , the display 4 that displays the virtual image with the longest virtual image distance (30 m) displays the mark image 52 of the facility "B store" that is visually recognized in front by approximately the same distance as the virtual image distance. Furthermore, the display control unit 11 superimposes an arrow image 54 indicating the direction of travel on the intersection that is visually recognized in front by approximately the same distance as the virtual image on the display 4 that displays the virtual image at the intermediate virtual image distance (20 m). is displayed.

なお、図5の例では、表示制御部11は、矢印画像54のオブジェクト情報Ioを生成する場合、ジェスチャ操作が不可である旨の情報をオブジェクト情報Ioに含めて対象特定部13に送信する。これにより、対象特定部13は、指差方向Dtagの周辺に矢印画像54が存在すると判断した場合であっても、指差し動作による選択対象として矢印画像54を認識しない。一方、対象特定部13は、指差方向Dtagの周辺にマーク画像51、52が存在すると判断した場合、後述する2つの閾値Lthに基づき、検出したジェスチャ長Ltagからいずれが選択されたか判定する。 In the example of FIG. 5 , when generating the object information Io of the arrow image 54 , the display control unit 11 includes information indicating that the gesture operation is disabled in the object information Io and transmits the object information Io to the target identification unit 13 . As a result, even when the target identification unit 13 determines that the arrow image 54 exists around the pointing direction Dtag, the target specifying unit 13 does not recognize the arrow image 54 as a target to be selected by the pointing motion. On the other hand, when the target identifying unit 13 determines that the mark images 51 and 52 exist around the pointing direction Dtag, it determines which of the detected gesture lengths Ltag is selected based on two thresholds Lth described later.

次に、ディスプレイ4が3つ存在する場合の閾値Lthの設定方法について説明する。 Next, a method of setting the threshold Lth when there are three displays 4 will be described.

対象特定部13は、ジェスチャ長Ltagに関して閾値Lthを2つ設定することで、虚像距離が最も長いオブジェクトが選択されたと判定する範囲、虚像距離が2番目に長いオブジェクトが選択されたと判定する範囲、及び虚像距離が最も短いオブジェクトが選択されたと判定する範囲とをそれぞれ設ける。以後では、2つの閾値Lthのうち小さい方の閾値Lthを「第1閾値Lth1」と呼び、大きい方の閾値Lthを「第2閾値Lth2」とも呼ぶ。 By setting two thresholds Lth for the gesture length Ltag, the target identifying unit 13 determines a range in which an object with the longest virtual image distance is selected, a range in which it is determined that an object with the second longest virtual image distance is selected, and a range for determining that the object with the shortest virtual image distance is selected. Hereinafter, the smaller threshold Lth of the two thresholds Lth will be referred to as "first threshold Lth1", and the larger threshold Lth will also be referred to as "second threshold Lth2".

図6は、伸ばした手の位置と、各手の位置で選択される虚像との関係を示す図である。図6の例では、ヘッドアップディスプレイシステム2は、虚像距離がそれぞれ異なる虚像Iv1~Iv3を、指差方向Dtagの周辺に表示している。また、反応範囲R1~R3は、第1閾値Lth1及び第2閾値Lth2により分けられたジェスチャ長Ltagの範囲を示す。 FIG. 6 is a diagram showing the relationship between the position of the outstretched hand and the virtual image selected at each hand position. In the example of FIG. 6, the head-up display system 2 displays virtual images Iv1 to Iv3 having different virtual image distances around the pointing direction Dtag. Also, the reaction range R1 to R3 indicates the range of the gesture length Ltag divided by the first threshold Lth1 and the second threshold Lth2.

図6の例では、対象特定部13は、虚像Iv1~Iv3の方向を指差すジェスチャをジェスチャ検出部12が検出した際に、検出したジェスチャ長Ltagが反応範囲R1に属する場合には、虚像Iv1に相当するオブジェクトが選択されたと認識する。また、対象特定部13は、検出したジェスチャ長Ltagが反応範囲R2に属する場合には、虚像Iv2に相当するオブジェクトが選択されたと認識する。同様に、対象特定部13は、検出したジェスチャ長Ltagが反応範囲R3に属する場合には、虚像Iv3に相当するオブジェクトが選択されたと認識する。 In the example of FIG. 6, when the gesture detection unit 12 detects a gesture pointing in the direction of the virtual images Iv1 to Iv3, the target identification unit 13 detects the virtual image Iv1 if the detected gesture length Ltag belongs to the reaction range R1. It recognizes that the object corresponding to is selected. Further, when the detected gesture length Ltag belongs to the reaction range R2, the target identifying unit 13 recognizes that the object corresponding to the virtual image Iv2 has been selected. Similarly, when the detected gesture length Ltag belongs to the reaction range R3, the target identification unit 13 recognizes that the object corresponding to the virtual image Iv3 has been selected.

このように、虚像距離が異なる3つの虚像が表示された場合であっても、対象特定部13は、ジェスチャ長Ltagに基づき、ユーザがジェスチャにより選択したオブジェクトを的確に認識することができる。なお、ディスプレイ4が4つ以上存在する場合についても、ディスプレイ4の数に応じて閾値Lthを設定することで、ユーザがジェスチャにより選択したオブジェクトを的確に認識することができる。 In this way, even when three virtual images with different virtual image distances are displayed, the target identifying unit 13 can accurately recognize the object selected by the user with a gesture based on the gesture length Ltag. Note that even when there are four or more displays 4, by setting the threshold Lth according to the number of displays 4, the object selected by the user's gesture can be accurately recognized.

また、好適には、対象特定部13は、設定した閾値Lthを含む近傍範囲にジェスチャ長Ltagが属する場合には、ジェスチャ長Ltagと閾値Lthとの大小関係に関わらず、オブジェクトを選択する操作がなされていないと見なしてもよい。 Preferably, when the gesture length Ltag belongs to the vicinity range including the set threshold value Lth, the target identifying unit 13 can perform the operation of selecting the object regardless of the magnitude relationship between the gesture length Ltag and the threshold value Lth. may be considered not to have been done.

図7は、図6に示した反応範囲R1~R3の間に、オブジェクトを選択する操作がなされていないと見なす非反応範囲NR1、NR2を設けた場合の各範囲とジェスチャ長Ltagとの関係を示す。 FIG. 7 shows the relationship between each range and the gesture length Ltag when non-reaction ranges NR1 and NR2 are provided between the response ranges R1 to R3 shown in FIG. show.

図7の例では、対象特定部13は、非反応範囲NR1を、第1閾値Lth1の前後の所定距離以内の近傍範囲に設定し、非反応範囲NR2を、第2閾値Lth2の前後の所定距離以内の近傍範囲に設定している。そして、対象特定部13は、ジェスチャ長Ltagが非反応範囲NR1、NR2のいずれかに属する場合には、指差し動作が無効であるとみなす。 In the example of FIG. 7, the target identifying unit 13 sets the non-reacting range NR1 to a neighborhood range within a predetermined distance before and after the first threshold Lth1, and sets the non-reacting range NR2 to a predetermined distance before and after the second threshold Lth2. It is set to a neighborhood range within Then, when the gesture length Ltag belongs to either of the non-reaction ranges NR1 and NR2, the target identifying unit 13 regards the pointing motion as invalid.

このように、ジェスチャ検出部12は、非反応範囲NR1、NR2を設けることで、オブジェクトを選択する操作の誤認識を好適に抑制することができる。なお、図7の例では、ディスプレイ4が3つ存在する場合について述べたが、ディスプレイ4が2つの場合、又は、ディスプレイ4が4つ以上の場合においても同様に、非反応範囲を設けてもよい。この場合であっても、対象特定部13は、各閾値Lthの近傍範囲をオブジェクトの選択操作を受け付けない範囲に設定することで、オブジェクトの選択操作の誤認識を好適に抑制することができる。 Thus, by providing the non-reaction ranges NR1 and NR2, the gesture detection unit 12 can suitably suppress erroneous recognition of the operation of selecting an object. In the example of FIG. 7, the case where there are three displays 4 has been described. good. Even in this case, the target identification unit 13 can preferably suppress erroneous recognition of the object selection operation by setting the vicinity range of each threshold value Lth to a range in which the object selection operation is not accepted.

また、対象特定部13は、第1閾値Lth1及び第2閾値Lth2を、虚像Iv1~Iv3の虚像距離に応じて設定してもよく、虚像Iv1~Iv3の虚像距離によらずに設定してもよい。 Further, the target specifying unit 13 may set the first threshold Lth1 and the second threshold Lth2 according to the virtual image distances of the virtual images Iv1 to Iv3, or may set them regardless of the virtual image distances of the virtual images Iv1 to Iv3. good.

図8は、運転者の視線方向における虚像Iv1~Iv3の位置と、反応範囲R1~R3及び非反応範囲NR1、NR2との関係を示す。具体的には、図8(A)は、運転者の視線方向における虚像Iv1~Iv3の位置関係を示し、図8(B)は、虚像Iv1~Iv3の虚像距離に応じて第1閾値Lth1及び第2閾値Lth2を設定した場合の反応範囲R1~R3及び非反応範囲NR1、NR2を示し、図8(C)は、虚像Iv1~Iv3の虚像距離によらずに第1閾値Lth1及び第2閾値Lth2を設定した場合の反応範囲R1~R3及び非反応範囲NR1、NR2を示す。図8(B)、(C)の例では、いずれも、反応範囲R1~R3は、等しい長さに設定されている。 FIG. 8 shows the relationship between the positions of the virtual images Iv1-Iv3 in the line-of-sight direction of the driver, the reaction ranges R1-R3 and the non-reaction ranges NR1 and NR2. Specifically, FIG. 8A shows the positional relationship of the virtual images Iv1 to Iv3 in the line-of-sight direction of the driver, and FIG. 8B shows the first threshold Lth1 and Shows the reaction range R1 ~ R3 and the non-reaction range NR1, NR2 when the second threshold Lth2 is set, FIG. Reaction ranges R1 to R3 and non-reaction ranges NR1 and NR2 are shown when Lth2 is set. In both examples of FIGS. 8B and 8C, the reaction ranges R1 to R3 are set to have the same length.

図8(B)の例では、反応範囲R1の中央値と反応範囲R2の中央値との差(矢印B1参照)と、反応範囲R2の中央値と反応範囲R3の中央値との差(矢印B2参照)との比は、虚像Iv1と虚像Iv2との虚像距離の差(矢印A1参照)と、虚像Iv2と虚像Iv3との虚像距離の差(矢印A2参照)との比と等しい。この場合、第1閾値Lth1は、反応範囲R1の中央値と反応範囲R2の中央値との平均値に設定され、第2閾値Lth2は、反応範囲R2の中央値と反応範囲R3の中央値との平均値に設定される。また、非反応範囲NR1は、第1閾値Lth1を中心とした範囲に設定され、非反応範囲NR2は、第2閾値Lth2を中心とした範囲に設定されている。 In the example of FIG. 8(B), the difference between the median value of the reaction range R1 and the median value of the reaction range R2 (see arrow B1) and the difference between the median value of the reaction range R2 and the median value of the reaction range R3 (arrow B2) is equal to the ratio of the difference in virtual image distance between the virtual images Iv1 and Iv2 (see arrow A1) and the difference in virtual image distance between the virtual images Iv2 and Iv3 (see arrow A2). In this case, the first threshold Lth1 is set to the average value of the median of the reaction ranges R1 and R2, and the second threshold Lth2 is set to the median of the reaction ranges R2 and R3. is set to the average value of Further, the non-reaction range NR1 is set to a range centered on the first threshold Lth1, and the non-reaction range NR2 is set to a range centered on the second threshold Lth2.

一方、図8(C)の例では、反応範囲R1の中央値と反応範囲R2の中央値との差(矢印C1参照)と、反応範囲R2の中央値と反応範囲R3の中央値との差(矢印C2参照)とは等しい。即ち、この場合、虚像Iv1~虚像Iv3の虚像距離によらずに、反応範囲R1~R3は等間隔に設定されている。また、図8(B)の例と同様、第1閾値Lth1は、反応範囲R1の中央値と反応範囲R2の中央値との平均値に設定され、第2閾値Lth2は、反応範囲R2の中央値と反応範囲R3の中央値との平均値に設定される。また、非反応範囲NR1は、第1閾値Lth1を中心とした範囲に設定され、非反応範囲NR2は、第2閾値Lth2を中心とした範囲に設定されている。 On the other hand, in the example of FIG. 8(C), the difference between the median value of the reaction range R1 and the median value of the reaction range R2 (see arrow C1) and the difference between the median value of the reaction range R2 and the median value of the reaction range R3 (See arrow C2). That is, in this case, the reaction ranges R1 to R3 are set at regular intervals regardless of the virtual image distances of the virtual images Iv1 to Iv3. Further, as in the example of FIG. 8B, the first threshold Lth1 is set to the average value of the median value of the reaction range R1 and the median value of the reaction range R2, and the second threshold Lth2 is set to the center of the reaction range R2. and the median of the response range R3. Further, the non-reaction range NR1 is set to a range centered on the first threshold Lth1, and the non-reaction range NR2 is set to a range centered on the second threshold Lth2.

(変形例2)
本発明に係る虚像表示装置を適用可能なヘッドアップディスプレイシステムの構成は、複数の虚像のそれぞれを同時に複数の虚像距離により表示するものであればよく、図1に示す構成に限定されない。例えば、ヘッドアップディスプレイは、フロントウィンドウ25に代えて、運転者と車両の前方風景との間に設けられたコンバイナにディスプレイ4の光を反射させることで、運転者に虚像を視認させてもよい。
(Modification 2)
The configuration of a head-up display system to which the virtual image display device according to the present invention can be applied is not limited to the configuration shown in FIG. For example, the head-up display may allow the driver to visually recognize a virtual image by reflecting light from the display 4 on a combiner provided between the driver and the scenery ahead of the vehicle instead of the front window 25. .

また、本発明に係る虚像表示装置は、複数の虚像のそれぞれを同時に複数の虚像距離で表示するヘッドマウントディスプレイにも好適に適用される。この場合、例えば、ヘッドマウントディスプレイのテンプル又はブリッジ部分等には、ユーザのジェスチャを撮影範囲に有する車室内撮影カメラ6が設けられる。 Also, the virtual image display device according to the present invention is preferably applied to a head-mounted display that simultaneously displays a plurality of virtual images at a plurality of virtual image distances. In this case, for example, the temple or bridge portion of the head-mounted display is provided with an in-vehicle camera 6 that captures the user's gestures.

2 ヘッドアップディスプレイシステム
4 ディスプレイ
6 車室内撮影カメラ
8 凹面鏡
10 制御部
11 表示制御部
12 ジェスチャ検出部
13 対象特定部
25 フロントウィンドウ
28 ボンネット
29 ダッシュボード
2 head-up display system 4 display 6 in-vehicle camera 8 concave mirror 10 control unit 11 display control unit 12 gesture detection unit 13 object identification unit 25 front window 28 bonnet 29 dashboard

Claims (8)

第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として表示手段に表示させる表示制御手段と、
座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段と、
を備えることを特徴とする虚像表示装置。
display control means for causing a display means to display, as virtual images, a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance;
a detecting means for detecting a direction in which an observer who sits on a seat and visually recognizes the virtual image extends a hand and a gesture length corresponding to the distance of the extended hand;
identifying means for identifying either the first object or the second object as the object selected by the observer based on the direction in which the hand is extended and the length of the gesture;
A virtual image display device comprising:
前記特定手段は、前記観察者が手を伸ばした方向から所定範囲内に前記第1オブジェクトおよび前記第2オブジェクトに対応する前記虚像の表示位置が含まれる場合に、前記観察者が手を伸ばした距離に相当するジャスチャ長に基づいて、前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定することを特徴とする請求項1に記載の虚像表示装置。 The identification means determines that the observer reaches out his or her hand when the display positions of the virtual images corresponding to the first object and the second object are within a predetermined range from a direction in which the observer extends the hand. 2. The virtual image display device according to claim 1, wherein either the first object or the second object is specified as the object selected by the observer based on a gesture length corresponding to a distance. 前記特定手段は、前記観察者が手を伸ばした距離に相当するジャスチャ長が基準距離よりも短い場合に、前記第1オブジェクトを前記観察者が選択したオブジェクトとして特定し、前記観察者が手を伸ばした距離に相当するジャスチャ長が前記基準距離よりも長い場合に、前記第2オブジェクトを前記観察者が選択したオブジェクトとして特定することを特徴とする請求項1または2に記載の虚像表示装置。 The identifying means identifies the first object as an object selected by the observer when a gesture length corresponding to a distance over which the observer extends the hand is shorter than a reference distance. 3. The virtual image display device according to claim 1, wherein the second object is specified as the object selected by the observer when the gesture length corresponding to the stretched distance is longer than the reference distance. 前記表示制御手段は、前記第1オブジェクトおよび前記第2オブジェクトを、同時に前記表示手段に表示させ、
前記特定手段は、前記第1距離および前記第2距離に応じて、前記基準距離を変化させることを特徴とする請求項3に記載の虚像表示装置。
The display control means displays the first object and the second object simultaneously on the display means,
4. The virtual image display device according to claim 3, wherein said specifying means changes said reference distance according to said first distance and said second distance.
前記特定手段は、前記基準距離を含む所定距離範囲に前記観察者が手を伸ばした距離に相当するジャスチャ長が含まれる場合は、前記第1オブジェクトおよび前記第2オブジェクトのいずれも前記観察者が選択したオブジェクトとして特定しないことを特徴とする請求項3に記載の虚像表示装置。 The identifying means determines that, when the predetermined distance range including the reference distance includes a gesture length corresponding to the distance that the observer extended his or her hand, both the first object and the second object are determined by the observer. 4. The virtual image display device according to claim 3, wherein the selected object is not specified. 虚像表示装置が実行する制御方法であって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として表示手段に表示させる表示制御工程と、
座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出工程と、
前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定工程と、
を有することを特徴とする制御方法。
A control method executed by a virtual image display device,
a display control step of displaying a first object visually recognized at a first distance and a second object visually recognized at a second distance farther than the first distance on a display means as virtual images;
a detection step of detecting a direction in which an observer who sits on a seat and visually recognizes the virtual image stretches out a hand and a gesture length corresponding to a distance of the stretched hand;
an identifying step of identifying either the first object or the second object as the object selected by the observer based on the direction in which the hand is extended and the length of the gesture;
A control method characterized by having
コンピュータが実行するプログラムであって、
第1距離に視認させる第1オブジェクトと、前記第1距離より遠い第2距離に視認させる第2オブジェクトとを、虚像として表示手段に表示させる表示制御手段と、
座席に座して前記虚像を視認する観察者が手を伸ばした方向、及び、前記手を伸ばした距離に相当するジェスチャ長を検出する検出手段と、
前記手を伸ばした方向、及び、前記ジェスチャ長に基づいて前記第1オブジェクトまたは前記第2オブジェクトのいずれかを、前記観察者が選択したオブジェクトとして特定する特定手段
として前記コンピュータを機能させるプログラム。
A program executed by a computer,
display control means for causing a display means to display, as virtual images, a first object to be visually recognized at a first distance and a second object to be visually recognized at a second distance farther than the first distance;
a detecting means for detecting a direction in which an observer who sits on a seat and visually recognizes the virtual image extends a hand and a gesture length corresponding to the distance of the extended hand;
A program that causes the computer to function as identifying means for identifying either the first object or the second object as the object selected by the observer based on the direction in which the hand is stretched and the length of the gesture.
請求項7に記載のプログラムを記憶した記憶媒体。 A storage medium storing the program according to claim 7 .
JP2022106026A 2020-10-26 2022-06-30 Virtual image display device, control method, program, and recording medium Pending JP2022121625A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022106026A JP2022121625A (en) 2020-10-26 2022-06-30 Virtual image display device, control method, program, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020178815A JP7100100B2 (en) 2020-10-26 2020-10-26 Virtual image display device, control method, program, and storage medium
JP2022106026A JP2022121625A (en) 2020-10-26 2022-06-30 Virtual image display device, control method, program, and recording medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020178815A Division JP7100100B2 (en) 2020-10-26 2020-10-26 Virtual image display device, control method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2022121625A true JP2022121625A (en) 2022-08-19

Family

ID=74530328

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020178815A Active JP7100100B2 (en) 2020-10-26 2020-10-26 Virtual image display device, control method, program, and storage medium
JP2022106026A Pending JP2022121625A (en) 2020-10-26 2022-06-30 Virtual image display device, control method, program, and recording medium

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020178815A Active JP7100100B2 (en) 2020-10-26 2020-10-26 Virtual image display device, control method, program, and storage medium

Country Status (1)

Country Link
JP (2) JP7100100B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134089A (en) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd Hand pointing device
JP2006106254A (en) * 2004-10-04 2006-04-20 Denso Corp Head-up display for vehicle
JP2011253468A (en) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd Display device, display method and display program

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1097646A (en) * 1996-09-24 1998-04-14 Rekusaa Res:Kk Method and device for obtaining three dimensional space coordinate value in three-dimensional space display system
JP2005138755A (en) * 2003-11-07 2005-06-02 Denso Corp Device and program for displaying virtual images
JP2005301668A (en) * 2004-04-12 2005-10-27 Seiko Epson Corp Information processor and information processing program
JP4526362B2 (en) * 2004-11-29 2010-08-18 オリンパス株式会社 Input device
JP4318056B1 (en) * 2008-06-03 2009-08-19 島根県 Image recognition apparatus and operation determination method
JP5262681B2 (en) * 2008-12-22 2013-08-14 ブラザー工業株式会社 Head mounted display and program thereof
JP5627314B2 (en) * 2010-06-24 2014-11-19 キヤノン株式会社 Information processing device
JP5609416B2 (en) * 2010-08-19 2014-10-22 ソニー株式会社 Information processing apparatus, information processing method, and program
JP5617448B2 (en) * 2010-08-31 2014-11-05 ソニー株式会社 Information processing apparatus, information processing method, and program
JP4975889B1 (en) * 2012-02-07 2012-07-11 パイオニア株式会社 Head-up display, control method, and display device
JP2014056462A (en) * 2012-09-13 2014-03-27 Toshiba Alpine Automotive Technology Corp Operation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11134089A (en) * 1997-10-29 1999-05-21 Takenaka Komuten Co Ltd Hand pointing device
JP2006106254A (en) * 2004-10-04 2006-04-20 Denso Corp Head-up display for vehicle
JP2011253468A (en) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd Display device, display method and display program

Also Published As

Publication number Publication date
JP7100100B2 (en) 2022-07-12
JP2021014262A (en) 2021-02-12

Similar Documents

Publication Publication Date Title
EP2891953B1 (en) Eye vergence detection on a display
EP3213948B1 (en) Display control device and display control program
EP2936240B1 (en) Infotainment system
JP2016091192A (en) Virtual image display apparatus, control method, program, and storage medium
US20170269684A1 (en) Vehicle display device
US11803053B2 (en) Display control device and non-transitory tangible computer-readable medium therefor
JP2006350934A (en) Information display device
US10477155B2 (en) Driving assistance method, driving assistance device, and recording medium recording program using same
JP2008018760A (en) Driving support device
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
JP2009020570A (en) Vehicle traveling support apparatus
JP2016078498A (en) Display control device and display system
JP2017149335A (en) Drive support information display device
JP2016074410A (en) Head-up display device and head-up display display method
JP2014120114A (en) Travel support system, travel support method, and computer program
CN108725321A (en) Information presentation device
WO2016056199A1 (en) Head-up display device, and display method for head-up display
JP2011049773A (en) Output controller, and output control method
JP2014120113A (en) Travel support system, travel support method, and computer program
JP2019010919A (en) Travel support device and computer program
JP2015219631A (en) Display device and vehicle
JP7100100B2 (en) Virtual image display device, control method, program, and storage medium
JP2007280203A (en) Information presenting device, automobile and information presenting method
JP2014174091A (en) Information providing device and information providing program
JP2014174880A (en) Information processor and information program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230712

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240305